##navigation.skip.nav## ##navigation.skip.main## ##navigation.skip.footer##

Elektrotehničko i računarsko inženjerstvo

God. 40 Br. 12 (2025): Zbornik radova Fakulteta tehničkih nauka

ОПТИМИЗАЦИЈА ЧЕТБОТА КОРИШЋЕЊЕМ ТРАНСФОРМЕР МОДЕЛА

  • Nađa Kanjuh
DOI:
https://doi.org/10.24867/33BE34Kanjuh
Predato
January 16, 2026
Objavljeno
2026-02-18

Apstrakt

Циљ рада је оптимизација конверзацијског четбота за домен осигурања коришћењем алгоритама природне обраде језика и трансформер модела, конкретно BERT модела, ради бољег разумевања језика и термина специфичних за осигурање. У истраживању је четбот обучен и тестиран у поређењу са LSTM моделом, при чему су експериментални резултати показали да BERT модел даје боље резултате због своје способности разумевања ширег контекста у упитима корисника. Ова способност омогућава четботу да прецизније интерпретира сложене и контекстуално богате упите, што је посебно важно за пружање тачних и поузданих информација у домену осигурања.

Reference

  1. [1]Ferrer, J. (2024) How transformers work: A detailed exploration of Transformer architecture, DataCamp.
  2. [2]Nyandwi, J. (2023) Ai Research Blog - The Transformer Blueprint: A holistic guide to the transformer neural network architecture, Deep Learning Revision
  3. [3]Horev, R. (2018) Bert explained: State of the art language model for NLP, Medium.
  4. [4]https://paperswithcode.com/dataset/sts-benchmark