ОПТИМИЗАЦИЈА ЧЕТБОТА КОРИШЋЕЊЕМ ТРАНСФОРМЕР МОДЕЛА

Autori

  • Nađa Kanjuh Autor

DOI:

https://doi.org/10.24867/33BE34Kanjuh

Ključne reči:

трансформер модели, chatbot, LSTM, BERT, природна обрада језика, велики језички модели

Apstrakt

Циљ рада је оптимизација конверзацијског четбота за домен осигурања коришћењем алгоритама природне обраде језика и трансформер модела, конкретно BERT модела, ради бољег разумевања језика и термина специфичних за осигурање. У истраживању је четбот обучен и тестиран у поређењу са LSTM моделом, при чему су експериментални резултати показали да BERT модел даје боље резултате због своје способности разумевања ширег контекста у упитима корисника. Ова способност омогућава четботу да прецизније интерпретира сложене и контекстуално богате упите, што је посебно важно за пружање тачних и поузданих информација у домену осигурања.

Reference

[1]Ferrer, J. (2024) How transformers work: A detailed exploration of Transformer architecture, DataCamp.

[2]Nyandwi, J. (2023) Ai Research Blog - The Transformer Blueprint: A holistic guide to the transformer neural network architecture, Deep Learning Revision

[3]Horev, R. (2018) Bert explained: State of the art language model for NLP, Medium.

[4]https://paperswithcode.com/dataset/sts-benchmark

##submission.downloads##

Objavljeno

2026-01-30

Broj časopisa

Rubrika

Elektrotehničko i računarsko inženjerstvo