ОПТИМИЗАЦИЈА ЧЕТБОТА КОРИШЋЕЊЕМ ТРАНСФОРМЕР МОДЕЛА
DOI:
https://doi.org/10.24867/33BE34KanjuhKljučne reči:
трансформер модели, chatbot, LSTM, BERT, природна обрада језика, велики језички моделиApstrakt
Циљ рада је оптимизација конверзацијског четбота за домен осигурања коришћењем алгоритама природне обраде језика и трансформер модела, конкретно BERT модела, ради бољег разумевања језика и термина специфичних за осигурање. У истраживању је четбот обучен и тестиран у поређењу са LSTM моделом, при чему су експериментални резултати показали да BERT модел даје боље резултате због своје способности разумевања ширег контекста у упитима корисника. Ова способност омогућава четботу да прецизније интерпретира сложене и контекстуално богате упите, што је посебно важно за пружање тачних и поузданих информација у домену осигурања.
Reference
[1]Ferrer, J. (2024) How transformers work: A detailed exploration of Transformer architecture, DataCamp.
[2]Nyandwi, J. (2023) Ai Research Blog - The Transformer Blueprint: A holistic guide to the transformer neural network architecture, Deep Learning Revision
[3]Horev, R. (2018) Bert explained: State of the art language model for NLP, Medium.