EKSPERIMENTI SA VEKTROSKIM REPREZENTACIJAMA TEKSTA ZA EKSTRAKTIVNU SUMARIZACIJU
Ključne reči:
Veštačka inteligencija, duboko učenje, ekstraktivna sumarizacija, NLP, FastText, BERT, GPT
Apstrakt
U ovom radu je implementirano rešenje problema ekstraktivne sumarizacije komentara za smeštaj u hotelima koje su napisali korisnici. Rešenje je implementirano koristeći FastText, BERT i GPT 3.5 modele dubokog učenja. U radu je detaljno opisan način funkcionisanja sva tri pomenuta modela, kao i načini njihove upotrebe prilikom rešavanja ovog problema. Skup podataka koji je korišćen u ovom rešenju se sastoji od javno dostupnih komentara korisnika, kreiran procesom scrape-ovanja. U radu je prilikom evaluacije rezultata upoređena efikasnost sva tri navedena pristupa rešavanja problema.
Reference
[1] Rada Mihalcea and Paul Tarau, 2004. TextRank: Bringing Order into Texts https://aclanthology.org/W04-3252.pdf
[2] Abhishek Kumar, 2023. EXTRACTIVE TEXT SUMMARIZATION https://14.139.251.106:8080/jspui/bitstream/repository/20079/1/Abhishek%20Kumar%20Mtech.pdf
[3] Complete Guide to TensorFlow for Deep Learning with Python by Jose Portilla – Udemy course - https://www.udemy.com/course/complete-guide-to-tensorflow-for-deep-learning-with-python/
[4] What is natural language processing (NLP)? - https://www.ibm.com/topics/natural-language-processing
[2] Abhishek Kumar, 2023. EXTRACTIVE TEXT SUMMARIZATION https://14.139.251.106:8080/jspui/bitstream/repository/20079/1/Abhishek%20Kumar%20Mtech.pdf
[3] Complete Guide to TensorFlow for Deep Learning with Python by Jose Portilla – Udemy course - https://www.udemy.com/course/complete-guide-to-tensorflow-for-deep-learning-with-python/
[4] What is natural language processing (NLP)? - https://www.ibm.com/topics/natural-language-processing
Objavljeno
2024-09-06
Sekcija
Elektrotehničko i računarsko inženjerstvo