UPOTREBLJIVOST GRAPHQL BIBLIOTEKE ZA RAZVOJ NLP INTERFEJSA
Ključne reči:
NLP, GraphQL, API
Apstrakt
Konceptualno rešenje sistema koje korisnicima omogućava pristup podacima iz skladišta koristeći naredbe na prirodnom jeziku. Korisnici putem NLP interfejsa postavljaju upite na prirodnom jeziku kako bi dobili željene podatke. Sistem automatski prevodi upite na prirodnom jeziku u GraphQL upite kojim je pokriven celokupan API sistem, uključujući i skladište podataka.
Reference
[1] https://www.ibm.com/topics/natural-language-processing (pristupljeno u junu 2024.)
[2] https://graphql.org (pristupljeno u junu 2024.)
[3] https://www.datacamp.com/blog/what-is-tokenization (pristupljeno u junu 2024.)
[4] https://intellipaat.com/blog/what-is-parsing-in-nlp/ (pristupljeno u junu 2024.)
[5] https://www.geeksforgeeks.org/named-entity-recognition/ (pristupljeno u junu 2024.)
[6] https://www.geeksforgeeks.org/what-is-sentiment-analysis/ (pristupljeno u junu 2024.)
[7] https://ethglobal.com/showcase/the-graph-ai-z9cgp (pristupljeno u junu 2024.)
[8] M. Lewis, Y. Liu, N. Goyal, M. Ghazvininejad, A. Mohamed, O. Levy, V. Stoyanov, L. Zettlemoyer, “BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension”, 2019
[9] https://www.projectpro.io/article/transformers-bart-model-explained/553 (pristupljeno u junu 2024.)
[10] N. Shazeer, A. Roberts, K. Lee, S. Narang, M. Matena, Y. Zhou, W.Li, P. J. Liu, „Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer“, 2020
[11] https://databasecamp.de/en/ml-blog/t5-model (pristupljeno u junu 2024.)
[2] https://graphql.org (pristupljeno u junu 2024.)
[3] https://www.datacamp.com/blog/what-is-tokenization (pristupljeno u junu 2024.)
[4] https://intellipaat.com/blog/what-is-parsing-in-nlp/ (pristupljeno u junu 2024.)
[5] https://www.geeksforgeeks.org/named-entity-recognition/ (pristupljeno u junu 2024.)
[6] https://www.geeksforgeeks.org/what-is-sentiment-analysis/ (pristupljeno u junu 2024.)
[7] https://ethglobal.com/showcase/the-graph-ai-z9cgp (pristupljeno u junu 2024.)
[8] M. Lewis, Y. Liu, N. Goyal, M. Ghazvininejad, A. Mohamed, O. Levy, V. Stoyanov, L. Zettlemoyer, “BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension”, 2019
[9] https://www.projectpro.io/article/transformers-bart-model-explained/553 (pristupljeno u junu 2024.)
[10] N. Shazeer, A. Roberts, K. Lee, S. Narang, M. Matena, Y. Zhou, W.Li, P. J. Liu, „Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer“, 2020
[11] https://databasecamp.de/en/ml-blog/t5-model (pristupljeno u junu 2024.)
Objavljeno
2024-11-02
Sekcija
Elektrotehničko i računarsko inženjerstvo