Назаров Д.М.доктор экономических наук, доцент, заведующий кафедрой бизнес-информатики, заведующий кафедрой информационной безопасности, Уральский государственный экономический университет (УрГЭУ), Екатеринбург, Российская Федерация slup2005@mail.ru https://orcid.org/0000-0002-5847-9718 SPIN-код: 2424-3457
Предмет. Модели LLM и их ключевые элементы в контексте экономических исследований. Цели. Разработать кортежную модель, которая формализует основные составляющие LLM-моделей, и методический подход, определяющий сущность применения LLM-моделей на основе GPT-4o при интерпретации экономических текстов. Методология. На основе анализа литературы по функционально-структурным взаимодействиям компонент LLM была разработана кортежная модель: LLM = (Data Preparation, Data Processing, Text Generation), которая позволяет представить механизм работы алгоритмов искусственного интеллекта при генерации текста. Результаты. Результаты исследования показывают, что использование кортежной модели позволяет понять, как ключевые элементы LLM-моделей взаимодействуют между собой, какие гиперпараметры модели позволяют влиять на ее креативность при формировании ответов на вопросы. Также был предложен методический подход и доказана эффективность его применения на предобученных моделях на основе GPT-4o для регулирования гиперпараметра «температура». Выводы. Разработанный подход и кортежное представление LLM-моделей могут быть эффективно использованы для дальнейшего их изучения, в том числе в рамках экономических процессов. Результаты анализа могут способствовать созданию стратегий, направленных на оптимизацию использования LLM-моделей в различных секторах экономики и улучшение принятия решений на основе анализа данных.
Ключевые слова: LLM, экономика, кортежная модель, анализ данных, искусственный интеллект
Список литературы:
Bubeck S., Chandrasekaran V., Eldan R. et al. Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv, 2023, abs/2303.12712. URL: Link
Firdaus M.F., Wibawa J.N., Rahman F.F. Utilization of GPT-4 to Improve Education Quality Through Personalized Learning for Generation Z in Indonesia. IT for Society, 2023, vol. 8, no. 1. URL: Link
Назаров Д.М., Бегичева С.В. Применение больших языковых моделей в образовательном процессе // Бизнес. Образование. Право. 2024. № 3. С. 430–436. URL: Link
Yang Wu, Shilong Wang, Hao Yang et al. An Early Evaluation of GPT-4V(ision). arXiv, 2023, abs/2310.16534. URL: Link
Ермилов Д.И. Chat GPT: новая технология общения с клиентами в банковской сфере // Финансовые рынки и банки. 2023. № 7. С. 18–22. URL: Link
Yizhen Zheng, Huan Yee Koh, Jiaxin Ju et al. Large Language Models for Scientific Synthesis, Inference and Explanation. arXiv, 2023, abs/2310.07984. URL: Link
Burnell R., Hao H., Conway A., Orallo J. Revealing the structure of language model capabilities. arXiv, 2023, abs/2306.10062. URL: Link
Janik R. Aspects of human memory and Large Language Models. arXiv, 2023, abs/2311.03839. URL: Link
Manning C.D., Clark K., Hewitt J. et al. Emergent linguistic structure in artificial neural networks trained by self-supervision. Proceedings of the National Academy of Sciences, 2020, vol. 117, iss. 48. URL: Link
Brown T.B., Mann B., Ryder N. et al. Language models are few-shot learners. arXiv, 2020, abs/2005.14165. URL: Link
Singhal K., Azizi S., Tao Tu et al. Large language models encode clinical knowledge. Nature, 2023, vol. 620, pp. 172–180. URL: Link
Cheng Kunming, Sun Zaijie, He Yongbin et al. The potential impact of ChatGPT/GPT-4 on surgery: will it topple the profession of surgeons? International Journal of Surgery, 2023, vol. 109, iss. 5, pp. 1545–1547. URL: 10.1097/JS9.0000000000000388
Jojic A., Zhen Wang, Jojic N. GPT is becoming a Turing machine: Here are some ways to program it. arXiv, 2023, abs/2303.14310. URL: Link
Oppenlaender J., Linder R., Silvennoinen J. Prompting AI Art: An Investigation into the Creative Skill of Prompt Engineering. arXiv, 2023, abs/2303.13534. URL: Link