Европол предупредил о возможном неправомерном использовании чат-бота ChatGPT на базе искусственного интеллекта в попытках фишинга, дезинформации и киберпреступности, добавив к хору опасений, начиная от юридических и заканчивая этическими вопросами.
С момента своего выпуска в прошлом году поддерживаемый Microsoft OpenAI ChatGPT вызвал повальное увлечение технологиями, побуждая конкурентов запускать аналогичные продукты, а компании интегрировать его или аналогичные технологии в свои приложения и продукты.
«Поскольку возможности LLM (больших языковых моделей), таких как ChatGPT, активно совершенствуются, потенциальная эксплуатация этих типов систем ИИ преступниками дает мрачные перспективы», — заявил Европол, представив свой первый технический отчет, начиная с чат-бота.
Он подчеркнул вредоносное использование ChatGPT в трех областях преступности.
«Способность ChatGPT создавать очень реалистичный текст делает его полезным инструментом для целей фишинга», — заявили в Европоле.
Правоохранительное агентство ЕС заявило, что с его способностью воспроизводить языковые модели, чтобы имитировать стиль речи конкретных людей или групп, чат-бот может использоваться преступниками для нацеливания на жертв.
В нем говорится, что способность ChatGPT быстро и масштабно создавать аутентичный текст также делает его идеальным инструментом для пропаганды и дезинформации.
«Это позволяет пользователям генерировать и распространять сообщения, отражающие конкретное повествование, с относительно небольшими усилиями».
По словам Европола, преступники с небольшими техническими знаниями могут обратиться к ChatGPT для создания вредоносного кода.
Читать полную новость на сайте