ChatGPT с каждым месяцем становится все популярнее. Однако этот инструмент, которым уже пользуются более 100 миллионов пользователей по всему миру, по-прежнему хранит много секретов. Специалисты компании Quick.net отвечают на некоторые сложные и тревожные вопросы об искусственном интеллекте OpenAI.
Известно, что помимо обычных интернет-пользователей, ChatGPT также используют инженеры по кибербезопасности и киберпреступники. Последние готовят с его помощью поддельные электронные письма и SMS-сообщения, которые направлены на фишинговые данные ничего не подозревающих пользователей. В свою очередь, кибер-специалисты разработали эффективный антиспам-фильтр на основе искусственного интеллекта.
Языковая модель OpenAI настолько продвинута, что во многих странах началась дискуссия о правовом регулировании использования инструмента. В марте 2023 года организация Future of Life Institute в открытом письме к компаниям и лабораториям, занимающимся искусственным интеллектом, призвала прекратить работу сроком на шесть месяцев. Под обращением также подписались известные в отрасли люди, такие как Илон Маск (Tesla, SpaceX) и Стив Возняк (сооснователь Apple), но ожидаемого эффекта оно не принесло.
Знаем ли мы все возможности последней версии ChatGPT?
Версия 4 языковой модели выглядит умнее и точнее, чем ее предшественница. По сравнению с предыдущими поколениями, оно также ближе к получению способности, которую мы могли бы назвать «мышлением». Однако мы не знаем всех возможностей инструмента. Важно помнить, что хотя ChatGPT все меньше и меньше ошибается и искажает факты, он все еще далек от того, чтобы быть безошибочным.
Этично ли делать общедоступным инструмент, которым также могут пользоваться преступники?
Даже когда технический прогресс становится неудобным, его нельзя просто остановить и спрятать. То же самое верно и для продвинутых языковых моделей. Все преимущества использования искусственного интеллекта, вероятно, перевесят потенциальные опасности. Правильное использование этих инструментов может принести много пользы.
Появится ли когда-нибудь искусственный интеллект, устойчивый к злоупотреблениям киберпреступников?
Безопасность можно обойти, в том числе и ту, что используется в языковой модели ChatGPT. Создатели таких программ знают об этом и делают все, чтобы залатать найденные злоумышленниками уязвимости. С каждой последующей попыткой использовать ИИ в незаконных целях, взломать механизмы защиты становится все труднее.
Создает ли ChatGPT новый контент или только обрабатывает данные, на которых научился сам?
Единственное, что ChatGPT может создать сам по себе, это ложь. Искусственный интеллект — действительно убедительный, но эгоцентричный лжец. Неверная информация также, несомненно, использовалась для обучения модели.
Невозможно предсказать, в какой момент ChatGPT воспользуется ими для ответа на заданный ему вопрос. Преимущество человека перед ИИ заключается в истинном творчестве и способности принимать осознанное решение, лгать или нет.