В конце ноября 2022 года компания OpenAI, одним из основателей которой был Илон Маск, представила демоверсию чат-бота ChatGPT. С помощью технологий искусственного интеллекта он способен выполнять самые разные задачи и доступен любому желающему.
Спустя всего неделю после запуска генеральный директор компании-разработчика Сэм Альтман сообщил, что число пользователей достигло 1 млн.
По данным Reuters в январе 2023 года число пользователей достигло 13 млн. По подсчетам экспертов швейцарского холдинга UBS, чтобы достичь аналогичных цифр TikTok понадобилось девять месяцев, а Instagram (принадлежит Meta, которая признана экстремистской и запрещена в России) — 2,5 года.
РБК Life приводит мнение аналитика Ллойда Уолмсли: «За 20 лет наблюдения за интернет-пространством мы не можем вспомнить более быстрого темпа роста потребительского интернет-приложения».
По словам разработчиков чат-бота, его популярность связана с его возможностями.
Чат-бот может вести диалог, отвечать на сложные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные, писать коды программистам, генерировать тексты разных форматов, давать медицинские советы и т.д.
В ChatGPT встроены определенные системы модерации:
- он не высказывает личное мнение по любым вопросам;
- не имеет расы и пола;
- не исповедует религию.
Также у него есть фильтры, не дающие ему создавать тексты о том, как нарушать закон.
Важная особенность — у ChatGPT есть «память», он запоминает детали разговора, учится по ходу дела и может поддерживать открытый диалог, основываясь на той информации, которую пользователь предоставил ранее.
Официально ChatGPT недоступен в России, подключиться к нему можно, только используя VPN.
Искусственный интеллект — одно из активно финансируемых направлений на рынке венчурных инвестиций (вложения в развивающийся бизнес или стартап, успех которого не гарантирован). В Bloomberg отмечают безграничный энтузиазм отраслевых экспертов о перспективах сфер применения.
Связанные с искусственным интеллектом продукты выглядят многообещающими, хотя их перспективы не всегда до конца понятны.
Такой успех привлек внимание компании Microsoft. В январе корпорация начала интегрировать ChatGPT в редактор Word и поисковик Bing. Тогда тот сможет не просто выдавать ссылки на страницы с релевантной информацией, а сразу отвечать на вопрос. Представители компании подтвердили сообщения об инвестировании в проект. Microsoft и OpenAI будут совместно разрабатывать «суперкомпьютерные системы» и планируют внедрять ИИ в продукты Microsoft. Ранее The Information и The Wall Street Journal сообщали: Microsoft рассчитывает, что наработки OpenAI в области искусственного интеллекта могут быть интегрированы также в облачный бизнес корпорации.
Президент и заместитель председателя Microsoft Брэд Смит в интервью Reuters заявил: «В 2023 году мы увидим достижения, которых люди два года назад ожидали бы в 2033 году. Это будет чрезвычайно важно не только для будущего Microsoft, но и для будущего каждого».
В ближайшей перспективе технологии искусственного интеллекта позволят Microsoft расширить бизнес, увеличить доходы и конкурировать с Google и Meta (признана в России экстремистской организацией и запрещена).
В корпорации Google, как пишет The New York Times, считают, что бот может представлять большую угрозу для их бизнеса. Если поисковик с такой технологией будет сразу отвечать на вопрос, то пользователям незачем будет переходить по рекламным ссылкам. Из-за чат-ботов с ИИ компания может лишиться весомой доли доходов. А именно на рекламу в 2021 году пришлось примерно 80% выручки компании. В сети ChatGPT уже назвали «убийца Google». Forbes именно с этим связывает возвращение в Google его сооснователя Сергея Брина. У Google есть свой чат-бот LaMDA, который доступен пока в тестовом режиме и ограниченному кругу лиц. Но уже в 2023 году Google намерен представить более 20 продуктов и продемонстрировать версию своей поисковой системы с функциями чат-бота.
Российская компания Sistemma запустила функциональный аналог ChatGPT на русском языке. Тестирование SistemmaGPT уже доступно для бизнеса, сообщили РБК Life в пресс-службе производителя.
SistemmaGPT способна создавать качественные тексты, может ответить на вопросы, предложить рецепты, составить программу обучения, написать эссе, код или резюме или просто поддержать беседу от лица знаменитых людей. ИИ может приспосабливаться к предпочтениям пользователя и учитывать контекст общения.
По мнению создателей сейчас SistemmaGPT адаптирована на коммерческий и административный сектор, но даже в таком варианте может быть полезна рядовым пользователям.
Такой бум генеративных систем и скорость их создания повлекли за собой новую волну обсуждения этических, юридических и экономических рисков внедрения ИИ в повседневную жизнь.
Чат-боты способны собирать, анализировать и использовать огромные объёмы информации о людях для различных целей, таких как реклама, персонализация, предсказание поведения и т. д. Но они могут смешивать реальные факты и ложь, генерировать предвзятые суждения и оскорбительные высказывания, могут давать совершенно неверные ответы, которые будут выглядеть вполне логично. Также ответы могут быть просто неактуальными, так как знания бота ограничены данными за конкретный период.
Это может привести к дезинформации или злоупотреблению данными, к манипуляции или влиянию на общественное мнение
Проблемой стало и соблюдение авторского права.
И это только часть вызовов, связанных с внедрением разных видов искусственного интеллекта.
Специалисты считают, что мы развиваемся в сторону систем искусственного общего интеллекта быстрее, чем планировали ранее. «Представьте мир, где автономное оружие бродит по улицам, решения о вашей жизни принимаются искусственным интеллектом, который только закрепляет социальные предубеждения и стереотипы, а хакеры используют ИИ для проведения разрушительных кибератак. Это мрачное будущее кажется научной фантастикой, но на самом деле без надлежащих правил разработки и внедрения ИИ может стать реальностью. Стремительный прогресс в области технологий искусственного интеллекта ясно дал понять, что сейчас самое время действовать, чтобы обеспечить его безопасное, этичное и полезное использование для общества. Невыполнение этого требования может привести к будущему, в котором риски ИИ намного перевешивают его преимущества». Этот вступительный абзац к статье конгрессмена Теда Лье о том, почему требуется регулировать искусственный интеллект, сгенерировал сам ChatGPT. Чтобы «не допустить» описанное им будущее, американский политик предлагает создать специальное агентство по регулированию ИИ. По его словам, подобные ведомства быстрее обычного законодательного процесса реагируют на повседневные изменения и в них работают авторитетные эксперты, которые сравнительно быстро могут исправить собственную ошибку.
22 марта 2023 года широкий общественный резонанс и дискуссии в СМИ вызвало письмо на сайте Future of Life. Его авторы выражают обеспокоенность, что технологии искусственного интеллекта, особенно нейросети, могут быть использованы для создания вредоносного или обманного контента и влиять на общественное мнение. Они тоже призывают к более ответственному и безопасному подходу к развитию и применению таких технологий.
Письмо подписали более 2600 исследователей и граждан разных стран мира, а также Илон Маск — глава Tesla, SpaceX и Twitter, Эван Шарп — сооснователь Pinterest, Стив Возняк — сооснователь всеми известной компании Apple. Письмо поддержали инженеры и исследователи Google и Microsoft, а также учёные и профессора Йельского, Оксфордского, Гарвардского, Кембриджского, Стэнфордского, Массачусетского технологического и других университетов. Они выразили свою готовность сотрудничать с другими заинтересованными сторонами для создания более безопасного и ответственного ИИ.
Они обращают внимание, что нейросети, которые многим людям облегчают жизнь, также могут иметь негативные последствия, если не контролировать их разработку и использование.
Авторы письма не ставят своей целью полностью прекратить развитие технологии, а лишь хотят «выйти из опасной гонки», в которой участники рынка конкурируют за создание более мощных и сложных ИИ-моделей без должного учёта рисков.
Они предлагают объединить усилия и разработать единые для рынка правила безопасности, а также способы контроля экспериментов с искусственным интеллектом.
По их словам, нужно также подключить правительства, чтобы те сформировали ведомства, которые будут сертифицировать продукты на основе ИИ, смогут отличать реальный контент от «синтетического» и следить за утечками ИИ-моделей.
Институт будущего жизни тоже обеспокоен отсутствием стратегического планирования и управления этими системами. «Системы ИИ с интеллектом, конкурирующим с человеком, могут представлять серьёзные риски для общества и человечества, как показали обширные исследования и признания ведущих лабораторий ИИ. Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его развитие следует планировать и управлять им с соответствующей осторожностью и ресурсами».
Важно помнить, что искусственный интеллект — это инструмент, который может быть использован как во благо, так и во зло, в зависимости от человека, который его контролирует.
По мнению самого ChatGPT, он является «ценным инструментом» для образования и исследований, а потенциальные области его применения — создание контента и техническая поддержка пользователей. При этом модель признает собственное несовершенство: у нее нет доступа к информации в интернете в режиме реального времени, а значит, она не может проверить достоверность того, что генерирует, она не может генерировать полностью оригинальные идеи и может выдавать ошибочную и неактуальную информацию.
P.s. Пока идут споры, мошенники не спят. Они уже придумали новую схему обмана россиян с использованием продвинутого ChatGPT. Злоумышленники создали мошеннические сайты, где предлагают гражданам платные услуги по доступу к аккаунтам этого сервиса, сообщают «Ведомости».
В период с декабря 2022 года по середину февраля 2023 года количество таких площадок выросло с 3 до 41, сообщили изданию специалисты компаний «РТК-Солар» и BI.Zone.
После перевода суммы за эту услугу мошенники перестают отвечать на вопросы и не предоставляют услугу.