Новости

Отлично, теперь даже вредоносные программы используют LLMS для переписывания своего кода, говорит Google, документируя новую фазу «злоупотребления искусственным интеллектом»

За последние несколько лет ИИ вытворял разные гадости. От игнорирования авторских прав до создания довольно ужасных версий игр и использования для блокировки вашего компьютера. Похоже, что по мере того, как ИИ становится умнее, его становится все проще использовать в злонамеренных целях. Была даже обнаружена одна вредоносная программа, использующая искусственный интеллект для самописания, чтобы избежать обнаружения. Жуткий материал.

Недавно Google предупредила, что «злоумышленники больше не используют искусственный интеллект (ИИ) только для повышения производительности, они внедряют новые вредоносные программы с поддержкой ИИ в активных операциях».

В отчете (через Bleeping Computer) говорится, что, впервые Google «обнаружила семейство кодов, которые используют возможности искусственного интеллекта в процессе выполнения для динамического изменения поведения вредоносного ПО».

Google обращает внимание на одну конкретную вредоносную программу под названием Promptflux, которая представляет собой дроппер, предлагающий Gemini переписать свой собственный исходный код, «экономя поместите новую, запутанную версию в папку автозагрузки, чтобы обеспечить постоянство. » Как и у настоящего вируса, это говорит о том, что он способен каким-то образом «эволюционировать», становясь умнее и от него труднее избавиться. На данный момент он находится только в экспериментальном состоянии и, к счастью, не используется «в дикой природе». Если вас беспокоит потенциал этой технологии (такой же), Google сообщает, что DeepMind использовала информацию, полученную от вредоносного ПО, для усиления безопасности, как с помощью «классификаторов Google, так и самой модели». Как сообщается, это должно означать, что модель отказывается помогать вредоносным программам в проведении подобных атак в будущем. Искусственный интеллект борется с искусственным интеллектом. Итак, начинается.

(Изображение предоставлено Bethesda)

Естественно, то, что искусственный интеллект настолько широк и имеет так много приложений, часто означает, что его можно использовать, и это это не первый случай, когда кто-то использует искусственный интеллект для действий, противоречащих заявленной цели.

В своем последнем отчете Google выявила еще четыре случая вредоносного ПО с использованием искусственного интеллекта, которые появились в 2025 году. Это:

По словам Google, «Это знаменует собой новую стадию злоупотребления ИИ, включающую инструменты, которые динамически изменяют поведение в процессе выполнения». умные инструменты могут попасть не в те руки.

Несмотря на эти опасения, Google разъясняет, что ее подход к ИИ должен быть «одновременно смелым и ответственным», и публичное признание того, что вредоносное ПО использует ее сервисы, и ее реакция на это вредоносное ПО кажутся хорошим шагом. Тем не менее, идея о том, что вредоносная программа переписывает саму себя, чтобы избежать поимки, слишком похожа на вымысел, чтобы ее можно было утешить. Далее, нам просто нужен детектор вредоносных программ, который также сам себя перезаписывает, и мы можем заставить их бороться за контроль над сохранениями игр и терабайтами изображений животных на моем игровом оборудовании.


Другие статьи: