Держать искусственный интеллект под контролем будет нелегко – эксперт

Фото из открытых источников

Как ИИ изменит мир и почему этого боится даже Илон Маск?

Рынок искусственного интеллекта стремительно растет, а хайп вокруг этой темы, кажется, достиг пика. Одни считают ИИ величайшим достижением человечества и мастером на все руки, который может помогать в медицине, писать музыку и картины, применяться в сельском хозяйстве, образовании и других сферах.

Но есть и те, кто, увидев прогресс языковой модели GPT, напротив, резко поменяли отношение к искусственному интеллекту. В своем недавнем интервью Илон Маск заявил, что ИИ может стать угрозой для общества и цивилизации в целом. Поэтому необходимо установить «государственный контроль». Уже сейчас нейросети несут риск для безопасности людей, так как применяются в целях мошенничества.

Евгений Недельский, главный инспектор отдела цифровизации и проектного управления делами президента Республики Казахстан:

– С каждым годом мы сталкиваемся с новыми видами мошенничества. Мошенники уже могут использовать искусственный интеллект для создания более утонченных атак, таких, как фишинг с использованием персонализированных сообщений или манипулировать алгоритмами для создания фейковой информации. Сегодня мы наблюдаем в просторах интернета фейковую информацию с подменой фотографий, голоса главы государства и других высокопоставленных лиц. Нередко встречаются подменные веб-сайты банков второго уровня и различных платежных систем, что приводит к утечке персональных данных и потере денежных средств человека, который, не подозревая этого, ввел свои данные банковской карты и попался на мошенническую схему. Если не принимать должных мер уполномоченными органами нашей страны и не развивать отрасль кибербезопасности, в том числе постоянно не повышать компетенцию IT и ИБ специалистов, то мошенники могут развиваться быстрее нас в этом направлении.

– Мошенники используют новые схемы через искусственный интеллект, в частности, с использованием дипфейков. В сегодняшних реалиях Казахстан этому может противостоять?

– Да, к сожалению, это так. Дипфейки могут представлять угрозу, и важно, чтобы пользователи были бдительны при взаимодействии с медиа-контентом. Кроме того, развитие технологий для обнаружения дипфейков и обучение людей различать поддельные материалы становятся национальными приоритетами в области кибербезопасности. Государственные и частные секторы уже должны усиливать работу по предотвращению кибермошенничества и обучению населения современным методам защиты.

Критически важно осведомляться о текущих трендах в области кибербезопасности и принимать меры для минимизации рисков, связанных с использованием искусственного интеллекта в мошеннических схемах.

Применение дипфейков с фотографиями людей уже активно используется в зарубежных мошеннических схемах. В Казахстане наблюдается активное применение дипфейков с подменой голоса наших граждан. Наверняка вы сталкивались с такой схемой, что вам поступает звонок на телефон, где робот либо человек-«мошенник» задает вопросы, на которые вы отвечаете «да»/«нет»/«я»/«можно», либо в трубке молчание. В этот момент осуществляется запись вашего голоса, а именно этих ключевых слов, которые завтра могут быть использованы в мошеннических схемах от вашего имени. На счет того, сможет ли наше государство противостоять этому и защитить всех нас на 100 процентов, вопрос сложный, думаю, здесь покажет время.

– Дальнейшее развитие искусственного интеллекта может поставить точку в развитии человечества, об этом сейчас говорят одни из главных IT-экспертов современности. Принадлежащий Google стартап DeepMind разрабатывает искусственный интеллект, который на данный момент является самым опасным для человечества, считает Илон Маск. Он допускает, что уже через пять лет компьютерное мышление превзойдет человека.

– Прогнозировать точное время, когда компьютерное мышление превзойдет человека, довольно сложно. Научное сообщество не имеет консенсуса относительно времени, когда это произойдет, либо может произойти. Некоторые эксперты утверждают, что это может занять десятилетия или больше. В настоящее время искусственный интеллект проявляет впечатляющие способности в определенных областях, но у него всё еще есть ограничения в понимании контекста, творческом мышлении и понимании человеческих эмоций. Осознанное улучшение компьютерного мышления, превосходящее человека во всех его аспектах, остается в сфере теоретических возможностей, и точные временные рамки остаются предметом обсуждений.

– Думаете, государство сможет держать искусственный интеллект под контролем?

– Держать искусственный интеллект под контролем государства, думаю, будет нелегко. Однако понимая большой интерес нашего президента, который в своем выступлении на церемонии награждения лауреатов премии «Алтын сапа» и «Парыз» взял на личный контроль создание системы искусственного интеллекта в Республике Казахстан, верю, что будет обеспечен соответствующий уровень безопасности.

– Каким профессиям угрожает искусственный интеллект? И кого он не сможет заменить?

– Искусственный интеллект может влиять на различные профессии, автоматизируя рутинные задачи и требующие повторяемости. По моему мнению, подвержены угрозе работники в производстве, кассиры и операторы, работники складов, бухгалтеры и финансовые аналитики, так как там повторяются задачи, которые могут быть автоматизированы путем внедрения различных информационных систем. Отдельный блок нужно отдать медицине, где алгоритмы могут помочь в диагностике анализов, различных снимков. Вы знаете, что сегодня в мире уже имеется практика проведения сложных хирургических операций роботами. Важно понимать, что итоговое заключение по любому виду заболеваемости и установке диагноза нужно отдать врачу, всё же это большая ответственность за здоровье и жизнь человека. Однако стоит отметить, что искусственный интеллект также создает новые возможности и профессии для людей. Главное – адаптироваться вовремя и развивать в себе новые навыки с учетом современных трендов.

– Какие социальные последствия может иметь очеловечивание нейросетей?

– Очеловечивание нейросетей, или создание искусственного интеллекта с человекоподобными чертами может вызвать разнообразные социальные последствия. На мой взгляд, это могут быть последствия в следующих аспектах: эстетические вопросы, работа и рынок труда, межличностные отношения, а также приватность и безопасность. Важно учитывать эти аспекты, разрабатывая и внедряя технологии, чтобы минимизировать негативные социальные последствия и обеспечить их этичное использование.

– Что вы думаете об SCS, которую активно внедряют в Китае? Это «электронный концлагерь» или всё таки «цифровой рай»?

– Внедрение данной системы вызывает разные точки зрения. Сторонники утверждают, что она способствует улучшению общественной морали и порядка, а также содействует более ответственному поведению граждан и компаний.

Однако критики выказывают опасения относительно нарушения приватности, потенциального недопонимания граждан с правительством, а также злоупотребления системой для политических целей. Важно оценивать SCS с учетом принципов свободы, прозрачности и справедливости, чтобы избежать возможных негативных последствий, а также обеспечить баланс между технологическими инновациями и защитой прав граждан Китайской Народной Республики. К внедрению подобного рода систем страна должна быть готова, общество должно быть готово, а это уже просветительская работа уполномоченных органов, компаний-внедренцев той страны, где это применяют.

– Как соблюсти баланс между личными правами граждан и развитием IT-индустрии?

– Соблюдение баланса между личными правами граждан и развитием IT-индустрии требует внедрения соответствующих законов, политик и технологий. При их разработке должны быть учтены следующие аспекты: прозрачность и согласие, защита приватности, этические стандарты, обучение и информирование, публичный диалог. Обеспечение прозрачности в сборе, хранении и использовании данных, где граждане должны иметь ясное представление о том, как их данные используются и кем, с обязательным их одобрением для используемой стороны. Разработка, доработка новых или действующих законов, а также их соблюдение, гарантирующие защиту личной информации и персональных данных.

Необходимо пересмотреть стандарты по безопасности и ужесточить ответственность за несанкционированное распространение персональных данных и их утечку из государственных баз данных. Также необходимо установление этических стандартов в области разработки и использования IT-технологий, чтобы предотвращать негативные воздействия на общество. Повышать общественную осведомленность о цифровых технологиях в нашей стране, а также их влияние на личные права и безопасность граждан. Важно проводить открытый диалог между правительством, индустрией и обществом для обсуждения законодательства и политик в области цифровых технологий. С учетом этих аспектов можно стремиться к инновационному развитию IT-индустрии, сохраняя при этом уважение к личным правам и интересам граждан.

Своим мнением также поделился Сергей Аметов, генеральный директор keip.tech:

– Мошенники уже далеко зашли в использовании ИИ. Тут два ключевых вопроса внутри страны: регулировать, фиксировать, какая в целом практика в мире. Если взять США и ЕС, у них есть широкий пакет законов, потому что все дипфейки создаются на основании персональных данных. Они последние два года ужесточают эту обработку на уровне закона. Это один из путей решения. К сожалению, у нас пока такого закона нет, который касается ИИ, или сам закон, касающийся персональных данных, особенно их обработки, недоработан. В целом, если взять ИИ, у нас пока такого законопроекта нет. Касательно хранения персональных данных много вопросов, даже взять недавнюю утечку «клиентов Айки», все данные слили в сеть. Нужен очень хороший закон, который хорошо защищает всех граждан РК, а не только какую-то касту чиновников.

ИИ с 2019 года квантово растет, он как ребенок, когда-то был во втором классе, потом в пятом, сейчас в 11-м, рано или поздно он окончит университет. Появится профильный ИИ. Эндрю Нг – известный ученый, специализирующийся по части ИИ, приводит другие аргументы, которые противоречат Маску. Он видит в развитии нейросетей только плюсы. ИИ может помочь в медицине, обучиться на основании обезличенных данных касательно пациентов и давать на 80 процентов лучше результат.

Ключевой вопрос: несет ли ИИ угрозу? Конечно, несет, поскольку это повлечет безработицу. В Международной корпорации IDC говорят, что к 2025 году расходы по ИИ составят порядка 110 миллиардов долларов. Если брать Казахстан, тут всё упирается в регулирование. ИИ же собирает данные со всех источников, поэтому нужен документ, которому будут подчиняться все страны, что тоже маловероятно. Потому что если посмотреть на крупные IT-компании, у них в целом капитализация больше, чем у многих стран, и нет гарантии, что какая-то компания впоследствии не станет digital-страной. Как Facebook сейчас Meta делает.

Лет пять назад никто подумать не мог, что машины сами будут ездить. Это говорит о том, что ИИ очень плотно интегрируется в нашу жизнь. Пока, конечно, по многим профессиям ИИ больше идет как помощник, советник. Но мне кажется, в ближайшие три-пять лет будет массовое внедрение ИИ. В первую очередь, уйдут все рутинные профессии, например, бухгалтерия, логистика.

Важно еще отметить позицию бизнеса, потому что с помощью ИИ любой бизнес будет оптимизировать свои расходы. Нужны пакетные реформы по защите труда. Казахстану больше повезло, потому что мы территориально слишком маленькие, и на текущий момент у нас даже нет нормальной «нейронки», я уже не говорю о ИИ.

Ксения Кожабаева,

Qogam-media.kz

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите – Ctrl+Enter.