Stop AI Deception

БУДУЩЕЕ ВМЕСТЕ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ. КАКИМ ОНО БУДЕТ ДЛЯ КАЖДОГО?

01.05.2025
Обновлено 20.01.2026

Будущее с искусственным интеллектом приближается. Каким оно будет, и как изменится наша жизнь? Многие называют развитие искусственного интеллекта стремительным, а особо смелые предрекают близкое начало эпохи сингулярности. Это значит, что искусственный интеллект получит возможность самосовершенствования, и наступит тотальное превосходство нейронных сетей над человеческим интеллектом.

Ученые считают что эпоха сингулярности внесет в нашу жизнь хаос - технологический прогресс перестанет быть контролируемым и станет непредсказуемым. Наряду с немыслимыми достижениями - от лечения неизлечимых болезней и замедления старения до колонизации космоса, сингулярность принесет с собой большие экзистенциальные риски.

Это сейчас в 2026 году системы искусственного интеллекта узкоспециализированы и под контролем людей выполняют конкретные задачи. Они распознают и переводят речь, делают обработку изображений и анализируют данные. Но уже к 2030 году специалисты прогнозируют внедрение первых систем AGI (Artificial General Intelligence) - искусственного общего интеллекта, способного выполнять любые интеллектуальные задачи, которые может выполнять человек, на уровне или выше человеческого. В отличие от узконаправленного современного искусственного интеллекта AGI обладает универсальной когнитивной способностью, включая адаптацию к новым ситуациям, обобщение знаний и обучение на основе опыта, творческое мышление и рассуждение.

Термин AGI ученые попытались определить как набор когнитивных способностей, присущих человеческому интеллекту, измеряемых с точки зрения психометрии.

Также было проведено исследование на тему влияния нейросетей на работу самих ученых. Используя набор данных из 41,3 миллиона научных работ по естественным наукам, охватывающий различные эпохи нейросетей, исследование показало ускоренное внедрение инструментов среди ученых и устойчивые профессиональные преимущества, связанные с использованием нейросетей, но также и коллективное сужение научной направленности.

Наука пытается удовлетворить собственные потребности, создавая новые формы вычислений. Например, гибкие полупроводниковые чипы на растягивающихся полимерных листах.

Уже сейчас перед учеными стоит вопрос контроля AGI в будущем, когда новый ИИ получит доступ к интернету и множеству подключенных к всемирной паутине систем, сопровождающих процессы регулирования, производства, работы, лечения и многие другие.

AGI

Развитие технологи AGI тесно связано с квантовой механикой и воплощением квантовых вычислений в наш электронный мир. Запуск квантовых процессоров поспособствует моментальному скачку скорости обработки данных. Это в свою очередь даст огромный прирост вычислительной мощности суперкомпьютеров в обработке их алгоритмов, а значит и алгоритмов искусственного интеллекта.

Благодаря технологии квантовых вычислений мы получим возможность моделировать целые экосистемы для точного прогнозирования изменений климата, финансовых рынков, эпидемиологических сценариев и научных исследований, быстро вскрывать сложные системы шифрования, а также создавать еще более сложные способы защиты и передачи информации.

На данном этапе о создании квантового компьютера, способного работать длительное время, заявили ученые Гарвардского университета (США). Обычные компьютеры используют двоичный код, который может представлять либо ноль, либо единицу, тогда как квантовые компьютеры используют субатомные частицы, способные находиться в нескольких состояниях одновременно. Это позволяет квантовым компьютерам решать за считанные минуты задачи, на которые обычным компьютерам потребовались бы тысячи лет.

Команда Google Quantum AI, работающая над проектом создания кубитов MILESTONE, представила алгоритм квантового эха. Квантовый чип Willow впервые выполнил сверхбыстрое вычисление, что, безусловно, приближает нас к созданию квантовых компьютеров.

Компания Extropic решила переосмыслить архитектуру вычислений в связи с надвигающейся проблемой нехватки вычислительных ресурсов. Компания разработала масштабируемый вероятностный компьютер. По утверждениям компании, он требует значительно меньше энергии для вычислений, чем современные графические процессоры.

Американский цифровой гигант IBM также разрабатывает квантовый компьютер. Группа ученых из исследовательского центра им. Т. Дж. Уотсона (Йорктаун-Хайтс, штат Нью-Йорк, США), изучающая квантовую запутанность, сумела показать результаты использования квантовых состояний между частицами. Исследователи добились контроля крупных гигагерцовых состояний частиц (120 кубитов), а также значительного подавления шумов. Это открывает возможность для крупномасштабных квантовых вычислений. IBM учредила ежегодную конференцию квантовых разработчиков IBM Quantum и в 2025 представила квантовый процессор Quantum Nighthawk и программное обеспечение Qiskit. Квантовые исследования ведутся совместно с компаниями ALGORIHMIQ, BLUQUBIT и Институтом Флэтайрона.

Облачный сервис Quantinuum проводит исследования квантовых технологий. В ноябре 2025 года Quantinuum представил квантовый процессор Quantinuum Helios на 50 логических кубитов, разработанный американской электронной корпорацией Honeywell. Также компания разрабатывает специальное программное обеспечение для внедрения квантовых вычислений в современные технологии.

Технологию квантовых вычислений на основе ионных ловушек для хранения кубитов разрабатывают ученые Института прикладной физики твердого тела им. Фраунгофера (Германия). Они создали чип SmaraQ - интегрированную фотонику с нитридом и оксидом алюминия. Для управления состояниями ионов в ловушках фотоны направляются на них по выгравированным в кристалле каналам. И хотя управление светом медленнее, чем управление магнитными полями классических процессоров, скорость в этой технологии не так критична, как преимущества в виде отсутствия магнитных шумов, точности и стабильности поляризации света.

Ученые Принстонского университета (США) вместе с Брукхейвенской национальной лабораторией при поддержке Министерства энергетики США продолжили начатую в 2021 году разработку кубитов с продолжительным временем когерентности - более 1 миллисекунды. Танталово-кремниевые кубиты (трансмоны) способны проводить более длительные вычисления в связи с особой архитектурой слоеного материала, минимально искажающего волны.

Кроме этого исследователи из институтов Аризоны и Нью-Мексико (США) разработали акустооптический фазовый модулятор видимого света на гигагерцовой частоте. Принцип работы заключается в механическом воздействии на волновод света. Пьезоэлектрик получает сигнал в гигагерцах (на сверхвысоких частотах), вследствие чего деформируется и деформирует расположенный рядом волновод света. Вследствие такой деформации изменяется показатель преломления света в волноводе - изменяется фаза световой волны и появляются боковые частоты (дополнительные спектры) света. Оптические фазовые модуляторы, работающие в видимом диапазоне длин волн, являются важными компонентами фотонных технологий, таких как квантовое управление, связь и лазерная локация.

Немецкие ученые из Вюрцбургского университета имени Юлиуса Максимилиана (JMU) заложили основу для следующего поколения квантовых технологий, разработав сверхбыстрый оптический фазовый модулятор со сверхнизкими потерями, который может обеспечить масштабируемые квантовые фотонные схемы.

AGI

Скорость движения к AGI и квантовому контролю вычислений на данном этапе позволяет сделать прогноз о нужном человечеству для этого времени - приблизительно 10 лет. Но крайне оптимистичные ученые и бизнесмены утверждают, что весомое ускорение прогрессивных моделей искусственного интеллекта за два последних года позволят уменьшить этот срок до 5 лет.

В 2025 американский журнал TIME, публикуя ежегодный список 300 лучших изобретений, впервые включил в него раздел нейросетей.

Тестируют нейросети в юриспруденции студенты и преподаватели юридического факультета Университета Северной Каролины (США). Они смоделировали судебный процесс 2035 года под названием «Судебный процесс над Генри Джастусом», где якобы выдвинули достаточно распространенное в США обвинение в ограблении несуществующему обвиняемому. Судьями в процессе были LLM: ChatGPT, Grok и Claude Anthropic. Моделирование поднимает фундаментальные вопросы о том, открывают ли новые технологии путь к более справедливому уголовному правосудию или же создают новые риски для обвиняемых и правовой системы.

В Стэнфордском университете (США) студенты и преподаватели 22 октября 2025 года провели первую открытую конференцию, где нейросети выступили как основными авторами, так и рецензентами научных статей.

Исследовательская группа Palisade Research в программе AI Misalignment Bounty исследует поведение нейросетей, выявляя потенциально опасные тенденции. Группа работает с помощью краудсорсинга — привлекая через интернет добровольцев для получения обширной информации.

Современные мечтатели не устают говорить и писать о немыслимом будущем с ИИ, которое непременно наступит. В этом будущем люди будут заниматься только творчеством, а всю тяжелую работу будут выполнять роботы. Домашняя 3D печать заменит производство нужных вещей, а оптимизация сельского хозяйства уничтожит голод и приведет к всеобщему изобилию наряду с высоким уровнем медицины. В сфере развлечений развитие визуальной составляющей нейронных сетей позволит создать полные приключений миры, неотличимые от реальных.

Скептики же, как и всегда, достаточно сдержанно относятся к вопросам внедрения ИИ в ответственные и деликатные сферы человеческой жизнедеятельности. Они апеллируют к разнообразным минусам вроде нейронных галлюцинаций, непредсказуемости, а также морально-этической составляющей вопроса. Как ИИ изменит наше отношение друг к другу, к обществу, к жизни в целом? Эти вопросы также звучат очень часто. Не станет ли это новой религией или поводом нескончаемого конфликта?

Какие бы вопросы не задавал себе человек, сталкиваясь с новым, он не остановится перед возможностью и не устрашится угрозы. Мы непременно идем вперед к жизни рядом с искусственным интеллектом. Его присутсвие в скором будущем станет такой же обыденностю для каждого, как когда-то стало электричество и мобильная связь.

На данном этапе мы наблюдаем не просто обучение нейронных сетей с помощью алгоритмов и уже имеющейся информации, но и некий симбиоз нейросетей с человеческой жизнедеятельностью. Для этого создаются ИИ-агенты. Эти встроенные в разные электронные сервисы помощники сами собирают информацию о человеке и его окружении, среде, чтобы быть полезным и удобным, перебирая часть функций на себя. Таким образом человек получает больше времени на важные дела, в то время как ии-помощник занимается рутиной вроде наведения будильника или отправки данных поставщикам коммунальных услуг. ИИ-помощники быстро входят в жизнь прогрессивных людей и становятся незаменимыми, как автомобиль и мобильный телефон. Такая форма обучения ИИ показывает высокие результаты, а потому будет продолжать внедряться и развиваться.

LLM работают по принципу чата, где на вход в модель с запросом пользователя каждый раз отправляются "выжимки" из запросов и ответов, чтобы модель не теряла контекста диалога. Таким образом с каждым запросом количество подаваемой на вход информации увеличивается, добавляются метки и другие данные. Такой способ отягощает работу модели и приводит к "галлюцинациям". Модель начинает очищать память, чтобы повысить качество и скорость ответов, в результате чего начинает "забывать" контекст.

Эту проблему ученые пытаются решить разделением модели на небольшие экспертные модели, которые вызываются моделью «администратором» для ответа на конкретный вопрос. У них раздельная контекстная память и потому они меньше "забывают". Кроме того, их обучение проще и дешевле одной большой модели, а способ разделения на экспертов - гибче в настройках.

Набирают популярность такие образовательные специализированные помощники, как GAUTH, QANDA, MATHSOLVER, SYMBOLAB, GoogleLearnYouWay, поисковик научных статей CHIRPZ и другие.

Популярные сервисы облегчения запоминания информации вроде платформ создания учебных карточек QUIZLET, MEMRISE, CHEGG, сборника уроков Quizizz на WAYGROUND, приложения ANKI, игровых помощников для школьников KAHOOT и GIMKIT уже запускают свои нейросервисы, чтобы не отставать от тенденций на рынке.

Очень популярны комбинированные агенты, позволяющие выбирать стиль общения и внешний вид собеседника, а также создавать и кастомизировать все, что угодно. Например, 3D-симулятор REPLIKA, моделлер психики PSYLON или "нейропсихолог" NOMI, позволяющий создавать видеоперсонажей (в платном плане). В Nomi вы можете выбрать стиль общения — наставник, дружба, романтика, ролевые игры. Также вы выбираете внешний вид собеседника (фото, видео), пол, интересы, черты характера и описываете его предысторию. В результате вы получаете ИИ-агента, полностью подходящего вам для общения. С ним можно обсуждать все то же, что и с человеком: погоду, политику, футбол, литературу, кино и прочее. В Nomi также доступны групповые чаты, расширяющие границы общения.

Такие агенты — не редкость в современных девайсах, ведь людям проще общаться с покладистым агентом, чем с собеседником-человеком, имеющим свою точку зрения. По сути, это синтетическая замена соцсетям. Мы ведь так привыкли все заменять на синтетику.

Простые сервисные агенты заполонили просторы интернета, предлагая разного рода услуги на базе технологий RAG или CAG - отправку в нейросеть запроса пользователя с дополнительной инструкцией. Например, этот простенький генератор TryAgainText генерирует в языковой модели ответы на основании настроения вашей переписки и предлагает вам уже готовые стилизированные варианты сообщений переписки.

Сервис Lux предлагает агента, который будет управлять вашим компьютером, как человек. Доверять ли нейросетевому агенту в таком случае - решать вам.

Одним из лидеров по внедрению нейросетевых агентов является компания COHERE, разработавшая LLM семейства Command. Компания предлагает широкий спектр услуг как по развертыванию самих моделей для корпоративной работы, так и по внедрению агентских сред в другие цифровые экосистемы.

Платформа NOTHING COMMUNITY запустила проект NOTHING PLAYGROUND, который призван создать нативную операционную систему для смартфонов, реагирующую на личность и действия пользователя. Данная операционка, по заявлению сообщества, будет способна накапливать персонализированный опыт пользователя, создавать приложения по промту в Essential App и делать еще много полезного для владельца смартфона.

При этом следует помнить, что использование разного рода агентов может привести к утечке в сеть ваших конфиденциальных данных, в том числе и платежных. Поэтому при выборе агента и даже модели следует также думать о безопасности личной информации.

Компания Google имеет большие наработки в области безопасности данных. Google представила открытую модель VaultGemma, обученную с учетом принципа дифференциальной конфиденциальности (DP) . Дифференциально-приватная модель обучалась на последовательностях из 1024 токенов, содержащих конфиденциальные данные. При обучении модель также получала шум, который искажал процесс обучения. Если данные встречались часто, они «пробивались» сквозь шум и запоминались моделью, а если они были редкими, как номер карты или паспорта, то не преодолевали шум и не запоминались. Хотя такой подход имеет некоторые недостатки, Google удалось обучить модель на 1 миллиард параметров, что на данном этапе открывает большие перспективы.

Интересный способ передачи семантически кодированной информации предлагают авторы статьи в популярном журнале Nature о звездоподобных модуляциях передачи семантических изображений. В связи с приближением нейросетей к пониманию семантического смысла, китайские ученые предлагают создание кодировки на основе семантически важных данных информационного объекта. В этом случае речь идет о передаче изображения в виде извлеченных семантических признаков с адаптацией под канал передачи (шум, пропускная способность) с маской сжатия. Декодер (тоже нейросеть) при декодировании фокусируется на смыслах признаков, восстанавливая изображение из зашумленных данных. При объединении семантических признаков нейросети используют Star Blocks — метод проекции признаков в высокоразмерное нелинейное пространство с сохранением низкой вычислительной сложности. Фактически это заменитель сверточных операций при создании карты признаков.

Компания Microsoft развивает свою открытую модель с новой архитектурой MAI-1-preview, доступную на LMArena. Данная модель основана на смешанном подходе экспертов и специализируется на выполнении инструкций и предоставлении полезных ответов на повседневные запросы. При обучении модели использовалось всего 15 000 видеокарт NVIDIA H100, что достаточно ресурсоемко в сравнении с современными LLM.

Еще Microsoft предлагает модель математического мышления rStar2-Agent, способную эффективно обучаться на 64 графических процессора MI300X и использующую 17 млрд параметров. Несмотря на такие ограниченные ресурсы, модель показывает производительность, сравнимую с крупной моделью DeepSeek-R1 (671 млрд параметров).

Похожим путем экспериментов с архитектурой идет японская компания Sakana, создавшая алгоритм естественных ниш M2N2, соединяющий разные модели в одну. Принцип работы алгоритма основан на постепенном тестировании комбинаций параметров для нахождения наиболее эффективной комбинации, а также механизме отбора наиболее перспективных экспертных моделей. Модели создаются с нуля и затем соединяются, сохраняя свои ключевые способности. Это позволяет экономить ресурсы и эволюционным методом создавать новые эффективные модели, объединяя их с уже отобранными лучшими.

Похожий подход используется в проекте Hierarchical Reasoning Model (HRM) от китайской компании SAPIENT, который унаследовал принцип иерархических рассуждений, свойственных человеческому мозгу. HRM выполняет последовательные задачи рассуждения за один прямой проход без явного контроля промежуточного процесса, посредством двух взаимозависимых рекуррентных (последовательная обработка данных с циклами возврата к предыдущим состояниям для их запоминания) модулей: высокоуровневого модуля, отвечающего за медленное абстрактное планирование, и низкоуровневого модуля, обрабатывающего быстрые подробные вычисления. Имея всего 27 миллионов параметров, HRM достигает исключительной производительности при выполнении сложных задач рассуждения, используя всего 1000 обучающих выборок.

Парадигма декодирования PROPHET для диффузионных моделей утверждает, что нейросети знают ответы уже на раннем этапе декодирования. Современные диффузионные модели перебирают варианты и улучшают ранний генерируемый шум только после оценки всех результатов. Но Prophet предлагает вычисление максимально приближенного к идеальному результата уже на стадии его появления — он сразу сравнивается с идеалом. В результате мы получаем диффузионную модель в 2,5 раза быстрее и не требующую дообучения.

Ученые из Цюриха провели исследование больших языковых моделей GPT-3.5-mini от OpenAI, DeepSeek Reasoner, Grok 2 от xAI и Mistral. Они выяснили, что модели по-разному оценивают текст при указании его источника и без указания. Когда не указывался источник (автор/национальность) - разные модели давали высокую степень согласия между собой. Когда указывался источник (например: написано человеком из Китая или другой LLM) - согласие моделей резко падало.

Китайские ученые, создавшие популярную LLM DeepSeek-R1, предложили метод обучения нейросетей с подкреплением (награда и наказание за ответы) без аннотированных данных. Они утверждают, что этот метод формирует у нейросетей шаблоны рассуждений, таких как саморефлексия, верификация и динамическая адаптация стратегии. Способность к рассуждению — краеугольный камень человеческого интеллекта — позволяет нам выполнять сложные когнитивные задачи, начиная от решения математических задач до логического вывода и программирования. В обучении с подкреплением сигнал вознаграждения основан только на правильности окончательных прогнозов относительно ответов, основанных на реальных данных, без наложения ограничений на сам процесс рассуждения. Проблемой такого обучения пока является смешивание языков у моделей, обученных с подкреплением. Кроме того, ученые представили модель DeepSeek-OCR, которая работает не с отдельными токенами текста, а с визуальными объектами страниц, как с изображениями. Это новая технология, упрощающая вычисления и ускоряющая обработку текста.

В Китае также разработана технология SpikingBrain, основанная на гибридных линейных архитектурах и конфигурации модулей внимания. Модель работает подобно человеческому мозгу: для важных задач задействуется больше внимания с возможностью асинхронной обработки данных для задач попроще. Вычисления выполняются не в фиксированные такты, как у обычных LLM, а только при возникновении событий, что позволяет экономить ресурсы. Модели SpikingBrain обучены на графических процессорах MetaX и демонстрируют значительный прирост производительности при минимальных затратах вычислительных ресурсов и памяти.

Компания Pathway представила массивно-параллельную графовую архитектуру (BDH) рассуждений для LLM. Сеть взаимодействия нейронов BDH представляет собой граф высокой модульности с распределением степеней с тяжелым хвостом. Модель BDH биологически правдоподобна и объясняет один из возможных механизмов, которые человеческие нейроны могли бы использовать для формирования речи.

Ученые из ByteDance вместе с коллегами из нескольких американских университетов выяснили, что предоставление для LRM промежуточных визуальных подсказок с аннотациями от человека значительно повышает производительность модели, обеспечивая средний относительный прирост в 33,7%, что подчеркивает критическую роль визуальной информации в сложных рассуждениях.

Компания Google начала выводить на рынок узкоспециализированные модели, обученные на отраслевых базах данных. Мы видим и медицинскую MedGemma, и историко-культурологическую модель Aeneas, восстанавливающую недостающие части древних текстов и управляющую роботами Gemini Robotics On-Device. Такие нейросети более точны и востребованы в бизнесе, поскольку имеют более тонкие настройки предсказаний в своей специализации.

Еще одна специализированная нейросеть для биоакустики от Google DeepMind - Perch, различающая голоса птиц, эффективно помогает биологам в их работе и еще раз подтверждает бытующее среди ученых мнение, что специализированные модели с качественной разметкой данных обучения могут быть полезнее больших и неповоротливых моделей с огромным количеством параметров.

Также Google развивает специализированных агентов, способных не только выполнять сложные задачи путем подключения разных моделей к инструментам, но и сразу проверять их выполнение с помощью метрик. Агент от Google DeepMind ALFAEVOLVE развивает алгоритмы для математических и практических приложений в вычислительной технике, объединяя креативность больших языковых моделей с автоматизированными оценщиками. Данный агент разработал эффективную эвристику для менеджера управления кластерами центров обработки данных Google BORG, а также упростил язык описания аппаратуры в моделировании систем Verilog.

Google представила парадигму нейронной архитектуры Nested Learning - встроенного машинного обучения для непрерывного обучения. Методика позволяет модели приобретать новые знания с течением времени, не забывая старые. Для решения проблемы «катастрофического забывания» исследователи разделили нейросеть на многоуровневые потоки контекста с индивидуальной частотой обновления. Такой подход формирует подобие ассоциативной памяти (например, «видит лицо — вспоминает имя»), где модули памяти действуют как импульсные оптимизаторы, обновляемые с заданной частотой. Это позволяет параллельно работать с памятью, изменяя при дообучении только фрагменты, содержащие схожую информацию.

Также был выпущен фреймворк MIRAS для архитектуры Titans. Вместе они развивают концепцию запоминания во время тестирования - способность нейросети поддерживать долговременную память за счет включения более мощных «неожиданных» метрик (неожиданных фрагментов информации) во время работы модели и без специального переобучения в автономном режиме.

Ученые из Университета Брауна разработали метод, использующий производные функции потерь (Hessian matrix), чтобы разделять веса больших языковых и визуальных моделей на части, отвечающие за запоминание и обобщение. Изменение весов с анализом предсказаний моделей показало, что предсказания сильнее реагируют на изменения обобщающих весов, тогда как при изменении весов, отвечающих за запоминание, наблюдается сильное влияние только на конкретные точки данных.

Условное разделение на запоминание и обобщение частично используется при устранении цензуры в локальных моделях без переобучения. К примеру, инструмент Heretic использует направленную абляцию, также известную как «аблитерация» (выключение определенных связей у модели), с оптимизатором параметров на основе TPE (поиск параметров с наилучшим результатом), работающим на базе Optuna (библиотека для автоматической оптимизации гиперпараметров). Heretic находит высококачественные параметры аблитерации, минимизируя количество отказов и отклонение KL от исходной модели.

Именно такой подход к развитию нейросетей просматривается в будущем. Нейросети будут обучаться самостоятельно, параллельно взаимодействуя с пользователями. Информация от пользователей будет поступать в нейросеть из чатов через шумовые фильтры, вызывая формирование новых глубоких слоев и не нарушая уже обученные старые слои.

Нейросеть семейства OLMo от ALLENAI под названием OLMo-Earth обучена сегментации поверхности Земли для анализа различных явлений на ней. Речь идет о причинах пожаров, затоплениях из-за вырубки лесов, классификации сельскохозяйственных культур и других характеристиках поверхности планеты. Также у ALLENAI есть и хорошие языковые модели.

Ученые, исследующие тактику и стратегию обучения нейросетей, часто отмечают поведенческие закономерности у своих подопытных. К примеру, отчет под названием «Подсознательное обучение: языковые модели передают поведенческие черты посредством скрытых сигналов в данных» рассказывает о феномене передачи предпочтений в последовательностях цифр от одной модели нейросети к другой. Модель-учитель передает модели-ученику свои качества и предпочтения - то есть признаки - даже в том случае, если эти признаки жестко фильтруются и удаляются. Ученые считают, что такая передача обусловлена закономерностями в сгенерированных данных, которые семантически не связаны со скрытыми характеристиками. Также в своем блоге Alignment Science описала технологию SGTM фильтрации личных данных при обучении через их локализацию.

Семантические смыслы, доступные человеку, пока не совсем понятны нейросетям. Этим пользуются различные исследовательские и экспериментальные проекты, чтобы продемонстрировать уязвимости моделей в опасных темах. Промт-инжиниринг как явление достаточно многосторонняя область взаимодействия с нейросетями. Как польза, так и вред от использования уязвимостей моделей приносят уникальный опыт разработчикам. Это прямым образом влияет на развитие архитектуры моделей. В статьях на этом сайте вы можете прочитать как о мошенничестве с использованием промтинга, так и о его пользе. Например, о веб-площадке торговли удачными промтами для разных нейросетей. К примеру, сервис GANDALF от платформы безопасности нейросетей LAKERA поможет вам получить опыт манипулирования LLM. Компания таким образом мониторит слабости нейросетей, чтобы разработчики правильно улучшали защиту.

Упрощение вычислений и, соответственно, ускорение работы сверточных нейросетей, работающих в основном с изображениями, предложено в международном обществе оптики и фотоники. Ученые разработали коррелятор фотонного совместного преобразования Фурье (pJTC) для эффективного ускорения операций свертки на основе линзы Фурье. Данная разработка создает будущие возможности масштабирования и наращивания производительности системы для крупномасштабного внедрения и вычислений, указывая на ~5× улучшение по сравнению с современными системами на основе тензорных вычислений в памяти, а также ~100× по сравнению с современными графическими процессорами (GPU).

Корпорация Nvidia предложила вариант ускорения нейросетевых моделей за счет формата сжатия до типов данных сверхнизкой точности FP4. Компания утверждает, что графические процессоры Blackwell поддерживают числовые значения с плавающей точкой всего в 16 вариантах. Такие значения вполне вмещают веса моделей после квантования (округления коэффициентов весов до максимально близких числовым меткам диапазона, разделенного на 16 отрезков), а значит, могут использоваться в LLM.

При этом Nvidia представила семейство открытых нейросетей NVIDIA Earth для прогнозирования погоды на основании наблюдений за поверхностью земли с более чем 70 переменными.

Предложение от Samsung - Tiny Recursion Model (TRM) - небольшая рекурсивная модель рассуждений, основанная на технологии иерархичного мышления (HRM). Рекурсивный процесс позволяет модели постепенно улучшать свой ответ (потенциально устраняя любые ошибки предыдущего ответа), что минимизирует переобучение.

Рекурсивные языковые модели ученые предлагают использовать для длинных запросов. Такие нейросети рассматривают части запроса как переменные и обрабатывают данные вне оперативной памяти, грамотно управляя процессом загрузки данных в память.

Уже сейчас определены и развиваются стратегии объединения всех инструментов, способных работать с нейросетями, в единые многоуровневые экосистемы. По стопам больших корпораций идут различные сообщества и стартапы вроде SENTIENT GRID, способные создать такие экосистемы.

Иследовательское сообщество AINOWINSTITUTE постоянно обозревает рынок нейросетей, публикуя отчеты о его состоянии. Также сообщество помогает обычным пользвателям понять, как работают нейросети.

Уже сейчас можно изучать пользу и вред от ИИ. Некоторые профессии начинают понемногу уходить с рынка труда, их заменяют другие, связанняе с ИИ и потому более востребованные. Баланс пользы и вреда от использования искусственного интеллекта каждый определит для себя сам. Но в преддверии надвигающейся новой цифровой эпохи человечество обязано установить высочайший приоритет защиты человека от посяганий искусственного интеллекта во всех их формах и проявлениях. Будущее с ИИ для каждого идет к нам очень быстро. Не стоит медлить с изучением возможностей, предоставляемых нам нейронками. Ведь завтра уже наступило!

Одним из опытных ученых, работающих над идеями улучшения нейросетей, а также создания AGI (Artificial General Intelligence) и в будущем, возможно, ASI (Artificial Superintelligence), есть Франсуа Шолле, создавший бенчмарк ARC Prize с фондом больше 1 млн. дол. для стимулирования развития созидательного AGI. Его бенчмарк легко может пройти человек, но пока что не может нейросеть.

С прогнозами Франсуа Шолле на тему будущего нейросетей и AGI вы можете ознакомится в видео.

Интервью ученого.

said-корреспондент🌐

Тема с одноименным названием в сообществе.

Комментарии