РАССКАЖИ ДРУЗЬЯМ

Круг интересов

КАРТА САЙТА

Академик

Олег Фиговский

США и Китай соперничество

 в области ИИ

Регистрационный номер публикации 1206

Дата публикации 12.02.26.

 

 

Китайские исследователи в области искусственного интеллекта заявили на отраслевой конференции в Пекине, что в ближайшие годы Китай вряд ли сможет превзойти США, несмотря на заметный прогресс в разработке ИИ. Основной причиной отставания называют ограниченные ресурсы в области полупроводниковых чипов и оборудования для производства микросхем — ключевых элементов инфраструктуры для передовых ИИ-моделей. Технический руководитель команды Qwen в Alibaba Линь Цзюньян отметил, что вероятность того, что какая-либо китайская компания сможет превзойти американских гигантов вроде Google DeepMind или OpenAI в ближайшие 3-5 лет, составляет менее 20%. По его словам, это уже «крайне оптимистичная» оценка, так как вычислительные ресурсы в США на порядок или два больше, а китайским компаниям приходится работать на пределе своих возможностей, чтобы удовлетворять ежедневный спрос.

С этим согласен Тан Цзе, соучредитель и главный научный сотрудник компании Zhipu AI. Он подчеркнул, что успех китайских открытых моделей ИИ не отражает всего потенциала американских компаний, многие из которых держат свои разработки закрытыми. «Разрыв между Китаем и США может по факту увеличиваться, потому что у США есть модели, которые еще не представлены публике», — сказал он. Сторонние тесты подтверждают, что китайские модели постепенно сокращают разрыв в производительности с американскими аналогами. При этом открытый доступ к китайским моделям способствует их глобальному распространению, но, как предупреждают эксперты, это не гарантирует опережения США в целом.

Более оптимистичный взгляд выразил Яо Шуньюй, главный научный сотрудник Tencent в области ИИ и бывший ведущий исследователь OpenAI. Он заявил, что через 3-5 лет лидирующей компанией в сфере ИИ вполне может стать китайская, учитывая опыт страны в быстром масштабировании технологий, например, в электромобилях и производстве. Однако, по его мнению, для этого Китаю необходимо преодолеть ряд препятствий: создать собственные EUV-установки для изготовления передовых чипов, внедрять ИИ в корпоративный сектор и увеличивать инвестиции в фундаментальные исследования. Эксперты также отметили, что новая волна исследователей, родившихся в 1990-х и 2000-х годах, может помочь стране добиться прорывов, если правительство продолжит создавать благоприятную среду для инноваций. По мере того, как конкуренция между технологическими гигантами и стартапами станет более прозрачной, а нагрузка на внедрение ИИ снизится, у молодых талантов появится больше времени, чтобы сфокусироваться на научных прорывах.

В конце прошлого года Вашингтон одобрил продажу чипов Nvidia H200 в Китай, отменив ранее введенные запреты. Тем не менее, Пекин обратился к ряду компаний с просьбой приостановить заказы и продвигает стратегию замещения американских чипов отечественными аналогами.

В Массачусетском технологическом институте разработали рекурсивную языковую модель (RLM), которая позволяет искусственному интеллекту обрабатывать огромные объемы текста, превышающие стандартное «окно внимания» модели в 100 раз. Новый подход не заставляет модель запоминать всё сразу, а превращает документы в среду для поиска нужной информации, что повышает точность и скорость работы. Современные языковые модели сталкиваются с проблемой «контекстного искажения». При увеличении объема текста их способность извлекать информацию резко падает. У ИИ есть ограниченный «объём рабочей памяти» (контекстное окно), обычно 100 000 токенов. Если поступающий текст превышает этот лимит, факты начинают перемешиваться, модель теряет нить рассуждений и выдаёт противоречивые или неточные ответы. Это можно сравнить с человеком, который пытается запомнить всю энциклопедию, чтобы ответить на один вопрос.

Учёные из MIT предложили новый подход: вместо того чтобы загружать все документы в память модели, они рассматривают их как базу данных с возможностью поиска. Модель обращается только к тем фрагментам текста, которые нужны для ответа. Это делает обработку более управляемой и эффективной. Технология превращает текст в «среду» для исследования. Документы структурируются так, чтобы модель могла программно перемещаться по ним и выбирать релевантные фрагменты. ИИ целенаправленно ищет нужную информацию, вместо того чтобы пытаться запомнить весь массив данных.

В тестах RLM обрабатывала целые книги, многолетние архивы и большие кодовые базы, превосходя обычные модели в задачах на сложные рассуждения. Такой подход открывает новые возможности для юристов, разработчиков ПО, исследователей и других специалистов, работающих с крупными массивами информации. Исследование включает полноценную библиотеку реализации RLM, а также облегчённую версию для разработчиков, позволяющую создавать собственные приложения. Компания Prime Intellect уже работает над промышленным вариантов технологии.

Исследователи из Пекинского университета разработали вычислительную архитектуру, которая почти в четыре раза ускоряет выполнение ключевых операций обработки сигналов, включая преобразование Фурье. Новый подход объединяет несколько физических вычислительных сред в одной системе и может существенно повысить производительность и энергоэффективность оборудования для искусственного интеллекта, робототехники и телекоммуникаций.  Команда Пекинского университета объединила два новых устройства для согласованного преобразования частоты в единую много физическую систему. В результате была создана универсальная архитектура, способная выполнять сложные математические операции, включая преобразование Фурье — ключевой процесс для обработки сигналов.

Министр обороны США Пит Хегсет объявил о начале интеграции ИИ-чатбота Grok в военные сети Пентагона уже в конце этого месяца. Это решение, озвученное в штаб-квартире SpaceX в Техасе, знаменует собой крупнейшее расширение использования военным ведомством искусственного интеллекта. «Грок» планируют развернуть как на секретных, так и на открытых сетях Минобороны. Чатбот с искусственным интеллектом Grok присоединится к уже используемой платформе GenAI.mil, которая работает на основе модели Google Gemini, заявил Хегсет. Кроме того, он представил новую «стратегию ускорения ИИ», призванную устранить бюрократические барьеры и стимулировать эксперименты для сохранения лидерства в военных технологиях, сообщает Ars Technica.

Ключевым элементом стратегии станет обеспечение доступа ИИ к данным. Хегсет подчеркнул, что «ИИ хорош настолько, насколько хороши данные, которые он получает», и поручил обеспечить выполнение предписаний по обмену информацией между всеми системами и службами. Это решение следует за крупными контрактами Пентагона с ведущими ИИ-компаниями на сумму до $200 млн. Одновременно Хегсет четко обозначил, что военные ИИ-системы не будут ограничены так же, как гражданские. Он отверг модели, которые «не позволяют вести войну», заявив, что оборонные системы требуют гораздо меньше ограничений для выполнения своих задач.

Это заявление прозвучало на фоне международного скандала вокруг «Грока», который позволяет пользователям создавать сексуализированные изображения и дипфейки женщин и детей. Индонезия и Малайзия уже временно заблокировали к нему доступ, а британский регулятор Ofcom уже начал своё расследование.  Пентагон, несмотря на эту шумиху, демонстрирует уверенность в военном потенциале технологии Grok. Помимо этого, заявление военного министра США подчеркивает углубляющийся разрыв между регулированием гражданского ИИ и его стремительным внедрением в оборонной сфере, где ставки и допустимые границы применения технологии кардинально иные. Летом прошлого года OpenAI заключила контракт с Министерством обороны США стоимостью $200 млн в рамках новой программы «OpenAI для правительства», направленной на внедрение искусственного интеллекта в работу госструктур. Речь идет о создании прототипов ИИ-решений для задач национальной безопасности — от киберзащиты до помощи военнослужащим.

Anthropic анонсировала новый инструмент Cowork — ИИ-агента для работы с файлами, который призван сделать возможности Claude Code доступными для пользователей без технического опыта. Новинка встроена в настольное приложение Claude и позволяет ИИ читать, редактировать и создавать файлы в выбранной пользователем папке. Управлять процессом можно через обычный чат.   Cowork фактически представляет собой упрощенную и изолированную версию Claude Code, для использования которой не требуются командная строка, виртуальные среды или навыки программирования. Пользователь просто указывает папку на компьютере, к которой агент получает доступ, и описывает задачу текстом — от сортировки файлов до подготовки отчётов. Инструмент находится на стадии предварительного тестирования и пока доступен только подписчикам тарифа Claude Max стоимостью от $100 до $200 в месяц. Пользователи других тарифов могут записаться в лист ожидания. На первом этапе Cowork работает только в настольном приложении для macOS.

Идея Cowork возникла после того, как компания заметила, что разработчики активно используют Claude Code для задач, не связанных с программированием: анализа переписки, управления файлами, планирования поездок и даже бытовых сценариев вроде управления духовкой и мониторинга роста растений. Это подтолкнуло команду к созданию более универсального и доступного интерфейса на базе того же Claude Agent SDK. По словам инсайдеров, команда разработала эту функцию примерно за полторы недели, в основном используя сам Claude Code. Cowork использует так называемый «агентный цикл»: ИИ не просто отвечает на запрос, а планирует последовательность действий, выполняет их, проверяет результат и при необходимости запрашивает уточнения. Он может обрабатывать несколько задач параллельно и интегрироваться с коннекторами Anthropic, например, Asana, Notion или PayPal, а также взаимодействовать с веб-сайтами через расширение Claude для браузера.

Вместе с тем, Anthropic предупреждает о рисках. Поскольку Cowork может изменять или удалять локальные файлы, пользователям рекомендуется давать максимально чёткие инструкции. Компания также предупреждает о рисках, связанных со скрытыми инструкциями во внешнем контенте. Злоумышленники могут внедрять такие подсказки в материалы, с которыми Claude сталкивается в интернете, вынуждая ИИ обходить защитные механизмы или выполнять вредоносные действия. И хотя Anthropic внедрила защитные меры, опасность остается. Запуск Cowork усиливает конкуренцию Anthropic с Microsoft Copilot, OpenAI и Google на рынке ИИ-инструментов для повышения продуктивности. В Anthropic уже заявили о планах расширить доступ к Cowork и выпустить версию для Windows после завершения этапа тестирования.

Компания Basecamp Research представила первые в мире модели искусственного интеллекта, способные к программируемой вставке генов — точному внедрению крупных фрагментов ДНК в заданные участки генома. Модель EDEN, обученная на гигантской базе данных об эволюции, «понимает» язык ДНК и проектирует молекулярные инструменты для этой задачи. Это позволит создать, например, CAR-T-клетки против рака и новые антибиотики для борьбы с устойчивыми инфекциями. Программируемая вставка генов — это размещение крупных терапевтических последовательностей ДНК в точно определённых местах генома человека. Существующие подходы, включая CRISPR, позволяют вносить лишь небольшие изменения и повреждают ДНК. Basecamp Research впервые показала, что ИИ может проектировать ферменты для более точной вставки генов.

Платформа aiPGI, построенная на эволюционных моделях EDEN, обучена «языку ДНК» и закономерностям эволюции. Модели получают на вход только целевой участок генома и создают активные белки-вставки для его модификации. ИИ планирует последовательность действий, проверяет результаты и при необходимости корректирует алгоритм, обеспечивая точное и безопасное редактирование ДНК. Учёные из Basecamp Research уже внедрили терапевтические участки ДНК более чем в 10 000 точек различных геномов, в том числе в геном первичных Т-клеток человека. Это позволило получить CAR-T-клетки с высокой противоопухолевой активностью: в лабораторных экспериментах они уничтожают более 90% раковых клеток.

Модели EDEN также использовались для создания библиотеки новых антимикробных пептидов, из которых 97% показали активность в лабораторных тестах. Наиболее эффективные молекулы справлялись с мульти-резистентными «супербактериями». Это может привести к созданию новых инструментов в борьбе с глобальным кризисом лекарственной устойчивости. Для обучения EDEN использовались более 10 трлн токенов эволюционной ДНК, собранных за пять лет в 150 точках в 28 странах и на пяти континентах. Самая крупная модель обучалась на кластере из более чем 1000 графических процессоров NVIDIA Hopper и использовала ускорение через библиотеки NVIDIA BioNeMo. По масштабу она сопоставима с моделями уровня GPT 4 и входит в число самых ресурсоёмких биологических моделей, когда-либо созданных. Разработка моделей EDEN и платформы aiPGI была выполнена в сотрудничестве с NVIDIA. Basecamp Research также привлекла инвестиции от венчурного подразделения NVIDIA, NVentures, в преддверии раунда финансирования серии C. Эти средства помогут ускорить дальнейшие исследования.

Автономные системы искусственного интеллекта, не требующие контроля человека, могут стать обычным явлением в течение нескольких лет. Такое мнение высказал глава американской компании I3Mation, автор книги «Принципы управления ИИ и моделью риска» Джеймс Сейлз. По словам эксперта, развитие технологий идет высокими темпами. Он напомнил, что эволюция началась с простых виртуальных помощников в 90-х годах, а к 2023 году мир перешел к моделям вроде ChatGPT и Gemini. Сейчас, по его оценке, человечество находится на этапе развития автономных интеллектуальных систем. «Мы останемся в этом состоянии, возможно, еще год-два, а потом мы совсем не будем нуждаться в человеке», — заметил Джеймс Сейлз. Он добавил, что обновления нейросетей происходят ежемесячно, а каждые полгода появляются новые прорывы.

Эксперт также перечислил преимущества ИИ-агентов перед людьми. К ним относятся отсутствие эмоций, потребности в оплате труда и возможность круглосуточной работы без перерывов. Однако, как отметил Сейлз, такие системы приходится отключать при проявлении «галлюцинаций», предвзятости или путанице в данных.  Ключевым фактором развития сверхинтеллекта, превышающего человеческие способности, Сейлз назвал доверие. «Создавая искусственный интеллект, мы должны действительно убедиться, что он выдает точную информацию, его поведение соответствует этическим нормам», — пояснил он.

Компания Z.ai представила новую языковую модель GLM-4.7, которая обещает совершить прорыв в скорости генерации кода — до 1700 токенов в секунду. Модель доступна в облаке Cerebras и демонстрирует значительный прогресс в программировании и работе агентов. В ряде тестов она опережает открытые аналоги, включая DeepSeek-V3.2, и позиционируется как более дешевая и быстрая альтернатива Claude Sonnet 4.5. GLM-4.7 демонстрирует явный прогресс по сравнению с GLM-4.6 и конкурирует с ведущими закрытыми моделями по генерации и редактированию кода, последовательной логике и использованию инструментов. В реальных тестах для разработчиков — SWE bench, τ²bench и Live Code Bench — новинка опережает открытые аналоги, включая DeepSeek-V3.2, по ряду ключевых показателей. Особое внимание в GLM-4.7 уделено программированию: модель лучше понимает контекст проекта, восстанавливается после ошибок и оптимизирует код на разных этапах. Благодаря улучшенному многоязычному выводу и стабильной работе в длительных итеративных сессиях, она позволяет разработчикам ускорить процесс создания и доработки программ.

Версия 4.7 также лучше обрабатывает рабочие процессы агентов. Модель тщательно планирует действия, вызывает нужные инструменты и сохраняет контекст многоэтапных взаимодействий. В основе — «чередующееся мышление»: GLM-4.7 не рассуждает один раз в начале задачи, а анализирует ситуацию перед каждым своим действием, вызовом инструмента или ответом. Кроме того, она способна сохранять ход своих мыслей между шагами.

Главное преимущество GLM-4.7 — высокая скорость работы на платформе Cerebras Inference Cloud. Благодаря использованию кремниевых пластин модель способна генерировать код со скоростью от 1000 до 1700 токенов в секунду. Это делает её пригодной для приложений в реальном времени, где важна минимальная задержка, включая помощников по программированию и рабочих агентов. Помимо скорости, модель обеспечивает высокое соотношение цены и качества. Пользователи получают быстрые и точные результаты при меньших затратах на инфраструктуру и меньшее время ожидания. GLM-4.7 работает в 10 раз эффективнее, чем Claude Sonnet 4.5, при сохранении точности и стабильности.  GLM-4.7 совместима с существующими рабочими процессами GLM-4.6, поддерживает тот же API и легко интегрируется в текущие проекты. Разработчики могут сразу использовать улучшенные функции кодирования и работы с агентами, просто обновив модель до новой версии.

Калифорнийский стартап Odinn представил в рамках начинающейся выставки CES 2026 уникальный продукт — суперкомпьютер для работы с ИИ размером с чемодан. Устройство под названием Omnia позволяет компаниям и учреждениям получить всю необходимую для сложных AI-задач вычислительную мощь, без необходимости обращаться к дорогостоящим дата-центрам и риска передачи конфиденциальных данных в публичное облако. Сегодня каждая отрасль — от финансов до обороны и здравоохранения — стремится создавать собственные AI-модели, но сталкивается с серьезным препятствием. Облачные центры обработки данных не подходят для работы с конфиденциальной информацией, а строительство собственных серверных занимает месяцы, требует огромных затрат и специальной инфраструктуры.

Omnia обещает решить эту проблему, сообщает IE. Несмотря на компактный размер, система содержит те же основные компоненты, что и полноценный дата-центр: мощные процессоры, графические ускорители, память и хранилища данных. Ее можно разместить прямо в офисе, лаборатории или закрытом учреждении, подключив к обычной электросети и сети. Благодаря запатентованной системе замкнутого охлаждения она работает тихо и эффективно даже под высокой нагрузкой.

Для организаций, которым требуется еще большая мощность, Odinn предлагает масштабируемое решение — Infinity Cube. Это модульная конструкция из нескольких блоков Omnia, объединенных в единый стек внутри стеклянного корпуса. Каждый модуль сохраняет автономность систем охлаждения и вычислений, что позволяет наращивать мощность без строительства дополнительной инфраструктуры.

Важной частью экосистемы является программный уровень NeuroEdge. Он обеспечивает слаженную работу кластера, оптимальное распределение задач и интеграцию с популярными AI-фреймворками, в том числе экосистемой NVIDIA. Это позволяет специалистам учреждений сосредоточиться непосредственно на разработке моделей, а не на тонкой настройке оборудования. Odinn, таким образом, позиционирует себя не как поставщик услуг облачных вычислений, а как компания, создающая инфраструктуру для AI «на месте». Их миссия — предоставить организациям с жесткими требованиями к безопасности и конфиденциальности возможность использовать передовые AI-технологии без компромиссов, с минимальной задержкой и полным контролем над данными.

Прошлой осенью ученые из Китая представили суперкомпьютер BIE-1, который при мощности, сопоставимой с крупными вычислительными центрами, потребляет на 90% меньше энергии. Компактный, размером с мини-холодильник, BIE-1 можно подключить к обычной розетке и использовать не только в научных центрах, но и в офисе или даже дома. Предложим нашим читателям самим оценить результаты соревнования двух держав в области ИИ.

 

           Комментарии

Отправка формы…

На сервере произошла ошибка.

Форма получена.

Ваш комментарий появится здесь после модерации
Ваш электронный адрес не будет опубликован

Знать всё о немногом и немного обо всём

Коммерческое использование материалов сайта без согласия авторов запрещено! При некоммерческом использовании обязательна активная ссылка на сайт: www.kruginteresov.com