Музыкальные события и истории


19.12.2024

Модель предсказания погоды с использованием ИИ от Google демонстрирует весьма высокую точность

Новости Искусственного Интеллекта


Люди прикрываются зонтом от сильного ветра и дождя


GenCast, новая модель искусственного интеллекта от Google DeepMind, обладает точностью, достаточной для конкуренции с традиционным метеопрогнозом. Согласно недавно опубликованному исследованию, она превзошла одну из ведущих моделей прогноза, когда была проверена на данных 2019 года.


Искусственный интеллект в ближайшее время не заменит традиционные методы прогнозирования, но может стать дополнительным инструментом для предсказания погоды и предупреждения общественности о сильных штормах. GenCast — одна из нескольких моделей ИИ для прогнозирования погоды, которые могут привести к более точным прогнозам.


"Погода, по сути, затрагивает каждый аспект нашей жизни... это также одна из больших научных задач — прогнозирование погоды," — говорит Илан Прайс, ведущий научный сотрудник DeepMind. "Google DeepMind ставит перед собой миссию по развитию ИИ на благо человечества. И я считаю, что это важный способ, важный вклад в этом направлении."


Прайс и его коллеги протестировали GenCast на фоне системы ENS, одной из лучших в мире моделей прогноза, которой руководит Европейский центр среднесрочных прогнозов погоды (ECMWF). Согласно исследованию, опубликованному на этой неделе в журнале Nature, GenCast превзошёл ENS в 97,2% случаев.


GenCast — это модель прогнозирования погоды на базе машинного обучения, обученная на данных о погоде с 1979 по 2018 год. Модель учится распознавать закономерности в четырёх десятилетиях исторических данных и использует это для прогнозирования того, что может произойти в будущем. Это заметно отличается от того, как работают традиционные модели, такие как ENS, которые всё ещё полагаются на суперкомпьютеры для решения сложных уравнений с целью симуляции физики атмосферы. Как GenCast, так и ENS создают ансамблевые прогнозы, которые предлагают диапазон возможных сценариев.


Например, в вопросе прогнозирования траектории тропического циклона GenCast смог обеспечить дополнительное предупреждение в среднем на 12 часов. GenCast в целом оказался лучше в прогнозировании траекторий циклонов, экстремальных погодных явлений и производства энергии ветра за 15 дней вперёд.


Illustrations show a map of Japan next to many blue lines that represent possible storm paths predicted by GenCast. A red line shows the actual path of Typhoon Hagibis. There are four different illustrations for 7 days, 5 days, 3 days, and 1 day before the storm. The range of possible paths becomes narrower over time.


Прогноз от GenCast демонстрирует диапазон возможных траекторий тайфуна Хагибис, которые становятся более точными по мере приближения циклона к побережью Японии.


Одно из замечаний заключается в том, что GenCast протестировал себя на более старой версии ENS, которая теперь работает с более высоким разрешением. Рецензируемое исследование сравнивает прогнозы GenCast с прогнозами ENS за 2019 год, оценивая, насколько точно каждая модель соответствовала реальным условиям в том году. По словам координатора машинного обучения ECMWF Мэтта Чантри, система ENS значительно улучшилась с 2019 года. Это затрудняет оценку того, насколько хорошо GenCast может конкурировать с ENS в настоящее время.


Стоит отметить, что разрешение — не единственный важный фактор при составлении точных прогнозов. В 2019 году ENS уже работала с чуть более высоким разрешением, чем GenCast, однако GenCast всё равно удалось её превзойти. DeepMind утверждает, что проводила аналогичные исследования на данных с 2020 по 2022 год и получила схожие результаты, хотя они ещё не были рецензированы. Однако данных для сравнений за 2023 год, когда ENS начала работать с значительно более высоким разрешением, у них не было.


Разделяя мир на сетку, GenCast работает с разрешением 0,25 градуса — это значит, что каждый квадрат на этой сетке составляет четверть градуса широты и четверть градуса долготы. В сравнении, ENS использовала разрешение 0,2 градуса в 2019 году и сейчас работает с разрешением 0,1 градуса.


Тем не менее, разработка GenCast "является значительным этапом в эволюции прогнозирования погоды", отметил Чантри в заявлении, отправленном по электронной почте. Наряду с ENS, ECMWF также утверждает, что запускает свою собственную версию системы машинного обучения, которая, по словам Чантри, "вдохновлена GenCast".


Скорость является преимуществом GenCast. Он может создать 15-дневный прогноз всего за восемь минут, используя один TPU v5 Google Cloud. Моделям, основанным на физических процессах, как ENS, возможно, потребуется несколько часов для выполнения той же задачи. GenCast обходит уравнения, которые ENS должна решать, поэтому ему требуется меньше времени и вычислительных мощностей для создания прогноза.


"С вычислительной точки зрения, запуск традиционных прогнозов обходится на порядки дороже по сравнению с моделью, такой как GenCast", говорит Прайс.


Эта эффективность может уменьшить некоторые опасения относительно воздействия на окружающую среду энергозатратных центров обработки данных ИИ, которые уже привели к увеличению выбросов парниковых газов Google в последние годы. Однако сложно определить, как GenCast соотносится с моделями, основанными на физических процессах, с точки зрения устойчивости, не зная, сколько энергии требуется для обучения модели машинного обучения.


У GenCast ещё есть возможности для улучшений, включая потенциальное увеличение разрешения. Кроме того, GenCast выпускает прогнозы с интервалом в 12 часов по сравнению с традиционными моделями, которые обычно обновляются на более коротких интервалах. Это может повлиять на то, как эти прогнозы могут использоваться в реальной жизни (например, для оценки доступной мощности ветра).


"Вы бы хотели знать, что ветер будет делать в течение всего дня, а не только в 6 утра и 6 вечера", говорит Стивен Малленс, преподаватель метеорологии Университета Флориды, не участвовавший в исследовании GenCast.


Хотя интерес к использованию ИИ для улучшения прогнозов растет, он всё ещё должен доказать свою эффективность. "Люди обращают на это внимание. Я не думаю, что метеорологическое сообщество в целом полностью уверено в этом", говорит Малленс. "Мы обученные учёные, которые мыслят в терминах физики ... и поскольку ИИ в основе своей не является таковым, то остаётся элемент сомнения: является ли это хорошим и почему?"


Прогнозисты могут самостоятельно попробовать GenCast; DeepMind выпустила код своей модели с открытым исходным кодом. Прайс говорит, что видит применение GenCast и более развитых моделей ИИ в реальной жизни наряду с традиционными моделями. "Когда эти модели попадают в руки практиков, это ещё больше укрепляет доверие и уверенность", говорит Прайс. "Мы действительно хотим, чтобы это оказало широкое социальное воздействие".


Источник: Модель предсказания погоды с использованием ИИ от Google демонстрирует весьма высокую точность



01.01.1970

Google запустила генеративные модели ИИ Veo и Imagen 3

Новости Искусственного Интеллекта


Презентация Google


Google Cloud запустила две модели генеративного ИИ на своей платформе Vertex AI: Veo и Imagen 3, на фоне сообщений о стремительном росте доходов среди предприятий, использующих эту технологию.


Согласно данным Google Cloud, 86% корпоративных компаний, в настоящее время использующих генеративный ИИ в производственных условиях, отметили увеличение доходов, со средним ростом примерно на 6%.


Эта статистика стала драйвером последнего инновационного рывка технологического гиганта, который привел к внедрению Veo – самой совершенной модели для генерации видео на сегодняшний день – и Imagen 3, продвинутой системы для генерации изображений по текстовым запросам.


На переднем крае технологий


Veo, доступная в частной предварительной версии на Vertex AI, является значительной вехой, поскольку Google становится первым гипермасштабным провайдером, предложившим модель для преобразования изображений в видео. Эта технология позволяет бизнесу создавать высококачественные видео на основе простых текстовых или графических подсказок, что может изменить подход к созданию видео в различных отраслях.




«Imagen 3», выпуск которой запланирован на следующую неделю для всех клиентов Vertex AI, обещает беспрецедентный реализм в сгенерированных изображениях, с заметными улучшениями детализации, освещения и сокращения артефактов. Модель включает новые функции для корпоративных клиентов в списке разрешенных пользователей, включая расширенные возможности редактирования и опции настройки бренда.


Example images generated by the Imagen 3 generative AI (GenAI) model by Google, available on its Vertex AI platform.


Трансформация операций


Несколько крупных компаний начали внедрять эти технологии в свои операции.


Mondelez International, компания, стоящая за такими брендами, как Oreo, Cadbury и Chips Ahoy!, использует эту технологию для ускорения создания контент-кампаний в рамках своего глобального портфеля брендов.


Джон Халворсон, старший вице-президент по взаимодействию с потребителями и цифровой коммерции в Mondelez International, объяснил: «Наше сотрудничество с Google Cloud сыграло важную роль в использовании возможностей генеративного ИИ, в частности через Imagen 3, для революции в производстве контента.


«Эта технология позволила нам создать сотни тысяч персонализированных активов, улучшив креативное качество, при этом значительно сократив время выхода на рынок и затраты».


Платформа для обмена знаниями Quora разработала Poe, платформу, которая позволяет пользователям взаимодействовать с моделями генеративного ИИ. Veo и Imagen теперь интегрированы в Poe.


Спенсер Чан, руководитель направления Poe в Quora, прокомментировал: «Мы создали Poe, чтобы демократизировать доступ к лучшим в мире моделям генеративного ИИ. С Veo мы теперь позволяем миллионам пользователей воплощать свои идеи в жизнь через потрясающее, высококачественное генеративное видео».


Безопасность и защита


В ответ на растущие опасения по поводу контента, созданного ИИ, Google внедрил надежные функции безопасности в обеих моделях. К ним относятся:


  • Цифровое водяное знамение через SynthID от Google DeepMind.
  • Встроенные фильтры безопасности для предотвращения создания вредоносного контента.
  • Строгие политики управления данными обеспечивают защиту данных клиентов.
  • Первый в отрасли страхование авторских прав для услуг генеративного ИИ.


Запуск этих новых моделей свидетельствует о растущем влиянии Google в сфере корпоративного ИИ и указывает на переход к более совершенным и интегрированным решениям ИИ для бизнес-приложений.


Источник: Google запустила генеративные модели ИИ Veo и Imagen 3



18.12.2024

Новый инструмент Clarifai управляет ИИ в любой инфраструктуре

Новости Искусственного Интеллекта


Чип искусственного интеллекта


Clarifai представила новую возможность оркестрации вычислений, которая обещает помочь предприятиям оптимизировать их рабочую нагрузку ИИ в любой вычислительной среде, снизить затраты и избежать зависимости от одного поставщика.


Объявленный 3 декабря 2024 года, выпуск в режиме публичного предварительного просмотра позволяет организациям управлять рабочими нагрузками ИИ через единый контрольный центр, независимо от того, выполняются ли эти нагрузки в облаке, на локальных серверах или в изолированной инфраструктуре. Платформа может работать с любой моделью ИИ и аппаратными ускорителями, включая GPU, CPU и TPU.


«Clarifai всегда была впереди, имея более чем десятилетний опыт поддержки крупных предприятий и критически важных правительственных нужд с полным набором инструментов ИИ для создания пользовательских рабочих нагрузок ИИ,» сказал Мэтт Зайлер, основатель и генеральный директор Clarifai. «Теперь мы открываем возможности, которые разрабатывали для внутренней оптимизации наших вычислительных затрат, чтобы обеспечить одновременную работу миллионов моделей.»


Компания утверждает, что её платформа может уменьшить использование вычислительных ресурсов в 3,7 раза благодаря оптимизации упаковки моделей, поддерживая при этом более 1,6 миллиона запросов на вывод в секунду с надежностью 99.9997%. По данным Clarifai, оптимизации могут потенциально снизить затраты на 60–90%, в зависимости от конфигурации.


Возможности платформы оркестрации вычислений включают:


- Оптимизацию затрат через автоматизированное управление ресурсами, включая упаковку моделей, упрощение зависимостей и настраиваемые опции авто-масштабирования, которые могут уменьшать масштаб до нуля для реплик моделей и вычислительных узлов,

- Гибкость развертывания на любом аппаратном оборудовании, включая облачные, локальные, изолированные и Clarifai SaaS инфраструктуры,

- Интеграцию с AI платформой Clarifai для разметки данных, обучения, оценки, рабочих процессов и обратной связи,

- Функции безопасности, позволяющие развертывание в VPC клиентов или локальные кластеры Kubernetes без необходимости открытых входящих портов, пиринга VPC или кастомных IAM ролей.


Платформа возникла из проблем клиентов Clarifai с производительностью и стоимостью ИИ. «Если бы у нас был способ мыслить об этом целостно и сравнить наши локальные затраты с облачными, а затем уметь управлять оркестрацией по всем средам на основе стоимости, это было бы невероятно ценно,» отметил клиент, как указано в объявлении Clarifai.


Способности оркестрации вычислений основаны на существующей платформе Clarifai для ИИ, которая, по утверждению компании, обработала более 2 миллиардов операций в области компьютерного зрения, языка и аудио ИИ. Компания сообщает о поддержке более чем 99.99% времени работоспособности и круглосуточной доступности для критических приложений.


Возможность оркестрации вычислений в настоящее время доступна в режиме публичного предварительного просмотра. Организации, заинтересованные в тестировании платформы, должны связаться с Clarifai для получения доступа.


Источник: Новый инструмент Clarifai управляет ИИ в любой инфраструктуре

16.12.2024

Сооснователь OpenAI Илья Суцкевер заявил, что подход к созданию ИИ в ближайшее время изменится

Новости Искусственного Интеллекта


фото: Сооснователь OpenAI Илья Суцкевер заявил, что подход к созданию ИИ в ближайшее время изменится


Сооснователь и бывший главный научный сотрудник OpenAI, Илья Суцкевер, попал в заголовки новостей в начале этого года после того, как он покинул компанию, чтобы основать собственную лабораторию ИИ под названием Safe Superintelligence Inc. После ухода он избегал публичности, но в пятницу совершил редкое публичное выступление в Ванкувере на конференции по нейронным информационным системам (NeurIPS).


«Предобучение в том виде, в каком мы его знаем, несомненно, прекратится», — заявил Суцкевер на сцене. Это касается первой фазы разработки моделей ИИ, когда крупная языковая модель изучает шаблоны из огромных объемов неразметных данных — в основном текстов из интернета, книг и других источников.


«Мы достигли пика данных, и больше их не будет».


Во время своего выступления на NeurIPS Суцкевер отметил, что, хотя он считает, что существующие данные всё ещё могут продвинуть развитие ИИ, индустрия исчерпывает новые данные для обучения. Эта динамика, по его словам, со временем вынудит перейти от нынешних методов обучения моделей. Он сравнил ситуацию с ископаемым топливом: так же, как нефть является конечным ресурсом, в интернете ограниченное количество контента, созданного человеком.


«Мы достигли пика данных, и больше их не будет», — согласно словам Суцкевера. «Мы должны работать с теми данными, которые у нас есть. Есть только один интернет».


Он предположил, что модели следующего поколения «будут действовать агентно на самом деле». Агенты становятся настоящим модным словечком в области ИИ. Хотя Суцкевер не дал им определения во время своего выступления, их обычно понимают как автономную систему ИИ, которая выполняет задачи, принимает решения и взаимодействует с программным обеспечением самостоятельно.


Помимо того, что они будут «агентными», Суцкевер заявил, что будущие системы смогут также рассуждать. В отличие от сегодняшнего ИИ, который в основном сопоставляет шаблоны на основе того, что модель уже видела, будущие системы ИИ смогут решать задачи шаг за шагом, что будет более сопоставимо с мышлением.


«Чем больше система рассуждает, тем более непредсказуемой она становится», — по словам Суцкевера. Он сравнил непредсказуемость «по-настоящему рассуждающих систем» с тем, как продвинутые ИИ, играющие в шахматы, остаются непредсказуемыми для лучших человеческих шахматистов.


«Они будут понимать вещи, опираясь на ограниченные данные», — сказал он. «Они не будут путаться».


На сцене он провел аналогию между масштабированием систем ИИ и эволюционной биологией, ссылаясь на исследования, показывающие связь между массой мозга и тела у различных видов. Он отметил, что, хотя большинство млекопитающих следуют одной модели масштабирования, человекообразные (предки человека) демонстрируют явно иную крутизну в соотношении массы мозга к телу на логарифмических шкалах.


Он предположил, что, так же как эволюция нашла новый паттерн масштабирования для мозга человекообразных, ИИ может аналогично открыть новые подходы к масштабированию, выходящие за рамки того, как предобучение работает сегодня.


После завершения своего выступления, один из членов аудитории спросил Суцкевера, как исследователи могут создать правильные стимулы для человечества, чтобы позволить ИИ иметь «те же свободы, что у нас, как у Homo sapiens».


«Мне кажется, что в некотором смысле это те вопросы, над которыми люди должны размышлять больше», — ответил Суцкевер. Он сделал паузу, прежде чем сказать, что он не «чувствует уверенности, отвечая на такие вопросы», потому что для этого потребуется «государственная структура сверху вниз». Один из членов аудитории предложил криптовалюту, что вызвало смешки в зале.


«Я не чувствую, что я подходящий человек, чтобы комментировать криптовалюту, но есть вероятность того, что то, что вы описываете, произойдет», — сказал Суцкевер. «Знаете, в каком-то смысле это не плохой конечный результат, если у вас есть ИИ, и всё, что они хотят, это сосуществовать с нами и иметь права. Может быть, это будет нормально... Я думаю, вещи настолько невероятно непредсказуемы. Я не решаюсь комментировать, но призываю к спекуляциям».


Источник: Сооснователь OpenAI Илья Суцкевер заявил, что подход к созданию ИИ в ближайшее время изменится

15.12.2024

Gemini 2.0: Google открывает эру агентного искусственного интеллекта

Новости Искусственного Интеллекта


Генеральный директор Google Сундар Пичаи объявил о запуске Gemini 2.0, модели, которая представляет собой следующий шаг в стремлении Google совершить революцию в области искусственного интеллекта.


Спустя год после представления модели Gemini 1.0 это важное обновление включает в себя улучшенные мультимодальные возможности, агентную функциональность и инновационные пользовательские инструменты, разработанные для расширения границ технологий, управляемых ИИ.


Шаг к трансформационному ИИ


Отражая 26-летнюю миссию Google по организации и доступности мировой информации, Пичаи отметил: «Если Gemini 1.0 был о том, чтобы организовать и понять информацию, то Gemini 2.0 — о том, чтобы сделать её гораздо более полезной».


Gemini 1.0, выпущенная в декабре 2022 года, была примечательна тем, что стала первой нативно мультимодальной моделью ИИ Google. Первая версия превосходила в понимании и обработке текста, видео, изображений, аудио и кода. Её улучшенная версия 1.5 получила широкое признание среди разработчиков за её способность понимать долгий контекст, что позволило создавать такие приложения, как ориентированный на производительность NotebookLM.


Теперь, с выпуском Gemini 2.0, Google стремится ускорить роль ИИ как универсального помощника, способного к нативной генерации изображений и аудио, лучшему рассуждению и планированию, а также к принятию решений в реальном мире. По словам Пичаи, это развитие представляет собой рассвет «агентной эры».




«Мы вкладываем средства в разработку более агентных моделей, то есть таких, которые могут лучше понимать мир вокруг вас, думать на несколько шагов вперед и действовать от вашего имени под вашим контролем», — объяснил Пичаи.


Gemini 2.0: основные функции и доступность


В центре сегодняшнего анонса находится экспериментальный выпуск Gemini 2.0 Flash, флагманской модели второго поколения Gemini. Она основывается на достижениях своих предшественников, обеспечивая более быстрое время отклика и улучшенную производительность.


Gemini 2.0 Flash поддерживает мультимодальные входы и выходы, включая возможность генерировать нативные изображения вместе с текстом и создавать управляемый текст-в-речь мультиязычный аудио. Кроме того, пользователи могут воспользоваться интеграцией инструментов, таких как Google Search и даже сторонней заданной функциями пользователей.


Разработчики и компании получат доступ к Gemini 2.0 Flash через Gemini API в Google AI Studio и Vertex AI, а более крупные размеры моделей планируется выпустить в январе 2024 года.


Для обеспечения глобальной доступности приложение Gemini теперь оснащено оптимизированной для чата версией экспериментальной модели 2.0 Flash. Ранние пользователи могут попробовать этого обновленного помощника на настольных и мобильных устройствах, при этом выпуск мобильного приложения ожидается в ближайшее время.


Такие продукты, как Google Search, также улучшаются с помощью Gemini 2.0, что позволяет обрабатывать более сложные запросы, такие как продвинутые математические задачи, вопросы по программированию и мультимодальные вопросы.


Комплексный набор новшеств в области ИИ

Запуск Gemini 2.0 сопровождается рядом убедительных новых инструментов, демонстрирующих её возможности.


Одна из таких функций, Deep Research, работает как помощник по ИИ-исследованиям, упрощая процесс изучения сложных тем путем составления информации в полноценные отчёты. Другое улучшение включает в себя возможность выполнения сложных многокроковых пользовательских запросов.


Модель была обучена с использованием шестого поколения тензорных процессоров Google (TPU), известных как Trillium, которые Пичаи отметил, как «те, которые обеспечивали 100% обучения и выведения Gemini 2.0».


Trillium теперь доступен для внешних разработчиков, предоставляя им возможность использовать ту же инфраструктуру, которая поддерживает собственные разработки Google.


Новаторские агентные решения


Вместе с Gemini 2.0 представлены экспериментальные «агентные» прототипы, созданные для изучения будущего взаимодействия человека и ИИ, среди которых:


Project Astra: универсальный ИИ ассистент


Представленный впервые на конференции I/O в начале этого года, Project Astra использует мультимодальное понимание Gemini 2.0, чтобы улучшить взаимодействие ИИ в реальном мире. Доверенные тестировщики испытали помощника на Android, предоставив отзывы, которые помогли улучшить его многоязычный диалог, способность удержания информации и интеграцию с инструментами Google, такими как Search, Lens и Maps. Astra также продемонстрировала почти человеческую задержку в разговоре, и продолжается исследование её применения в носимой технологии, такой как прототипные очки с ИИ.


Project Mariner: переопределение автоматизации в интернете


Project Mariner — это экспериментальный помощник для веб-браузеров, который использует способность Gemini 2.0 рассуждать на основе текстов, изображений и интерактивных элементов, таких как формы в браузере. В начальных тестах он достиг 83.5% успешности на эталоне WebVoyager по выполнению задач в интернете от начала до конца. Ранние тестировщики, использующие расширение для Chrome, помогают улучшать возможности Mariner, в то время как Google оценивает меры безопасности, чтобы гарантировать, что технология останется дружественной и безопасной для пользователя.


Jules: агент для кодирования для разработчиков


Jules, помощник на основе ИИ, разработанный для разработчиков, интегрируется напрямую в рабочие процессы GitHub для решения задач кодирования. Он может автономно предлагать решения, генерировать планы и выполнять задачи, основанные на коде — всё под человеческим надзором. Этот эксперимент является частью долгосрочной цели Google по созданию универсальных агентов ИИ в различных доменах.


Применение в играх и за их пределами


Расширяя сферу действия Gemini 2.0 в виртуальные среды, подразделение Google DeepMind работает с партнёрами в области игр, такими как Supercell, над созданием интеллектуальных игровых агентов. Эти экспериментальные ИИ-компаньоны могут интерпретировать действия в игре в реальном времени, предлагать стратегии и даже получать более широкие знания через Search. Проводится также исследование того, как пространственное мышление Gemini 2.0 может поддерживать робототехнику, открывая двери для применения в физическом мире в будущем.




Решение вопросов ответственности в разработке ИИ


По мере расширения возможностей ИИ Google подчёркивает важность приоритизации вопросов безопасности и этических соображений.


Google утверждает, что Gemini 2.0 прошла обширные оценки рисков, усиленные надзором Комитета по ответственности и безопасности для снижения потенциальных рисков. Кроме того, её встроенные способности к рассуждению позволяют проводить продвинутую «red-teaming», позволяя разработчикам оценивать сценарии безопасности и оптимизировать меры безопасности в масштабе.


Google также изучает меры защиты для обеспечения конфиденциальности пользователей, предотвращения злоупотреблений и обеспечения надёжности агентов ИИ. Например, Project Mariner разработан так, чтобы приоритетами были инструкции пользователя при сопротивлении злонамеренным вводам, предотвращая угрозы, такие как фишинг или мошеннические транзакции. Между тем, функции управления конфиденциальностью в Project Astra упрощают пользователям управление данными сеансов и предпочтениями удаления.


Пичаи подтвердил приверженность компании ответственной разработке, заявив: «Мы твердо верим, что единственный способ создать ИИ — это быть ответственными с самого начала».


С выпуском Gemini 2.0 Flash Google приближается к своей цели создания универсального помощника, способного преобразить взаимодействие в различных доменах.


Источник: Gemini 2.0: Google открывает эру агентного искусственного интеллекта

Страницы: 1 2 3 4 5 6 7 8 9 10 11
Business Key Top Sites

Пользовательское соглашение

Опубликовать