Друзья, всем привет! Сегодня я расскажу вам о новом чуде технологий от ребят из OpenAI. Знакомьтесь — Sora, искусственный интеллект, который умеет делать видео по вашему текстовому описанию. Да-да, вы не ослышались: напишите ему, что вы хотите видеть, и он это создаст. Волшебство? Почти. Давайте разбираться, что за зверь такой этот Sora и почему это круто. Ведь все видео в этой статье сделаны с помощью искусственного интеллекта.
Компания Qualcomm представила платформу AI Hub с библиотекой из 75 оптимизированных ИИ-моделей. С её помощью разработчики смогут внедрять ИИ-функции в приложения для устройств на базе Snapdragon и других чипов. Платформа будет доступна на Hugging Face и GitHub.
AI Hub открывает доступ к таким моделям, как Stable Diffusion, Whisper, ControlNet и 72 другим.
Midjourney запретила сотрудникам Stability AI использовать свой сервис, обвинив их в провоцировании сбоев в работе системы в начале этого месяца при попытке собрать данные.
Разработчики открытой модели машинного обучения Stable Diffusion представили Stable Video Diffusion — решение для генерации коротких видео. Организация обновила GitHub-репозиторий и опубликовала материалы исследования.
Stability AI, создатель модели преобразования текста в изображение Stable Diffusion, теперь предлагает услугу подписки, которая стандартизирует способы использования её ИИ в коммерческих целях.
Всем привет, вчера обновился Automatic 1111 - самый популярный интерфейс для генерации изображений с помощью нейросетей Stable Diffusion. Посмотрим что нового!
Внизу будет полный чейнджлог который я постарался аккуратно перевести, но сперва я расскажу вам о самых заметных и приятных нововведениях, их не много, но они действительно крутые!
Три художника подали коллективный иск против нейросетей Stability AI, Deviant Art и Midjourney. Авторы иска утверждают, что ИИ нарушает законы об авторском праве с помощью инструмента для преобразования текста в изображение Stable Diffusion.
Stability AI объявила о выпуске Stable Diffusion XL 1.0, «самой продвинутой» модели преобразования текста в изображение. Она обеспечивает «более яркие» и «точные» цвета и лучшую контрастность, тени и освещение по сравнению со своим предшественником.
Разработчики Apple оптимизировали Stable Diffusion для работы с проприетарным фреймворком Core ML. Теперь нейросеть можно использовать с максимальной производительностью на устройствах на базе процессоров Apple Silicon и под управлением iPadOS 16 и macOS Ventura.
Диффузионные нейросети, такие как DALL-E 2, Imagen и Stable Diffusion, запоминают отдельные изображения из обучающих данных и выдают их во время генерации, выяснили исследователи. Препринт научной статьи опубликован на портале arXiv. Как показала работа авторов, диффузионные нейросети гораздо менее приватны, чем предыдущие генеративные модели, такие как GaN. Для устранения уязвимостей могут потребоваться новые достижения в обучении с сохранением конфиденциальности.
Согласно данным исследования компании Everypixel Group, с начала 2022 года различные популярные ИИ-системы (Midjourney, Stable Diffusion, DALLE-2 и Adobe Firefly) создали по запросам пользователей столько же изображений, сколько живые фотографы сняли за 150 лет.
Getty Images подала иск против Stability AI, создателя ИИ для генерации изображений Stable Diffusion. Компания утверждает, что Stability AI использовала более 12 млн изображений из фотобанка Getty без разрешения и финансовой компенсации, построив на этом конкурентоспособный бизнес. По мнению Getty, это «наглое нарушение авторских прав в ошеломляющих масштабах», сообщает The Verge.
Компания Stability AI запустила платформу искусственного интеллекта для преобразования текста в аудио под названием Stable Audio. Она также использует модель диффузии, которая лежит в основе Stable Diffusion, но обучена на аудио, а не на изображениях. Пользователи могут использовать платформу для создания песен или фонового звука.
Для программы для 3D-моделирования Blender выпустили официальный плагин с поддержкой функций нейросети Stable Diffusion. Он распространяется бесплатно.
Исследователи из Высшей школы передовых биологических наук Университета Осаки обнаружили, что они могут реконструировать высокоточные изображения активности мозга, используя модель генерации изображений Stable Diffusion. Им не потребовалось дополнительно обучать или настраивать модель для создания этих изображений.
Nvidia рассказала о новой ИИ-модели для превращения текста в видео под названием VideoLDM. Эту модель производитель видеокарт разработал вместе с Корнельским университетом. Модель способна генерировать видео в разрешении до 2048 × 1280 пикселей с частотой 24 FPS и длительностью 4,7 секунды на основе текстового описания. В основе VideoLDM заложены наработки нейросети Stable Diffusion. У ИИ-модель 4,1 млрд параметров, 2,7 млрд из них использовали на видео для тренировки. С помощью подхода к модели скрытой диффузии (LDM — Latent diffusion model) разработчики создавали видео высокого разрешения с высоким качеством.
Разработчик Дивам Гупта (Divam Gupta) выпустил приложение Diffusion Bee, генерирующее изображения по текстовому описанию на базе модели Stable Diffusion. Приложение работает локально и не требует подключения к Сети. Важно отметить, что пока доступна версия только для Mac на базе чипов Apple Silicon.