0

Искусственный интеллект создал песню

Композиция «Break Free» является первым выпущенным треком нового альбома американской певицы и актрисы Тэрин Саузерн (Taryn Southern). Песня, как и весь альбом в целом, создавался при участии некоего артиста под именем Ампер (Amper), однако то, что со стороны могло показаться обычным сотрудничеством между артистами, на деле оказалось совсем не тем, чем представлялось.

Тэрин довольно известна в своей стране и занимается музыкой уже давно. Она впервые появилась на экранах телевизоров еще в 2004 году, участвуя в американском шоу талантов American Idol. У нее более 500 миллионов просмотров на сайте YouTube и более 450 тысяч подписчиков. Для Ампер же выпуск альбома станет дебютом. И правда в том, что он (или оно) не является человеком.

Ампер является искусственным интеллектом (по крайней мере так его называют его создатели), а по совместительству композитором, продюсером и исполнителем. Он был разработан командой профессиональных музыкантов и технологических экспертов и по факту является первым ИИ, создавшим полноценный музыкальный альбом. Он символично называется «I AM AI» и поступил в продажу 21 августа.

С песней «Break Free» можно ознакомиться на видео ниже. Если верить описанию ролика, весь видеоряд и музыка были созданы искусственным интеллектом.

Дрю Сильверстейн, кинокомпозитор и один из тех, кто создал Ампер, объяснил порталу TechCrunch, что тот не работает исключительно самостоятельно и был создан именно для коллективной работы в составе музыкантов.

«Мы в целом считаем, что в будущем музыка будет создаваться при сотрудничестве человека и искусственного интеллекта. И мы хотим, чтобы этот совместный опыт начался как можно раньше и двигал этот креативный процесс вперед», — прокомментировал Сильверстейн.

В команде отмечают, что, в отличие от других песен, созданных ИИ-алгоритами, все аккорды и инструментал композиции «Break Free» были написаны и использованы исключительно силами Ампер. По мнению создателей, Ампер в конечном итоге разрушает ту модель, согласно которой работают нынешние ИИ-алгоритмы, использующиеся при создании музыки. Обычно в таких случаях тот результат, который получается при использовании алгоритма, затем проходит довольно серьезную переделку людьми. Другими словами, по сути всю основную и сложную работу делает именно человек. Как указывают в пресс-релизе создатели Ампер, «типичный процесс создания музыки ИИ-алгоритмом включает ручную работу человека, который проводит существенные изменения, включая даже изменения аккордов и мелодий в созданных этим алгоритмом композициях».

Но с Ампер все иначе. Как указывалось выше, он сам создает все структуры аккордов и подбирает нужные звуки. Человек-композитор в дальнейшем занимается только «огранкой», если необходимо все подогнать к общему стилю и ритму. И что самое интересное, благодаря технологиям машинного обучения Ампер может создавать музыку за считанные секунды. Пример созданной Ампер мелодии находится здесь. А здесь можно послушать аранжировку Тэрин.

Несмотря на то, что «I AM AI» является первым студийным альбомом, записанным с привлечением искусственного интеллекта, это не первый случай, когда ИИ занимается творчеством и создает музыку и другие произведения искусства (если их можно так называть).

Например, ИИ-алгоритм Aiva обучили создавать классические мелодии. А алгоритм DeepBach способен творить музыку, в которой явно отмечается вдохновение от немецкого классика Иоганна Себастьяна Баха.

Первый студийный альбом, записанный ИИ, – это лишь первый шаг в новую музыкальную эру, где люди будут не только делиться своей артистичностью с искусственным интеллектом, но и в какой-то степени смогут с ним посоревноваться.

ИИ помогает музыкантам тестировать новые идеи, находить оптимальный эмоциональный контекст, интегрировать музыку в современные медиа и просто развлекаться.

Первые и самые успешные мировые разработки

В начале 1960-х годов французский архитектор и композитор греческого происхождения Яннис Ксенакис начал использовать звучания, сгенерированные с помощью ЭВМ и специальных программ на языке Fortran. В 1980-х годах музыкант и ИТ-исследователь Кемаль Эбчиоглу предложил в своей докторской диссертации алгоритмическую систему для гармонизации хоралов в стиле Баха.

По мере того как искусственный интеллект и машинное обучение становились всё более изощренными, рос потенциал компьютерной музыки. Вскоре алгоритмы смогли анализировать принципы составления музыкальных произведений на основании реальных примеров.

Учёный и музыкант Джон Байлс разработал алгоритм GenJam, способный на джазовые импровизации. Байлс, исполняющий джазовые композиции на трубе, выступал вместе с GenJam в рамках проекта Al Biles Virtual Quintet. Аналогичный алгоритм GenBebop был разработан учёными-когнитивистами Ли Спектором и Адамом Алперном для соло импровизаций в стиле Чарли Паркера.

Одной из наиболее убедительных попыток компьютерного музыкального творчества стал алгоритм Continuator, разработанный Франсуа Паше в Sony Computer Science Laboratory в Париже. В тесте Тьюринга, в котором Continuator джемил с профессиональным пианистом, большинство слушателей не смогли угадать искусственное происхождение его мелодий.

Наиболее известная попытка обучить компьютер творческой самостоятельности — Эмили Хауэлл, программа, созданная в 2012 году профессором музыки Дэвидом Коупом. Он предполагал, что любое творчество вдохновлено плагиатом, а великие композиторы впитывали музыкальные гармонии, которые были созданы ранее, и их мозг «перекомпоновал» мелодии и фразы характерными для них, узнаваемыми методами. Эти взгляды легли в основу его разработки.

Первой программой, создавшей симфоническую композицию в своём собственном стиле (вместо того, чтобы подражать стилю существующих композиторов), стала Iamus. Первый музыкальный фрагмент её «сочинения» Opus One был создан 15 октября 2010 года, а ровно через год появилась первая полная композиция Hello World!

Четыре произведения Iamus транслировались в прямом эфире из Школы компьютерных наук в Университете Малаги 2 июля 2012 года. Композиции, исполненные на этом мероприятии, были позже записаны Лондонским симфоническим оркестром и составили альбом Iamus, который New Scientist отметил как первый полный альбом, созданный исключительно компьютером и записанный музыкантами-людьми.

Авторы Iamus — специалисты исследовательского проекта Малагского университета Melomics, который частично финансируется испанским министерством экономики.

Другой рекордсмен в области машинной музыки — созданная в феврале 2016 года AIVA — специализируется на сочинении симфонической музыки для кино. Этот ИИ стал первым в мире виртуальным композитором, признанным музыкальным обществом (SACEM).

Исследовательское подразделение Google Magenta, которое находит способы использования искусственного интеллекта для сотворчества с людьми, в 2017 году представило NSynth Super.

В отличие от традиционного синтезатора, который генерирует аудио из компонентов, разработанных вручную, NSynth использует глубокие нейронные сети для генерации отдельных звуков и собственных семплов. Кроме того, NSynth Super — экспериментальный инструмент с открытым исходным кодом. Это даёт музыкантам исследовать новые звуки, а разработчикам — алгоритм машинного обучения NSynth.

Читайте также:  Виндовс 10 просит пароль при входе

Flow Machines — это исследовательский проект, финансируемый Европейским исследовательским советом (ERC) и возглавляемый Франсуа Паше.

Программа Flow Machines сочинила две песни в соавторстве с поп-композитором Бенуа Карре: Daddy’s Car и Mister Shadow. Flow Machines также выпустили DeepBach, систему нейронных сетей, которая производит правдоподобную гармонизацию в стиле Баха.

С помощью этого алгоритма в 2017 году был выпущен альбом с уже знакомым нам названием Hello World, созданный с использованием искусственного интеллекта. BBC назвала его первым «хорошим» музыкальным альбомом от ИИ.

Запущенный в январе 2017 года австралийский стартап Popgun создал искусственный интеллект Alice, способный подпевать и подыгрывать исполнителям в реальном времени. Начало было положено, когда Alice научилась прогнозировать гармоничное продолжение проигранного ей отрывка композиции.

В августе 2017 года Alice научилась импровизировать: изменять «услышанную» последовательность нот, сохраняя общую музыкальную тему. К началу 2019 года Alice освоила аранжировку на нескольких музыкальных инструментах: она может подыграть вокалисту на басу, барабанах, пианино, а также свести разные музыкальные отрывки в одну композицию.

Другой проект музыкального творчества ИИ, The Watson Beat, написанный IBM Research, не нуждается в огромной музыкальной базе данных, как проекты Google Magenta и Flow Machines, поскольку он использует обучение с подкреплением и глубокую сеть доверия для создания музыки.

Например, в рамках партнёрства с британским хип-хоп-продюсером Алексом Да Кидом алгоритм The Watson Beat проанализировал данные о музыке и культуре человечества за последние пять лет. Чтобы определить наиболее распространенные темы творчества, разработчики использовали API языка Watson Alchemy для чтения и понимания речей Нобелевской премии мира, статей New York Times, текстов песен, синопсисов фильмов и многого другого.

Затем API Watson Tone Analyzer проанализировал более 2 миллионов строк социального контента, чтобы понять эмоции, связанные с актуальными темами.

Используя алгоритмы машинного обучения, The Watson Beat способен учиться на песнях, деконструируя высоту тона, время, последовательность и скорость нот. В сочетании с теориями об эмоциональных реакциях на музыку, The Watson Beat может генерировать совершенно новые музыкальные партитуры, основанные на разнообразных предпочтениях или чувствах.

Используя эту технологию, Алекс смог создавать новые песни или фрагменты песен, например, басовую партию, пока не нашел звук, который вдохновил его. И хотя итог этого партнерства — композиция Not Easy, вышедшая осенью 2016 года — это оригинальная работа Алекса, The Watson Beat стала инструментом для поиска сильных музыкальных приемов и мелодий, анализа транслируемых музыкой эмоций для создания популярной композиции.

В России

В марте 2019 года звукозаписывающая компания Warner Music подписала свой первый контракт на создание музыки, созданной с использованием компьютерных алгоритмов, с компанией Endel. Сооснователь этого немецкого стартапа Олег Савицкий — бывший журналист российского издания F5 и мобильный разработчик.

Endel — кроссплатформенная аудиосистема для смартфонов и колонок Amazon Echo. Приложение генерирует музыкальный фон, учитывая время дня, погоду, разные цели слушателя — пробуждение, отдых, концентрация, тренировка. Президент подразделения по искусству и музыке Warner Music Group Кевин Гор объяснил, что новый бренд позволит закрыть пустующие направления в ассортименте компании.

Скоро будет ИИ во всем, а значит и в медиа. Например, ИИ компании Mubert начал писать музыку еще раньше Endel, и вполне неплохую. Просто в бизнесе они сфокусировались немного на другом.

А компания Instreamatic с помощью ИИ превращает аудиорекламу, размещаемую в онлайн-музыке, фактически в полноценный диалог бренда с каждым представителем его целевой аудитории индивидуально.

Что касается шоу-бизнеса, то представьте себе вечеринку, на которой DJ — это ИИ, а каждый на танцполе либо с умными часами, либо с выданными на входе браслетами, которые мониторят состояние и «настроение» всей аудитории, подстраивая музыку дальше так, чтобы она все больше и больше нравилась всей аудитории, доводя толпу фактически до группового экстаза — как вам такое?

Российский «Яндекс» также экспериментирует с применением искусственного интеллекта в музыке. Первым таким опытом стал альбом симфонической музыки по мотивам «Гражданской обороны» в 2016 году.

Для создания «Нейронной обороны» искусственный интеллект проанализировал тексты Егора Летова, а инженеры перегнали цифровую запись композиций через аудиокассету, после чего оцифровали обратно для получения аутентичного звучания.

В феврале 2019 года другая нейросеть Алексея Тихонова и Ивана Ямщикова из «Яндекса» стала соавтором пьесы для альта с оркестром композитора Кузьмы Бодрова. Несмотря на то, что нейросеть была обучена на четырех гигабайтах MIDI-файлов с произведениями разных эпох, справиться с классической музыкой оказалось сложнее, чем с сибирским панк-роком.

Более 90% материала было отбраковано композитором, а наиболее удачные идеи Кузьма Бодров развил в полноценную музыкальную композицию. 24 февраля её исполнил государственный симфонический оркестр «Новая Россия» под управлением Юрия Башмета на закрытии Зимнего международного фестиваля искусств в Сочи.

Сейчас начинается эпоха сервисов, подписных моделей и, пока что, ИИ активно и по-настоящему использует только Netflix при создании своих сериалов. Во-первых, индустрии нужно научиться пользоваться онлайн-каналом продаж, во-вторых, применять ИТ при построении бизнес-процессов и только потом внедрять ИИ. Однако на горизонте 3-5 лет и это станет привлекательнее для инвесторов.

Интересные проекты в сфере музыкального ИИ

Сейчас исследования направлены на применение искусственного интеллекта в составлении музыкальной композиции, исполнении и цифровой обработке звука, а также продажу и потребление музыки. Множество созданных на основе ИИ программ и приложений используется для обучения и создания музыки.

AlgoTunes — это музыкальная компания, разрабатывающая приложения, которые генерируют музыку. На сайте любой может создать рандомный музыкальный отрывок с заданным стилем и настроением одним нажатием клавиши — правда, выбор настроек очень ограничен.

Музыка создается веб-приложением за несколько секунд и доступна для загрузки в виде файлов WAV или MIDI.

MXX (Mashtraxx Ltd), основанная в 2015 году — это первый в мире механизм искусственного интеллекта, который мгновенно преобразует музыку в видео, при этом используя только стерео-файл.

MXX позволяет адаптировать музыку под конкретный пользовательский контент: например, для спортивных занятий и бега, для сюжетов компьютерных игр и так далее. Первый продукт MXX, Audition Pro, позволяет любому редактировать музыку для видео: загружать уже существующую композицию и автоматически подгонять повышение интенсивности звучания, затухание и паузы в соответствии с динамикой видео.

Сейчас MXX предоставляет услуги ведущим коммерческим библиотекам, музыкальным сервисам, производителям игр и контент-студиям, которым нужна адаптированная для современных медиа музыка.

Orb Composer — разработанная Hexachords программа для помощи в составлении оркестровых композиций на этапах выбора жанра, подбора инструментов, составления структуры трека.

OrchExtra может помочь небольшому ансамблю средней школы или городского театра собрать полную бродвейскую партитуру. OrchExtra играет роль недостающих инструментов, отслеживая колебания темпа и музыкального выражения.

По мнению Игоря Шнуренко, специалиста по искусственному интеллекту и криптовалютам, ИИ-стартапы сегодня полностью захватили digital-маркетинг в музыкальной индустрии. В октябре 2018 года Apple приобрела стартап Asaii, занимающийся аналитикой для музыкальных лейблов и музыкальных агентов.

Читайте также:  В сетевых адаптерах нет беспроводного подключения

Алгоритм Asaii помогает найти перспективных артистов до того, как их музыка «выстрелит» в чартах. Что касается внедрения искусственного интеллекта в творческое создание и другие аспекты музыкальной индустрии в России, эксперты считают эту нишу перспективной — правда, пока в отдаленном будущем.

Этой весной я наблюдаю высокую активность среди акселераторов и фондов, которые находятся в поиске проектов, связанных с искусственным интеллектом. ИИ уже незаменим в различных нишах: в рекламе, медицине, автомобилестроении, — благодаря возможности выполнять сложнейшие вычисления за короткое время, с высоким качеством. Со временем он придёт и в музыкальную индустрию и шоу-бизнес.

По мере развития искусственного интеллекта (ИИ) растет и его потенциал в креативных областях, одной из которых является музыкальная индустрия. Последним трендом, внесенным ИИ в музыкальную индустрию, является сочинение музыки с помощью алгоритмов машинного обучения. Несмотря на то, что «искусственной» музыке еще далеко до произведений великих классиков, алгоритмы уже успели добиться достойных удивления результатов. Данная статья обозревает некоторые существующие на январь 2019 года методы использования ИИ для сочинения музыки и различные по масштабу релевантные проекты: от стартапов до продуктов от технологических гигантов.

Содержание

2019: Warner Music заключила первый в истории контракт с исполнителем-алгоритмом Endel

27 марта 2019 года появилась информация о том, что Warner Music заключила первый в истории контракт с исполнителем-алгоритмом Endel, создающим музыкальные композиции под настроение пользователя в текущий момент. По условиям контракта, в течение года нейросеть Endel выпустит 20 уникальных альбомов. На март 2017 года пять альбомов уже доступны для скачивания в iTunes, при этом все альбомы созданы, как выражаются разработчики, «нажатием одной кнопки».

Endel разработан одноименным стартапом, сооснователем и исполнительным директором которого выступает игровой журналист россиянин Олег Ставицкий. По утверждению разработчиков алгоритма, Endel адаптируется к настроению пользователя и помогает ему в зависимости от поставленных задач — музыка нейросети помогает заниматься спортом, работать, засыпать или медитировать. При этом ИИ сам определяет, что требуется человеку в данный момент, анализируя множество параметров: время суток, геолокацию, погоду за окном, пульс и частоту биения сердца человека.

Мы на пороге затопления рынка системами автоматической и процедурно-сгенерированной музыки, продукт которых удовлетворит большинство людей в большинстве ситуаций, — утверждает аналитик рынка Холли Херндон.

По мнению эксперта, дальнейшая трансформация рынка музыки и шоу-бизнеса будет происходить ускоренными темпами. Как известно, в Китае и Корее концерты полностью виртуальных исполнителей — уже обычное дело, а число фанатов «цифровых» кумиров исчисляется миллионами. Теперь эта тенденция, полагает аналитик, будет распространяться и на более консервативном западном рынке.

На пересечении двух растущих индустрий

Ожидается [1] , что в мировом масштабе доход компаний от использования искусственного интеллекта составит $1,2 трлн по итогам 2018 года, что на 70 процентов больше по сравнению с 2017 годом, а в 2022 году, по прогнозам, эти выгоды достигнут $3,9 трлн. И такой быстрый рост уже далеко ни для кого не тайна: искусственный интеллект можно назвать определяющей технологией 21-го века. Искусственный интеллект отличается от традиционных программ анализа данных своей способностью учиться распознавать шаблоны с помощью алгоритмов машинного обучения, а затем принимать автономные решения на основе этих шаблонов, будучи явно не запрограммированным на это.

В то же время, мировой рынок программного обеспечения для производства музыки, по прогнозам [2] , вырастет до $6,26 млрд к концу 2022 года. Ключевым фактором, который будет стимулировать рост индустрии, является растущий спрос на цифровой аудио-контент во всем мире. Аудио-контент, в свою очередь, набирает популярность в связи с недавно начавшимся ростом [3] потоковых (стриминговых) сервисов. Это приводит к увеличению числа исполнителей и музыкальных продюсеров, создающих музыкальный контент, что, в конечном итоге, увеличивает спрос на программное обеспечение для сочинения музыки. Алгоритмы ИИ уже несколько лет используются для определения музыкального вкуса и настройки персональных рекомендаций на потоковых сервисах, и на фоне всплеска исследований и инвестиций в технологию искусственного интеллекта в целом, произошел шквал активности [4] вокруг предмета сочинения музыки с помощью этой технологии. И по прогнозам [5] , ИИ сильно повлияет на процесс создания музыкального контента.

Примеры использования: крупные компании

NSynth Super (Google)

NSynth Super [6] является частью продолжающегося эксперимента под именем Magenta [7] : исследовательского проекта в Google, который "изучает, как технология машинного обучения может помочь деятелям искусства творить по-новому" и взглянуть на творческий процесс с другого ракурса.

Различные звуковые эффекты [8] , изменяющие частоту и амплитуду звука, электрические музыкальные инструменты [9] — всё это примеры других звучаний, созданных с помощью технологий. Теперь в список таких технологий можно включить и машинное обучение, потому что прогресс в этой области открывает нетрадиционные возможности для генерации необычного звучания.

Основываясь на прошлых исследованиях в этой области, Magenta создала NSynth (Neural Synthesizer (прим. Нейронный Синтезатор)) — алгоритм машинного обучения, который использует глубокую нейронную сеть для изучения различных характеристик звука, а затем создает совершенно другое звучание на их основе. По словам разработчиков [10] , вместо того, чтобы комбинировать или смешивать звуки, NSynth синтезирует звук, используя акустические качества оригинальных звуков. Благодаря этому можно получить звук, который является и звучанием флейты, и звучанием ситара, — всем сразу.

С момента релиза алгоритма NSynth, Magenta продолжала экспериментировать с различными музыкальными интерфейсами и инструментами, чтобы сделать вывод алгоритма NSynth более понятным для обывателя и воспроизводимым. В рамках этого исследования они создали NSynth Super в сотрудничестве с Google Creative Lab. Это экспериментальный инструмент с открытым исходным кодом, который дает музыкантам возможность создавать музыку, используя новые звуки, генерируемые алгоритмом NSynth из 4-х различных базовых исходных звуков. Затем прототипом опыта (на фото выше) поделились с небольшим сообществом музыкантов, чтобы лучше понять, как они могут использовать его в своем творческом процессе. Например, можно посмотреть [11] , как лондонский музыкальный продюсер Гектор Плиммер исследует звуки, сгенерированные NSynth Super.

Звуки, сгенерированные NSynth Super

Как пишут разработчики на своем сайте, "используя NSynth Super, музыканты имеют возможность исследовать более 100 000 новых звуков, сгенерированных с помощью алгоритма NSynth".

Flow Machines (Sony)

Flow Machines [12] , (прим. дословный перевод — Потоковые Машины) — это научно-исследовательский проект, целью которого является расширение границ креативности человека в музыке.

Центральной частью этого проекта является Flow Machines Composer. Пока что это не робот с сознанием, который стремится выразить свои переживания с помощью музыки, но это набор сложных алгоритмов, которые получили свое знание и «чувство» музыки за счет изучения огромной базы данных (15 000 песен).

Чтобы написать песню с помощью Flow Machines Composer, сначала нужно задать стиль мелодии, а затем внутри системы происходит следующее [13] : алгоритм получает выборку песен с похожим стилем, запускает аналитическую модель, известную как цепь Маркова, которая идентифицирует шаблоны в этих выборках, а затем имитирует и изменяет их, чтобы создать свою собственную оригинальную композицию.

Читайте также:  Выбор зарядного устройства для аккумуляторов 18650

Далее компьютер вычисляет вероятность определенных аккордовых прогрессий [14] , мелодических связей и ритмических рисунков [15] , и использует эти вероятности для создания правдоподобных и звучащих удачно (с точки зрения музыки) вариаций.

А вот на следующем этапе сочинения, система требует вмешательства человека. Пользователь может сохранить понравившуюся часть получившейся мелодии, и отказаться от остального, а затем снова запустить программу в ожидании следующих удачных сгенерированных вариаций. И так можно делать до тех пор, пока не появится мелодия и последовательность аккордов, которыми вы будете довольны.

В сентябре 2016-го года Flow Machines представили свету свой сингл "Daddy’s Car" — это достаточно оживленная поп-песня, основанная на выборке мелодий Beatles [16] .

Сингл "Daddy’s Car"

Примеры использования: стартапы

AIVA [17] (Artificial Intelligence Virtual Artist)— это стартап, базирующийся в Люксембурге и профинансированный в размере 768 000$ [18] , цель которого, как пишут разработчики на своем сайте [19] ,— это «дать возможность людям создавать персонализированные саундтреки с помощью искусственного интеллекта». По словам разработчиков, AIVA способна сочинять эмоциональные саундтреки для фильмов, видеоигр, рекламных роликов и любого другого типа развлекательного контента.

AIVA изучила искусство сочинения музыки, «прочитав» большую коллекцию музыкальных партитур, написанных композиторами (Моцартом, Бетховеном, Бахом и др.), и «создала математическую модель представления того, что такое музыка» [20] . Именно эта модель и используется для сочинения современной музыки. Стоит упоминания тот факт, что недавно AIVA стала виртуальным композитором, чьи работы были зарегистрированы в обществе авторских прав (SACEM [21] ). Одну из этих работ можно послушать ниже [22] .

AIVA – "Genesis" Symphonic Fantasy in A minor, Op. 21

Запущенный в январе 2017 года, австралийский стартап Popgun, как сообщается [23] , использует глубокое обучение для создания музыкального искусственного интеллекта, который сможет "дополнять" исполнителей в режиме реального времени.

Проектом Popgun стал искусственный интеллект Alice, который может предсказать, что музыкант будет играть дальше, подыгрывать ему, и даже немного импровизировать на музыкальную тему партитуры музыканта-человека.

Всему этому Alice научилась не сразу, а постепенно: лучше всего это отобразит видео [24] , которое показывает эволюцию технологии с января 2017 года по июль 2018 года. Видео начинается с того как искусственный интеллект Alice демонстрирует свои навыки прогнозирования: музыкант играет короткие мелодии на фортепиано, и Alice отвечает тем, что по ее предположению музыкант будет играть дальше.

Искусственный интеллект Alice может "дополнять" исполнителей в режиме реального времени

К августу 2017 года Alice была способна на импровизацию: т.е сначала она прослушивала последовательность нот, сыгранную человеком, а затем изменяла её, но при этом сохраняла главную музыкальную тему. К концу года Alice могла в различных стилях создавать оригинальные фортепианные композиции без участия человека.

На январь 2019 года Popgun имеет искусственный интеллект (или, лучше сказать, группу искусственных интеллектов), который может подыграть человеку на пианино, на басу или на барабанах (или на всем сразу). Если же мелодия снабжена человеческим вокалом, то разработанный алгоритм может сочинять подходящую инструментальную партию, а также сводить несколько музыкальных отрывков в один и производить финальную обработку звучания.

Будущее искусственного интеллекта для сочинения музыки

Всё это, конечно, удивительно, однако же имеющиеся технологии далеки от того, чтобы искусственный интеллект обладал способностью создавать что-то принципиально новое: машина может пропустить через себя огромный объём данных, и «понять» как можно сделать и как уже было сделано, но она не может загореться внезапным приступом вдохновения и воплотить свою творческую задумку. Мелодии, сочиненные искусственным интеллектом, все еще нуждаются в том, чтобы человек приложил к ним руку в отношении теории музыки, музыкального производства и оркестровки. Иначе же они будут звучать немного непривычно и достаточно сумбурно для человеческого уха.

Большой проблемой для искусственного интеллекта является понимание творческих и художественных решений (однако же иногда это является проблемой и для экспертов в области музыки). Кроме того, машины по-прежнему не обладают неуловимым творческим началом, являющимся жизненно необходимым для создания искусства. В целом, ИИ-эксперты согласны, что искусственный интеллект никогда не сможет заменить человека на поприще создания музыки, но, как упоминалось выше, сможет значительно изменить весь процесс.

2017: Выход альбома Тэрин Саузерн I AM AI в соавторстве с ИИ

Американская певица Тэрин Саузерн выпустила летом 2017 года сингл Break Free, который открывает её новый альбом I AM AI – «Я – искусственный интеллект». В официальном анонсе было указано, что весь альбом, включая этот трек, создается в соавторстве с неизвестным публике музыкантом Amper. Однако не вызывающий на первый взгляд никаких подозрений творческий дуэт оказался вовсе не тем, что можно было ожидать [25] .

Проект Amper – искусственный интеллект, результат совместной работы технических специалистов и профессиональных музыкантов. Он способен писать, исполнять и продюсировать музыку. Ампер – первый в истории искусственный интеллект, выпустивший собственный музыкальный альбом.

Ампер является уникальным в своем роде. ИИ, генерирующие музыку, существовали и до него, однако ранние модели работали по определенному алгоритму и итоговый продукт требовал серьезной переделки человеком, вплоть до изменения аккордов и целых частей мелодии, прежде чем мог считаться полноценным музыкальным произведением.

Ампер же не нуждается в помощи, когда создает собственные треки – он самостоятельно подбирает необходимые звуки и выстраивает структуры аккордов. Обрабатывающему полученную в итоге мелодию человеку остается только подкорректировать ритм и стилистику – все остальное Ампер делает сам всего за несколько секунд.

2016: Google запускает Magenta для создания музыки и видео нейронными сетями

В мае 2016 года компания Google даже запустила специальный проект Magenta, основная задача которого заключается в изучении креативных возможностей нейронной сети. Ученые планируют осваивать премудрости творческого процесса постепенно: сначала будет разработан алгоритм для создания музыкальных произведений. Затем настанет очередь видео и изобразительного искусства. Данные о результатах работы планируется размещать в открытом доступе на GitHub.

«Есть несколько причин, по которым я захотел сформировать Magenta, и одна из них заключалась в желании увидеть полноценные, честные и удивительные улучшения в искусстве глубинного обучения», – говорит руководитель проекта Дуглас Экк [26] .

Буквально через пару недель после открытия Magneta, была запущена программа по импорту музыкальных файлов MIDI-формата в систему TensorFlow с целью обучить искусственный интеллект созданию музыки. Однако пока результаты работы программы не столь удачны (хотя справедливости ради нужно сказать, что прошло еще не так много времени).

admin

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *