• Interview

Creator's File Vol.17 - DeVoche a.k.a. monyop

DeVoche a.k.a. monyop

sonoを使っているアーティストやDJの皆さんへのインタビュー企画、3回にわたってsono主催「オリジナルソング・コンテスト」受賞者の皆様に詳しくお伺いした内容をお届けしています!
Vol.17は特別賞を受賞したDeVoche a.k.a. monyopさんにインタビューをさせていただきました。

mimy(以下M): DeVocheさんは、AIを活用した楽曲制作で今回の「オリジナルソング・コンテスト」にご応募くださいました。制作の手法としてAIを使い始めたことには、どういった背景があるのでしょうか?

DeVoche a.k.a. monyop(以下D):僕はAIを使った楽曲制作をしているんですが、この活動のテーマのひとつに「AIでの作曲に対する色メガネを払拭する」というのが必要だろうと考えました。
「AIで曲を作っている」というだけで拒否感を示されたり、ちょっと下に見られたりすることって結構あるんですよね。
でも、AIだけで曲を作ったとしても、きちんと自分の作品として、人に聴かせるものとして届けるにはやっぱり「人間が手を入れる部分」があります。
とはいえ、楽曲制作には色んなコンテストが開催されていますが、「AIを使っていても応募OKなコンテスト」って、今のところほぼ存在しなくて。
今回sonoのコンテストが特にAIを規制するものではなかったので、元々テクノやクラブミュージックが大好きというのもあり、「こうしたジャンルとの親和性が高いプラットフォームなら受賞のチャンスがあるかもしれない」と思ったのがきっかけです。

M: なるほど。私は12年くらい前からLogicを使ってDTMをしているんですが、Logicには当時からすでに「Drummer」といってAIが自動でリズムを作ってくれる機能が搭載されていたんですよね。なので、初心者の頃は「こんな便利な機能があるのか」とよくDrummerを使っていたんです。
今の生成AIのようにプロンプトを書いて指示するという形ではありませんが、Logicも最近ではAIの機能をさらに拡張してベースやキーボードのメロディーまで作ってくれるようになっていたりして。
というわけで、私自身がDTMを始めた頃から割とAIを活用するのが自然な流れだったので、AIに対する抵抗感はそこまで強くないんです。
もちろん、AIがいろんな音源を収集して楽曲を生成することによる著作権的な問題も確かに存在することは認識しています。
ですが、AIといっても結局は人間が活用するためのツールなので、私自身は「使い方次第なのかなぁ」と捉えているんですよね。
今回は「AIを使っている」とか「AIじゃない」とかではなく、単純に楽曲の内容を評価して受賞作品として選ばせていただきました。

D: 僕は最初の頃はSNSでアピールするために「AIで作っています」と言っていましたが、結局のところAIもただのツールなので、最近は「関係ないじゃん」って思って、もうあんまりAIで作っていることを主張しないようにしているんですよ。

M: そうなんですね。そうした中でも、どういった形で制作を行っているのかをお伺いしてもよろしいですか?

D: 大学生だった頃はシーケンサーを使って曲を作るという形で音楽活動をやっていたんですが、しばらく音楽から離れて生きていました。
でも、10年くらい前にiPadでDJができるアプリが出てきた頃「やっぱり音楽を再開したい」と思うようになり、アプリでDJをしてみるようになったんです。
それから1〜2年ほどDJミックスをネット上にアップするなど続けていたものの、段々DTMのほうに関心を持つようになりました。
そうこうするうちに「ChatGPT」なるものが世の中に出てきて、音楽とは別軸でAIに興味を引かれて、ちょっとおかしな話ですがAIと対話しているうちに「ああ、僕はかつて音楽から逃げてしまっていたのかもしれない」と思うようになって。
それで「逃げるのをやめよう」ということでAI作曲ツールを使い始めたら、なんだか想像してたのと違っていたんですよ、良い意味で。

M: どういう驚きや発見があったのですか?

D: 例えば、歌詞を入れてそれをトリガーにして楽曲を生成する際、明らかにその歌詞のニュアンスを反映させているんです。
こっちの考えてることがAIに通じるのだと思った途端、「これはもうAIをやらなきゃならないな」と居ても立ってもいられない気持ちになり、まずはSunoというツールを使い始めました。

今回のコンテスト受賞作品「Resonance in Connection」の制作環境。

M: 面白いですね。
そういえば、一年ほど前にGoogleのAI開発者の公演を聞きに行って直接質問させてもらったことがあったのですが、「AIは感情を持つことが出来るんですか」という質問を投げた時、返ってきた答えは「AIはすでに感情を持っている。現時点ではAIには人間と同じように経験することはできないけれど、喜びや悲しみといった感情はちゃんとある」というものでした。
AIって、人間の集合知ですよね。だから、インターネット上に書き込まれた様々な人間の感情を読み取ることのできるAIに「歌詞」という形で言葉を与えたら、それに合わせてリズムやメロディーを作れるのだというのは十分納得できることです。
自分のイメージがしっかりあれば、AIと対話しながら曲としてアウトプット出来るということには大きな可能性を感じます。

D: AIにも感情があるとすると、「じゃあ感情って一体何なんだろう?」という話にもなりますよね。
AIの持つ感情とは、僕らが持ってる感情と本当に同じものなのか。AIは感情があるかのようにただ処理が行われてるだけなのかもしれない。でもそれは人間も同じなんじゃないのか。
AIを使って音楽を作り始めた時にまずその「クオリティの高さ」を感じて、僕らが今まで「クオリティが高い」と言っていたものは一体何だったの?という気持ちになりました。
たくさん楽器演奏の練習をしたり、作曲技法や音楽理論を一所懸命に勉強して身につけたりして、人間がどうにかこうにか時間をかけて作ったものが「クオリティが高い」と呼ばれるものだったはずなのに、SNSなどを見ていると今の世の中では、音楽でも絵でもプロンプトを工夫してAIに一瞬で生成させたもののほうが素直にウケるんです。

M: 「創作活動をする」「何かを生み出す」という行為は、「自分とは何か」「世界とは一体何なのか」という問いの中から生まれてくるものだと思います。
音楽にしても絵画にしても、自分の内面と世界との間で色んな「問い合わせ」のようなことをして、色々もがきながら生まれてくるものではないでしょうか。
商業用ではない楽曲を作る場合の話ですが、そういった根源的な問いが出てくることで、初めてAIを使うことにも意義が出てくるのかな?と、お話を伺ってそのような気がしてきました。

D: まさに、そういうことを考えて作った曲があるんです。
AIを通して、自分と対話することがまず必要なんじゃないかと思ったんですよね。それをテーマにしたした曲が、配信で初めて出した「Narcissus」という曲です。

M: AIで曲を作る時は、どんな方法で調整しているのですか?

D: 初めた頃と今とではやり方も変わってきてるんですが、Sunoの場合ちょっとヒントにしたものがあります。
TANZMUZIKという名前で90年代に楽曲を出して活躍していたテクノユニットがいるんですが、そのメンバーのOKIHIDE SAWAKIさんがソロアルバムを出される際、確か「サウンド&レコーディング・マガジン」の記事で「こういうふうに作っています」という話をされていたのを読みました。
その手法が、いわゆるリサンプリング。サンプリングをした音に自分で作った音を重ねて、それをまたサンプリングして多重録音を行って・・・という内容だった記憶があるんですが、すごく印象に残っていて。「自分もいつか機材を手に入れてテクニックを身に付けたら、同じようにやってみたいな」とぼんやり思っていたんです。
AIを触り始めた時、その手法を思い出しつつ、まず自分のイメージをプロンプトで伝えてみました。それも、例えばジャズの音楽を作りたいならただ「ジャズを作って」と指示するのではなく、もっと具体的なイメージを持ちます。
僕はチック・コリアが好きですが、チック・コリアのような曲を作りたいと思ったら「チック・コリアのような音楽ってそもそも何なのか」を言語化する必要が出てくるんですね。「チック・コリアみたいにして」ってプロンプトに入れても駄目なんです。そこから「フリージャズ」と入れたら少し近づく。さらにピアノの音も、ジャズピアノなのかグランドピアノなのか・・・といった具合に言葉を重ねる作業を繰り返し続けていく。そうすることで、ようやく自分の頭の中のイメージに寄っていくんです。

DeVoche a.k.a. monyopさんの直近の使用機材。

D: 「Narcissus」を作る時は、ドラムンベースを基調にしつつ、ジャズの要素を取り入れたものというのが頭にありました。僕の好きな和音の響きを入れ、Sunoのカバー機能を使ってTANZMUZIKの話に出てきたようなリサンプリングを行いました。そうすると、次のステップではメロディなどを維持しながら別のスタイルにできるので、何段階にも分けて近づけていくようなことをしています。
そういうふうに、まず最初に大事な要素を作り、表面的なものをどんどん重ねていく・・・というのが僕のやり方です。

M: 現在の大規模言語モデルのAIは脳内ネットワークを模倣したような形で、ネットワーク同士が繋がって繋がって人間の頭脳を再現するようなものだと言えます。
先ほどのジャズの話にもあったように、ぼんやりした情報を与えられてもぼんやりとした結果しか返ってこないのは人間もAIも同じですよね。これって要するに情報の「解像度の問題」なのではないかな、と考えています。

D: 今の生成AIも、どんどん変わっていくでしょう。最終的に自分で思考するAIが出てきた時、そこに人間がどういう形で関わっていけるかを考えると、「道はふたつありそうだな」って思っていて。
ひとつは「AIが全部やるんだから、もう人間はいらないよね」という方向。音楽などの作品も「AIが作ったものを皆んなで楽しめば良いんじゃない?」といったことが起きる気がするんですよね。
でも僕はやっぱりそれは嫌だし、AIがどんなに賢くなっても「人間はこう思考する」という方向に多分なっていくはずです。
効率や生産性で言えば人間がAIに勝てるわけがない。でも、AIがそういう人間を超えた存在になっても、人間が何かしらの形で関わるということをしていかないと駄目だというか、やらざるを得ないと思うんですよ。
「世の中をもうちょっと面白くする」という意味でも、とにかくAIに対して人間の関わり方を今のうちから考えていったほうが良いんじゃないか?というのも、僕の活動のもうひとつのテーマです。

お知らせ

このインタビュー掲載に先立って、DeVocheさんご自身がAIによる創作活動についてコラム記事を書いてくださっています。こちらも非常に興味深い内容なので、是非ご覧ください!

楽曲情報

DeVoche a.k.a. monyop / Resonance in Connection
Release Date: 2025.04.10
BPM: 129
Key: C minor

Bandcampで購入する / レーベルサイトで購入する

Share This Post