• ご紹介いただきました、ヤマハの石川と申します。直前に、ひどいかぜをひきまして、こんなお聞き苦しい声で恐縮なんですが。スライド、いったん全部歌わせようかと思ったんですけど、それも大変なので、この声で今日は失礼します。

  • VOCALOID、昨年末ですね、Unity Technologiesさんとの協業で、新しい展開を始めているわけなんですけども。昨今、VOCALOIDどうなってるんですかっていうところをご紹介しながら、お話をしていきたいと思います。VOCALOIDの概要です。

  • 本当に改めましてなんですけど、VOCALOID、そもそも何ですかということです。今はもう、1つのカルチャーといいますか、ムーブメントまで含んだところでVOCALOID、ボカロっていう名前を使っていただいてるんですけど、もともとは弊社、ヤマハが開発しました歌声を合成する技術と、そのアプリケーションのブランド名がVOCALOIDです。ごくごく簡単に仕組みをお話ししますと、ユーザーインタフェースから、一般的な音楽制作ソフトの体をしておりますけれど、ここに歌詞と音符の情報を入れますと、ここから歌声ライブラリという、歌を作るための声の部品ですね。このデータベースを引っ張ってきまして、それを組み合わせて、合成エンジンが歌声を作り出して、音声として出力すると。これが、ごくごくシンプルにしたVOCALOIDの仕組みです。

  • もう少し詳しく見ると、仕組みとして、素片連結型という方式をとっています。これは言ってしまうと、ゼロから歌が作れるわけではなくて、あらかじめ歌手の方、声優の方の声の部品をとらせていただいて、それを滑らかにつないで歌を作りますという、その仕組みを指したことばです。

  • 歌声ライブラリと、われわれが呼んでいる声のデータベースですね。例えば、日本語で「あさ」と歌わせると、こんな5つの部品に分かれます。単純に考えると、日本語は50音ですから、濁点等々入れても、100個ぐらいとったら作れるかなと思うんですけど、実際に研究してみますと、そんなに単純なものではなくて、前後の音によって、ことばって微妙に変化してたりするんですね。

  • そういうつながりの部分もとっていきますと、われわれが達した1つの結論が、日本語の場合は約500ぐらい。英語、中国語も同じぐらいですかね。2500ぐらいの音の部品を集めないと、歌として滑らかにつながらないということが分かってきました。VOCALOIDの技術を使わずに単純に音だけを並べると、こんな感じになります。

  • ♪〜「あ〜さ〜」(音を聴いています)つなぎ目が、ちぐはぐしてるかと思うんですけども、これをVOCALOIDのエンジンを通すと、こんな感じです。♪〜「あ〜さ〜」(音を聴いています)というものですね。これを与えられた歌詞とメロディーで、滑らかにつなぎながら合成していくのが、VOCALOIDの仕組みです。

  • 続いて、略歴ですね。私の先代の...発明者でもあります、剣持秀紀のチームで開発が始まったのが2000年ですね。ここからバージョン1。最初のバージョンが日本語と英語に対応して、2004年に発売をさせていただいております。

  • なんと言いましても、エポックメーキングは、本日もいらしてますけども、クリプトン・フューチャー・メディア様に、われわれからエンジンをライセンスさせていただいて、作っていただいたキャラクターであり、歌声でありという、VOCALOID2の初音ミクですね。2007年なので、もう9年ですね。そろそろベテランの域なので、新人が楽屋にあいさつに来るころかなと思ってるんですけれども。ここで、アマチュアのクリエーター様も巻き込んだ大きなムーブメントが起こりまして、皆様ご存じのとおり、VOCALOIDというものを広く知っていただく、きっかけとなりました。

  • そのあとは、合成エンジンの世代としましては、バージョン3、バージョン4まで現在にきてまして、言語としても、今5か国語に対応しております。弊社の系列会社の音楽制作ソフトウエアにもアドオンができておりまして、またモバイル環境でも本格的な歌声が作れるということでツールを拡充してきております。そして、昨年夏ですね。Unity Technologies Japan様とお話しをしていく中で、ぜひこれをゲームエンジンにというお話をいただきまして、昨年暮れにSDKという形でリリースをさせていただきました。そちらが本日の主題でございます。

  • では、VOCALOID、最近どんな歌を歌っていますかというところで、ちょっとお聴きいただこうかなと思います。昨今、リアルなアーティスト様、声優さんではなくて、アーティストの方の歌声をVOCALOIDにさせていただく案件が続きまして。小林幸子さんと、SEKAI NO OWARIのFukaseさんですね。お二人のVOCALOIDをお聴きいただこうかなと思います。

  • ♪〜(音楽を聴いています)ということで第4世代ですね、一番新しいVOCALOIDのエンジンで合成した歌声でした。

  • これ、実はかなり手を加えて、人間らしくというところを、編集を加えてるんですけれども。頑張って作ると、このぐらいまで歌ってもらえるようにと。自宅で小林幸子さんが歌ってくれる時代になりました。続いて、今の歌声を編集する、作り込むというお話をしたんですけど、そこでも少し工夫をしてまして、小林幸子さんのVOCALOID、お買い上げいただくと、1つプラグインがついてきます。

  • これは、そんなに専門知識がなくても、ご本人の歌声、歌い方を容易に再現できるというものでして、聴いていただいたほうが早いですね。まず、楽譜どおりに普通に「ドレミファソラシド」を歌わせると、こんな感じになります。

  • ♪〜(音を聴いています)こちらに、プラグインをかけますと。♪〜(音を聴いています)こぶしですとか、しゃくりですとか、そういったものが表現されます。仕組みとしましては、ご本人の歌声をたくさんお借りしたんですね、事務所さんから。これを、最近はやりの機械学習の歌声版と思っていただけると分かりやすいかと思うんですけど。

  • こんな楽譜がくると、小林幸子さん、こうやって歌いますよっていうのをペアで学習させていくんですね。そうすると歌い方の癖、今回はピッチの変化。音程の変化と、音量の変化という2つの要素を学習させてるんですが、小林幸子さんらしさをまとったプラグインというのが出来上がるんですね。普通に楽譜どおりに打ったものに、これをかけますと、普通何もしないと表情ついてないんで、まっすぐなんですけど、音量とピッチの変化にカーブができまして、これが先ほどのように音として聴いていただくと、こぶしだったり、しゃくりだったりという、そういった再現につながってきます。

  • 昨今、ヤマハおよびパートナー会社様各社様からVOCALOIDのライブラリを拡充していただきまして、まずこれは最近のもの、かつ日本語のみのご紹介ですけども、各社様からさまざまなキャラクター、歌声を発売していただいております。

  • プラットホームですね。もともとPCの音楽制作ソフト、中央の部分から、われわれ、ビジネス始めてますけれども、環境としてはモバイルもありますし、エンベデット、組み込み型のものですとか、試作でいくつか露出を始めてますが、こういう楽器型のVOCALOID、これは、弾くと歌ってくれるキーボードなんですね。

  • こういったものですとか、SaaS型、ネットで合成するタイプのサービスもご提供してまして、加えて自宅で作らせていただいているゲーム向けのエンジンというところも、これまでありました。そして今回は、汎用のゲームエンジンであります、開発担当のUnityに、われわれのエンジンをアドオンして使っていただくと、そういったところが昨年からの試みです。といったところまでが、昨今のVOCALOIDのご紹介です。

  • 本題ですね。「インタラクティブコンテンツへの応用と期待」ということで、VOCALOIDの新しい使い方をご提案したいと思います。まず、おさらいですね。これまでVOCALOID、どんなふうに使っていただいていましたかっていうところです。まず、パッケージコンテンツの場合は、音楽制作環境に...Vと書いたのは合成エンジンとお考えいただきたいと思います。それと、今回Unityですので、Unityさんと一緒に作った歌声、ユニティちゃんというキャラクターなんですけど、これが声と思っていただければ。

  • この環境で音楽を作りますと、伴奏と歌が組み合わさった状態でオーディオファイルができます。こちらをネットの投稿サイト、もしくは商用や同人に関わらずCDのメディアに焼く形で音楽を配っていただいて、これが音に、いろいろなムーブメントが起きてきたのが従来のものです。これに対して、これからのインタラクティブコンテンツというところですね。まず、開発環境として、Unity5を今回使用しています。こちらに、われわれのSDKをアドオンしていただきますと、ここに合成エンジンそのものと、まずサンプルですけど、サンプルの歌声ライブラリとして、ユニティちゃんの声が入ります。

  • これを使ってアプリケーションを開発していただきますと、例えばこれがスマートフォンの中に、エンジンと声のデータベースそのものがアプリケーションに含まれる形で取り込むことができます。これはいわば、スマホの中に歌手が入っていますというメタファーと同じものになります。

  • この中で歌詞とメロディーをゼロから作って、その場でスマホで歌ってもらうことも、もちろんできるんですけど、多くのユースケースでは歌う曲は決まっていて、それは、アプリケーションのインタラクションの中でいろんな歌わせ方や、その場に応じた変化を加えながら歌うというケースが多くなるかと思ってまして。その場合は、われわれのツール、こちらから出来上がった歌ではなくて、歌わせ方の楽譜のような情報、われわれはVSQXと呼んでますけど、このファイルの中にメロディーと歌詞と、その他もろもろの表情づけの情報も入ってまして、これをアプリケーションに組み込んでいただけると、これをベースにして、アプリの中にいろんな変化をつけながら歌わせることができると。

  • このファイルは音声ではなくて、あくまで歌わせ方の手順が書いてあるだけですので、この内容をモディファイしながら合成することで、いろいろな歌わせ方ができますというのがご提案です。もちろん、このファイルは開発環境に組み込まなくても、アプリケーションに配信のような形で配ることもできますので、あとから、外部からファイルを追加して、新しい歌を歌わせるといったソリューションも可能です。

  • 続いて、歌声合成処理の流れですね。まず、アプリケーションですので、何らかのトリガや情報、ユーザー操作というのがありますが、これによって、例えばですけども、歌詞ですとか、メロディーですとか、歌手、あと表情や声色といったところですね。あとは歌ですので、テンポの情報も含めて、こういったところの情報を編集したうえで、われわれの合成エンジンに投げていただきますと、指定した歌声のライブラリから声を持ってきて、つないで音声として出力すると。これが基本的な動作の流れとなります。

  • であれば、これで、どんな歌声も即座に作れるだろうというところで、われわれも始めたんですが、ちょっと根本的に、これはVOCALOIDに限らずですけれども、歌声合成そのものに課題があることが見えてきまして、そこの話を少ししたいと思います。

  • 例えば「さ」という歌詞を四分音符に乗せて歌わせようとしまして。まずやってみると、こうなると思うんですね。子音の「す」という音があって、母音がきてと。これをリズムに合わせて再生してみますと...。

  • ♪〜「さささ」(音を聴いています)ということで、リズムに乗ってないのがお聴きいただけたかなと思います。これ、実は調べていきますと、どうも人間は母音の位置でリズムを取っているらしいということが分かってきまして。であればということで、本来の音符の位置より先行して、この「す」というノイズを出すんですね。そのあと、音符の位置で母音を出してあげると、どうなるでしょうかと言いますと...。

  • ♪〜「さささ」(音を聴いています)ということで、リズムに乗って歌うことができます。さらに調べていくと、言語によっても、そして子音の種類によっても、先行する時間が違うというのが分かってきまして。ということは、われわれ歌を歌うときに、そのことばに合わせて、自動的に先行時間を調整しながら子音を発音しているらしいということが分かってきました。このメカニズムをVOCALOIDのエンジンの中にも組み込みまして、いかなる歌詞が入ってきても、きちんとリズムに乗った歌が歌えるようになるという、そんな仕組みを作りました。

  • が、ここで問題は、リアルタイム発音させようと思うと、絶対遅れてしまうんですね。トリガを受けてから音を合成すると、先ほどの上のケース、NGのケースになりますので、リズムに乗らなくなってきてしまうんですね。とはいえ、未来を予測できませんので、ここの問題、リアルタイム発音、どう解決しようというとこで、今回われわれは2つのエンジンの合成モードを用意しました。

  • 1つは、Playbackモードと呼んでまして、これは、あらかじめ分かっている歌だったりフレーズだったりを少し先行して作っておくモードですね。こちらですと、子音ごとの先行時間も、きちんと見込んだうえで合成できますので、ことばの明瞭度とか、そういった品質を保ちながら合成することができます。ただし、これですと、必ず遅延が発生しますので、例えば音楽ゲーム、リズムゲームのような用途にお使いいただこうとすると、リズムに乗れなくなってしまうんですね。

  • それに対して、2つ目がRealtimeモードと、われわれは呼んでいるものでして。こちらは、未来の先読みはできないんですけども、この子音の発音時間を可能なかぎり短くして、そのトレードオフで、若干ことばの明瞭度は下がってしまうんですが、なるべくリアルタイムのアプリケーションにも対応できるようにという、2つの合成モードで解決をしました。こういった仕組みを使いまして、では、どんな用途にお使いいただけるだろうかと。ヤマハから、あれこれお話ししてしまうのも、やぼなんですが、われわれなりに考えたものを少しお話ししたいと思います。

  • まずは音楽ゲームがありますね。リズムゲームは、かなりたくさんのタイトルが出てますけど、歌を使った音楽ゲームということを提案していきたいと思っています。続いてが、歌声の楽器アプリケーション。先ほど、キーボードご紹介しましたけど、アプリケーションでも、そういったものが実現できます。この発展系としては、われわれが興味を持ったのが知育アプリですね。なにしろ、ことばを入れると歌ってくれますので。うちの娘なんかもそうですけれども、非常に喜んで遊んでくれますので、こういった用途も考えていきたいと。

  • さらにエンターテインメント側に寄せていきますと、バーチャルライブですね。VOCALOIDキャラクター、今日のクリプトンさんの初音ミクさんもそうですけど、世界中でツアーやってますので、こういったところに、このエンジンを入れていただきますと、お客さんの盛り上がりですとか、その場その場、会場ごとに起きたアクシデントによって歌い方を変えるといったことができまして、バーチャルシンガーなのに会場ごとならではの歌だったり、演出だったりというのが、インタラクティブに生じる可能性があります。

  • これを一般化していきますと、メディアアートですね。歌を使ったメディアアートの可能性を非常に大きく感じています。さらに、作業分野を応用していきますと、コミュニケーションですとかUIツールですね。歌は一種のプロトコルだと、われわれは考えていますので、機械と人間がつきあっていく中で、歌を使ったコミュニケーションの形がきっとあるんじゃないかと、そういったところの期待です。

  • ベースにありますのは、昨今話題になってきておりますHCI、これはヒューマンコンピューターインタラクションですね。人とコンピューターどうやっておつきあいしていきますかという、昨今のアカデミックな話題です。加えて人工知能ですとか、バーチャルリアリティー。そろそろ、ことしがブレークの年になるかといわれてますけど、こういったところでの応用をご提案していきたいと思っています。続いて、メカニズムといいますか、アーキテクチャの話を少ししたいと思います。まずはなんといっても、SDKのお話ですね。

  • 今日、ちょっとUnityのお話、Unity自体のお話は詳しくできないんですが、もうグローバルで450万っていいましたかね、発行アカウントは。アクティブな開発者は、そろそろ100万人に届こうかというゲームエンジンです。もともとゲーム用だったんですけれども、あまりにプロトタイピングの使い勝手がいいものですから、あらゆるデジタルコンテンツのプロトタイピングですとか、製品開発に利用されているというところは、皆さんご存じかと思います。

  • このUnityに、われわれのSDKを組み込んでいただきますと、合成エンジン、こちらネイティブの形、なかなか重い信号処理をしますので、ネイティブコードの形でご用意したプラグインを組み込んでいただいて、こちらに歌わせ方の情報と先ほどの歌声ライブラリですね。これを組み込むことで、開発環境が整います。こちらでアプリケーションを作ると、先ほどご紹介したように、ターゲットの中に合成エンジンと歌声そのものが入りますので、その中で歌を歌わせることができると。

  • プラットフォームとしましては、Unity5バージョン以降ですね。オーディオアーキテクチャの関係で、こちらのバージョンとなっています。あと、出来上がったアプリケーションは、現状ウィンドウズとMacとiOSと、Androidを今、先行評価しております。Android、ターゲットごとにネイティブのプラグインが必要になってきますので、これをどういった形でご案内していこうかというのを検討しているところです。

  • 制御と操作可能な項目。先ほど、大体流れをお話したんですけど、歌わせ方のシーケンスですね。その流れを作って、もしくはわれわれのツール、出力するファイルを読み込んでいただいて、歌にまつわるさまざまなパラメーターを操作したうえで、先ほどご紹介した2つの合成モード、いずれかを使って歌声を作るという流れになります。

  • Unityの技術的な説明で使った資料ですので、できないことも書いてあるんですけれども。まずオーディオ周りは、Unity5の標準でかなり高度なオーディオフレームワークを持ってますので、出来上がった音声はUnityの中のミキサーに立ち上がってくる形を取っています。そちらのエフェクト処理ですとか、その他、伴奏との合成等々ができるようになります。あと現状、今日本語だけなんですけど、冒頭にお話ししたVOCALOID自体、5つの言語に対応しておりますので、こちらに対応する辞書ですね。発音と文字列の組み合わせを記憶した辞書というものについても、これからのバージョンで対応していこうと思っています。ここまでがSDKのアーキテクチャのほうのお話です。

  • 続いては、歌声ライブラリですね。最初にお話しした原理で、VOCALOIDは実際に録音された声の部品が必要になりますので、こちらの話をしたいと思います。SDK、最初に声が入っていないと何も歌わせられませんので、サンプルの声は必要になりますというところで、Unityさんとのお話の中で、せっかくサンプルつけるなら、Unity Technologies Japan様で作られた、開発者のためのキャラクターがいまして、そのキャラクターの声を作りませんかというご提案をいただいて、共同開発をしました。

  • なので、単なるサンプルといいながら、Unityの皆さん、ものすごく愛着を持って作られたキャラクターですので、実はかなり豪勢な歌声ライブラリになってます。サンプルと呼ぶには、われわれが言うのもなんですけれども、もったいないかなと思うぐらい、頑張って作りました。この声がSDKには無償で入っておりますので、まずこの歌声をベースにプロトタイピング等々お試しいただくことができます。

  • そして、ライブラリの展開ですね。1つは今のお話で、SDKにはアプリケーションに組み込んで使える無償の歌声というものがサンプルとして標準でついております。加えて、残り2つは音楽制作向けですので、弊社の音楽制作ルーツに読み込んで使っていただくライブラリと、こちらは恐縮ですが、われわれの商売の本分だったりしますので、有償で販売させていただいております。

  • 1つがiOS向けですね。こちらのiOSのMobile VOCALOID Editorというアプリの中のアプリ内ストアで追加コンテンツの形でお買い上げいただけます。もうひとつが、PC向けのツールで、ウィンドウズとMacに対応したものも、弊社のダウンロードショップにて販売させていただいております。

  • ちょっとご説明分かりにくくなったかと思うんですが、ワークフローですね。サンプルでお付けしているユニティちゃんというキャラクターと声があるんですが、このアプリに組み込む歌声、合成エンジンというものは、SDKで無償でお試しいただけます。あらかじめ歌を作っておく場合には、弊社の制作ソフトが必要になりますので、こちらに組み込むライブラリについては有償でお買い上げいただくと。アプリの中で全部フレーズからメロディーから歌詞から全部作りますよっていうことであれば、SDKだけご用意いただければ、すぐにお試しいただけます。

  • 続いて、SDKに組み込んでいるサンプル・アプリケーションですね。2つご用意してまして、こちらはいわゆるバーチャルアイドル系のライブステージのアプリケーションですね。ご覧いただいたほうがいいかな。♪〜(音楽を聴いています)デモとして分かりやすくするために、オーディオ系、歌に何もエフェクトかけてませんので、ちょっとぶっきらぼうな声に聴こえますが。

  • VOCALOIDのバロメーター、すべて操作できますし、歌詞もメロディーもハモりも、ライブでアルゴリズムで作り出すことができますので、今回、ムービーでご覧いただいていますけど、実際のアプリケーションでは、こういったところがインタラクティブに反応して歌声が出来てきます。

  • 続いてが、ちょっとシュールなたたずまいのアプリなんですが。歌詞を選んで、鍵盤を弾くと...。♪〜(音楽を聴いています)若干、微妙な空気になるんですけども。

  • 見ていただきたかったのは、彼女、リップシンクしてたと思うんですが、こちら、VOCALOIDのデータの中の母音のデータですね、それを使ってリップシンクのタイミングを取ったりしています。歌詞はアプリケーションの都合で選んでいましたけれども、これは何らかの入力手段さえあれば、どんな歌詞でも歌えますので。先ほどご紹介したPlaybackモードとRealtimeモードですね、それぞれのサンプル・アプリケーションをSDKに入れております。

  • 1つ目にご紹介したものは、実はキャラクターが生み出されたときに、Unity Technologies Japan様で、サンプルのプロジェクトとして、ライブステージのプロジェクトをオープンソースといいますか、オープンに公開されています。それを、われわれお借りして、もともと普通に歌声の入ったオーディオを再生していたものを歌声の部分は、われわれのエンジンで、その場で生で歌いますよと...ちょっと語弊ありますけど。もともとのプロジェクトをモディファイして、改造して作ったサンプル・アプリケーションになっています。

  • もうひとつが、先ほどの楽器アプリですね。リップシンクとかキャラクターの同期というところを実現しています。いずれもサンプルの歌声であるランタイム版、アプリに組み込むために、ユニティちゃんの声を使っております。

  • 続いて、採用事例ですね。この3月末に早速ご採用いただきまして、キッズピアあしかがという子ども向けのテーマパークといいますか、足利市で運営されております施設があるんですけど、その中にフジテレビKIDSさんがプロデュースをして、メディアアートのコーナーを作りたいというところでお声がけをいただきまして、われわれのUnity WITH VOCALOIDをお使いいただきました。

  • ちょっと写真、小さいんですが、こちらですね。ドラムパッドですとか、キーボードも置いてあるんですけれども、楽譜とリズムを合わせて、たたいていきますと、それに合わせてキャラクターが踊りながら歌ってくれるという、そんなインタラクティブなアプリケーションになってます。先ほどのアプリケーションのカテゴリーでいいますと、知育アプリとメディアアートと音楽ゲームと、そのあたりをクロスオーバーした応用事例になるかなと思っております。

  • 最後、ビジネスのご案内ですね。今回、SDKは無償でお配りしていますので、ある条件下では、すぐにお試しいただけるんですけども、実際のビジネスのところは、BtoBの形でSDKをご提供していきたいと思っております。まず、合成エンジンですね。先ほどご紹介したウィンドウズとMacとiOSと、これからAndroidをご提供していきたいと思います。

  • 続いては、ライブラリの種類によってご提供形態が変わってきますので、そちらをご紹介したいと思います。まず、たびたび登場していますユニティちゃんですね。こちら、キャラクター自体にユニティちゃんライセンス2.0という特殊なライセンスがありまして。こちら、プロトタイピングの目的、もしくは商用であっても事業規模1000万円以下でしたかね...の規模であれば無償でお使いいただけますという、開発者にとって、とても優しいライセンスになっております。ヤマハも、このライセンスに乗らせていただいて、声についても同じ条件で使っていただけるようにしました。

  • 続いてが、パートナー様、もしくはヤマハの既存のVOCALOIDのライブラリをお使いいただく場合ですね。この場合は大変恐縮なんですけれども、市販されていますPC向けのライブラリを買ってきても、SDKには組み込むことはできません。技術的な制約と、ビジネスのスキームの都合で、現状こういう形をとらせていただいておりまして。既存の声、キャラクターをお使いいただく場合には、まず一回、ヤマハにご相談をいただきまして、その声を組み込んだ専用のSDKというものを作ってご提供させていただく形を、今とっております。

  • 続いてが、新規のライブラリですね。特定のゲームですとか、アプリケーションのために、ある方の声で歌わせたいとご用命をいただきましたら、ライブラリの受託開発のところから、われわれご協力をさせていただきます。いずれのケースにおきましても、まずはヤマハに企画を持ち込んでいただければ、その中からソリューションをご提案していきたいと思っております。

  • 価格体系等々についても、公式のウェブサイトには載せてるんですけども、ライセンス体系が分かりにくいというご意見を多数いただいておりまして、今ここの改定を急いでいるところであります。5月中には、そういったところ、新しいビジネスモデル、ビジネススキームのご提案ということで、リニューアルをする予定であります。

  • 最後、ビジネスのご案内ですね。特設サイトがありまして、VOCALOID、今どんな声があるのかというところは、弊社のVOCALOIDショップを見ていただければ、ラインナップをご覧いただけます。あと、ユニティちゃんですね。キャラクターも公式サイトがありますので、Unity Technologies Japan様のサイトから、たどっていただければ思います。以上、最近のVOCALOID動向から新しい試みとしてのインタラクティブの歌声というところのご提案を差し上げました。ありがとうございました。