JP3813919B2 - Sound information generation system and sound information generation method - Google Patents
Sound information generation system and sound information generation method Download PDFInfo
- Publication number
- JP3813919B2 JP3813919B2 JP2002324106A JP2002324106A JP3813919B2 JP 3813919 B2 JP3813919 B2 JP 3813919B2 JP 2002324106 A JP2002324106 A JP 2002324106A JP 2002324106 A JP2002324106 A JP 2002324106A JP 3813919 B2 JP3813919 B2 JP 3813919B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- sound information
- information
- objects
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、所定の入力に基づいて音情報を生成する音情報生成システム及び音情報生成方法に関する。
【0002】
【従来の技術】
楽器ではない一般物体を使って音楽の演奏を行う方法に関する従来技術には以下のものが挙げられる。
【0003】
第1の従来技術は最も原始的な手段であり、単純に物体同士を衝突させた時の音を利用するものが挙げられる。
【0004】
しかし、衝突させる物体の大きさや材質に制限があり、音色や音程を自由に変化させることは困難である。
【0005】
第2の従来技術は、対象物体に発音装置を付加する方法である。楽器ではない一般物体に、物理的または電子的に発音する装置を取り付け、対象物体の運動に対応して発音させる。この技術では、装置の構造が簡単である、物体の運動に忠実に対応して発音できる等の長所を持つ。
【0006】
しかし、演奏に使用する物体には予め発音装置を取り付けておく必要があり、任意の物体を自由に利用することは出来ない。また、物体の形状や外観的などの外的特徴情報を捉えられず、これらの外的特徴情報の変化に対応した発音が困難である。
【0007】
第3の従来技術は、対象物体にセンサー類を付加する方法である(例えば、非特許文献1,2参照)。楽器ではない一般物体に加速度センサーや無線タグなどを取り付け、これらのセンサーが計測した情報を情報処理装置に送信して処理することで音情報を生成して発音する。この技術では、音情報を情報処理装置内で合成するため、音色や音階を自由に設定出来るという長所を持つ。
【0008】
しかし、演奏に使用する物体には予めセンサー類を取り付けておく必要があり、任意の物体を自由に利用することは出来ない。また、物体の形状や外観的な特徴情報を捉えられず、これらの外的特徴情報の変化に対応した発音が困難である。
【0009】
【非特許文献1】
http://sega.jp/dc/db/000401.html
【0010】
【非特許文献2】
http://sega.jp/arcade/syakachu/home.html
【0011】
【発明が解決しようとする課題】
楽器ではない一般物体を使って音楽の演奏を行う方法を考えた場合、従来技術には以下の問題点が存在する。
【0012】
第1の従来技術は非常に原始的なもので、利用できる物体および発音される音質の両方に大きな制限が有る。
【0013】
第2の従来技術および第3の従来技術においては、物体側に仕掛けが必要であるため、任意の物体を自由に利用することは出来ない。
【0014】
また、第2の従来技術、第3の従来技術においては、物体の外観情報を取得していないため、例えば物体の色の違いを発音される音の質に反映させることが出来ない。
【0015】
本発明は、上記事情を考慮してなされたもので、本来は楽器ではない一般物体を入力デバイスとして使用した音楽あるいは楽器の演奏などを可能にする音情報生成システム及び音情報生成方法を提供することを目的とする。
【0016】
【課題を解決するための手段】
本発明は、ユーザによる操作の対象となる物体を動画像として連続撮影するとともに、ユーザが該物体を操作してから、該物体の画像から得られる特徴情報に基づいて生成した音情報を出力するまでを即時的に行う音情報生成システムであって、前記物体が自然光と照射光との両方に照らされた状態の第1の画像と、該物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該物体の外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該物体の形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該物体の第1及び第2の特徴情報を即時的に連続して計測する計測手段と、前記計測手段により計測された前記第1及び第2の特徴情報を即時的に連続して解釈する解釈手段と、前記解釈手段により解釈された前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成する音情報生成手段と、前記音情報生成手段により生成された前記音情報を出力する音情報呈示手段とを備えたことを特徴とする。
【0017】
また、本発明は、ユーザによる操作の対象となる互いに独立した複数の物体を動画像として連続撮影するとともに、ユーザが該物体を操作してから、該物体の画像から得られる特徴情報に基づいて生成した音情報を出力するまでを即時的に行う音情報生成システムであって、前記複数の物体が自然光と照射光との両方に照らされた状態の第1の画像と、該複数の物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該複数の物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該複数の物体の各々についての外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該複数の物体の各々についての形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該複数の物体の各々についての第1及び第2の特徴情報を即時的に連続して計測する計測手段と、前記計測手段により前記複数の物体の各々について計測された前記第1及び第2の特徴情報を即時的に連続して解釈する解釈手段と、前記解釈手段により解釈された前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成する音情報生成手段と、前記音情報生成手段により生成された前記音情報を出力する音情報呈示手段とを備えたことを特徴とする。
【0018】
好ましくは、前記音情報生成手段が前記音情報を生成するにあたって基とする前記第1及び第2の特徴情報と、当該第1及び第2の特徴情報に基づいて生成される前記音情報との間の関係(関連性、規則性)が、利用者に秘匿されているようにしてもよい。
【0020】
また、本発明は、ユーザによる操作の対象となる物体を動画像として連続撮影するとともに、ユーザが該物体を操作してから、該物体の画像から得られる特徴情報に基づいて生成した音情報を出力するまでを即時的に行う音情報生成システムにおける音情報生成方法であって、前記物体が自然光と照射光との両方に照らされた状態の第1の画像と、該物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該物体の外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該物体の形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該物体の第1及び第2の特徴情報を即時的に連続して計測し、これにより得られた前記第1及び第2の特徴情報を即時的に連続して解釈し、これにより得られた前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成し、生成された前記音情報を出力することを特徴とする。
【0021】
また、本発明は、ユーザによる操作の対象となる互いに独立した複数の物体を動画像として連続撮影するとともに、ユーザが該物体を操作してから、該物体の画像から得られる特徴情報に基づいて生成した音情報を出力するまでを即時的に行う音情報生成システムにおける音情報生成方法であって、前記複数の物体が自然光と照射光との両方に照らされた状態の第1の画像と、該複数の物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該複数の物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該複数の物体の各々についての外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該複数の物体の各々についての形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該複数の物体の各々についての第1及び第2の特徴情報を即時的に連続して計測し、これにより前記複数の物体の各々について得られた前記第1及び第2の特徴情報を即時的に連続して解釈し、これにより得られた前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成し、生成された前記音情報を出力することを特徴とする。
【0022】
また、本発明は、ユーザによる操作の対象となる物体を動画像として連続撮影するとともに、ユーザが該物体を操作してから、該物体の画像から得られる特徴情報に基づいて生成した音情報を出力するまでを即時的に行う音情報生成システムとしてコンピュータを機能させるためのプログラムであって、前記物体が自然光と照射光との両方に照らされた状態の第1の画像と、該物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該物体の外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該物体の形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該物体の第1及び第2の特徴情報を即時的に連続して計測する計測機能と、前記計測機能により計測された前記第1及び第2の特徴情報を即時的に連続して解釈する解釈機能と、前記解釈機能により解釈された前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成する音情報生成機能と、前記音情報生成機能により生成された前記音情報を出力する音情報呈示機能とをコンピュータに実現させるためのプログラムである。
【0023】
また、本発明は、ユーザによる操作の対象となる互いに独立した複数の物体を動画像として連続撮影するとともに、ユーザが該物体を操作してから、該物体の画像から得られる特徴情報に基づいて生成した音情報を出力するまでを即時的に行う音情報生成システムとしてコンピュータを機能させるためのプログラムであって、前記複数の物体が自然光と照射光との両方に照らされた状態の第1の画像と、該複数の物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該複数の物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該複数の物体の各々についての外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該複数の物体の各々についての形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該複数の物体の各々についての第1及び第2の特徴情報を即時的に連続して計測する計測機能と、前記計測機能により前記複数の物体の各々について計測された前記第1及び第2の特徴情報を即時的に連続して解釈する解釈機能と、前記解釈機能により解釈された前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成する音情報生成機能と、前記音情報生成機能により生成された前記音情報を出力する音情報呈示機能とをコンピュータに実現させるためのプログラムである。
【0024】
なお、装置に係る本発明は方法に係る発明としても成立し、方法に係る本発明は装置に係る発明としても成立する。
また、装置または方法に係る本発明は、コンピュータに当該発明に相当する手順を実行させるための(あるいはコンピュータを当該発明に相当する手段として機能させるための、あるいはコンピュータに当該発明に相当する機能を実現させるための)プログラムとしても成立し、該プログラムを記録したコンピュータ読取り可能な記録媒体としても成立する。
【0025】
本発明では、楽器ではない一般物体の外観、立体形状、運動などの外的特徴情報を簡便かつ安定的に取得し、それらの変化を捉えて、対応する音情報を生成、発音することで、本来は楽器のように扱えない一般物体を利用して、例えば一般物体を楽器のように利用して楽しむなど、仮想的に音色を楽しむことが可能になる。
【0026】
また、外的特徴情報を高速に連続して取得することで、外的特徴情報の計測から音情報に変換して発音するまでの処理を即時化することができる。例えば、反射光による測距技術を用いて、楽器ではない一般物体の形状や運動の外的特徴情報を取得し、およびまたは楽器ではない一般物体の画像を動画として連続撮影し、情報処理装置を用いて画像を解析することで、物体の外観などの外的特徴情報を取得し、それらの変化を捉えて対応する音情報を生成して発音する。これによって、本来は楽器ではない一般物体を使って、音楽演奏の様に即時性が要求される用途にも対応するなど、今までに無い娯楽性や芸術性を提供、向上することができ、その効果は絶大である。
【0027】
また、本発明では、対象物側に仕組みを必要としないため、任意の物体を自由に利用出来るという長所を持つ。また、音情報を情報処理装置内で合成するため、音色や音階を自由に設定出来るという長所も持つ。
【0028】
【発明の実施の形態】
以下、図面を参照しながら発明の実施の形態を説明する。
【0029】
(第1の実施形態)
図1に、本発明の第1の実施形態に係る情報処理システムの構成例を示す。また、図2に、本実施形態の概観図の一例を示す。また、図3に、本情報処理システムの動作手順の一例を示す。
【0030】
図1に示されるように、本情報処理システムは、反射光画像取得部1110と自然光画像取得部1120を含む情報取得装置1100、形状情報解析部1210と外観情報解析部1220と形状情報記憶部1230と形状情報記憶部1240と音情報生成部1250とデジタル−アナログ変換部1260を含む情報処理装置1200、アンプ部1310とスピーカー部1320とを含む情報呈示装置1300を備えている。なお、図1の例では、デジタル−アナログ変換部1260は情報処理装置1200に含まれるが、デジタル−アナログ変換部1260を情報呈示装置1300に含ませる構成例も可能である。
【0031】
まず、本実施形態の音情報生成システムの基本的な構成について説明する。
【0032】
対象物体1000は、本実施形態の音情報生成システムの利用者が任意に選択する被写物体であり、情報取得装置1100で情報取得が可能な物体であれば何でもよい。本実施形態では、一例として、対象物体1000は、高さ20cm程度のぬいぐるみとする。
【0033】
情報取得装置1100は、反射光画像と通常の自然光画像の両方を撮像する撮像装置である。情報取得装置1100において、反射光画像取得部1110は、対象に対して光を照射し、その反射光による画像を取得するためのものである。他方、自然光画像取得部1120は、通常の自然光による画像を取得するためのものである。
【0034】
情報処理装置1200は、マイクロプロセッサー等の論理演算回路によって実現されるコンピュータ等の情報処理装置である。情報処理装置1200において、形状情報解析部1210は、反射光画像から対象物体の立体的な形状情報を取得するためのものである。外観情報解析部1220は、自然光画像から対象物体の見かけの画像情報を取得するためのものである。形状情報記憶部1230は、対象物体の立体的な形状情報を蓄積するためのものである。形状情報記憶部1240は、対象物体の見かけの画像情報を蓄積するためのものである。音情報生成部1250は、上記の蓄積された立体的な形状情報および見かけの画像情報を参照し、任意に定められた手順に従って、音情報を生成する。デジタル−アナログ変換部1260は、デジタル信号で構成される音情報をアナログの音波信号に変換するためのものである。本実施形態では、一例として、情報処理装置1200は、マイクロプロセッサーを搭載するゲーム機とする。
【0035】
なお、反射光画像から対象の立体的な形状情報を取得する原理については後述する。
【0036】
情報呈示装置1300は、情報処理装置1200が出力する音情報を外部に呈示するための装置である。情報呈示装置1300において、アンプ部1310は、アナログの音波信号を増幅するためのものである。スピーカー部1320は、音波信号を物理的な音波として出力するためのものである。なお、情報呈示装置1300は、音情報以外の情報を呈示する機構を併せて持つ構成であっても構わない。本実施形態では、一例として、情報呈示装置1300は、ゲーム機を接続するテレビとする。
【0037】
次に、反射光画像から対象の立体的な形状情報を取得する原理について説明する。
【0038】
一般に、反射光の強度は距離の2乗に反比例する性質がある。これにより、対象物体に光を照射してその反射光の強弱を測定すると、光源から対象の各部までの距離が算出可能となる。しかし、自然光が存在する通常の環境下では反射光画像だけを撮影することが出来ない。よって、対象が自然光と照射光の両方に照らされている状態、および対象が自然光のみに照らされている状態の2種類の画像を撮影し、2種類の画像の差分を取ることによって、照射光のみによって照らされた対象の反射光画像を得る。これにより、自然光が存在する通常の環境下でも反射光による画像を撮影し、対象の各部分の距離情報が取得出来る。
【0039】
次に、情報取得装置1100の構成例について説明する。
【0040】
図4に、情報取得装置1100の構成例を示す。
【0041】
図4に示されるように、本情報取得装置1100は、反射光画像を取得するための反射光画像取得部1110、自然光画像を取得するための自然光画像取得部1120、反射光画像を撮像するために必要な照射光を照射する発光部1140、それら各部の動作を制御する撮像動作制御部1130を備えている。また、反射光画像取得部1110は、反射光画像撮像部1111と反射光画像処理部1112と反射光画像出力部1113を含み、自然光画像取得部1120は、自然光画像撮像部1121と自然光画像出力部1122を含む。
【0042】
自然光画像取得部1120は、対象物体が自然光に照らされた状態の画像を取得し、これを出力する。まず、自然光画像撮像部1121が撮像動作制御部1130からの制御信号に従って、自然光に照らされた状態の対象物体の画像を撮像し、これを自然光画像出力部1122に送信する。
【0043】
自然光画像出力部1122は、自然光画像撮像部1121が撮像した画像を、外部のシステムおよび反射光画像処理部1112に対して画像データとして出力する。
【0044】
反射光画像取得部1110は、対象物体が照射光に照らされた状態の画像を取得し、これを出力する。まず、反射光画像撮像部1111が撮像動作制御部1130からの制御信号に従って、照射光および自然光の両方に照らされた状態の対象物体の画像を撮像し、これを反射光画像処理部1112に送信する。
【0045】
反射光画像処理部1112は、反射光画像撮像部1111が撮影した画像データと、自然光画像撮像部1121が撮像した画像のデータの両方を参照し、差分処理を行うことで、発光部1140が対象に対して照射した光のみによって照らされた状態の対象物体の反射光画像データを生成する。
【0046】
反射光画像出力部1113は、反射光画像処理部1112で生成された反射光画像データを外部のシステムに対して出力する。
【0047】
次に、本実施形態における音情報生成システムの動作について説明する。
【0048】
まず、情報取得装置1100が対象物体であるぬいぐるみの反射光画像と自然光画像を撮影し、情報処理装置1200に送信する(ステップS1)。
【0049】
情報処理装置1200内部では、情報取得装置1100から送信された反射光画像と自然光画像の情報を処理し、対象物体であるぬいぐるみの外観、立体形状の情報として整理し、記憶蓄積する(ステップS1)。
【0050】
情報処理装置1200内部では、さらに、逐次更新される対象物体の立体形状および外観の情報を、記憶蓄積されている過去の立体形状および外観の情報と比較し、対象物体の移動や変形などの変化を算定する(ステップS2)。
【0051】
ここで、対象物体であるぬいぐるみの立体形状や外観に関してしきい値以上の変化が計算された場合、予め定められた手順(例えば、ユーザにより対象物体の特定の箇所に特定の操作がなされたことによって、該特定の箇所に対する特定の操作が反映された情報が得られた場合に、該特定の箇所に対する特定の操作について、予め規定された音情報を生成すべきことを規定した生成規則)、もしくは別の即興的な手順により、上記の変化の情報に対応した音の情報を発生させる(ステップS3)。
【0052】
上記の音の情報を、情報呈示装置1300等を通じて人間が聞くことのできる一般的な音波として出力する(ステップS4)ことで、利用者側からは対象物体であるぬいぐるみの形状や外観の変化が音の発生を引き起こしたかのように認識される。
【0053】
情報取得装置1100及び情報処理装置1200は、即時的に連続して動作するため、利用者が対象物体であるぬいぐるみを叩いたり引っ張ったりした際にも、ほぼ遅延無しで発音可能であるため、音楽演奏の様に即時性が要求される用途にも対応可能である。
【0054】
以上で述べたように、本実施形態による音情報生成システムを使用することで、楽器ではない、ぬいぐるみのような一般物体を使って発生させた音で音楽の演奏を行うなど、今までに無い娯楽性の提供が可能となる。
【0055】
もちろん、本実施形態における音情報生成の方法によれば、これまで示した作用効果にとどまらない。
【0056】
情報処理装置1200は、立体形状および外観の両方の情報を連続的に処理しているため、例えば、対象物体であるぬいぐるみの変形に対して、変形した部位やその変化量、変化ベクトルなどの情報を抽出することが可能である。
【0057】
これにより、利用者がぬいぐるみを引っ張った際の変形の情報の詳細を参照して、例えば頭に近い部位を引っ張れば高い音程の音が発音され(図5(a)の3100)、足を引っ張った場合には低い音程の音が発音される(図5(b)の3200)などの脚色が可能となる。
【0058】
ところで、ユーザが対象物体に何らかの操作を加えたときの音情報の発生の方法には、種々のバリエーションが可能である。
【0059】
例えば、対象物体の立体形状などの形状のみが変化した場合に、音情報を生成するものとし、この場合に、その形状の変化のみに対応する音情報を生成してもよいし、他の情報(例えば、対象物体のどの部位の形状が変化したか、色、色の変化、対象物体の全体的な大きさ、対象物体の当該装置からの距離、その都度変化し得る所定の情報、他のアプリケーションプログラムからの指示、ユーザからの指示、など)をもパラメータとして、対応する音情報を生成するようにしてもよい。また、例えば、対象物体の色などの外観のみが変化した場合に、音情報を生成するものとし、この場合に、その外観の変化のみに対応する音情報を生成してもよいし、他の情報(例えば、対象物体のどの部位の外観が変化したか、形状、形状の変化、対象物体の全体的な大きさ、対象物体の当該装置からの距離、その都度変化し得る所定の情報、他のアプリケーションプログラムからの指示、ユーザからの指示、など)をもパラメータとして、対応する音情報を生成するようにしてもよい。また、例えば、対象物体の立体形状などの形状および色などの外観の両方が変化した場合に、音情報を生成するものとし、この場合に、その形状および外観の変化のみに対応する音情報を生成してもよいし、他の情報(例えば、対象物体のどの部位の形状が変化したか、対象物体の全体的な大きさ、対象物体の当該装置からの距離、その都度変化し得る所定の情報、他のアプリケーションプログラムからの指示、ユーザからの指示、など)をもパラメータとして、対応する音情報を生成するようにしてもよい。
【0060】
また、対象物体が予め定められた特徴(例えば、形状およびまたは外観)を有する部位を持つものである場合に、当該予め定められた特徴の部位にユーザからの特定の操作が加えられたことが解析されたときに、対応する音情報を生成する方法も可能である。
【0061】
また、対象物体として予め定められた種類のものを想定し、当該予め定められた種類の対象物体の特定の部位にユーザからの特定の操作が加えられたことが解析されたときに、対応する音情報を生成する方法も可能である。
【0062】
また、例えば、現実の1又は複数種類の特定の楽器と同一若しくは類似の音情報を生成するものであってもよい。この場合、特定の楽器を音階の出せる楽器とし、ユーザが対象物体のどの部位を操作するかおよびまたはどのような動きを加えるか、などに応じて、異なる音程や音量や音色の音情報を生成するようにしてもよい。複数種類の特定の楽器と同一若しくは類似の音情報を生成する場合には、ユーザが対象物体のどの部位を操作するかおよびまたはどのような動きを加えるか、などに応じて、どの楽器と同一若しくは類似の音情報を生成するかを決定するようにしてもよい。もちろん、特定の楽器は、音階を出せない楽器であってもよい。また、複数種類の特定の楽器と同一若しくは類似の音情報を生成する場合に、音階の出せる楽器と音階を出せない楽器が混在してもよい。
【0063】
また、例えば、現実の楽器とは異なる音を用いて、現存しない仮想的な楽器のような音情報を生成するものであってもよい。
【0064】
上記の他にも、種々のバリエーションが可能である。
【0065】
以上説明してきたように、本実施形態による音情報生成システムを使用することで、例えば、手持ちのぬいぐるみを使って様々な音程の音を出すという対話的な操作を楽しんだり、さらに音程の違いを利用して音楽を演奏するなど、対象物体単体では実現不可能な娯楽性や芸術性を実現することとなり、その効果は絶大である。
【0066】
(第2の実施形態)
図6に、本発明の第2の実施形態に係る情報処理システムの構成例を示す。また、図7に、本実施形態の概観図の一例を示す。本情報処理システムの動作手順の一例は図3と同様である。
【0067】
図6に示されるように、本情報処理システムは、反射光画像取得部5110と自然光画像取得部5120を含む情報取得装置5100、形状情報解析部5210と外観情報解析部5220と形状情報記憶部5230と形状情報記憶部5240と音情報生成部5250を含む情報処理装置5200、デジタル−アナログ変換部5310とアンプ部5320とスピーカー部5330とを含む情報呈示装置5300を備えている。なお、図6の例では、デジタル−アナログ変換部5310は情報呈示装置5300に含まれるが、デジタル−アナログ変換部5310を情報処理装置5200に含ませる構成例も可能である。
【0068】
まず、本実施形態の音情報生成システムの基本的な構成について説明する。
【0069】
対象物体5000は、第1の実施形態における対象物体1000と同様に、音情報生成システムの利用者が任意に選択する被写物体であり、音情報生成システムで情報取得が可能な物体であれば何でもよいが、本実施形態では、複数個を同時に使用するものとする。本実施形態では、一例として、対象物体5000は、高さ5〜20cm程度の複数のぬいぐるみ(図6、図7では、4つのぬいぐるみ5010〜5040)とする。
【0070】
情報取得装置5100の基本構成は、第1の実施形態における情報取得装置1100の基本構成と同じである。
【0071】
情報処理装置5200は、マイクロプロセッサー等の論理演算回路によって実現されるコンピュータ等の情報処理装置である。情報処理装置5200において、形状情報解析部5210は、反射光画像から対象物体の立体的な形状情報を取得するためのものである。外観情報解析部5220は、自然光画像から対象物体の見かけの画像情報を取得するためのものである。形状情報記憶部5230は、対象物体の立体的な形状情報を蓄積するためのものである。形状情報記憶部5240は、対象物体の見かけの画像情報を蓄積するためのものである。音情報生成部5250は、上記の蓄積された立体的な形状情報および見かけの画像情報を参照し、任意に定められた手順に従って音情報を生成するためのものである。
【0072】
本実施形態では、一例として、情報処理装置5200は、パーソナルコンピュータ(PC)の一式とする。
【0073】
なお、反射光画像から対象の立体的な形状情報を取得する原理については、第1の実施形態で説明した内容と同じである。
【0074】
情報呈示装置5300は、情報処理装置1200が出力する音情報を外部に呈示するための装置である。情報呈示装置5300は、デジタル−アナログ変換部5310は、デジタル信号で構成される音情報をアナログの音波信号に変換するためのものである。アンプ部5320は、アナログの音波信号を増幅するためのものである。スピーカー部5330は、音波信号を物理的な音波として出力するためのものである。本実施形態では、一例として、情報呈示装置5300は、PC本体のUSB端子に接続するデジタルオーディオスピーカーとする。
【0075】
次に、本実施形態における音情報生成システムの動作について説明する。
【0076】
まず、情報取得装置5100が対象物体であるぬいぐるみの反射光画像と自然光画像を撮影し、情報処理装置5200に送信する(ステップS1)。
【0077】
情報処理装置5200では、情報取得装置5100から送信された反射光画像および自然光画像の情報を処理し(ステップS2)、音情報の生成に必要な参照情報の抽出および音情報の生成を行う(ステップS3)。
【0078】
具体的な処理手順は以下の通りである。
(1)反射光画像から画像中の奥行き情報を取得する。
(2)取得した奥行き情報を利用して、画像中の背景領域と物体領域を切り分ける。
(3)切り分けた物体領域の情報と自然光画像の情報の両方を参照し、画像中の物体領域を物体それぞれの領域に切り分ける。
(4)それぞれの物体の形状や外観の情報に注目し、連続的に記録する。
(5)それぞれの物体の形状や外観の情報に変化が発生した場合、その変化の内容や量を算定する。
(6)算定された変化の量がしきい値以上であった場合、予め決められた手順に従い、変化に対応した音情報を生成する。
【0079】
情報呈示装置5300は、情報処理装置5200が生成した音情報をデジタル信号として受信し、内部でデジタル−アナログ変換を行ってアナログの音波波形に変換した後、アンプ、スピーカーを経由して人間が聞くことのできる一般的な音波として出力する(ステップS4)。
【0080】
これにより、利用者側からは対象物体であるぬいぐるみの形状や外観の変化に連動して音が発生したかのように認識される。
【0081】
情報取得装置5100及び情報処理装置5200は即時的に連続して動作するため、利用者が対象物体である複数のぬいぐるみを個別に叩いたり引っ張ったりした際にも、ほぼ遅延無しでそれぞれのぬいぐるみに対応した音が発音可能である。
【0082】
これにより、音楽演奏の様に即時性が要求される用途にも対応可能である。
【0083】
本実施形態では、例えば小さいぬいぐるみ(図7の5010)には高い音程を割り当て、大きいぬいぐるみ(図7の5040)には低い音程を割り当てておくことで、それぞれのぬいぐるみが叩かれたり振られたりした時に、それぞれのぬいぐるみに設定された音程で発音されることとなり、ハンドベルやグラスハープのように同種の複数の物体を鳴らし分ける形態での音楽演奏が可能となる。
【0084】
ところで、ユーザが対象物体に何らかの操作を加えたときの音情報の発生の方法には、種々のバリエーションが可能である。本実施形態では、第1の実施形態で述べたものに加えて、複数の対象物体の利用方法のバリエーションが存在する。
【0085】
例えば、同一の楽器の音情報を生成するものとし、異なる対象物体に異なる音(例えば、音階、音色、音量の少なくとも一つが異なるもの)を割り当てることも可能である。この場合に、1つの対象物体に1つの音を割り当てることも可能であるし、1つの対象物体に複数の音を割り当てることも可能である。もちろん、同一の音が複数の対象物体に重複して割り当てられてもよいし、排他的に割り当てられてもよい。
【0086】
また、例えば、複数の楽器の音情報を生成するものとし、複数の対象物体に、異なる楽器を割り当てることも可能である。もちろん、同一の楽器が複数の対象物体に重複して割り当てられてもよいし、排他的に割り当てられてもよい。
【0087】
また、例えば、複数の楽器の音情報を生成するものとし、同一の楽器を複数の対象物体に割り当てるとともに、同一の楽器を割り当てられた複数の対象物体に異なる音を割り当てることも可能である。
【0088】
また、例えば、1又は複数の対象物体に現実の楽器と同一若しくは類似の音情報を割り当て、他の1又は複数の対象物体に仮想的な楽器の音情報を割り当てるようにすることも可能である。
【0089】
また、複数の対象物体は、同一の種類のものであってもよいし、その全部又は一部が互いに異なる種類のものであってもよい。
【0090】
上記の他にも、種々のバリエーションが可能である。
【0091】
以上説明してきたように、本実施形態による音情報生成システムを使用することで、例えばぬいぐるみのように、楽器ではない一般物体を複数個使って複数の音色を発生させ、ハンドベルやグラスハープのように音楽の演奏を行うことが可能になるなど、今までに無い娯楽性や芸術性の提供が可能となる。
【0092】
(第3の実施形態)
本発明の第3の実施形態は、第1の実施形態や第2の実施形態において、対象物体に対する音色や音程の割り当て方法を変形したバリエーションである。
【0093】
本実施形態における音情報生成システムの構成例は、第1または第2の実施形態における音情報生成システムの構成例と同じである。本情報処理システムの動作手順の一例は図3と同様である。また、本実施形態における音情報の生成方法は、第1または第2の実施形態における音情報の生成方法と同じである。
【0094】
以下、本実施形態について、第1の実施形態や第2の実施形態と相違する点を中心に説明する。
【0095】
第1、第2の実施形態の情報処理装置(第1の実施形態の場合、図1の1200、第2の実施形態の場合、図6の5200)は、対象物体に対して音色や音程を割り当てることが可能であるが、本実施形態においては、対象物に対する音色や音程の設定を情報処理装置(第1の実施形態の場合、図1の1200、第2の実施形態の場合、図6の5200)内で決定し、その規則を利用者に秘匿とする。
【0096】
これにより、例えば、利用者が持ち込んだ物体が、利用者にも予想不可能な意外な音色を発生させることとなり、様々な物体を取り替えて望みの音色を探したり、音色や音程の設定規則を推理したりという音当てゲームのような使用方法が可能となる。
【0097】
以上説明したように、本実施形態による音情報生成システムを使用することで、例えば新しく買ってきたぬいぐるみの音色を試してみるなど、音を使用したゲームとしての娯楽性を提供し、その効果は絶大である。
【0098】
ところで、第1〜第3の実施形態では、対象物体を、本実施形態の構成との関係では何の仕掛けもない一般物体(上記した具体例では、一般のぬいぐるみ)として説明してきたが、もちろん、対象物体を、当該システムのための専用の物体として、当該専用の物体に、さらに各種の仕掛けを組み込んで、より娯楽性や芸術性などの効果を高めることも可能である(例えば、専用の対象物体(上記した具体例では、専用のぬいぐるみ)に、ユーザが当該システムに所定の指示を入力するための仕組みを設け、当該システムはユーザからの所定の指示の入力を受けた場合には、これに応じて所定の処理を行う、など)。
【0099】
なお、以上の各機能は、ソフトウェアとして実現可能である。
また、本実施形態は、コンピュータに所定の手段を実行させるための(あるいはコンピュータを所定の手段として機能させるための、あるいはコンピュータに所定の機能を実現させるための)プログラムとして実施することもでき、該プログラムを記録したコンピュータ読取り可能な記録媒体として実施することもできる。
【0100】
なお、この発明の実施の形態で例示した構成は一例であって、それ以外の構成を排除する趣旨のものではなく、例示した構成の一部を他のもので置き換えたり、例示した構成の一部を省いたり、例示した構成に別の機能あるいは要素を付加したり、それらを組み合わせたりすることなどによって得られる別の構成も可能である。また、例示した構成と論理的に等価な別の構成、例示した構成と論理的に等価な部分を含む別の構成、例示した構成の要部と論理的に等価な別の構成なども可能である。また、例示した構成と同一もしくは類似の目的を達成する別の構成、例示した構成と同一もしくは類似の効果を奏する別の構成なども可能である。
また、この発明の実施の形態で例示した各種構成部分についての各種バリエーションは、適宜組み合わせて実施することが可能である。
また、この発明の実施の形態は、個別装置としての発明、関連を持つ2以上の装置についての発明、システム全体としての発明、個別装置内部の構成部分についての発明、またはそれらに対応する方法の発明等、種々の観点、段階、概念またはカテゴリに係る発明を包含・内在するものである。
従って、この発明の実施の形態に開示した内容からは、例示した構成に限定されることなく発明を抽出することができるものである。
【0101】
本発明は、上述した実施の形態に限定されるものではなく、その技術的範囲において種々変形して実施することができる。
【0102】
【発明の効果】
本発明によれば、本来は楽器ではない一般物体を入力デバイスとして使用した音楽あるいは楽器の演奏などが可能になる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る情報処理システムの構成例を示す図
【図2】同実施形態に係る情報処理システムの概観の一例を示す図
【図3】同実施形態に係る情報処理システムの動作手順の一例を示すフローチャート
【図4】同実施形態に係る情報処理システムの情報取得装置の内部構成例を示す図
【図5】同実施形態に係る情報処理システムの音情報生成の一例について説明するための図
【図6】同実施形態に係る情報処理システムの他の構成例を示す図
【図7】同実施形態に係る情報処理システムの概観の他の一例を示す図
【符号の説明】
1000,5000…対象物体
1100,5100…情報取得装置
1110…反射光画像取得部
1111…反射光画像撮像部
1112…反射光画像処理部
1113…反射光画像出力部
1120…自然光画像取得部
1121…自然光画像撮像部
1122…自然光画像出力部
1130…撮像動作制御部
1140…発光部
1200,5200…情報処理装置
1210,5210…形状情報解析部
1220,5220…外観情報解析部
1230,5230…形状情報記憶部
1240,5240…形状情報記憶部
1250,5250…音情報生成部
1260,5310…デジタル−アナログ変換部
1300,5300…情報呈示装置
1310,5320…アンプ部
1320,5330…スピーカー部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sound information generation system and a sound information generation method for generating sound information based on a predetermined input.
[0002]
[Prior art]
Conventional techniques relating to a method of performing music using general objects that are not musical instruments include the following.
[0003]
The first prior art is the most primitive means, and there is one that simply uses sound when objects collide with each other.
[0004]
However, the size and material of the object to be collided are limited, and it is difficult to freely change the tone color and pitch.
[0005]
The second prior art is a method of adding a sounding device to a target object. A physical or electronic sounding device is attached to a general object that is not a musical instrument, and sound is generated according to the movement of the target object. This technology has advantages such as a simple structure of the device and sound generation corresponding to the movement of the object faithfully.
[0006]
However, it is necessary to attach a sounding device in advance to an object used for performance, and any object cannot be used freely. Also, it cannot capture any external feature information such as the shape or appearance of the object, and it is difficult to produce a sound corresponding to the change in the external feature information.
[0007]
The third prior art is a method of adding sensors to a target object (for example, see Non-Patent
[0008]
However, it is necessary to attach sensors to an object used for performance in advance, and any object cannot be used freely. In addition, it is difficult to capture the shape and appearance feature information of the object, and it is difficult to generate pronunciation corresponding to the change in the external feature information.
[0009]
[Non-Patent Document 1]
http: // sega. jp / dc / db / 000401. html
[0010]
[Non-Patent Document 2]
http: // sega. jp / arcade / syakachu / home. html
[0011]
[Problems to be solved by the invention]
When considering a method of performing music using a general object that is not a musical instrument, the following problems exist in the prior art.
[0012]
The first prior art is very primitive and has significant limitations on both the available objects and the sound quality that can be pronounced.
[0013]
In the second conventional technology and the third conventional technology, since a device is required on the object side, an arbitrary object cannot be used freely.
[0014]
Further, in the second and third prior arts, since the appearance information of the object is not acquired, for example, the difference in the color of the object cannot be reflected on the quality of the sound to be pronounced.
[0015]
The present invention has been made in view of the above circumstances, and provides a sound information generation system and a sound information generation method that enable music or musical instrument performance using a general object that is not originally a musical instrument as an input device. For the purpose.
[0016]
[Means for Solving the Problems]
The present invention continuously captures an object to be operated by a user as a moving image, and outputs sound information generated based on feature information obtained from the image of the object after the user operates the object. A sound information generation system that immediately performs the above-described processing, wherein a first image in a state where the object is illuminated by both natural light and irradiation light, and a second image in a state where the object is illuminated only by the natural light And taking the difference between the first image and the second image to obtain a third image in a state where the object is illuminated only by the irradiation light. A series of procedures for obtaining first feature information relating to the appearance of the object from the second image and obtaining second feature information relating to the shape of the object from the third image. Immediate for each frame that composes By performing the measurement, the measurement unit that immediately and continuously measures the first and second feature information of the object, and the first and second feature information measured by the measurement unit are continuously continuous. Interpreting means for interpreting, sound information generating means for generating corresponding sound information based on interpretation results for the first and second feature information interpreted by the interpreting means, and generated by the sound information generating means And sound information presenting means for outputting the sound information.
[0017]
In addition, the present invention continuously shoots a plurality of independent objects to be operated by the user as moving images, and based on feature information obtained from an image of the object after the user operates the object. A sound information generation system that immediately performs output of generated sound information, wherein the plurality of objects are illuminated with both natural light and irradiation light, and the plurality of objects are The second image in a state illuminated only by the natural light is photographed by the same imaging device, and the difference between the first image and the second image is taken, whereby the plurality of objects are irradiated with the irradiation light. Obtaining a third image illuminated by only the first image, obtaining first feature information relating to the appearance of each of the plurality of objects from the second image, and obtaining the plurality of the plurality of images from the third image. In the shape of each of the objects The first and second feature information for each of the plurality of objects is instantly obtained by performing a series of procedures for obtaining the second feature information for each frame constituting the moving image immediately. Measurement means for continuously measuring, interpretation means for immediately and continuously interpreting the first and second feature information measured for each of the plurality of objects by the measurement means, and interpretation by the interpretation means Sound information generating means for generating corresponding sound information based on the interpretation results for the first and second feature information, and sound information presenting means for outputting the sound information generated by the sound information generating means It is characterized by comprising.
[0018]
Preferably, the sound information generating means includes the first and second feature information based on which the sound information is generated and the sound information generated based on the first and second feature information. The relationship (relevance, regularity) between them may be kept secret from the user.
[0020]
In addition, the present invention continuously captures an object to be operated by the user as a moving image, and obtains sound information generated based on feature information obtained from the image of the object after the user operates the object. A sound information generation method in a sound information generation system that immediately performs output until outputting, wherein the object is illuminated with both natural light and irradiation light, and the object is only in the natural light. A state in which the second image in the illuminated state is photographed by the same imaging apparatus, and the object is illuminated only by the irradiation light by taking the difference between the first image and the second image A series of steps for obtaining first feature information relating to the appearance of the object from the second image and obtaining second feature information relating to the shape of the object from the third image. Steps to configure the video The first and second feature information of the object is measured immediately and continuously, and the first and second feature information obtained thereby is immediately obtained. And corresponding sound information is generated on the basis of the interpretation results for the first and second feature information obtained thereby, and the generated sound information is output. .
[0021]
In addition, the present invention continuously shoots a plurality of independent objects to be operated by the user as moving images, and based on feature information obtained from an image of the object after the user operates the object. A sound information generation method in a sound information generation system that immediately performs output of generated sound information, wherein the plurality of objects are illuminated by both natural light and irradiation light; and Taking the second image in a state where the plurality of objects are illuminated only by the natural light with the same imaging device and taking the difference between the first image and the second image, A third image in a state where the object is illuminated only by the irradiation light is obtained, and first feature information regarding the appearance of each of the plurality of objects is obtained from the second image, and the third image is obtained. The plurality of objects First and second feature information for each of the plurality of objects is obtained by immediately performing a series of procedures for obtaining second feature information on the shape of each of the frames for each frame constituting the moving image. Are measured immediately and continuously, and the first and second feature information obtained for each of the plurality of objects is immediately and continuously interpreted, and the first and second obtained thereby are obtained. Based on the interpretation result for the second feature information, corresponding sound information is generated, and the generated sound information is output.
[0022]
In addition, the present invention continuously captures an object to be operated by the user as a moving image, and obtains sound information generated based on feature information obtained from the image of the object after the user operates the object. A program for causing a computer to function as a sound information generation system that immediately performs output until outputting, wherein the object is illuminated with both natural light and irradiation light, and the object The second image in a state illuminated only by natural light is photographed by the same imaging device, and the difference between the first image and the second image is taken, so that the object is illuminated only by the irradiation light. A third image in the generated state is obtained, first feature information relating to the appearance of the object is obtained from the second image, and second feature information relating to the shape of the object is obtained from the third image. A series of requests By performing the procedure immediately for each frame constituting the moving image, the first and second feature information of the object is measured immediately and continuously, and the measurement function measures the first and second feature information. In addition, an interpretation function that interprets the first and second feature information immediately and continuously, and corresponding sound information based on an interpretation result for the first and second feature information interpreted by the interpretation function. Is a program for causing a computer to realize a sound information generation function for generating sound and a sound information presentation function for outputting the sound information generated by the sound information generation function.
[0023]
In addition, the present invention continuously shoots a plurality of independent objects to be operated by the user as moving images, and based on feature information obtained from an image of the object after the user operates the object. A program for causing a computer to function as a sound information generation system that immediately outputs generated sound information, wherein the plurality of objects are illuminated by both natural light and irradiation light. By taking an image and a second image in which the plurality of objects are illuminated only by the natural light with the same imaging device, and taking the difference between the first image and the second image, A third image in a state in which the plurality of objects are illuminated only by the irradiation light is obtained, and first feature information regarding the appearance of each of the plurality of objects is obtained from the second image, and the first image is obtained. 3 A series of procedures for obtaining second feature information related to the shape of each of the plurality of objects from the image is immediately performed for each frame constituting the moving image, whereby each of the plurality of objects is A measurement function that immediately and continuously measures the first and second feature information, and the first and second feature information measured for each of the plurality of objects by the measurement function An interpretation function that interprets the sound information, a sound information generation function that generates corresponding sound information based on the interpretation results for the first and second feature information interpreted by the interpretation function, and a sound information generation function And a sound information presenting function for outputting the sound information.
[0024]
The present invention relating to the apparatus is also established as an invention relating to a method, and the present invention relating to a method is also established as an invention relating to an apparatus.
Further, the present invention relating to an apparatus or a method has a function for causing a computer to execute a procedure corresponding to the invention (or for causing a computer to function as a means corresponding to the invention, or for a computer to have a function corresponding to the invention. It is also established as a program (for realizing) and also as a computer-readable recording medium on which the program is recorded.
[0025]
In the present invention, external feature information such as the appearance, three-dimensional shape, movement, etc. of a general object that is not a musical instrument is acquired easily and stably, capturing those changes, and generating corresponding sound information, It is possible to virtually enjoy a timbre by using a general object that cannot be handled like a musical instrument, such as using a general object like a musical instrument.
[0026]
In addition, by acquiring external feature information continuously at high speed, it is possible to immediately perform processing from measurement of external feature information to sound information. For example, by using distance measurement technology using reflected light, the external feature information of the shape and movement of a general object that is not a musical instrument is acquired, and / or images of a general object that is not a musical instrument are continuously captured as a moving image, By using the image to analyze the external feature information such as the appearance of the object, the change is captured and the corresponding sound information is generated and pronounced. As a result, it is possible to provide and improve unprecedented entertainment and artistry, such as using a general object that is not originally a musical instrument, and supporting applications such as music performance that require immediateness. The effect is enormous.
[0027]
Further, the present invention does not require a mechanism on the object side, and therefore has an advantage that any object can be freely used. In addition, since the sound information is synthesized in the information processing apparatus, there is an advantage that a tone color and a scale can be freely set.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the invention will be described with reference to the drawings.
[0029]
(First embodiment)
FIG. 1 shows a configuration example of an information processing system according to the first embodiment of the present invention. FIG. 2 shows an example of an overview diagram of the present embodiment. FIG. 3 shows an example of the operation procedure of the information processing system.
[0030]
As shown in FIG. 1, the information processing system includes an
[0031]
First, the basic configuration of the sound information generation system of this embodiment will be described.
[0032]
The
[0033]
The
[0034]
The
[0035]
The principle of acquiring the target three-dimensional shape information from the reflected light image will be described later.
[0036]
The
[0037]
Next, the principle of acquiring the target three-dimensional shape information from the reflected light image will be described.
[0038]
In general, the intensity of reflected light has a property that is inversely proportional to the square of the distance. Thus, when the target object is irradiated with light and the intensity of the reflected light is measured, the distance from the light source to each part of the target can be calculated. However, only a reflected light image cannot be taken under a normal environment where natural light exists. Therefore, the irradiation light is obtained by taking two types of images of the state in which the object is illuminated by both natural light and irradiation light and the state in which the object is only illuminated by natural light and taking the difference between the two types of images. A reflected light image of the object illuminated only by is obtained. Thereby, the image by reflected light can be image | photographed also in the normal environment where natural light exists, and the distance information of each part of object can be acquired.
[0039]
Next, a configuration example of the
[0040]
FIG. 4 shows a configuration example of the
[0041]
As shown in FIG. 4, the
[0042]
The natural light
[0043]
The natural light
[0044]
The reflected light
[0045]
The reflected light
[0046]
The reflected light
[0047]
Next, the operation of the sound information generation system in this embodiment will be described.
[0048]
First, the
[0049]
Inside the
[0050]
In the
[0051]
Here, when a change greater than the threshold value is calculated regarding the three-dimensional shape and appearance of the stuffed toy that is the target object, a predetermined procedure (for example, that a specific operation has been performed on a specific part of the target object by the user) , When information reflecting a specific operation for the specific location is obtained, a generation rule that specifies that pre-defined sound information should be generated for the specific operation for the specific location), Alternatively, sound information corresponding to the change information is generated by another improvisational procedure (step S3).
[0052]
By outputting the above sound information as a general sound wave that can be heard by a human through the
[0053]
Since the
[0054]
As described above, by using the sound information generation system according to the present embodiment, music has not been played with sounds generated using general objects such as stuffed animals that are not musical instruments. Amusement can be provided.
[0055]
Of course, the sound information generation method according to the present embodiment is not limited to the functions and effects described so far.
[0056]
Since the
[0057]
As a result, referring to details of the deformation information when the user pulls the stuffed toy, for example, if a portion close to the head is pulled, a high pitched sound is produced (3100 in FIG. 5A), and the foot is pulled. In such a case, a low-pitch sound can be generated (3200 in FIG. 5B), for example.
[0058]
By the way, various variations are possible for the method of generating sound information when the user performs some operation on the target object.
[0059]
For example, sound information is generated when only the shape such as the three-dimensional shape of the target object changes. In this case, sound information corresponding only to the change in the shape may be generated, or other information may be generated. (For example, which part of the target object has changed in shape, color, color change, overall size of the target object, distance of the target object from the device, predetermined information that can change each time, other Corresponding sound information may be generated using parameters from an application program, an instruction from the user, and the like as parameters. Also, for example, when only the appearance such as the color of the target object changes, sound information is generated. In this case, sound information corresponding only to the change in the appearance may be generated. Information (for example, which part of the target object has changed appearance, shape, shape change, overall size of the target object, distance of the target object from the device, predetermined information that can change each time, etc. The corresponding sound information may be generated using parameters from the application program of FIG. Also, for example, sound information is generated when both the shape such as the three-dimensional shape of the target object and the appearance such as the color change. In this case, the sound information corresponding only to the change of the shape and the appearance is displayed. Other information (for example, the shape of which part of the target object has changed, the overall size of the target object, the distance of the target object from the device, and a predetermined value that can change each time. Information, instructions from other application programs, instructions from users, etc.) may also be used as parameters to generate corresponding sound information.
[0060]
In addition, when the target object has a part having a predetermined characteristic (for example, shape and / or appearance), a specific operation from the user has been added to the predetermined characteristic part. A method of generating corresponding sound information when analyzed is also possible.
[0061]
Further, it is assumed that a predetermined type of target object is assumed and it is analyzed that a specific operation from the user is applied to a specific part of the predetermined type of target object. A method of generating sound information is also possible.
[0062]
Further, for example, sound information that is the same as or similar to that of one or more kinds of actual specific instruments may be generated. In this case, a specific musical instrument is used as a musical instrument that can produce a musical scale, and sound information of different pitches, volumes, and timbres is generated depending on which part of the target object the user operates and what movement is applied. You may make it do. When generating sound information that is the same as or similar to multiple types of specific musical instruments, it is the same as which musical instrument depending on which part of the target object the user operates and what kind of movement is applied. Or you may make it determine whether similar sound information is produced | generated. Of course, the specific instrument may be an instrument that cannot produce a scale. In addition, when sound information that is the same as or similar to a plurality of types of specific musical instruments is generated, musical instruments that can produce a musical scale and musical instruments that cannot produce a musical scale may be mixed.
[0063]
Further, for example, sound information such as a virtual musical instrument that does not exist may be generated using a sound different from that of an actual musical instrument.
[0064]
In addition to the above, various variations are possible.
[0065]
As described above, by using the sound information generation system according to the present embodiment, for example, it is possible to enjoy an interactive operation of producing sounds of various pitches using a stuffed toy on hand, and to further reduce the pitch difference. Playing music using it will achieve entertainment and artistic abilities that cannot be achieved with the target object alone, and its effects are enormous.
[0066]
(Second Embodiment)
FIG. 6 shows a configuration example of an information processing system according to the second embodiment of the present invention. FIG. 7 shows an example of an overview diagram of the present embodiment. An example of the operation procedure of the information processing system is the same as in FIG.
[0067]
As shown in FIG. 6, the information processing system includes an
[0068]
First, the basic configuration of the sound information generation system of this embodiment will be described.
[0069]
Similar to the
[0070]
The basic configuration of the
[0071]
The
[0072]
In this embodiment, as an example, the
[0073]
The principle of acquiring the target three-dimensional shape information from the reflected light image is the same as the content described in the first embodiment.
[0074]
The
[0075]
Next, the operation of the sound information generation system in this embodiment will be described.
[0076]
First, the
[0077]
The
[0078]
The specific processing procedure is as follows.
(1) Obtain depth information in the image from the reflected light image.
(2) Using the acquired depth information, the background area and the object area in the image are separated.
(3) With reference to both the information of the cut object area and the information of the natural light image, the object area in the image is cut into the respective object areas.
(4) Pay attention to information on the shape and appearance of each object and record them continuously.
(5) When a change occurs in the shape and appearance information of each object, the content and amount of the change are calculated.
(6) If the calculated amount of change is equal to or greater than the threshold value, sound information corresponding to the change is generated according to a predetermined procedure.
[0079]
The
[0080]
Thereby, it is recognized from the user side as if the sound is generated in conjunction with the change in the shape and appearance of the stuffed animal as the target object.
[0081]
Since the
[0082]
Thereby, it can respond also to the use for which immediacy is required like music performance.
[0083]
In this embodiment, for example, by assigning a high pitch to a small stuffed animal (5010 in FIG. 7) and assigning a low pitch to a large stuffed animal (5040 in FIG. 7), each stuffed animal is hit or shaken. When it does, it will be sounded with the pitch set for each stuffed animal, and it will be possible to perform music in the form of multiple sounds of the same kind like handbells and grass harp.
[0084]
By the way, various variations are possible for the method of generating sound information when the user performs some operation on the target object. In the present embodiment, in addition to the ones described in the first embodiment, there are variations in the method of using a plurality of target objects.
[0085]
For example, it is possible to generate sound information of the same musical instrument, and it is also possible to assign different sounds (for example, ones having different scales, timbres, and volumes) to different target objects. In this case, one sound can be assigned to one target object, and a plurality of sounds can be assigned to one target object. Of course, the same sound may be assigned to a plurality of target objects in an overlapping manner, or may be assigned exclusively.
[0086]
Further, for example, sound information of a plurality of musical instruments is generated, and different musical instruments can be assigned to a plurality of target objects. Of course, the same musical instrument may be assigned to a plurality of target objects in an overlapping manner, or may be assigned exclusively.
[0087]
Further, for example, sound information of a plurality of musical instruments is generated, and the same musical instrument can be assigned to a plurality of target objects, and different sounds can be assigned to a plurality of target objects to which the same musical instrument is assigned.
[0088]
In addition, for example, sound information that is the same as or similar to a real musical instrument may be assigned to one or more target objects, and sound information of a virtual instrument may be assigned to other one or more target objects. .
[0089]
Further, the plurality of target objects may be of the same type, or all or a part of them may be of different types.
[0090]
In addition to the above, various variations are possible.
[0091]
As described above, by using the sound information generation system according to the present embodiment, a plurality of general objects that are not musical instruments, such as stuffed animals, are used to generate a plurality of timbres, such as a hand bell or a glass harp. This makes it possible to provide entertainment and arts that have never been seen before.
[0092]
(Third embodiment)
The third embodiment of the present invention is a variation obtained by modifying the timbre and pitch assignment method for the target object in the first embodiment and the second embodiment.
[0093]
The configuration example of the sound information generation system in the present embodiment is the same as the configuration example of the sound information generation system in the first or second embodiment. An example of the operation procedure of the information processing system is the same as in FIG. The sound information generation method in the present embodiment is the same as the sound information generation method in the first or second embodiment.
[0094]
Hereinafter, the present embodiment will be described focusing on differences from the first embodiment and the second embodiment.
[0095]
The information processing apparatuses of the first and second embodiments (1200 in the case of the first embodiment, 1200 in FIG. 1 in the case of the second embodiment, 5200 in FIG. 6) provide timbres and pitches to the target object. In this embodiment, the timbre and pitch setting for the object are set in the information processing apparatus (1200 in the first embodiment, 1200 in FIG. 1, and 6 in the second embodiment). 5200), and the rule is kept secret from the user.
[0096]
As a result, for example, an object brought in by a user generates an unexpected timbre that cannot be predicted by the user, and various objects can be replaced to search for a desired timbre, or a timbre or pitch setting rule can be set. It can be used like a sound guessing game.
[0097]
As described above, by using the sound information generation system according to the present embodiment, for example, a newly purchased stuffed toy tone is tried, and entertainment as a game using sound is provided. It is huge.
[0098]
By the way, in the first to third embodiments, the target object has been described as a general object having no device in relation to the configuration of the present embodiment (in the above-described specific example, a general stuffed animal). It is also possible to enhance the effects such as entertainment and artisticity by incorporating the target object as a dedicated object for the system and incorporating various devices into the dedicated object. When the target object (in the specific example described above, a dedicated stuffed animal) is provided with a mechanism for the user to input a predetermined instruction to the system, the system receives an input of the predetermined instruction from the user, In accordance with this, predetermined processing is performed).
[0099]
Each function described above can be realized as software.
The present embodiment can also be implemented as a program for causing a computer to execute predetermined means (or for causing a computer to function as predetermined means, or for causing a computer to realize predetermined functions), The present invention can also be implemented as a computer-readable recording medium on which the program is recorded.
[0100]
Note that the configuration illustrated in the embodiment of the present invention is an example, and is not intended to exclude other configurations, and a part of the illustrated configuration may be replaced with another or one of the illustrated configurations. Other configurations obtained by omitting a part, adding another function or element to the illustrated configuration, or combining them are also possible. Also, another configuration that is logically equivalent to the exemplified configuration, another configuration that includes a portion that is logically equivalent to the exemplified configuration, another configuration that is logically equivalent to the main part of the illustrated configuration, and the like are possible. is there. Further, another configuration that achieves the same or similar purpose as the illustrated configuration, another configuration that achieves the same or similar effect as the illustrated configuration, and the like are possible.
In addition, various variations of various components illustrated in the embodiment of the present invention can be implemented in appropriate combination.
Further, the embodiment of the present invention is an invention of an invention as an individual device, an invention of two or more related devices, an invention of the entire system, an invention of components within an individual device, or a method corresponding thereto. The invention includes inventions according to various viewpoints, stages, concepts, or categories.
Therefore, the present invention can be extracted from the contents disclosed in the embodiments of the present invention without being limited to the exemplified configuration.
[0101]
The present invention is not limited to the embodiment described above, and can be implemented with various modifications within the technical scope thereof.
[0102]
【The invention's effect】
According to the present invention, music using a general object that is not originally a musical instrument as an input device or a musical instrument can be played.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration example of an information processing system according to an embodiment of the present invention.
FIG. 2 is a view showing an example of an overview of the information processing system according to the embodiment;
FIG. 3 is a flowchart showing an example of an operation procedure of the information processing system according to the embodiment;
FIG. 4 is a diagram showing an example of the internal configuration of an information acquisition device of the information processing system according to the embodiment
FIG. 5 is a view for explaining an example of sound information generation in the information processing system according to the embodiment;
FIG. 6 is a view showing another configuration example of the information processing system according to the embodiment;
FIG. 7 is a view showing another example of the overview of the information processing system according to the embodiment;
[Explanation of symbols]
1000, 5000 ... Target object
1100, 5100 ... Information acquisition device
1110: Reflected light image acquisition unit
1111 ... Reflected light image capturing unit
1112 ... Reflected light image processing unit
1113: Reflected light image output unit
1120: Natural light image acquisition unit
1121 ... Natural light image capturing unit
1122 ... Natural light image output unit
1130. Imaging operation control unit
1140. Light emitting part
1200, 5200 ... Information processing apparatus
1210, 5210 ... Shape information analysis unit
1220, 5220 ... Appearance information analysis unit
1230, 5230 ... Shape information storage unit
1240, 5240 ... Shape information storage unit
1250, 5250 ... Sound information generation unit
1260, 5310: Digital-analog converter
1300, 5300 ... Information presentation device
1310, 5320 ... Amplifier section
1320, 5330 ... Speaker section
Claims (14)
前記物体が自然光と照射光との両方に照らされた状態の第1の画像と、該物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該物体の外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該物体の形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該物体の第1及び第2の特徴情報を即時的に連続して計測する計測手段と、
前記計測手段により計測された前記第1及び第2の特徴情報を即時的に連続して解釈する解釈手段と、
前記解釈手段により解釈された前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成する音情報生成手段と、
前記音情報生成手段により生成された前記音情報を出力する音情報呈示手段とを備えたことを特徴とする音情報生成システム。 Immediately after the user manipulates the object as a moving image, the user operates the object and outputs sound information generated based on the feature information obtained from the object image. A sound information generation system
A first image in a state where the object is illuminated by both natural light and irradiation light and a second image in a state where the object is illuminated only by the natural light are photographed by the same imaging device, by taking the difference between the first image and the second image, we obtain the third image in a state where said object is illuminated by only該照Shako, from the second image, the first related to the appearance of the object A series of procedures for obtaining the feature information of 1 and for obtaining the second feature information on the shape of the object from the third image for each frame constituting the moving image, Measuring means for measuring the first and second feature information of the object immediately and continuously ;
Interpretation means for immediately and continuously interpreting the first and second characteristic information measured by the measurement means;
Sound information generating means for generating corresponding sound information based on the interpretation results for the first and second feature information interpreted by the interpreting means;
A sound information generating system comprising: sound information presenting means for outputting the sound information generated by the sound information generating means.
前記複数の物体が自然光と照射光との両方に照らされた状態の第1の画像と、該複数の物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該複数の物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該複数の物体の各々についての外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該複数の物体の各々についての形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該複数の物体の各々についての第1及び第2の特徴情報を即時的に連続して計測する計測手段と、
前記計測手段により前記複数の物体の各々について計測された前記第1及び第2の特徴情報を即時的に連続して解釈する解釈手段と、
前記解釈手段により解釈された前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成する音情報生成手段と、
前記音情報生成手段により生成された前記音情報を出力する音情報呈示手段とを備えたことを特徴とする音情報生成システム。A plurality of independent objects to be operated by the user are continuously captured as moving images, and sound information generated based on feature information obtained from the image of the object is output after the user operates the object. A sound information generation system that immediately performs the process until
A first image in which the plurality of objects are illuminated by both natural light and irradiation light and a second image in which the plurality of objects are illuminated only by the natural light are captured by the same imaging device. Then, by obtaining a difference between the first image and the second image, a third image in a state where the plurality of objects are illuminated only by the irradiation light is obtained, and from the second image, A series of procedures for obtaining first feature information relating to the appearance of each of the plurality of objects and obtaining second feature information relating to the shape of each of the plurality of objects from the third image, Measuring means for immediately and continuously measuring the first and second feature information for each of the plurality of objects by performing immediately for each frame constituting the image ;
Interpretation means for immediately and continuously interpreting the first and second feature information measured for each of the plurality of objects by the measurement means;
Sound information generating means for generating corresponding sound information based on the interpretation results for the first and second feature information interpreted by the interpreting means;
A sound information generating system comprising: sound information presenting means for outputting the sound information generated by the sound information generating means.
前記物体が自然光と照射光との両方に照らされた状態の第1の画像と、該物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該物体の外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該物体の形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該物体の第1及び第2の特徴情報を即時的に連続して計測し、
これにより得られた前記第1及び第2の特徴情報を即時的に連続して解釈し、
これにより得られた前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成し、
生成された前記音情報を出力することを特徴とする音情報生成方法。 Immediately after the user manipulates the object as a moving image, the user operates the object and outputs sound information generated based on the feature information obtained from the object image. A sound information generation method in the sound information generation system
A first image in a state where the object is illuminated by both natural light and irradiation light and a second image in a state where the object is illuminated only by the natural light are photographed by the same imaging device, by taking the difference between the first image and the second image, we obtain the third image in a state where said object is illuminated by only該照Shako, from the second image, the first related to the appearance of the object A series of procedures for obtaining the feature information of 1 and for obtaining the second feature information on the shape of the object from the third image for each frame constituting the moving image, Measuring the first and second characteristic information of the object immediately and continuously ,
Interpreting the first and second feature information obtained thereby immediately and continuously ,
Based on the interpretation result for the first and second feature information obtained thereby, corresponding sound information is generated,
A sound information generation method, characterized by outputting the generated sound information.
前記複数の物体が自然光と照射光との両方に照らされた状態の第1の画像と、該複数の物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該複数の物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該複数の物体の各々についての外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該複数の物体の各々についての形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成 する各フレームごとに即時的に行うことによって、該複数の物体の各々についての第1及び第2の特徴情報を即時的に連続して計測し、
これにより前記複数の物体の各々について得られた前記第1及び第2の特徴情報を即時的に連続して解釈し、
これにより得られた前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成し、
生成された前記音情報を出力することを特徴とする音情報生成方法。A plurality of independent objects to be operated by the user are continuously captured as moving images, and sound information generated based on feature information obtained from the image of the object is output after the user operates the object. A sound information generation method in a sound information generation system that performs immediately until
A first image in which the plurality of objects are illuminated by both natural light and irradiation light and a second image in which the plurality of objects are illuminated only by the natural light are captured by the same imaging device. Then, by obtaining a difference between the first image and the second image, a third image in a state where the plurality of objects are illuminated only by the irradiation light is obtained, and from the second image, A series of procedures for obtaining first feature information relating to the appearance of each of the plurality of objects and obtaining second feature information relating to the shape of each of the plurality of objects from the third image, Immediately and continuously measuring the first and second feature information for each of the plurality of objects by performing immediately for each frame constituting the image ,
Thus, the first and second feature information obtained for each of the plurality of objects is immediately and continuously interpreted,
Based on the interpretation result for the first and second feature information obtained thereby, corresponding sound information is generated,
A sound information generation method, characterized by outputting the generated sound information.
前記物体が自然光と照射光との両方に照らされた状態の第1の画像と、該物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該物体の外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該物体の形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該物体の第1及び第2の特徴情報を即時的に連続して計測する計測機能と、
前記計測機能により計測された前記第1及び第2の特徴情報を即時的に連続して解釈する解釈機能と、
前記解釈機能により解釈された前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成する音情報生成機能と、
前記音情報生成機能により生成された前記音情報を出力する音情報呈示機能とをコンピュータに実現させるためのプログラム。 Immediately after the user manipulates the object as a moving image, the user operates the object and outputs sound information generated based on the feature information obtained from the object image. A program for causing a computer to function as a sound information generation system
A first image in a state where the object is illuminated by both natural light and irradiation light and a second image in a state where the object is illuminated only by the natural light are photographed by the same imaging device, by taking the difference between the first image and the second image, we obtain the third image in a state where said object is illuminated by only該照Shako, from the second image, the first related to the appearance of the object A series of procedures for obtaining the feature information of 1 and for obtaining the second feature information on the shape of the object from the third image for each frame constituting the moving image, A measurement function for measuring the first and second feature information of the object immediately and continuously ;
An interpretation function for immediately and continuously interpreting the first and second feature information measured by the measurement function;
A sound information generation function for generating corresponding sound information based on the interpretation results for the first and second feature information interpreted by the interpretation function;
A program for causing a computer to realize a sound information presenting function for outputting the sound information generated by the sound information generating function.
前記複数の物体が自然光と照射光との両方に照らされた状態の第1の画像と、該複数の物体が該自然光のみに照らされた状態の第2の画像とを同一の撮像装置により撮影し、該第1の画像と該第2の画像との差分を取ることによって、該複数の物体が該照射光のみによって照らされた状態の第3の画像を求め、該第2の画像から、該複数の物体の各々についての外観に関する第1の特徴情報を求めるとともに、該第3の画像から、該複数の物体の各々についての形状に関する第2の特徴情報を求める一連の手順を、前記動画像を構成する各フレームごとに即時的に行うことによって、該複数の物体の各々についての第1及び第2の特徴情報を即時的に連続して計測する計測機能と、
前記計測機能により前記複数の物体の各々について計測された前記第1及び第2の特徴情報を即時的に連続して解釈する解釈機能と、
前記解釈機能により解釈された前記第1及び第2の特徴情報に対する解釈結果に基づいて、対応する音情報を生成する音情報生成機能と、
前記音情報生成機能により生成された前記音情報を出力する音情報呈示機能とをコンピュータに実現させるためのプログラム。A plurality of independent objects to be operated by the user are continuously captured as moving images, and sound information generated based on feature information obtained from the image of the object is output after the user operates the object. A program for causing a computer to function as a sound information generation system that performs immediately until
A first image in which the plurality of objects are illuminated by both natural light and irradiation light and a second image in which the plurality of objects are illuminated only by the natural light are captured by the same imaging device. Then, by obtaining a difference between the first image and the second image, a third image in a state where the plurality of objects are illuminated only by the irradiation light is obtained, and from the second image, A series of procedures for obtaining first feature information relating to the appearance of each of the plurality of objects and obtaining second feature information relating to the shape of each of the plurality of objects from the third image, A measurement function that immediately and continuously measures the first and second feature information of each of the plurality of objects by performing immediately for each frame constituting the image ;
An interpretation function for immediately and continuously interpreting the first and second feature information measured for each of the plurality of objects by the measurement function;
A sound information generation function for generating corresponding sound information based on the interpretation results for the first and second feature information interpreted by the interpretation function;
A program for causing a computer to realize a sound information presenting function for outputting the sound information generated by the sound information generating function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002324106A JP3813919B2 (en) | 2002-11-07 | 2002-11-07 | Sound information generation system and sound information generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002324106A JP3813919B2 (en) | 2002-11-07 | 2002-11-07 | Sound information generation system and sound information generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004157394A JP2004157394A (en) | 2004-06-03 |
JP3813919B2 true JP3813919B2 (en) | 2006-08-23 |
Family
ID=32803795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002324106A Expired - Fee Related JP3813919B2 (en) | 2002-11-07 | 2002-11-07 | Sound information generation system and sound information generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3813919B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8660679B2 (en) | 2010-12-02 | 2014-02-25 | Empire Technology Development Llc | Augmented reality system |
US9596538B2 (en) * | 2014-12-12 | 2017-03-14 | Intel Corporation | Wearable audio mixing |
-
2002
- 2002-11-07 JP JP2002324106A patent/JP3813919B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004157394A (en) | 2004-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9529566B2 (en) | Interactive content creation | |
Winkler | Making motion musical: Gesture mapping strategies for interactive computer music | |
TWI486904B (en) | Method for rhythm visualization, system, and computer-readable memory | |
JP6805422B2 (en) | Equipment, programs and information processing methods | |
JP2009070400A (en) | Device for interacting with real-time streams of content | |
JP4127561B2 (en) | GAME DEVICE, OPERATION EVALUATION METHOD, AND PROGRAM | |
JP2011529580A (en) | Learning device | |
WO2009007512A1 (en) | A gesture-controlled music synthesis system | |
JP6268287B2 (en) | Moving image generating apparatus, moving image generating method, and program | |
JP3813919B2 (en) | Sound information generation system and sound information generation method | |
JP6313003B2 (en) | Karaoke apparatus, image output method, and program | |
JP5318016B2 (en) | GAME SYSTEM, GAME SYSTEM CONTROL METHOD, AND PROGRAM | |
JP2006217183A (en) | Data processor and program for generating multimedia data | |
JP2000047675A (en) | Singing sound device and action expression deciding method | |
Borchers et al. | MICON: a music stand for interactive conducting | |
Hamilton | Perceptually coherent mapping schemata for virtual space and musical method | |
WO2018070487A1 (en) | Spatial sound generation device, spatial sound generation system, spatial sound generation method, and spatial sound generation program | |
Martin | Touchless gestural control of concatenative sound synthesis | |
TW201220818A (en) | characterized by combining a first real image with a first virtual image to display a first combined picture at a plurality of second ends | |
Zaveri et al. | Aero Drums-Augmented Virtual Drums | |
JP4580812B2 (en) | Video generation method, stand-alone video playback device, and network distribution video playback system | |
Grond et al. | Virtual Auditory Myography of Timpani-playing Avatars | |
JP2023154236A (en) | Information processing system, information processing method, and program | |
Magrini et al. | Real Time System for Gesture Tracking in Psycho-motorial Rehabilitation. | |
JP3535360B2 (en) | Sound generation method, sound generation device, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040609 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060307 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060601 |
|
LAPS | Cancellation because of no payment of annual fees |