JP5114871B2 - 映像提供装置 - Google Patents

映像提供装置 Download PDF

Info

Publication number
JP5114871B2
JP5114871B2 JP2006151446A JP2006151446A JP5114871B2 JP 5114871 B2 JP5114871 B2 JP 5114871B2 JP 2006151446 A JP2006151446 A JP 2006151446A JP 2006151446 A JP2006151446 A JP 2006151446A JP 5114871 B2 JP5114871 B2 JP 5114871B2
Authority
JP
Japan
Prior art keywords
video
image
user
unit
feature data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006151446A
Other languages
English (en)
Other versions
JP2007323268A (ja
Inventor
雄介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2006151446A priority Critical patent/JP5114871B2/ja
Publication of JP2007323268A publication Critical patent/JP2007323268A/ja
Application granted granted Critical
Publication of JP5114871B2 publication Critical patent/JP5114871B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像提供装置に関し、より詳細には、データベースから映像を検索して提供する映像提供装置に関する。
例えば手話のような、語や文章、記号に対応付けられた特定の意味を有する動作を含む映像を、複数の映像が記憶されたデータベースから検索する検索装置が、学習等の目的のため用いられている。従来、このような検索装置は、例えば、手の位置、手の形等の分類を、表示される候補の中から随時ボタンやマウス等によって範囲を選択して絞り込むといった作業が必要なものであった(例えば、特許文献1)。
特開2000−3127号公報
しかし、上記のように、動作の分類を選択する検索方法では、検索されるべき映像の情報をユーザがある程度正確に把握していることが必要である。また、ダイナミックサーチと呼ばれる検索キーと検索結果との動的な変更が難しい等の問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザの動作に基づいて映像を検索して提供することの可能な、新規かつ改良された映像提供装置を提供することにある。
上記課題を解決するために、本発明のある観点によれば、特定の概念を表す身体の動作に対応した動作映像を提供する映像提供装置が提供される。かかる映像提供装置は、複数の動作映像および各動作映像を特徴付ける特徴データを記憶する映像記憶部と、ユーザの身体の動作から特徴データを取得するユーザ特徴データ取得部と、ユーザ特徴データ取得部により取得された特徴データと映像記憶部に記憶された特徴データとを比較して、映像記憶部からユーザの身体の動作に類似する動作映像を取得する映像検索部とを備えることを特徴とする。
本発明によれば、映像提供装置は、複数の動作映像と、その動作映像を特徴付ける特徴データを記憶する映像記憶部を備えている。一方、映像提供装置は、ユーザが行う動作から、その動作を特徴付ける特徴データを映像記憶部に記憶された動作映像の特徴データと同様の形式で取得する。そして、映像提供装置は、映像記憶部に記憶された特徴データと、ユーザの動作から取得された特徴データとを比較して、類似すると判定された特徴データに対応する動作映像を取得する。これにより、ボタンやマウス等を用いずに、ユーザの動作から所望の動作映像を取得することが可能となる。
ここで、ユーザ特徴データ取得部は、1つの動作映像から所定の時間ごとに複数の静止画像を取得し、取得した複数の静止画像から、該静止画像における身体の特定部位(例えば手)の位置を特徴データとしてそれぞれ抽出するようにしてもよい。さらに、ユーザ特徴データ取得部は、取得した複数の静止画像から、身体の特定部位(例えば手)の形状を特徴データとしてそれぞれ抽出することもできる。すなわち、この場合には、時間の経過とともに変化する身体の特定部位の位置や形状の変化を、所定の時間ごとに特徴データを取得することで、動作の変化をデータとして把握する。
また、ユーザ特徴データ取得部は、ユーザの身体の動作を映像として取得する映像取得部と、取得した映像からユーザの身体の動作を特徴付ける特徴データを抽出する特徴データ抽出部とを備えてもよい。すなわち、動作するユーザを映像取得部により撮影して映像を取得し、この映像から特徴データを抽出することができる。あるいは、ユーザ特徴データ取得部は、ユーザが装着することにより、該ユーザの身体の動作を特徴付ける特徴データを取得することの可能な装着型入出力装置、例えばデータグローブを備えることもできる。このような装置を用いれば、データの加工をせずとも直接的に特徴データを取得することが可能である。
映像検索部は、ユーザ特徴データ取得部により取得された特徴データと映像記憶部に記憶された特徴データとの類否判断を、例えばDPマッチングを用いて行うことができる。
また、ユーザ特徴データ取得部は、特徴データとして、1つの動作映像から1つの静止画像を作成して取得することもできる。この場合、ユーザ特徴データ取得部は、ユーザの身体の動作を映像として取得する映像取得部と、映像取得部により取得された映像から静止画像を作成する映像加工部とを備える。映像検索部は、映像加工部により作成された静止画像と映像記憶部に記憶された静止画像とを比較して、映像記憶部からユーザの身体の動作に類似する動作映像を取得する。
ここで、映像加工部は、映像取得部により取得された1つの映像から複数の静止画像を抽出し、抽出された該複数の静止画像の各画素について、画素値を平均化して平均画素値を算出して、算出された各画素の平均画素値から1つの平均化画像を作成することができる。すなわち、この場合には、時間の経過とともに変化する身体の特定部位の位置や形状の変化を、時間を畳み込んだ1つの静止画像を作成することにより、動作の変化をデータとして把握する。
また、映像提供装置は、映像取得部により取得された映像から、ユーザの身体の特定部位が位置する領域を認識する画像認識部をさらに備えることもできる。映像記憶部が、動作映像における人物の身体の特定部位が位置する領域にしたがって、動作映像を分類して記憶している場合、画像認識部は、認識した領域に基づいて、映像記憶部に記憶された動作映像のうち、特定の分類に属する動作映像のみを検索対象として決定する。すなわち、検索する記憶部に記憶される情報を大まかに分類しておくことにより、ユーザの動作と大きく異なる動作映像を検索対象から除外することができるので、検索処理を高速化することが可能となる。
また、映像検索部は、ユーザ特徴データ取得部により取得された特徴データと映像記憶部に記憶された特徴データとの類否判断を、例えばパターンマッチング処理により行うことができる。具体的には、例えば差分総和法や正規化相関法等の方法を用いることができる。
さらに、映像提供装置は、ユーザ特徴データ取得部により取得されたユーザの身体の動作、または映像取得部により取得された動作映像のうち、少なくとも1つを表示することの可能な映像表示部をさらに備えることができる。かかる映像表示部には、ユーザが動作を行う時間を示す動作時間表示部を設けてもよい。
また、本発明にかかる映像提供装置は、ユーザ特徴データ取得部により取得された特徴データに応じて、映像表示部における映像の表示を制御する制御部をさらに備えることもできる。かかる制御部は、例えばユーザの特徴データとして身体の手の位置を取得した場合、手の位置が映像表示部の特定の領域に位置すると判定した場合に、例えば表示する映像を拡大する制御命令を映像表示部に送信する。このように、制御部は、ユーザの特徴データに応じて、映像表示部の表示を制御する。
このような映像提供装置に適用する動作映像は、例えば、特定の意味を表現する手話とすることができる。この際、表示部には、1または2以上の手話単語を表す映像を表示するようにしてもよい。手話は身体の動作により意味を伝達するため、動作を中断せずに検索、画面操作等を行うことができる点で本発明の映像提供装置への適用に適している。
以上説明したように本発明によれば、ユーザの動作に基づいて映像を検索して提供することの可能な映像提供装置を提供することができる。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下に示す各実施形態では、手話の学習に際して使用することを想定した、ユーザが行う動作と類似する手話動作をデータベースから検索する装置への適用例について説明する。
(第1の実施形態)
まず、図1〜4に基づいて、本発明の第1の実施形態にかかる映像提供装置について説明する。ここで、図1は、本実施形態にかかる映像提供装置100の構成を示すブロック図である。図2は、手の位置情報を説明するための説明図である。図3は、検索情報データベース160に記憶される情報の例を示す説明図である。図4は、手の形を説明するための説明図である。
図1に示すように、本実施形態にかかる映像提供装置100は、映像取得部110と、画像処理部120と、画像認識部130と、情報検索部140と、映像表示部150と、検索情報データベース160と、映像データベース170とを備える。また、符号10は、映像検索を行うユーザである。
映像取得部110は、ユーザ10の動作を撮影して動作映像を取得する機能部であり、例えばカメラを用いることができる。映像取得部110は、外部から入力される指示にしたがって動作可能であり、向き、ズーム動作、パン・チルト動作等の撮影条件を変更することができる。映像取得部110により取得された映像は、画像処理部120に送信される。なお、映像提供装置100の構成により、1または2以上の映像取得部110を備えることができる。
画像処理部120は、映像取得部110により取得された映像から静止画像を取得し、取得した静止画像に対して画像処理を行う機能部である。画像処理部120により取得された静止画像は、画像認識部130に送信される。
画像認識部130は、画像処理部120により取得された静止画像から特徴データを抽出する機能部である。本実施形態における特徴データは、静止画像におけるユーザ10の重心位置、手の位置、手の形等からなる。例えば、ユーザ10の重心位置および手の位置は、ユーザ10が表示された画面を、図2左下を原点(0、0)とするxy座標系として、画面内での手の位置を二次元座標で表した値により示すことができる。例えば、図2に示すように、ユーザ10の重心位置は、ユーザ10の体領域の重心位置G(X、Y)とし、手の位置は、右手領域、左手領域の各重心位置を左右の手の位置P(X、Y)、P(X、Y)としてもよい。画像認識部130により取得された特徴データは、情報検索部140に送信される。
情報検索部140は、ユーザ10の動作と類似する動作映像を検索する機能部である。情報検索部140は、画像認識部130から受信した特徴データを、1つの動作映像の時間に相当する所定時間分蓄積し、蓄積した特徴データと対応する動作映像の映像IDを検索情報データベース160から取得する。後述する検索情報データベース160には、動作映像に付された固有の映像IDと、検索のために動作映像からあらかじめ抽出された特徴データ等が記憶されている。ユーザ10の動作と類似する動作映像の映像IDは、例えばDP(Dynamic Programming)マッチング等の既存の方法を用いて、画像認識部130により取得されたユーザ10の特徴データと、検索情報データベース160に記憶された特徴データとを比較することにより検索することができる。このとき、1または2以上の映像IDが、検索情報データベース160から取得される。また、複数の映像IDを取得した場合には、例えば所定の値に設定された類似度等に基づいて、動作映像に対してユーザ10に提示する順序付けを行うこともできる。
映像表示部150は、映像を表示する機能部であり、例えばディスプレイ等を用いることができる。映像表示部150には、映像取得部110が取得したユーザ10の動作の映像や、情報検索部140により取得された映像IDに対応する動作映像等が表示される。
検索情報データベース160は、情報検索部140による映像ID検索のために用いるデータを記憶する記憶部であり、例えばRAMやハードディスク等のメモリを含んで構成される。検索情報データベース160は、少なくとも、映像データベース170に記憶されている動作映像に関連付けられた映像IDと、情報検索部140が検索に用いる、ユーザ10の動作を示す特徴データと比較可能なデータとが記憶されている。ここで、「ユーザ10の動作を示す特徴データと比較可能なデータ」とは、ユーザ10の動作の映像についての特徴データと同一の形式で、映像データベース170に記憶された映像から抽出された特徴データをいう。例えば、手話の例を挙げれば、動作映像における一定時間ごとの手の位置や手の形等が数値として格納される。
検索情報データベース160は、例えば、図2に示すように、映像ID161、日本語ラベル162、ファイル名163、特徴データ164等を記憶している。映像ID161は、映像データベース170に記憶されている動作映像に関連付けられた固有の記号である。日本語ラベル162は、動作映像の示す内容の理解を容易にするために設けられる文字列であり、また、検索された動作映像を映像表示部150に表示する際に、検索結果の一部として表示することもできる。ファイル名163は、動作映像のファイル名を示す。
特徴データ164は、動作映像から抽出された一定時間分のデータであり、例えば、左右の手について手の位置、手の形を一定の時間ごとに記憶している。ここで、「手の位置」とは、図2を参照しながら上述したように、二次元座標上の位置で表される手の位置である。また、「手の形」とは、指を伸ばしたり曲げたりすることにより表される手の形状をいう。図4に、手の形と記号とを対応付けした例を示す。例えば、通常手話の場合、手の形は約80種類に区別されている。例えば、手を握った形状を0、0の状態から親指を開いた形状を10、人差し指と中指を開いて前方にほぼ直角に傾けた形状を65等のように対応させることができる。
映像データベース170は、情報検索部140により取得された映像IDに関連付けられた動作映像を記憶する記憶部であり、例えばRAMやハードディスク等のメモリを含んで構成される。映像データベース170は、例えば、映像ID、動作映像等を記憶している。映像データベース170に記憶される動作映像は、検索結果として、映像表示部150を介してユーザ10に提示される映像である。
このような構成の映像提供装置100を用いた検索では、例えば図5に示すように、映像表示部150に、映像取得部110により取得されたユーザ10の動作を示す画像155および情報検索部140の検索により取得された動作映像157が表示させることにより、ユーザ10に対して検索結果を提示することができる。次に、図6および図7に基づいて、かかる映像提供装置100による動作映像の検索処理について説明する。ここで、図6は、初期設定の処理を示すフローチャートである。図7は、映像提供装置100による動作映像の検索処理を示すフローチャートである。
<1.初期設定処理>
映像提供装置100の初期設定は、映像取得部110から出力される映像の質を最適化するために行う処理であり、かかる処理により、検索の精度を向上させることができる。映像提供装置100の初期設定では、図6に示すように、まず、画像認識部130により、初期設定用テンプレート画像(以下、「テンプレート画像」とする。)について、特徴データを抽出して保持する(S101)テンプレート画像とは、ユーザ10に指示する姿勢と同一の姿勢を最適な撮影条件下において撮像した静止画像である。すなわち、ステップS101では、テンプレート画像の、例えば手の位置および手の形を認識する。
次いで、ユーザ10に対してテンプレート画像と同一の姿勢をとるように指示し、ユーザ10の姿勢を映像取得部110により撮影する(S103)。ステップS103では、映像表示部150にテンプレート画像を表示することにより、ユーザ10に動作を促すことができる。また、ユーザ10は、例えば初期設定が終了するまで姿勢を変更しないことが望ましい。
さらに、画像処理部120により、映像取得部110で取得した映像から、1つの画像を取得する(S105)。取得される画像は、例えば、映像の撮像時間の中間時点における画像とすることができる。画像処理部120により取得された画像は、画像認識部130に送信される。
その後、画像処理部120により取得された静止画像について、特徴データを抽出する(S107)。ステップS107において抽出する特徴データは、ステップS101において抽出されたテンプレート画像の特徴データと同様、例えば手の位置および手の形に関する情報とすることができる。手の位置は映像のxy座標における座標値により、手の形は各形状に対応付けられた記号により、数値として表すことができる。そして、ユーザの姿勢に関する特徴データとテンプレート画像の特徴データとを比較して、映像提供装置100の設定の調整を行う。
まず、映像撮像部110により取得された映像から得た画像において、ユーザが画像の中心位置にいるか否かを判定する(S109)。ステップS109において、ユーザが画像の中心位置にいると判定された場合には、ステップS111の処理に移行する。一方、ユーザが画像の中心位置から外れていると判定された場合には、映像取得部110の調整を行う(S113)。この場合、例えば映像取得部110を、ユーザが画像の中心位置から外れて位置する方向と反対方向に回転移動させる等の調整が行われる。ステップS113における調整処理を終えると、再度ステップS105の処理を実行する。
次いで、映像撮像部110により取得された映像において、映像内のユーザの大きさが適当か否かを判定する(S111)。ステップS111において映像内のユーザの大きさが適当であると判定された場合には、初期処理を終了する。一方、映像内のユーザの大きさが大きすぎたり小さすぎたりして不適当であると判定された場合には、映像取得部110の調整を行う(S113)。この場合、例えば映像取得部110のズーム調整等の調整が行われる。ステップS113における調整処理を終えると、再度ステップS105の処理を実行する。
以上の処理を行うことにより、最終的に、映像取得部110は、撮影したユーザが画面の中心位置に、適当な大きさで表示される映像を取得することができるように設定される。
以上、映像提供装置100の初期処理について説明した。かかる初期処理では、映像取得部110から取得された映像から静止画像を取得し、取得した静止画像に対して特徴データを抽出する認識処理を行う。そして、認識処理結果に基づいて映像取得部110に撮影状況修正のための指示を送信することにより、映像取得部110から出力される映像の質を向上させることが可能となる。
なお、初期設定方法は、上述した方法に限定されない。例えば、テンプレート画像や映像取得部110により取得する映像の特徴データは、映像全体に対するものではなく、映像の一部分に関するデータでも構わない。また、映像取得部110により取得する映像の特徴データは、映像の一部分に関するデータでもよく、周波数領域に展開したもの、モザイク処理や中間値を取得して画像の画素数を減らしたデータ、またはこれらのデータに対して処理を施したもの等であってもよい。
<2.動作映像検索処理>
次に、図7に基づいて、本実施形態にかかる映像提供装置100における動作映像の検索処理について説明する。まず、ユーザの動作を映像取得部110により映像として取得する(S115)。映像取得部110により取得された映像は、画像処理部120に送信される。
次いで、画像処理部120は、映像取得部110から受信した映像から静止画像を取得する(S117)。画像処理部120は、例えば、1つの映像から所定の時間ごとに複数の静止画像を取得する。こうして取得された複数の静止画像は、画像認識部130に送信される。
さらに、画像認識部130は、画像処理部120より受信した複数の画像について、それぞれ特徴データを取得する(S119)。ステップS119では、検索情報データベース160に記憶された動作映像の特徴データと比較して、ユーザの動作と類似する動作映像を検索するために用いられるための情報を取得する。本実施形態では、ユーザの左右の手の位置および手の形等の情報が取得される。取得された特徴データは、画像認識部130から情報検索部140へ送信される。
その後、情報検索部140は、画像認識部130により取得された特徴データに基づいて、検索情報データベース160からユーザの動作と類似する動作内容を含む動作映像の映像IDを取得する(S121)。情報検索部140は、まず、画像認識部130により取得された特徴データを一定時間分蓄積する。そして、蓄積された特徴データと検索情報データベース160に記憶された特徴データとを比較する。
具体的には、例えば、DPマッチングを用いることができる。ここで、DPマッチングとは、音声認識など、パターン認識の分野で広く用いられている手法である。例えば、時系列データで与えられる系列長の異なる2つの時系列パターンの類似度を求めることができる。認識に用いる場合には、入力された時系列のパターンと、認識の対象となる比較対象時系列パターンとを、時間などの制約のもとで、可能な照合と類似度計算を実施する。各時点における類似度を所定の時間の範囲で累積した値を入力パターンと比較パターンとの距離とし、入力パターンと認識の対象となるすべてのデータのパターンとの距離を計算し、その中で最小の距離を示すデータを認識結果とする。この計算は、動的計画法を用いると効率よく解くことができるため、DPマッチングと呼ばれている。
これにより、ユーザの動作を示す特徴データと類似度の高いデータを有する動作映像の映像IDを取得する。取得される映像IDの数は、1または2以上とすることができ、あらかじめ設定してもよく、所定の類似度以上の映像を示すようにしてもよい。取得された映像IDは、映像表示部150に送信される。このとき、映像IDとともに、日本語ラベル、映像ファイル名を送信してもよい。
次いで、映像表示部150は、情報検索部140により取得された映像IDに基づいて、映像IDに対応付けられた動作映像を映像データベース170より取得する(S123)。そして、取得された映像は、映像表示部150に表示される(S125)。この際、映像表示部150が情報検索部140から日本語ラベルも受信している場合には、日本語ラベルも映像表示部150に表示してもよい。このようにして、検索結果をユーザに提示することができる。
以上、第1の実施形態にかかる情報提供装置100について説明した。本実施形態によれば、手の位置や手の形を、マウスなど入力装置を用いて明示的に選択することなく、カメラなどの映像取得部110によりユーザ10の動作を検索情報として入力することにより、ユーザ10の動作に類似した動作内容を有する動作映像を容易に検索でき、ユーザ10に提供することができる。
(第2の実施形態)
次に、図8および図9に基づいて、本発明の第2の実施形態にかかる映像提供装置について説明する。なお、図8は、本実施形態にかかる映像提供装置200の構成を示すブロック図である。図9は、本実施形態にかかる映像検索処理を示すフローチャートである。
本実施形態にかかる映像提供装置200は、ユーザ情報取得部210と、情報検索部220と、映像表示部230と、検索情報データベース240と、映像データベース250とを備える。本実施形態にかかる映像提供装置200は、第1の実施形態と比較して、映像取得部110の代わりに、ユーザ10の動作を取得するためのユーザ情報取得部210を備える点で相違する。なお、図8における符号20は、ユーザ10の手を表している。
ユーザ情報取得部210は、ユーザ10の動作を示す情報(特徴データ)を映像以外の方法で取得する機能部であり、例えば、データグローブ(手袋状の入出力装置)等を用いることができる。ユーザ10は、例えば、データグローブを手20に装着して動作することにより、特徴データとして使用される手の位置情報、手の形等の手に関する情報を直接的に取得することができる。このため、第1の実施形態のように画像処理部120による画像処理、画像認識部130による特徴データの取得処理を行わなくともよい。ユーザ情報取得部210で取得された特徴データは、情報検索部220に送信される。
なお、情報検索部220、映像表示部230、検索情報データベース240および映像データベース250は、第1の実施形態にかかる情報検索部140、映像表示部150、検索情報データベース160および映像データベース170にそれぞれ対応し、同一の機能を有するため、ここではその説明を省略する。
次に、本実施形態にかかる映像提供装置200による動作映像の検索処理について説明する。なお、第1の実施形態と同一の処理については、その詳細な説明は省略する。
<動作映像検索処理>
まず、図9に示すように、ユーザの動作をユーザ情報取得部210により取得する(S201)。ユーザ10は、例えばデータグローブ等のユーザ情報取得部210を装着して動作することにより、特徴データとして、例えばユーザ10の手の位置および手の形に関する情報が一定時間ごとに取得される。ユーザ情報取得部210により取得された特徴データは、情報検索部220に送信される。なお、ユーザ情報取得部210の初期設定処理は、必要に応じて行えばよい。
次いで、情報検索部220は、ユーザ情報取得部210により取得された特徴データに基づいて、検索情報データベース240からユーザの動作と類似する動作内容を含む動作映像の映像IDを取得する(S203)。情報検索部220は、まず、ユーザ情報取得部210により取得された特徴データを一定時間分蓄積する。そして、蓄積された特徴データと検索情報データベース240に記憶された特徴データとを比較する。具体的には、例えば、DPマッチングを用いることができる。取得される映像IDの数は、1または2以上とすることができ、あらかじめ設定してもよく、所定の類似度以上の映像を示すようにしてもよい。取得された映像IDは、映像表示部230に送信される。このとき、映像IDとともに、日本語ラベル、映像ファイル名を送信してもよい。
さらに、映像表示部230は、情報検索部220により取得された映像IDに基づいて、映像IDに対応付けられた動作映像を映像データベース250より取得する(S205)。そして、取得された映像は、映像表示部230に表示される(S207)。この際、映像表示部230が情報検索部220から日本語ラベルも受信している場合には、日本語ラベルも映像表示部230に表示してもよい。このようにして、検索結果をユーザに提示することができる。
以上、第2の実施形態にかかる情報提供装置200について説明した。本実施形態によれば、手の位置や手の形を、マウスなど入力装置を用いて明示的に選択することなく、ユーザ情報取得部210によりユーザ10の動作を示す特徴データを検索情報として入力することにより、ユーザ10の動作に類似した動作内容を有する動作映像を容易に検索でき、ユーザ10に提供することができる。
さらに、本実施形態にかかる情報提供装置200は、第1の実施形態と比較して、ユーザの動作を示す特徴データを、映像からではなくユーザ情報取得部210により直接取得する。すなわち、第1の実施形態のように画像処理、画像認識時の手の位置、手の形状の抽出処理の精度によって、検索情報データベースから取得された、ユーザへ提供される映像は変動する可能性がある。一方、本実施形態では、このように画像処理、画像認識の精度に依存することなく、一定の精度でユーザの動作を示す特徴データを取得することができる。このため、例えば、ユーザの背景が複雑すぎるために、映像からは精度よくユーザの位置情報等を抽出することが困難な場合にも、画像処理等を行うことなくユーザの動作を示す特徴データを取得することができるので、精度よく検索処理を行うことができる。
(第3の実施形態)
次に、図10〜図13に基づいて、第3の実施形態にかかる映像提供装置300について説明する。ここで、図10は、本実施形態にかかる映像提供装置300の構成を示すブロック図である。図11は、平均化画像の生成方法を示すフローチャートである。図12は、平均化画像の生成方法を説明するための説明図である。図13は、本実施形態にかかる映像提供装置300による動作映像の検索処理を示すフローチャートである。
本実施形態にかかる映像提供装置300は、図10に示すように、映像取得部310と、映像加工部320と、画像検索部330と、映像表示部340と、平均化画像データベース350と、映像データベース360とを備える。なお、映像取得部310、画像検索部330、映像表示部340および映像データベース360は、第1の実施形態にかかる映像取得部110、情報検索部140、映像表示部150および映像データベース170にそれぞれ対応している。このため、同一の機能についてはその詳細な説明を省略する。
映像加工部320は、映像取得部310により取得された映像に対して加工処理を行い、画像検索部330が行う検索処理に用いる形式の画像を作成するための機能部である。本実施形態の映像加工部320は、映像取得部310により取得された映像から、後述する平均化画像を作成し、平均化画像を検索するための特徴データとして画像検索部330へ送信する。
映像表示部340は、映像を表示する機能部であり、例えばディスプレイ等を用いることができる。映像表示部340には、図5に示すように、映像取得部310が取得したユーザ10の動作の映像や、画像検索部330により取得された映像IDに対応する動作映像等が表示され、さらに、ユーザ10に対して動作を行うべき時間を指示する動作時間指示部153を設けることができる。動作時間指示部153は、例えば、時間の経過とともに動作時間指示部153の領域内を塗りつぶし、または移動して時間経過を示すバーとすることにより実現することができる。このように、ユーザ10に対して動作指示を行うことにより、映像取得部310により取得される動作の開始部分および終了部分を定めることができる。
平均化画像データベース350は、映像データベース360に記憶された動作映像から、後述する平均化画像作成方法により作成された平均化画像を記憶する記憶部である。平均化画像は、映像データベース360に記憶された動作映像と同様、動作映像を特定するために関連付けられた映像IDと関連付けて記憶されている。さらに、日本語ラベルも平均化画像に関連付けて記憶してもよい。
このような映像提供装置300は、映像加工部320により映像取得部310が取得した映像を加工して作成された平均化画像と、映像データベース360の各動作映像について作成された平均化画像とを比較した結果に基づいて、映像データベース360からユーザ10の動作と類似する動作内容を有する動作映像を取得することを特徴とする。そこで、以下に、平均化画像作成処理、および映像提供装置300による動作映像の検索処理について詳細に説明する。
<1.平均化画像作成処理>
本実施形態において、平均化画像とは、映像を構成する静止画像の各時間における各座標値の平均により作成される静止画像をいう。平均化画像作成処理では、まず、映像加工部320は、映像取得部310により取得された映像から複数の静止画像を取得する(S3091)。例えば、図12に示すような、1つの動作を撮影した映像350があるとする。映像加工部320は、映像350から各時間における静止画像を取り出し、取り出した各静止画像の背景を除去する処理を行う。背景除去がなされた各静止画像は、図12において、350Im(_1〜_N、Nは正の整数)で表される。
次いで、各静止画像350Imにおける同一座標における画素値を平均化する(S3093)。図12における各静止画像350Imの同一座標における画素値をP(x、y)(_1〜_N、Nは正の整数)で表したとすると、これらの画素値の平均(以下、「平均画素値」という。)は、以下の数式1で表される。
Figure 0005114871
このように、静止画像350Imを構成する各画素について、平均画素値を算出する。
その後、ステップS3093により算出された各画素における平均画素値から平均化画像360Imが作成される(S3095)。作成された平均化画像360Imは、換言すると、映像時間を畳み込んで作成された画像であり、手の位置の変化や手の形状の変化、変化の緩急等の情報を含んでいる。このようにして、時間経過に伴う動作の変化を組み込んだ1つの静止画像(平均化画像)を作成することができる。
<2.動作映像検索処理>
次に、図13に基づいて、本実施形態にかかる映像提供装置300における動作映像の検索処理について説明する。なお、本実施形態における検索処理の前に、第1の実施形態にて説明した初期設定処理を行ってもよい。
まず、映像提供装置300は、ユーザ10に対して、動作開始の指示を行う(S301)。動作開始の指示は、例えば図5に示すように、映像表示部340に動作時間指示部153を設け、動作時間指示部153にバーを表示させ始めることにより行うことができる。映像提供装置300は、動作開始の指示を行った後、映像取得部310によるユーザ10の撮影を開始する(S303)。
動作開始の指示を受けたユーザ10は、動作を開始する(S305)。そして、所定の時間の経過後、映像提供装置300は、ユーザ10に対して動作終了の指示を行う(S307)。動作終了の指示は、例えば映像表示部340に設けられた動作時間指示部153の範囲内がバーにより満たされたことにより行うことができる。映像提供装置300は、動作終了の指示を行った後、映像取得部310によるユーザ10の撮影を終了する。このようにして取得されたユーザ10の動作の映像は、映像取得部310から映像加工部320に送信される。
次いで、映像加工部320は、受信した映像から平均化画像を作成する(S309)。ステップS309では、画像検索部330による検索処理に用いる平均化画像を、例えば上述の平均化画像作成処理により作成する。なお、平均化画像を取得するアルゴリズムは、上記の例に限定されず、例えば論理和を用いる等、同様の効果が得られる方法を用いてもよい。映像加工部320により作成された平均化画像は、画像検索部330に送信される。
さらに、画像検索部330は、受信した平均化画像に基づいて、平均化画像データベース350を検索し、平均化画像と類似する画像と対応する映像IDを取得する(S311)。画像検索部330は、ユーザ10の動作の映像から作成した平均化画像と平均化画像データベース350が記憶する動作映像の平均化画像とを比較する。そして、類似度が高いと判定された平均化画像データベース350の平均化画像について、この平均化画像に関連付けられた映像IDを取得する。
ステップS311の画像検索は、例えば、パターンマッチング処理において一般的に使用される差分総和法、正規化相関法等の既存の方法を用いることができる。画像の類否判断は、例えば、各画像の各座標における画素値の差分の合計値を算出し、その差分の合計値が小さいものをより類似度が高い画像であると判断することができる。そして、画像検索部330は、類似度の高い画像を1または2以上選択して、選択した画像に関連付けられた映像IDを取得して、映像表示部340に送信する。画像の選択は、例えば、類似度の高いものから所定数だけ選択してもよく、所定の類似度以上の値を有する画像を選択してもよい。
その後、映像表示部340は、受信した映像IDに対応する動作映像を映像データベース360から取得し、映像表示部340に表示する(S315)。この際、映像表示部340が画像検索部330から日本語ラベルも受信している場合には、日本語ラベルも映像表示部340に表示してもよい。このようにして、検索結果をユーザに提示することができる。
以上、第3の実施形態にかかる情報提供装置300について説明した。本実施形態では、映像を検索する際に、映像取得部により取得された映像から、認識処理を用いて特徴データを取得するのではなく、映像加工部320によって平均化画像を作成し、映像データベース360に記憶された各動作映像について作成された平均化画像と比較して、平均化画像間での類似度検索処理を行うことを特徴とする。
本実施形態によれば、手の位置や手の形を、マウスなど入力装置を用いて明示的に選択することなく、カメラなどの映像取得部310によりユーザ10の動作を検索情報として入力することにより、ユーザ10の動作に類似した動作内容を有する動作映像を容易に検索でき、ユーザ10に提供することができる。
さらに、映像検索処理において平均化画像を用いて検索することにより、第1の実施形態と比較して、比較するデータ量が少ないため検索処理が単純であり、ハードウェアへの実装、並列化が容易であるため、検索処理を高速化することができる。また、誤差の影響を受け難く、検索結果の制度を高めることもできる。第2の実施形態と比較しても、データグローブ等、ユーザ10の情報取得のために特別な装置を用意する必要がなく、装置を容易に構成することができる。
(第4の実施形態)
次に、図14および図15に基づいて、第4の実施形態にかかる映像提供装置400について説明する。ここで、図14は、本実施形態にかかる映像提供装置400の構成を示すブロック図である。図15は、本実施形態にかかる映像提供装置400による動作映像の検索処理を示すフローチャートである。
本実施形態にかかる映像提供装置400は、図14に示すように、映像取得部410と、映像加工部420と、画像処理部430と、画像認識部440と、画像検索部450と、映像表示部460と、平均化画像データベース470と、映像データベース480とを備える。なお、映像取得部410、画像加工部420、画像検索部450、映像表示部460、平均化画像データベース470および映像データベース480は、第3の実施形態にかかる映像取得部410、画像加工部320、画像検索部330、映像表示部340、平均化画像データベース350および映像データベース360にそれぞれ対応している。このため、同一の機能についてはその詳細な説明を省略する。
本実施形態にかかる映像提供装置400は、第3の実施形態と比較して、平均化画像データベース470を複数に分割し、平均化画像データベース470に記憶される平均化画像を、動作中の人物の手の位置等に基づいて大別することを特徴とする。平均化画像データベース470は、例えば、動作を行う人物の手が最もよく滞留する位置によって分類することができる。複数の平均化画像データベース470には、それぞれを区別するためのデータベースIDが付与されている。
画像処理部430は、映像取得部410により取得された映像から、検索すべき平均化画像データベース470を特定するために用いられる静止画像を取得する機能部である。本実施形態では、例えば、画像提供装置400によるユーザ10への動作開始の指示と動作終了の指示との中間時点における画像を取得する。画像処理部430により取得された静止画像は、画像認識部440に送信される。
画像認識部440は、画像処理部430により取得された画像から、検索すべき平均化画像データベース470を特定するための画像認識処理を行う機能部である。画像認識部440は、平均化画像データベース470の分類条件に基づいて画像を認識する。例えば、平均化画像データベース470が人物の手の滞留位置により分類されている場合、画像処理部430により取得された画像から手の位置を認識し、画像の手の位置と最も類似する条件により分類された平均化画像データベース470を決定する。画像認識処理部440は、決定された平均化画像データベース470のデータベースIDを、画像検索部450に送信する。
このような映像提供装置300は、映像加工部320により映像取得部310が取得した映像を加工して作成された平均化画像と類似する平均化画像を検索する際、あらかじめ所定の条件により大別された複数の平均化画像データベース470のうち、1つのデータベースについて検索することを特徴とする。以下に、本実施形態にかかる映像提供装置400による動作映像の検索処理について説明する。なお、第3の実施形態と同様の処理については、詳細な説明を省略する。
<動作映像検索処理>
まず、映像提供装置400は、ユーザ10に対して、動作開始の指示を行う(S401)。映像提供装置400は、動作開始の指示を行った後、映像取得部410によるユーザ10の撮影を開始する(S403)。
動作開始の指示を受けたユーザ10は、動作を開始する(S405)。そして、所定の時間の経過後、映像提供装置400は、ユーザ10に対して動作終了の指示を行う(S407)。映像提供装置400は、動作終了の指示を行った後、映像取得部410によるユーザ10の撮影を終了する。このようにして取得されたユーザ10の動作の映像は、映像取得部410から映像加工部420および画像処理部430に送信される。
次いで、映像加工部420は、受信した映像から平均化画像を作成する(S409)。ステップS409では、画像検索部330による検索処理に用いる平均化画像を、例えば第3の実施形態と同様、平均化画像作成処理により作成する。なお、平均化画像を取得するアルゴリズムは、上記の例に限定されず、同様の効果が得られる方法を用いてもよい。映像加工部420により作成された平均化画像は、画像検索部450に送信される。
一方、画像処理部430は、受信した映像から、検索すべき平均化画像データベース470を特定するための静止画像を取得する(S411)。本実施形態では、例えば、画像提供装置400によるユーザ10への動作開始の指示と動作終了の指示との中間時点における画像を取得する。そして、画像処理部430は、取得された中間時点における画像に対して、認識精度を高める目的で平滑化フィルタを利用したノイズ除去処理等の前処理を行い(S413)、画像認識部440に送信する。
画像認識部440は、受信した中間時点における画像から、手の位置や手の形等の情報を取得する(S415)。例えば、「スカート」という日本語ラベルで表される手話は、体の下側(腹部付近)での手の動きが多い。したがって、画像認識部440は、「スカート」を意味する動作を行ったユーザ10の映像から手の滞留位置は体の下側であることを認識する。手の位置は、例えば手の色、手の重心、手の形状等の情報から認識することができる。そして、画像認識部440は、手の滞留位置が主に体の下側である平均化画像を記憶した平均化画像データベース470を特定し、特定した平均化画像データベース470に付与されたデータベースIDを画像検索部450に送信する(S417)。
さらに、画像検索部450は、受信した平均化画像およびデータベースIDに基づいて、平均化画像データベース470を検索し、平均化画像と類似する画像と対応する映像IDを取得する(S419)。画像検索部450は、受信したデータベースIDと関連付けられた平均化画像データベース470についてのみ検索する。すなわち、ステップS417において、手の滞留位置が主に体の下側である平均化画像を記憶した平均化画像データベース470が特定された場合には、ステップS419ではかかる平均化画像データベース470のみが検索される。したがって、例えば、体の上側(例えば頭の上部)での手の動きが多い「晴れ」という日本語ラベルを意味する手話の動作映像は、別の平均化画像データベース470に記憶されているため、検索対象から除外される。このように、検索対象を絞り込むことが可能となる。
そして、平均化画像と平均化画像データベース470が記憶する動作映像の平均化画像とを比較し、類似度の高い平均化画像の映像IDを取得する。ステップS419における検索処理は、第3の実施形態におけるステップS313と同様であるので、その詳細は省略する。そして、画像検索部450は、取得した映像IDを映像表示部460に送信する。
その後、映像表示部460は、受信した映像IDに対応する動作映像を映像データベース480から取得し(S421)、映像表示部460に表示する(S423)。この際、映像表示部460が画像検索部450から日本語ラベルも受信している場合には、日本語ラベルも映像表示部460に表示してもよい。このようにして、検索結果をユーザに提示することができる。
以上、第4の実施形態にかかる情報提供装置400について説明した。本実施形態によれば、平均化画像データベース470を所定の分類条件にしたがって複数に分割し、分割された平均化画像データベース470のうち、検索すべき平均化画像データベース470を特定して、検索するデータベースの範囲を制限することを特徴とする。
本実施形態によれば、手の位置や手の形を、マウスなど入力装置を用いて明示的に選択することなく、カメラなどの映像取得部410によりユーザ10の動作を検索情報として入力することにより、ユーザ10の動作に類似した動作内容を有する動作映像を容易に検索でき、ユーザ10に提供することができる。
さらに、映像検索処理において平均化画像を用いて検索することにより、第1の実施形態と比較して、検索処理が単純であり、ハードウェアへの実装、並列化が容易であるため、検索処理を高速化することができる。また、誤差の影響を受け難く、検索結果の制度を高めることもできる。第2の実施形態と比較しても、データグローブ等、ユーザ10の情報取得のために特別な装置を用意する必要がなく、装置を容易に構成することができる。そして、検索する平均化画像データベース470の範囲を制限することにより、大量の映像を検索する場合にも高速な処理を行うことができる。
(第5の実施形態)
次に、図16および図17に基づいて、第5の実施形態にかかる映像提供装置500について説明する。ここで、図16は、本実施形態にかかる映像提供装置500の構成を示すブロック図である。図17は、本実施形態にかかる映像提供装置500による画面操作処理を示すフローチャートである。
本実施形態にかかる映像提供装置500は、画面表示部560に表示された映像の選択等を、ユーザ10の動作によって行うことができる。すなわち、映像検索処理により検索された結果に対して、ユーザ10がインタラクティブに操作することができるように制御部570を備えることを特徴とする。以下では、第4の実施形態にかかる映像提供装置400に対して、上記機能を備えた映像提供装置500について説明するが、第1〜第3の実施形態にかかる映像提供装置100、200、300に備えることも可能である。
本実施形態にかかる映像提供装置500は、図16に示すように、映像取得部510と、映像加工部520と、画像処理部530と、画像認識部540と、画像検索部550と、映像表示部560と、制御部570と、平均化画像データベース580と、映像データベース590とを備える。なお、映像取得部510、映像加工部520、画像処理部530、画像認識部540、画像検索部550、映像表示部560、平均化画像データベース580および映像データベース590は、第4の実施形態にかかる映像取得部410、映像加工部420、画像処理部430、画像認識部440、画像検索部450、映像表示部460、平均化画像データベース470および映像データベース480にそれぞれ対応している。このため、同一の機能についてはその詳細な説明を省略する。
制御部570は、画像認識部540により認識されたユーザ10の手の位置に応じて、映像表示部560に表示される映像を制御する機能部である。例えば、特定の領域内にユーザ10の手が位置しているときに、その領域内にある画像を拡大したり、再度表示したり、表示を中止したりする等といった処理を行う。
このような機能を備える映像提供装置500の画面操作処理は、図17に示すように行われる。図17に示す画面操作処理は、図15に示す動作映像の検索処理の後に行われる。
<画面操作処理>
まず、画像処理部530は、映像取得部510により取得された映像に対して前処理を行い、画像を作成する(S501)。そして、画像処理部530は、取得された中間時点における画像に対して、認識精度を高める目的で平滑化フィルタを利用したノイズ除去処理等の前処理を行い、画像認識部540に送信する。
次いで、画像認識部540は、受信した画像から、手の位置を認識する(S503)。認識された手の位置情報は、画像認識部540から制御部570に送信される。
手の位置情報を受信した制御部570は、映像表示部560の表示を変更するかを判定する(S505)。例えば、手の位置が、xy座標平面において特定の領域内にあるかについて判定する。ここで、特定の領域内とは、例えば操作したい対象のある領域とすることができ、具体的には、拡大したい画像の領域や、再度表示するための表示ボタンの位置する領域等とすることができる。
ステップS505において、手の位置が特定の領域内とあると判定された場合、手の位置に応じた制御命令(コマンド)を映像表示部560へ送信する(S507)。例えば、拡大したい画像の領域に手が位置している場合には、画像を拡大する命令が映像表示部560に送信される。そして、制御命令を受信した映像表示部560は、命令にしたがって映像表示部560における映像表示方法を変更して、再表示する(S509)。このようにして、映像表示部560に表示される映像の表示方法を変更することができる。
以上、第5の実施形態にかかる映像提供装置500について説明した。本実施形態では、映像の検索処理機能を備える映像提供装置に対して、ユーザの手の位置に応じて画面の表示を操作することができるように制御部570を備えることを特徴とする。これにより、ユーザ10は、インタラクティブに映像提供装置500を操作することができるので、映像の検索と映像の表示変更との動作を途切れることなく行うことができる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態において、手話の映像を用いて説明したが、本発明はかかる例に限定されず、記号に対応付けることの可能な、意味を有する映像であれば適用可能である。このような映像としては、例えば、バレエやダンス、ヨガ、手旗信号等の映像が考えられる。
また、上記実施形態において、検索に使用するユーザの動作映像は、完全な情報として映像取得部により取得する必要はなく、モザイク処理や中間値処理等の方法により画素数や画素値のビット数を減らした映像であってもよい。
さらに、上記実施形態において、映像加工部は、映像取得部により取得された映像から実際に静止画像を作成する必要はなく、必要な画素のみについて情報を取得するようにしてもよい。
また、第4の実施形態において、画像処理部430により取得した静止画像に対して、画像認識部440は画像認識処理を行ったが、本発明はかかる例に限定されず、例えば、映像加工部420により生成された平均化画像に対して画像認識処理を行ってもよい。
本発明は、映像提供装置に適用可能であり、特に、データベースから映像を検索して提供する映像提供装置に適用可能である。
本発明の第1の実施形態にかかる映像提供装置の構成を示すブロック図である。 手の位置情報を説明するための説明図である。 検索情報データベースに記憶される情報の例を示す説明図である。 手の形を説明するための説明図である。 映像表示部の映像表示例を示す説明図である。 初期設定の処理を示すフローチャートである。 同実施形態にかかる映像提供装置による動作映像の検索処理を示すフローチャートである。 本発明の第2の実施形態にかかる映像提供装置の構成を示すブロック図である。 同実施形態にかかる映像提供装置による動作映像の検索処理を示すフローチャートである。 本発明の第3の実施形態にかかる映像提供装置の構成を示すブロック図である。 平均化画像の生成方法を示すフローチャートである。 平均化画像の生成方法を説明するための説明図である。 同実施形態にかかる映像提供装置による動作映像の検索処理を示すフローチャートである。 本発明の第4の実施形態にかかる映像提供装置の構成を示すブロック図である。 同実施形態にかかる映像提供装置による動作映像の検索処理を示すフローチャートである。 本発明の第5の実施形態にかかる映像提供装置の構成を示すブロック図である。 同実施形態にかかる映像提供装置による画面操作処理を示すフローチャートである。
符号の説明
100、200、300、400、500 映像提供装置
110、310、410、510 映像取得部
120、430、530 画像処理部
130、440、540 画像認識部
140、220 情報検索部
150、230、340、460、560 映像表示部
153 動作時間指示部
160、240 検索情報データベース
170、250、360、480、590 映像データベース
210 ユーザ情報取得部
320、420、520 映像加工部
330、450、550 画像検索部
350、470、580 平均化画像データベース
360Im 平均値画像
570 制御部

Claims (15)

  1. 特定の概念を表す身体の動作に対応した動作映像を提供する映像提供装置であって:
    複数の動作映像および前記各動作映像を特徴付ける特徴データを記憶する映像記憶部と;
    検索対象とするユーザの身体の動作の範囲を、ユーザが動作を行う時間により指定すると共に、取得される動作の開始部分および終了部分を時間経過として表示する動作時間指部と;
    ユーザの身体の動作から特徴データを取得するユーザ特徴データ取得部と;
    前記ユーザ特徴データ取得部により取得された特徴データと前記映像記憶部に記憶された特徴データとを比較して、前記映像記憶部から前記ユーザの身体の動作に類似する動作映像を検索する映像検索部と;
    を備えることを特徴とする、映像提供装置。
  2. 前記ユーザ特徴データ取得部は、1つの動作映像から所定の時間ごとに複数の静止画像を取得し、
    前記取得した複数の静止画像から、該静止画像における身体の特定部位の位置を特徴データとしてそれぞれ抽出することを特徴とする、請求項に記載の映像提供装置。
  3. 前記ユーザ特徴データ取得部は、前記取得した複数の静止画像から、身体の特定部位の形状を特徴データとしてそれぞれ抽出することを特徴とする、請求項1または2に記載の映像提供装置。
  4. 前記ユーザ特徴データ取得部は、
    ユーザの身体の動作を映像として取得する映像取得部と、
    前記取得した映像から前記ユーザの身体の動作を特徴付ける特徴データを抽出する特徴データ抽出部と、
    を備えることを特徴とする、請求項1〜3のいずれか1項に記載の映像提供装置。
  5. 前記ユーザ特徴データ取得部は、ユーザが装着することにより、該ユーザの身体の動作を特徴付ける特徴データを取得することの可能なデータグローブであることを特徴とする、請求項1〜3のいずれか1項に記載の映像提供装置。
  6. 前記映像検索部は、前記ユーザ特徴データ取得部により取得された特徴データと前記映像記憶部に記憶された特徴データとの類否判断を、DPマッチングを用いて行うことを特徴とする、請求項1〜5のいずれか1項に記載の映像提供装置。
  7. 前記ユーザ特徴データ取得部は、特徴データとして、1つの動作映像から1つの静止画像を作成して取得することを特徴とする、請求項に記載の映像提供装置。
  8. 前記ユーザ特徴データ取得部は、
    ユーザの身体の動作を映像として取得する映像取得部と、
    前記映像取得部により取得された映像から前記静止画像を作成する映像加工部と、
    を備え、
    前記映像検索部は、前記映像加工部により作成された静止画像と前記映像記憶部に記憶された静止画像とを比較して、前記映像記憶部から前記ユーザの身体の動作に類似する動作映像を取得することを特徴とする、請求項に記載の映像提供装置。
  9. 前記映像加工部は、前記映像取得部により取得された1つの映像から複数の静止画像を抽出し、
    抽出された該複数の静止画像の各画素について、画素値を平均化して平均画素値を算出し、
    前記算出された各画素の平均画素値から、1つの平均化画像を作成することを特徴とする、請求項に記載の映像提供装置。
  10. 前記映像取得部により取得された映像から、ユーザの身体の特定部位が位置する領域を認識する画像認識部をさらに備え、
    前記映像記憶部は、動作映像における人物の身体の特定部位が位置する領域にしたがって、前記動作映像を分類して記憶し、
    前記画像認識部は、認識した領域に基づいて、前記映像記憶部に記憶された動作映像のうち、特定の分類に属する動作映像のみを検索対象として決定することを特徴とする、請求項7〜9のいずれか1項に記載の映像提供装置。
  11. 前記映像検索部は、前記ユーザ特徴データ取得部により取得された特徴データと前記映像記憶部に記憶された特徴データとの類否判断を、パターンマッチング処理により行うことを特徴とする、請求項7〜10のいずれか1項に記載の映像提供装置。
  12. 前記ユーザ特徴データ取得部により取得されたユーザの身体の動作、または前記映像取得部により取得された動作映像のうち、少なくとも1つを表示することの可能な映像表示部をさらに備えることを特徴とする、請求項1〜11のいずれか1項に記載の映像提供装置。
  13. 前記ユーザ特徴データ取得部により取得された特徴データに応じて、前記映像表示部の映像の表示を制御する制御部をさらに備えることを特徴とする、請求項12に記載の映像提供装置。
  14. 前記動作映像は、特定の意味を表現する手話であることを特徴とする、請求項1〜13のいずれか1項に記載の映像提供装置。
  15. 前記映像表示部は、1または2以上の手話単語を表す映像を表示することを特徴とする、請求項14に記載の映像提供装置。
JP2006151446A 2006-05-31 2006-05-31 映像提供装置 Expired - Fee Related JP5114871B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006151446A JP5114871B2 (ja) 2006-05-31 2006-05-31 映像提供装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006151446A JP5114871B2 (ja) 2006-05-31 2006-05-31 映像提供装置

Publications (2)

Publication Number Publication Date
JP2007323268A JP2007323268A (ja) 2007-12-13
JP5114871B2 true JP5114871B2 (ja) 2013-01-09

Family

ID=38856036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006151446A Expired - Fee Related JP5114871B2 (ja) 2006-05-31 2006-05-31 映像提供装置

Country Status (1)

Country Link
JP (1) JP5114871B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5153434B2 (ja) * 2008-04-22 2013-02-27 キヤノン株式会社 情報処理装置及び情報処理方法
KR101804848B1 (ko) 2011-04-22 2017-12-06 삼성전자주식회사 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법
JP6162259B2 (ja) * 2013-12-26 2017-07-12 国立研究開発法人科学技術振興機構 動き学習支援装置及び動き学習支援方法
JP6311383B2 (ja) * 2014-03-20 2018-04-18 フリュー株式会社 写真撮影編集装置、その制御方法、制御プログラムおよび該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6710095B2 (ja) * 2016-02-15 2020-06-17 日本電信電話株式会社 技術支援装置、方法、プログラムおよびシステム
CN106205237A (zh) * 2016-08-31 2016-12-07 律世刚 基于动作反应和绘画反应的第二母语的训练方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0741086B2 (ja) * 1986-08-01 1995-05-10 日本フア−ネス工業株式会社 運動動作解析装置
JPH0520366A (ja) * 1991-05-08 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 動画像照合方法
JPH06333022A (ja) * 1993-05-27 1994-12-02 Hitachi Ltd 連続手話認識装置および入力装置
JPH0659805A (ja) * 1992-08-10 1994-03-04 Sharp Corp 手の仕草に従って制御信号を発生する装置
JPH0836586A (ja) * 1994-07-22 1996-02-06 Fujitsu Ltd 手話検索システム
JP3432348B2 (ja) * 1996-01-30 2003-08-04 三菱電機株式会社 代表画像表示方法、代表画像表示装置およびこの装置を用いた動画検索装置
JP3591309B2 (ja) * 1998-06-17 2004-11-17 株式会社日立製作所 手話教育装置、及び手話教育用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000048044A (ja) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報提供方法及びシステム及びマルチメディア情報提供プログラムを格納した記憶媒体
JP3823604B2 (ja) * 1999-05-18 2006-09-20 株式会社日立製作所 手話教育装置、手話教育方法、及び、手話教育方法が記録された記録媒体
EP1181679A1 (en) * 2000-02-10 2002-02-27 Koninklijke Philips Electronics N.V. Sign language to speech converting method and apparatus
JP2002259046A (ja) * 2001-02-28 2002-09-13 Tomoya Sonoda 空中で手描きした文字・記号入力システム
JP3732757B2 (ja) * 2001-06-08 2006-01-11 株式会社東芝 画像認識方法および画像認識装置
JP2003067108A (ja) * 2001-08-23 2003-03-07 Hitachi Ltd 情報表示装置とその操作認識方法

Also Published As

Publication number Publication date
JP2007323268A (ja) 2007-12-13

Similar Documents

Publication Publication Date Title
JP6066093B2 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
JP5114871B2 (ja) 映像提供装置
JP5227911B2 (ja) 監視映像検索装置及び監視システム
JP4267648B2 (ja) インターフェース装置及びその方法
JP5403699B2 (ja) 手指形状推定装置、手指形状の推定方法及びプログラム
US10186057B2 (en) Data input device, data input method, and non-transitory computer readable recording medium storing data input program
JP5613741B2 (ja) 画像処理装置、方法、及びプログラム
CN105160323B (zh) 一种手势识别方法
TWI716527B (zh) 資訊處理系統、資訊處理裝置、控制方法以及程式
JP2014165660A (ja) バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
JP2006320650A (ja) 画像表示装置
JP2019028509A (ja) 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム
JP2014225145A (ja) 入力操作装置
JP2017117341A (ja) 物体検出方法、装置、及びプログラム
CN112488034A (zh) 基于轻量化人脸口罩检测模型的视频处理方法
CN114445853A (zh) 一种视觉手势识别系统识别方法
AU2018430831B2 (en) Determining method, determining program, and information processing apparatus
JP2015171456A (ja) 医用画像表示装置、医用画像表示システムおよび医用画像表示プログラム
JP5876121B2 (ja) 画像処理装置、方法、及びプログラム
JP6230666B2 (ja) データ入力装置、データ入力方法、及びデータ入力プログラム
CN112199015A (zh) 智能交互一体机及其书写方法、装置
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
KR20210003515A (ko) 인터렉티브모드를지원하는증강현실구현장치
US20150071494A1 (en) Method and apparatus for processing images
JP4972013B2 (ja) 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121001

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5114871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees