JP4767331B2 - 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス - Google Patents

画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス Download PDF

Info

Publication number
JP4767331B2
JP4767331B2 JP2009055982A JP2009055982A JP4767331B2 JP 4767331 B2 JP4767331 B2 JP 4767331B2 JP 2009055982 A JP2009055982 A JP 2009055982A JP 2009055982 A JP2009055982 A JP 2009055982A JP 4767331 B2 JP4767331 B2 JP 4767331B2
Authority
JP
Japan
Prior art keywords
image
operator
images
eye
left eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2009055982A
Other languages
English (en)
Other versions
JP2009123242A (ja
Inventor
章男 大場
章 鈴木
智一 掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2009055982A priority Critical patent/JP4767331B2/ja
Publication of JP2009123242A publication Critical patent/JP2009123242A/ja
Application granted granted Critical
Publication of JP4767331B2 publication Critical patent/JP4767331B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、ビデオカメラなどの撮影装置により撮影された撮影画像を、コマンド等の入力インタフェースとして利用するための画像処理技術に関する。
コンピュータ、ビデオゲーム機などによく用いられる入力装置として、キーボード、マウス、コントローラ等がある。操作者は、これらの入力装置を操作することにより所望のコマンドを入力して、入力されたコマンドに応じた処理をコンピュータ等に行わせる。そして操作者は、処理結果として得られた画像、音などを、ディスプレイ装置やスピーカにより視聴する。操作者は、入力装置に備えられる多くのボタンを操作したり、ディスプレイ装置に表示されたカーソルなどを見ながら操作することにより、コマンドの入力を行うこととなる。
最近は、上記のような従来からの入力装置を用いる方法の他に、ビデオカメラ等の撮影装置を用いて撮影した動画像により、コマンドの入力を可能にした技術も開発されている。本出願人も、特開2002−196855号公報(発明の名称:画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス)において、操作者の動画像を取り込んで、操作者の動画像と当該動画像により操作されるオブジェクト画像とを合成して所定のディスプレイ装置に表示させる技術を開示している。動画像の動きに応じてオブジェクト画像が操作されるために、動画像自体が入力インタフェースとして機能することになる。
このように動画像を入力インタフェースとして用いる場合、操作者が適切な位置に表示されるように撮影装置のアングルを調整したり、画角を選択することは、正確な操作のために極めて重要である。そのために、初期設定が煩雑、複雑になりがちである。設定が不十分であったり、操作者が適切な位置にいない場合には、オブジェクト画像を操作困難な位置に操作者の動画像が表示されたり、或いは誤認識の原因となり、正確な入力動作の妨げになることもある。
本発明は、上記のような問題を解決するものであり、動画像を入力インタフェースとして用いた場合の初期設定を容易に行うための画像処理技術を提供することを課題とする。
以上の課題を解決する本発明の画像処理装置は、所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像を生成するオブジェクト画像生成手段と、操作者になり得る2以上の操作者候補の画像をそれぞれがその一部に含んだ複数の異なる鏡面動画像の各々に、同じ位置に表示されるように前記オブジェクト画像を合成して複数の合成画像を生成する画像合成手段と、各合成画像を比較して、前記オブジェクト画像に最も近い操作者候補を操作者として選択する操作者検出手段と、を備える。
前記複数の異なる鏡面動画像は、例えば右眼用及び左眼用のステレオ画像である。
本発明は、以下のような画像処理方法を提供する。この画像処理方法は、操作者になり得る2以上の操作者候補の画像をそれぞれが一部に含んだ複数の異なる鏡面動画像を所定の撮影装置から取得する装置により実行される方法であって、前記複数の異なる鏡面動画像の各々に、所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像を、同じ位置に表示されるように合成して複数の合成画像を生成し、生成した各合成画像を比較して、前記オブジェクト画像に最も近い操作者候補を操作者として選択する。
本発明は、また、以下のようなコンピュータプログラムを提供する。このコンピュータプログラムは、操作者になり得る2以上の操作者候補の画像をそれぞれが一部に含んだ複数の異なる鏡面動画像を所定の撮影装置から取得するコンピュータを、所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像を生成するオブジェクト画像生成手段、前記複数の異なる鏡面動画像の各々に、同じ位置に表示されるように前記オブジェクト画像を合成して複数の合成画像を生成する画像合成手段、各合成画像を比較して、前記オブジェクト画像に最も近い操作者候補を操作者として選択する操作者検出手段、として機能させるためのコンピュータプログラムである。
本発明は、また、以下のような半導体デバイスを提供する。この半導体デバイスは、操作者になり得る2以上の操作者候補の画像をそれぞれが一部に含んだ複数の異なる鏡面動画像を所定の撮影装置から取得するコンピュータに搭載された装置に組み込まれることにより、前記コンピュータを、所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像を生成するオブジェクト画像生成手段、前記複数の異なる鏡面動画像の各々に、同じ位置に表示されるように前記オブジェクト画像を合成して複数の合成画像を生成する画像合成手段、各合成画像を比較して、前記オブジェクト画像に最も近い操作者候補を操作者として選択する操作者検出手段、として機能させる。
以上の説明から明らかなように、本発明によれば、動画像を入力インタフェースとして用いた場合の初期設定を、容易に行うことができるようになる。
本発明を適用した画像処理システムの全体構成図。 本実施形態による画像処理装置の構成図。 本実施形態の画像処理装置が具備する機能ブロック図。 本実施形態の処理手順を示すフローチャート。 マーカ画像が合成された鏡面動画像の例示図。 帯状のマーカ画像が合成された鏡面動画像の例示図。 メニュー画像の提示候補領域を表す例示図。 動き画像マップの例示図。 カラー領域マップの例示図。 メニュー画像を提示したときの合成画像の例示図。 操作者を決定したときの合成画像の例示図。 ステレオ画像の右目用画像の例示図。 ステレオ画像の左目用画像の例示図。 操作者の動きに応じてオブジェクト画像を表示したときの例示図。
以下、本発明の実施形態を詳細に説明する。
図1は、本発明を適用した画像処理システムの構成例を示した図である。
この画像処理システムは、撮影装置の一例であるアナログ又はデジタルのビデオカメラ1、画像処理装置2、ディスプレイ装置3、及びビデオカメラ制御装置4を有して構成される。画像処理システムは、ディスプレイ装置3に相対する操作者候補をビデオカメラ1で撮影し、これにより得られた動画像を画像処理装置2に時系列的に連続に取り込んで鏡面動画像を生成するとともに、この鏡面動画像と、メニューやカーソル等のオブジェクトについてのオブジェクト画像とを合成して合成画像(これも動画像となる)を生成し、この合成画像をディスプレイ装置3上にリアルタイムに表示させるものである。オブジェクト画像は、鏡面動画像内の操作者候補が操作可能な範囲に表示されるように合成される。
オブジェクトには所定の処理が対応付けられており、操作者候補から選択された操作者によりオブジェクト画像が操作されると、該当する処理(イベント)が実行されるようになっている。
鏡面動画像は、ビデオカメラ1から取り込んだ動画像を画像処理装置2で鏡面処理(画像の左右反転処理)することにより生成することができるが、ビデオカメラ1の前に鏡を置き、操作者候補を映した鏡面の動画像をビデオカメラ1で撮影することによって鏡面動画像を生成するようにしてもよい。また、ビデオカメラ1が鏡面動画像を生成するような機能を予め備えていてもよい。いずれにしても、ディスプレイ装置3上には、操作者の動きに応じてその表示形態がリアルタイムに変化する鏡面動画像とオブジェクト画像との合成画像が表示されるようにする。
なお、ビデオカメラ1を制御するためのビデオカメラ制御装置4は、画像処理装置4からの指示により、ビデオカメラ1にズーム、パン、チルト等の動作をさせるものであるが、ビデオカメラ1或いは画像処理装置4に内蔵されていてもよい。
画像処理装置2は、コンピュータプログラムにより所要の機能を形成するコンピュータにより実現される。
この実施形態によるコンピュータは、例えば図2にそのハードウエア構成を示すように、それぞれ固有の機能を有する複数の半導体デバイスが接続されたメインバスB1とサブバスB2の2本のバスを有している。これらのバスB1、B2は、バスインタフェースINTを介して互いに接続され又は切り離されるようになっている。
メインバスB1には、主たる半導体デバイスであるメインCPU10と、RAMで構成されるメインメモリ11と、メインDMAC(Direct Memory Access Controller)12と、MPEG(Moving Picture Experts Group)デコーダ(MDEC)13と、描画用メモリとなるフレームメモリ15を内蔵する描画処理装置(Graphic Processing Unit、以下、「GPU」)14が接続される。GPU14には、フレームメモリ15に描画されたデータをディスプレイ装置3で表示できるようにするためのビデオ信号を生成するCRTC(CRT Controller)16が接続される。
メインCPU10は、コンピュータの起動時にサブバスB2上のROM23から、バスインタフェースINTを介して起動プログラムを読み込み、その起動プログラムを実行してオペレーティングシステムを動作させる。また、メディアドライブ27を制御するとともに、このメディアドライブ27に装着されたメディア28からアプリケーションプログラムやデータを読み出し、これをメインメモリ11に記憶させる。さらに、メディア28から読み出した各種データ、例えば複数の基本図形(ポリゴン)で構成された3次元オブジェクトデータ(ポリゴンの頂点(代表点)の座標値など)に対して、オブジェクトの形状や動き等を表現するためのジオメトリ処理(座標値演算処理)を行い、そして、ジオメトリ処理によるポリゴン定義情報(使用するポリゴンの形状及びその描画位置、ポリゴンを構成する素材の種類、色調、質感等の指定)をその内容とするディスプレイリストを生成する。
GPU14は、描画コンテクスト(ポリゴン素材を含む描画用のデータ)を保持しており、メインCPU10から通知されるディスプレイリストに従って必要な描画コンテクストを読み出してレンダリング処理(描画処理)を行い、フレームメモリ15にポリゴンを描画する機能を有する半導体デバイスである。フレームメモリ15は、これをテクスチャメモリとしても使用できる。そのため、フレームメモリ上のピクセルイメージをテクスチャとして、描画するポリゴンに貼り付けることができる。
メインDMAC12は、メインバスB1に接続されている各回路を対象としてDMA転送制御を行うとともに、バスインタフェースINTの状態に応じて、サブバスB2に接続されている各回路を対象としてDMA転送制御を行う半導体デバイスであり、MDEC13は、メインCPU10と並列に動作し、MPEG(Moving Picture Experts Group)方式あるいはJPEG(Joint Photographic Experts Group)方式等で圧縮されたデータを伸張する機能を有する半導体デバイスである。
サブバスB2には、マイクロプロセッサなどで構成されるサブCPU20、RAMで構成されるサブメモリ21、サブDMAC22、オペレーティングシステムなどの制御プログラムが記憶されているROM23、サウンドメモリ25に蓄積された音データを読み出してオーディオ出力として出力する音声処理用半導体デバイス(SPU(Sound Processing Unit))24、図示しないネットワークを介して外部装置と情報の送受信を行う通信制御部(ATM)26、CD−ROMやDVD−ROMなどのメディア28を装着するためのメディアドライブ27及び入力部31が接続されている。
サブCPU20は、ROM23に記憶されている制御プログラムに従って各種動作を行う。サブDMAC22は、バスインタフェースINTがメインバスB1とサブバスB2を切り離している状態においてのみ、サブバスB2に接続されている各回路を対象としてDMA転送などの制御を行う半導体デバイスである。入力部31は、操作装置35からの入力信号が入力される接続端子32、ビデオカメラ1からの画像信号が入力される接続端子33、及びビデオカメラ1からの音声信号が入力される接続端子34を備える。
なお、本明細書では、画像についてのみ説明を行い、便宜上、音声についての説明は省略する。
このように構成されるコンピュータは、メインCPU10、サブCPU20、GPU14が、ROM23及びメディア28等の記録媒体から所要のコンピュータプログラムを読み込んで実行することにより、画像処理装置2として動作するうえで必要な機能ブロック、すなわち図3に示す、画像入力部101、画像反転部102、オブジェクトデータ記憶部103、オブジェクトデータ取得部104、オブジェクト画像生成部105、画像合成部106、画像比較部107、表示制御部108、及び操作者検出部109を形成する。
図2に示したハードウエアとの関係では、画像入力部101は入力部31及びその動作を制御するサブCPU20により形成され、画像反転部102、オブジェクトデータ取得部104、オブジェクト画像生成部105、画像比較部107、及び操作者検出部109はメインCPU10により形成され、画像合成部106はGPU14により形成され、表示制御部108はGPU14とCRTC16との協働により形成される。オブジェクトデータ記憶部103は、メインCPU10がアクセス可能なメモリ領域、例えばメインメモリ11に形成される。
画像入力部101は、ビデオカメラ1により撮影された撮影画像を入力部31の接続端子33を介して取り込む。入力される撮影画像がデジタル画像の場合は、そのまま取り込む。入力される撮影画像がアナログ画像の場合は、A/D変換を行ってデジタル画像に変換して取り込む。
画像反転部102は、画像入力部101により取り込んだ撮影画像を鏡面処理、すなわち左右反転処理して鏡面動画像を生成する。なお、ビデオカメラ1による撮影を、ビデオカメラ1の前に鏡を置いて行う場合、或いはビデオカメラ1に鏡面画像を生成するような機能が備わっている場合のように、画像処理装置2に入力される撮影画像が既に鏡面動画像となっている場合には、画像反転部102は不要になる。
オブジェクトデータ記憶部103は、メニュー画像(サブメニューを含む)、カーソル画像等のオブジェクト画像を表現するためのオブジェクトデータをその識別データと共に保持する。
オブジェクトデータ取得部104は、オブジェクトデータ記憶部103からオブジェクトデータを取り込んで、オブジェクト画像生成部105へ送る。
オブジェクト画像生成部105は、オブジェクトデータ取得部104より取り込んだオブジェクトデータに基づいてオブジェクト画像を生成する。オブジェクト画像生成部105は、プログラムまたは操作者による操作に基づいてオブジェクトの表示状態を決定し、その表示状態を実現するためのオブジェクト画像を生成する。
画像合成部106は、鏡面動画像とオブジェクト画像生成部105により生成されるオブジェクト画像とを合成した合成画像をフレームメモリ15に描画する。なお、オブジェクト画像を合成して合成画像を生成するほかに、公知のインポーズ処理により、鏡面動画像上にオブジェクト画像を表示するようにしてもよい。
画像比較部107は、鏡面動画像を1フレーム毎に比較して、前後のフレームの鏡面動画像間の差分画像を生成する。また、画像比較部107は、鏡面動画像を1フレーム毎に比較して、フレーム間で鏡面動画像の各領域の色の変化を検出する。
差分画像は、鏡面動画像に含まれる操作者(又は操作者候補)のフレーム毎の動きの変化を表す画像である。例えば、2つの鏡面動画像間で、操作者(又は操作者候補)が動いたときの、動く前の操作者(又は操作者候補)の画像と動いた後の操作者(又は操作者候補)の画像との異なる部分からなる画像である。この差分画像を複数重ねることで、操作者(又は操作者候補)の動く範囲、その頻度がわかるようになる。この頻度に応じてオブジェクト画像をどの位置に表示させるかを決めることができる。
鏡面動画像の各領域の色の変化を検出することで、操作者(又は操作者候補)が動いたことがわかる。例えば、服の前に手をかざすと、画面上、手をかざした部分の色が服の色から手の色に変わる。これにより、色の変化で手が服の前にかざされたことがわかる。
これらの操作者(又は操作者候補)の動きの頻度、色の変化が、オブジェクト画像を鏡面動画像のどの領域に合成するかを決める要因になる。
操作者検出部109は、鏡面動画像内の操作者候補の顔の位置、大きさ等を検出するものであり、例えば、既知の顔センシング技術を用いて、操作者候補の顔の位置、大きさ等を検出する。顔センシング技術には、例えば、サポートベクターマシン(SVM)、ブースティング(boosting)、ニューラルネットワーク、固有顔法(Eigan Face)などを用いることができる。また、操作者検出部109は、複数の操作者候補から一人の操作者を選択するものである。操作者の選択は、例えば操作者候補がメニューなどのオブジェクト画像を操作したときに決まる。
表示制御部108は、画像合成部106で生成された合成画像をビデオ信号に変換してディスプレイ装置3に出力する。また、表示制御部108は、操作者検出部109により選択された操作者に対してズーム、パン、チルト等を行うものである。ズーム、パン、チルト等は、フレームメモリに描画された画像に対してデジタル処理により行ってもよいし、ビデオカメラ制御装置4により、ビデオカメラ1のズーム、パン、チルト等を行わせるようにしてもよい。
ディスプレイ装置3は、この表示制御部108からのビデオ信号により、画面上に合成画像(動画像)を表示させる。
<画像処理方法>
次に、上記のような画像処理システムにより行われる画像処理方法の実施例を説明する。
[実施例1]
図4は、上記の画像処理システムを用いた本発明の画像処理方法の手順を説明するためのフローチャートである。
ディスプレイ装置3には、図1に示すように、2人の操作者候補を含む鏡面動画像が映し出されているものとする。なお、説明の便宜上ディスプレイ装置3に映し出される操作者候補の数を2人としたが、これは更に多くの人数でもよく、また、1人でもよい。1人の場合には、その操作者候補が操作者となる。
鏡面動画像は、ビデオカメラ1で撮影された動画像が、画像処理装置2に入力され、画像反転部102により画像が左右反転されることで生成される。左右反転した画像がディスプレイ装置に表示されることで、図1のような鏡面動画像が映し出される。
画像処理装置2は、操作者検出部109により鏡面動画像から顔センシング技術を用いて操作者候補の顔の位置を検出して、検出した位置を矩形のマーカ画像51、52で囲う(ステップS101)。マーカ画像51、52もオブジェクト画像の一種であり、画像合成部106は、操作者検出部109により操作者候補の顔の位置が検出されると、オブジェクト画像生成部105、オブジェクトデータ取得部104を介してオブジェクトデータ記憶部103からマーカ画像51、52のオブジェクト画像を取得し、これを鏡面動画像の該当する位置に合成する。表示制御部108は、このマーカ画像51、52が合成された鏡面動画像をディスプレイ装置3に表示させる(図5)。
なお、マーカ画像51、52は、矩形の他に、図6に示すような帯状として、操作者候補がヘアバンドをしているように表示してもよい。
次いで操作者検出部109は、マーカ画像51、52に基づいて、鏡面動画像から操作者候補の顔領域を選択する(ステップS102)。顔領域を選択することで、図7のようなメニュー画像の提示候補領域が決められる。図7の例では、メニュー画像の提示候補領域が、予め顔領域の近傍に決められるようになっている。提示候補領域内の数字は、メニュー画像が提示される優先度を表しており、顔領域の下部(胸の辺り)の候補領域は優先度“1”であり、顔領域の右側近傍の候補領域は、優先度“2”で右手で操作できる領域である。顔領域の左側近傍の候補領域は、優先度“3”で左手で操作できる領域であり、顔領域の上部の候補領域は、優先度“4”で左右どちらの手でも操作できる領域である。2つの顔領域の中間の候補領域は、優先度“5”でどちらの操作者候補も操作できる領域である。
各提示候補領域は、優先度に応じてどの操作者候補でも同じ大きさに設定するようにしてもよいが、図7では、操作候補者毎に異なる大きさで設定している。図7では、左側の操作者候補が右側の操作者候補よりも大きく表示されているので、左側の操作者候補に対する提示候補領域が、右側の操作者候補の提示候補領域よりも大きく設定されている。つまり、提示候補領域の大きさは、操作者候補の顔領域の大きさに応じて変えるようにしてある。操作者候補の大きさは、操作者検出部109により顔の大きさを検出することで知ることができる。
画像合成部106は、これらのメニュー画像の提示候補領域の中から実際にメニュー画像を提示する領域を選択する(ステップS103)。提示領域の選択は、例えば、画像比較部107により検出される、鏡面動画像の各部分における操作者候補の動き頻度、鏡面動画像の各領域の色の変化に応じて行うことができる。提示候補領域のうち、操作者候補の動きの頻度、色の変化により操作者候補が最も操作しやすい領域を選択する。この領域がメニュー画像を提示する領域となる。
前述のように、操作者候補の動きの頻度は差分画像を重ねることで検出することができる。図8は、差分画像を重ねて得られる動き画像マップの例示図である。このような動き画像マップにより、操作者候補の動きの頻度が密な領域と疎な領域とがわかる。図8の例では、手の頻繁に動く領域が、動きが密な領域として斜線で表されている。
色の変化は、図9に示すようなカラー領域マップを用いることで知ることができる。図9のカラー領域マップは、顔の色と同じ色が占める領域を斜線で示しており、斜線の領域以外で、顔の色と同じ色を検出することで、操作者候補が動いたことを検出できる。カラー領域マップは、例えば、顔センシング技術により操作者の顔の位置を検出する際に、顔の色を検出しておき、検出した顔の色と同系統の色の領域を鏡面動画像から検出することで生成することができる。
メニュー画像の提示領域が選択されると、画像合成部106は、鏡面動画像の該当領域にメニュー画像を合成した合成画像を生成する。表示制御部108は、ディスプレイ装置3に生成された合成画像を表示させる(ステップS104)。図10は、メニュー画像を提示したときの、ディスプレイ装置3に表示される画像の例示図である。この例では、2人の操作者候補のそれぞれ顔の近傍、優先度“2”の領域に、メニュー画像が提示されている。
図10では2つのメニュー画像の大きさを同じにしているが、操作者候補ごとに異なる大きさで提示するようにしてもよい。例えば、ディスプレイ装置3に映し出される操作者候補の大きさに応じてメニュー画像の大きさを変える。大きく映し出される操作者候補の提示候補領域ほど大きく設定されるので、提示候補領域から選択される提示領域も、大きく映し出される操作者候補ほど大きくなる。提示領域の大きさに合わせてメニュー画像を提示するようにすれば、大きく映し出される操作者候補ほどメニュー画像を大きく提示することができる。
2人の操作者候補の一方が手を動かし、合成画像上で当該操作者候補の手がメニュー画像に触れる、或いは操作すると、操作者検出部109により当該操作者候補が操作者として選択される(ステップS105)。これにより実際に操作を行う操作者が決まる。
実際に操作を行う操作者が決まると、表示制御部108は、図11に示すように、選択した操作者を拡大して、画面中央に表示する(ステップS106)。また、メニュー画像は操作者に操作されているので、その下位層の「select1」、「select2」、「select3」のいずれかを表すプルダウン画像が表示される。
このようにして、操作者候補の近傍にメニュー画像を表示することが可能になり、操作のための煩雑な初期設定が不要になる。また、複数の操作者候補から実際に操作を行う操作者を選択することも容易に可能になる。
[実施例2]
実施例1では、先にメニュー画像を操作した操作者候補を実際に操作を行う操作者として選択しているが、以下のようにステレオマッチングの手法を利用して実際に操作を行う操作者を選択するようにしてもよい。実施例2では、ビデオカメラ1を2台用意するなどして、2つの鏡面動画像を用意する。図12、13は2つの鏡面動画像にそれぞれメニュー画像を合成した合成画像の例示図である。
2つの鏡面動画像は、例えば右目用及び左目用のステレオ画像である。図12、13の例では、図12が右目用画像、図13が左目用画像である。操作者検出部109は、これらの2つの合成画像を比較して、メニュー画像により近い方の操作者候補を操作者として選択する。図12、13の例では、いずれも左側の操作者候補がメニュー画像に近いために、左側を実際に操作する操作者とする。
以上のように、いずれの実施例においてもメニュー画像を操作者(又は操作者候補)が操作しやすい領域に容易に表示することができるので、鏡面動画像を用いた入力インタフェースにおける複雑な初期設定などが不要となる。また、複数の操作者候補から適宜1人を選択することができ、複数の人物が鏡面動画像内に表示される場合でも、初期設定が困難になったり、複数の操作者が同時に入力を行うことがないようにすることができる。
また、図8のような動き画像マップや図9のようなカラー領域マップを用いて、メニュー画像以外のオブジェクト画像を表示する領域を決めることもできる。
前述の通りこれらのマップは、操作者の動きを定量的に表すことができる。動き画像マップは、操作者の動きが多い領域、少ない領域、まったく動きのない領域を表すことができる。表示される差分画像が多い領域が操作者の動きが多い領域、差分画像が少ない領域が操作者の動きが少ない領域、差分画像がまったくない領域が操作者の動きがまったくない領域である。
カラー領域マップは、色の変化により操作者の動きを表すことができる。例えば1フレーム前のフレームの画面上の各領域の色と、現在のフレームの画面の各領域の色を比較することで、色が変化している領域を見つけることができる。まったく異なる色に変化している場合には操作者の動きがあったと判断できる。
図14は、操作者の動きに応じてオブジェクト画像を表示したときの例示図である。
図14では、操作者の他にベル画像141とボタン画像142とが表示されている。操作者がベル画像141に触れると、例えばベルが鳴る等のイベントが発生するようになっている。ボタン画像142を触れた場合には、ボタン画像に関連づけされたイベントが発生するようになっている。
ベル画像141は、操作者の動きの頻度が少ない領域に表示される。動き画像マップにより、操作者の動きの頻度がわかるので、画像合成部106は、これに応じて頻度が少ない領域を選択して、その領域にベル画像141が表示されるように合成画像を生成する。
ボタン画像142は、色の変化が大きい領域に表示される。カラー領域マップでは色の変化を検出できるため、画像合成部106は、これに応じて色の変化が大きい領域を選択して、その領域にボタン画像142が表示されるように合成画像を生成する。
このように、オブジェクト画像を操作者の動作に応じて配置することも容易に可能になる。
1 ビデオカメラ
2 画像処理装置
3 ディスプレイ装置
4 ビデオカメラ制御装置
101 画像入力部
102 画像反転部
103 オブジェクトデータ記憶部
104 オブジェクトデータ取得部
105 オブジェクト画像生成部
106 画像合成部
107 画像比較部
108 表示制御部
109 操作者検出部

Claims (5)

  1. 所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像を生成するオブジェクト画像生成手段と、
    操作者になり得る2以上の操作者候補の画像をそれぞれがその一部に含んだ右眼用及び左眼用のステレオ画像である鏡面動画像の各々に、同じ位置に表示されるように前記オブジェクト画像を合成して右眼用及び左眼用の合成画像を生成する画像合成手段と、
    前記右眼用及び左眼用の各合成画像によりステレオマッチングを行い、前記オブジェクト画像に最も近い操作者候補を操作者として選択する操作者検出手段と、を備える、
    画像処理装置。
  2. 操作者になり得る2以上の操作者候補の画像をそれぞれが一部に含んだ右眼用及び左眼用のステレオ画像である鏡面動画像を所定の撮影装置から取得する装置により実行される方法であって、
    記鏡面動画像の各々に、所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像を、同じ位置に表示されるように合成して右眼用及び左眼用の合成画像を生成し、生成した右眼用及び左眼用の各合成画像によりステレオマッチングを行い、前記オブジェクト画像に最も近い操作者候補を操作者として選択する、
    画像処理方法。
  3. 操作者になり得る2以上の操作者候補の画像をそれぞれが一部に含んだ右眼用及び左眼用のステレオ画像である鏡面動画像を所定の撮影装置から取得するコンピュータを、
    所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像を生成するオブジェクト画像生成手段、
    記右眼用及び左眼用の鏡面動画像の各々に、同じ位置に表示されるように前記オブジェクト画像を合成して右眼用及び左眼用の合成画像を生成する画像合成手段、
    前記右眼用及び左眼用の各合成画像によりステレオマッチングを行い、前記オブジェクト画像に最も近い操作者候補を操作者として選択する操作者検出手段、
    として機能させるためのコンピュータプログラム。
  4. 請求項に記載されたコンピュータプログラムを記録してなる、コンピュータ読み取り可能な記録媒体。
  5. 操作者になり得る2以上の操作者候補の画像をそれぞれが一部に含んだ右眼用及び左眼用のステレオ画像である鏡面動画像を所定の撮影装置から取得するコンピュータに搭載された装置に組み込まれることにより、前記コンピュータを、
    所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像を生成するオブジェクト画像生成手段、
    記右眼用及び左眼用鏡の面動画像の各々に、同じ位置に表示されるように前記オブジェクト画像を合成して右眼用及び左眼用の合成画像を生成する画像合成手段、
    前記右眼用及び左眼用の各合成画像によりステレオマッチングを行い、前記オブジェクト画像に最も近い操作者候補を操作者として選択する操作者検出手段、
    として機能させるための半導体デバイス。
JP2009055982A 2009-03-10 2009-03-10 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス Expired - Lifetime JP4767331B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009055982A JP4767331B2 (ja) 2009-03-10 2009-03-10 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009055982A JP4767331B2 (ja) 2009-03-10 2009-03-10 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006197392A Division JP4689548B2 (ja) 2006-07-19 2006-07-19 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Publications (2)

Publication Number Publication Date
JP2009123242A JP2009123242A (ja) 2009-06-04
JP4767331B2 true JP4767331B2 (ja) 2011-09-07

Family

ID=40815254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009055982A Expired - Lifetime JP4767331B2 (ja) 2009-03-10 2009-03-10 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Country Status (1)

Country Link
JP (1) JP4767331B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JPH08263194A (ja) * 1995-03-22 1996-10-11 Kyushu Nippon Denki Software Kk キー入力装置
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
CA2295606A1 (en) * 1998-05-19 1999-11-25 Sony Computer Entertainment Inc. Image processing apparatus and method, and providing medium
JP2000112019A (ja) * 1998-10-08 2000-04-21 Olympus Optical Co Ltd 電子3眼カメラ装置
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Also Published As

Publication number Publication date
JP2009123242A (ja) 2009-06-04

Similar Documents

Publication Publication Date Title
JP3847753B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP3725460B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP5564384B2 (ja) 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法
US20120075503A1 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method
KR20150119621A (ko) 디스플레이 장치 및 그의 이미지 합성 방법
JP2023017920A (ja) 画像処理装置
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP7544036B2 (ja) 画像処理装置、3dモデル生成方法、およびプログラム
JP5805013B2 (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
JP2004178036A (ja) 遠隔者の映像を伴う仮想空間の提示装置
JP4824409B2 (ja) 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法
JP3983623B2 (ja) 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
JP4767331B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP2010258613A (ja) 動画処理システム、動画処理方法、動画処理プログラム、および動画処理装置
JP4544262B2 (ja) 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法
JP7118383B1 (ja) 表示システム、表示方法、及び表示プログラム
JP4615252B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP6514386B1 (ja) プログラム、記録媒体及び画像生成方法
WO2018168824A1 (ja) 画像処理装置および電子機器
JP2024101180A (ja) 画像処理装置、画像処理方法、およびプログラム
CN114830184A (zh) 视频生成装置、视频生成方法和视频生成程序
CN116366825A (zh) 图像处理装置、图像处理方法、以及存储介质
JP5245156B2 (ja) カメラシステム、そのための画像情報再生手段、画像情報再生手段
JP2012156628A (ja) 電子カメラ、画像処理装置および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100714

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100818

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110614

R150 Certificate of patent or registration of utility model

Ref document number: 4767331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term