JP2008015942A - ユーザインタフェースプログラム、装置および方法、情報処理システム - Google Patents

ユーザインタフェースプログラム、装置および方法、情報処理システム Download PDF

Info

Publication number
JP2008015942A
JP2008015942A JP2006188635A JP2006188635A JP2008015942A JP 2008015942 A JP2008015942 A JP 2008015942A JP 2006188635 A JP2006188635 A JP 2006188635A JP 2006188635 A JP2006188635 A JP 2006188635A JP 2008015942 A JP2008015942 A JP 2008015942A
Authority
JP
Japan
Prior art keywords
face
user
motion
image
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006188635A
Other languages
English (en)
Other versions
JP4781181B2 (ja
Inventor
Tomokazu Kake
智一 掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2006188635A priority Critical patent/JP4781181B2/ja
Publication of JP2008015942A publication Critical patent/JP2008015942A/ja
Application granted granted Critical
Publication of JP4781181B2 publication Critical patent/JP4781181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】ユーザの動作を入力インタフェースとして利用するゲームなどのアプリケーションにおいて、ユーザにとってより自然で使いやすいインタフェースを提供する。
【解決手段】画像処理装置は、撮像装置によって撮像されたユーザの動作を反映させた画像をディスプレイ装置の画面上に表示する。領域特定部106は、撮像装置により撮像されたユーザの画像からユーザの顔の領域を特定する。動作検出部108は、特定された顔の領域の画像を用いてユーザの顔の動作を検出する。イベント実行部110は、顔の動作とイベントとを関連づけたテーブルを保持し、動作検出部108により検出された顔の動作に対応するイベントをテーブルから検索してそのイベントを実行する。動作検出部108は、ユーザの顔の傾きを動作として検出し、顔が傾けられた方向に応じて異なるイベントを実行する。
【選択図】図3

Description

本発明は、ユーザインタフェース技術に関する。
従来から、ユーザの動作をビデオカメラなどの撮像装置を用いて撮影し、ユーザの動画像を画面に映し出して、コマンドの入力やゲームのプレイを可能にしたものが知られている(例えば、特許文献1)。このような画像処理装置では、画面上に配置されるメニュー画面やオブジェクトにユーザの動画像が画面内で接触することで、コマンドを入力することができる。つまり、ユーザの動画像そのものが入力インタフェースとして機能している。
特開2005−216061号公報
上述のようなユーザの動画像を入力インタフェースとして利用するゲームを始めとしたアプリケーションでは、アプリケーションを操作するユーザの行動を、画面上の演出などによって自然なかたちで導き出すことが重要である。日常の動作にはない不自然な動きをユーザに要求すると、アプリケーションに対するユーザの興味が失われる恐れがある。また、画面に何のインストラクションも出ていない状態では、ユーザは何をすれば所望の操作をすることができるかが分からず、アプリケーションの開始や継続ができなくなってしまう恐れもある。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ユーザの動画像を入力インタフェースとして利用するアプリケーションにおいて、ユーザにとって自然で使いやすいインタフェースを実現するための技術を提供することにある。
本発明のある態様は、撮像装置により撮像されたユーザの画像から該ユーザの顔の領域を特定する領域特定機能と、特定された顔の領域の画像を用いてユーザの顔の動作を検出する動作検出機能と、顔の動作とイベントとを関連づけたテーブルを保持し、動作検出機能により検出された顔の動作に対応するイベントをテーブルから検索して該イベントを実行するイベント実行機能と、をコンピュータに発揮させるユーザインタフェースプログラムである。
この態様によると、顔の動きという非常に簡単かつ負荷の少ない動作でコンピュータに入力を与えることができ、ユーザにとって自然かつ使いやすい入力インタフェースを提供することができる。
なお、撮像されたユーザの画像は、ディスプレイの画面にそのまま映されてもよいし、ユーザの鏡面画像が映されてもよい。ユーザの画像は画面に映されなくてもよい。ユーザの動作と同じ動きをするキャラクタの画像を画面に表示してもよい。また、顔の領域の画像が特定できればよいので、ユーザがお面等をかぶっていてもよい。
「イベント」には、ゲームのコントローラやテレビのリモコンなどのボタン操作に対応する操作指示と、オブジェクトの画面表示などが含まれる。操作指示には、ヘルプの表示、キャンセル、決定、選択、メニューの表示、終了、移動方向の入力などが含まれる。
動作検出機能はユーザの顔の傾きを動作として検出してもよい。また、動作検出機能は、検出したユーザの顔の傾きが、画面上に定義される三次元座標のいずれの軸回りのものであるかを判定し、イベント実行機能は、動作検出機能により判定された顔の傾き軸に応じて異なるイベントを実行してもよい。顔の回転軸がx、y、zのいずれの軸回りかを判定することで、顔の傾きだけで三通りの異なるイベントを実行することができる。軸に対する回転方向、つまり右回りか左回りかによって異なるイベントを実行するようにしてもよい。
領域特定機能は、特定された顔の領域内で顔を構成するパーツの領域をさらに特定し、動作検出機能で検出される顔の動作にはパーツの動作が含まれる。顔のパーツには、目、口、鼻、耳、眉、瞳、舌などが含まれるが、顔認識技術で特定できるパーツであればこれらに限定されない。これによると、表情を変化させるだけで様々な入力をコンピュータに対して与えることができる。また、全身の動作を伴わないため、従来のこの種のアプリケーションでは困難だった、椅子に座った状態や寝ころんだ状態での操作も実現できる。
イベント実行機能により実行されるイベントには、コンピュータで実行されるアプリケーションに対する操作指示が含まれてもよい。この場合、テーブルにおいて操作指示と関連つけられた顔の動作の少なくとも一部は、ユーザがその操作指示を現実世界で表現するときの動作と近似する動作であると好ましい。
動作検出機能はユーザの顔の動作の繰り返し数をカウントし、イベント実行機能は、繰り返し数に応じて異なるイベントを実行してもよい。また、動作検出機能は、顔の動作が持続している時間を計測し、計測した時間がしきい値以上になったとき顔の動作が実行されたものと判定してもよい。顔の動作はユーザが無意識に実行することも多いが、繰り返し数や持続時間といった条件を含めることで、誤動作の発生を抑制できる。
イベント実行機能は、動作検出機能により検出された顔の動作に関連つけられるイベントがオブジェクトの画面表示であるとき、該オブジェクトを生成するオブジェクト生成機能を有してもよい。オブジェクト生成機能は、オブジェクトの表示形態を時間の経過や、顔の傾き角の増大または減少とともに変化させてもよい。ここでいう表示形態には、オブジェクトの色や大きさを変化させること、移動や回転の速度を変化させることなどが含まれる。ユーザの動作に応じてオブジェクトを変化させることで、想定されている入力動作をするようにユーザを誘導することができる。
なお、本発明の構成要素や表現を方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。
本発明によれば、ユーザの動画像を入力インタフェースとして利用するアプリケーションにおいて、ユーザにとって自然で使いやすいインタフェースを提供することができる。
実施の形態1.
図1は、本発明の一実施形態である画像処理装置10を用いた画像処理システム100の構成を示す。画像処理システム100は、ユーザの動画像を撮像する撮像装置であるカメラ2と、画像処理装置10と、画像を表示するためのディスプレイ装置4とから構成される。
画像処理装置10は、ディスプレイ装置4に相対するユーザ6をカメラ2で撮影して得られた動画像を時系列的に連続に取り込んで鏡面動画像を生成し、鏡面動画像8をディスプレイ装置4にリアルタイムで表示させる。また、画像処理装置10は、鏡面動画像8の他に、メニューやカーソル等のオブジェクト画像を合成してディスプレイ装置4に表示させることもできる。ユーザ6は、この鏡面動画像とオブジェクトを見ながら、画像処理装置10により実行されるゲームやアルバム表示などのアプリケーションを操作する。ユーザが予め決められた動作をすると、ユーザの動作を反映させた画像が画面上に表示されるとともに、アプリケーションに対して何らかの指示が与えられる。
鏡面動画像は、カメラ2から取り込んだ動画像を画像処理装置10で鏡面処理(画像の左右反転処理)することにより生成される。この鏡面処理によって、ユーザは鏡を見ているような感覚でアプリケーションの操作をすることができる。鏡面処理は、カメラ2の有している機能によって行われてもよい。
カメラ2は、CCDカメラであることが好ましいが、それ以外のアナログまたはデジタルのビデオカメラであってもよい。図示するように、カメラ2は、ディスプレイ装置4の上部に設置されることが好ましい。ディスプレイ装置4に対面したユーザの動作を撮影することで、ユーザは自らの姿を見た状態でアプリケーションを操作できるからである。
図2は、画像処理装置10のハードウェア構成図である。画像処理装置10は、CPU12、メインメモリ14、GPU16、入出力制御装置18、ドライブ装置20、表示制御装置24およびDMAC26を備える。これらは、バス28を介して相互に接続される。
CPU12は、オペレーティングシステムを動作させて画像処理装置10の全体を制御するとともに、ドライブ装置20に装着された記録媒体50からメインメモリ14にプログラムやデータを読み出し、これにしたがって各種の処理を実行する。また、CPU12は、記録媒体50から読み出した三次元オブジェクトデータに対して、オブジェクトの形状や動き等を表現するためのジオメトリ処理を行い、GPU16に渡す。
GPU16は、描画用のデータを保持しており、CPU12からの指令にしたがって必要な描画データを読み出してレンダリング処理を行い、図示しないフレームメモリに描画する。DMAC26は、バス28に接続された各回路を対象としてDMA転送の制御を行う。
ドライブ装置20は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体50を使用するドライブ装置である。以下で説明する機能を有したユーザインタフェースプログラムを格納した記録媒体50をドライブ装置20から読み込むことで、画像処理装置10はユーザインタフェース装置として機能する。
入出力制御装置18には、カメラ2からの画像信号が入力される。入出力制御装置18には、ハードディスクドライブなどの外部記憶装置、ネットワークを介して外部の機器と通信を行うためのモデムやターミナルアダプタ(TA)などの通信装置、TVチューナ、プリンタなどが接続されてもよい。画像処理装置10に対してデータを入力するためのコントローラ52が接続されてもよい。
表示制御装置24にはディスプレイ装置4が接続される。表示制御装置24は、GPU16によってフレームメモリに描画されたデータをディスプレイ装置4で表示できるようにするためのビデオ信号を生成する。
なお、ユーザインタフェースプログラムは、上述のように記録媒体からロードさせる代わりに、画像処理装置10に予め組み込まれていてもよい。
図3は、本実施形態にかかるユーザインタフェース装置の構成を示す。これらの構成は、CPU、メモリ、メモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
画像入力部102は、カメラ2によって撮影された動画像を1フレームずつ取り込む。入力される画像がアナログ画像の場合は、A/D変換を行ってデジタル画像に変換してから取り込む。
画像反転部104は、画像入力部102により取り込まれた画像に対して鏡面処理を施し、鏡面動画像を生成する。
領域特定部106は、鏡面動画像を構成する各フレーム画像について、ユーザの顔に相当する領域を特定する。領域特定部106は、顔・パーツ検出部122、手検出部124、基準画像記憶部126を含む。
顔・パーツ検出部122は、基準画像記憶部126に格納されている顔の基準画像を取り出し、基準画像と入力された画像とのマッチングを実行して、ユーザの顔に相当する領域の画像を特定する。顔の領域が特定されると、その内部でさらに顔を構成するパーツ、例えば目、鼻、口に相当する領域を、各パーツの基準画像とのマッチングによって特定する。
基準画像記憶部126には、正面、横向き、上向き、下向きのそれぞれについての基準画像が準備されている。顔・パーツ検出部122は、これら基準画像のそれぞれと入力された画像とのマッチングを実行し、最もマッチするもので顔検出をすることで、ユーザの顔がいずれの向きを向いていても顔の領域を特定することが可能である。また、正面顔の状態では、両目が平行のときを中立位置として、この基準画像を傾けたものと入力画像とのマッチングを実行することで、顔の傾きの角度も検出することができる。
手検出部124は、画面内の所定の部分において動き検出を実行し、ユーザの手の動きを検出する。この検出は、公知の任意の技術を使用することができる。
動作検出部108は、領域特定部106で特定された顔の領域の画像および各種パーツの領域の画像を複数フレーム分参照して、ユーザの顔の動作およびパーツの動作を検出する。動作検出部108の詳細な構成は、図4を参照して後述する。
イベント実行部110は、顔の動作およびパーツの動作とイベントとを関連づけたテーブルを保持し、動作検出部108により検出された顔またはパーツの動作に対応するイベントをテーブルから検索してそのイベントを実行する。「イベント」には、アプリケーションに対する操作指示と、オブジェクトの画面表示が含まれる。操作指示には、ヘルプの表示、キャンセル、決定、選択、メニューの表示、終了、移動方向の入力などが含まれる。イベント実行部110の詳細な構成は、図4を参照して後述する。
画像合成部116は、画像反転部104により生成された鏡面動画像と、イベント実行部110により生成されたオブジェクト画像とを合成した合成画像を図示しないフレームメモリに描画する。表示制御部118は、画像合成部116により合成された画像のディスプレイ装置4への表示を制御する。
図2に示したハードウェア構成との関係では、画像入力部102は入出力制御装置18などにより構成される。画像反転部104、領域特定部106、動作検出部108、イベント実行部110はCPU12、メインメモリ14、GPU16などにより構成される。画像合成部116はGPU16により構成され、表示制御部118はGPU16と表示制御装置24により構成される。
図4は、動作検出部108およびイベント実行部110の詳細な構成を示す機能ブロック図である。これらの機能ブロックも、ハードウェアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できる。
動作検出部108は、顔傾き軸判定部150、変位量判定部152、パーツ動作判定部154および画面状態取得部156を含む。
顔傾き軸判定部150は、ユーザの顔の傾きが、画面上に定義される三次元座標のいずれの軸回りのものであるかを判定する。上述したように、領域特定部106は、正面、横向き、上向き、下向きの顔についてそれぞれ基準画像を保持しており、顔の領域を特定する際にいずれの向きの顔であるかについても特定することができる。したがって、顔傾き軸判定部150は、領域特定部106で特定された顔の向きを複数フレームについて取得し、この間の顔の向きの変化にしたがって顔の傾き軸を決定する。顔の傾き軸の具体例については後述する。顔の向きの変化は、目の数の変化で判定することもできる。例えば、あるフレームでは両目が映っていたが、後のフレームでは片目になっていたときは、顔を横に振ったものと判定できる。
変位量判定部152は、顔傾き軸判定部150により顔の傾き軸が決定された後、その軸に垂直な平面内でユーザの顔の傾けられた角度を算出する。領域特定部106において、入力画像内の顔が傾いている場合は基準画像を傾けたものとのマッチングにより顔領域を検出しているため、基準画像の傾き角を算出すれば、顔の傾き角を求めることができる。変位量判定部152は、顔の傾き角が予め定められたしきい値、例えば40度以上になったとき、顔を傾けていると判定するようにしてもよい。また、変位量判定部152は、ユーザが顔を傾けている持続時間を計測してもよい。これは、顔の領域を特定するために基準画像を傾けたものを何フレームにわたって用いたかによって、算出することができる。変位量判定部152は、計測した時間が予めしきい値以上になったとき、顔が傾けられていると判定してもよい。さらに、変位量判定部152は、顔の傾きの繰り返し数をカウントしてもよい。
パーツ動作判定部154は、領域特定部106で特定された顔のパーツ毎の領域の画像を複数フレームについて取得し、複数フレーム間の差分に基づいてパーツ毎の動作を検出する。検出する動作は、例えば、目の開閉(瞬き)、口の開閉などである。
画面状態取得部156は、ユーザによる顔の動作や手の動作が行われているときに、ディスプレイ装置4に表示されている画面状態を取得する。ここでいう画面状態には、画面上のオブジェクトの配置や運動、ユーザの鏡面動画像の画面内での位置のことである。この画面状態を取得することによって、後述する接触判定や、特定のオブジェクトが配置されているときの顔の動作によってイベントを実行するといった制御が実現できる。
イベント実行部110は、入力条件判定部158、テーブル記憶部160、操作指示部162、オブジェクト生成部112およびオブジェクトデータ記憶部114を含む。
テーブル記憶部160は、顔傾き軸判定部150、変位量判定部152、およびパーツ動作判定部154で判定または検出された顔の動作と、イベントとを関連づけたテーブルを格納する。顔の動作には、顔傾き軸、顔の傾き角、パーツの動作が含まれ、イベントには、決定、キャンセルといった画像処理装置10で実行されるアプリケーションに対する操作指示と、画面上へのオブジェクトの表示とが含まれる。テーブルに定義されている顔の動作とイベントとの組合せの例は、図8を参照して後述する。
入力条件判定部158は、顔傾き軸判定部150、変位量判定部152、およびパーツ動作判定部154で判定または検出された顔の動作に対応するイベントをテーブル記憶部160から検索し、さらにテーブルで定義されている条件を満たしているか否かを判定する。
オブジェクトデータ記憶部114は、ディスプレイ装置4の画面に表示するためのオブジェクトデータを格納する。オブジェクトデータには、メニュー画像、カーソル画像、ユーザのアクションを装飾するための画像、画像処理装置で実行されるゲームを構成するための画像などが含まれる。
オブジェクト生成部112は、オブジェクトデータ記憶部114からオブジェクトデータを取り込み、オブジェクト画像を生成する。オブジェクト生成部112は、入力条件判定部158においてテーブルで定義されている条件が満たされたと判定されたとき、同じくテーブルに定義されているオブジェクト画像を生成する。オブジェクト生成部112は、オブジェクトの表示形態を時間の経過とともに変化させたり、動作検出部108により算出された顔の傾き角の増大または減少とともにオブジェクトの表示形態を変化させたりもする。
操作指示部162は、入力条件判定部158においてテーブルで定義されている条件が満たされたと判定されたとき、テーブルで関連づけられている操作を実行する。
入力条件判定部158は、手とオブジェクトとの接触判定も実行する。鏡面画像の手が画面上に配置されたオブジェクトに接触したと判定すると、オブジェクトに関連つけられたイベントを実行するように、操作指示部162およびオブジェクト生成部112に指令する。
図5は、本実施形態にかかる顔の動作による入力インタフェースを実現するフローチャートである。
まず、画像入力部102によりユーザの画像が取得され、画像反転部104によって作成されたユーザの鏡面動画像がディスプレイ装置4に表示される(S10)。次に、領域特定部106により、ユーザの顔の領域およびパーツの領域が特定される(S12)。動作検出部108は、複数フレーム分の顔の領域の画像、およびパーツの領域の画像を用いて、それぞれ顔の動作とパーツの動作を検出する(S14)。動作検出部108はさらに、検出した顔の動作の傾き軸および変位量を判定する(S16)。
入力条件判定部158は、S16で判定された顔の動作またはパーツの動作に関連づけられたイベントがテーブル記憶部160内のテーブルに定義されているか否かを判定する(S18)。定義されていなければ(S18のN)、このフローを終了する。定義されていれば(S18のY)、S16で検出された変位量や持続時間、繰り返し回数などの条件が、テーブルに定義されている条件を満たすか否かを判定する(S20)。条件を満たさなければ(S20のN)、このフローを終了する。条件を満たしていれば(S20のY)、イベント実行部110はテーブルに関連づけられているイベントを実行する(S22)。
図6は、図5のS12における顔またはパーツの検出方法を示すフローチャートである。
まず、領域特定部106は、入力画像を1フレーム分取得する(S30)。この画像に対し、ノイズを除去して特徴量を効果的に抽出するためのフィルタリング処理を行う(S32)。続いて、基準画像記憶部126に格納されている顔の基準画像と入力画像とを比較するパターンマッチングを実行する(S34)。顔の基準画像は、数十から数百の様々な人物の顔の画像を元に作成された画像であり、この基準画像との類似度が高ければ、画像内のその部分は顔である可能性が高くなる。そこで、領域特定部106は、入力画像のある領域について、基準画像との類似度を算出する(S36)。多くの場合、基準画像と入力画像間では、顔の位置や大きさが異なる。そこで、入力画像と基準画像間の類似度を計算する前に、入力画像をオフセットしたり、入力画像を拡大または縮小してもよい。類似度の算出手法は種々のものがあり、任意のものを使用できる。この手法は既知であるので、詳細な説明は省略する。
領域特定部106は、類似度と予め定められたしきい値とを比較して、類似度がしきい値以上か否かを判定する(S38)。しきい値未満であれば(S38のN)、この領域は顔でないと判定されるため、S34に戻り入力画像の他の部分について基準画像とのマッチングを継続する。S38において類似度がしきい値以上であれば(S38のY)、顔の領域が確定する(S40)。
顔の領域が確定すると、続いて顔の領域の画像内で顔のパーツの領域、例えば目、鼻、口の領域を探索する。顔の領域内の一部分の画像とパーツの基準画像とを比較し(S42)、上記と同様にして類似度を算出する(S44)。領域特定部106は、パーツ毎に、類似度と予め定められたしきい値とを比較して、類似度がしきい値以上か否かを判定する(S46)。しきい値未満であれば(S46のN)、S42に戻り、顔の領域の画像の他の部分について基準画像とのパターンマッチングを継続する。S46において類似度がしきい値以上であれば(S46のY)、パーツの領域が確定する(S48)。パーツの領域の検出は、他の手法を用いてもよい。例えば、目と口の領域を確定した後、目と口との相対位置関係から鼻の位置を推測し、鼻の領域を確定してもよい。
以上のようにして、入力画像から、ユーザの顔の位置、大きさ、目、鼻、口などのパーツの位置を検出することができる。
類似度算出による顔領域の検出は公知であるため、これ以上の説明は省略する。なお、上述以外の手法によって顔の領域を特定してもよい。
図7(a)〜(c)は、顔の傾き軸の例を示す模式図である。(a)〜(c)は、ディスプレイ装置に映し出されたユーザの鏡面画像を表している。画面内の空間に三次元座標を想定する。(a)に示すように、ユーザが首を傾げるような動きをしたときは、x軸回りの傾きと判定される。(b)に示すように、ユーザが上または下を向くような動作をしたときは、y軸回りの傾きと判定される。(c)に示すように、ユーザが左または右を向くような動作をしたときは、z軸回りの傾きと判定される。顔傾き軸の判定は、上述したように、顔の向きの変化に基づいて行う。例えば、あるフレームでの顔の向きが正面と判定され、数フレーム後の顔の向きが左顔と判定されれば、顔の傾き軸はz軸であると判定できる。x軸、y軸についても同様である。
図8は、テーブル記憶部に記憶される、顔の動作とイベントとを関連つけたテーブル40の一例を示す。「動作部位」欄30は、動作検出部108で動作が検出された、顔、目、口などの部位を表す。「動作内容」欄32は、動作検出部108で検出された動作を示しており、動作部位が顔であれば回転の方向を、目や口であれば開閉のことである。目を「隠す」とあるのは、手などで目を覆ったために顔の領域内のあるべきところに目の画像が検出されなかった場合である。「条件」欄34は、動作内容欄32で示した動作内容がなされたと判定するための条件であり、入力条件判定部158で判定される。この条件には、変位量判定部152で検出される顔の傾きの角度や、動作の持続時間、動作の繰り返し数などが含まれる。
「オブジェクト」欄36は、ある行の欄30〜34で定義された動作が満たされたときに、画面表示するべきオブジェクトを表している。オブジェクトには、図示するように「?」マーク、「OK」「使い方ガイド」などの文字列、「マル」「バツ」などの記号などのほか、表示中のオブジェクトを消去することも含まれる。「操作指示」欄38は、ある行の欄30〜34で定義された動作が満たされたときに、画像処理装置で実行中のアプリケーションに対してなされるべき操作指示を表している。この操作指示には、ヘルプの表示、キャンセル、決定、選択、メニューの表示、終了、移動方向の入力などが含まれる。
一例を挙げると、テーブル40の上から2行目を参照して、検出したユーザの顔がx軸回りに40度回転したとき、オブジェクト生成部112は画面上にオブジェクト「?」を表示し、さらに操作指示部162はヘルプメニューを表示するようにアプリケーションに対して指示する。
なお、テーブル40において操作指示と関連つけられた顔の動作は、ユーザがその操作指示を現実世界で表現するときの動作と近似する動作であることが好ましい。例えば、人間は分からないことがあったときには図7(a)のように首を傾げる動作をする。したがって、この動きをx軸回りの傾きと判定し、分からないことを解決するためのヘルプメニューを表示するイベントと関連づける。また、承諾をするときには図7(b)のように頷く動作をするが、この動きをy軸回りの傾きと判定し、決定の操作指示を出すイベントと関連づける。さらに、否定するときには図7(c)のように首を横に振る動作をするが、この動きをz軸回りの回転と判定し、キャンセルの操作指示を出すイベントと関連づける。当然であるが、動作とイベントの組合せはこれに限られるわけではなく、全く関係ないイベントや、動作と逆の意味を持つイベントと関連づけてもよい。後者であれば、逆の動作をユーザに要求することで、ゲーム性を高めることにもなりうる。
また、人間の身振りが表す意味は、ユーザの人種や国によって異なることもあるので、複数のテーブルを予め準備しておき、ユーザが国を選択するとそれに適したテーブルが使用されるようにしてもよい。
以上説明したような画像処理システムの構成のもと、本実施形態にかかる顔インタフェースを使用した画面操作の実施例をいくつか説明する。
実施例1.
図9(a)〜(c)は、首を傾けるとヘルプを出現させる実施例における画面変化の一例を示す。アプリケーションの進行中に何か分からないことが出てきたときに、ユーザが顔をx軸回りに傾ける動作をすると(図9(a))、動作検出部108は、顔の領域の検出を通して、顔の傾き軸と傾き角を判定する。顔の傾き角がテーブルで定義されている条件に達すると、オブジェクト生成部112は、画面内のユーザの鏡面画像の頭の近傍に、オブジェクト「?」を表示する(図9(b))。出現した「?」のオブジェクトにユーザが手で触れる動作をすると、入力条件判定部158により接触が判定されて、オブジェクト生成部により「使い方ガイド」の文字が画面上に表示される(図9(c))。その後、ヘルプ画面が表示される。このヘルプ画面についても、顔パーツや手などの動作で操作できるようにしてもよいし、またはコントローラなどで操作可能であってもよい。
図10(a)〜(c)は、首を振るとヘルプが消える実施例における画面変化の一例を示す。「使い方ガイド」の文字が画面上に表示されている状態で(図10(a))、ヘルプの必要がなくなったため、ユーザが首を振る動作をすると(図10(b))、動作検出部108は、顔の領域の検出を通して顔の傾き軸と傾き角を判定する。入力条件判定部158によって、顔を振った回数がテーブルで定義されている条件に達したと判定されると、オブジェクト生成部112によって、ユーザの鏡面画像の頭の近傍に表示されていた「使い方ガイド」の文字列のオブジェクトが画面の左端に向けて飛んでいき、画面から消えるような演出がなされる(図10(c))。「使い方ガイド」の文字列のオブジェクトに対して、ユーザが手で振り払う動作をしたときに、オブジェクトが画面から消えるようにしてもよい。
図9や図10に示した動作は、ユーザが無意識のうちにしてしまうことがあるため、誤作動を防止するために、その動作を複数回繰り返すことで認識されるようにすることが好ましい。また、動作の繰り返し数の大小によって、異なるイベントに関連づけられていてもよい。
また、x、y、z軸の回転にイベントを対応づけるほか、正面からの顔の向きの方向、例えば、右上、右下、左上、左下への顔の動きにそれぞれ別のイベントを割り当ててもよい。
実施例2.
図11(a)〜(d)は、動作の継続時間を判定する実施例における画面変化の一例を示す。
ユーザが、アプリケーションの進行中に何か分からないことが出てきたときに、顔をx軸回りに傾ける動作をすると(図11(a))、動作検出部108は、顔の領域の検出を通して顔の傾き軸と傾き角を判定する。入力条件判定部158により顔の傾き角がテーブルで定義されている条件で指定されている角度以上になったと判定されると、オブジェクト生成部112によって、画面内のユーザの鏡面画像の頭の近傍に小さめのオブジェクト「?」が表示される(図11(b))。顔を傾けた状態を継続すると、時間に応じてオブジェクトが次第に拡大していき(図11(c))、その状態が所定の時間(例えば3秒)以上継続したと判定されると、オブジェクトが消滅してオブジェクト生成部112により「使い方ガイド」の文字列オブジェクトが鏡面画像の頭の近傍に表示される(図11(d))。その後、コントローラなどによる操作で項目を検索できるヘルプ画面が表示される。一旦オブジェクト「?」が出現した後、ユーザが顔を元の状態に戻すと、オブジェクトは次第に小さくなっていき、画面から消滅する。
誤作動を防止するために、角度で判断する要素を取り入れてもよい。例えば、ユーザが顔をx軸回りに傾ける動作を始めると、画面内のユーザの鏡面画像の近傍に、小さめのオブジェクト「?」が表示される。傾き角が大きくなるにつれて、オブジェクトも拡大していき、傾き角が所定の大きさ以上になると、オブジェクトが消滅して「使い方ガイド」の文字列オブジェクトが鏡面画像の頭の近傍に表示される。一旦オブジェクト「?」が出現した後、ユーザが顔の傾きを小さくすると、それに合わせてオブジェクトも小さくなり、画面から消滅する。顔の傾き角に応じてオブジェクトの表示位置をずらすようにしてもよい。また、他のメニューが先に画面に表示されていた場合、オブジェクト生成部112は、そのメニューにオブジェクトが重ならないようにオブジェクトの出現位置を変えてもよい。図示しないコントローラを介してオブジェクトの出現位置をユーザが指示できるように構成してもよい。
ユーザが顔を傾ける方向に応じてオブジェクト「?」が表示される位置を変えるようにしてもよい。例えば、オブジェクトをユーザの顔の中心軸の延長線上に表示するようにすれば、ユーザが右、左のいずれの方向に顔を傾けても頭部付近にオブジェクトが表示されるようになる。ユーザが顔を傾ける動作の速度に応じてオブジェクト「?」の表示位置を変えるようにしてもよい。
このように、動作の継続や大きさの要素を判定に加えることで、選択や決定などの操作指示が、ユーザの偶然の動作でなされることを防止でき、操作の確実性を高められる。また、所定の動作が検出された段階でオブジェクトを表示して、その後の動作に応じてオブジェクトの表示態様を変化させることで、ユーザは、自らの動作が正しいかまたは間違っているのかを視覚的に認識することができる。つまり、ユーザに対して現在の動作を継続するか中止するかの示唆を自然に与えることができる。
これと合わせて、図示しない音声制御部によって、オブジェクトの表示態様の変化に合わせて所定の効果音を出力するようにしてもよい。例えば、図11の例において、オブジェクトが次第に拡大していくのに合わせて効果音の音量を増やすようにすれば、ユーザの動作が装置によって検出されていることを聴覚的にユーザに知らせることができる。
図11では、ヘルプの際の動作を例として説明したが、決定やキャンセルの場合でも同様のことができる。
実施例3.
一般的なゲームのコントローラ機能の全てまたは一部を、顔の動作で代替するようにしてもよい。例えば、顔の回転方向、つまり上向き、下向き、左向き、右向きをコントローラの十字キーの上下左右の入力と同等とする。さらに、顔のパーツのうち、例えば右目の開閉をマルボタン(一般的な機能は「決定」)、左目の開閉のバツボタン(一般的な機能は「キャンセル」)の押下とそれぞれ対応させる。こうすることで、より複雑な操作指示を顔の動作で表現することができる。
また、顔の動作に応じたメニュー画面がディスプレイ装置に表示されるようにしてもよい。例えば、顔の向いた方向にメニュー画面を表示させてもよい。表示されたメニュー画面内に選択、実行、キャンセルなどを表すオブジェクトを表示させ、顔の動作でそれらを選択できるようにしてもよい。
実施の形態2.
実施例1〜3では、ユーザの鏡面画像がディスプレイ装置に映し出されていた場合を述べたが、ユーザの動作が認識さえできていれば、鏡面画像が映し出される必要はない。
以下、ユーザの鏡面画像を表示しない場合の実施例を述べる。
実施例4.
記録媒体に格納されているデジタル写真のスライドショーを実行するアプリケーションを考える。ディスプレイ装置に写真が表示されている状態で、ユーザが顔をz軸回りに回転させたとする。動作検出部108がこの動作を検出すると、イベント実行部110は、現在表示されている写真を顔を向けた方向に移動させ、次の写真をディスプレイ装置に表示させる。また、ディスプレイ装置に複数枚の写真が表示されている状態で、ユーザが顔をy軸回りに回転、つまり「頷く」ような動作をしたとする。動作検出部108がこの動作を検出すると、イベント実行部110は、複数枚の写真のうちその時点でフォーカスの当たっている写真を選択して、ディスプレイ装置の画面全体に拡大表示させる。さらに、ディスプレイ装置に写真が表示されている状態で、動作検出部108により目の開閉が検出されると、イベント実行部110はスライドショーを終了させる。
実施例5.
一人称視点のゲーム、つまりディスプレイ装置に相対しているユーザの視点が画面表示される態様のゲームを想定する。このようなゲームにおいて、画面に分かれ道が表示されたとき、ユーザが顔を向けた方向を動作検出部108により検出し、その方向の道が選択されたときの画像をイベント実行部110が作成して表示する。また、ユーザが下を向くと、見下ろした画像が表示され、上を向くと、空が見えるといったようにすれば、ユーザがゲームの仮想空間内にいる感覚を強めることができる。
なお、ユーザの鏡面画像を画面の片隅に映し出しておいてもよい。こうすることで、ユーザの動作が画像処理装置に認識されていることをユーザに知らしめることができる。
以上、本発明をいくつかの実施形態について説明した。本発明によれば、顔の動きという非常に簡単かつ負荷の少ない動作で入力を与えることができ、ユーザにとって自然かつ簡単な入力インタフェースを提供することができる。
また、何かの行動に対してすぐに反応すること、今どのような状態かをリアルタイムに明示することが、対話型のユーザインタフェースでは重要である。本発明では、ユーザの動作に応じて画面にオブジェクトが表示されるので、ユーザの動作が画像処理装置に認識されていることを伝達することができる。また、ユーザの動作に応じて画面に表示されるオブジェクトの表示形態を変化させることで、ユーザに対して、現在の動作が所望の機能を導くものか否かを視覚的に認識させ、動作の継続または中止を自然に誘導することができる。さらに、ユーザは画像と対話していく中で、無意識のうちに扱い方や遊び方を取得していくことができる。
以上、実施の形態をもとに本発明を説明した。これらの実施の形態は例示であり、各構成要素またはプロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施の形態で述べた構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、記録媒体などの間で変換したものもまた、本発明の態様として有効である。また、本明細書にフローチャートとして記載した方法は、その順序にそって時系列的に実行される処理のほか、並列的または個別に実行される処理をも含む。
ゲームなどのアプリケーションプログラムと、本発明のユーザインタフェースプログラムとは、同一の記録媒体によって提供されてもよいし、別の記録媒体によって提供されてもよい。本発明のユーザインタフェースプログラムは、予めゲーム装置などに組み込まれていてもよい。
実施の形態では、カメラによって撮影されたユーザの鏡面画像がそのままディスプレイ装置に映し出されることを説明したが、ユーザの代わりにキャラクタを映し出し、ユーザの動作に合わせて動かすようにしてもよい。キャラクタは人型であってもよいし、顔や手の動作が分かれば、動物や非生物であってもよい。単に目、鼻、口に対応するオブジェクトが映ってもよい。
この場合でも、ユーザの鏡面画像に基づいた顔、パーツの領域特定、動作の検出は常に実行されており、検出した動作に関連づけられたイベントが発生することも上述の実施形態と同様である。
本発明による動作検出を、音声認識の補助として使ってもよい。画像処理装置がユーザの発する音声を認識して対応する文字を入力する音声入力機能を有しているとき、ユーザの「はい」や「いいえ」と発生するときの口の動作をも考慮して、決定やキャンセルの操作指示を出すことができる。
本発明の一実施形態である画像処理装置を用いた画像処理システムの構成を示す図である。 画像処理装置のハードウェア構成図である。 本実施形態にかかるユーザインタフェース装置の構成を示す図である。 動作検出部およびイベント実行部の詳細な構成を示す機能ブロック図である。 本実施形態にかかる顔の動作による入力インタフェースを実現するフローチャートである。 図5のS12における顔またはパーツの検出方法を示すフローチャートである。 図7(a)〜(c)は、顔の傾き軸の例を示す模式図である。 テーブル記憶部に記憶される、顔の動作とイベントとを関連つけたテーブルの一例を示す図である。 図9(a)〜(c)は、首を傾けるとヘルプを出現させる実施例における画面変化の一例を示す図である。 図10(a)〜(c)は、首を振るとヘルプが消える実施例における画面変化の一例を示す図である。 図11(a)〜(c)は、動作の継続時間を判定する実施例における画面変化の一例を示す図である。
符号の説明
2 カメラ、 4 ディスプレイ装置、 10 画像処理装置、 40 テーブル、 102 画像入力部、 104 画像反転部、 106 領域特定部、 108 動作検出部、 110 イベント実行部、 112 オブジェクト生成部、 114 オブジェクトデータ記憶部、 116 画像合成部、 118 表示制御部、 120 画像比較部、 122 顔・パーツ検出部、 124 手検出部、 126 基準画像記憶部、 150 顔傾き軸判定部、 152 変位量判定部、 154 パーツ動作判定部、 156 画面状態取得部、 158 入力条件判定部、 160 テーブル記憶部、 162 操作指示部。

Claims (20)

  1. 撮像装置により撮像されたユーザの画像から該ユーザの顔の領域を特定する領域特定機能と、
    特定された顔の領域の画像を用いてユーザの顔の動作を検出する動作検出機能と、
    顔の動作とイベントとを関連づけたテーブルを保持し、前記動作検出機能により検出された顔の動作に対応するイベントを前記テーブルから検索して該イベントを実行するイベント実行機能と、
    をコンピュータに発揮せしめることを特徴とするユーザインタフェースプログラム。
  2. 前記動作検出機能はユーザの顔の傾きを動作として検出することを特徴とする請求項1に記載のユーザインタフェースプログラム。
  3. 前記動作検出機能は、検出したユーザの顔の傾きが、画面上に定義される三次元座標のいずれの軸回りのものであるかを判定し、
    前記イベント実行機能は、前記動作検出機能により判定された顔の傾き軸に応じて異なるイベントを実行することを特徴とする請求項2に記載のユーザインタフェースプログラム。
  4. 前記領域特定機能は、特定された顔の領域内で顔を構成するパーツの領域をさらに特定し、
    前記動作検出機能で検出される顔の動作には前記パーツの動作が含まれることを特徴とする請求項1に記載のユーザインタフェースプログラム。
  5. 顔の動作に応じたメニュー画面を画面上に表示させる表示機能をさらに含むことを特徴とする請求項1に記載のユーザインタフェースプログラム。
  6. 前記イベント実行機能は、顔の動作に応じてメニュー画面の選択、実行、キャンセルのいずれかを指定可能とすることを特徴とする請求項1に記載のユーザインタフェースプログラム。
  7. 前記イベント実行機能により実行されるイベントには、前記コンピュータで実行されるアプリケーションに対する操作指示が含まれ、前記テーブルにおいて前記操作指示と関連つけられた顔の動作の少なくとも一部は、ユーザがその操作指示を現実世界で表現するときの動作と近似する動作であることを特徴とする請求項1ないし4のいずれかに記載のユーザインタフェースプログラム。
  8. 前記動作検出機能はユーザの顔の動作の繰り返し数をカウントし、
    前記イベント実行機能は、前記繰り返し数に応じて異なるイベントを実行することを特徴とする請求項1ないし4のいずれかに記載のユーザインタフェースプログラム。
  9. 前記動作検出機能はユーザの顔の動作の繰り返し数をカウントし、
    前記イベント実行機能は、前記繰り返し数がしきい値に達したとき、前記テーブルにおいて前記顔の動作に関連つけされたイベントを実行することを特徴とする請求項1ないし4のいずれかに記載のユーザインタフェースプログラム。
  10. 前記領域特定機能は、正面、横向き、上向き、下向きの顔について基準画像を保持しており、該基準画像と前記特定された顔の領域の画像とのマッチングによって顔の向きを検出し、
    前記動作検出機能は、複数時点における顔の向きの変化にしたがって前記顔の傾き軸を決定することを特徴とする請求項3に記載のユーザインタフェースプログラム。
  11. 前記動作検出機能はユーザの口の動作を検出し、
    当該ユーザインタフェースプログラムが、ユーザの発する音声を認識して対応する文字を入力する音声入力機能をさらに有しているとき、音声を認識するときに前記動作検出機能により検出された口の動きを参照することを特徴とする請求項4に記載のユーザインタフェースプログラム。
  12. 前記動作検出機能は、前記顔の動作が持続している時間を計測し、計測した時間がしきい値以上になったとき前記顔の動作が実行されたものと判定することを特徴とする請求項1ないし4のいずれかに記載のユーザインタフェースプログラム。
  13. 前記イベント実行機能は、前記動作検出機能により検出された顔の動作に関連つけられるイベントがオブジェクトの画面表示であるとき、該オブジェクトを生成するオブジェクト生成機能を有し、
    前記オブジェクト生成機能は、前記オブジェクトの表示形態を前記時間の経過とともに変化させることを特徴とする請求項12に記載のユーザインタフェースプログラム。
  14. 前記動作検出機能はユーザの顔の傾き角を算出し、該傾き角がしきい値以上になったとき顔を傾けていると判定することを特徴とする請求項2または3に記載のユーザインタフェースプログラム。
  15. 前記イベント実行機能は、前記動作検出機能により検出された顔の動作に関連つけられるイベントがオブジェクトの画面表示であるとき、該オブジェクトを生成するオブジェクト生成機能を有し、
    前記オブジェクト生成機能は、前記動作検出機能により算出された顔の傾き角の増大または減少とともに前記オブジェクトの表示形態を変化させることを特徴とする請求項14に記載のユーザインタフェースプログラム。
  16. 前記撮像装置により撮像されたユーザの鏡面画像と前記オブジェクトと合成してひとつの画像を生成する画像合成機能をさらにコンピュータに発揮せしめることを特徴とする請求項13または15に記載のユーザインタフェースプログラム。
  17. 請求項1ないし16のいずれかに記載のプログラムを格納することを特徴とする記録媒体。
  18. 撮像装置により撮像されたユーザの画像から該ユーザの顔の領域を特定する領域特定部と、
    特定された顔の領域の画像を用いてユーザの顔の動作を検出する動作検出部と、
    顔の動作とイベントとを関連づけたテーブルを保持し、前記動作検出部により検出された顔の動作に対応するイベントを前記テーブルから検索して該イベントを実行するイベント実行部と、
    を備えることを特徴とするユーザインタフェース装置。
  19. 撮像装置により撮像されたユーザの画像から該ユーザの顔の領域を特定し、
    特定された顔の領域の画像を用いてユーザの顔の動作を検出し、
    検出された顔の動作に対応するイベントを所定のテーブルから検索し、
    検索したイベントを実行することを特徴とするユーザインタフェース方法。
  20. ユーザを撮像する撮像手段と、
    撮像されたユーザの画像を映し出す表示手段と、
    前記ユーザの画像からユーザの顔の領域を特定する領域特定手段と、
    特定された顔の領域の画像を用いてユーザの顔の動作を検出する動作検出手段と、
    顔の動作とイベントとを関連づけたテーブルを保持し、前記動作検出手段により検出された顔の動作に対応するイベントを前記テーブルから検索して該イベントを実行するイベント実行手段と、
    を備えることを特徴とする情報処理システム。
JP2006188635A 2006-07-07 2006-07-07 ユーザインタフェースプログラム、装置および方法、情報処理システム Active JP4781181B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006188635A JP4781181B2 (ja) 2006-07-07 2006-07-07 ユーザインタフェースプログラム、装置および方法、情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006188635A JP4781181B2 (ja) 2006-07-07 2006-07-07 ユーザインタフェースプログラム、装置および方法、情報処理システム

Publications (2)

Publication Number Publication Date
JP2008015942A true JP2008015942A (ja) 2008-01-24
JP4781181B2 JP4781181B2 (ja) 2011-09-28

Family

ID=39072863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006188635A Active JP4781181B2 (ja) 2006-07-07 2006-07-07 ユーザインタフェースプログラム、装置および方法、情報処理システム

Country Status (1)

Country Link
JP (1) JP4781181B2 (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009484A (ja) * 2008-06-30 2010-01-14 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法
WO2010095190A1 (ja) * 2009-02-19 2010-08-26 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
WO2010095191A1 (ja) 2009-02-19 2010-08-26 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2012058884A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、および情報処理方法
JP2012068854A (ja) * 2010-09-22 2012-04-05 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム
JP2012521038A (ja) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション 連鎖アニメーション
JP2012190126A (ja) * 2011-03-09 2012-10-04 Nec Casio Mobile Communications Ltd 入力装置、入力方法
JP2013003650A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置及びプログラム
JP2013016060A (ja) * 2011-07-05 2013-01-24 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム
KR101428014B1 (ko) 2013-10-31 2014-08-07 동국대학교 산학협력단 가상화 환경에서 nui 및 nux를 시뮬레이션하는 방법 및 장치
JP2015508211A (ja) * 2012-02-23 2015-03-16 インテル コーポレイション カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
JP2015527627A (ja) * 2012-06-04 2015-09-17 株式会社ソニー・コンピュータエンタテインメント マルチ画像インタラクティブゲーミングデバイス
JP2016012261A (ja) * 2014-06-30 2016-01-21 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US9329691B2 (en) 2010-09-22 2016-05-03 Shimane Prefectural Government Operation input apparatus and method using distinct determination and control areas
JP2017004553A (ja) * 2016-08-22 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US10037078B2 (en) 2012-03-29 2018-07-31 Sony Corporation Information processing apparatus, information processing method, and computer program
US10304104B2 (en) 2016-03-25 2019-05-28 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable medium
CN110050251A (zh) * 2016-12-06 2019-07-23 皇家飞利浦有限公司 向用户显示引导指示符
US10486064B2 (en) 2011-11-23 2019-11-26 Sony Interactive Entertainment America Llc Sharing buffered gameplay in response to an input request
US10525347B2 (en) 2012-03-13 2020-01-07 Sony Interactive Entertainment America Llc System and method for capturing and sharing console gaming data
US10610778B2 (en) 2011-11-23 2020-04-07 Sony Interactive Entertainment America Llc Gaming controller
JP2020532404A (ja) * 2017-09-05 2020-11-12 コヴィディエン リミテッド パートナーシップ ロボット外科システムおよびロボット外科システムを制御するための方法およびコンピュータ可読媒体
US10960300B2 (en) 2011-11-23 2021-03-30 Sony Interactive Entertainment LLC Sharing user-initiated recorded gameplay with buffered gameplay
JP2022003528A (ja) * 2020-02-06 2022-01-11 グリー株式会社 仮想画像表示プログラム、仮想画像表示システム及び仮想画像表示方法
JP7428390B2 (ja) 2021-05-14 2024-02-06 株式会社システック 表示面内の表示位置移動指示システム
US11896897B2 (en) 2015-09-16 2024-02-13 Gree, Inc. Virtual image display program, virtual image display apparatus, and virtual image display method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05188993A (ja) * 1991-12-19 1993-07-30 Tokico Ltd 音声認識装置
JPH0944297A (ja) * 1995-07-25 1997-02-14 Canon Inc データ入力方法及びその装置
JPH10105310A (ja) * 1996-09-27 1998-04-24 Nissan Motor Co Ltd 身振り入力装置及びそれを含む入力装置
JP2002323956A (ja) * 2001-04-25 2002-11-08 Nippon Telegr & Teleph Corp <Ntt> マウス代替方法、マウス代替プログラム、および同プログラムを記録した記録媒体
JP2003141551A (ja) * 2001-10-31 2003-05-16 Toshiba Corp 顔向き計算方法及びその装置
JP2004354930A (ja) * 2003-05-30 2004-12-16 Calsonic Kansei Corp 音声認識システム
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2006107283A (ja) * 2004-10-07 2006-04-20 Toshiba Corp 文書作成装置、文書作成方法及び文書作成プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05188993A (ja) * 1991-12-19 1993-07-30 Tokico Ltd 音声認識装置
JPH0944297A (ja) * 1995-07-25 1997-02-14 Canon Inc データ入力方法及びその装置
JPH10105310A (ja) * 1996-09-27 1998-04-24 Nissan Motor Co Ltd 身振り入力装置及びそれを含む入力装置
JP2002323956A (ja) * 2001-04-25 2002-11-08 Nippon Telegr & Teleph Corp <Ntt> マウス代替方法、マウス代替プログラム、および同プログラムを記録した記録媒体
JP2003141551A (ja) * 2001-10-31 2003-05-16 Toshiba Corp 顔向き計算方法及びその装置
JP2004354930A (ja) * 2003-05-30 2004-12-16 Calsonic Kansei Corp 音声認識システム
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2006107283A (ja) * 2004-10-07 2006-04-20 Toshiba Corp 文書作成装置、文書作成方法及び文書作成プログラム

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009484A (ja) * 2008-06-30 2010-01-14 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法
WO2010095190A1 (ja) * 2009-02-19 2010-08-26 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
WO2010095191A1 (ja) 2009-02-19 2010-08-26 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2010191827A (ja) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2010191826A (ja) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
US8879787B2 (en) 2009-02-19 2014-11-04 Sony Corporation Information processing device and information processing method
US8509484B2 (en) 2009-02-19 2013-08-13 Sony Corporation Information processing device and information processing method
US9824480B2 (en) 2009-03-20 2017-11-21 Microsoft Technology Licensing, Llc Chaining animations
JP2012521038A (ja) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション 連鎖アニメーション
US9478057B2 (en) 2009-03-20 2016-10-25 Microsoft Technology Licensing, Llc Chaining animations
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US8842890B2 (en) 2010-09-07 2014-09-23 Sony Corporation Method and device for detecting a gesture from a user and for performing desired processing in accordance with the detected gesture
JP2012058884A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、および情報処理方法
JP2012068854A (ja) * 2010-09-22 2012-04-05 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム
US9329691B2 (en) 2010-09-22 2016-05-03 Shimane Prefectural Government Operation input apparatus and method using distinct determination and control areas
JP2012190126A (ja) * 2011-03-09 2012-10-04 Nec Casio Mobile Communications Ltd 入力装置、入力方法
JP2013003650A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置及びプログラム
JP2013016060A (ja) * 2011-07-05 2013-01-24 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム
US10486064B2 (en) 2011-11-23 2019-11-26 Sony Interactive Entertainment America Llc Sharing buffered gameplay in response to an input request
US11065533B2 (en) 2011-11-23 2021-07-20 Sony Interactive Entertainment LLC Sharing buffered gameplay in response to an input request
US10960300B2 (en) 2011-11-23 2021-03-30 Sony Interactive Entertainment LLC Sharing user-initiated recorded gameplay with buffered gameplay
US10610778B2 (en) 2011-11-23 2020-04-07 Sony Interactive Entertainment America Llc Gaming controller
JP2015508211A (ja) * 2012-02-23 2015-03-16 インテル コーポレイション カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
US10525347B2 (en) 2012-03-13 2020-01-07 Sony Interactive Entertainment America Llc System and method for capturing and sharing console gaming data
US10037078B2 (en) 2012-03-29 2018-07-31 Sony Corporation Information processing apparatus, information processing method, and computer program
US10437324B2 (en) 2012-03-29 2019-10-08 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2015527627A (ja) * 2012-06-04 2015-09-17 株式会社ソニー・コンピュータエンタテインメント マルチ画像インタラクティブゲーミングデバイス
KR101428014B1 (ko) 2013-10-31 2014-08-07 동국대학교 산학협력단 가상화 환경에서 nui 및 nux를 시뮬레이션하는 방법 및 장치
JP2016012261A (ja) * 2014-06-30 2016-01-21 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US11896897B2 (en) 2015-09-16 2024-02-13 Gree, Inc. Virtual image display program, virtual image display apparatus, and virtual image display method
US10304104B2 (en) 2016-03-25 2019-05-28 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2017004553A (ja) * 2016-08-22 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
CN110050251A (zh) * 2016-12-06 2019-07-23 皇家飞利浦有限公司 向用户显示引导指示符
US11116303B2 (en) 2016-12-06 2021-09-14 Koninklijke Philips N.V. Displaying a guidance indicator to a user
EP3552079B1 (en) * 2016-12-06 2022-05-25 Koninklijke Philips N.V. Displaying a guidance indicator to a user
CN110050251B (zh) * 2016-12-06 2023-10-03 皇家飞利浦有限公司 向用户显示引导指示符
JP2020532404A (ja) * 2017-09-05 2020-11-12 コヴィディエン リミテッド パートナーシップ ロボット外科システムおよびロボット外科システムを制御するための方法およびコンピュータ可読媒体
JP2022003528A (ja) * 2020-02-06 2022-01-11 グリー株式会社 仮想画像表示プログラム、仮想画像表示システム及び仮想画像表示方法
JP7198886B2 (ja) 2020-02-06 2023-01-04 グリー株式会社 仮想画像表示プログラム、仮想画像表示システム及び仮想画像表示方法
JP7428390B2 (ja) 2021-05-14 2024-02-06 株式会社システック 表示面内の表示位置移動指示システム

Also Published As

Publication number Publication date
JP4781181B2 (ja) 2011-09-28

Similar Documents

Publication Publication Date Title
JP4781181B2 (ja) ユーザインタフェースプログラム、装置および方法、情報処理システム
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP5432260B2 (ja) ウェーブエンゲージメントジェスチャの改良された検出
EP2521097B1 (en) System and Method of Input Processing for Augmented Reality
JP5413250B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20140068526A1 (en) Method and apparatus for user interaction
JP2010134738A (ja) 端末装置、表示制御方法および表示制御プログラム
Leibe et al. Toward spontaneous interaction with the perceptive workbench
US8113953B2 (en) Image-linked sound output method and device
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP7127659B2 (ja) 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム
JP6506443B1 (ja) 画像生成装置及び画像生成プログラム
JP2011258158A (ja) プログラム、情報記憶媒体及び画像生成システム
CN112088348A (zh) 经由头部姿态远程控制显示设备的方法、系统和计算机程序
JP5580156B2 (ja) ゲーム装置、ゲーム制御方法、ならびに、プログラム
JP2019192224A (ja) 画像生成装置及び画像生成プログラム
CN109144235B (zh) 基于头手协同动作的人机交互方法与系统
KR101743888B1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
KR101211178B1 (ko) 증강 현실 컨텐츠 재생 시스템 및 방법
JP6801138B1 (ja) 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
JP6461394B1 (ja) 画像生成装置及び画像生成プログラム
US20220035154A1 (en) Animation production system
JP2010079848A (ja) 項目選択方法および装置
JP7134558B2 (ja) 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP5213913B2 (ja) プログラム及び画像生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090702

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4781181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250