JP2013250882A - 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム - Google Patents
注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム Download PDFInfo
- Publication number
- JP2013250882A JP2013250882A JP2012126299A JP2012126299A JP2013250882A JP 2013250882 A JP2013250882 A JP 2013250882A JP 2012126299 A JP2012126299 A JP 2012126299A JP 2012126299 A JP2012126299 A JP 2012126299A JP 2013250882 A JP2013250882 A JP 2013250882A
- Authority
- JP
- Japan
- Prior art keywords
- user
- operator
- area
- information
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Abstract
【解決手段】距離算出部は、撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する。ユーザ情報解析部は、第1位置情報に基づいて、ユーザが身体の一部を用いて操作を行ことができる操作領域を検出し、操作領域を検出できた場合には、第1位置情報が表す身体の一部を有するユーザを操作者として特定する。ユーザ情報解析部は、操作者の候補のうち、操作領域に身体の一部が含まれたユーザを操作者と特定し、操作者の候補のうち操作者と特定したユーザ以外のユーザを操作することができないユーザと特定する。
【選択図】図3
Description
例えば、特許文献1に記載の三次元指先位置検出装置は、第1および第2のカメラで操作者の手指を撮影し、撮影した手指の三次元指先位置を検出する。
特許文献2に記載の映像表示装置は、ユーザを識別し、ユーザの位置と動作を検出し、検出したユーザの位置と動作により、表示映像の視聴対象であるユーザを判別し、ユーザに対応して映像を表示するアプリケーションを制御する。
さらに、特許文献1に記載の三次元指先位置検出装置は、ユーザの指差し位置方向と視線の方向は必ずしも平行とはならないため、ユーザが注目した位置通りにディスプレイ上のポインタを移動できず、操作するのに慣れが必要といったことがある。
本発明は、このような問題を鑑みてなされたもので、操作性を向上することが可能な注目位置検出装置を提供することである。
を備えることを特徴とする。
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、本実施形態に係る表示装置10の使用態様を表す概念図である。
図1において、表示装置10は、映像を表示する装置、例えばテレビジョン受信機、ディジタルサイネージ(電子看板)装置、映像会議装置である。表示装置10は、正面下辺の中央部に撮像装置11を備え、正面の大部分を覆うように表示部12を備える。
撮像装置11は、手前方向の映像を撮像する、例えばステレオカメラである。撮像装置11は、例えば、左右方向に互いに離れた位置に、映像を撮像する撮像部110a、110bを備える。撮像部110a、110bは、それぞれカメラユニットである。表示部12は、映像表示する、例えばディスプレイである。なお、表示装置10は、音声を出力するスピーカ(図示せず)を備える。
図2において、上下は、それぞれ表示装置10の奥、手前の方向を表す。図2が示す操作者13、操作不可者14及び表示装置10の位置関係は同様である。ここで、図2では、操作者13は、表示装置10の正面であって、表示装置10からの距離が操作可能距離の上限よりも短い(近い)位置に所在している。これに対し、操作不可者14は、表示装置10の正面であって、表示装置10からの距離が操作可能距離の上限よりも長い(遠い)位置に所在している。
撮像装置11は、操作者13の顔面の高さ、特に、目の高さよりも高い位置に設置されていてもよい。そのために、撮像装置11の高さを、操作者13が所在する床面の高さと人間の平均身長を考慮して予め定めておく。その他、表示装置10が、例えば床面など比較的低い位置に設置される場合には、撮像装置11は、表示部12よりも高い位置に設置されていてもよい。
これにより、撮像装置11は、操作者13の顔面よりも高い位置から操作者13の身体を表す映像を撮像することができ、指差しなどの手の形状・握り拳、その動かし方によって操作者13の顔面が遮蔽されることを防止することができる。そのため、制御部22が、操作者13の顔面の画像を用いて行われる操作者の識別、顔面の位置の検出、操作の検出などの処理を安定して実行できる。これらの処理については後述する。
次に本実施形態に係る表示装置10の構成について説明する。
図3は、本実施形態に係る表示装置10の構成を表すブロック図である。
表示装置10は、データ入力装置2a又は表示制御装置2bを含んで構成される。データ入力装置2aは、撮像装置11、画像処理装置20、情報DB21(Database、データベース)及び制御部22を含んで構成される。
撮像装置11は、撮像した映像を表す映像信号を生成し、生成した映像信号を画像処理装置20に出力する。画像処理装置20は、撮像装置11から入力された映像信号に基づき判別した操作者を表す操作者情報の取得、操作者の身体の一部が所在する位置を表す第1空間情報の取得、操作者の身体の一部がとる形状を表すユーザ情報の取得を行う。画像処理装置20は、取得した操作者情報、第1空間情報及びユーザ情報を検出情報として表示制御装置2bに出力する。
情報DB21には、操作者13の映像を表す映像信号に基づく操作入力に応じて表示する表示情報が記憶されている。表示情報は、例えば、映像コンテンツ等を表す映像信号、ニュース等を表すテキスト情報、ネットワークから受信したコンテンツを表すコンテンツ情報、案内画像(操作ガイド)を表す案内画像信号である。案内画像の詳細については後述する。
表示部12は、制御部22から入力された映像信号を映像として表示する。これにより、操作者13が行って操作によって選択された映像コンテンツやニュースに係る映像や、案内画像を表示する。
これにより、表示制御装置2bは、画像処理装置20から入力された検出情報に含まれるユーザ情報が表すコンテンツを選択する処理や、選択したコンテンツを表示する処理を実行する。
撮像装置11は、撮像部110a、110bを含んで構成される。撮像部110a、110bは、撮像した映像を表す映像信号を生成し、生成した映像信号を画像処理装置200に出力する。撮像部110aは、生成した映像信号をユーザ情報解析部201に出力する。撮像部110a、110bは、例えば、被写体から入射された光を集光するレンズを備えた光学系と、集光された光を電気信号に変換する撮像素子を備えるカメラである。撮像部110a、110bが備える撮像素子は、例えば、CCD(Charge Coupled Device、)素子、CMOS(Complementary Metal Oxide Semiconductor)素子である。
距離算出部200は、撮像部110a、110bから各々映像信号が入力される。距離算出部200は、各々入力された映像信号に基づいて撮像装置11から被写体(例えば、操作者13)までの距離を表す距離情報を、例えばステレオマッチング方式を用いて算出する。
ここで、ステレオマッチング方式の一種であるブロックマッチング方式を用いた距離情報の算出方法について説明する。ステレオマッチング方式では、撮像部110a、110bが撮像した映像の視差値を距離値として算出する。以下の説明では、撮像部110aが撮像した映像に含まれる画像であって、ある時点における画像を左画像と呼ぶ。撮像部110bが撮像した映像に含まれる画像であって、その時点における画像を右画像と呼ぶ。
図4は、左画像及び右画像の一例を表す概念図である。
図4は、左側に左画像40を表し、右側に右画像41を表す。
距離算出部200は、左画像40において、注目画素を中心とする左画像ブロック(ウィンドウ)400を設定する。左画像ブロック400に含まれる左右方向に3個、上下方向に3個、計9個の四角形は、それぞれ画素を表す。図4における左画像40の右端から左画像ブロック400の右端までの水平方向の距離がL画素(L個の画素分の距離)である。Lは、1又は1よりも大きい整数である。
距離算出部200は、左画像ブロック400と右画像ブロック410との間の指標値を算出する。距離算出部200は、右画像ブロック410の右端が右画像41の右端からの距離がL画素になるまで位置をずらし、それぞれずれた位置で指標値を算出する。距離算出部200は算出した指標値に基づいて左画像ブロック400と対応する位置にある右画像ブロック410を定める。指標値として、例えばSAD(Sum of Absolute Difference)値を用いる場合、SAD値が最小となる位置にある右画像ブロック410を定める。この位置が左画像40における注目画素に対応する注目点である。注目点と注目画素の間の水平方向の座標の差分に対する絶対値が視差である。距離算出部200は、左画像40に含まれる各画素について実行し、撮像部110aが撮像した映像に含まれる画素毎の視差値を表す視差情報(視差マップ、ディスパリティマップともいう)を距離情報として生成する。視差は、撮像装置11から被写体までの距離が短いほど大きく、距離が長いほど小さくなる関係がある。距離算出部200は、生成した距離情報をユーザ情報解析部201に出力する。
なお、撮像部110a、110bは、上下方向に異なる座標値に配置され、各々が撮像した画像を表す撮像画像を用いて視差を算出してもよい。その場合、距離算出部200は、撮像部110a、110bのいずれかが撮影した画像における画像ブロックを基準として、他方が撮影した画像における画像ブロックを上下方向にずらして対応する画像ブロックを探索すればよい。
左画像ブロック400、右画像ブロック410の大きさであるウィンドウサイズは、上述のように水平方向3画素×上下方向3画素に限られない。例えば、水平方向5画素×上下方向5画素、水平方向9画素×上下方向9画素のように上述よりも大きくてもよいし、水平方向4画素×上下方向4画素のように中心座標が注目点からずれた位置になってもよい。また、右画像ブロック410をずらす方向は、上述のように左側から右側に限られず、右側から左側であってもよい。左画像ブロック400、右画像ブロック410に含まれる画素は、緑色(G)の画素の信号値に限られず、他の色、例えば赤色(R)の画素の信号値であってもよいし、他の表色系に基づく画素の信号値や、それらの任意の組み合わせであってもよい。
撮像部110a、110bが、各々の光軸が平行になるように配置されている場合、エピポーラ線56、57は、左画像40、右画像41各々において上下方向の座標が同一の水平線になる。
次に、本実施形態に係るユーザ情報解析部201の構成について説明する。
図7は、本実施形態に係るユーザ情報解析部201の構成を表す概略図である。
ユーザ情報解析部201は、顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33、特徴情報解析部34、操作者判別部35、注目位置検出部36、検出情報出力部37を備える。
顔検出部30は、撮像部110aから入力された映像信号に基づいて、操作者の顔面の画像を表す領域(顔面の領域とも称する)を検出する。顔検出部30は、検出した顔面の領域における代表点(例えば、重心点)の2次元座標や、その領域の上端、下端、左端、右端の2次元座標を表す2次元顔面領域情報を生成する。顔検出部30は、距離算出部200から入力された距離情報から、2次元顔領域情報が表す2次元座標の画素に係る距離値を抽出する。顔検出部30は、前述の2次元座標と対応する距離値を、被写空間における3次元座標に変換して、3次元顔面位置情報を生成する。
顔面の領域を検出するために、顔検出部30は、例えば予め設定した顔面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された映像信号から抽出する。
その他、顔検出部30は、入力された画像信号に基づいて特徴量(例えば、Haar−Like特徴量)を算出し、算出した特徴量に基づいて予め定めた処理(例えば、Adaboostアルゴリズム)を行って顔面の領域を検出してもよい。顔検出部30が顔面の領域を検出する方法は、上述の方法に限られず、入力された画像信号から顔面の領域を検出する方法であれば、いかなる方法を用いてもよい。
顔検出部30は、検出した顔面の画像を表す顔面画像信号を、特徴情報解析部34と目位置検出部31に出力する。顔検出部30は、生成した3次元顔面位置情報及び2次元顔面領域情報を操作者判別部35に出力する。顔検出部30は、生成した3次元顔面位置情報を検出情報の一部として検出情報出力部37に出力する。
目位置検出部31は、顔検出部30から入力された顔面画像信号が表す顔面の画像から目の領域を検出する。目位置検出部31は、検出した目の領域の代表点(例えば、重心点)である2次元の目位置座標を算出する。目位置検出部31は、検出した目位置座標に所在する画素における距離値を、距離情報算出部200から入力された距離情報から抽出する。目位置検出部31は、算出した2次元の目位置座標と抽出した距離値の組を、被写空間における3次元の目位置座標に変換して3次元目位置情報を生成する。目位置検出部31は、算出した3次元の目位置座標を表す3次元目位置情報を注目位置検出部36および操作者判別部35に出力する。目位置検出部31は、検出した目の領域の画像を表す目領域信号、算出した2次元の目位置座標を表す2次元目位置情報を操作者判別部35に出力する。
目位置検出部31が目の領域を検出する方法は、上述の方法に限られず、顔面画像信号から目の領域を検出する方法であれば、いかなる方法を用いてもよい。
目位置検出部31は、検出する目の領域として、両目の重心点にかかわらず、左目や右目の位置や、これら全てを表す目領域信号を出力するようにしてもよい。
手位置検出部32は、撮像部110aから入力された映像信号が表す操作者の手の画像を表す領域を検出し、検出した手の位置を算出する。
手の画像を表す領域を検出するために、手位置検出部32は、例えば予め設定した手の表面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された映像信号から抽出する。手位置検出部32は、手の位置として検出した手の画像を表す領域の代表点(例えば、重心点)の2次元座標値を算出する。手位置検出部32は、算出した座標値に対応する距離値を、距離算出部200から入力された距離情報から抽出し、算出した2次元座標値と対応する距離値の組を被写空間における3次元座標に変換して3次元手位置情報を生成する。手位置検出部32は、検出した手の領域の画像を表す手画像信号と、算出した代表点の2次元座標値を表す手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、当該手位置情報を操作者判別部35に出力する。
また、手の画像を表す領域を検出するために、手位置検出部32は、距離検出部200から入力された距離情報に基づいて、顔検出部30から入力された3次元顔面位置情報が表す3次元顔面位置を基準とした予め定めた奥行方向の開始点と終了点で表される距離範囲内にある画像を撮像部110aから入力された映像信号から手の画像を表す領域として抽出してもよい。予め定めた距離範囲は、例えば3次元顔面位置より前方(表示装置10側)にある範囲である。これにより、操作者の前方または後方にいる別人の手を、操作者の手と認識することを防ぐことができる。
手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて手の形状を検出する。
手の形状を検出するために、手形状・指先位置検出部33は、手画像信号から、例えばエッジ抽出処理を行って手の輪郭部分を検出する。手形状・指先位置検出部33は、検出した輪郭部分のうち予め定めた範囲の曲率半径(例えば、6−12mm)をもつ突起部分を指の領域の画像として探索する。手形状・指先位置検出部33は、探索において手位置情報が表す代表点からの所定の半径の探索領域に前述の突起部分の有無を判断し、順次半径を変更することで探索領域を同心円状に更新する。手形状・指先位置検出部33は、検出した指の領域に基づいて指の本数を計数する。
手形状・指先位置検出部33は、検出した突起部分の頂点を各指の指先位置を表す2次元座標として検出する。手形状・指先位置検出部33は、定めた指先における2次元座標に所在する画素の距離値を距離算出部200から入力された距離情報から抽出する。手形状・指先位置検出部33は、抽出した距離値と指先における2次元座標の組を被写空間における3次元座標を表す3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部36に出力する。手形状・指先位置検出部33は、検出した指の領域を表す指画像信号、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部37に出力する。
特徴情報解析部34は、顔検出部30から入力された顔面画像信号に基づきユーザの属性(例えば、年齢、性別、表情)を表す特徴情報を生成する。年齢を表す特徴情報(年齢情報)として、例えば具体的な年齢に限らず予め定めた年齢層(例えば、10代、20代、幼年、青少年、青壮年、後年)を表す情報であってもよい。性別を表す特徴情報(性別情報)は、男性又は女性を表す情報である。表情を表す特徴情報(表情情報)は、例えば笑っているかいないかを表す情報である。表情情報は、笑顔である度合いを表す笑顔度を含んでいてもよい。
特徴情報解析部34は、生成した特徴情報を検出情報の一部として検出情報出力部37に出力する。
次に、操作者の判別処理について説明する。
操作者判別部35は、顔検出部30から入力された3次元顔位置情報に基づいて、顔面の領域を検出したユーザのうち予め定めた操作可能距離の領域に所在するユーザを操作者として判別する(図1、2参照)。操作者判別部35は、例えば、3次元顔位置情報が表す距離が予め定めた操作可能距離の上限よりも、撮像装置11からの距離が短い位置に顔面が所在するユーザを操作者として判別する。これにより、顔検出部30が顔面を検出したユーザの中から操作者が判別される。他方、操作者判別部35は、予め定めた操作可能領域外に所在するユーザを操作不可者として判別する。
図8は、操作開始検出範囲の一例を表す概念図である。
図8は、左側に操作者13の正面を表し、右側に操作者13の左側面を表す。操作開始検出領域133は、例えば、撮像装置11から入力された映像信号が表す操作者13の画像に含まれる左眼131−1及び右眼131−2を結ぶ両眼の高さを表す線分134を含む領域である。即ち、線分134と平行であって顔面132の上端に接する線分135と、線分134と平行であって顔面132の下端に接する線分136に挟まれる領域である。ここで、操作者判別部35は、顔検出部30から入力された2次元顔面領域情報と目位置検出部31から入力された2次元目位置情報に基づいて、操作開始検出領域133を算出する。
操作者判別部35は、手位置検出部32から入力された手位置情報が表わす代表点が、操作開始検出範囲外に離れた場合、その代表点に手を所在させた操作者13は操作を終了したと判断する。その場合、操作者判別部35は、その操作者に係る検出情報に基づいて操作が終了されたことを表す操作終了信号を検出情報出力部37に出力する。即ち、操作者判別部35が、ある操作者13について操作開始信号を検出情報出力部37に出力してから、操作終了信号を出力されるまでの間は、表示装置10は、操作者13と判断されたユーザの手の形状に基づく操作入力を受け付ける。他のユーザについて手位置情報が表す代表点が操作開始検出範囲内にあったとしても、その間、表示装置10は、他のユーザからの操作を受け付けない。
図9に示す例では、操作者13は、底面137の上を横たわっている。このとき、左眼131−1及び右眼131−2を結ぶ線分134と底面137となす角度θは、0°よりも90°に近い角度(例えば、20°)である。
この場合、操作者判別部35は、目位置検出部31から入力された2次元目位置情報に基づいて、左眼131−1及び右眼131−2を結ぶ線分134を定める。操作者判別部35は、顔検出部30から入力された2次元顔面領域情報に基づいて、顔面の上端に接し線分134に平行な線分135と、顔面の下端に接し線分134に平行な線分136を定める。操作者判別部35は、線分135と線分136に挟まれる領域を操作開始検出領域133と定める。このように操作者判別部35は、操作者13の身体の一部である顔面の位置に基づいて操作開始検出領域133の範囲(操作開始検出範囲)を定め、操作入力に係る身体の他部である手との位置関係に基づいて操作を受け付ける操作者を判別する。
注目位置検出部36は、目位置検出部31から入力された3次元目位置情報と、手形状・指先位置検出部33から入力された3次元指先位置情報に基づいて操作者が注目する位置である注目位置を検出する(注目位置検出)。
以下、図10から図12を用いて、注目位置検出部36の行う注目位置検出について説明する。
注目位置検出部36は、基準位置座標P10と指定位置座標P11とを結ぶ直線E1が、表示装置10と交わる交点を注目位置座標R11として算出する。注目位置検出部36は、算出した注目位置座標R11(3次元座標系C2)を、表示装置10が表す画像に対する2次元座標系C1の座標に変換して、変換した注目位置座標R11を表す注目位置情報を生成する。すなわち、注目位置検出部36は、操作者の目の位置(または、顔の位置(例えば、顔の中心の位置)であってもよい)を表す基準位置座標P10と、操作者の身体の一部(指)の位置を表す指定位置座標P11と、に基づいて、表示装置10の表示領域における操作パネルP1(被操作領域。図11参照)内の位置であって、操作者の身体の一部が示す注目位置座標R11を算出する。注目位置検出部36は、生成した注目位置情報を検出情報の一部として検出情報出力部37に出力する。
このように、表示装置10は、操作者の目の位置(基準位置座標P10)を中心に、操作者の指(指定位置座標P11)を動かした先にあるコンテンツを、操作者が操作対象しているコンテンツと識別する。これにより、表示装置10は、操作者が意図したコンテンツを選択することが可能となる。
表示部12は、操作パネルP1を表示する。操作パネルP1は、例えば領域に分かれており、各領域には、静止画や動画などの代表画像(サムネイル)や、コンピュータ上のプログラムを表す代表画像(アイコンなど)が表示されている。図11において、操作パネルP1は各領域にコンテンツを表示しており、そのコンテンツはAからZ、aからiのアルファベット(コンテンツA〜Z、a〜iと称する)で表されている。つまり、操作パネルP1は、登録または記録されているコンテンツの一覧を表している。
このように、表示装置10は、操作者の注目位置を検出し、その位置を操作パネルP1上に表示する。これにより、操作者は瞬時に所望とするコンテンツを選択することができる。例えば、表示装置10では、操作者が操作を開始した際、操作した最初(開始)の位置が分からず、間違ったコンテンツを選択してしまうことや、操作開始位置を知るために手や、ポインタ入力装置(マウスなど)を大きく動かして、現在の位置を探すといった操作を回避することができる。
なお、上記では、表示装置10は、操作者の注目位置を操作者に示すために、代表画像をハイライト表示する場合について説明した。しかし、本発明はこれに限定されず、表示装置10は、操作者が注目した位置を、表示部12の画素単位でポインタ表示することにより、操作者に注目位置や注目領域を示してもよい。また、表示装置10は、操作者が注目位置を示す手の形状を、手を開いた形状や、人差し指を立てた形状、手を閉じた形状などとして検出し、検出結果に基づいて指定位置座標P11を検出しても良い。
図12(a)において、上下方向操作範囲r11は、操作者から表示装置10に向かって上下方向の操作範囲を表す。この上下方向操作範囲r11は、基準位置座標P10を中心に、表示装置10の上端から下端までの操作者の視線の範囲である。
図12(b)において、左右方向操作範囲r13は、操作者から表示装置10に向かって左右方向の操作範囲を表す。この左右方向操作範囲r11は、基準位置座標P10を中心に、表示装置10の左端から右端までの操作者の視線の範囲である。
図12(a)、(b)において、奥行方向操作範囲r12は、操作者から表示装置10に向かって奥行方向の操作範囲を表す。この奥行方向操作範囲r12は、基準位置座標P10から、予め定められた距離の範囲である。この予め定められた距離は、例えば、人の腕全体の長さ(肩から指先)を基準に定められた距離であり、例えば、80cmである。ただし、本発明はこれに限らず、表示装置10は、奥行方向操作範囲r12を、性別や身長に基づいて、変更してもよい。
なお、上下方向操作範囲r11、奥行方向操作範囲r12、および左右方向操作範囲r13で表される範囲を操作範囲r1とも称する。なお、この操作範囲r1は、操作者から表示装置10(注目位置検出装置)に向かうに従って広がる。また、操作範囲r1は、操作開始検出範囲と同じであるが、異なっていても良い。
表示装置10は、操作者から見た表示装置10の画角を操作範囲r1とすることで、操作者の視線の先を注目位置として検出することができる。表示装置10は、指定位置座標P11が操作範囲r1の外にでた場合は、注目位置表示を消去することや、操作範囲r1から外れた画面端を注目位置表示する。または、表示装置10は、この場合、操作範囲r1から外れたことを示す情報や動作・アニメーション表示するなど、操作者に操作範囲r1を外れたことを提示してもよい。また、表示装置10は、予め範囲の定められた操作パネルP1において、操作パネルP1の上端から下端まで、および左端から右端まで、の操作者の視線の範囲を、操作範囲r1としてもよい。
なお、ユーザ情報解析部201は、上述した方法や特徴量に限られず、入力された映像信号に基づいてユーザの特徴やユーザが指示する操作に係る情報を検出してもよい。
制御部22は、検出情報出力部37から入力された検出情報から、3次元顔面位置情報、指画像信号、本数情報、2次元指先位置情報、注目位置情報、特徴情報を抽出する。制御部22は、予め操作対象となる処理の種別毎に手形状情報を対応付けられて記憶された記憶部を備える。ここで、手形状情報は、手の形状を表す情報である。制御部22は、記憶部から手形状情報を読み出し、読み出した手形状情報と入力された手形状情報を照合する。制御部22は、照合に成功した手形状情報に対応した処理を実行する。
なお、手形状情報は、抽出された情報のうち、指画像信号、本数情報、2次元指先位置を含んで構成される。手形状情報は、一時的又は静止した手の形状、即ち姿勢を表す情報であってもよいし、時間経過によって変化する手の形状、即ち動作を表す情報であってもよい。例えば、入力された手形状情報が両手の全ての指を握った形状であり、この状態で手を上下に移動させることを表す場合、制御部22は、番組表情報を情報DB21から読み出し、読み出した番組表情報を表示部12に出力する。
また、手形状情報は、例えば、1本の指のみが伸ばされた状態の形状を表す情報であっても良い。また、手形状情報は、伸ばされた指が真っ直ぐに伸ばされている形状を表す情報、および、伸ばされた指が第2関節で曲げられている形状であっても良い。
情報DB21には、複数の種類の案内画像信号を、予め定めた距離区分と対応付けて記憶させておき、制御部22は抽出した3次元顔面距離情報が表す距離を含む距離区分に対応する案内画像信号を読み出すようにしてもよい。そして、制御部22は、制御読み出した案内画像信号を表示部12に出力し、表示部12は、制御部22から入力された案内画像信号が表す案内画像を表示する。例えば、表示装置10からの操作者13の距離が長い区分ほど、1つの案内画像に含まれる処理の種類の数を減少させ、各処理に対する操作を表す画面の面積(画素数)を増加した画像を表す案内画像信号を情報DB21に記憶させておく。また、処理内容を表示する文字を大きくした画像を表す案内画像信号を記憶させておいてもよい。このようにして、操作者13は、表示部12からの距離が長くなっても大きく表示された操作内容を明確に把握できるようになる。
また、小児(例えば、10歳以下)である操作者13の年齢層に対して、処理内容を表示する文字をひらがなで表した案内画像信号や、アニメーション映画の登場人物の表した案内画像信号を記憶させておいてもよい。このようにして、操作者13が小児であっても、表示された操作内容を把握でき、親近感をもって表示装置10を操作できるようになる。
また、小児や高齢者(例えば、60歳以上)である操作者13の年齢層に対しては、処理内容を動画像で表す案内画像信号を記憶させておいてもよい。これにより、小児や高齢者でも操作方法を表示された動画を視聴して直感的に把握することができる。
これにより、本実施形態では、操作者の特徴を表す特徴情報毎に案内画像の表示、その他の操作に係る処理を変更されるため、操作者の特徴に関わらず快適な操作を実現させることができる。
次に、本実施形態に係るデータ入力処理について説明する。
図13は、本実施形態に係るデータ入力処理を表すフローチャートである。
(ステップS101)距離算出部200は、撮像部110a、110bから各々入力された映像信号に基づいて撮像装置11から操作者までの距離を、例えばステレオマッチング方式を用いて算出し、算出した距離情報を生成する。距離算出部200は、生成した距離情報をユーザ情報解析部201の顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33に出力する。その後、ステップS102に進む。
(ステップS109)制御部22は、操作者が注目したコンテンツに対し、予め定められた所定の動作(手を表示装置10の方向に押す動作や手を一定時間静止する、手の形状を変えるなど)によりコンテンツの再生または実行を決定したかを判断する。コンテンツを決定したと判断した場合(ステップS109 Yes)、ステップS110に進む。
制御部22は、操作者がコンテンツを決定していないと判断した場合(ステップ109 No)、ステップS106に進む。
(ステップS111)制御部22は、操作者が注目した代表画像に対し、情報DBから対応するコンテンツあるいはプログラムを読みだし、コンテンツの再生あるいはプログラムの実行を行う。再生あるいは実行結果を表示部12に表示する。その後、ステップS100に進む。
これにより、表示装置10は、操作性を向上することができる。例えば、表示装置10は、操作範囲r1を検出するので、ユーザが動作した場合、その動作が操作入力を意図した動作か、他の目的を意図した動作かを判別することができる。また、例えば、表示装置10は、操作範囲r1を検出して操作者を特定するので、複数のユーザが当該映像表示装置に表示された映像を同時に視聴する場合、一方のユーザによる動作によって、他方のユーザが意図しない操作入力がなされることを防止できる。また、例えば、表示装置10は、複数のユーザが同時に動作して、当該映像表示装置が各々操作入力を受け付けると、相矛盾する操作入力に対する処理が指示されることで誤動作することを防止できる。
例えば、表示装置10は、操作者の注目位置を検出することができ、大画面、高解像度のディスプレイに向けた操作でも操作方法に慣れずとも、注視したコンテンツを選択することができるため、ユーザ操作のストレスを低減し、操作性を向上することができる。
以下、図面を参照しながら本発明の第2の実施形態について説明する。
図14は、本発明の第2の実施形態に係る表示装置10aを説明するための概略図である。表示装置10aは、操作者の操作に基づいて、操作者の視野内にある表示装置10a上の表示領域に合わせて、操作者の操作領域を決定する。
この図において、破線で示した領域r2は、ユーザ操作領域r2である。ユーザ操作領域r2とは、操作者が、表示装置10aに対して操作可能な領域である。表示装置10aは、操作者の目(基準位置座標P10)から見た視線であって表示装置10aの表示領域の端を通る視線で定まる領域に合わせ、顔前方の所定距離だけ離れた空間領域をユーザ操作領域r2として設定する。ここで、ユーザ操作領域r2は、ユーザ視線に沿っているため、その形状が立方体ではなく、表示装置10aと平行な平面が表示装置10aに近づく(操作者から奥行方向に遠ざかる)にしたがって徐々に大きくなる形状となる。操作者はユーザ操作領域r2内で手を動かすことにより、操作を行うことができる。
図15は、ユーザ操作領域r2の設定方法の一例を説明するための概略図である。図15(a)は、操作者から見た表示装置10aを表す図である。図15(b)は、操作者と表示装置10aを横から見た図である。図15(c)は、撮像装置11が、撮像部110a、110bのいずれかを用いて撮影した画像である。
この図は、ユーザが、ユーザから見た表示装置10a上の表示領域を、手を掴む動作と開く動作で指定する一例である。ユーザは、ユーザから見た表示領域の左上頂点を、手をつかむ動作で指定する。ユーザは、そのままの手の形状で、ユーザから見た表示領域を対角線上に右下まで移動し、手を開く動作で右下頂点を指定する。表示装置10aは、この対角線の四角形であって、手を掴む動作と開く動作で指定された四角形を含む領域を、操作開始検出領域133aに設定する。表示装置10aは、この領域を指定したユーザを、操作者として識別する。
図16は、コンテンツ選択の一例を表す概念図である。この例は、手の位置の移動で注目位置を検出し、コンテンツを選択する場合のものである。図16(a)は、操作者から見た表示装置10aを表す図である。図16(b)は、操作者と表示装置10aを横から見た図である。図16(c)は、撮像装置11が、撮像部110a、110bのいずれかを用いて撮影した画像である。
この図において、表示装置10aは、操作開始検出領域133aにより設定されたユーザ操作領域r2内の手の位置から、操作者が注目(選択)しているコンテンツを検出する。これにより、操作者は、視野内にある表示領域上の注目したコンテンツを指し示すことでコンテンツを選択することができる。また、操作者は、PC上のマウスポインタのように使用する場合は、操作者の視野内の表示領域上で手を動かすことにより、その手に追従してマウスポインタを移動することができる。
以上により、表示装置10aは、操作者の視聴位置に合わせ、最適なユーザ操作領域r2を設定できる。このため、表示装置10aは、操作者の身体的特徴や視聴位置に関係なく、操作者が注目した位置をそのまま選択したコンテンツとすることが可能となる。また、表示装置10aは、2次元のユーザ操作領域r23に基づいてコンテンツ選択の処理を行う場合には、3次元のユーザ操作領域r2に基づいてコンテンツ選択の処理を行う場合と比較して、処理負荷を軽減することができる。なお、表示装置10aは、3次元空間上のユーザ操作領域r2内に手の位置がある場合にのみ、奥行方向の手の位置を計測し、ユーザ操作領域r2外に手の位置がある場合には、奥行方向の手の位置を計測なくてもよい。
以上までに説明したユーザ操作領域r23は、3次元空間上のユーザ操作領域r2内の2次元平面領域であったが、これに限定されるものではなく、ユーザ操作領域r23は、3次元空間上のユーザ操作領域r2内であれば、2次元平面だけでなく、3次元の立体形状(立方体など)でもよい。これにより、操作者の手の動きが奥行方向に移動しながら、表示装置10aの表示面の上下左右方向に操作した場合でも、操作検出が可能となる。したがって、手などの奥行移動を使った操作の検出や、手が奥行方向に移動(ずれ)しても、操作者の操作が検出可能となり、操作検出のロバスト性が向上する。
また、表示装置10aは、操作者がいない状態を判別し、再び操作者を検出する処理を行う。例えば、表示装置10aは、例えば、操作者が手を一定時間ユーザ操作領域r2から外した場合、または、予め定めた操作終了のジェスチャを行う場合には、操作者がいない状態と判別する。以上より、一度操作者と識別されると、操作を終了するまで、識別された操作者のみが操作可能となる。また、識別された操作者が操作を終了させると、次にユーザ領域の設定を行ったユーザが操作者と識別され、操作が可能となる。
次に本実施形態に係る表示装置10aの構成について説明する。本実施形態に係る表示装置10aと表示装置10(図3参照)と比較すると、表示装置10aは、ユーザ情報解析部201に変えてユーザ情報解析部201aを備える点が異なる。しかし、他の構成要素が持つ機能は表示装置10と同じである。
図17は、本実施形態に係るユーザ情報解析部201aの構成を表すブロック図である。本実施形態に係るユーザ情報解析部201a(図17)とユーザ情報解析部201(図7)とを比較すると、操作者判別部35aおよび注目位置検出部36aが異なる。しかし、他の構成要素が持つ機能はユーザ情報解析部201と同じである。
操作者判別部35aおよび注目位置検出部36aは、以下の処理を行う。
次に、本実施形態に係るデータ入力処理について説明する。
図18は、本実施形態に係るデータ入力処理を表すフローチャートである。本実施形態に係るデータ入力処理(図18)と第1実施形態に係るデータ入力処理(図13)とを比較すると、ステップS104〜S108の処理に変えて、ステップS204〜S209の処理が行われることが異なる。しかし、図18の処理において、図13の処理と同じ符号を付した処理は、同じである。
操作者判別部35aは、操作開始検出領域133aを含むユーザ操作領域r2を算出する。操作者判別部35aは、ユーザ操作領域r2を、撮像装置11が撮影した画像上の2次元平面で表したユーザ操作領域r23に変換することで、撮影映像上の操作領域を決定する。その後、ステップS207に進む。
なお、前述の操作継続検知に加えて、操作者判別部35aは、3次元手位置情報が表す被写空間上の手の位置が奥行方向の操作開始検出範囲(図8における操作開始検出開始位置(奥行方向)から開始される操作開始検出領域(奥行方向))に含まれるか否かを判断し、操作者が操作を継続しているか否かを検知してもよい。これにより、表示装置10aは、操作開始検出範囲と手の位置との関係を、奥行方向の座標も考慮して操作者の操作継続検知の誤検出を回避することができる。
(ステップS209)制御部22は、検出した注目位置に該当するコンテンツの代表画像を操作者に示すために、代表画像をハイライトにし、表示部12に表示する。その後、ステップS110に進む。
また、本実施形態によれば、表示装置10aは、操作者の目の位置又は顔の位置と、表示装置10aの表示領域(被操作領域)と、に基づいて、ユーザ操作領域r2を検出する。このユーザ操作領域r2は、操作者から表示装置10aに向かうに従って広がる。例えば、ユーザ操作領域r2は、表示装置10aと平行な平面が表示装置10aに近づくにしたがって徐々に大きくなる形状としている。このため、大型のディスプレイやタイルディスプレイなどの場合は、コンテンツ決定動作である押す動作を行うと、手を表示装置11上の表示領域平面と垂直方向に押す動作とはならずに、操作者から表示領域上のコンテンツに向かう方向に押す動作となる。
このように、表示装置10aを用いれば、操作者は、例えば表示領域上の端にあるコンテンツの代表画像に向かって押す動作ができるため、より直感的な動作でコンテンツの再生またはプログラムの実行を行うことができる。なお、タイルディスプレイとは、複数のディスプレイを組合せることで表示領域を大きくしたディスプレイである。
この測距部は、例えば、距離情報を取得する方式としてTOF(Time of Flight)法を用いる。TOF法では、光源として、例えば、LED(Light Emitting Diode、発光ダイオード)を用いて、光線を放射してから被写体から反射した反射光を受信するまでの到達時間を計測する。到達時間の計測を、予め定めた分割された領域毎に行うことで、被写空間内の平面位置毎の距離情報を取得することができる。光源は、例えば、人間の眼に見えない赤外線を放射する赤外線発光ダイオードであるが、これには限られない。例えば、パルス照射することができるレーザ光源であってもよい。また、光線の振幅又は位相を変調することができる位相変調器を備え、放射光と反射光の位相差に基づいて到達時間を算出してもよい。
このように、本実施形態によれば、撮像装置11が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する。また、本実施形態によれば、第1位置情報に基づいてユーザを判別し、撮像装置11が撮像した映像に表されたユーザの身体の一部の形状を表す情報を含むユーザ情報を検出し、検出したユーザ情報に対応する処理を実行する。そのため、複数人の操作者が身体の形状を変化させて操作を試みても、同時に複数の操作に係る処理が衝突せずに快適な操作が可能になる。
また、上述した実施形態における表示装置10の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。表示装置10の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
Claims (14)
- 撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する第1位置検出部と、
前記第1位置情報に基づいて、ユーザが身体の一部を用いて操作を行ことができる操作領域を検出し、前記操作領域を検出できた場合には、前記第1位置情報が表す身体の一部を有するユーザを操作者の候補として特定するユーザ情報解析部と、
を備え、
前記ユーザ情報解析部は、前記操作者の候補のうち、前記操作領域に前記身体の一部が含まれたユーザを操作者と特定し、前記操作者の候補のうち前記操作者と特定したユーザ以外のユーザを操作することができないユーザと特定することを特徴とする注目位置検出装置。 - ユーザ情報解析部は、前記操作領域に前記身体の一部が含まれる場合に、前記撮像装置が撮像した映像に表されたユーザの身体の一部の形状を表す情報を含むユーザ情報を検出し、
前記ユーザ情報解析部が検出したユーザ情報に対応する処理を実行する制御部を備えることを特徴とする請求項1に記載の注目位置検出装置。 - 前記ユーザ情報解析部は、前記ユーザが指定する所定の操作によって、前記操作領域を検出することを特徴とする請求項1又は2に記載の注目位置検出装置。
- 前記ユーザ情報解析部は、前記ユーザが、前記ユーザの視野内にある表示装置の表示領域の第一の頂点を指定し、第一の頂点と対角にある第二の頂点を指定する操作によって、前記操作領域を検出することを特徴とする請求項3に記載の注目位置検出装置。
- 前記ユーザ情報解析部が検出する操作領域であって表示装置から前記ユーザを見た場合の操作領域のサイズと、表示装置の表示領域における被操作領域のサイズと、を対応付け、
当該対応付けに基づいて、前記操作領域内にある該ユーザの体の一部の位置から被操作領域内で対応する位置を算出する注目位置検出部
を備えることを特徴とする請求項1から4のいずれか一項に記載の注目位置検出装置。 - 前記身体の一部が、手であること
を特徴とする請求項5に記載の注目位置検出装置。 - 前記撮像装置が撮像した映像を表示する表示部を備え、
前記撮像装置は、前記表示部よりも高い位置に設置されていること
を特徴とする請求項1から6のいずれか一項に記載の注目位置検出装置。 - 前記操作領域は、前記操作者から注目位置検出装置に向かうに従って広がることを特徴とする請求項1から7のいずれか一項に記載の注目位置検出装置。
- 前記ユーザ情報解析部は、前記操作者の目の位置又は顔の位置と、表示装置の表示領域における被操作領域と、に基づいて、前記操作領域を検出することを特徴とする請求項1から8のいずれか一項に記載の注目位置検出装置。
- 前記操作者の目の位置又は顔の位置を表す基準位置情報と、前記操作者の身体の一部の位置を表す指示位置情報と、に基づいて、表示装置の表示領域における被操作領域内の位置であって、前記操作者の身体の一部が示す位置を算出する注目位置検出部
を備えることを特徴とする請求項1から9のいずれか一項に記載の注目位置検出装置。 - 注目位置検出装置における注目位置検出方法において、
撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する第1位置検出過程と、
前記第1位置情報に基づいて、ユーザが身体の一部を用いて操作を行ことができる操作領域を検出し、前記操作領域を検出できた場合には、前記第1位置情報が表す身体の一部を有するユーザを操作者として特定するユーザ情報解析過程と、
を有することを特徴とする注目位置検出方法。 - 注目位置検出装置における注目位置検出方法において、
撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する第1位置検出過程と、
前記第1位置情報に基づいて、ユーザが身体の一部を用いて操作を行ことができる操作領域を検出し、前記操作領域を検出できた場合には、前記第1位置情報が表す身体の一部を有するユーザを操作者として特定するユーザ情報解析過程と、
前記ユーザ情報解析過程で検出された操作領域であって表示装置から前記ユーザを見た場合の操作領域のサイズと、表示装置の表示領域における被操作領域のサイズと、を対応付け、当該対応付けに基づいて、前記操作領域内にある該ユーザの体の一部の位置から被操作領域内で対応する位置を算出する注目位置検過程と、
を有することを特徴とする注目位置検出方法。 - コンピュータに、
撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する第1位置検出手段、
前記第1位置情報に基づいて、ユーザが身体の一部を用いて操作を行ことができる操作領域を検出し、前記操作領域を検出できた場合には、前記第1位置情報が表す身体の一部を有するユーザを操作者として特定するユーザ情報解析手段、
を実行させるための注目位置検出プログラム。 - コンピュータに、
撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する第1位置検出手段、
前記第1位置情報に基づいて、ユーザが身体の一部を用いて操作を行ことができる操作領域を検出し、前記操作領域を検出できた場合には、前記第1位置情報が表す身体の一部を有するユーザを操作者として特定するユーザ情報解析手段、
前記ユーザ情報解析手段で検出された操作領域であって表示装置から前記ユーザを見た場合の操作領域のサイズと、表示装置の表示領域における被操作領域のサイズと、を対応付け、当該対応付けに基づいて、前記操作領域内にある該ユーザの体の一部の位置から被操作領域内で対応する位置を算出する注目位置検手段、
を実行させるための注目位置検出プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012126299A JP2013250882A (ja) | 2012-06-01 | 2012-06-01 | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
CN201380028922.7A CN104364733B (zh) | 2012-06-01 | 2013-05-29 | 注视位置检测装置、注视位置检测方法和注视位置检测程序 |
PCT/JP2013/064842 WO2013180151A1 (ja) | 2012-06-01 | 2013-05-29 | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
US14/404,595 US9778748B2 (en) | 2012-06-01 | 2013-05-29 | Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012126299A JP2013250882A (ja) | 2012-06-01 | 2012-06-01 | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013250882A true JP2013250882A (ja) | 2013-12-12 |
JP2013250882A5 JP2013250882A5 (ja) | 2015-02-05 |
Family
ID=49673339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012126299A Pending JP2013250882A (ja) | 2012-06-01 | 2012-06-01 | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9778748B2 (ja) |
JP (1) | JP2013250882A (ja) |
CN (1) | CN104364733B (ja) |
WO (1) | WO2013180151A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073384A1 (ja) * | 2012-11-06 | 2014-05-15 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置 |
JP2015114950A (ja) * | 2013-12-13 | 2015-06-22 | 富士通株式会社 | 動作判定方法、動作判定装置および動作判定プログラム |
JP2016523420A (ja) * | 2013-06-27 | 2016-08-08 | アイサイト モバイル テクノロジーズ リミテッド | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
JP2016213744A (ja) * | 2015-05-12 | 2016-12-15 | キヤノン株式会社 | 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム |
JP2017033556A (ja) * | 2015-07-30 | 2017-02-09 | 株式会社リコー | 画像処理方法及び電子機器 |
JP2017531227A (ja) * | 2014-08-01 | 2017-10-19 | スターシップ ベンディング−マシーン コーポレーション | ユーザーの視点を考慮して動作認識するインタフェース提供方法及び提供装置 |
WO2018235371A1 (ja) | 2017-06-20 | 2018-12-27 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
JP2021522564A (ja) * | 2018-04-17 | 2021-08-30 | トヨタ リサーチ インスティテュート,インコーポレイティド | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160139762A1 (en) * | 2013-07-01 | 2016-05-19 | Inuitive Ltd. | Aligning gaze and pointing directions |
JP2015111371A (ja) * | 2013-12-06 | 2015-06-18 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20150309681A1 (en) * | 2014-04-23 | 2015-10-29 | Google Inc. | Depth-based mode switching for touchless gestural interfaces |
WO2015198747A1 (ja) * | 2014-06-24 | 2015-12-30 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN104575357A (zh) * | 2015-01-21 | 2015-04-29 | 昆山龙腾光电有限公司 | 一种稳定手持设备显示画面的方法、系统及手持装置 |
CN107787497B (zh) * | 2015-06-10 | 2021-06-22 | 维塔驰有限公司 | 用于在基于用户的空间坐标系中检测手势的方法和装置 |
CN107015637B (zh) * | 2016-10-27 | 2020-05-05 | 阿里巴巴集团控股有限公司 | 虚拟现实场景下的输入方法和装置 |
TWM550619U (zh) * | 2016-12-02 | 2017-10-21 | Unlimiter Mfa Co Ltd | 可依據臉部影像辨識結果取得聽力數據之電子裝置 |
CN106845405A (zh) * | 2017-01-20 | 2017-06-13 | 武汉仟品网络科技有限公司 | 一种通过生物影像识别身份的方法、装置及电子设备 |
CN107219921B (zh) | 2017-05-19 | 2019-09-27 | 京东方科技集团股份有限公司 | 一种操作动作执行方法及其系统 |
JP6824838B2 (ja) | 2017-07-07 | 2021-02-03 | 株式会社日立製作所 | 作業データ管理システム及び作業データ管理方法 |
CN108289151A (zh) * | 2018-01-29 | 2018-07-17 | 维沃移动通信有限公司 | 一种应用程序的操作方法及移动终端 |
TWI734024B (zh) * | 2018-08-28 | 2021-07-21 | 財團法人工業技術研究院 | 指向判斷系統以及指向判斷方法 |
CN110335306B (zh) * | 2019-04-23 | 2022-04-15 | 华中科技大学 | 注视点预测方法及装置 |
JP2021015637A (ja) | 2020-11-05 | 2021-02-12 | マクセル株式会社 | 表示装置 |
CN112363626B (zh) * | 2020-11-25 | 2021-10-01 | 广东魅视科技股份有限公司 | 基于人体姿态和手势姿态视觉识别的大屏幕交互控制方法 |
CN115909468B (zh) * | 2023-01-09 | 2023-06-06 | 广州佰锐网络科技有限公司 | 人脸五官遮挡检测方法、存储介质及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11327753A (ja) * | 1997-11-27 | 1999-11-30 | Matsushita Electric Ind Co Ltd | 制御方法及びプログラム記録媒体 |
JP2005216061A (ja) * | 2004-01-30 | 2005-08-11 | Sony Computer Entertainment Inc | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
JP2007310620A (ja) * | 2006-05-18 | 2007-11-29 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
US20080120577A1 (en) * | 2006-11-20 | 2008-05-22 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling user interface of electronic device using virtual plane |
JP2011175617A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4286556B2 (ja) * | 2003-02-24 | 2009-07-01 | 株式会社東芝 | 画像表示装置 |
CN1293446C (zh) * | 2005-06-02 | 2007-01-03 | 北京中星微电子有限公司 | 一种非接触式目控操作系统和方法 |
JP4907483B2 (ja) | 2007-09-28 | 2012-03-28 | パナソニック株式会社 | 映像表示装置 |
JP5416489B2 (ja) | 2009-06-17 | 2014-02-12 | 日本電信電話株式会社 | 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム |
US20120056989A1 (en) * | 2010-09-06 | 2012-03-08 | Shimane Prefectural Government | Image recognition apparatus, operation determining method and program |
-
2012
- 2012-06-01 JP JP2012126299A patent/JP2013250882A/ja active Pending
-
2013
- 2013-05-29 US US14/404,595 patent/US9778748B2/en active Active
- 2013-05-29 CN CN201380028922.7A patent/CN104364733B/zh active Active
- 2013-05-29 WO PCT/JP2013/064842 patent/WO2013180151A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11327753A (ja) * | 1997-11-27 | 1999-11-30 | Matsushita Electric Ind Co Ltd | 制御方法及びプログラム記録媒体 |
JP2005216061A (ja) * | 2004-01-30 | 2005-08-11 | Sony Computer Entertainment Inc | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
JP2007310620A (ja) * | 2006-05-18 | 2007-11-29 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
US20080120577A1 (en) * | 2006-11-20 | 2008-05-22 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling user interface of electronic device using virtual plane |
JP2011175617A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2014073384A1 (ja) * | 2012-11-06 | 2016-09-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
WO2014073384A1 (ja) * | 2012-11-06 | 2014-05-15 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置 |
JP5928757B2 (ja) * | 2012-11-06 | 2016-06-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
US9672413B2 (en) | 2012-11-06 | 2017-06-06 | Sony Corporation | Setting operation area for input according to face position |
US10817067B2 (en) | 2013-06-27 | 2020-10-27 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
JP2016523420A (ja) * | 2013-06-27 | 2016-08-08 | アイサイト モバイル テクノロジーズ リミテッド | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
JP2019087279A (ja) * | 2013-06-27 | 2019-06-06 | アイサイト モバイル テクノロジーズ リミテッド | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
US11314335B2 (en) | 2013-06-27 | 2022-04-26 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
JP7191714B2 (ja) | 2013-06-27 | 2022-12-19 | アイサイト モバイル テクノロジーズ リミテッド | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 |
JP2015114950A (ja) * | 2013-12-13 | 2015-06-22 | 富士通株式会社 | 動作判定方法、動作判定装置および動作判定プログラム |
JP2017531227A (ja) * | 2014-08-01 | 2017-10-19 | スターシップ ベンディング−マシーン コーポレーション | ユーザーの視点を考慮して動作認識するインタフェース提供方法及び提供装置 |
JP2016213744A (ja) * | 2015-05-12 | 2016-12-15 | キヤノン株式会社 | 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム |
JP2017033556A (ja) * | 2015-07-30 | 2017-02-09 | 株式会社リコー | 画像処理方法及び電子機器 |
US10074010B2 (en) | 2015-07-30 | 2018-09-11 | Ricoh Company, Ltd. | Image processing method, device and non-transitory computer-readable medium |
WO2018235371A1 (ja) | 2017-06-20 | 2018-12-27 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
US10921934B2 (en) | 2017-06-20 | 2021-02-16 | Sony Corporation | Information processing apparatus, information processing method, and recording medium |
JP2021522564A (ja) * | 2018-04-17 | 2021-08-30 | トヨタ リサーチ インスティテュート,インコーポレイティド | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2013180151A1 (ja) | 2013-12-05 |
CN104364733B (zh) | 2018-02-16 |
CN104364733A (zh) | 2015-02-18 |
US20150145762A1 (en) | 2015-05-28 |
US9778748B2 (en) | 2017-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013180151A1 (ja) | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム | |
JP5896578B2 (ja) | データ入力装置 | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
JP5802667B2 (ja) | ジェスチャ入力装置およびジェスチャ入力方法 | |
KR101581954B1 (ko) | 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법 | |
KR102160236B1 (ko) | 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치 | |
KR101761050B1 (ko) | 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법 | |
JP5205187B2 (ja) | 入力システム及び入力方法 | |
JP4323180B2 (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
JP5964603B2 (ja) | データ入力装置、及び表示装置 | |
JP5438601B2 (ja) | 人物動作判定装置およびそのプログラム | |
WO2017047182A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2004078977A (ja) | インターフェイス装置 | |
KR101256046B1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
CN108594995A (zh) | 一种基于手势识别的电子设备操作方法及电子设备 | |
KR101396488B1 (ko) | 신호 입력 장치 및 신호 입력 방법 | |
JP6230666B2 (ja) | データ入力装置、データ入力方法、及びデータ入力プログラム | |
US8970479B1 (en) | Hand gesture detection | |
CN106909219B (zh) | 基于三维空间的交互控制方法和装置、智能终端 | |
Lee et al. | A Long‐Range Touch Interface for Interaction with Smart TVs | |
KR20160034275A (ko) | 제스쳐 인식 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150401 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160614 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160812 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170110 |