JP2016186809A - データ入力装置、データ入力方法、及びデータ入力プログラム - Google Patents
データ入力装置、データ入力方法、及びデータ入力プログラム Download PDFInfo
- Publication number
- JP2016186809A JP2016186809A JP2016130345A JP2016130345A JP2016186809A JP 2016186809 A JP2016186809 A JP 2016186809A JP 2016130345 A JP2016130345 A JP 2016130345A JP 2016130345 A JP2016130345 A JP 2016130345A JP 2016186809 A JP2016186809 A JP 2016186809A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- unit
- image
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】第1位置検出部は、撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を、第2位置検出部は、身体の一部とは異なる他の部分の位置を表す第2位置情報を取得する。ユーザ情報解析部は、第2位置情報に基づいてユーザを判別し、撮像装置が撮像した映像に表された判別されたユーザの身体の一部の形状を表す情報を含むユーザ情報を検出し、所定の基準位置から第2位置情報が示す位置までの距離が、所定の距離よりも小さいユーザを操作者と判断する。制御部は、第1位置情報と第2位置情報が予め定めた関係にあるユーザについてユーザ情報に対応する処理を実行する。
【選択図】図3
Description
例えば、特許文献1に記載のインターフェイス装置は、CCD(Charge Coupled Device)カメラで撮像した画像中の物体の形状、動きを認識し、認識した物体の形状や動きをディスプレイに表示する。ユーザがCCDカメラに向かって、例えば手振り等の動作を行うと、ユーザの動作が当該装置のディスプレイの表示画面上に表示される。このとき、ユーザは、表示画面上に表示された仮想スイッチ等を動作によって表示された矢印カーソルのアイコンで選択できる。
特許文献2に記載の映像表示装置は、ユーザを識別し、ユーザの位置と動作を検出し、検出したユーザの位置と動作により、表示映像の視聴対象であるユーザを判別し、ユーザに対応して映像を表示するアプリケーションを制御する。
前記制御部は、前記身体の一部の形状の変化に基づく操作入力を受け付け、前記年齢層が低いほど、前記身体の一部の形状変化の検出閾値を小さくすることを特徴とする。
図1は、本実施形態に係る表示装置10の使用態様を表す概念図である。
図1において、表示装置10は、映像を表示する装置、例えばテレビジョン受信機、ディジタルサイネージ(電子看板)装置、映像会議装置である。表示装置10は、正面下辺の中央部に撮像装置11を備え、正面の大部分を覆うように表示部12を備える。
撮像装置11は、手前方向の映像を撮像する、例えばステレオカメラである。撮像装置11は、例えば、左右方向に互いに離れた位置に映像を撮像する撮像部110a、110bを備える。撮像部110a、110bは、それぞれカメラユニットである。表示部12は、映像表示する、例えばディスプレイである。なお、表示装置10は、音声を出力するスピーカ(図示せず)を備える。
図2において、上下は、それぞれ表示装置10の奥、手前の方向を表す。図2が示す操作者13、操作不可者14及び表示装置10の位置関係は同様である。ここで、図2では、操作者13は、表示装置10の正面であって、表示装置10からの距離が操作可能距離の上限よりも短い(近い)位置に所在している。これに対し、操作不可者14は、表示装置10の正面であって、表示装置10からの距離が操作可能距離の上限よりも長い(遠い)位置に所在している。
撮像装置11は、操作者13の顔面の高さ、特に、目の高さよりも高い位置に設置されていてもよい。そのために、撮像装置11の高さを、操作者13が所在する床面の高さと人間の平均身長を考慮して予め定めておく。その他、表示装置10が、例えば床面など比較的低い位置に設置される場合には、撮像装置11は、表示部12よりも高い位置に設置されていてもよい。
これにより、撮像装置11は、操作者13の顔面よりも高い位置から操作者13の身体を表す映像を撮像することができ、指差しなどの手の形状・握り拳、その動かし方によって操作者13の顔面が遮蔽されることを防止することができる。そのため、制御部22が、操作者13の顔面の画像を用いて行われる操作者の識別、顔面の位置の検出、操作の検出などの処理を安定して実行できる。これらの処理については後述する。
次に本実施形態に係る表示装置10の構成について説明する。
図3は、本実施形態に係る表示装置10の構成を表すブロック図である。
表示装置10は、データ入力装置2a又は表示制御装置2bを含んで構成される。データ入力装置2aは、撮像装置11、画像処理装置20、情報DB21(Database、データベース)及び制御部22を含んで構成される。
撮像装置11は、撮像した映像を表す映像信号を生成し、生成した映像信号を画像処理装置20に出力する。画像処理装置20は、撮像装置11から入力された映像信号に基づき判別した操作者を表す操作者情報の取得、操作者の身体の一部が所在する位置を表す第1空間情報の取得、操作者の身体の一部がとる形状を表すユーザ情報の取得を行う。画像処理装置20は、取得した操作者情報、第1空間情報及びユーザ情報を検出情報として表示制御装置2bに出力する。
情報DB21には、操作者13の映像を表す映像信号に基づく操作入力に応じて表示する表示情報が記憶されている。表示情報は、例えば、映像コンテンツ等を表す映像信号、ニュース等を表すテキスト情報、ネットワークから受信したコンテンツを表すコンテンツ情報、案内画像(操作ガイド)を表す案内画像信号である。案内画像の詳細については後述する。
表示部12は、制御部22から入力された映像信号を映像として表示する。これにより、操作者13が行って操作によって選択された映像コンテンツやニュースに係る映像や、案内画像を表示する。
これにより、表示制御装置2bは、画像処理装置20から入力された検出情報に含まれるユーザ情報が表すコンテンツを選択する処理や、選択したコンテンツを表示する処理を実行する。
撮像装置11は、撮像部110a、110bを含んで構成される。撮像部110a、110bは、撮像した映像を表す映像信号を生成し、生成した映像信号を画像処理装置20に出力する。撮像部110aは、生成した映像信号をユーザ情報解析部201に出力する。撮像部110a、110bは、例えば、被写体から入射された光を集光するレンズを備えた光学系と、集光された光を電気信号に変換する撮像素子を備えるカメラである。撮像部110a、110bが備える撮像素子は、例えば、CCD(Charge Coupled Device、)素子、CMOS(Complementary Metal Oxide Semiconductor)素子である。
距離算出部200は、撮像部110a、110bから各々映像信号が入力される。距離算出部200は、各々入力された映像信号に基づいて撮像装置11から被写体(例えば、操作者13)までの距離を表す距離情報を、例えばステレオマッチング方式を用いて算出する。
ここで、ステレオマッチング方式の一種であるブロックマッチング方式を用いた距離情報の算出方法について説明する。ステレオマッチング方式では、撮像部110a、110bが撮像した映像の視差値を距離値として算出する。以下の説明では、撮像部110aが撮像した映像に含まれる画像であって、ある時点における画像を左画像と呼ぶ。撮像部110bが撮像した映像に含まれる画像であって、その時点における画像を右画像と呼ぶ。
図4は、左画像及び右画像の一例を表す概念図である。
図4は、左側に左画像40を表し、右側に右画像41を表す。
距離算出部200は、左画像40において、注目画素を中心とする左画像ブロック(ウィンドウ)400を設定する。左画像ブロック400に含まれる左右方向に3個、上下方向に3個、計9個の四角形は、それぞれ画素を表す。図4における左画像40の右端から左画像ブロック400の右端までの水平方向の距離がL画素(L個の画素分の距離)である。Lは、1又は1よりも大きい整数である。
距離算出部200は、左画像ブロック400と右画像ブロック410との間の指標値を算出する。距離算出部200は、右画像ブロック410の右端が右画像41の右端からの距離がL画素になるまで位置をずらし、それぞれずれた位置で指標値を算出する。距離算出部200は算出した指標値に基づいて左画像ブロック400と対応する位置にある右画像ブロック410を定める。指標値として、例えばSAD(Sum of Absolute Difference)値を用いる場合、SAD値が最小となる位置にある右画像ブロック410を定める。この位置が左画像40における注目画素に対応する注目点である。注目点と注目画素の間の水平方向の座標の差分に対する絶対値が視差である。距離算出部200は、左画像40に含まれる各画素について実行し、撮像部110aが撮像した映像に含まれる画素毎の視差値を表す視差情報(視差マップ、ディスパリティマップともいう)を距離情報として生成する。視差は、撮像装置11から被写体までの距離が短いほど大きく、距離が長いほど小さくなる関係がある。距離算出部200は、生成した距離情報をユーザ情報解析部201に出力する。
なお、撮像部110a、110bは、上下方向に異なる座標値に配置され、各々が撮像した画像を表す撮像画像を用いて視差を算出してもよい。その場合、距離算出部200は、撮像部110a、110bのいずれかが撮影した画像における画像ブロックを基準として、他方が撮影した画像における画像ブロックを上下方向にずらして対応する画像ブロックを探索すればよい。
Programming)値であってもよい。
左画像ブロック400、右画像ブロック410の大きさであるウィンドウサイズは、上述のように水平方向3画素×上下方向3画素に限られない。例えば、水平方向5画素×上下方向5画素、水平方向9画素×上下方向9画素のように上述よりも大きくてもよいし、水平方向4画素×上下方向4画素のように中心座標が注目点からずれた位置になってもよい。また、右画像ブロック410をずらす方向は、上述のように左側から右側に限られず、右側から左側であってもよい。左画像ブロック400、右画像ブロック410に含まれる画素は、緑色(G)の画素の信号値に限られず、他の色、例えば赤色(R)の画素の信号値であってもよいし、他の表色系に基づく画素の信号値や、それらの任意の組み合わせであってもよい。
撮像部110a、110bが、各々の光軸が平行になるように配置されている場合、エピポーラ線56、57は、左画像40、右画像41各々において上下方向の座標が同一の水平線になる。
次に、本実施形態に係るユーザ情報解析部201の構成について説明する。
図7は、本実施形態に係るユーザ情報解析部201の構成を表す概略図である。
ユーザ情報解析部201は、顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33、注目位置検出部35、特徴情報解析部37、操作者判別部39、検出情報出力部41を備える。
顔検出部30は、撮像部110aから入力された映像信号が表す操作者の顔面の画像を表す領域を検出する。顔検出部30は、検出した顔面の領域における代表点(例えば、重心点)の2次元座標や、その領域の上端、下端、左端、右端の2次元座標を表す2次元顔面領域情報を生成する。顔検出部30は、距離算出部200から入力された距離情報から、2次元顔領域情報が表す2次元座標の画素に係る距離値を抽出する。顔検出部30は、前述の2次元座標と対応する距離値を、被写空間における3次元座標に変換して、3次元顔面位置情報を生成する。
顔面の領域を検出するために、顔検出部30は、例えば予め設定した顔面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された画像信号から抽出する。
その他、顔検出部30は、入力された画像信号に基づいて特徴量(例えば、Haar−Like特徴量)を算出し、算出した特徴量に基づいて予め定めた処理(例えば、Adaboostアルゴリズム)を行って顔面の領域を検出してもよい。顔検出部30が顔面の領域を検出する方法は、上述の方法に限られず、入力された画像信号から顔面の領域を検出する方法であれば、いかなる方法を用いてもよい。
顔検出部30は、検出した顔面の画像を表す顔面画像信号を特徴情報解析部37と目位置検出部31に出力する。顔検出部30は、生成した3次元顔面位置情報及び2次元顔面領域情報を操作者判別部39に出力する。顔検出部30は、生成した3次元顔面位置情報を検出情報の一部として検出情報出力部41に出力する。
目位置検出部31は、顔検出部30から入力された顔面画像信号が表す顔面の画像から目の領域を検出する。目位置検出部31は、検出した目の領域の代表点(例えば、重心点)である2次元の目位置座標を算出する。目位置検出部31は、検出した目位置座標に所在する画素における距離値を、距離算出部200から入力された距離情報から抽出する。目位置検出部31は、算出した2次元の目位置座標と抽出した距離値の組を、被写空間における3次元の目位置座標に変換して3次元目位置情報を生成する。目位置検出部31は、算出した3次元の目位置座標を表す3次元目位置情報を注目位置検出部35および操作者判別部39に出力する。目位置検出部31は、検出した目の領域の画像を表す目領域信号、算出した2次元の目位置座標を表す2次元目位置情報を操作者判別部39に出力する。
目位置検出部31が目の領域を検出する方法は、上述の方法に限られず、顔面画像信号から目の領域を検出する方法であれば、いかなる方法を用いてもよい。
目位置検出部31は、検出する目の領域として、両目の重心点にかかわらず、左目や右目の位置や、これら全てを表す目領域信号を出力するようにしてもよい。
手位置検出部32は、撮像部110aから入力された映像信号が表す操作者の手の画像を表す領域を検出し、検出した手の位置を算出する。
手の画像を表す領域を検出するために、手位置検出部32は、例えば予め設定した手の表面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された映像信号から抽出する。手位置検出部32は、手の位置として検出した手の画像を表す領域の代表点(例えば、重心点)の2次元座標値を算出する。手位置検出部32は、算出した座標値に対応する距離値を、距離算出部200から入力された距離情報から抽出し、算出した2次元座標値と対応する距離値の組を被写空間における3次元座標に変換して3次元手位置情報を生成する。手位置検出部32は、検出した手の領域の画像を表す手画像信号と、算出した代表点の2次元座標値を表す手位置情報を手形状・指先位置検出部33に出力する。
手位置検出部32は、当該手位置情報を操作者判別部39に出力する。
また、手の画像を表す領域を検出するために、手位置検出部32は、距離算出部200から入力された距離情報に基づいて、顔検出部30から入力された3次元顔面位置情報が表す3次元顔面位置を基準とした予め定めた奥行方向の開始点と終了点で表される距離範囲内にある画像を撮像部110aから入力された映像信号から手の画像を表す領域として抽出してもよい。予め定めた距離範囲は、例えば3次元顔面位置より前方(表示装置10側)にある範囲である。これにより、操作者の前方または後方にいる別人の手を、操作者の手と認識することを防ぐことができる。
手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて手の形状を検出する。
手の形状を検出するために、手形状・指先位置検出部33は、手画像信号から、例えばエッジ抽出処理を行って手の輪郭部分を検出する。手形状・指先位置検出部33は、検出した輪郭部分のうち予め定めた範囲の曲率半径(例えば、6−12mm)をもつ突起部分を指の領域の画像として探索する。手形状・指先位置検出部33は、探索において手位置情報が表す代表点からの所定の半径の探索領域に前述の突起部分の有無を判断し、順次半径を変更することで探索領域を同心円状に更新する。手形状・指先位置検出部33は、検出した指の領域に基づいて指の本数を計数する。手形状・指先位置検出部33は、検出した突起部分の頂点を各指の指先位置を表す2次元座標として検出する。手形状・指先位置検出部33は、定めた指先における2次元座標に所在する画素の距離値を距離算出部200から入力された距離情報から抽出する。手形状・指先位置検出部33は、抽出した距離値と指先における2次元座標の組を被写空間における3次元座標を表す3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。手形状・指先位置検出部33は、検出した指の領域を表す指画像信号、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。
注目位置検出部35は、目位置検出部31から入力された3次元目位置情報と手形状・指先位置検出部33から入力された3次元指先位置情報に基づいて操作者が注目する位置である注目位置を検出する。注目位置検出部35は、例えば、3次元目位置情報が表す目の位置と3次元指先位置情報が表す指先の位置を結ぶ直線が、表示装置10と交わる交点を注目位置として算出する。注目位置検出部35は、算出した交点(被写空間における3次元座標)を表示装置10が表す画像に対する2次元の画像座標系に変換して、変換した座標を表す注目位置情報を生成する。注目位置検出部35は、生成した注目位置情報を検出情報の一部として検出情報出力部41に出力する。
特徴情報解析部37は、顔検出部30から入力された顔面画像信号に基づきユーザの属性(例えば、年齢、性別、表情)を表す特徴情報を生成する。年齢を表す特徴情報(年齢情報)として、例えば具体的な年齢に限らず予め定めた年齢層(例えば、10代、20代、幼年、青少年、青壮年、後年)を表す情報であってもよい。性別を表す特徴情報(性別情報)は、男性又は女性を表す情報である。表情を表す特徴情報(表情情報)は、例えば笑っているかいないかを表す情報である。表情情報は、笑顔である度合いを表す笑顔度を含んでいてもよい。
特徴情報解析部37は、生成した特徴情報を検出情報の一部として検出情報出力部41に出力する。
次に、操作者の判別処理について説明する。
操作者判別部39は、顔検出部30から入力された3次元顔位置情報に基づいて、顔面の領域を検出したユーザのうち予め定めた操作可能距離の領域に所在するユーザを操作者として判別する(図1、2参照)。操作者判別部39は、例えば、3次元顔位置情報が表す距離が予め定めた操作可能距離の上限よりも、撮像装置11からの距離が短い位置に顔面が所在するユーザを操作者として判別する。これにより、顔検出部30が顔面を検出したユーザの中から操作者が判別される。他方、操作者判別部39は、予め定めた操作可能領域外に所在するユーザを操作不可者として判別する。
図8は、操作開始検出範囲の一例を表す概念図である。
図8は、左側に操作者13の正面を表し、右側に操作者13の左側面を表す。操作開始検出領域133は、例えば、撮像装置11から入力された映像信号が表す操作者13の画像に含まれる左眼131−1及び右眼131−2を結ぶ両眼の高さを表す線分134を含む領域である。即ち、線分134と平行であって顔面132の上端に接する線分135と、線分134と平行であって顔面132の下端に接する線分136に挟まれる領域である。ここで、操作者判別部39は、顔検出部30から入力された2次元顔面領域情報と目位置検出部31から入力された2次元目位置情報に基づいて操作開始検出領域を算出する。
操作者判別部39は、手位置検出部32から入力された手位置情報が表わす代表点が、操作開始検出領域の範囲外に離れた場合、その代表点に手を所在させた操作者13は操作を終了したと判断する。その場合、操作者判別部39は、その操作者に係る検出情報に基づいて操作が終了されたことを表す操作終了信号を検出情報出力部41に出力する。即ち、操作者判別部39が、ある操作者13について操作開始信号を検出情報出力部41に出力してから、操作終了信号を出力されるまでの間は、表示装置10は、操作者13と判断されたユーザの手の形状に基づく操作入力を受け付ける。他のユーザについて手位置情報が表す代表点が操作開始検出領域の範囲内にあったとしても、その間、表示装置10は、他のユーザからの操作を受け付けない。
図9に示す例では、操作者13は、底面137の上を横たわっている。このとき、左眼131−1及び右眼131−2を結ぶ線分134と底面137となす角度θは、0°よりも90°に近い角度(例えば、20°)である。
この場合、操作者判別部39は、目位置検出部31から入力された2次元目位置情報に基づいて左眼131−1及び右眼131−2を結ぶ線分134を定める。操作者判別部39は、顔検出部30から入力された2次元顔面領域情報に基づいて顔面の上端に接し線分134に平行な線分135と顔面の下端に接し線分134に平行な線分136を定める。操作者判別部39は、線分135と線分136に挟まれる領域を操作開始検出領域133と定める。このように操作者判別部39は、操作者13の身体の一部である顔面の位置に基づいて操作開始検出領域133を定め、操作入力に係る身体の他部である手との位置関係に基づいて操作を受け付ける操作者を判別する。
なお、ユーザ情報解析部201は、上述した方法や特徴量に限られず、入力された映像信号に基づいてユーザの特徴やユーザが指示する操作に係る情報を検出してもよい。
制御部22は、情報DB21から案内画像信号を読み出し、読み出した案内画像信号を表示部12に出力する。表示部12は、制御部22から入力された案内画像信号に基づく案内画像を表示する。
案内画像とは、表示装置10が行う処理の種類毎に、手の形状を表す画像を含む画像である。即ち、案内画像は、表示されている手の形状のうちの一つを操作者が実行して、対応する処理を表示装置10に指示できることを表す。また、手の形状とは、静止した形状だけではなく時間経過に伴って変化する手の動作も含む。
制御部22が、案内画像信号を表示部12に出力する時期は、例えば、検出情報出力部41から検出情報が入力された時点である。この時期は、操作者13が操作開始検出領域(図8、9参照)内に手を挙げている時期に相当する。
図10は、案内画像の一例を表す概念図である。
図10において、長方形の外枠は、表示部12の画面の表示領域を表す。表示部12の下方の破線で示された長方形は、案内画像80を表す。案内画像80は、4種類の処理の種類毎に手の形状又は動作を表す画像81−84を含む。画像81−84の真上には、それぞれ、対応する処理の内容を表す文字列が表示されている。例えば、画像81は、両手を広げて左右に往復して移動させることを表し、画像81の真上には「電源を切る」という電源断を表す文字列が表示されている。画像82は、両手の全ての指を握りながら上下に移動させることを表し、画像82の真上には「番組表を見る」という電子番組表(EPG、Electronic Program Guide)を表示することを表す文字列が表示されている。画像83は、両手の人差し指と中指を上方に立てて奥行方向に移動させることを表し、画像83の真上には「音を大きく」という音量を大きくすることを表す文字列が表されている。画像84は、両手の人差し指と中指を下方に立てて奥行方向に移動させることを表し、画像84の真上には「音を小さく」という音量を小さくすることを表す文字列が表されている。即ち、操作に習熟していない操作者13であっても案内画像を視聴することによって、目的とする操作を行なうためにとるべき手の形状および動作を把握することができる。
また、案内画像はこれに限定されたものではなく、手の形状および動作を視覚的に表す動画(アニメーション)で構成された案内画像であってもよい。例えば、画像81では、両手を広げて左右に往復して移動する動画(アニメーション)で案内画像に表示してもよい。
制御部22は、検出情報出力部41から入力された検出情報から、3次元顔面位置情報、指画像信号、本数情報、2次元指先位置情報、注目位置情報、特徴情報を抽出する。手の形状を表す手形状情報は、抽出された情報のうち、指画像信号、本数情報、2次元指先位置を含んで構成される。手形状情報は、一時的又は静止した手の形状、即ち姿勢を表す情報であってもよいし、時間経過によって変化する手の形状、即ち動作を表す情報であってもよい。
制御部22は、予め操作対象となる処理の種別毎に手形状情報を対応付けられて記憶された記憶部を備える。制御部22は、記憶部から手形状情報を読み出し、読み出した手形状情報と入力された手形状情報を照合する。制御部22は、照合に成功した手形状情報に対応した処理を実行する。例えば、入力された手形状情報が、画像82に示されるように両手の全ての指を握りながら上下に移動させることを表す場合、制御部22は、番組表情報を情報DB21から読み出し、読み出した番組表情報を表示部12に出力する。
上述の手の形状は、図10に示したものに限られず、表示装置10の処理の種類に対する指示として特定できればよい。例えば、伸ばしている指の本数、手の方向、親指の先端と人差し指の先端を接触させた形状であってもよい。また、本実施形態では、操作者の手の形状に限られず、身体の他の部分の形状を用いてもよい。
操作に習熟した操作者にとって、案内画像80が表示されてから操作を行うことが煩わしい場合がある。例えば、制御部22は、検出情報出力部41から検出情報が入力された時点で案内画像を表示しなくともよい。但し、制御部22は、記憶部から読み出した手形状情報と入力された手形状情報との照合に失敗した場合に、案内画像を表示する。これにより、操作者に対して照合に失敗した場合に所望の処理を行わせるための操作内容の確認を促すことができる。
また、制御部22は、操作者毎に異なったタイミングで案内画像を表示してもよい。例えば、初めて操作を行う操作者や、操作に不慣れな操作者に対して、I.案内画像を表示する場合(I.案内画像表示)がある。また、操作に習熟している操作者に対して、案内画像を表示せず当初から検出情報を受け付ける場合(II.直接操作)がある。
図11は、本実施形態に係る制御部22が処理を行うタイミングを表す概略図である。
図11において、横軸は時刻、縦軸は、上から下へ順にI.案内画像表示、II.直接操作を表す。横軸の左端は、ともに制御部22が最初に検出情報が入力された時点を表す。
I.案内画像表示について、制御部22は、検出情報が最初に入力されてから予め定めた時間T1だけ経過するまでの間、案内画像信号の出力を待機する。制御部22は、時間T1が経過した時点において、案内画像信号を表示部12に出力する。制御部22は、検出情報出力部41から検出情報が入力されると、入力された検出情報に対応する処理を実行し、表示部12は、表示している案内画像を消去する。
II.直接操作について、制御部22は、検出情報が最初に入力されてから、検出情報出力部41からの検出情報を待ち受ける。制御部22は、検出情報出力部41から検出情報が入力されると、入力された検出情報に対応する処理を実行する。
これにより、操作に習熟した操作者による操作入力に対して、案内画像の表示が行われず、対応する処理が行われる。そのため、本実施形態に係る表示装置10では、操作の習熟の有無に関わらず快適に操作入力を行うことができる。
また、小児(例えば、10歳以下)である操作者13の年齢層に対して、処理内容を表示する文字をひらがなで表した案内画像信号や、アニメーション映画の登場人物の表した案内画像信号を記憶させておいてもよい。このようにして、操作者13が小児であっても、表示された操作内容を把握でき、親近感をもって表示装置10を操作できるようになる。
また、小児や高齢者(例えば、60歳以上)である操作者13の年齢層に対しては、処理内容を動画像で表す案内画像信号を記憶させておいてもよい。これにより、小児や高齢者でも操作方法を表示された動画を視聴して直感的に把握することができる。
これにより、本実施形態では、操作者の特徴を表す特徴情報毎に案内画像の表示、その他の操作に係る処理を変更されるため、操作者の特徴に関わらず快適な操作を実現させることができる。
次に、本実施形態に係るデータ入力処理について説明する。
図12は、本実施形態に係るデータ入力処理を表すフローチャートである。
(ステップS900)撮像部110a、110bは、それぞれ映像を撮像し、撮像した映像信号を距離算出部200に出力する。撮像部110aは、映像信号をユーザ情報解析部201の顔検出部30、手位置検出部32に出力する。その後、ステップS901に進む。
(ステップS901)距離算出部200は、撮像部110a、110bから各々入力された映像信号に基づいて撮像装置11から操作者までの距離を、例えばステレオマッチング方式を用いて算出し、算出した距離情報を生成する。距離算出部200は、生成した距離情報をユーザ情報解析部201の顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33に出力する。その後、ステップS902に出力する。
なお、前述同様に、操作者判別部39は、被写空間上の3次元座標を表す3次元目位置情報と3次元顔領域情報に基づいて操作開始検出範囲を定めてもよい。その場合、操作者判別部39は、3次元手位置情報が表す被写空間上の手位置が奥行方向の操作開始検出範囲(図8における操作開始検出開始位置(奥行方向)から開始される操作開始検出領域(奥行方向))に含まれるか否かによって操作を受け付ける操作者か否かを判別するようにしてもよい。これにより、操作開始検出範囲と手位置との関係を、奥行方向の座標も考慮して誤検出を回避することができる。
(ステップS906)制御部22は、記憶部から手形状情報を読み出し、読み出した手形状情報と入力された手形状情報を照合する。制御部22は、読み出した手形状情報と入力された手形状情報との照合が成功した場合(ステップS906 Yes)、ステップS910に進む。制御部22は、読み出した手形状情報と入力された手形状情報との照合に失敗した場合(ステップS906 No)、ステップS907に進む。
制御部22は、案内画像出力待機時間(T1)を経過していない場合(ステップ907
No)、ステップS900に進む。
(ステップS908)制御部22は、予め定めた時間T1が経過した後、情報DB21から案内画像信号を読み出し、読み出した案内画像信号を表示部12に出力する。表示部12は、制御部22から入力された案内画像信号に基づく案内画像を表示する。その後、ステップS900に進む。
この測距部は、例えば、距離情報を取得する方式としてTOF(Time of Flight)法を用いる。TOF法では、光源として、例えば、LED(Light Emitting Diode、発光ダイオード)を用いて、光線を放射してから被写体から反射した反射光を受信するまでの到達時間を計測する。到達時間の計測を、予め定めた分割された領域毎に行うことで、被写空間内の平面位置毎の距離情報を取得することができる。光源は、例えば、人間の眼に見えない赤外線を放射する赤外線発光ダイオードであるが、これには限られない。例えば、パルス照射することができるレーザ光源であってもよい。また、光線の振幅又は位相を変調することができる位相変調器を備え、放射光と反射光の位相差に基づいて到達時間を算出してもよい。
また、本実施形態によれば、ユーザ情報に対応する処理を実行したタイミングによる、案内画像の表示の有無や、撮像装置が撮像した映像に基づきユーザの特徴を表す特徴情報を推定し、特徴情報によって表示態様が異なる案内画像を表示する。そのため、多様な特徴を有するユーザに対して快適な操作が可能になる。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における表示装置10の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。表示装置10の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
Claims (12)
- 撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する第1位置検出部と、
前記身体の一部とは異なる他の部分の位置を表す第2位置情報を取得する第2位置検出部と、
前記第2位置情報に基づいてユーザを判別し、前記撮像装置が撮像した映像に表された前記判別されたユーザの前記身体の一部の形状を表す情報を含むユーザ情報を検出するユーザ情報解析部と、
前記第1位置情報と前記第2位置情報が予め定めた関係にあるユーザについて前記ユーザ情報に対応する処理を実行する制御部と、
を備え、
前記ユーザ情報解析部は、所定の基準位置から前記第2位置情報が示す位置までの距離が、所定の距離よりも小さいユーザを操作者と判断すること
を特徴とするデータ入力装置。 - 前記ユーザ情報解析部は、所定の基準位置から前記操作者と判断したユーザの前記第2位置情報が示す位置までの距離が、前記所定の距離よりも大きくなった場合に、新たなユーザの操作入力を受け付けること
を特徴とする請求項1に記載のデータ入力装置。 - 前記ユーザ情報解析部は、前記第2位置情報に基づいて操作検出領域を定め、前記ユーザが複数であるとき、前記第1位置情報が示す前記身体の一部の位置が前記操作検出領域の中心に最も近接するユーザを操作者と判断すること
を特徴とする請求項1または請求項2に記載のデータ入力装置。 - 前記ユーザ情報解析部は、前記第2位置情報に基づいて操作検出領域を定め、前記第1位置情報が示す前記身体の一部の位置が前記操作検出領域の範囲外となった場合に、新たなユーザの操作入力を受け付けること
を特徴とする請求項1から請求項3のいずれか一項に記載のデータ入力装置。 - 前記制御部が実行する処理と前記身体の一部の形状との関係を表す案内画像を表示する表示部を備え、
前記ユーザ情報解析部は、前記ユーザ情報の検出回数に基づき前記ユーザの習熟度を判断し、
前記制御部は、前記習熟度が高いほど前記ユーザ情報の検出から前記案内画像を表示するまでの時間を短くすること
を特徴とする請求項1から請求項4のいずれか一項に記載のデータ入力装置。 - 前記制御部が実行する処理と前記身体の一部の形状との関係を表す案内画像を表示する表示部を備え、
前記ユーザ情報解析部は、前記ユーザ情報の検出回数に基づき前記ユーザの習熟度を判断し、
前記制御部は、前記習熟度が所定の習熟度よりも低い場合、前記案内画像を表示させ、前記習熟度が所定の習熟度よりも高い場合、前記案内画像を表示させないこと
を特徴とする請求項1から請求項5のいずれか一項に記載のデータ入力装置。 - 前記制御部は、前記身体の一部の形状変化が所定の検出閾値よりも大きいとき、当該形状変化に基づく操作入力を受け付け、前記所定の基準位置から前記第2位置情報が示す位置までの距離が大きいほど、前記身体の一部の形状変化の検出閾値を大きくすること
を特徴とする請求項1から請求項6のいずれか一項に記載のデータ入力装置。 - 前記ユーザ情報解析部は、前記撮像装置が撮像した映像に基づき、前記ユーザの年齢層を表す特徴情報を推定し、
前記制御部は、前記身体の一部の形状の変化に基づく操作入力を受け付け、前記年齢層が高いほど、前記身体の一部の形状の検出時間間隔を長くすること
を特徴とする請求項1から請求項7のいずれか一項に記載のデータ入力装置。 - 前記ユーザ情報解析部は、前記撮像装置が撮像した映像に基づき、前記ユーザの年齢層を表す特徴情報を推定し、
前記制御部は、前記身体の一部の形状の変化に基づく操作入力を受け付け、前記年齢層が低いほど、前記身体の一部の形状変化の検出閾値を小さくすること
を特徴とする請求項1から請求項8のいずれか一項に記載のデータ入力装置。 - 前記制御部が実行する処理と前記身体の一部の形状との関係を表す案内画像を表示する表示部と、
身体の一部の形状を示す形状情報を記憶した記憶部を備え、
前記制御部は、前記記憶部から読み出した形状情報が示す形状と、前記第1位置情報が示す身体の一部の形状との照合に失敗した場合、前記案内画像を表示させること
を特徴とする請求項1から請求項9のいずれか一項に記載のデータ入力装置。 - データ入力装置におけるデータ入力方法であって、
撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する第1位置検出過程と、
前記身体の一部とは異なる他の部分の位置を表す第2位置情報を取得する第2位置検出過程と、
前記第2位置情報に基づいてユーザを判別し、前記撮像装置が撮像した映像に表された前記判別されたユーザの前記身体の一部の形状を表す情報を含むユーザ情報を検出するユーザ情報解析過程と、
前記第1位置情報と前記第2位置情報が予め定めた関係にあるユーザについて前記ユーザ情報に対応する処理を実行する制御過程と、
を有し、
前記ユーザ情報解析過程は、所定の基準位置から前記第2位置情報が示す位置までの距離が、所定の距離よりも小さいユーザを操作者と判断すること
を特徴とするデータ入力方法。 - データ入力装置のコンピュータに、
撮像装置が撮像した映像に表されたユーザ毎の身体の一部の位置を表す第1位置情報を取得する第1位置検出手順、
前記身体の一部とは異なる他の部分の位置を表す第2位置情報を取得する第2位置検出手順、
前記第2位置情報に基づいてユーザを判別し、前記撮像装置が撮像した映像に表された前記判別されたユーザの前記身体の一部の形状を表す情報を含むユーザ情報を検出するユーザ情報解析手順、
前記第1位置情報と前記第2位置情報が予め定めた関係にあるユーザについて前記ユーザ情報に対応する処理を実行する制御手順、
を有し、
前記ユーザ情報解析手順は、所定の基準位置から前記第2位置情報が示す位置までの距離が、所定の距離よりも小さいユーザを操作者と判断すること
を特徴とするデータ入力プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016130345A JP6230666B2 (ja) | 2016-06-30 | 2016-06-30 | データ入力装置、データ入力方法、及びデータ入力プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016130345A JP6230666B2 (ja) | 2016-06-30 | 2016-06-30 | データ入力装置、データ入力方法、及びデータ入力プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012024951A Division JP5964603B2 (ja) | 2012-02-08 | 2012-02-08 | データ入力装置、及び表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016186809A true JP2016186809A (ja) | 2016-10-27 |
JP6230666B2 JP6230666B2 (ja) | 2017-11-15 |
Family
ID=57202616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016130345A Expired - Fee Related JP6230666B2 (ja) | 2016-06-30 | 2016-06-30 | データ入力装置、データ入力方法、及びデータ入力プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6230666B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020005088A (ja) * | 2018-06-27 | 2020-01-09 | 株式会社日立国際電気 | 放送用調整装置及び放送用調整システム |
US10885366B2 (en) | 2018-02-20 | 2021-01-05 | Fujitsu Limited | Input information management apparatus and input information management method |
JP2022504302A (ja) * | 2018-10-09 | 2022-01-13 | 美的集団股▲フン▼有限公司 | 家庭電器に制御用ユーザインタフェースを提供する方法及びシステム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010534895A (ja) * | 2007-07-27 | 2010-11-11 | ジェスチャー テック,インコーポレイテッド | 高度なカメラをベースとした入力 |
JP2011039844A (ja) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2011175405A (ja) * | 2010-02-24 | 2011-09-08 | Panasonic Corp | 表示装置および表示装置における操作可能範囲表示方法 |
WO2011155192A1 (ja) * | 2010-06-08 | 2011-12-15 | パナソニック株式会社 | 映像生成装置、方法及び集積回路 |
-
2016
- 2016-06-30 JP JP2016130345A patent/JP6230666B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010534895A (ja) * | 2007-07-27 | 2010-11-11 | ジェスチャー テック,インコーポレイテッド | 高度なカメラをベースとした入力 |
JP2011039844A (ja) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2011175405A (ja) * | 2010-02-24 | 2011-09-08 | Panasonic Corp | 表示装置および表示装置における操作可能範囲表示方法 |
WO2011155192A1 (ja) * | 2010-06-08 | 2011-12-15 | パナソニック株式会社 | 映像生成装置、方法及び集積回路 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10885366B2 (en) | 2018-02-20 | 2021-01-05 | Fujitsu Limited | Input information management apparatus and input information management method |
JP2020005088A (ja) * | 2018-06-27 | 2020-01-09 | 株式会社日立国際電気 | 放送用調整装置及び放送用調整システム |
JP2022504302A (ja) * | 2018-10-09 | 2022-01-13 | 美的集団股▲フン▼有限公司 | 家庭電器に制御用ユーザインタフェースを提供する方法及びシステム |
JP7193180B2 (ja) | 2018-10-09 | 2022-12-20 | 美的集団股▲フン▼有限公司 | 家庭電器に制御用ユーザインタフェースを提供する方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
JP6230666B2 (ja) | 2017-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013180151A1 (ja) | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム | |
JP5896578B2 (ja) | データ入力装置 | |
KR102160236B1 (ko) | 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치 | |
EP2956882B1 (en) | Managed biometric identity | |
JP5964603B2 (ja) | データ入力装置、及び表示装置 | |
KR101581954B1 (ko) | 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법 | |
JP5205187B2 (ja) | 入力システム及び入力方法 | |
JP2014165660A (ja) | バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム | |
JP2005202653A (ja) | 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム | |
JP5438601B2 (ja) | 人物動作判定装置およびそのプログラム | |
JP6230666B2 (ja) | データ入力装置、データ入力方法、及びデータ入力プログラム | |
KR101256046B1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
KR101501487B1 (ko) | 깊이 영상 기반 머리 검출방법 및 장치 | |
CN108594995A (zh) | 一种基于手势识别的电子设备操作方法及电子设备 | |
CN105912126A (zh) | 一种手势运动映射到界面的增益自适应调整方法 | |
CN115565241A (zh) | 手势识别对象确定方法及装置 | |
KR101396488B1 (ko) | 신호 입력 장치 및 신호 입력 방법 | |
US20150138088A1 (en) | Apparatus and Method for Recognizing Spatial Gesture | |
JP2000172163A (ja) | 手動作分節方法および装置 | |
JPH0648458B2 (ja) | 情報入力装置 | |
KR20210003515A (ko) | 인터렉티브모드를지원하는증강현실구현장치 | |
KR101289883B1 (ko) | 영역 별로 임계치를 다르게 적용한 마스크 이미지 생성 장치 및 그 방법 | |
KR101775080B1 (ko) | Nui/nux에 기반하여 드로잉 영상을 처리하는 장치 및 방법 | |
CN115543135A (zh) | 显示屏幕的控制方法、装置及设备 | |
Lee et al. | A Long‐Range Touch Interface for Interaction with Smart TVs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6230666 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |