JP5896578B2 - データ入力装置 - Google Patents

データ入力装置 Download PDF

Info

Publication number
JP5896578B2
JP5896578B2 JP2014548539A JP2014548539A JP5896578B2 JP 5896578 B2 JP5896578 B2 JP 5896578B2 JP 2014548539 A JP2014548539 A JP 2014548539A JP 2014548539 A JP2014548539 A JP 2014548539A JP 5896578 B2 JP5896578 B2 JP 5896578B2
Authority
JP
Japan
Prior art keywords
input
hand
detection
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014548539A
Other languages
English (en)
Other versions
JPWO2014080829A1 (ja
Inventor
紫村 智哉
智哉 紫村
栄 齋藤
栄 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014548539A priority Critical patent/JP5896578B2/ja
Application granted granted Critical
Publication of JP5896578B2 publication Critical patent/JP5896578B2/ja
Publication of JPWO2014080829A1 publication Critical patent/JPWO2014080829A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves

Description

本発明は、データ入力装置に関する。
本願は、2012年11月22日に、日本に出願された特願2012−256552号に基づき優先権を主張し、その内容をここに援用する。
コンピュータ、ゲーム機、テレビ電話会議システム等の機器を操作するためのユーザインタフェースとして様々な機器や手法が提案されている。
例えば、特許文献1に記載の情報入力装置は、指し棒の赤外線発信部から赤外線、超音波発信部から超音波を同時に発信させ、赤外線を受信した時間を基準として超音波を受信した時間との差によって、差し棒がディスプレイ上の指している位置を入力する。
また、特許文献2に記載の情報処理装置は、光が照射された情報入力面の画像を撮像し、撮像画像の情報入力面における輝度分布に基づいて検出された入力装置の情報入力面上の位置に応じて情報を処理する。
特開平9−212299号公報 特開2011−113191号公報
しかしながら、特許文献1に記載の情報入力装置では、位置情報の入力に用いる入力デバイスとして差し棒等の専用の入力デバイスを用いるので用途が制約されることがある。例えば、複数人が参加するテレビ電話会議に応用される場合には、参加人数分の入力デバイスが必要になる。また、電子広告装置(デジタルサイネージ)等、一般公衆に公開される場面では、入力デバイスの破損や紛失等が発生しがちである。さらに、入力デバイスと装置本体との間では、伝搬特性が天候に影響される赤外線を用いて情報を伝達するため屋外での利用には適さないことがある。
また、特許文献2に記載の情報処理装置では、手書き文字等を入力するために用いられる情報入力面として、机やテーブル等のように物理的な平面を有する備品が必要となる。つまり、かかる備品を設置することができない状況では、応用が制約されることがある。例えば、街頭に設置される電子広告装置に応用される場合には、かかる備品を備える空間を確保できないことがある。確保できたとしても、ユーザが画像を表示する表示装置と近接できないことや、情報入力面と表示装置の表示面とがユーザから同一の方向に配置できない等の障害があった。そのため、適用できる場面が限定され、有効に活用されないことがあった。
本発明は、このような問題を鑑みてなされたもので、専用のデバイスを用いずに円滑に描画入力を行うデータ入力装置を提供することにある。
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様に係るデータ入力装置は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出部と、前記位置検出部が検出した前記第1位置に基づいて前記他の一部を検出する操作検出領域と前記操作検出領域の一部の領域であって描画入力を検出する入力検出領域を定め、前記第2位置が前記操作検出領域のうち前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出する描画入力検出部と、前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出部と、前記注目位置検出部が検出した注目位置を示す入力検出画像を形成し、前記描画入力検出部が描画入力を検出しないとき、描画入力を検出するときよりも前記入力検出画像の表示態様を目立たない態様にする画像形成部と、を備える。
(2)本発明のその他の態様によれば、上述のデータ入力装置において、前記画像形成部は、前記第2位置の奥行方向への座標値に応じて前記描画入力に基づく画像の処理に係る情報を定めるように構成されてもよい。
(3)本発明のその他の態様によれば、上述のデータ入力装置は、前記身体の他の一部の形状を検出する第一形状検出部を備えてもよい。また、前記画像形成部は、前記第一形状検出部が検出した形状に基づいて前記描画入力に基づく画像の処理に係る情報を定めるように構成されてもよい。
(4)本発明のその他の態様によれば、上述のデータ入力装置において、前記位置検出部は、前記撮像装置が撮像した映像に表されたユーザの身体のさらに他の一部の位置である第3位置を検出し、前記描画入力検出部は、前記操作検出領域に基づいて前記さらに他の一部の位置を検出し、前記操作検出領域のうち前記第3位置よりも奥の領域を前記入力検出領域として定めるように構成されてもよい。
(5)本発明のその他の態様によれば、上述のデータ入力装置は、前記身体のさらに他の一部の形状を検出する第二形状検出部を備えてもよい。また、前記画像形成部は、前記第二形状検出部が検出した形状に基づいて前記描画入力に基づく画像の処理に係る情報を定めるように構成されてもよい。
(6)本発明のその他の態様によれば、上述のデータ入力装置において、前記ユーザの身体の一部は顔であってもよく、前記身体の他の一部は左右いずれか一方の手であってもよい。
(7)本発明のその他の態様によれば、上述のデータ入力装置において、前記ユーザの身体の一部は顔であってもよく、前記身体の他の一部は左右いずれか一方の手であってもよく、前記ユーザの身体のさらに他の一部は、前記一方の手とは他方の手であってもよい。
(8)本発明のその他の態様によれば、上述のデータ入力装置において、前記ユーザの身体の一部は目であってもよく、前記身体の他の一部は左右いずれか一方の手であってもよい。
(9)本発明のその他の態様によれば、上述のデータ入力装置において、前記ユーザの身体の一部は目であってもよく、前記身体の他の一部は左右いずれか一方の手であってもよく、前記ユーザの身体のさらに他の一部は、前記一方の手とは他方の手であってもよい。
(10)本発明のその他の態様に係るデータ入力装置におけるデータ入力方法は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出工程と、前記位置検出工程で検出した前記第1位置に基づいて前記他の一部を検出する操作検出領域と前記操作検出領域の一部の領域であって描画入力を検出する入力検出領域を定め、前記第2位置が前記操作検出領域のうち前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出する描画入力検出工程と、前記位置検出工程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出工程と、前記注目位置検出工程で検出した注目位置を示す入力検出画像を形成し、前記描画入力検出工程で描画入力を検出しないとき、描画入力を検出するときよりも前記入力検出画像の表示態様を目立たない態様にする画像形成工程と、を含む。
(11)本発明のその他の態様に係るデータ入力プログラムは、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出工程と、前記位置検出工程で検出した前記第1位置に基づいて前記他の一部を検出する操作検出領域と前記操作検出領域の一部の領域であって描画入力を検出する入力検出領域を定め、前記第2位置が前記操作検出領域のうち前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出する描画入力検出工程と、前記位置検出工程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出工程と、前記注目位置検出工程で検出した注目位置を示す入力検出画像を形成し、前記描画入力検出工程で描画入力を検出しないとき、描画入力を検出するときよりも前記入力検出画像の表示態様を目立たない態様にする画像形成工程と、をデータ入力装置のコンピュータに実行させる。
本発明の態様によれば、専用のデバイスを用いずに円滑にデータ入力を行うことができる。
本発明の第1の実施形態に係る表示装置の外観構成を表す概念図である。 本実施形態に係る表示装置とユーザとの位置関係を表す平面図である。 本実施形態に係る表示装置の構成を表すブロック図である。 左画像及び右画像の一例を表す概念図である。 画像ブロックの例を表す概念図である。 撮像面の位置関係を表す概念図である。 本実施形態に係るユーザ情報解析部の構成を表す概略図である。 本実施形態に係る入力検出領域の一例を表す概念図である。 本実施形態に係る操作検出領域の例を表す概念図である。 本実施形態に係る入力検出領域の他の例を表す概念図である。 注目位置の例を示す概念図である。 本実施形態に係る制御部22の構成を示す概略図を示す。 本実施形態に係る表示装置の一動作例を示す概念図である。 本実施形態における画像の一表示例を示す概念図である。 本実施形態における画像の他の表示例を示す概念図である。 本実施形態における画像のさらに他の表示例を示す概念図である。 本実施形態における入力検出画像の一表示例を示す概念図である。 本実施形態に係るデータ入力処理を表すフローチャートである。 本発明の第2の実施形態に係る入力検出領域の一例を表す概念図である。 本実施形態に係るデータ入力処理を表すフローチャートである。 本発明の第3の実施形態における線の太さと指定位置との関連を示す概念図である。 本実施形態に係る線の太さの設定例を示す図である。 本実施形態における画像の一表示例を示す概念図である。 本実施形態における画像の他の表示例を示す概念図である。 本実施形態における線の種類の選択例を示す概念図である。 本実施形態に係る案内画像の例を示す図である。 本実施形態に係るデータ入力処理を表すフローチャートである。 本発明の第4の実施形態における線の種類の選択例を示す概念図である。 本実施形態に係る案内画像の例を示す図である。 本実施形態に係るデータ入力処理を表すフローチャートである。
(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本実施形態に係る表示装置10の外観構成を表す概念図である。
図1において、表示装置10は、映像を表示する装置、例えばテレビジョン受信機、ディジタルサイネージ(電子看板)装置、映像会議装置である。表示装置10は、正面下辺の中央部に撮像装置11を備え、正面の大部分を覆うように表示部12を備える。
撮像装置11は、手前方向の映像を撮像する、例えばステレオカメラである。撮像装置11は、例えば、左右方向に互いに離れて位置して前方を撮像する撮像部110a、110bを備える。撮像部110a、110bは、それぞれカメラユニットである。
表示部12は、その内蔵する制御部22(図3)から入力された画像信号に基づく画像を表示するディスプレイである。なお、表示装置10は、音声を出力するスピーカ(図示せず)を備えていてもよい。
操作者13は、表示装置10を操作するユーザである。操作者13は、表示装置10の正面に対面し、所定の姿勢、例えば身体の手振り、身振り(ジェスチャ)でユーザ情報(意思)を伝える。表示装置10に内蔵されたユーザ情報解析部201(図3)は、撮像装置11が撮像した画像に表された操作者13の身体の一部がとる姿勢を表すユーザ情報を取得する。ユーザ情報には、例えば、指差しなどの手の形状・握り拳、その動かし方を表す情報が含まれる。表示装置10は、撮像装置11を介して取得したユーザ情報に対応した処理を実行する。これにより、操作者13は、指差しなどの手の形状・握り拳、その動かし方により、表示装置10の処理を操作することができる。
表示装置10には、自己の位置を基準とする予め設定された領域であって、操作者13による操作を受け付ける操作可能領域が予め設定されている。表示装置10には、操作可能領域として、例えば、表示装置10の中心部から操作者13の手の位置までの手前方向の距離である操作可能距離の上限(例えば、3m)が設定されている。但し、操作可能領域の左右方向は、例えば、撮像装置11の視野角の範囲内に設定されることができる。この場合には、左右方向の設定は不要である。表示装置10には、操作可能距離の上限よりも遠くに離れたユーザである操作不可者14による操作を受け付けない。操作を受け付けるユーザを判別する処理については、後で詳述する。
図1に示す例では、撮像装置11が表示装置10の正面下辺に設置されているが、これに限定されない。例えば、撮像装置11は、表示装置10の正面上辺に設置されていてもよいし、表示装置10から離れた位置に設置されていてもよい。
撮像装置11は、操作者13の顔面の高さ、特に、目の高さよりも高い位置に設置されていてもよい。そのために、撮像装置11の高さを、操作者13が所在する床面の高さと人間の平均身長を考慮して予め定めておく。その他、表示装置10が、例えば床面など比較的低い位置に設置される場合には、撮像装置11は、表示部12よりも高い位置に設置されていてもよい。
これにより、撮像装置11は、操作者13の顔面よりも高い位置から操作者13の身体を表す映像を撮像することができ、指差しなどの手の形状・握り拳、その動かし方によって操作者13の顔面が遮蔽されることを防止することができる。そのため、制御部22が、操作者13の顔面の画像を用いて行われる操作者の識別、顔面の位置の検出、操作の検出などの処理を安定して実行できる。これらの処理については後述する。
図2は、本実施形態に係る表示装置10とユーザとの位置関係を表す平面図である。
図2において、上下は、それぞれ表示装置10の奥、手前の方向を表す。図2が示す操作者13、操作不可者14及び表示装置10の位置関係は同様である。ここで、図2では、操作者13は、表示装置10の正面であって、表示装置10からの距離が操作可能距離の上限よりも短い(近い)位置に所在している。これに対し、操作不可者14は、表示装置10の正面であって、表示装置10からの距離が操作可能距離の上限よりも長い(遠い)位置に所在している。
上述のように操作可能距離の上限が設定されることにより、制御部22(図3)が、複数のユーザが同時に操作を行う機会や、操作と誤認される動作(例えば、ディジタルサイネージ装置の近くを通過する通行人による手振り)を表す画像が入力される機会を制限する。例えば公共の場に設置されたディジタルサイネージ装置のように、表示装置10が同時に複数のユーザに利用される場合でも映像を視聴するユーザが意図しない処理が回避される。
〔表示装置の構成〕
次に本実施形態に係る表示装置10の構成について説明する。
図3は、本実施形態に係る表示装置10の構成を表すブロック図である。
表示装置10は、撮像装置11、画像処理装置20、情報DB(Database、データベース)21、制御部22及び表示部12を含んで構成される。なお、表示装置10は、データ入力装置として画像処理装置20、情報DB21及び制御部22を含んで構成されていれば、撮像装置11及び表示部12とは別体であってもよい。
撮像装置11は、撮像した映像を表す映像信号を生成し、生成した映像信号を画像処理装置20に出力する。画像処理装置20は、撮像装置11から入力された映像信号に基づき判別した操作者を表す操作者情報の取得、操作者の身体の一部が所在する位置を表す第1空間情報の取得、操作者の身体の一部がとる形状を表すユーザ情報の取得を行う。画像処理装置20は、取得した操作者情報、第1空間情報及びユーザ情報を検出情報として制御部22に出力する。
情報DB21には、操作者13の映像を表す映像信号に基づく操作入力に応じて表示する表示情報が記憶されている。表示情報は、例えば、映像コンテンツ等を表す映像信号、ニュース等を表すテキスト情報、ネットワークから受信したコンテンツを表すコンテンツ情報、案内画像(操作ガイド)を表す案内画像信号である。案内画像の詳細については後述する。
制御部22は、画像処理装置20から入力された検出情報から第1空間情報とユーザ情報を抽出する。制御部22は、抽出した第1空間情報が表す操作者13の位置が予め定められた操作可能領域の範囲内である場合、抽出したユーザ情報に対応する処理を行う。ここで、制御部22は、例えば、第1空間情報が表す操作者13の距離が予め設定された操作可能距離の上限よりも小さいか否かを判断する。ユーザ情報に対応する処理とは、例えば、案内画像の表示、映像コンテンツの表示、ネットワークからの情報検索、検索された情報に係る映像コンテンツ等やニュース等の保存、保存された情報の表示等、各種の映像表示に係る処理である。
制御部22は、保存することが指示された情報を表示情報として情報DB21に記憶する。制御部22は、表示することが指示された表示情報を情報DB21から読み出し、読み出した表示情報を表す映像信号を表示部12に出力する。制御部22は、停止することが指示された表示情報の出力を停止する。
表示部12は、制御部22から入力された映像信号を映像として表示する。これにより、操作者13が行って操作によって選択された映像コンテンツやニュースに係る映像や、案内画像を表示する。
これにより、情報DB21と制御部22は表示制御装置(図示せず)を構成し、画像処理装置20から入力された検出情報に含まれるユーザ情報が表すコンテンツを選択する処理や、選択したコンテンツを表示する処理を実行する。
撮像装置11は、撮像部110a、110bを含んで構成される。撮像部110a、110bは、撮像した映像を表す映像信号を生成し、生成した映像信号を画像処理装置20に出力する。撮像部110aは、生成した映像信号をユーザ情報解析部201に出力する。撮像部110a、110bは、例えば、被写体から入射された光を焦点に集光するレンズを備えた光学系と、集光された光を電気信号に変換する撮像素子を備えるカメラである。撮像部110a、110bが備える撮像素子は、例えば、CCD(Charge Coupled Device)素子、CMOS(Complementary Metal Oxide Semiconductor)素子である。
画像処理装置20は、距離算出部200、ユーザ情報解析部201を含んで構成される。
距離算出部200は、撮像部110a、110bから各々映像信号が入力される。距離算出部200は、各々入力された映像信号に基づいて撮像装置11から被写体(例えば、操作者13)までの距離を表す距離情報を、例えばステレオマッチング方式を用いて算出する。
〔距離情報の算出〕
ここで、ステレオマッチング方式の一種であるブロックマッチング方式を用いた距離情報の算出方法について説明する。ステレオマッチング方式では、撮像部110a、110bが撮像した映像の視差値を距離値として算出する。以下の説明では、撮像部110aが撮像した映像に含まれる画像であって、ある時点における画像を左画像と呼ぶ。撮像部110bが撮像した映像に含まれる画像であって、その時点における画像を右画像と呼ぶ。
ステレオマッチング方式では、左画像の一部の領域である左画像ブロックと対応する領域である右画像ブロックを探索する。ここで左画像及び同時に撮像された右画像を例にとって説明する。
図4は、左画像及び右画像の一例を表す概念図である。
図4は、左側に左画像400を表し、右側に右画像410を表す。
距離算出部200は、左画像400において、注目画素を中心とする左画像ブロック(ウィンドウ)401を設定する。左画像ブロック401に含まれる左右方向に3個、上下方向に3個、計9個の四角形は、それぞれ画素を表す。図4における左画像400の右端から左画像ブロック401の右端までの水平方向の距離がL画素(L個の画素分の距離)である。Lは、1又は1よりも大きい整数である。
距離算出部200は、右画像410において、左画像ブロック401と上下方向の座標が同一であって、右画像410の右端からの距離がL+d2に右端をもつ右画像ブロック411を初期値として設定する。d2は、予め設定された整数値であり、視差値の最大値を表す。右画像ブロック411の大きさ及び形状は、左画像ブロック401と同一である。
距離算出部200は、左画像ブロック401と右画像ブロック411との間の指標値を算出する。距離算出部200は、右画像ブロック411の右端が右画像410の右端からの距離がL画素になるまで右画像ブロック411の位置を初期値の位置からずらし、それぞれずれた位置で指標値を算出する。距離算出部200は算出した指標値に基づいて左画像ブロック401と対応する位置にある右画像ブロック411を定める。指標値として、例えばSAD(Sum of Absolute Difference)値を用いる場合、SAD値が最小となる位置にある右画像ブロック411を定める。この位置が左画像400における注目画素に対応する注目点である。注目点と注目画素の間の水平方向の座標の差分に対する絶対値が視差である。距離算出部200は、左画像400に含まれる各画素について実行し、撮像部110aが撮像した映像に含まれる画素毎の視差値を表す視差情報(視差マップ、ディスパリティマップともいう)を距離情報として生成する。視差は、撮像装置11から被写体までの距離が短いほど大きく、距離が長いほど小さくなる関係がある。距離算出部200は、生成した距離情報をユーザ情報解析部201に出力する。
視差マップは、予め定めたビット数で表される整数値(例えば、8ビットの場合、最小値0−最大値255)で表された視差値を画素毎に有する、グレースケール化したビットマップ画像である。なお、距離算出部200は、視差は、撮像部110aと撮像部110bの間隔である基線長等のカメラパラメータに基づいて、撮像装置11から被写体までの被写空間における距離に変換し、変換した距離を表す距離情報を生成してもよい。従って、距離算出部200は、画素毎の視差値を表す距離情報の代わりに変換した距離をグレースケール化したビットマップ画像(デプスマップ)を距離情報として生成してもよい。
なお、撮像部110a、110bは、上下方向に異なる座標値に配置され、各々が撮像した画像を表す撮像画像を用いて視差を算出してもよい。その場合、距離算出部200は、撮像部110a、110bのいずれかが撮影した画像における画像ブロックを基準として、他方が撮影した画像における画像ブロックを上下方向にずらして対応する画像ブロックを探索すればよい。
距離算出部200は、SAD値を算出する際、例えば、式(1)を用いる。
Figure 0005896578
式(1)において、xは、左画像ブロック401に含まれる、例えば緑色(G:Green)の画素毎の画素値である。iが0〜8を表す個数9は、1個の画像ブロックに含まれる画素数の一例である。 は、左画像ブロック401に含まれる画素毎の画素値である。画素値x〜xにそれぞれ対応する画素の配置は、図5の左画像ブロック401に示すように各行毎に左端から右端に向かい、行間では最上行から最下行に向かう順序である。xaiは、右画像ブロック411に含まれる画素毎の画素値である。画素値xa0〜xa8にそれぞれ対応する画素の配置は、図5の右画像ブロック411に示すように各行毎に左端から右端に向かい、行間では最上行から最下行に向かう順序である。
指標値は、SAD値に限られない。左画像ブロック401に含まれる画素値と右画像ブロック411に含まれる画素値との相関を表すものであれば、他の指標値、例えばSSD(Sum of Squared Difference)値や、DP(Dynamic Programming)値であってもよい。
左画像ブロック401、右画像ブロック411の大きさであるウィンドウサイズは、上述のように水平方向3画素×上下方向3画素に限られない。例えば、水平方向5画素×上下方向5画素、水平方向9画素×上下方向9画素のように上述よりも大きくてもよいし、水平方向4画素×上下方向4画素のように中心座標が注目点からずれた位置になってもよい。また、右画像ブロック411をずらす方向は、上述のように左側から右側に限られず、右側から左側であってもよい。左画像ブロック401、右画像ブロック411に含まれる画素は、緑色(G)の画素の信号値に限られず、他の色、例えば赤色(R:Red)の画素の信号値であってもよいし、他の表色系に基づく画素の信号値や、それらの任意の組み合わせであってもよい。
上述のブロックマッチング方式では、左画像400のある座標と右画像410の対応する座標が左右方向にずれており、上下方向にずれておらず、左画像400と右画像410のエピポーラ線が一致していると仮定していた。上述のように撮像部110a、110bの光軸が平行になるように配置していたのはエピポーラ(epipolar)線(補助線とも呼ばれる)を一致させるためである。エピポーラ線を一致させるために、距離算出部200が予め取得した撮像部110a、110bのカメラパラメータに基づいて、左画像400と右画像410の光軸が平行になるように撮像した画像信号を座標変換する処理を行ってもよい。この座標変換を行う処理は、レクティフィケーション(rectification)、又は偏移修正と呼ばれる。距離算出部200は、この処理を行った後で距離情報を生成する。
エピポーラ線とは、図6に示されるようにエピポーラ平面453と、2つの撮像部110a、110b各々が備える撮像面454、455との各々が交わる線456、457である。エピポーラ平面453は、2つの撮像部110a、110b各々が備えるレンズの焦点450、451と、被写空間における特徴点452の3点を通る平面である。
撮像部110a、110bが、各々の光軸が平行になるように配置されている場合、エピポーラ線456、457は、左画像400、右画像410各々において上下方向の座標が同一の水平線になる。
〔ユーザ情報の解析〕
次に、ユーザ情報解析部201の構成について説明する。
図7は、本実施形態に係るユーザ情報解析部201の構成を表す概略図である。
ユーザ情報解析部201は、顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33、注目位置検出部35、操作者判別部39、描画入力検出部40及び検出情報出力部41を備える。
〔ユーザの顔の検出〕
顔検出部30は、撮像部110aから入力された映像信号が表す操作者の顔面の画像を表す領域を検出する。顔検出部30は、検出した顔面の領域における代表点(例えば、重心点)の2次元座標や、その領域の上端、下端、左端、右端の2次元座標を表す2次元顔面領域情報を生成する。顔検出部30は、距離算出部200から入力された距離情報から、2次元顔領域情報が表す2次元座標の画素に係る距離値を抽出する。顔検出部30は、前述の2次元座標と対応する距離値を、被写空間における3次元座標に変換して、3次元顔位置情報を生成する。
顔面の領域を検出するために、顔検出部30は、例えば予め設定した顔面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された画像信号から抽出する。
なお、顔検出部30は、予め人間の顔面を表す濃淡(モノクロ)画像信号を記憶した記憶部を備えるようにしてもよい。そこで、顔検出部30は、記憶部から読み出した濃淡画像信号と入力された画像信号との相関値を複数の画素を含む画像ブロック毎に算出し、算出した相関値が予め定めた閾値よりも大きい画像ブロックを顔面の領域と検出する。
その他、顔検出部30は、入力された画像信号に基づいて特徴量(例えば、Haar−Like特徴量)を算出し、算出した特徴量に基づいて予め定めた処理(例えば、Adaboostアルゴリズム)を行って顔面の領域を検出してもよい。顔検出部30が顔面の領域を検出する方法は、上述の方法に限られず、入力された画像信号から顔面の領域を検出する方法であれば、いかなる方法を用いてもよい。
顔検出部30は、検出した顔面の画像を表す顔面画像信号を目位置検出部31に出力する。顔検出部30は、生成した3次元顔位置情報及び2次元顔面領域情報を操作者判別部39に出力する。顔検出部30は、生成した3次元顔位置情報を検出情報の一部として検出情報出力部41に出力する。
〔目の位置の検出〕
目位置検出部31は、顔検出部30から入力された顔面画像信号が表す顔面の画像から目の領域を検出する。目位置検出部31は、検出した目の領域の代表点(例えば、重心点)である2次元の目位置座標を算出する。目位置検出部31は、検出した目位置座標に所在する画素における距離値を、距離算出部200から入力された距離情報から抽出する。目位置検出部31は、算出した2次元の目位置座標と抽出した距離値の組を、被写空間における3次元の目位置座標に変換して3次元目位置情報を生成する。目位置検出部31は、算出した3次元の目位置座標を表す3次元目位置情報を注目位置検出部35および操作者判別部39に出力する。目位置検出部31は、検出した目の領域の画像を表す目領域信号、算出した2次元の目位置座標を表す2次元目位置情報を操作者判別部39に出力する。
目位置検出部31が目の領域を検出するために、例えば、予め撮影された目のテンプレート画像を記憶させた記憶部を備えておく。目位置検出部31は、記憶部から目のテンプレート画像を読み出し、読み出したテンプレート画像と入力された顔面画像信号を照合するテンプレートマッチング法を用いてもよい。また、目位置検出部31は、入力された顔面画像信号が表す顔面の領域のうち、予め設定された顔面における目の位置関係(例えば、予め計測された顔面の領域と両眼の位置)を表す目位置情報を用いて目の領域を検出してもよい。また、目位置検出部31は、入力された顔面画像信号に基づいて特徴量(例えば、Haar−Like特徴量)を算出し、算出した特徴量に基づいて予め定めた判別処理(例えば、Adaboostアルゴリズム)を行って目の領域を検出してもよい。
目位置検出部31が目の領域を検出する方法は、上述の方法に限られず、顔面画像信号から目の領域を検出する方法であれば、いかなる方法を用いてもよい。
目位置検出部31は、検出する目の領域として、両目の重心点にかかわらず、左目や右目の位置や、これら全てを表す目領域信号を出力するようにしてもよい。
〔手の位置の検出〕
手位置検出部32は、撮像部110aから入力された映像信号が表す操作者の手の画像を表す領域を検出し、検出した手の位置を算出する。
手の画像を表す領域を検出するために、手位置検出部32は、例えば予め設定した手の表面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された映像信号から抽出する。手位置検出部32は、手の位置として検出した手の画像を表す領域の代表点(例えば、重心点)の2次元座標値を算出する。手位置検出部32は、算出した座標値に対応する距離値を、距離算出部200から入力された距離情報から抽出し、算出した2次元座標値と対応する距離値の組を被写空間における3次元座標に変換して3次元手位置情報を生成する。手位置検出部32は、検出した手の領域の画像を表す手画像信号と、算出した代表点の2次元座標値を表す手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、3次元手位置情報を操作者判別部39に出力する。
なお、手位置検出部32は、左手又は右手を区別せずに手画像信号、手位置情報を生成し、出力してもよいし、左手又は右手を区別して手画像信号、手位置情報を生成し、出力をしてもよい。
また、手の画像を表す領域を検出するために、手位置検出部32は、距離算出部200から入力された距離情報に基づいて、顔検出部30から入力された3次元顔位置情報が表す3次元顔位置を基準とした予め定めた奥行方向の開始点と終了点で表される距離範囲内にある画像を撮像部110aから入力された映像信号から手の画像を表す領域として抽出してもよい。予め定めた距離範囲は、例えば3次元顔位置より前方(表示部12側)にある範囲である。これにより、操作者の前方または後方にいる別人の手を、操作者の手と認識することを防ぐことができる。
〔手の形状と指先位置の検出〕
手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて手の形状を検出する。
手の形状を検出するために、手形状・指先位置検出部33は、手画像信号から、例えばエッジ抽出処理を行って手の輪郭部分を検出する。手形状・指先位置検出部33は、検出した輪郭部分のうち予め定めた範囲の曲率半径(例えば、6−12mm)をもつ突起部分を指の領域の画像として探索する。手形状・指先位置検出部33は、探索において手位置情報が表す代表点からの所定の半径の探索領域に前述の突起部分の有無を判断し、順次半径を変更することで探索領域を同心円状に更新する。手形状・指先位置検出部33は、検出した指の領域に基づいて指の本数を計数する。手形状・指先位置検出部33は、検出した突起部分の頂点を各指の指先位置を表す2次元座標として検出する。手形状・指先位置検出部33は、定めた指先における2次元座標に所在する画素の距離値を距離算出部200から入力された距離情報から抽出する。手形状・指先位置検出部33は、抽出した距離値と指先における2次元座標の組を被写空間における3次元座標を表す3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。手形状・指先位置検出部33は、検出した指の領域を表す指画像信号、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。指画像信号、本数情報及び2次元指先位置情報のいずれか又はその組み合わせは、手の形状を示す情報であるため手形状情報と総称する。
また、手形状・指先位置検出部33が手形状情報を検出する方法は、上述の方法に限られず、手画像信号から指画像信号や指先位置情報などの手形状情報を検出する方法であれば、いかなる方法を用いてもよい。
〔注目位置の検出〕
次に、注目位置を検出する処理について説明する。注目位置とは、操作者が注目している位置、もしくは注目していると推定される位置である。
注目位置検出部35は、目位置検出部31から入力された3次元目位置情報と、手形状・指先位置検出部33から入力された3次元指先位置情報に基づいて注目位置を検出する。
注目位置検出部35は、例えば、3次元目位置情報が表す目の位置に基づいて基準位置を定める。注目位置検出部35は、いずれか一方の目の位置を基準位置と定めてもよいし、両眼の位置の重心点を基準位置と定めてもよい。また、いずれか一方の目として、予め設定した操作者の利き目を予め設定しておいてもよい。以下の説明では、両眼の位置の重心点を基準位置と定めておく場合を例にとって説明するが、本実施形態ではこれには限られない。
そして、注目位置検出部35は、基準位置から3次元指先位置情報が示す位置に延びる直線と表示部12の表示面との交点を注目位置と算出する。即ち、注目位置検出部35は、指先の位置に対応する表示面上の位置を注目位置として検出する。この注目位置は、操作者の指先が表示部12の表示面上を指示する位置である。なお、3次元指先位置情報が示す位置を指定位置と呼ぶ。
注目位置検出部35は、算出した注目位置を表示部12の表示面上の2次元画像座標系に変換し、変換した注目位置を示す注目位置情報を生成する。注目位置検出部35は、生成した注目位置情報を検出情報の一部として検出情報出力部41に出力する。
これにより、操作者は、操作者の目の位置(注目位置検出の基準位置)を中心に、操作者の手(注目位置検出の指定位置)の延長線上である注目位置を指示し、その位置における描画を容易に行うことが可能となる。
また、操作者が注目位置を示す手の形状は、手を開いた形状や、人差し指を立てた形状、手を閉じた形状など、3次元指先位置情報が取得できる形状であればどのような手の形状であってもよい。
〔操作者の判別〕
次に、操作者の判別処理について説明する。
操作者判別部39は、顔検出部30から入力された3次元顔位置情報に基づいて、顔面の領域を検出したユーザのうち予め定めた操作可能距離の領域に所在するユーザを操作者として判別する(図1、2参照)。操作者判別部39は、例えば、3次元顔位置情報が表す距離が予め定めた操作可能距離の上限よりも、撮像装置11からの距離が短い位置に顔面が所在するユーザを操作者として判別する。これにより、顔検出部30が顔面を検出したユーザの中から操作者が判別される。他方、操作者判別部39は、予め定めた操作可能領域外に所在するユーザを操作不可者として判別する。
操作者判別部39は、操作可能領域に所在するユーザの身体の他の一部(例えば、手)が、操作検出領域に所在するか否か判断する。ここで、操作者判別部39は、手位置検出部32から入力された3次元手位置情報が示す位置が操作検出領域に含まれるか否かを判断する。操作検出領域は、操作可能領域に含まれる領域であって、ユーザの身体の一部(例えば、目)の位置に基づく基準位置(例えば、一方の目の位置、両目の中点、等)から予め定めた範囲にある領域である。操作者判別部39は、例えば、顔検出部30から入力された3次元顔位置情報や目位置検出部31から入力された3次元目位置情報に基づいて基準位置を定め、定めた基準位置に基づいて操作検出領域を定める。以下の説明では、この3次元手位置情報が示す位置を指定位置と呼ぶことがある。操作者判別部39は、手位置検出部32から入力された3次元手位置情報から、操作可能領域に含まれると判断された位置を示す3次元手位置情報を選択する。
また、操作者判別部39は、操作可能領域に含まれる領域の個数を1個に制限してもよい(排他制御)。ここで、操作者判別部39は、指定位置が操作検出領域の範囲内にあると判断した場合、その指定位置に身体の他の一部(例えば、手)を所在させたユーザを操作者13と判断する。その場合、操作者判別部39は、その操作者に係る検出情報に基づいて操作が開始されたことを表す操作開始信号を検出情報出力部41に出力する。例えば、操作者判別部39は、このように操作検出領域を定めることにより、その領域(例えば、顔面の前面)に身体の他の一部を移動させたユーザを操作者と判断する。
操作者判別部39は、手位置検出部32から入力された3次元手位置情報が表わす指定位置が、操作検出領域の範囲外に離れた場合、操作者は操作を終了したと判断する。その場合、操作者判別部39は、その操作者に係る検出情報に基づいて操作が終了されたことを表す操作終了信号を検出情報出力部41に出力する。即ち、操作者判別部39が、ある操作者について操作開始信号を検出情報出力部41に出力してから、操作終了信号を出力されるまでの間は、表示装置10は、操作者と判断されたユーザの手の形状に基づく操作入力を受け付ける。他のユーザについて手位置情報が表す代表点が操作開始検出領域の範囲内にあったとしても、その間、表示装置10は、他のユーザからの操作を受け付けない。
操作者判別部39は、操作可能領域に身体の一部が所在している他のユーザが複数名いる場合には、操作者判別部39は、手位置情報が表わす指定位置が操作検出領域の中心に最も近接する1名のユーザを操作者13として定めるようにしてもよい。これにより、表示装置10は、新たな1名の操作者13からのみの操作入力を受け付け、同時に2名のユーザからの操作入力を受け付けないことができる。これにより、同時に複数名からの操作が受け付けられることを回避し、操作者1名のみの操作が受け付けられるようにする。
操作者判別部39は、操作者として判断されたユーザに係る操作検出領域を示す操作検出領域情報と選択した3次元手位置情報を描画入力検出部(手入力検出部)40に出力する。
〔描画入力の検出〕
次に、操作者による描画入力を検出する処理について説明する。
描画入力検出部40は、操作者判別部39から入力された操作検出領域情報に基づいて入力検出領域を定める。入力検出領域は、操作検出領域情報が示す操作検出領域に含まれる領域であって、描画入力が行われている位置を検出する領域である。描画入力検出部40は、例えば、操作検出領域のうち、操作者の身体の他の一部(例えば、目)よりも予め定めた奥行値よりも奥の領域を入力検出領域と定める。
描画入力検出部40は、定めた入力検出領域と操作者判別部39から入力された3次元手位置情報が示す指定位置に基づいて描画入力が行われたか否かを検出する。描画入力検出部40は、3次元手位置情報が示す指定位置が入力検出領域に含まれる場合、描画入力が行われたと検出する。描画入力検出部40は、指定位置が定めた入力検出領域に含まれない場合には、描画入力が行われていないと判断する。これにより、操作者による描画入力が検出される。描画入力検出部40は、描画入力が検出されたか否かを示す描画検出信号を生成し、生成した描画検出信号を検出情報出力部41に出力する。
検出情報出力部41には、顔検出部30、操作者判別部39、描画入力検出部40、注目位置検出部35および手形状・指先位置検出部33から、それぞれ検出情報が入力される。ここで、検出情報出力部41は、注目位置検出部35から入力された注目位置情報を、描画入力検出部40から入力された描画検出信号を制御部22へ出力する。
検出情報出力部41は、操作者判別部39から操作開始信号が入力された場合、入力された操作開始信号に係る操作者の検出情報を制御部22に出力する。検出情報出力部41は、検出情報出力部41は、操作者判別部39から操作終了信号が入力された場合、入力された操作終了信号に係る操作者の検出情報の出力を終了する。なお、ユーザ情報解析部201は、上述した方法や特徴量に限られず、入力された映像信号に基づいてユーザの特徴やユーザが指示する操作に係る情報を検出してもよい。
〔入力検出領域の例〕
次に、入力検出領域の例について説明する。次に示す例では、操作者13の両眼の位置と顔面の位置に基づいて定められた入力検出領域の例である。
図8は、本実施形態に係る入力検出領域の一例を表す概念図である。
図8(a)は、操作者13の正面を表す。
入力検出領域r11は、例えば、操作者13の左眼131−1及び右眼131−2を結ぶ両眼の高さを表す線分134を含む領域である。入力検出領域r11の上下方向の範囲hは、例えば、線分134と平行であって顔面132の上端に接する線分135と、線分134と平行であって顔面132の下端に接する線分136に挟まれる範囲である。この例では、入力検出領域r1の上下方向の範囲も、操作検出領域r1の上下方向の範囲と等しい。
図8(b)は、操作者13の左側面を表す。
操作検出領域r1の奥行方向の範囲は、顔面132の最前面を基準位置P10として、その位置から予め定めた距離d1だけ前方(奥)から、さらに予め定めた距離d11+d12だけ前方に至る範囲である。ここでは、顔面132の最前面から予め定めた距離d1だけ前方の位置を、操作検出開始位置q1と呼ぶ。入力検出領域r1の奥行方向の範囲は、顔面132の最前面から予め定めた距離d1+d12だけ前方から、さらに予め定めた距離d11だけ前方に至る範囲である。即ち、顔面132の最前面から予め定めた距離d1だけ前方から、さらに予め定めた距離d12だけ前方に至る範囲の領域は、入力非検出領域r12である。つまり、入力非検出領域は、操作検出領域r1に属するが、描画入力が行われている位置を検出しない領域である。境界面b1は、入力検出領域r11と入力非検出領域r12との間を区分する境界面である。
〔操作者が横たわっている場合の操作検出〕
図8に示した例では、操作者の身体の一部である両眼を結ぶ線が、底面に対して水平である姿勢(例えば、起立)を取っていることを前提としている。しかし、操作者は、このような姿勢を取るとは限らず、例えば、操作者は底面上に横たわることがある。このような場合にも、操作者判別部39は、上述のように操作検出領域を定めて操作者13を判断することによって、操作者の姿勢によらず安定した判断が可能であり、誤検出を回避することができる。このことを次に説明する。
図9は、本実施形態に係る操作検出領域の例を表す概念図である。
図9は、操作者13が底面137の上を横たわっている例を示す。このとき、左眼131−1及び右眼131−2を結ぶ線分134と底面137となす角度θは、0°よりも90°に近い角度(例えば、70°)である。
この場合、操作者判別部39は、目位置検出部31から入力された3次元目位置情報に基づいて左眼131−1及び右眼131−2を結ぶ線分134を定める。操作者判別部39は、顔検出部30から入力された3次元顔面領域情報に基づいて顔面の上端に接し線分134に平行な線分135と顔面の下端に接し線分134に平行な線分136を定める。操作者判別部39は、線分135と線分136に挟まれる領域を操作検出領域r1の幅hを定める。この操作検出領域r1は、図8に示すものと方向が異なるに過ぎない。また、操作者判別部39は、操作検出領域r1の奥行方向の範囲も上述と同様にして、顔面132に垂直な方向を奥行方向として定めることができる。
このように操作者判別部39は、操作者13の身体の一部である顔面の位置に基づいて操作検出領域r1を定めることができる。これにより、描画入力に係る身体の他部である手との位置関係に基づいて操作を受け付ける操作者が判別され、ひいては入力検出領域が定められる。
次に、入力検出領域の他の例について説明する。次に示す例では、操作者13の両眼の位置と表示部12の表示領域に基づいて定められた入力検出領域の例である。
図10は、本実施形態に係る入力検出領域の他の例を表す概念図である。
図10(a)は、操作者13の左側面を表す。図10(a)の紙面に対する上下方向、左右方向は、それぞれ操作者13に対する上下方向、左右方向を示す。
図10(a)において、入力検出領域r11は、塗りつぶされた部分で示されている。入力検出領域r11は、基準位置P10からの距離が予め定めた奥行方向の距離d1+d12と等しいかd1+d12よりも遠く、距離d1+d11+d12と等しいか、それよりも近い領域(奥行方向操作範囲)である。また、入力検出領域r11の仰角の範囲rθは、基準位置P10を頂点として、その頂点から表示部12の上端への線分と、その頂点から表示部12の下端への線分とのなす範囲(上下方向操作範囲rθ)である。
なお、操作検出領域r1は、基準位置P10から奥行方向に見て予め定めた入力検出領域r11と入力非検出領域r12を合わせた領域である。入力非検出領域r12は、斜線で塗りつぶされた部分で示されている。入力非検出領域r12は、基準位置P10からの距離が予め定めた奥行方向の距離d1と等しいかd1よりも遠く、距離d1+d12と等しいか、それよりも近い領域である。
図10(b)は、操作者13の上表面を表す。図10(b)の紙面に対する上下方向、左右方向は、それぞれ操作者13に対する前後方向、左右方向を示す。
図10(b)において、入力検出領域r11の方位角方向の範囲rφは、基準位置P10を頂点として、その頂点から表示部12の左端への線分と、その頂点から表示部12の右端への線分とのなす角度(左右方向操作範囲rφ)である。入力非検出領域r12の方位角方向の範囲rφは、入力検出領域r11の方位角方向の範囲rφと同様である。
これにより操作者から表示部12が視認される表示領域に合わせた視野角(画角)に合わせて入力検出領域が定められる。定められる入力検出領域は立方体ではなく、表示部12の表示面と平行な平面が、操作者13から表示部12に近づく(操作者から奥行方向に遠ざかる)にしたがって徐々に大きくなる形状となる。操作者の視野に応じて注目位置を指示することで、操作者は、その注目位置への描画を直感的に行うことができる。
〔注目位置の例〕
次に、注目位置の例について説明する。次に示す例では、操作者13の両眼の位置と顔面の位置に基づいて定められた注目位置の例である。
図11は、注目位置の例を示す概念図である。
図11(a)は、操作者13の左側面を表す。
図11(a)において、紙面に対して左方、下方はそれぞれ3次元空間座標系におけるZ方向(奥)、Y方向(下)を示し、右斜め上の方向はX方向(右方)を示す。表示部12の表示面上において、右斜め上の方向、下方は、それぞれ2次元画像座標系におけるx方向(右)、y方向(下)を示す。注目位置P12は、基準位置P10と指定位置P11を結ぶ直線が、表示部12の表面に射影された交点として算出される。基準位置P10、指定位置P11及び注目位置P12は、3次元空間座標系における座標値で表されている。注目位置検出部35は、3次元空間座標系における座標値で表されている注目位置P12を、表示部12の表示面上の2次元画像座標系における座標値に変換する。
図11(b)は、左眼131−1の位置と右眼131−2の位置との中点の前方に基準位置P10があり、その中点と基準位置P10が操作者13の正中面138内にあることを示す。左眼131−1の位置と右眼131−2の位置は、ともに3次元空間画像座標系で与えられている。
〔動作の制御〕
次に、制御部22の構成について説明する。
制御部22は、検出情報出力部41から入力された検出情報から、3次元顔位置情報、手形状情報(指画像信号、本数情報、2次元指先位置情報)、特徴情報、注目位置情報及び描画検出信号を抽出する。制御部22は、抽出した情報に基づく処理を行う。抽出された情報のうち、手の形状を表す手形状情報は、指画像信号、本数情報、2次元指先位置を含んで構成される。手形状情報は、一時的又は静止した手の形状、即ち姿勢を表す情報であってもよいし、時間経過によって変化する手の形状、即ち動作を表す情報であってもよい。
図12は、本実施形態に係る制御部22の構成を示す概略図を示す。
制御部22は、表示制御部(画像形成部)221及び案内画像表示部222を備える。
〔描画表示制御〕
表示制御部221は、抽出した描画検出信号が、描画入力が検出されたことを示す場合、注目位置情報が示す注目位置が移動しながら軌跡の画像を形成し、形成した画像を示す画像信号を生成する。軌跡の画像は、時間経過に伴って注目位置が移動することに応じて時刻毎の点画を追記することによって形成される。
ここで、表示制御部221は、抽出した手形状情報に基づいて開始情報又は停止情報を検知する。開始情報とは、画像の形成を開始することを指示する情報である。停止情報とは、画像の形成を停止することを指示する停止情報である。情報DB21には、予め形成開始情報及び形成停止情報と対応付けてそれぞれ異なる手の形状を示す手形状情報を記憶しておく。例えば、形成開始情報とは、人差し指を立て、その他の指を握った形状を示す手形状情報とを対応付けておく。形成終了情報とは、互いに隣接する指を接触させながら5本の指を伸ばした形状を示す手形状情報とを対応付けておく。ここで、表示制御部221は、情報DB21から入力された手形状情報に対応する開始情報の読み出しに成功した場合、形成開始情報が検知されたと判断し、形成停止情報の読み出しに成功した場合、形成停止情報が検知されたと判断する。表示制御部221は、形成開始情報が検知された後、形成停止情報が検知されるまでの間の注目位置の軌跡を示す画像を形成し、形成した画像を示す画像信号を生成する。形成開始情報と形成停止情報は、1枚(フレーム)の画像を区分する情報であり、上述の描画入力が検出されたか否かを示す描画検出信号や、ある操作者による操作の開始を示す操作開始信号もしくは操作の終了を示す操作終了信号とは別個の情報である。表示制御部221は、生成した画像信号を表示部12に出力する。
表示制御部221が形成する画像は、例えば、注目位置を画素単位で表示した画像である。注目位置の位置を示すものであれば、これには限られない。また、表示制御部221は、注目位置の軌跡に入力検出画像(カーソル)を重畳した画像を示す画像信号を生成してもよい。入力検出画像が重畳される位置は、現在(最新)の注目位置であってもよい。入力検出画像の形状は、四角形、円、等の幾何学的な形状に限らず、手の形状、顔面画像(操作者自身の顔面画像でもよい)、アバター(分身)画像であってもよい。そこで、情報DB21には、入力検出画像を示す入力検出画像信号を予め記憶しておき、表示制御部221は情報DB21から入力検出画像信号を読み出す。
また、表示制御部221は、抽出した描画検出信号が、描画入力が検出されないことを示す場合、注目位置の軌跡が追記されないため、最後に追記された時点の画像のまま変化しない。そのような場合においても、表示制御部221は、既に形成された注目位置の画像に入力検出画像を注目位置に重畳してもよい。重畳される位置は注目位置に限らず、予め定めた位置であってもよい。
表示制御部221は、描画検出信号が、描画入力が検出されたことを示す場合とされない場合とで、異なる態様の入力検出画像を用いてもよい。注目位置情報が入力されるときに用いられる入力検出画像は、注目位置情報が入力されないときに用いられる入力検出画像よりも注意を引く態様(アクティブ表示)とする。注意を引く態様とは、例えば、輝度がより明るい、点滅(輝度が一定時間間隔で変化)する、他の画像とは異なる色で示される、等がある。入力検出画像として顔面画像を用いる場合には、描画もしくは筆記を行なっている状況下の画像であってもよい。
これにより、操作者は、注目位置の入力が検出されているか否か、画像として現に入力されている注目位置を視認することができる。
〔案内画像表示〕
情報DB21には、案内画像信号を予め記憶させておく。案内画像信号は、操作者に注目位置を入力するための操作方法を案内する図や文字を示す案内画像を示す信号である。案内画像表示部222は、情報DB21から案内画像信号を読み出し、読み出した案内画像信号を表示部12に出力する。
なお、制御部22は、予め操作対象となる処理の種別毎に手形状情報を対応付けられて記憶された記憶部を備えていてもよい。制御部22は、記憶部から手形状情報を読み出し、読み出した手形状情報と入力された手形状情報を照合する。制御部22は、照合に成功した手形状情報に対応した処理を実行する。
手の形状は、表示装置10における処理の種類に対する指示として特定できればよい。例えば、伸ばしている指の本数、手の方向、親指の先端と人差し指の先端を接触させた形状であってもよい。また、本実施形態では、操作者の身体の他の一部として手の形状に限られず、身体の手以外の他の部分、例えば足の形状を用いてもよい。
〔注目位置情報の入力〕
次に、注目位置情報を入力するときの表示装置10の動作例について説明する。
図13は、本実施形態に係る表示装置10の一動作例を示す概念図である。
図13において、紙面に対して右方、下方はそれぞれ3次元空間座標系におけるX方向(右)、Y方向(下)を示し、右斜め上の方向はZ方向(奥行)を示す。表示部12の表示面上において、右方、下方は、それぞれ2次元画像座標系におけるx方向(右)、y方向(下)を示す。
この例において、基準位置P10は、操作者13の両眼それぞれの位置の重心点の前方の直近にある。指定位置P11は、操作者の右手の先端の位置である。破線で示されている三角錐台は、入力検出領域r11を示す。指定位置P11は、入力検出領域r11に含まれるため、描画入力として検出される。注目位置P12は、基準位置P10から指定位置P11への直線と表示部12の表示面との交点として算出される。算出された注目位置P12は、3次元空間座標系から当該表示面上の2次元画像座標系に座標変換が行われる。この瞬間において、表示部12は、座標変換を行った注目位置P12に点画を追加的に表示する。従って、表示部12は、指定位置P11が入力検出領域r11に含まれる限り時間経過に応じて注目位置P11の軌跡の画像を表示する。
〔画像の表示例〕
次に、表示部12に表示される画像の表示例について説明する。この画像は、操作者による描画入力(手書き入力)による筆跡ともいえる画像である。
図14は、本実施形態における画像の一表示例を示す概念図である。
図14(a)において、操作者13と入力検出領域r11との位置関係は図8(b)と同様である。この例では、指定位置P11が入力検出領域r11に含まれていることを示す。図14(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図13と同様である。この例では、指定位置P11は、境界面b1よりも奥にある。指定位置P11が入力検出領域r11内において左から右に移動することに応じて、表示部12にストロークs1が表示されることを示す。ストロークとは、空間的に連続する線の一区分、即ち「画(かく)」に相当する。つまり、ストロークs1は、注目位置P12が左から右に移動したことを示す軌跡である。
図15は、本実施形態における画像の他の表示例を示す概念図である。
図15(a)において、操作者13と入力検出領域r11との位置関係は図14(a)と同様である。この例では、指定位置P11が入力検出領域r11に含まれず、入力非検出領域r12に含まれることを示す。図15(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図14(b)と同様である。この例では、指定位置P11は、境界面b1よりも手前にある。指定位置P11は入力非検出領域r12内において右上から左下に移動するため、表示部12にはストロークs1の他に、ストロークが新たに表示されないことを示す。つまり、操作者13は、前回のストロークの表示を完了した後、次のストロークに移るまでの間、指定位置P11が入力検出領域r11の範囲外となる領域内で自己の指を動かせばよいことが示される。
図16は、本実施形態における画像のさらに他の表示例を示す概念図である。
図16(a)において、操作者13と入力検出領域r11との位置関係は図15(a)と同様である。この例では、指定位置P11が入力検出領域r11に含まれることを示す。図16(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図15(b)と同様である。この例では、指定位置P11は、境界面b1よりも奥にある。指定位置P11が入力検出領域r11内において左から右に移動するため、表示部12に新たにストロークs2が表示されたことを示す。つまり、操作者13は、次のストロークを入力する際には、再度、指定位置P11が入力検出領域r11の範囲内となる領域内で自己の指を動かせばよいことが示される。
つまり、操作者13は、指定位置P11を入力検出領域r11内で移動させるか、その領域外で移動させるかによって各ストロークを区分して、入力することができる。その領域の使い分けは、身体の他の一部である手の位置を変えることで実現できる。これにより、操作者13は、複数のストロークを有する文字、その他、複雑な形状を有する画像を簡単な動作によって入力することができる。なお、図14−16は、漢字の「二」の文字を入力する例を示したが、本実施形態では、その他の文字、図形、記号等を構成する線画を容易に入力することができる。
〔入力検出画像の表示例〕
次に、入力検出画像の表示例について説明する。
図17は、本実施形態における入力検出画像の一表示例を示す概念図である。
図17において、表示部12と操作者13との位置関係は、図13における当該位置関係と同様である。但し、入力検出領域r11は実線で示されており、入力非検出領域r12は破線で示されている。
指定位置P11−1は、操作者13の身体の他の一部である指先の位置であって、入力検出領域r11に含まれる位置にある。注目位置R11−1は、基準位置P10から指定位置P11−1を通る直線と表示部12の表示面との交点である。表示部12には、注目位置R11−1に至るストロークs3が表示されている。注目位置R11−1に、その先端が位置するように入力検出画像C−1が表示されている。入力検出画像C−1は、一例として筆記具としての鉛筆と同様な輪郭を有する画像であって、その代表点が鉛筆の先端である画像である。入力検出画像C−1は、後述する入力検出画像C−2よりも明るく目立つ態様で表示されている。これにより、操作者は、表示装置10が現に描画入力を検出している状態であること、受け付けた描画入力に基づいて指定位置P11−1に対応する注目位置R11−1で終端される軌跡が表示(描画)されることを視認することができる。
他方、指定位置P11−2は、操作者13の身体の他の一部である指先の位置であって、操作検出領域の一部である入力非検出領域r12に含まれる位置にある。注目位置R11−2は、基準位置P10から指定位置P11−2を通る直線と表示部12の表示面との交点である。表示部12には、注目位置R11−1に至るストロークs3が表示されている。注目位置R11−2に、その重心点が位置するように入力検出画像C−2が表示されている。入力検出画像C−2は、一例として正方形の輪郭を有する画像であって、入力検出画像C−1よりも暗く目立たない態様で示されている。ここでは、正方形の輪郭を有する画像を表示する例を示したが、これに限定されるものではなく、入力検出画像C−1を表示しない(指定位置P11−2が入力非検出領域r12に含まれる場合には、入力検出画像を表示しない)こととしても良い。これにより、操作者13が入力を開始すると、入力検出画像が表示され、入力が開始されたことを知ることできる。また、注目位置R11−2にはストロークs3は終端されていない。
これにより、操作者は、表示装置10が、操作入力が受け付けられている状態ではあるが、受け付けられた操作入力では指定位置P11−2に対応する注目位置R11−2の軌跡が表示(描画)されない状態であることを視認することができる。
〔処理フロー〕
次に、本実施形態に係るデータ入力処理について説明する。
図18は、本実施形態に係るデータ入力処理を表すフローチャートである。
(ステップS101)撮像部110a、110bは、それぞれ前方の映像を撮像し、撮像した映像信号を距離算出部200に出力する。撮像部110aは、映像信号をユーザ情報解析部201の顔検出部30、手位置検出部32に出力する。その後、ステップS102に進む。
(ステップS102)距離算出部200は、撮像部110a、110bから各々入力された映像信号に基づいて撮像装置11から操作者までの距離を、例えばステレオマッチング方式を用いて算出し、算出した距離情報を生成する。距離算出部200は、生成した距離情報をユーザ情報解析部201の顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33に出力する。その後、ステップS103に出力する。
(ステップS103)顔検出部30は、撮像部110aから入力された映像信号が表す操作者の顔面の画像を表す領域を検出する。顔検出部30は、検出した顔面の領域に基づいて2次元顔面領域情報を生成する。顔検出部30は、距離算出部200から入力された距離情報から、2次元顔領域情報が表す2次元座標の画素に係る距離値を抽出する。顔検出部30は、前述の2次元座標と対応する距離値を、被写空間における3次元座標に変換して、3次元顔位置情報を生成する。顔検出部30は、検出した顔面の画像を表す顔面画像信号を目位置検出部31に出力する。顔検出部30は、生成した3次元顔位置情報を操作者判別部39に出力する。顔検出部30は、生成した3次元顔位置情報を検出情報の一部として検出情報出力部41に出力する。
目位置検出部31は、顔検出部30から入力された顔面画像信号が表す顔面の画像から目の領域を検出する。目位置検出部31は、検出した目の領域に基づいて目位置座標を算出する。目位置検出部31は、検出した目位置座標に所在する画素における距離値を、距離算出部200から入力された距離情報から抽出する。目位置検出部31は、算出した2次元の目位置座標と抽出した距離値の組を、被写空間における3次元の目位置座標に変換して3次元目位置情報を生成する。目位置検出部31は、算出した3次元の目位置座標を表す3次元目位置情報を注目位置検出部35および操作者判別部39に出力する。目位置検出部31は、検出した目の領域の画像を表す目領域信号を操作者判別部39に出力する。その後、ステップS104に進む。
(ステップS104)手位置検出部32は、撮像部110aから入力された映像信号が表す操作者の手の画像を表す領域を検出し、検出した手の位置を表す2次元座標値を算出する。手位置検出部32は、算出した座標値に対応する距離値を、距離算出部200から入力された距離情報から抽出し、算出した2次元座標値と対応する距離値の組を被写空間における3次元座標に変換して3次元手位置情報を生成する。手位置検出部32は、検出した手の領域の画像を表す手画像信号と、算出した代表点の2次元座標値を表す手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、3次元手位置情報を操作者判別部39に出力する。
手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて手の形状を検出する。手形状・指先位置検出部33は、検出した手の形状に基づいて指の領域の画像を探索し、指の本数を計数する。手形状・指先位置検出部33は、各指の指先位置を表す2次元座標として検出し、検出した2次元座標に所在する画素の距離値を距離算出部200から入力された距離情報から抽出する。手形状・指先位置検出部33は、抽出した距離値と指先における2次元座標の組を被写空間における3次元座標を表す3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。手形状・指先位置検出部33は、検出した指の領域を表す指画像信号、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。その後、ステップS105に進む。
(ステップS105)操作者判別部39は、顔検出部30から入力された3次元顔位置情報に基づいて、顔面の領域を検出したユーザのうち予め定めた操作可能領域に所在するユーザを操作者として判別する。操作者判別部39は、顔検出部30から入力された3次元顔領域情報や目位置検出部31から入力された3次元目位置情報に基づいて操作検出領域を定める。操作者判別部39は、操作可能領域に所在する操作者の手が、操作検出領域に所在するか否か判断する。これにより操作者からの操作が開始されたことを検知する。操作が開始されたと判断された場合(ステップS105 YES)、ステップS106に進む。操作が開始されていないと判断された場合(ステップS105 NO)、ステップS101に進む。
(ステップS106)操作者判別部39は、操作者の顔の位置、および操作可能領域の手の位置を追跡し、同時に操作入力を受け付ける操作者を特定する。その後、ステップS107に進む。
(ステップS107)注目位置検出部35は、目位置検出部31から入力された3次元目位置情報に基づいて基準位置を定める。注目位置検出部35は、定めた基準位置と手形状・指先位置検出部33から入力された3次元指先位置情報が示す指定位置を結ぶ直線と表示部12の表示面の交点を注目位置として検出する。注目位置検出部35は、生成した注目位置情報を検出情報の一部として検出情報出力部41に出力する。その後、ステップS108に進む。
(ステップS108)操作者判別部39は、操作可能領域に所在する操作者の手が、操作検出領域に所在するか否かを判断し、操作者が操作を継続しているか(操作中)否かを検出する。操作者判別部39は、操作者の手の位置が、操作検出領域に含まれると判断した場合、(ステップS108 YES)、ステップS109に進む。操作者判別部39は、操作者の手が、操作検出領域に含まれないと判断した場合(ステップS108 NO)、ステップS111に進む。
(ステップS109)描画入力検出部40は、操作者判別部39から入力された操作検出領域情報に基づいて入力検出領域を定める。描画入力検出部40は、定めた入力検出領域に操作者判別部39から入力された3次元手位置情報が示す指定位置が含まれるか否かを判断し、操作者が描画入力を行っているか否かを検出する。描画入力検出部40は、描画入力が検出されたか否かを示す描画検出信号を生成し、生成した描画検出信号を検出情報出力部41に出力する。
描画入力検出部40が、指定位置が入力検出領域に含まれると判断した場合(ステップS109 YES)、ステップS110に進む。描画入力検出部40が、指定位置が入力検出領域に含まれないと判断した場合(ステップS109 NO)、ステップS107に進む。
(ステップS110)表示制御部221には、検出情報出力部41から描画検出信号と注目位置情報が入力される。表示制御部221は、描画検出信号が、描画入力が検出されたことを示す場合、注目位置情報が示す注目位置が移動する軌跡の画像を示す画像信号を生成する。表示制御部221は、生成した画像信号を表示部12に出力する。表示部12は表示制御部221から入力された画像信号が示す入力画像(ストローク)を表示する。その後、ステップS107に進む。
(ステップS111)制御部22は、操作者による操作が終了したか否かを判断する。制御部22は、例えば、電源断を表す操作入力が入力された場合に操作が終了したと判断する。操作が終了していないと判断された場合(ステップS111 NO)、ステップS101に進む。操作が終了したと判断された場合(ステップS111 YES)、データ入力処理を終了する。
このように、本実施形態によれば、撮像装置が撮像した映像に表されたユーザの身体の一部の位置である第1位置と身体の一部とは他の一部の位置である第2位置を検出し、第1位置と第2位置に基づいて描画入力を検出する。また、本実施形態では、第2位置に対応する画像表示面上の注目位置を検出する。これにより、ユーザは専用のデバイスを用いずに身体の他の一部を動作させることによって注目位置の軌跡である画像データ入力を円滑に行うことができる。
(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について説明する。
本実施形態に係る表示装置10a(図示せず)は、表示装置10(図3)のユーザ情報解析部201において、描画入力検出部40(図7)の代わりに描画入力検出部40a(図示せず)を備える。
描画入力検出部40aは、描画入力検出部40(図7)と同様な処理を行う。但し、描画入力検出部40aは、操作者判別部39から入力された操作検出領域情報の他、操作者判別部39から入力された3次元手位置情報に基づいて入力検出領域を定める。入力検出領域を定めるために用いる3次元手位置情報は、描画入力に係る一方の手(例えば、右手)とは反対側の手(例えば、左手)についての3次元手位置情報である。
描画入力検出部40aは、例えば、入力検出領域と入力非検出領域の境界面b1における奥行方向の座標値を、その反対側の手に係る3次元手位置情報が示す奥行方向の座標値と定める。そして、描画入力検出部40aは、「一方の手」に係る3次元手位置情報が示す指定位置が、上述の入力検出領域に含まれるか否かを判断する。
また、本実施形態では、手位置検出部32は、左手又は右手を区別して手画像信号、3次元手位置情報を生成し出力する。従って、描画入力検出部40aには、操作者判別部39から左右それぞれの手について3次元手位置情報が入力される。
上述の「一方の手」として、例えば、操作者判別部39は、操作者の顔面の画像を示す顔面画像信号と描画入力部位情報とを対応付けて自部が備える記憶部に予め記憶させておいてもよい。描画入力部位情報は、描画入力に係る身体の他の一部、例えば「一方の手」が右手もしくは左手であるかを識別する情報である。その「一方の手」は、例えば、利き手である。ここで、操作者判別部39は、顔検出部30から入力された顔面画像信号と照合できた顔面画像信号に対応する描画入力部位情報を記憶部から読み出し、読み出した描画入力部位情報が示す「一方の手」を判断する。
また、操作者判別部39は、操作検出領域に先に導入された手を「一方の手」と定め、後に導入された手を身体のさらに他の一部である反対側の手、つまり「他方の手」と定めてもよい。ここで、手位置検出部32から入力された3次元手位置情報のうち、その情報が示す位置が操作検出領域に初めて含まれる方の手を「一方の手」と判断する。
なお、「一方の手」とは、右手に限らず、左手であってもよい。「一方の手」が左手である場合には、「他方の手」とは右手である。
次に、本実施形態に係る入力検出領域の例について説明する。
図19は、本実施形態に係る入力検出領域の一例を表す概念図である。
図19において、操作者13と操作検出領域r1との位置関係は、図8に示す位置関係と同様である。
図19(a)は、操作者13の正面を表す。
図19(b)は、操作者13の左側面を表す。
図19(b)において、境界面b1の奥行方向の座標値は、操作者13の反対側の手として左手hlの奥行方向の座標値と定められている。これにより、操作者13は、その意思に応じて境界面b1の奥行方向の位置を柔軟(フレキシブル)に変更することができる。
そのため、操作者は、他方の手の奥行の位置を通る境界面b1よりも、一方の手が奥にあるか、手前にあるかによって描画入力が検知されるか否かを直ちに知ることができるため、誤入力を減らし、容易に描画入力を行うことができる。かかる操作は、ノートや黒板等の筆記面に他方の手を接触しながら、一方の手で鉛筆や白墨等の筆記具等を用いて筆記を行う動作と類似している。そのため、本実施形態では、初めて使用する利用者、電子機器に不慣れな利用者等、操作に習熟していない利用者であっても、描画入力及びこれに基づく画像の表示(描画)を実現することができる。
なお、描画入力検出部40aは、一方の手による描画入力が検出されたか否かに基づいて、上述の境界面b1の奥行方向の座標値を、他方の手の奥行方向の座標値よりも予め定めた値だけずれた値に定めてもよい。例えば、描画入力検出部40aは、描画入力が検出された直後から次に描画入力が検出されなくなるまで、境界面b1の奥行方向の座標値を予め定めた値だけ小さい値(手前)に定めてもよい。また、描画入力検出部40aは、描画入力が検出されなくなった直後から次に描画入力が検出されるまで、境界面b1の奥行方向の座標値を予め定めた値だけ大きい値(奥)に定めてもよい。これにより、描画入力中に一方の手が常に他方の手よりも奥に位置させることや、描画入力がなされていないときに一方の手が常に他方の手よりも手前に位置させなくてもよい。そのため、操作者は、描画入力に際する不自然な姿勢を維持することなく、自然な入力操作が可能になる。
また、描画入力検出部40aは、他方の手に係る3次元手位置情報が示す指定位置に基づいて消去入力が行われたか否かを検出してもよい。消去入力とは、描画入力によって形成された画像のうち注目位置から予め定めた範囲内の画像を消去することを指示する操作入力である。描画入力検出部40aは、他方の手に係る3次元手位置情報が示す指定位置の時間変化が、予め定めた時間変化パターンと照合するか否かを判断する。この時間変化パターンは、他方の手の手振り(動作)として、例えば、左右もしくは上下に一定周期で振る動作等の動作パターンを示す。描画入力検出部40aには、予め時間変化パターンを記憶しておき、3次元手位置情報が示す指定位置の時間変化と記憶した時間変化パターンとの類似性を示す指標値に基づいて、照合するか否かを判断する。描画入力検出部40aは、照合すると判断した場合には、他方の手に係る3次元手位置情報に基づいて境界面b1における奥行方向の座標値を定める処理を停止する。
描画入力検出部40aは、照合すると判断され、かつ他方の手に係る3次元手位置情報が示す指定位置が入力検出領域に含まれる場合、消去入力が行われたと検出する。描画入力検出部40aは、指定位置が定めた入力検出領域に含まれない場合には、消去入力が行われていないと判断する。描画入力検出部40aは、消去入力が検出されたか否かを示す消去検出信号を生成し、生成した消去検出信号を検出情報出力部41に出力する。
描画入力検出部40aは、基準位置から指定位置を結ぶ直線と表示部12の表示面との交点を他方の手に係る注目位置として算出し、算出した他方の手に係る注目位置を示す注目位置情報を検出情報出力部41に出力する。
表示制御部221は、検出情報出力部41から入力された消去検出信号が、消去入力が検出されたことを示す場合、形成した軌跡の画像から、他方の手に係る注目位置情報が示す注目位置を基準として予め定めた範囲内の部分を消去する。画像が消去される領域は、注目位置が時間経過に伴って変化することによって移動する。表示制御部221は、消去検出信号に基づいて、その一部又は全部が消去された軌跡の画像を示す画像信号を生成し、生成した画像信号を表示部12に出力する。表示部12は、表示制御部221から入力された画像信号が示す、その一部又は全部が消去された軌跡の画像を表示する。
よって、一方の手による操作入力によって形成された画像について、他方の手を予め定めたパターンの動作(例えば、上下もしくは左右に振る、等)をさせることで、その指定位置に対応する注目位置の近傍に形成された画像が消去される。かかる動作パターンは、紙等の筆記面に対して消しゴム等の編集具を接触させながら移動させる際の動作パターンに類似する。従って、操作に習熟していない利用者であっても、描画入力により形成した画像の一部又は全部を容易に消去することができる。
〔処理フロー〕
次に、本実施形態に係るデータ入力処理について説明する。
図20は、本実施形態に係るデータ入力処理を表すフローチャートである。
図20に示されるステップS101〜S108、S110、及びステップS111は、図18に示したものとそれぞれと同様である。ステップS108において、操作者判別部39が、操作者の手の位置が、操作検出領域に含まれると判断した場合、(ステップS108 YES)、ステップS208に進む。
(ステップS208)手位置検出部32は、操作者の一方の手の他、他方の手、例えば、左手についても、その画像を表す領域を撮像部110aから入力された映像信号に基づいて手画像信号を生成する。手位置検出部32は、入力された映像信号と距離算出部200から入力された距離情報に基づいて2次元手位置情報と3次元手位置情報を生成する。手位置検出部32は、生成した手画像信号と、2次元手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、3次元手位置情報を操作者判別部39に出力する。
手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて他方の手の形状を検出する。手形状・指先位置検出部33は、検出した手の形状に基づいて指の領域の画像を探索し、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。また、手形状・指先位置検出部33は、各指の指先における2次元座標と距離算出部200から入力された距離情報に基づいて3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。その後、ステップS209に進む。
(ステップS209)描画入力検出部40aは、操作者判別部39から入力された操作検出領域情報と操作者判別部39から入力された他方の手に係る3次元手位置情報に基づいて入力検出領域を定める。描画入力検出部40aは、定めた入力検出領域に操作者判別部39から入力された一方の手に係る3次元手位置情報が示す指定位置が含まれるか否かを判断し、操作者が描画入力を行っている(入力中)か否かを検出する。描画入力検出部40aは、描画入力が検出されたか否かを示す描画検出信号を生成し、生成した描画検出信号を検出情報出力部41に出力する。
描画入力検出部40aが、指定位置が入力検出領域に含まれると判断した場合(ステップS209 YES)、ステップS110に進む。描画入力検出部40aが、指定位置が入力検出領域に含まれないと判断した場合(ステップS209 NO)、ステップS107に進む。
このように、本実施形態によれば、ユーザの身体の一部の位置である第1位置に基づいて描画入力を検出する入力検出領域を定め、その身体の他の一部の位置である第2位置が入力検出領域に含まれるか否かに基づいて描画入力を検出する。また、本実施形態では、前記撮像装置が撮像した映像に表されたユーザの身体のさらに他の一部の位置を示す第3位置を検出し、検出した第3位置を通るように入力検出領域の境界の1つを定める。これにより、ユーザは身体のさらに他の一部の位置に応じて入力検出領域を柔軟に変更でき、その位置に基づいて描画入力が検出される領域を認識することができる。そのため身体の他の一部の位置による操作入力を容易に行うことができる。
(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について説明する。
本実施形態に係る表示装置10b(図示せず)は、表示装置10(図3)の制御部22において、表示制御部221(図12)の代わりに表示制御部221b(図示せず)を備える。
表示制御部221bは、表示制御部221(図1)と同様な処理を行う。但し、表示制御部221bは、検出情報出力部41から入力された検出情報の一部として3次元手位置情報が入力され、入力された3次元手位置情報に基づいて画像の処理に係る情報として、例えば描画様式情報を定める。描画様式情報とは、描画入力によって形成される軌跡の画像(線画)の様式(描画様式)を示す情報である。描画様式には、例えば、線の太さ(幅)がある。
〔線の太さの選択〕
図21は、本実施形態における線の太さと指定位置P11との関連を示す概念図である。
図21において、操作者13と入力検出領域r11との位置関係は、図8(b)に示すものと同様である。
入力検出領域r11の左右を横切る線分であって、操作者13に対して奥に位置するほど太く、手前に位置するほど細い図形は、線の太さw1を示す。表示制御部221bは、3次元手位置情報が示す指定位置P11の奥行座標が奥に位置するほど太く、その奥行座標が手前に位置するほど細くなるように線の太さを定める。奥行座標の値がd1+d12の場合、つまり入力検出領域r11のうち最も手前の位置(最近点)では、線の太さw1は、最小値wminとなる。奥行座標の値がd1+d12+d11の場合、つまり入力検出領域r11のうち最も奥の位置(最遠点)では、線の太さw1は、最大値wmaxとなる。
図22は、本実施形態に係る線の太さの設定例を示す図である。
図22(a)、(b)ともに、横軸は奥行座標を示し、縦軸は線の太さを示す。また、最近点(奥行座標d1+d12)において線の太さは最小値wminであり、最遠点(奥行座標d1+d12+d11)において線の太さは最大値wmaxである。
図22(a)に示す例では、線の太さは、奥行座標に対して線形に定められている。図22(b)に示す例では、線の太さは、最近点から予め定めた位置d1+d12+d11−δまでは奥行座標に対して線形であるが、奥行座標がd1+d12+d11−δを越えると最大値wmaxである。奥行座標の値d1+d12+d11−δは、最近点よりも最遠点の奥行座標の値に近い値である。指定座標P11を奥行座標がd1+d12+d11−δよりも奥に移動しても線の太さが最大値wmaxのまま飽和して変化しないため、指定座標P11をさらに奥に移動させると、描画入力領域の範囲を超えて、描画入力が中断されてしまう。従って、操作者は、線の太さが変化しないことを視認することによって、指定座標P11をさらに奥に移動させると描画入力が中断されることに気づくことができる。つまり、意図せずに描画入力が中断されることによってストロークの分断を避けることができる。
〔画像の表示例〕
次に、画像の表示例について説明する。
図23は、本実施形態における画像の一表示例を示す概念図である。
図23(a)において、操作者13と入力検出領域r11との位置関係は図14(a)と同様である。この例では、指定位置P11が入力検出領域r11に含まれているが、最遠点よりも最近点に近いことを示す。図23(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図14(b)と同様である。この例では、指定位置P11を左から右に移動させることによって表示部12に表示されるストロークs4の太さは、指定位置P11の境界面b1からの奥行座標z1で与えられ、最大値wmaxよりも最小値wminに近い太さである。
図24は、本実施形態における画像の他の表示例を示す概念図である。
図24(a)において、操作者13と入力検出領域r11との位置関係は図23(a)と同様である。この例では、指定位置P11が入力検出領域r11に含まれているが、再近点よりも最近点に近いことを示す。
図24(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図23(b)と同様である。この例では、指定位置P11を左から右に移動させることによって表示部12に表示されるストロークs5の太さは、最小値wminよりも最大値wmaxに近い太さである。つまり、ストロークs5の太さは、指定位置P11の境界面b1からの奥行座標z2で与えられ、ストロークs4(図23)よりも太い。
これにより、操作者は、線の太さを選択するための操作入力を行う必要がなくなる。例えば、描画様式を選択するための選択メニューを表示させ、表示された選択メニューから線の太さを選択する、等の操作入力である。従って、描画入力における利便性が向上する。また、筆等の筆記具を用いて紙等の筆記面に文字を描く場合の動作には、手を奥行方向に移動させて筆圧を強くすると線の太さが太くなり、手を手前に引いて筆圧を弱くすると線の太さを細くするという動作がある。かかる動作は、本実施形態のように指定位置の奥行座標によって線の太さを選択する動作と類似している。そのため、操作者は、平素から慣れ親しんだ動作に類似した動作を行うことで直感的に線の太さを変更することができる。
上述では、表示制御部221bは、3次元手位置情報が示す指定位置の奥行座標に基づいて線の太さを定める場合を例にとって説明したが、これには限られない。表示制御部221bは、指定位置の奥行座標に基づいて、予め定めた奥行座標と色との対応関係を示す色空間情報に基づいて線の色を定めてもよい。色空間情報においては、例えば、奥行座標最遠点について赤、最近点について青が対応付けられ、最遠点と最近点との間の奥行座標のそれぞれついて、それぞれ赤と青の間の中間色が順次対応付けられている。表示制御部221bは、3次元手位置情報が示す指定位置の奥行座標に対応する色を、その色空間情報から選択する。そして、表示制御部221bは、検出情報出力部41から入力された検出情報に基づいて選択した色を確定し、確定した色でそれ以降に入力された注目位置情報に基づいて画像を形成する。表示制御部221bは、例えば、検出情報の一部として3次元手位置座標が示す指定位置が、予め定めた時間(例えば、1秒)、その当初の位置から予め定めた範囲内にあると判断された場合に選択した色を確定する。つまり、操作者が手を予め定めた時間だけ静止させたときに選択した色を確定する。また、表示制御部221bは、検出情報の一部として手形状情報が予め定めた形状(例えば、拳)を示すと判断された場合に選択した色を確定する。つまり、操作者が手を予め定めた形状に変形させたときに選択した色を確定する。
なお、本実施形態では、線の太さや色に限られず、奥行座標と濃淡もしくは拡大率が対応付けられていてもよい。
また、上述では操作者13と入力検出領域r11との位置関係が、図8(b)と同様である場合について説明したが、本実施形態はこれに限定されず、例えば図19(b)と同様な位置関係の場合でも良い。「他方の手」により、境界面b1を指定することによって、入力検出領域r11が決定された場合においても、「一方の手」の奥行位置により、線の太さや色などが変更されるようにしても良い。
〔線の種類の選択〕
表示制御部221bは、検出情報出力部41から入力された検出情報の一部として手形状情報が入力され、入力された手形状情報に基づいて描画様式情報を定めてもよい。次に説明する例では、描画様式が線の種類である場合を例にとって説明する。線の種類とは、主に線の形状、例えば、実線、破線、一点破線等の区別、一連の線を構成する線分の頂点が角ばっているか丸みを帯びているかの区別、単純な一本の線か二重線かの区別、等がある。
表示制御部221bには、予め手形状情報と描画様式情報とを対応付けて記憶しておき、入力された手形状情報に対応する描画様式情報が示す線の種類を選択する。描画様式情報と対応付けられる手形状情報が示す手の形状として、例えば、人差し指を伸ばし、その他の指を握った形状(形状1)、5本の指を全て握った形状(形状2)、人差し指と中指を伸ばし、その他の指を握った形状(形状3)がある。
〔線の種類の選択例〕
次に、線の種類の選択例について説明する。
図25は、本実施形態における線の種類の選択例を示す概念図である。
図25(a)−(c)において、境界面b1と表示部12との位置関係は、いずれも図24(b)に示すものと同様である。
図25(a)は、操作者13が形状1に変形させた右手hr1を左から右に移動させることで、指定位置P11を左から右に移動させることを示す。このとき、表示部12にはストロークs5が表示される。ストロークs5の線の種類は、形状1に対応する線の種類、つまり1本の頂点が角ばった線である。
図25(b)は、操作者13が形状2に変形させた右手hr2を左から右に移動させることで、指定位置P11を左から右に移動させることを示す。このとき、表示部12にはストロークs6が表示される。ストロークs6の線の種類は、形状2に対応する線の種類、つまり1本の頂点が丸みを帯びた線である。
図25(c)は、操作者13が形状3に変形させた右手hr3を左から右に移動させることで、指定位置P11を左から右に移動させることを示す。このとき、表示部12にはストロークs7が表示される。ストロークs7の線の種類は、形状3に対応する線の種類、つまり二重線である。
以上のように、図25に示す例では、頂点が丸みを帯びた線と形状2(5本の指を全て握った形状)が対応付けられ、二重線と形状3(2本の指を立てた形状)といったように、手の形状と線の種類における形状的な特徴が対応付けられている。そのため、操作者は手の形状を用いて直感的に線の種類を指定することができる。
なお、本実施形態では、手形状情報が示す手の形状と描画様式情報が示す線の太さとが対応付けられていてもよい。例えば、各指が握られている度合いが高い形状ほど、線の太さが細く、各指が開いている度合いが高い形状ほど線の太さを太くてもよい。また、立てている指の本数が多いほど線の太さを太くしてもよい。その他、かかる手の形状と線の太さ以外に、色、濃淡、拡大率、線の消去のうちのいずれかが対応付けられ、手形状情報が示す手の形状に応じて描画様式が選択されるようにしてもよい。
また、上述では操作者13と入力検出領域r11との位置関係を図24(b)と同様である場合について説明したが、本実施形態はこれに限定されず、例えば図19(b)と同様な位置関係の場合でも良い。「他方の手」により、境界面b1を指定することによって、入力検出領域r11を決定した場合においても、「一方の手」の手形状により、線の太さや色などが変更されるようにしても良い。さらに、「一方の手」の手形状に線の種類を変更し、「一方の手」の奥行位置で線の太さを変えるなど、上述の複数種類の入力方法を組合せて、描画に係る処理を行っても良い。ある程度、本実施形態に係る操作入力に習熟した利用者にとっては、案内画像を逐一表示させる方法などと比べ、より一層入力方法が簡便になる。
また、上述では指定位置P11の奥行位置によって操作者13が入力中であるか否かを判別したが、本実施形態はこれに限定されず、手の形状により入力中であるか否かを判別されるようにしても良い。例えば、手の位置が操作検出領域r1に含まれる場合、人差し指を立てる形状が検出されたとき、指定位置P11が入力検出領域r11に含まれる場合と同様に入力中であると判別されるようにしてもよい。また、手を握る形状が検出された場合は指定位置P11が入力非検出領域r12に含まれる場合と同様に、入力が中断されたと判別されるようにしても良い。さらに、操作者13と入力検出領域r11との位置関係が、図19(b)と同様な位置関係の場合は、入力中であるか否かであるかの判別を行うために手形状の検出対象とする手は、「一方の手」あるいは「他方の手」のどちらでも良い。また、上述と同様に、例えば「他方の手」に基づいて入力中であるか否かの判別が行われ、「一方の手」の手形状で線の種類が指定され、「一方の手」の奥行位置で線の太さを指定されるようにするなど、上述の入力方法を複数種類組み合わせて描画に係る処理を行うようにしても良い。
〔案内画像の例〕
次に、本実施形態において、案内画像表示部222が表示部12に出力する案内画像信号が示す案内画像の例について説明する。
図26は、本実施形態に係る案内画像の例を示す図である。
図26(a)は、指定位置の奥行座標に応じて線の太さを選択できることを示す案内画像の例である。この案内画像は、描画入力に係る手を奥に伸ばすことで表示される線の太さを太くすることができ、手前に引くことで線の太さを細くすることを、文章と図案で示している。
図26(b)は、手の形状に応じて線の種類(スタイル)を選択できることを示す案内画像の例である。この案内画像では、描画入力に係る手の形状を形状1、2、3に変形したとき、それぞれ頂点が角ばった線、頂点が丸みを帯びた線、二重線が選択されることを示す。
〔処理フロー〕
次に、本実施形態に係るデータ入力処理について説明する。
図27は、本実施形態に係るデータ入力処理を表すフローチャートである。
図27に示されるステップS101〜S109、S110、及びステップS111は、図18に示したものとそれぞれと同様である。ステップS109において、描画入力検出部40が、指定位置が入力検出領域に含まれると判断した場合(ステップS109 YES)、ステップS310に進む。
(ステップS310)表示制御部221bは、検出情報出力部41から入力された3次元手位置情報が示す指定位置の奥行座標(奥行値)に応じて線の太さを定める。
表示制御部221bは、検出情報出力部41から入力された手形状情報に対応する線の種類(線種)を選択する。その後、ステップS110に進む。
なお、ステップS110では、ステップS310で定めた線の太さ、選択した線の種類を用いて、注目位置の軌跡の画像を示す画像信号を生成する。
このように、本実施形態によれば、描画入力を検出したとき、ユーザの身体の他の一部の位置である第2位置に対応する画像表示面上の注目位置を示す画像を形成し、第2位置の奥行方向の座標値もしくは身体のさらに他の一部の形状に基づいて画像の表示様式を定める。これにより、ユーザの身体の他の一部の奥行座標や形状といった簡単な動作により描画入力に係る画像の表示様式を指定することができる。
(第4の実施形態)
以下、図面を参照しながら本発明の第4の実施形態について説明する。
本実施形態に係る表示装置10c(図示せず)は、表示装置10(図3)のユーザ情報解析部201において、描画入力検出部40(図7)の代わりに上述した描画入力検出部40c(図示せず)を備える。
即ち、描画入力検出部40cは、描画入力検出部40(図7)と同様な処理を行い、操作者判別部39から入力された操作検出領域情報の他、操作者判別部39から入力された3次元手位置情報に基づいて入力検出領域を定める。入力検出領域を定めるために用いる3次元手位置情報は、描画入力に係る一方の手とは反対側(他方の)手に係る3次元手位置情報である。
また、表示装置10cは、表示装置10(図3)の制御部22において、表示制御部221(図12)の代わりに表示制御部221c(図示せず)を備える。
表示制御部221cは、表示制御部221b(図示せず)と同様な処理を行う。但し、表示制御部221cは、表示制御部221bとは異なり、描画入力に係る一方の手(例えば、右手)とは反対側の手(例えば、左手)に係る検出情報、例えば、手形状情報に基づいて描画様式情報を定める。つまり、本実施形態では、描画入力に係る一方の手とは反対側の手の位置に基づいて入力検出領域を定めるとともに、その反対側の手の形状に応じて描画様式を定める。
例えば、表示制御部221cには、反対側の手の手形状情報と描画様式情報とを予め記憶しておき、反対側の手にかかる手形状情報に対応する描画様式情報を読み出す。表示制御部221cは、読み出した描画様式情報が示す描画様式で、一方の手に係る指定位置に対応した注目位置の軌跡の画像を示す画像信号を生成する。
これにより、描画入力が一方の手で行われ、他方の手で入力検出領域の制御及び描画様式の選択が行われる。この入力検出領域の制御及び描画様式の選択は、描画入力に付随する情報を入力もしくは制御することに相当する。従って、本実施形態では、操作者は描画入力と、それに付随する情報の入力もしくは制御とを、それぞれ別個の手で並行して行うことができるため、描画入力を効率的に行うことができる。
〔線の種類の選択例〕
次に、描画様式の一態様として線の種類の選択例について説明する。
図28は、本実施形態における線の種類の選択例を示す概念図である。
図28(a)−(c)において、境界面b1と操作者との位置関係は、いずれも図19(b)に示すものと同様であり、境界面b1と表示部12との関係は図25に示すものと同様である。但し、描画入力に伴ってストロークを表示する表示部12が省略されている。この例では、左手の形状(形状4〜6)は、それぞれ、実線、破線、一点破線が対応付けられている。形状4は、5本の指をいずれも伸ばしている形状である。形状5は、人差し指を伸ばし、その他の指を閉じている形状である。形状6は、人差し指と中指を伸ばし、その他の指を閉じている形状である。形状4〜6をとっている左手を、それぞれ左手hl4〜hl6と呼ぶ。
図28(a)は、操作者が右手hr4を左手hl4よりも奥に伸ばしたまま左から右に移動させることで、ストロークs8が表示されることを示す。ストロークs8を構成する線の種類は、左手hr4の形状に対応する実線である。境界面b1の奥行座標は、左手hl4の奥行座標と等しい。
図28(b)は、操作者が右手hr4を左手hl4よりも奥に伸ばしたまま左から右に移動させることで、ストロークs9が表示されることを示す。ストロークs9を構成する線の種類は、左手hr5の形状に対応する破線である。
図28(c)は、操作者が右手hr4を左手hl4よりも奥に伸ばしたまま左から右に移動させることで、ストロークs10が表示されることを示す。ストロークs10を構成する線の種類は、左手hr6の形状に対応する一点破線である。
以上のように、図28に示す例では、操作者が左手の奥行をもって、右手による描画入力が受け付けられる領域を画定する境界面b1の奥行座標を指示することができる。また、操作者は、左手の形状に応じて直感的に線の種類を指定することができる。
また、左手の形状に応じて変更対象となる描画様式は、線の種類に限定されず、例えば、線の太さや色、濃淡や拡大率、線の消去などであっても良い。
さらに、上述では、左手と右手の奥行位置の関係に基づいて操作者13が入力中であるか否かが判別されたが、本実施形態ではこれに限定されず、手の形状に基づいて操作者13が入力中であるか否かが判別されるようにしても良い。例えば、右手の人差し指を立てる形状が検出されたとき、指定位置P11が入力検出領域r11に含まれる場合と同様に入力中であると判別されるようにしてもよい。また、手を握る形状が検出された場合、指定位置P11が入力非検出領域r12に含まれた場合と同様に、入力が中断されたと判別されるようにしても良い。さらに、操作者13と入力検出領域r11との位置関係が、図19(b)と同様な位置関係である場合は、入力中であるか否かであるかの判別を行う手形状を「一方の手」あるいは「他方の手」で指定しても良い。例えば「他方の手(左手)」に基づいて入力中であるか否かの判別が行われ、「一方の手(右手)」の手形状に基づいて線の種類が指定され、「一方の手(右手)」の奥行位置に基づいて線の太さが指定されるようにするなど、上述の入力方法を複数種類組み合わせて描画に係る処理が行われるようにしても良い。
〔案内画像の例〕
次に、本実施形態において、案内画像表示部222が表示部12に出力する案内画像信号が示す案内画像の例について説明する。
図29は、本実施形態に係る案内画像の例を示す図である。
図29は、手の形状に応じて線の種類(スタイル)を選択できることを示す案内画像の例である。この案内画像では、描画入力に係る手の形状を形状4、5、6に変形したとき、実線、破線、一点破線が選択されることを示す。
本実施形態では、手形状情報が示す他方の手の形状と描画様式情報が示す色とが対応付けられていてもよい。例えば、形状4〜6は、黒、赤、青の各色と対応付けられていてもよい。また、手形状情報が示す他方の手の形状と描画様式情報が示す線の太さとが対応付けられていてもよい。例えば、各指が握られている形状ほど、線の太さが細く、各指が開いている形状ほど線の太さを太くてもよい。また、立てている指の本数が多いほど線の太さを太くしてもよい。その他、かかる手の形状と線の種類、太さもしくは色以外に、濃淡、拡大率のうちのいずれか、もしくはそれらの任意の組み合わせが対応付けられ、手形状情報が示す他方の手の形状に応じて描画様式が選択されるようにしてもよい。即ち、本実施形態では、他方の手の形状は手で表すことができる形状であれば、どのような形状であってもよく、それぞれの形状といかなる描画様式とが対応付けられていてもよい。
なお、表示制御部221cは、反対側の手に係る手形状情報に基づいて一つの描画様式情報として線の形状もしくは色に係る情報を定める他、一方の手に係る3次元手位置情報に基づいて他の描画様式情報として線の太さに係る情報を定めてもよい。これにより、操作者は、例えば左手の形状に応じて線の形状や色を指定し、右手の奥行座標に応じて線の太さを指定することができる。従って、操作者は一方の手で描画入力を行いながら、その一方の手で描画入力に妨げにならない単純な動作態様によって描画様式を指定し、他方の手でより詳細な描画様式を指定することができる。これにより多様な描画様式での描画入力が可能となる。
〔処理フロー〕
次に、本実施形態に係るデータ入力処理について説明する。
図30は、本実施形態に係るデータ入力処理を表すフローチャートである。
図30に示されるステップS101〜S108、S110、及びステップS111は、図18に示したものとそれぞれと同様である。ステップS108において、操作者判別部39が、操作者の手の位置が、操作検出領域に含まれると判断した場合、(ステップS108 YES)、ステップS408に進む。
(ステップS408)手位置検出部32は、操作者の一方の手の他、他方の手、例えば、左手についても、その画像を表す領域を撮像部110aから入力された映像信号に基づいて手画像信号を生成する。手位置検出部32は、入力された映像信号と距離算出部200から入力された距離情報に基づいて2次元手位置情報と3次元手位置情報を生成する。手位置検出部32は、生成した手画像信号と、2次元手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、3次元手位置情報を操作者判別部39に出力する。
手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて他方の手の形状を検出する。手形状・指先位置検出部33は、検出した手の形状に基づいて指の領域の画像を探索し、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。また、手形状・指先位置検出部33は、各指の指先における2次元座標と距離算出部200から入力された距離情報に基づいて3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。その後、ステップS409に進む。
(ステップS409)描画入力検出部40cは、操作者判別部39から入力された操作検出領域情報と操作者判別部39から入力された他方の手に係る3次元手位置情報に基づいて入力検出領域を定める。描画入力検出部40cは、定めた入力検出領域に操作者判別部39から入力された一方の手に係る3次元手位置情報が示す指定位置が含まれるか否かを判断し、操作者が描画入力を行っているか否かを検出する。描画入力検出部40cは、描画入力が検出されたか否かを示す描画検出信号を生成し、生成した描画検出信号を検出情報出力部41に出力する。
描画入力検出部40cが、指定位置が入力検出領域に含まれると判断した場合(ステップS409 YES)、ステップS410に進む。描画入力検出部40cが、指定位置が入力検出領域に含まれないと判断した場合(ステップS409 NO)、ステップS107に進む。
(ステップS410)表示制御部221cは、検出情報出力部41から入力された他方の手に係る手形状情報に対応する線の種類(線種)を選択する。その後、ステップS411に進む。
(ステップS411)表示制御部221cは、検出情報出力部41から入力された一方の手に係る3次元手位置情報が示す指定位置の奥行座標(奥行値)に応じて線の太さを定める。その後、ステップS110に進む。
なお、ステップS110では、ステップS410で選択した線の種類、ステップS411で定めた線の太さ、選択した線の種類を用いて、注目位置の軌跡の画像を示す画像信号を生成する。
表示制御部221cには、反対側の手の手形状情報と描画様式情報とを予め記憶しておき、反対側の手にかかる手形状情報に対応する描画様式情報を読み出してもよい。表示制御部221cは、読み出した描画様式情報が示す描画様式で、一方の手に係る指定位置に対応した注目位置の軌跡の画像を示す画像信号を生成する。
これにより、描画入力が一方の手で行われ、他方の手で入力検出領域の制御及び描画様式の選択が行われる。この入力検出領域の制御及び描画様式の選択は、描画入力に付随する情報を入力もしくは制御することに相当する。従って、本実施形態では、操作者は描画入力と、それに付随する情報の入力もしくは制御とを、それぞれ別個の手で並行して行うことができるため、描画入力を効率的に行うことができる。
このように、本実施形態によれば、ユーザの身体のさらに他の一部の形状を検出し、検出した形状に基づいて描画入力による画像の表示様式を定める。これにより、描画入力を行う身体の部位とは異なる部位の形状を変化させて表示様式を指示することができるので、描画入力の効率を低下させることが回避される。
(変形例)
上述した描画入力検出部40、40a、40cは、操作検出領域情報を用いて入力検出領域を定め、定めた入力検出領域に3次元手位置情報が示す指定位置が含まれるか否かを判断していた。そして、描画入力検出部40、40a、40cは、この判断に基づいて、操作者が描画入力を行っているか否かを検出していたが、これには限られない。
描画入力検出部40、40a、40cは、手形状・指先位置検出部33から入力された手形状情報に基づいて操作者が描画入力を行っているか否かを検出してもよい。ここで、描画入力検出部40、40a、40cには、予め定めた手の形状を示す描画検出手形状情報と描画検出信号と対応付けて自部が備える記憶部に記憶させておく。描画検出信号は、上述したように描画入力が検出されたか否かを示す信号である。描画入力検出部40、40a、40cは、入力された手形状情報と記憶部に記憶させた描画検出手形状情報とを照合し、照合に成功した描画検出手形状情報と対応付けられた描画検出信号を読み出す。また、描画入力が検出されたか否かの判定に用いる手形状情報は、一方の手に係る手形状情報であってもよいし、他方の手に係る手形状情報であってもよい。
例えば、描画入力検出部40、40a、40cは、一方の手に係る手形状情報が5本の指を全て閉じた形状(拳)を示す場合に、描画入力が検出されたと判定する。また、描画入力検出部40、40a、40cは、その一方の手に係る手形状情報が人差し指を伸ばし、他の指を全て閉じた形状を示す場合に、描画入力が検出されないと判定する。これにより、操作者は描画入力に係る手の形状に応じて描画入力を行うか否かを制御することができる。
また、描画入力検出部40、40a、40cは、反対側の手に係る手形状情報が5本の指を全て閉じた形状(拳)を示す場合に、描画入力が検出されたと判定する。また、描画入力検出部40、40a、40cは、その他方の手に係る手形状情報が人差し指を伸ばし、他の指を全て閉じた形状を示す場合に、描画入力が検出されないと判定する。これにより、操作者は描画入力に係る手とは反対側手の形状に応じて描画入力を行うか否かを制御することができる。よって、操作者は入力検出領域を意識せずに、自身の意思に応じて簡便に描画入力を行うか否かを決することができる。
また、上述では、身体の他の一部として「手」もしくは「一方の手」、身体のさらに他の一部として「他方の手」の代わりに、それぞれ「足」もしくは「一方の足」、「他方の足」を用いてよい。これにより、手の不自由な者であっても足の動作による描画入力を実現することができる。
また、上述では、画像の処理に係る情報として描画様式情報を定める場合を例にとって説明したが、それには限られない。画像の処理に係る情報として、例えば、その描画入力に係る操作者を識別する操作者識別情報の有無を示す情報、形成した画像の全部又は一部を表示部12に表示するか否かを示す情報、その画像の全部又は一部を情報DB21等の記憶部に記憶するか否かを示す情報であってもよい。
なお、本発明は次の態様で実施することができる。
(1)撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出部と、前記位置検出部が検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出部と、前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出部と、前記描画入力検出部が描画入力を検出したとき、前記注目位置検出部が検出した注目位置を示す画像を形成する画像形成部と、を備えることを特徴とするデータ入力装置。これにより、操作者は専用のデバイスを用いずに円滑に描画入力を行うことができる。
(2)前記描画入力検出部は、前記第1位置に基づいて前記描画入力を検出する入力検出領域を定め、前記第2位置が前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出することを特徴とする(1)のデータ入力装置。これにより、操作者にとり身体の他の一部の位置による描画入力に好都合な領域に描画入力領域を設定することができる。
(3)前記位置検出部は、前記撮像装置が撮像した映像に表されたユーザの身体のさらに他の一部の位置を示す第3位置を検出し、前記描画入力検出部は前記位置検出部が検出した第3位置を通るように前記入力検出領域の境界の1つを定めることを特徴とする(2)のデータ入力装置。これにより、操作者は身体のさらに他の一部の位置を基準とした身体の他の一部の位置に基づいて、描画入力が検出されるか否かを容易に把握することができる。
(4)前記画像形成部は、前記第2位置の奥行方向への座標値に応じて前記画像の処理に係る情報を定めることを特徴とする(3)に記載のデータ入力装置。これにより、操作者は身体の他の一部の奥行方向の位置に応じて描画した画像の取り扱いを決することができる。
(5)前記身体の他の一部の形状を検出する形状検出部を備え、前記画像形成部は、前記形状検出部が検出した形状に基づいて前記画像の表示に係る情報を定めることを特徴とする(3)に記載のデータ入力装置。これにより、操作者は、身体の他の一部の形状に応じて描画した画像の取り扱いを決することができる。
(6)前記身体のさらに他の一部の形状を検出する形状検出部を備え、前記画像形成部は、前記形状検出部が検出した形状に基づいて前記画像の表示に係る情報を定めることを特徴とする(3)に記載のデータ入力装置。これにより、操作者は、身体のさらに他の一部の形状に応じて描画した画像の取り扱いを決することができる。
(7)前記ユーザの身体の一部は目であり、前記身体の他の一部は左右いずれか一方の手であることを特徴とする(1)ないし(6)のいずれかに記載のデータ入力装置。これにより一方の手が目視される方向の注目位置に描画がなされるため、その一方の手の位置に基づいて所望の形状の画像を描画することが容易になる。
(8)前記ユーザの身体のさらに他の一部は、前記一方の手とは他方の手であることを特徴とする(7)に記載のデータ入力装置。これにより、操作者は他方の手の位置に基づいて、一方の手の位置による描画入力領域の把握、描画した画像の取り扱いの指示を容易に行なうことができる。
(9)データ入力装置と前記データ入力装置が入力した入力データが示す画像を表示する表示部とを備えたデータ入力システムであって、前記データ入力装置は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出部と、前記位置検出部が検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出部と、前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出部と、前記描画入力検出部が描画入力を検出したとき、前記注目位置検出部が検出した注目位置を示す画像を形成する画像形成部と、を備えることを特徴とするデータ入力システム。
(10)データ入力装置におけるデータ入力方法であって、前記データ入力装置は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出過程と、前記位置検出過程で検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出過程と、前記位置検出過程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出過程と前記描画入力検出過程で描画入力を検出したとき、前記注目位置検出過程で検出した注目位置を示す画像を形成する画像形成過程と、を有することを特徴とするデータ入力方法。
(11)データ入力装置のコンピュータに、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出手順、前記位置検出手順で検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出手順、前記位置検出手順で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出手順と前記描画入力検出手順で描画入力を検出したとき、前記注目位置検出手順で検出した注目位置を示す画像を形成する画像形成手順と、を有することを特徴とするデータ入力プログラム。(9)、(10)及び(11)により、操作者は専用のデバイスを用いずに円滑に描画入力を行うことができる。
なお、上述した実施形態における表示装置10、10a、10b、10cの一部、例えば、距離算出部200、顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33、注目位置検出部35、操作者判別部39、描画入力検出部40、40a、40c、検出情報出力部41、及び制御部22をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、表示装置10、10a、10b、10cに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における表示装置10、10a、10b、10cの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。表示装置10、10a、10b、10cの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
本発明は、コンピュータ、ゲーム機、テレビ電話会議システム等の機器を操作するためのユーザインタフェースなどに適用できる。
10、10a、10b、10c 表示装置
11 撮像装置
110(110a、110b) 撮像部
12 表示部
20 画像処理装置
200 距離算出部
201 ユーザ情報解析部
30 顔検出部
31 目位置検出部
32 手位置検出部
33 手形状・指先位置検出部
35 注目位置検出部
39 操作者判別部
40、40a、40c 描画入力検出部
41 検出情報出力部
21 情報DB
22 制御部
221、221b、221c 表示制御部
222 案内画像表示部

Claims (9)

  1. 撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出部と、
    前記位置検出部が検出した前記第1位置に基づいて前記他の一部を検出する操作検出領域と前記操作検出領域の一部の領域であって描画入力を検出する入力検出領域を定め、前記第2位置が前記操作検出領域のうち前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出する描画入力検出部と、
    前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出部と、
    前記注目位置検出部が検出した注目位置を示す入力検出画像を形成し、前記描画入力検出部が描画入力を検出しないとき、描画入力を検出するときよりも前記入力検出画像の表示態様を目立たない態様にする画像形成部と、
    を備えるデータ入力装置。
  2. 前記画像形成部は、前記第2位置の奥行方向への座標値に応じて前記描画入力に基づく画像の処理に係る情報を定める請求項1に記載のデータ入力装置。
  3. 前記身体の他の一部の形状を検出する第一形状検出部を備え、
    前記画像形成部は、前記第一形状検出部が検出した形状に基づいて前記描画入力に基づく画像の処理に係る情報を定める請求項1または2に記載のデータ入力装置。
  4. 前記位置検出部は、前記撮像装置が撮像した映像に表されたユーザの身体のさらに他の一部の位置である第3位置を検出し、
    前記描画入力検出部は、前記操作検出領域に基づいて前記さらに他の一部の位置を検出し、前記操作検出領域のうち前記第3位置よりも奥の領域を前記入力検出領域として定める請求項1ないし3のいずれかに記載のデータ入力装置。
  5. 前記身体のさらに他の一部の形状を検出する第二形状検出部を備え、
    前記画像形成部は、前記第二形状検出部が検出した形状に基づいて前記描画入力に基づく画像の処理に係る情報を定める請求項4に記載のデータ入力装置。
  6. 前記ユーザの身体の一部は顔であり、前記身体の他の一部は左右いずれか一方の手である請求項1ないし5のいずれかに記載のデータ入力装置。
  7. 前記ユーザの身体の一部は顔であり、前記身体の他の一部は左右いずれか一方の手であり、前記ユーザの身体のさらに他の一部は、前記一方の手とは他方の手である請求項4または5に記載のデータ入力装置。
  8. 撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出工程と、
    前記位置検出工程で検出した前記第1位置に基づいて前記他の一部を検出する操作検出領域と前記操作検出領域の一部の領域であって描画入力を検出する入力検出領域を定め、前記第2位置が前記操作検出領域のうち前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出する描画入力検出工程と、
    前記位置検出工程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出工程と、
    前記注目位置検出工程で検出した注目位置を示す入力検出画像を形成し、前記描画入力検出工程で描画入力を検出しないとき、描画入力を検出するときよりも前記入力検出画像の表示態様を目立たない態様にする画像形成工程と、
    を含むデータ入力装置におけるデータ入力方法。
  9. 撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出工程と、
    前記位置検出工程で検出した前記第1位置に基づいて前記他の一部を検出する操作検出領域と前記操作検出領域の一部の領域であって描画入力を検出する入力検出領域を定め、前記第2位置が前記操作検出領域のうち前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出する描画入力検出工程と、
    前記位置検出工程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出工程と、
    前記注目位置検出工程で検出した注目位置を示す入力検出画像を形成し、前記描画入力検出工程で描画入力を検出しないとき、描画入力を検出するときよりも前記入力検出画像の表示態様を目立たない態様にする画像形成工程と、
    をデータ入力装置のコンピュータに実行させるデータ入力プログラム。
JP2014548539A 2012-11-22 2013-11-14 データ入力装置 Expired - Fee Related JP5896578B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014548539A JP5896578B2 (ja) 2012-11-22 2013-11-14 データ入力装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012256552 2012-11-22
JP2012256552 2012-11-22
PCT/JP2013/080783 WO2014080829A1 (ja) 2012-11-22 2013-11-14 データ入力装置
JP2014548539A JP5896578B2 (ja) 2012-11-22 2013-11-14 データ入力装置

Publications (2)

Publication Number Publication Date
JP5896578B2 true JP5896578B2 (ja) 2016-03-30
JPWO2014080829A1 JPWO2014080829A1 (ja) 2017-01-05

Family

ID=50776012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014548539A Expired - Fee Related JP5896578B2 (ja) 2012-11-22 2013-11-14 データ入力装置

Country Status (4)

Country Link
US (1) US10186057B2 (ja)
JP (1) JP5896578B2 (ja)
CN (1) CN104813258B (ja)
WO (1) WO2014080829A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018083737A1 (ja) * 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9274608B2 (en) * 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
US11137832B2 (en) * 2012-12-13 2021-10-05 Eyesight Mobile Technologies, LTD. Systems and methods to predict a user action within a vehicle
JP6349811B2 (ja) * 2014-03-17 2018-07-04 セイコーエプソン株式会社 映像信号出力装置、映像信号出力方法、及びプログラム
US20150302653A1 (en) * 2014-04-22 2015-10-22 Cherif Atia Algreatly Augmented Digital Data
US20150309681A1 (en) * 2014-04-23 2015-10-29 Google Inc. Depth-based mode switching for touchless gestural interfaces
JP6643825B2 (ja) * 2014-08-25 2020-02-12 キヤノン株式会社 装置及び方法
US10310675B2 (en) 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
US9557822B2 (en) * 2014-09-08 2017-01-31 Atheer, Inc. Method and apparatus for distinguishing features in data
JP2016110249A (ja) * 2014-12-03 2016-06-20 日本ユニシス株式会社 空間手書き入力システム、空間手書き入力方法およびコンピュータプログラム
EP3101511A1 (en) * 2015-06-03 2016-12-07 Nokia Technologies Oy Monitoring
CN107787497B (zh) * 2015-06-10 2021-06-22 维塔驰有限公司 用于在基于用户的空间坐标系中检测手势的方法和装置
JP6488961B2 (ja) * 2015-09-28 2019-03-27 富士通株式会社 生成方法、判別方法、プログラム及び情報処理装置
EP3422152A4 (en) * 2016-02-23 2020-03-11 Sony Corporation REMOTE CONTROL DEVICE, SYSTEM, METHOD, AND PROGRAM
US10459519B2 (en) * 2017-01-19 2019-10-29 Google Llc Function allocation for virtual controller
US20190073915A1 (en) * 2017-09-06 2019-03-07 International Business Machines Corporation Interactive and instructional interface for learning
WO2019054037A1 (ja) * 2017-09-12 2019-03-21 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN109784130B (zh) * 2017-11-15 2023-04-28 株式会社日立制作所 行人重识别方法及其装置和设备
JP7075237B2 (ja) * 2018-02-23 2022-05-25 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
TWI734024B (zh) * 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
JP2020135587A (ja) 2019-02-22 2020-08-31 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2020140291A (ja) * 2019-02-27 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282235A (ja) * 1994-04-15 1995-10-27 Matsushita Electric Ind Co Ltd 動作認識装置
JPH08211979A (ja) * 1995-02-02 1996-08-20 Canon Inc 手振り入力装置及び方法
JPH11134089A (ja) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd ハンドポインティング装置
US20080120577A1 (en) * 2006-11-20 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus for controlling user interface of electronic device using virtual plane
JP2011039844A (ja) * 2009-08-12 2011-02-24 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2012068854A (ja) * 2010-09-22 2012-04-05 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212299A (ja) 1996-01-31 1997-08-15 Canon Inc 情報入力装置および情報入力方法
DE69936620T2 (de) * 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
JP2004094653A (ja) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology 情報入力システム
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
JP2011113191A (ja) 2009-11-25 2011-06-09 Seiko Epson Corp 情報処理装置、情報処理システム
CN102812416B (zh) * 2010-06-17 2015-10-07 松下电器(美国)知识产权公司 指示输入装置、指示输入方法、程序、记录介质以及集成电路
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
US9030425B2 (en) * 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282235A (ja) * 1994-04-15 1995-10-27 Matsushita Electric Ind Co Ltd 動作認識装置
JPH08211979A (ja) * 1995-02-02 1996-08-20 Canon Inc 手振り入力装置及び方法
JPH11134089A (ja) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd ハンドポインティング装置
US20080120577A1 (en) * 2006-11-20 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus for controlling user interface of electronic device using virtual plane
JP2011039844A (ja) * 2009-08-12 2011-02-24 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2012068854A (ja) * 2010-09-22 2012-04-05 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018083737A1 (ja) * 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置

Also Published As

Publication number Publication date
US20150302617A1 (en) 2015-10-22
US10186057B2 (en) 2019-01-22
CN104813258B (zh) 2017-11-10
CN104813258A (zh) 2015-07-29
JPWO2014080829A1 (ja) 2017-01-05
WO2014080829A1 (ja) 2014-05-30

Similar Documents

Publication Publication Date Title
JP5896578B2 (ja) データ入力装置
WO2013180151A1 (ja) 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム
JP5145444B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP4768196B2 (ja) 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
KR101227610B1 (ko) 화상인식장치 및 조작판정방법과 이를 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체
KR100845390B1 (ko) 영상 처리기, 영상 처리 방법, 기록 매체, 및 반도체 장치
KR101083408B1 (ko) 인터렉티브 모드를 지원하는 증강현실 구현 장치 및 방법
JP6011165B2 (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
EP0991011A2 (en) Method and device for segmenting hand gestures
EP2512141A1 (en) System and method of user interaction in augmented reality
EP2521097A1 (en) System and Method of Input Processing for Augmented Reality
JP5509227B2 (ja) 移動制御装置、移動制御装置の制御方法、及びプログラム
KR101797260B1 (ko) 정보 처리 장치, 정보 처리 시스템 및 정보 처리 방법
JPH08315154A (ja) ジェスチャ認識システム
JP2021520577A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
KR101256046B1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JP5964603B2 (ja) データ入力装置、及び表示装置
CN109947243B (zh) 基于触摸手检测的智能电子设备手势捕获与识别技术
JP6230666B2 (ja) データ入力装置、データ入力方法、及びデータ入力プログラム
JP2000172163A (ja) 手動作分節方法および装置
JPH0648458B2 (ja) 情報入力装置
CN109960406B (zh) 基于双手手指之间动作的智能电子设备手势捕获与识别技术
CN108521594B (zh) 一种基于体感相机手势识别的自由视点视频播放方法
CN103995586B (zh) 基于虚拟触摸屏的非穿戴指势人机交互方法
Vančo et al. Gesture identification for system navigation in 3D scene

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160229

R150 Certificate of patent or registration of utility model

Ref document number: 5896578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees