JP6341755B2 - 情報処理装置、方法及びプログラム並びに記録媒体 - Google Patents

情報処理装置、方法及びプログラム並びに記録媒体 Download PDF

Info

Publication number
JP6341755B2
JP6341755B2 JP2014108073A JP2014108073A JP6341755B2 JP 6341755 B2 JP6341755 B2 JP 6341755B2 JP 2014108073 A JP2014108073 A JP 2014108073A JP 2014108073 A JP2014108073 A JP 2014108073A JP 6341755 B2 JP6341755 B2 JP 6341755B2
Authority
JP
Japan
Prior art keywords
distance
information processing
base point
processing apparatus
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014108073A
Other languages
English (en)
Other versions
JP2015225374A (ja
JP2015225374A5 (ja
Inventor
渡辺 和宏
和宏 渡辺
亘 加来
亘 加来
武司 中田
武司 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014108073A priority Critical patent/JP6341755B2/ja
Priority to US14/719,060 priority patent/US9612665B2/en
Publication of JP2015225374A publication Critical patent/JP2015225374A/ja
Publication of JP2015225374A5 publication Critical patent/JP2015225374A5/ja
Application granted granted Critical
Publication of JP6341755B2 publication Critical patent/JP6341755B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Description

本発明は、ユーザの手指の動き(ジェスチャ)により特定の処理を行う情報処理装置、方法及びプログラム、並びに、情報処理プログラムを記録した記録媒体に関する。
テレビジョン受信機、録画再生装置及び遠隔会議システム等の入力操作方法として、ユーザの手指等の動きまたは身体表現を利用するジェスチャ入力操作方式が登場している。ジェスチャ入力操作方式は、ユーザの手指の動き(ジェスチャ)を撮像し、その撮像された映像データから特定箇所(例えば手指の先端部)の動きの軌跡をパターン認識し、その認識されたパターンに対応した値又は操作コマンドを入力するものである。
特許文献1は、ユーザを撮像して得られる画像データ上で、指が終始点入力判定領域外に位置する場合にジェスチャ入力を有効化するジェスチャ認識装置が記載されている。また、指の位置が終始点入力判定領域内にある場合、当該終始点入力判定領域を当初サイズよりも大きなサイズに拡大し、終始点入力判定領域外にある場合、当初サイズに戻すことが記載されている。
特許文献2には、ユーザの手指が実空間の予め設定されるジェスチャ認識領域内に存在するときのみ、ジェスチャによる動作制御を有効化するジェスチャ入力装置が記載されている。
特許文献3には、腕や手などの現実のオブジェクト上にGUI(Graphical User Interface)を投影し、その投影されたGUIへのタッチを検知することによるHead Mounted Display(HMD)タイプの情報処理端末への入力操作方式が記載されている。
特開2012−098987号公報 特開2012−146236号公報 米国特許出願公開第2013/0016070号明細書
従来技術では、ユーザが入力操作の意図で行うジェスチャと、入力操作の目的でない手指の動きとを区別することが困難である、という問題が依然として存在する。
特許文献2に開示される技術は、ジェスチャ認識領域を予め設定し、この領域内での手指の動きを「入力操作の意図で行うジェスチャ」と判定し、この領域外での手指の動きを「それ以外の動作」と判定している。この技術では、ジェスチャ認識領域内での手指の動きはすべてジェスチャと認識されることになる。たとえばユーザが文字を入力しようとしたときの、送筆(文字を構成する線を入力する手指の移動)と、終筆(いわゆる「止め」)から起筆(いわゆる「打ち込み」)の間の手指の移動とを区別できない。あるいは、何らかの描画をしているときの、画の入力を行っているいわゆるペン・オンの状態と、入力を行っていないいわゆるペン・オフの状態を区別できない。
本発明は上記課題に鑑みてなされたものであり、ユーザが入力操作の意図で行うジェスチャと、入力操作の目的でない手指の動きとを適切に識別できる情報処理装置、方法及びプログラム並びに記録媒体を提供することを目的とする。
上記課題を解決するために、本発明に係る情報処理装置は、ジェスチャ操作により手書き文字図形を入力する情報処理装置であって、前記ジェスチャ操作を行う操作体の少なくとも基点を撮像手段により撮像された撮像画像から検出する検出手段と、前記基点が検出された後、前記情報処理装置から前記基点までの距離を測定する距離測定手段と、前記基点が検出された後の特定のタイミングにおいて前記距離測定手段により計測された、前記基点までの距離に基づいて基準距離を定めるように制御する制御手段であって、前記基点が前記基準距離以内または以上である距離条件を満たす場合に、表示部に表示された撮像画像を含む表示用画像信号の、前記撮像画像の前記基点に対応する位置に入力を行うための識別マークを重畳するように制御す制御手段と、前記基準距離が定められた後、前記基準距離の位置に合焦するように撮像手段のフォーカスを制御し、さらに被写界深度が浅くなるように前記撮像手段の絞りを制御する撮像制御手段とを有することを特徴とする。
本発明によれば、ユーザが入力操作の意図で行うジェスチャと、入力操作の目的でない手指の動きとを適切に区別することのできる情報処理装置を提供できる。
本発明の一実施例の概略構成ブロック図である。 本実施例のジェスチャ操作直前の様子を示す説明例である。 本実施例で基準距離D設定の操作説明例である。 本実施例で手書き文字入力直前の説明例である。 本実施例で手書き文字入力中の説明例である。 本実施例で手書き文字入力終了の説明例である。 本実施例の動作フローチャートである。 本実施例の動作フローチャートである。 本発明の実施例2の正面側から見た外観図を示す。 実施例2を背面側から見た外観図を示す。 実施例2をユーザの頭部に装着した状態の側面図を示す。 実施例2の概略構成ブロック図を示す。 実施例2のジェスチャ操作直前の様子を示す説明例である。 実施例2でユーザの手指を撮像している状態の説明図である。 実施例2で手書き文字入力直前の説明例である。 実施例2で手書き文字入力中の説明例である。 実施例2で手書き文字入力終了の説明例である。
以下、図面を参照して、本発明の実施例を詳細に説明する。
図1に、本発明に係る情報処理装置の一実施例の概略構成ブロック図を示す。本実施例は、ジェスチャ操作の基点(例えば、手指先端)までの距離が基準距離以上か以内かに関する距離基準に従い手書き情報(例えば、文字図形)の入力を制御する。
図1に示す情報処理装置100は、例えば、パーソナルコンピュータ(以下、PCと略す。)により実現されうる。内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、距離測定部106、記録媒体I/F107、外部I/F109、通信I/F110、撮像部112が接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。
メモリ102は、例えばRAM(半導体素子を利用した揮発性メモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、情報処理装置100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、及びCPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は、例えばハードディスク(HDD)又はフラッシュメモリなどで構成される。
画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記録媒体108に格納された画像データや、撮像部112や外部I/F109より取得した映像信号、通信I/F110をより取得した画像データなどに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理及び色変換処理などが含まれる。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成しても良い。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って対応する画像処理を施すことも可能である。
ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための表示用画像信号を生成してディスプレイ105に出力するように情報処理装置100の各部を制御する。ディスプレイ105は、入力される表示用画像信号に基づく画像を表示する。なお、情報処理装置100自体が備える構成としてはディスプレイ105に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(テレビジョン受信機など)で構成してもよい。または、テレビジョン受信信号等の外部映像信号を外部I/F109より取得し、外部映像信号等より表示用画像信号を生成してディスプレイ105に供給する構成としてもよい。
距離測定部106は、情報処理装置100と物体との距離を測定する。物体とは、たとえばユーザの手指である。なお、他にも指示用のペンなどでもよい。情報処理装置100と物体との距離を測定するには、超音波や音波の反射を利用する方法、及び静電容量の変化を利用する方法など、一般的に知られている方法を用いることができる。撮像部112がいわゆるオートフォーカス機能を具えるときは、物体に合焦する距離を探索するのと共通のプロセスにより情報処理装置100と物体との距離を測定できる。たとえば、特開2009−210694号公報には、TV−AF方式、外測測距AF方式及び内測位相差AF方式等、一般的に実用される種々の測距技術が開示されている。
撮像部112は、ユーザ等の被写体を撮像するものであり、フォーカス機能、ズーム機能及び絞り機能を含む撮影レンズ並びに光学像を電気信号に変換するCCDやCMOS素子等で構成される。撮像部112はさらにパンチルト機能を具え、撮像方向を変更できる構成としてもよい。
記録媒体I/F107は、メモリーカードやCD、DVDといった記録媒体108が装着可能である。記録媒体I/F107は、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出し、記録媒体108にデータを書き込む。
外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。
本実施例の各部の作用を説明する前に、図2A〜図2Eを参照して、本実施例の使用方法を説明する。図2A〜図2Eは、本実施例の使用状態の遷移例を示す。
図2Aは、ユーザ200が所定の操作(たとえば、手指を所定のポーズにする操作)をした状態を示す。撮像部112はユーザ200を撮像し、図2Bに示すように、ディスプレイ105に撮像部112の撮像画像が表示される。この撮像画像はユーザ200の手指の画像を含む。ディスプレイ105には、他に、文字入力領域202、決定ボタン203及びキャンセルボタン204が表示される。
ユーザが手指を情報処理装置100から基準距離Dより近い距離まで近づけると、CPU101は、図2Cに示すように、ディスプレイ105の画面上で手指先端に対応する位置に識別マーク201を表示する。ユーザは、この識別マーク201が表示されることにより、基準距離D未満の距離まで手指を近づけていることを知ることができる。
ユーザが手指を情報処理装置100から基準距離D未満の距離まで近づけたまま、手指先端を移動させると、CPU101は、図2Dに示すように、手指先端の移動軌跡をディスプレイ105の画面上に表示する。ユーザは、軌跡の表示を途切れさせたいときは、手指先端を基準距離Dより情報処理装置100から遠ざける。そうすると、図2Eに示すようにCPU101は、ディスプレイ105の画面上で手指先端に対応する位置の識別マーク201を消す。識別マーク201が消えることで、ユーザは、手指先端を基準距離以上に情報処理装置100から遠ざけていることを知ることができる。
図3A及び図3Bは全体として、情報処理装置100のジェスチャ認識処理のフローチャートを示す。この処理を実現するプログラムが不揮発性メモリ103に記録されている。CPU101は、不揮発性メモリ103からこのプログラムをメモリ102に読み込み、実行することで、この処理を実現する。
情報処理装置100がユーザの電源投入等により起動されると、S301では、CPU101は、撮像部112での撮像を開始する。そして、CPU101は、撮像部112による撮像画像を解析し、手指の検出を行う。S302では、CPU101は、撮像部112で撮像された画像から手指が検出できたか否かを判定する。手指検出は、たとえば、撮像画像に含まれる画像特徴と、予め学習された、エッジ成分、色彩成分のパターン、爪の有無及び関節の曲がり方向などの画像特徴とを確率統計的に組み合わせることで行うことができる。もちろん、他の方法でもよい。
ジェスチャを検出又は認識するための基点又は対象物として手指先端を採用しているが、その他の身体部位であってもよい。更には、設定により、ジェスチャの検出対象として、棒(の先端)、筆記具又はポインティング・デバイスなど手指以外のものでもよい。以下では、ジェスチャの検出対象を手指先端とする。
S303では、CPU101は、ユーザによる所定の開始操作があったかを判定する。たとえば「手指が所定のポーズになったか」である。当該所定の操作があったときはS304に進む。
S304では、CPU101は、撮像画像において手指が所定サイズ及び位置になるように撮影条件を調整する。ここで調整する撮影条件は例えば、撮像部112のズーム比及び撮像方向である。ズーム比の変更は、光学的に行うものでもデジタル処理で行うもの(デジタル・ズーム)でも、これらを組み合わせたものでもよい。また、撮像方向の変更は、パンチルト機能を用いて行うものでも、撮像画像の一部の領域を切り出すデジタル処理で行うものでも、これらを組み合わせたものでもよい。このようにすることで、撮像部112に対するユーザの位置が場合によってある程度異なる位置であっても、ディスプレイ105に表示された自分の手指の映像を見やすくすることができ、操作しやすくすることができる。
S305では、CPU101は、距離測定部106によりユーザの手指先端までの距離を測定する。
S306では、CPU101は、測定された距離の値に基づき基準距離Dを設定する。この基準距離Dは、測定された手指までの距離より、0(ゼロ)〜ヒトの腕の長さの半分程度分、短い距離である。基準距離Dは、本処理の開始時にステップS306で設定され、ステップS306以降の処理では固定される。このように基準距離Dを設定するのは、ユーザが手指を情報処理装置100に近付けたときに識別マーク201を表示して、いわゆるペン・オンの状態(書込み可能状態)にするためである。例えば、測定された手指までの距離が3mであれば、基準距離Dを、そこから0.2mほど引いた2.8mと設定する。
S307では、CPU101は、撮像部112の撮像条件に関して、基準距離Dの位置に合焦するようにフォーカス調整し、かつ、被写界深度を浅くする。被写界深度とは、合焦しているように見える被写体側の距離の範囲であり、たとえばレンズ絞りを開けてF値(F−number)を小さくすることにより、被写界深度を浅くすることができる。なお、レンズ絞りを開けることで光量が過剰となる場合には、ND(Neutral Density)フィルタを使用、撮像センサの感度を低くする、又は露光時間を短くすることにより、光量を均衡させうる。基準距離Dの位置に合焦するようにフォーカス調整し、かつ、被写界深度を浅くすることにより、ディスプレイ105上の手指画像は、ユーザが手指を基準距離Dに近付けるほど鮮明になり、逆に情報処理装置100から離れる程、ぼける。この指画像の鮮鋭度の程度により、ユーザは、どれくらい手指を移動させれば、いわゆるペン・オンの状態(書込み可能状態)になるかを視覚的に知ることができる。
画像処理部104による画像処理によっても、手指画像鮮鋭度を情報処理装置100との間の距離に従い同様に変化させることができる。例えば、撮像画像に対して、座標ごとの、基準距離Dと測定距離dとの距離差(遠近)をグレーの濃淡により表わした距離画像(距離マップ)を作成する。そして、その距離画像をいわゆるアルファチャンネル(座標ごとのエフェクト適用量を規定する画像)としてぼかし(Blur)エフェクトを適用する。このぼかしエフェクトにより、手指を基準距離Dに近付けたとき、手指の画像にフォーカスが合って行くようにすることができる。また、同様の目的で、画像処理のエフェクト種類を異ならせることにより、手指を基準距離Dに近付けたとき、手指の画像の透過度を下げて次第に現れてくるように表示することができる。また、彩度を上げて白黒からカラーに変化するように表示したり、明度を上げてシルエットから明るい画像に変化するように表示したりすることも可能であり、これらを組み合わせることも可能である。
S308では、CPU101は、変更した撮影条件(または画像処理の条件)により、改めて撮像画像をディスプレイ105上にミラー表示する。ミラー表示とは、撮像している画像を左右反転して表示することである。ミラー表示により、ユーザが手指等を動かした方向と手指等の画像が動く方向が一致し、ユーザは、どの方向に手指を移動させればどう手指画像が移動するかを感覚的に知ることができる。なお、撮像画像のミラー表示は、外部I/F109により取得されるテレビジョン受信信号等の外部映像信号の表示の中の部分領域に嵌め込んで表示するものであってもよいし、半透明等の画像処理により重畳して表示するものであってもよい。
S309では、CPU101は、ポーズを検出した位置の周辺に文字入力領域202をディスプレイ105の画面上に表示する。この文字入力領域202は、図2Bに示すように、ディスプレイ105上にたとえば一定領域の矩形として表示される。手指先端の軌跡等を表示する際はこの領域202内を表示用に指定することで、ユーザに対して、どの範囲で入力のためのジェスチャ操作をすればよいかを認識させることができる。入力のためのジェスチャ操作を認識する範囲を限定することにより、認識の効率と精度が向上する。
S310では、CPU101は、ディスプレイ105の画面上で文字入力領域202の外に、決定領域203とキャンセル領域204を表示する。
S311では、CPU101は、距離測定部106によりユーザの手指先端までの距離を測定する。以下では、測定された距離をdとする。この距離dは随時測定され、その時々のユーザの手指の位置に応じて更新される。
S312では、CPU101は、S311で計測した距離dと、S306で設定した基準距離Dとを比較し、距離dが基準距離Dより短くなったか否かを判定する。CPU101は、ユーザの手指先端が基準距離未満の位置に入った、即ちd<Dであると判定すると、S313に進み、そうでない場合、S320に進む。
S313では、CPU101は、手指先端が指し示す位置が決定領域203内にあるか否かを判定する。CPU101は、決定領域203内であると判定すると、S314に進み、そうでない場合はS315に進む。
S314では、CPU101は、ユーザにより文字入力を決定して終了する指示がされたものとして、文字入力領域202に表示されている手指先端の軌跡の画像を保存し、図3A及び図3Bに示す処理を終了する。なお、S313の判定に代えて、手指先端が指し示す位置が決定領域203内である状態で、距離dが基準距離Dより大きくなったか否かの判定とし、大きくなった場合にS314に進み、そうでない場合にS315に進むようにしても良い。すなわち、決定領域203にペンダウンした操作があったか否かの判定に代えて、決定領域203を指示した状態でペンアップの操作があったか否かの判定であってもよい。
S315では、CPU101は、ユーザの手指先端が指し示す位置がキャンセル領域204にあるか否かを判定する。手指先端の位置がキャンセル領域204であった場合、CPU101は、ユーザにより文字入力をキャンセルして終了する指示がされたものとして、手指先端の軌跡の画像を保存することなく終了する。手指先端の位置がキャンセル領域204でなかった場合、CPU101は、S316に進む。なお、S315の判定も、S313と同様に、キャンセル領域204にペンダウンした操作があったか否かの判定に代えて、キャンセル領域204を指示した状態でペンアップの操作があったか否かの判定であってもよい。
S316では、ペン・オンの状態(d<D)で、ユーザの手指先端によって指示される位置が文字入力領域202内であるか否かを判定する。CPU101は、文字入力領域202内である場合、S317に進み、そうでない場合、即ち、d<Dの状態で手指先端が文字入力領域202の外まで移動した場合、S319に進む。
S317では、CPU101は、手指先端の位置にたとえば「円」印のような識別マーク201をディスプレイ105に表示する。これにより、ユーザは、いわゆるペン・オンの状態(書込み可能状態)であることを知ることができる。
S318では、CPU101は、ペン・オンの状態での手指先端の移動に応じて、手指先端の軌跡をディスプレイ105に表示する。ユーザは、この軌跡の表示によって、それまでに入力した内容を確認しながら、入力操作を継続することができる。
S319では、CPU101は、「入力領域を外れている」旨をディスプレイ105に表示する。たとえば、こうした旨のメッセージ・テキストを表示してもよいし、文字入力領域や領域の枠を、それまでと異なる色や形状で表示するようにしてもよい。
S320では、CPU101は、手指先端の位置の識別マーク201をディスプレイ105で非表示にする。
S321では、CPU101は、ユーザによる所定の決定操作があったか否かを判定し、決定操作があった場合はS314に進み、そうでない場合はS322に進む。決定操作は、たとえば、手指を決定に対応する所定のポーズにする操作である。ポーズをとる操作に限らず、リモートコントローラ(不図示)などの操作部材に対する操作であってもよい。決定操作があった場合、CPU101は、S314で文字入力領域202に表示されている手指先端の軌跡の画像を保存し、図3A及び図3Bに示す処理を終了する。
S322では、CPU101は、所定のキャンセル操作があったか否かを判定し、キャンセル操作があった場合は図3A及び図3Bに示す処理を終了し、そうでない場合はS311に戻り、処理を繰り返す。キャンセル操作は、例えば、手指を、キャンセルに対応する所定のポーズにする操作である。ポーズをとる操作に限らず、リモートコントローラ(不図示)などの操作部材に対する操作であってもよい。キャンセル操作があった場合、CPU101は、手指先端の軌跡の画像を保存することなく、図3A及び図3Bに示す処理を終了する。
本実施例は、以下のような効果を有する。すなわち、ユーザが空間上で手指等を移動させてその軌跡を入力しようとするとき、いわゆるペン・オンの状態(書込み可能状態)かペン・オフの状態(書込み不能状態)かが明確となる。つまり、ユーザが入力操作の意図で行うジェスチャと、入力操作の目的でない手指等の動きとを適切に区別することが可能となる。
基準距離Dと手指までの距離dの距離差に応じて、撮像画像又は手指画像にぼかし、透過度、明度及び彩度のいずれか一以上の変更を加えることで、ユーザに手書き入力に適した距離を実感させることができる。
頭部装着型のディスプレイ(Head Mounted Display:HMD)を利用するシステムに適用した実施例を説明する。この実施例では、物体までの距離を測定する距離測定装置をHMDに組み込み、HMDを装着したユーザの手指までの距離を検知し、その測定距離に応じて実施例1と同様にHMDの表示を制御する。
図4Aは、本発明の実施例2であるHMD型情報処理端末400(以下、「HMD400」と略す。)の正面側から見た外観図を示す。図4Bは背面側から見た外観図を示し、図4Cはユーザの頭部に装着した状態の側面図を示す。図4Dは、HMD400の概略構成ブロック図を示す。
頭部装着部401はHMD400をユーザの頭部に装着するためのものであり、構成部材421〜425からなる。HMD400を頭部に装着するには、まず、アジャスタ422で長さ調整部423を緩めた状態でHMD400を頭にかぶる。そして、額装着部425を額に密着させてから側頭装着部421と後頭装着部424を各々側頭部と後頭部に密着させるように、アジャスタ422で長さ調整部423を絞める。なお、ここに示したゴーグルタイプの他に、眼鏡フレームタイプ及びヘルメットタイプなど種々のタイプが利用可能である。
撮像部402はいわゆるデジタルカメラであり、HMD400を頭部に装着したユーザの顔が向く方向と略同方向を撮像するようにHMD400に配置されている。具体的には、入射窓412を介してHMD400の外部から入射した光を光学プリズム417によってHMD400の内部に導き、撮像センサ416により受光する。
距離測定部403は、HMD400と前方の物体、ここではユーザの手指先端との距離を測定する。手指先端以外に指示用のペンなどでもよいことは実施例1と同様である。HMD400と物体との距離を測定する方法は、超音波や音波の反射を利用する方法、静電容量の変化を利用する方法など、一般的に知られている方法を用いることができる。また、撮像部402がいわゆるオートフォーカス機能を具えるときは、物体に合焦する距離を探索するのと共通のプロセスによりHMD400と物体との距離を測定できる。たとえば、特開2009−210694号公報には、TV−AF方式、外測測距AF方式及び内測位相差AF方式等、一般的に実用される種々の測距技術が開示されている。
表示部404(404L,404R)は、スクリーン410(410L,410R)、カラー液晶ディスプレイ414(414L,414R)及び光学プリズム415(415L,414R)からなる。符号に付加したL,Rはそれぞれ左眼用及び右眼用を示す。表示部404は、使用者の目の位置に相対するように、眼鏡における眼鏡レンズに相当する位置に配置される。具体的には、カラー液晶ディスプレイ414が表示する画像を光学プリズム415によってスクリーン410に導き、スクリーン410上に表示する。
表示部404の光学プリズム415の出力光と撮像部402の光学プリズム417の入力光は、HMD400の装着時に、ユーザの瞳の光軸と一致するようになっている。撮像センサ416は、ユーザの位置及び方向によって視覚的に認識できる現実空間の被写体を撮像する。
カラー液晶ディスプレイ414は、撮像部402によって撮像された現実空間の画像に、GUI等のいわゆるコンピューター・グラフィックスの画像を電気的に重畳(画像合成)した画像を表示する。
HMD400は、図4Dに示すように、本体(頭部装着部401を含む)内部に、表示制御部430、撮像制御部440、CPU450、メモリ460及び電源部470を具える。
表示制御部430は、表示部404の表示を制御する。具体的には、表示制御部430は、現実空間画像に重畳表示(画像合成)する仮想オブジェクトの画像の大きさ、位置、向き、色彩及び透過度、並びに、現実空間画像の変更に伴う移動及び明度の変更などを制御する。
撮像制御部440は、撮像画像を用いた所定の演算処理の演算結果に基づいて露出と測距等を制御する。これにより、AF(オートフォーカス)処理、AE(自動露出)処理及びAWB(オートホワイトバランス)処理等が行われる。撮像部402が光学フィルタを光路上から挿脱する機構及び防振機構等を具えている場合、撮像制御部440は、動作状況により当該光学フィルタの挿脱及び防振動作を行う。
CPU450は、HMD400全体を制御し、種々の演算処理を行う。CPU450は、メモリ460に記録されたプログラムを実行することで、以下に説明する制御と処理を実現する。
メモリ460はワーク領域および不揮発性領域より成る。ワーク領域には、不揮発性領域から読み出されたプログラムやシステム制御用の定数及び変数が展開される。また、現実空間に重畳して表示する仮想オブジェクトの画像のデータが、メモリ460に表示のために保持される。また、撮像部402により撮像されA/D変換された画像データが、画像解析及び画像処理等の目的でメモリ460に展開される。
電源部470は、アルカリ電池又はリチウム電池等の一次電池、NiCd電池、NiMH電池又はLi電池等の二次電池、若しくはACアダプタ等からなり、HMD400全体に電力を供給する。電源部470は、ユーザ操作その他の条件により電源オンと電源オフを切り替える電源スイッチを具える。
図5A〜図5Eは、本実施例の使用状態の模式図を示す。図5A〜図5Eを参照して、本実施例の使用方法と動作を簡単に説明する。
HMD400を装着したユーザ500が手指を目の前にかざすと、図5Aに示すように、HMD400の表示部404にユーザ500の手指の画像が表示される。ここで、図5Bに示すように、ユーザ500が所定の操作(たとえば、手指を所定のポーズにする)をしたとする。このポーズに応じて、CPU450は、撮像部402による撮像画像に重畳して文字入力領域502、「決定」領域503及び「キャンセル」領域504のいわゆるGUI(グラフィカル・ユーザー・インターフェース)を表示部404に表示する。GUIの要素と撮像部402によるユーザ500の手指の画像とが表示画面上で重なる領域では、ユーザにとってあたかもGUIがユーザの手指の向こうにあると感じられるように、GUIの部分が切り取られ又は透過するように表示される。このような表示により、ユーザ500の手指の向こうにあたかも仮想スクリーンがあり、その仮想スクリーン上にGUIが表示されているとユーザに感じさせることが可能となる。
ユーザ500が手指をHMD400から基準距離D以上に遠ざけると、CPU450は、図5に示すように、表示部404の画面上で手指先端に対応する位置に識別マーク501を表示する。ユーザは、この識別マーク501により、基準距離D以上に、HMD400から手指を遠ざけていることを知ることができる。
ユーザが手指をHMD400から基準距離D以上に遠ざけたまま、手指先端を移動させると、CPU450は、図5に示すように、手指先端の移動軌跡505を表示部404の画面上に表示する。ユーザは、軌跡の表示を途切れさせたいときは、手指先端をHMD400から基準距離D未満に近づける。そうすると、CPU450は、表示部404の画面上で手指先端に対応する位置の識別マーク501を消す。識別マーク501が消えることで、ユーザは、手指先端を基準距離未満にHMD400に近づいていることを知ることができる
すなわち、ユーザが空間上で手指(または筆記具やポインティング・デバイス)を移動させてその軌跡を入力しようとするとき、いわゆるペン・オンの状態(書込み可能状態)かペン・オフの状態(書込み不能状態)かが明確となる。つまり、ユーザが入力操作の意図で行うジェスチャと、入力操作の目的でない手指等の動きとを適切に区別できる。
また、ユーザは仮想スクリーンに文字や図形を書き込むような操作をすることになり、直感的でわかりやすいユーザ・インターフェースを実現できる。
(その他)なお、上述の実施例では文字を入力する場合を例に説明したが、文字を構成しないグラフィックスを入力する場合にも適用可能であることはいうまでもない。
CPU101による制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、本発明の好適な実施例を説明したが、本発明は上述の特定の実施例に限られるものではなく、発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述した各実施例は本発明の一実施形態を示すものにすぎず、各実施例を適宜組み合わせることも可能である。
本発明をジェスチャ等の身体表現により手書き文字図形を表示する情報処理装置に適用した実施例を説明したが、本発明は、ジェスチャにより手書きの文字図形等を入力する装置一般に適用可能である。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。

Claims (14)

  1. ジェスチャ操作により手書き文字図形を入力する情報処理装置であって、
    前記ジェスチャ操作を行う操作体の少なくとも基点を撮像手段により撮像された撮像画像から検出する検出手段と、
    前記基点が検出された後、前記情報処理装置から前記基点までの距離を測定する距離測定手段と、
    前記基点が検出された後の特定のタイミングにおいて前記距離測定手段により計測された、前記基点までの距離に基づいて基準距離を定めるように制御する制御手段であって、前記基点が前記基準距離以内または以上である距離条件を満たす場合に、表示部に表示された撮像画像を含む表示用画像信号の、前記撮像画像の前記基点に対応する位置に入力を行うための識別マークを重畳するように制御す制御手段と、
    前記基準距離が定められた後、前記基準距離の位置に合焦するように撮像手段のフォーカスを制御し、さらに被写界深度が浅くなるように前記撮像手段の絞りを制御する撮像制御手段
    とを有することを特徴とする情報処理装置。
  2. 前記制御手段は、前記基点が前記距離条件を満たす場合に、前記撮像手段により撮像された前記基点の位置に基づいて文字図形の入力をするように制御することを特徴とする請求項1に記載の情報処理装置。
  3. 前記御手段は、前記撮像画像をミラー表示するように制御することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記制御手段は、前記基点が前記距離条件を満たさない場合には、前記表示部に表示された前記撮像画像の前記基点に対応する位置に前記識別マークを重畳しないように制御することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記距離条件が前記基準距離以内に前記基点があることである場合には、前記基準距離は、前記特定のタイミングにおいて前記距離測定手段により計測された前記基点までの距離より前記情報処理装置から所定距離遠い距離であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記撮像制御手段は、前記基点が前記撮像画像において所定サイズで表示されるように、光学ズームまたは電子ズームを行うように制御することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  7. 前記撮像制御手段は、前記基点が前記撮像画像において所定の位置に表示されるように、パンまたはチルトを行うように制御する、あるいは撮像画像からの切り出し処理を行うように制御することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  8. 前記制御手段は、前記基点までの距離と前記基準距離との差に応じた色彩または明度で前記撮像画像を表示するように制御することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  9. 前記特定のタイミングにおける前記距離測定手段により計測された前記基準までの距離は、前記操作体が所定のポーズになったことに応じて前記距離測定手段により計測された前記基準までの距離であることを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 前記表示部をユーザが装着している場合には、前記距離条件は、前記基点が前記基準距離以上であることであり、前記表示部がユーザから離れている場合には、前記距離条件は、前記基点が前記基準距離以内であることを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記御手段は、前記基点までの距離が前記距離条件を満たす場合の前記基点の位置の動きに応じた描画処理である、前記表示部への手描き処理を行うように制御することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. ジェスチャ操作により手書き文字図形を入力する情報処理装置の制御方法であって、
    前記ジェスチャ操作を行う操作体の少なくとも基点を撮像手段により撮像された撮像画像から検出する検出ステップと、
    前記基点が検出された後、前記情報処理装置から前記基点までの距離を測定する距離測定ステップと、
    前記基点が検出された後の特定のタイミングにおいて前記距離測定手段により計測された、前記基点までの距離に基づいて基準距離を定めるように制御する制御ステップであって、前記基点が前記基準距離以内または以上である距離条件を満たす場合に、表示部に表示された撮像画像を含む表示用画像信号の、前記撮像画像の前記基点に対応する位置に入力を行うための識別マークを重畳するように制御す制御ステップと、
    前記基準距離が定められた後、前記基準距離の位置に合焦するように撮像手段のフォーカスを制御し、さらに被写界深度が浅くなるように前記撮像手段の絞りを制御する撮像制御ステップ
    とを有することを特徴とする情報処理装置の制御方法。
  13. コンピュータを、請求項1乃至11のいずれか1項に記載された情報処理装置の各手段として機能させるためのプログラム。
  14. コンピュータを、請求項1乃至11のいずれか1項に記載された情報処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
JP2014108073A 2014-05-26 2014-05-26 情報処理装置、方法及びプログラム並びに記録媒体 Active JP6341755B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014108073A JP6341755B2 (ja) 2014-05-26 2014-05-26 情報処理装置、方法及びプログラム並びに記録媒体
US14/719,060 US9612665B2 (en) 2014-05-26 2015-05-21 Information processing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014108073A JP6341755B2 (ja) 2014-05-26 2014-05-26 情報処理装置、方法及びプログラム並びに記録媒体

Publications (3)

Publication Number Publication Date
JP2015225374A JP2015225374A (ja) 2015-12-14
JP2015225374A5 JP2015225374A5 (ja) 2017-04-27
JP6341755B2 true JP6341755B2 (ja) 2018-06-13

Family

ID=54556050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014108073A Active JP6341755B2 (ja) 2014-05-26 2014-05-26 情報処理装置、方法及びプログラム並びに記録媒体

Country Status (2)

Country Link
US (1) US9612665B2 (ja)
JP (1) JP6341755B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9225810B2 (en) * 2012-07-03 2015-12-29 Sony Corporation Terminal device, information processing method, program, and storage medium
KR20150110032A (ko) * 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
CN107533373B (zh) * 2015-08-04 2020-09-08 谷歌有限责任公司 虚拟现实中经由手与对象的场境敏感碰撞的输入
JP2017189498A (ja) * 2016-04-15 2017-10-19 ミラマ サービス インク 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
WO2019032967A1 (en) * 2017-08-10 2019-02-14 Google Llc HAND INTERACTION SENSITIVE TO THE CONTEXT
WO2020139518A1 (en) * 2018-12-27 2020-07-02 Snap Inc. Fade-in user interface display based on finger distance or hand proximity
JP7443819B2 (ja) 2020-02-27 2024-03-06 セイコーエプソン株式会社 画像表示装置、画像表示方法、および画像表示プログラム
US11948237B2 (en) * 2021-12-30 2024-04-02 Samsung Electronics Co., Ltd. System and method for mimicking user handwriting or other user input using an avatar
CN114415830A (zh) * 2021-12-31 2022-04-29 科大讯飞股份有限公司 隔空输入方法及设备、计算机可读存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0757103A (ja) * 1993-08-23 1995-03-03 Toshiba Corp 情報処理装置
JPH08211979A (ja) * 1995-02-02 1996-08-20 Canon Inc 手振り入力装置及び方法
JPH10154036A (ja) * 1996-11-21 1998-06-09 Brother Ind Ltd 文字入力方法及び文字入力装置
JP5025527B2 (ja) 2008-03-03 2012-09-12 キヤノン株式会社 撮像装置
JP5114795B2 (ja) * 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
JP5358548B2 (ja) 2010-11-04 2013-12-04 日本電信電話株式会社 ジェスチャ認識装置
JP5766957B2 (ja) 2011-01-14 2015-08-19 オリンパス株式会社 ジェスチャ入力装置
CN103562821B (zh) * 2011-04-28 2016-11-09 日本电气方案创新株式会社 信息处理装置、信息处理方法和记录介质
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
CA2844105A1 (en) * 2011-08-31 2013-03-07 Smart Technologies Ulc Detecting pointing gestures in a three-dimensional graphical user interface
JP2013061552A (ja) * 2011-09-14 2013-04-04 Ricoh Co Ltd プロジェクタ装置および操作検出方法
JP6141596B2 (ja) * 2011-12-27 2017-06-07 セイコーエプソン株式会社 表示装置、表示システム及び表示装置のデータ供給方法

Also Published As

Publication number Publication date
JP2015225374A (ja) 2015-12-14
US9612665B2 (en) 2017-04-04
US20150338924A1 (en) 2015-11-26

Similar Documents

Publication Publication Date Title
JP6341755B2 (ja) 情報処理装置、方法及びプログラム並びに記録媒体
US11119577B2 (en) Method of controlling an operation of a camera apparatus and a camera apparatus
US8654243B2 (en) Image pickup apparatus and control method thereof
CN109739361B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
RU2649773C2 (ru) Управление камерой посредством функции распознавания лица
JP6008309B2 (ja) 電子ミラー装置
US8831282B2 (en) Imaging device including a face detector
KR101679290B1 (ko) 영상 처리 방법 및 장치
US20140037135A1 (en) Context-driven adjustment of camera parameters
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
CN106066537B (zh) 头戴式显示器和头戴式显示器的控制方法
JP4203863B2 (ja) 電子カメラ
JP2009010987A (ja) 電子カメラ
JP2012238293A (ja) 入力装置
US10750081B2 (en) Electronic apparatus and method for selecting an organ from an image
US9521329B2 (en) Display device, display method, and computer-readable recording medium
US20200042105A1 (en) Information processing apparatus, information processing method, and recording medium
US20220012922A1 (en) Information processing apparatus, information processing method, and computer readable medium
WO2015136952A1 (ja) ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
JP2014228629A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2014241099A (ja) 撮像装置
RU2754988C1 (ru) Электронное устройство, способ управления и считываемый компьютером носитель
WO2019021601A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022120681A (ja) 画像処理装置および画像処理方法
JP2015091031A (ja) 撮影装置、撮影制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180515

R151 Written notification of patent or utility model registration

Ref document number: 6341755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151