JP6390799B2 - 入力装置、入力方法、及びプログラム - Google Patents

入力装置、入力方法、及びプログラム Download PDF

Info

Publication number
JP6390799B2
JP6390799B2 JP2017543168A JP2017543168A JP6390799B2 JP 6390799 B2 JP6390799 B2 JP 6390799B2 JP 2017543168 A JP2017543168 A JP 2017543168A JP 2017543168 A JP2017543168 A JP 2017543168A JP 6390799 B2 JP6390799 B2 JP 6390799B2
Authority
JP
Japan
Prior art keywords
input
marker
user
captured image
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017543168A
Other languages
English (en)
Other versions
JPWO2017057107A1 (ja
Inventor
真 則枝
真 則枝
誠 吉本
誠 吉本
才田 好則
好則 才田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017057107A1 publication Critical patent/JPWO2017057107A1/ja
Application granted granted Critical
Publication of JP6390799B2 publication Critical patent/JP6390799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、入力装置、入力方法、及びプログラムに関する。
ジェスチャ入力等、ユーザが空間上で行った動作をカメラで撮像し、生成された撮像画像を解析することで、情報処理装置に対するユーザの入力操作を認識する技術が開発されている。特許文献1は、ユーザの手のひらのジェスチャ(例えば手のひらを開くジェスチャ)に応じて、その手のひらにメニュー画面を表示したり、そのメニュー画面を切り替えたりする技術を開示している。
特許文献2は、ヘッドマウントディスプレイに表示される仮想キーボードを用いて入力を行う技術を開示している。また、特許文献2は、上記仮想キーボードを実空間上の物に固定することで、ヘッドマウントディスプレイの装着者が頭部を動かしても上記仮想キーボードの位置が変化しないようにする技術を開示している。
米国特許出願公開第2015/0016777号明細書 特表2015−504616号公報
撮像画像に含まれる物を解析してユーザによる入力操作を認識する場合、入力操作がどのタイミングで行われたのかを判断することが難しい。そのため、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりする可能性がある。
本発明は、上記課題に鑑みてなされたものである。本発明の目的は、撮像画像からユーザの入力操作を認識する際の認識精度を向上する技術を提供することである。
本発明の第1の入力装置は、1)ユーザの身体に取り付けられた装着物に設けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、2)前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、前記装着物に描画又は印字されたものである。
本発明の第2の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、2)前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である。
本発明の第3の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、2)前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を指定する入力を認識する入力認識手段と、3)前記指定された領域に含まれる部分画像を前記撮像画像から抽出する抽出手段と、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である。
本発明の第1の入力方法は、コンピュータによって実行される入力方法である。当該入力方法は、1)ユーザの身体に取り付けられた装着物に設けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、2)前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、前記装着物に描画又は印字されたものである。
本発明の第2の入力方法は、コンピュータによって実行される入力方法である。当該入力方法は、1)ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、2)前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である。
本発明の第3の入力方法は、コンピュータによって実行される入力方法である。当該入力方法は、1)ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、2)前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を指定する入力を認識する入力認識ステップと、3)前記指定された領域に含まれる部分画像を前記撮像画像から抽出する抽出ステップと、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である。
本発明によれば、撮像画像からユーザの入力操作を認識する際の認識精度を向上する技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1に係る入力装置を例示するブロック図である。 入力装置の動作を概念的に説明するための図である。 入力装置を実現する計算機の構成を例示する図である。 ヘッドマウントディスプレイにカメラが設けられている様子を例示する図である。 実施形態1の入力装置によって実行される処理の流れを例示するフローチャートである。 ユーザによって左腕がタップされた場合に、デバイスの表示画面に表示されているマーカ画像が変更される様子を例示する図である。 入力位置を例示する図である。 撮像画像の平面上における入力位置とマーカの位置との関係を例示する図である。 3次元空間上における領域62とマーカとの位置との関係を例示する図である。 実施形態2に係る入力装置を例示するブロック図である。 実施形態2の入力装置の動作を例示する図である。 実施形態3に係る入力装置を例示するブロック図である。 実施形態3の入力装置を実現する計算機のハードウエア構成を例示する図である。 マーカの位置が変わっても部分画像の表示位置が変わらない様子を例示する図である。 カメラの撮像範囲が変化しても部分画像の表示位置が変わらない様子を例示する図である。 実施形態4に係る入力装置を例示するブロック図である。 ユーザによる入力操作を例示する図である。 センサタイミングを用いて検出対象時間の開始時点を決定する方法を例示する図である。 ぶれた状態のマーカが含まれる撮像画像を例示する図である。 マーカの動きによって定まる形状を入力として認識する様子を例示する図である。 ジェスチャ入力を例示する図である。 グラス及びウォッチを例示する図である。 ユーザが行う点検作業の概要を例示する図である。 ユーザの視界に含まれる操作選択メニューを例示する図である。 ユーザの視界に含まれるガイドを例示する図である。 ユーザが線を描く様子を例示している。 ユーザの視界に含まれる入力方法選択メニューを例示する図である。 数値入力ボタンが選択された後の様子を例示する図である。 メモボタンが選択された後の様子を例示する図である。 第2表示制御部を有する入力装置を例示するブロック図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
[実施形態1]
図1は、実施形態1に係る入力装置2000を例示するブロック図である。図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
入力装置2000は、位置算出部2020及び入力認識部2040を有する。位置算出部2020は、ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、そのマーカが含まれる撮像画像を用いて算出する。マーカは、ユーザの身体に取り付けられているか、又はユーザの身体の一部である。入力認識部2040は、算出されたマーカの位置に基づいて、撮像画像上の場所を指定する入力を認識する。この入力によって指定される場所は、マーカから離れた場所である。
図2は、入力装置2000の動作を概念的に説明するための図である。撮像画像22は、ユーザの周辺を撮像するカメラによって生成される撮像画像である。
この例では、入力装置2000を利用するユーザの身体にマーカが身につけられている。図2において、ユーザの左腕50には、時計型のデバイス10が身につけられている。そして、デバイス10は、タッチパネル14にマーカ画像16を表示している。このマーカ画像16が、マーカの役割を持つ。
ユーザは、入力装置2000を用いて、マーカから離れた位置にある一点や範囲などの場所を指定する入力操作を行う。図2(a)では、マーカ画像16の位置に基づいて、マーカ画像16から離れた撮像画像22上の点が指定されている。図2(b)では、マーカ画像16の位置に基づいて、マーカ画像16から離れた撮像画像22上の領域が指定されている。なお、この入力によって操作等がされる装置は、入力装置2000であってもよいし、入力装置2000以外であってもよい。
ここで、入力装置2000は、ユーザによる入力操作の認識に、ユーザに身につけられているセンサを利用する。図2の例では、デバイス10にセンサ12が内蔵されている。センサ12は、例えば振動センサである。例えばユーザが、入力操作を行うタイミングで左腕50をタップするようにする。そして位置算出部2020は、上記振動センサによって振動が検出されたタイミング又はこれに近いタイミングで生成された撮像画像22から、マーカの位置を算出する。そして、入力装置2000は、算出されたマーカの位置に基づいて、マーカから離れた撮像画像22上の或る場所を指定する入力を認識する。
入力装置2000は、上記タップなどがセンサによって検出されたことを把握することで、ユーザによる入力操作が行われたことを把握することができる。そのため、入力装置2000によれば、ユーザが入力操作を行ったのに入力操作が認識されなかったり、ユーザが入力操作を行っていないのに誤って入力操作が認識されてしまったりすることを防ぐことができ、ユーザが意図した入力操作を正しく認識することができる。
なお、図2を用いて説明した入力装置2000の動作は、以降で説明する入力装置2000の詳細の理解を容易にするための例示であり、入力装置2000の動作は上述の例に限定されるわけではない。入力装置2000の動作の詳細やバリエーションについては、以降の記載で説明する。
<入力装置2000のハードウエア構成の例>
入力装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、入力装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図3は、入力装置2000を実現する計算機1000の構成を例示する図である。計算機1000は、ヘッドマウントディスプレイ、タブレット端末、スマートフォン、Personal Computer(PC)、又はサーバマシンなど、種々の計算機である。計算機1000は、入力装置2000を実現するために設計された種々の計算機であってもよいし、汎用の計算機であってもよい。計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、及び入出力インタフェース1100を有する。バス1020は、プロセッサ1040、メモリ1060、及びストレージ1080が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などの演算処理装置である。メモリ1060は、RAM (Random Access Memory) や ROM (Read Only Memory) などのメモリである。ストレージ1080は、ハードディスク、SSD (Solid State Drive)、又はメモリカードなどの記憶装置である。また、ストレージ1080は、RAM や ROM などのメモリであってもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。図3では、入出力インタフェース1100に対してカメラ20が接続されている。カメラ20は、ユーザの周辺を撮像することができる任意のカメラである。カメラ20は、繰り返し撮像を行って、各撮像結果を表す撮像画像22を生成する。なお、カメラ20は、2D(two-dimensional)カメラであってもよいし、3D(three-dimensional)カメラであってもよい。
カメラ20が設けられる位置は任意である。例えばカメラ20は、ユーザが身につけている物に取り付けられる。ユーザが身につけている物とは、例えばヘッドマウントディスプレイや、首から提げている社員証などである。また例えば、カメラ20は、ユーザが入力装置2000に対する入力操作を行う部屋の壁等に設けられてもよい。後者の場合、カメラ20の撮影範囲(撮影方向やズーム率など)は、リモコンなどによる遠隔操作によって変更できることが好ましい。
図4は、ヘッドマウントディスプレイにカメラ20が設けられている様子を例示する図である。図4に示すヘッドマウントディスプレイ170は、透過型のディスプレイであるディスプレイ172を有する。ユーザは、ディスプレイ172を介して実世界の景色を見つつ、ディスプレイ172に表示される画像を見ることで、実世界上の景色に画像が重畳された様子を見ることができる。
図4において、カメラ20は、ディスプレイ172の近くに設けられている。これにより、カメラ20がユーザの視界方向と同じ又はこれに近い方向を撮像することで、カメラ20によって生成される撮像画像22に含まれる景色を、ユーザが見ている景色に近い景色にすることができる。
ただし、カメラ20の撮像方向は任意であり、ユーザの視界方向又はこれに近い方向に限定されない。また、カメラ20が設けられる位置は、ディスプレイ172の近くに限定されない。また、カメラ20が設けられるヘッドマウントディスプレイ170は、透過型のディスプレイを持つヘッドマウントディスプレイに限定されず、非透過型のディスプレイを持つヘッドマウントディスプレイでもよい。ヘッドマウントディスプレイの種類と入力装置2000の実装方法との関係については、必要に応じて後述する。
ストレージ1080は入力装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、そのプログラムモジュールに対応する各機能を実現する。ここでプロセッサ1040は、上記各モジュールを実行する際、これらのモジュールをメモリ1060上に読み出してから実行してもよいし、メモリ1060上に読み出さずに実行してもよい。
計算機1000のハードウエア構成は図4に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、計算機1000は、ストレージ1080を備えていなくてもよい。
<処理の流れ>
図5は、実施形態1の入力装置2000によって実行される処理の流れを例示するフローチャートである。位置算出部2020はセンサの検出結果を把握する(S102)。位置算出部2020は撮像画像22を取得する(S104)。位置算出部2020は、撮像画像22に含まれるマーカの位置を算出する(106)。入力認識部2040は、算出されたマーカの位置に基づいて、そのマーカから離れた撮像画像22上の場所を指定する入力を認識する(S108)。
<ユーザに身につけられるセンサについて>
ユーザに身に付けられるセンサは、ユーザによる入力操作のタイミングを把握するために利用できる任意のセンサであり、前述した振動センサに限定されない。例えばセンサは、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサなどでもよい。加速度センサや振動スイッチは、振動センサと同様に、例えばデバイス10の内部に設けられる。圧力センサや静電容量センサは、例えばデバイス10のタッチパネルに設けられる。また例えば、圧力センサや静電容量センサは、ユーザの腕や手などに貼られたり巻き付けられたりするシートなどに設けられてもよい。また例えば、圧力センサや静電容量センサは、ユーザの衣服(袖など)に設けられてもよい。
<位置算出部2020の詳細>
<<センサの検出結果を把握する方法>>
位置算出部2020は、入力装置2000のユーザの身体に取り付けられたセンサの検出結果を把握する(S102)。位置算出部2020がセンサの検出結果を把握する方法は様々である。以下、その方法を例示する。なお以下では、センサが図2で説明したセンサ12(振動センサ)である場合を例として説明する。
<<<無線通信の利用>>>
例えば位置算出部2020は、センサ12を内蔵するデバイス10と無線通信を行うことにより、センサ12の検出結果を示す情報を取得することで、センサ12の検出結果を把握する。例えば、デバイス10は、センサ12が所定の大きさ以上の振動を検出したタイミングで、位置算出部2020に対して所定の信号を送信する。この場合、位置算出部2020は、この所定の信号を受信することにより、「センサ12によって振動が検出された」というセンサ12の検出結果を取得することができる。
また例えば、デバイス10は、センサ12によって所定の大きさ以上の振動が検出された場合に、その振動が検出された時点を示す情報を位置算出部2020に送信しても良い。
<<<デバイス10の外観の変化の検出>>>
デバイス10は、センサ12による振動の検出に応じてデバイス10の外観を変化させてもよい。この場合、位置算出部2020は、カメラ20によって生成された画像を用いてこの所定の変化を検出することで、センサ12の検出結果(センサ12によって振動が検出されたこと)を把握する。
例えばデバイス10は、センサ12によって所定の大きさ以上の振動が検出されたときに、表示画面の表示を変更する。より具体的には、デバイス10は、センサ12によって所定の大きさ以上の振動が検出されたとき、デバイス10の表示画面に表示されている画像を変更するか、又は何も表示されていなかった表示画面に新たに画像を表示する。位置算出部2020は、カメラ20によって繰り返し生成される画像を解析することで、デバイス10の表示画面の表示が変更されたことを検出する。これにより、位置算出部2020は、デバイス10に内蔵されているセンサ12によって振動が検出されたことを把握する。図6は、ユーザによって左腕50がタップされた場合に、デバイス10の表示画面(タッチパネル14)に表示されているマーカ画像16が変更される様子を例示する図である。
また例えば、デバイス10は、センサ12によって振動が検出された場合に、デバイス10の表示画面のバックライトやデバイス10に設けられた LED(Light Emitting Diode)ライトなどのライトを点灯又は点滅させてもよい。位置算出部2020は、カメラ20によって繰り返し生成される画像を解析することで、これらのライトの点灯や点滅を検出する。これにより、位置算出部2020は、センサ12によって振動が検出されたことを把握する。
このように、センサ12による振動の検出に応じてデバイス10の外観を変化させることによって位置算出部2020がその振動の検出を把握すれば、デバイス10と入力装置2000との間で無線通信を行う必要がない。そのため、他に無線通信の必要性がない限り、デバイス10や入力装置2000は無線通信の機能を有さなくてよい。
位置算出部2020が振動センサ以外のセンサによる検出結果を把握する方法は、振動センサについて説明した上述の方法と同様である。例えばセンサが加速度センサや振動スイッチである場合、デバイス10や位置算出部2020は、これらのセンサが所定の大きさ以上の加速度や振動を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。また例えばセンサが圧力センサである場合、デバイス10や位置算出部2020は、圧力センサが所定の大きさ以上の圧力を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。また例えば、センサが静電容量センサである場合、デバイス10や位置算出部2020は、静電容量センサが所定の大きさ以上の静電容量の変位を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。
<<撮像画像22を取得する方法>>
位置算出部2020は撮像画像22を取得する(S104)。位置算出部2020が撮像画像22を取得する方法は様々である。例えば位置算出部2020は、カメラ20から撮像画像22を取得する。この場合、入力装置2000とカメラ20とは通信可能に接続されている。
また、カメラ20が外部の記憶装置に撮像画像22を記憶する場合、位置算出部2020は、この記憶装置から撮像画像22を取得する。この場合、位置算出部2020は、この記憶装置と通信可能に接続されている。
<<利用する撮像画像22を決定する方法>>
位置算出部2020は、撮像画像22に含まれるマーカの位置を算出する(S106)。マーカの位置の算出には、センサの検出結果に基づくタイミングにおけるマーカが含まれる撮像画像22が利用される。以下、「センサの検出結果に基づくタイミング」をセンサタイミングと表記する。
センサタイミングは、センサによって振動などが検出されたタイミング又はこれに近いタイミングである。例えばセンサ12によって振動などが検出された場合にデバイス10から位置算出部2020へ所定の信号が送信される場合、センサタイミングは、位置算出部2020がこの所定の信号を受信した時点である。また例えば、センサ12によって振動などが検出された時点を示す情報がデバイス10から位置算出部2020へ送信される場合、センサタイミングは、この情報によって示される時点である。また例えば、センサ12によって振動などが検出された場合にデバイス10の外観に所定の変化が加わる場合、センサタイミングは、位置算出部2020によってこの所定の変化が検出された時点である。
また、センサタイミングは、前述した各時点(デバイス10から前述した信号を受信した時点など)から所定時間前又は後の時点でもよい。この所定時間は、位置算出部2020に予め設定されていてもよいし、位置算出部2020からアクセス可能な記憶装置に記憶されていてもよい。
なお、センサタイミングを、デバイス10から前述した信号を受信した時点などから所定時間前の時点とする場合、デバイス10から前述した信号を受信した時点などから所定時間前にカメラ20によって生成された撮像画像22が必要となる。そのため、カメラ20は、センサ12によって振動などが検出される前から撮像を開始する。例えばカメラ20は、ユーザが入力装置2000の利用を開始してから終了するまでの間、継続して撮像を行う。また、カメラ20によって生成される撮像画像22は、所定期間継続して記憶装置などに記憶される。
一方、デバイス10から送信された信号を受信した時点など、又はそれらの時点から所定時間後をセンサタイミングとする場合、カメラ20は、センサ12によって振動などが検出されてから撮像を開始してもよい。この場合、例えばカメラ20は、デバイス10又は入力装置2000から、センサ12によって振動が検出された旨の信号を受信し、その信号を受信したタイミングで撮像を開始する。
なお、カメラ20は離散的な時間間隔(例えば 33 ミリ秒に1回)で撮像画像22を生成するため、厳密には、センサタイミングにおいて生成された撮像画像22が存在しない場合もある。この場合、位置算出部2020は、例えばセンサタイミングの直前又は直後に生成された撮像画像22を用いてマーカの位置を算出する。
<<マーカについて>>
マーカは、撮像画像22において少なくともその位置が特定できる任意のマーカである。例えばマーカは、3次元の座標系の決定に利用できるマーカである。3次元の座標系の決定に利用できるマーカは、例えば AR(Augmented Reality)マーカである。ただし、3次元の座標系の決定に利用できるマーカは、参照方向によらず、或る基準点からの相互に直交する3つの方向を一定に得ることができるものであればよく、AR マーカには限定されない。
マーカがユーザの身体に取り付けられるものである場合、マーカは、ユーザの身体の任意の箇所に取り付けることができる。例えばマーカは、ユーザの腕や手に取り付けられる。
例えばマーカは、ユーザの腕に取り付けられたデバイスの表示画面に表示される画像である。このデバイスは、表示画面上に画像を表示する機能を有する任意の電子機器である。なおこのデバイスは、ユーザの腕に直接取り付けられてもよいし、服の上からユーザの腕に取り付けられてもよい。
例えば図2では、マーカは、ユーザの手首に取り付けられる時計型のデバイス10のタッチパネル14に表示されているマーカ画像16である。マーカ画像16は、予めデバイス10に記憶されている画像であってもよいし、デバイス10の外部にある記憶装置に記憶されている画像であってもよい。後者の場合、デバイス10は、マーカ画像16を記憶装置から取得して表示する。
マーカは、上述のようにデバイスに表示されるものに限定されない。また、マーカは、ユーザの腕などに直接描画されていてもよいし、ユーザの腕などにある任意の物に描画されていてもよい。後者の場合、例えばマーカは、ユーザの指に取り付けられている指輪、ユーザの手首に取り付けられているリストバンド、又はユーザが着ている服の袖などに描画される。なお、マーカは、手で描画されてもよいし、印字されてもよい。
マーカがユーザの身体の一部である場合、マーカは、ユーザの身体の任意の部分とすることができる。例えばマーカは、ユーザの指や手首などである。
<マーカの位置の算出方法>
位置算出部2020は、取得した撮像画像22からマーカを検出し、そのマーカの位置を算出する。例えば、位置算出部2020は、マーカに関する形状、サイズ、色などについての情報を予め保持しており、このような既知の情報を用いて、取得された撮像画像22からマーカを検出し、その位置を算出する。ここで、画像内から所定の物を検出し、さらにその物の画像内における位置を算出する技術は既知の技術であるため、この技術の詳細については省略する。
<入力認識部2040の詳細>
入力認識部2040は、算出されたマーカの位置に基づいて、そのマーカから離れた撮像画像22上の場所を指定する入力を認識する(S108)。前述したように、入力によって指定される場所は、撮像画像22上の一点であってもよいし、撮像画像22上の領域であってもよい。
入力を一点と領域のどちらとして認識するかを定める方法は様々である。例えば、入力を一点と領域のどちらとして認識するかを、位置算出部2020に予め設定しておく。また例えば、入力を一点と領域のどちらとして認識するかを表す情報を、入力認識部2040からアクセス可能な記憶装置に予め記憶しておく。また例えば、入力認識部2040が入力を認識する前に、入力を一点と領域のどちらとして認識するかを選択する入力操作をユーザから受け付ける。この入力操作を受け付ける方法は任意である。例えばこの入力操作は、デバイス10のタッチパネル14を用いて行われる。
入力認識部2040が入力によって指定される場所を特定する方法について説明する。まず入力認識部2040は、算出されたマーカの位置に基づいて、入力として認識する撮像画像22上の場所を特定するための位置(以下、入力位置)を決定する。図7は、入力位置を例示する図である。入力を撮像画像22上の一点として認識する場合、入力認識部2040は、入力位置60を、入力された撮像画像22上の場所として認識する(図7(a))。入力を撮像画像22上の領域として認識する場合、入力認識部2040は、入力位置60で定まる領域62を、入力された撮像画像22上の場所として認識する(図7(b))。
入力位置60は、撮像画像22上のマーカの位置との関係で予め相対的に定められている。例えば入力位置とマーカの位置との関係は、撮像画像22の平面上における二次元の位置関係で定められている。
図8は、撮像画像22の平面上における入力位置60とマーカの位置との関係を例示する図である。図8の例において、入力位置60とマーカの位置との関係は、以下の数式(1)で定められている。(ax, ay)は、撮像画像22における入力位置60の座標である。(mx, my)は、撮像画像22におけるマーカの中心位置の座標である。(cx, cy)は、マーカの中心位置に対する入力位置60の相対位置である。
Figure 0006390799
また例えば入力位置60の位置は、マーカの位置に対する3次元空間上の相対位置として予め定められている。この3次元空間は、撮像画像22に含まれるマーカによって定まる3次元空間である。
図9は、3次元空間上における領域62とマーカとの位置との関係を例示する図である。図9において、入力認識部2040は、撮像画像22に含まれるマーカの形状から、座標軸140を割り出す。例えば入力認識部2040は、マーカの中心を原点とし、マーカによって定まる平面を XY 平面とし、その平面に直交する方向を Z 方向とする座標軸を座標軸140とする。
入力位置60とマーカの位置との関係は、座標軸140で定まる3次元空間上において、例えば以下の数式(2)で定められる。(ax, ay, az)は、座標軸140で定まる3次元空間上における入力位置60の座標である。(mx, my, my)は、座標軸140で定まる3次元空間上におけるマーカの中心位置の座標である。(cx, cy, cz)は、座標軸140で定まる3次元空間上における、マーカの中心位置に対する入力位置60の相対位置である。
Figure 0006390799
このように入力位置60とマーカの位置との関係が3次元空間上の関係で定まっている場合、例えばユーザは、図2においてデバイス10の姿勢を変える動作(左手の手首をひねる動作)などをすることにより、左腕50を大きく動かすことなく、入力位置60を変化させることができる。
<<入力位置60に対応する領域62について>>
領域62の位置は、入力位置60によって定まる。例えば入力認識部2040は、中心や1つの頂点の位置が入力位置60で定まる領域を領域62とする。
領域62の形状は矩形や円形など、任意の形状である。また、領域62の大きさも任意である。ここで、領域62の形状や大きさを定める方法は様々である。例えば領域62の形状や大きさは、入力認識部2040に予め設定されている。また例えば、領域62の形状や大きさは、入力認識部2040からアクセス可能な記憶装置に予め記憶されている。また例えば、入力装置2000は、領域62の形状や大きさを指定する入力をユーザから受け付けてもよい。この入力は、例えばデバイス10のタッチパネル14を用いて行われる。
[実施形態2]
図10は、実施形態2に係る入力装置2000を例示するブロック図である。図10において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。特に説明する場合を除き、実施形態2の入力装置2000は、実施形態1の入力装置2000と同様の機能を有する。
実施形態2の入力装置2000は、実施形態1で説明した方法により、撮像画像22上の領域62を指定する入力を認識する。さらに、実施形態2の入力装置2000は、撮像画像22から、領域62内の部分画像を抽出する。
図11は、実施形態2の入力装置2000の動作を例示する図である。図11において、ユーザは、デバイス10のタッチパネル14に表示されているマーカ画像16を利用して、領域62の入力を行う。そして、入力装置2000は、撮像画像22から領域62内の部分画像24を抽出する。
上記の動作を実現するために、実施形態2の入力装置2000は、抽出部2060をさらに有する。抽出部2060は、撮像画像22から、入力認識部2040によって認識された領域62に含まれる部分画像を抽出する。ここで、ある画像から所定範囲に含まれる部分を抽出する技術は既知の技術であるため、その技術についての詳細な説明は省略する。
領域62の認識に用いられる撮像画像22と、部分画像24が抽出される撮像画像22とは、同一のものであってもよいし、異なるものであってもよい。後者の場合、例えば抽出部2060は、入力認識部2040が入力操作を認識する処理を終えた時点における最新の撮像画像22から部分画像24を抽出する。
<ハードウエア構成例>
実施形態2の入力装置2000は、実施形態1の入力装置2000と同様に、計算機1000で実現される。実施形態2の計算機1000のストレージ1080は、上述した入力装置2000の各機能を実現するプログラムモジュールをさらに有する。
<作用・効果>
本実施形態の入力装置2000によれば、ユーザの身体に取り付けられたマーカを用いるという、ユーザにとって直感的な方法で、撮像画像から部分画像を抽出する領域を指定できる。よって、撮像画像からその一部を抽出したい場合に、ユーザが直感的に容易に抽出したい部分を指定できる。なお、撮像画像から部分画像を抽出することには、撮像画像の内の特に注目したい部分について、その部分の保存や表示を行ったり、その部分について画像解析を行ったりすることができるなど、様々な利点がある。
[実施形態3]
図12は、実施形態3に係る入力装置2000を例示するブロック図である。図12において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。実施形態3の入力装置2000は、特に説明する点を除き、実施形態2の入力装置2000と同様の機能を有する。
入力装置2000は、部分画像24を表示画面に表示する。ここで、入力装置2000は、ユーザの目から見て、撮像画像22に含まれる景色又はこれに近い景色に、抽出部2060によって抽出された部分画像24が重畳されて見えるように、部分画像24を表示画面に表示する。さらに入力装置2000は、抽出部2060から部分画像24が抽出された後は、撮像画像22に含まれる景色の変化とは独立して部分画像24が見えるように、部分画像24の表示を制御する。
そのために、実施形態3の入力装置2000は表示制御部2080を有する。表示制御部2080は、抽出部2060によって抽出された部分画像24を表示画面の所定位置に表示する。例えば表示制御部2080は、部分画像を表示画面の中心に表示する。また例えば、表示制御部2080は、抽出部2060によって抽出された際の位置に部分画像24がとどまるように、部分画像24を表示する。さらに表示制御部2080は、所定時間が経過するか、又はユーザによって所定の操作が行われるまで、表示画面上の上記所定位置に、部分画像24を表示し続ける。
上記所定時間は、表示制御部2080に予め設定されていてもよいし、表示制御部2080からアクセス可能な記憶装置に記憶されていてもよい。また、入力装置2000は、上記所定時間を指定する入力をユーザから受け付けてもよい。また、上記所定操作は任意の操作でよい。例えば上記所定操作は、デバイス10のタッチパネル14を用いて行われる。
表示制御部2080が制御する表示画面は様々である。例えば表示制御部2080は、部分画像24を、ヘッドマウントディスプレイ170の表示画面(図4のディスプレイ172)に表示させる。また例えば、表示制御部2080は、部分画像24を、プロジェクタによって撮像画像22が投影される壁などの投影面に表示させる。この場合、投影面が表示画面としての役割を持つ。その他にも、表示制御部2080は、部分画像24を、液晶ディスプレイなど、任意の表示画面に表示させる。
ここで、ヘッドマウントディスプレイ170には、ディスプレイ172が非透過型のディスプレイであるものと、透過型のディスプレイであるものがある。ディスプレイ172が非透過型のディスプレイである場合、ヘッドマウントディスプレイ170は、カメラ20によって生成される撮像画像22と、その他の物を表す画像とを重畳させてディスプレイ172に表示する。ユーザは、このディスプレイ172を見ることで、周囲の景色にその他の物が重畳された様子を見ることができる。本実施形態の表示制御部2080は、部分画像24を重畳させた撮像画像22をディスプレイ172に表示することで、周囲の景色に部分画像24が重畳された様子をユーザに見せる。
ディスプレイ172が透過型のディスプレイである場合、ユーザは、ディスプレイ172の先に見える実物体(実世界の景色)及びディスプレイ172に表示される画像の両方を見ることで、周囲の景色に画像が重畳された様子を見ることができる。本実施形態の表示制御部2080は、ディスプレイ172に部分画像24を表示することで、ユーザに部分画像24を見せる。さらに、ユーザが見る実世界の景色は、カメラ20によって撮像される景色又はこれに近い景色である。よって、ユーザは、撮像画像22に含まれる景色又はこれに近い景色に、部分画像24が重畳された様子を見ることができる。
表示画面がプロジェクタの投影面や液晶ディスプレイなど、その他の任意の表示画面である場合、表示制御部2080は、非透過型のディスプレイを持つヘッドマウントディスプレイ170の場合と同様に、撮像画像22に部分画像24を重畳させて表示画面に表示する。
部分画像24が抽出部2060によって抽出された際の位置(入力位置60)にとどまるように部分画像24を表示する場合において表示制御部2080が部分画像24の表示位置を決定する方法は、表示画面の種類によって異なる。非透過型のディスプレイを持つヘッドマウントディスプレイなど、撮像画像22が表示される表示画面を用いる場合、表示制御部2080は、部分画像24を抽出した際の入力位置60を記憶しておき、その後に表示画面に表示される各撮像画像22上の上記入力位置60に部分画像24を重畳して表示する。
一方、透過型のディスプレイを持つヘッドマウントディスプレイなど、撮像画像22が表示されない表示画面を用いる場合、表示制御部2080は、撮像画像22上の位置である、部分画像24が抽出された入力位置60を、表示画面上の位置に変換する。そして、表示制御部2080は、この変換によって算出された表示画面上の位置に、部分画像24を表示する。
なお、撮像画像22上の座標と表示画面上の座標との対応関係は、カメラ20に関する各種のパラメタ(画角や焦点距離)や、表示画面とカメラ20との位置関係などに基づいて定まる。この対応関係は、これらのパラメタなどを用いて表示制御部2080によって算出されてもよいし、設定値として予め定められていてもよい。
<ハードウエア構成例>
図13は、実施形態3の入力装置2000を実現する計算機1000のハードウエア構成を例示する図である。この計算機1000の構成は、実施形態1の入力装置2000を実現する計算機1000の構成と同様である。ただし、実施形態3の計算機1000が有するストレージ1080は、本実施形態の入力装置2000が有する各機能を実現するためのプログラムモジュールをさらに有する。
入出力インタフェース1100には、部分画像24が表示されるヘッドマウントディスプレイ170のディスプレイ172や、部分画像24を投影面に投影するプロジェクタ160などが接続される。
<作用・効果>
本実施形態の入力装置2000によれば、撮像画像22から抽出された部分画像24が、表示画面上の所定位置に固定して表示される。そのため、ユーザがマーカを動かしても(撮像画像22に含まれるマーカの位置が変化しても)、部分画像24が表示される表示画面上の位置が変わらない。図14は、マーカの位置が変わっても部分画像24の表示位置が変わらない様子を例示する図である。図14(a)はマーカを動かす前の様子を表し、図14(b)はマーカを動かした後の様子を表す。
このように、ユーザは、表示画面上の固定された位置に部分画像24が表示された状態で、マーカを移動させることができる。よって、例えばユーザは、部分画像24が固定された位置に表示された状態で、入力認識部2040に認識させる入力操作を新たに行うことができる。そのため、ユーザによる入力操作の自由度が向上する。
同様に、カメラ20の撮像範囲が変化しても部分画像24が表示される表示画面上の位置が変わらない。図15は、カメラ20の撮像範囲が変化しても部分画像24の表示位置が変わらない様子を例示する図である。図15(a)は部分画像24を抽出した時にカメラ20によって生成された撮像画像22を表し、図15(b)はその後に撮像範囲が変化したカメラ20によって生成された撮像画像22を表す。
このように、ユーザは、表示画面上の固定された位置に部分画像24が表示された状態で、カメラ20の撮像範囲を変化させることができる。例えばユーザがヘッドマウントディスプレイ170を利用している場合、ユーザは、部分画像24が固定された位置に表示された状態で、見る方向を変えることができる。よって、ユーザによる入力装置2000の利便性が向上する。
[実施形態4]
図16は、実施形態4に係る入力装置2000を例示するブロック図である。図16において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。特に説明する場合を除き、本実施形態の入力装置2000は、実施形態3の入力装置2000と同様の機能を有する。
実施形態4の入力装置2000は、撮像画像22に含まれるマーカの動きに基づいて、ユーザによる入力操作を認識する。図17は、ユーザによる入力操作を例示する図である。図17において、ユーザは、マーカを動かすことにより、部分画像24上に線70を描いている。線70は、部分画像24に含まれる様子のうち、特に注目すべき部分を強調するための線である。なお、ユーザが行う入力は、部分画像24に対する入力に限定されない。
上記機能を実現するために、入力装置2000は、動き検出部2100及び第2入力認識部2120をさらに有する。動き検出部2100は、撮像画像22に含まれるマーカの動きを検出する。ここで、検出されるマーカの動きは、入力装置2000のユーザの身体に取り付けられたセンサの検出結果に基づくタイミングを含む時間におけるマーカの動きである。第2入力認識部2120は、検出したマーカの動きに基づいて入力を認識する。この入力は、入力装置2000に対するものであってもよいし、それ以外の装置に対するものであってもよい。なお、上記センサは、位置算出部2020によって利用されるセンサであってもよいし、異なるセンサであってもよい。
<動き検出部2100の詳細>
動き検出部2100は、センサ12の検出結果を取得する。動き検出部2100がセンサ12の検出結果を把握する方法は、位置算出部2020がセンサの検出結果を把握する方法と同様である。
動き検出部2100は、センサ12の検出結果に基づいて定まる期間におけるマーカの動きを検出する。以下、この「センサ12の検出結果に基づいて定まる期間」を、検出対象期間と表記する。
動き検出部2100は、実施形態1で説明したセンサタイミングを1つ又は2つ用いて検出対象期間を定める。センサタイミングを1つ用いて検出対象期間を定める場合、動き検出部2100は、1つのセンサタイミングを用いて検出対象期間の開始時点及び終了時点の双方を定める。
センサタイミングを2つ用いて検出対象期間を定める場合、動き検出部2100は、2つのセンサタイミングのうち、より早いセンサタイミングを用いて検出対象期間の開始時点を決定し、より後のセンサタイミングを用いて検出対象期間の終了時間を決定する。
図18は、センサタイミングを用いて検出対象期間の開始時点を決定する方法を例示する図である。例えば動き検出部2100は、センサタイミングを検出対象期間の開始時点とする(図18(a))。また例えば、動き検出部2100は、センサタイミングから所定時間前の時点を、検出対象期間の開始時点とする(図18(b))。また例えば、動き検出部2100は、センサタイミングから所定時間後の時点を、検出対象期間の開始時点とする(図18(c))。
センサタイミングを用いて検出対象期間の終了時点を決定する方法は、センサタイミングを用いて検出対象期間の開始時点を決定する方法と同様である。
なお、上述した各所定時間を表す情報は、動き検出部2100に予め設定されていてもよいし、動き検出部2100からアクセス可能な記憶装置に記憶されていてもよい。また、検出対象期間の開始時点の決定に用いる所定時間と、検出対象期間の終了時点に用いる所定時間は、同じであってもよいし、異なっていてもよい。
動き検出部2100は、検出対象期間において生成された撮像画像22を用いてマーカの動きを検出する。検出対象期間において生成された撮像画像22が複数ある場合、例えば動き検出部2100は、それら複数の撮像画像22それぞれについてマーカ認識を行い、各撮像画像22に含まれるマーカの位置を算出する。そして動き検出部2100は、マーカの位置の変化を表す情報を、マーカの動きを表す情報とする。マーカの位置の変化を表す情報は、例えばマーカの位置を時系列で並べた情報である。
検出対象期間において生成された撮像画像22は1つであってもよい。マーカが動いている場合、ぶれた状態のマーカが1つの撮像画像22に含まれることが多い。そこで動き検出部2100は、ぶれた状態のマーカが含まれる1つの撮像画像22から、そのマーカの動きを算出する。
図19は、ぶれた状態のマーカが含まれる撮像画像22を例示する図である。撮像画像22では、マーカ画像16が、マーカ画像16−Aからマーカ画像16−Bへ移動するようにぶれている。動き検出部2100は、マーカ画像16−Aとマーカ画像16−Bに共通する特徴点(例えばマーカ画像16の四隅や中心)の位置の変化を、マーカの動きとして検出する。
<第2入力認識部2120の詳細>
第2入力認識部2120は、検出したマーカの動きに基づいて入力を認識する。第2入力認識部2120は、1)検出したマーカの動きに基づく形状を入力として認識としてもよいし、2)検出したマーカの動きに対応する所定の入力操作を入力として認識してもよい。
<<マーカの動きに基づく形状を入力として認識するケース>>
図20は、マーカの動き40によって定まる形状を入力として認識する様子を例示する図である。図20(a)では、第2入力認識部2120は、マーカの動き40−Aが表す形状41や、動き40−Bが表す形状42を入力として認識する。例えばこの入力は、ユーザが手書き入力を行う際に利用される。
図20(b)では、第2入力認識部2120は、マーカの動きとは異なる形状ではあるものの、マーカの動きによって形状及び大きさが定まる形状を入力として認識する。具体的には、第2入力認識部2120は、動き40−Cの両端を対角線の両端とする矩形44や、動き40−Cの両端を直径の両端とする円形46を入力として認識する。例えばこの入力は、ユーザが、ある範囲を表す入力(選択操作など)を行う際や、所定の図形の描画を行う際に用いられる。
図20(a)に示した方法と図20(b)で示した方法のどちらを用いるのかは、予め固定されていてもよいし、ユーザによって設定可能であってもよい。また、上記どちらの方法を用いるのかを示す情報は、第2入力認識部2120に予め設定されていてもよいし、第2入力認識部2120からアクセス可能な記憶装置に記憶されていてもよい。
<<マーカの動きに対応する所定の入力操作を認識するケース>>
検出したマーカの動きに対応する所定の入力操作は、いわゆるジェスチャ入力による入力操作である。図21は、ジェスチャ入力を例示する図である。図21(a)はフリック動作を表し、図21(b)は回転動作を表している。
マーカの動きと、その動きに対応する所定の入力操作とを関連付ける情報は、第2入力認識部2120に予め設定されていてもよいし、入力装置2000の内部又は外部の記憶装置に予め記憶されていてもよい。
<マーカの動作が行われた場所の取り扱いについて>
第2入力認識部2120は、1)マーカを動かす動作が行われた位置に関係なく、そのマーカの動きのみを入力として認識してもよいし、2)マーカの動きと、そのマーカを動かす動作が行われた位置との組み合わせを入力として認識してもよい。前者の場合、マーカを動かす動作が撮像画像22上のどの場所で行われても、同じマーカの動きは同じ入力を表す。一方後者の場合、マーカを動かす動作が撮像画像22上のどの場所で行われたかが意味を持つこととなる。
例えば、ユーザが、撮像画像22上に含まれるものや表示画面に表示されているもの(部分画像24など)に対して描画操作を行うとする。この場合、描画される形状だけでなく、その描画が何に対して行われたものであるかが意味を持つ。例えば、図17で示した入力操作は、部分画像24に含まれるパイプのサビ部分を囲むように線70を描く操作である。そのため、第2入力認識部2120は、線70の形状だけでなく、線70が描かれた場所も入力として認識する必要がある。
1)の場合、第2入力認識部2120は、前述したように、動き検出部2100によって検出されたマーカの動きで定まる形状や、マーカの動きで定まるジェスチャを、入力として認識する。
一方2)の場合、第2入力認識部2120は、動き検出部2100によって検出された撮像画像22上のマーカの座標の遷移に基づいて、入力として認識する。図17の場合、第2入力認識部2120は、撮像画像22上のマーカの座標の遷移を入力として認識する。よって、第2入力認識部2120は、線70の形状だけでなく、線70が描かれた位置も入力として認識する。
また2)の場合、第2入力認識部2120は、マーカの動作が行われた場所ではなく、その場所と離れた場所を、ユーザによって入力が行われた場所として認識してもよい。これは、入力認識部2040が、マーカの位置から離れた場所を入力として認識することと同様のことである。前述した図17では、マーカを動かすことで、マーカから離れた位置を対象として入力を行っている。
このようにマーカの動きに基づいて、マーカから離れた場所に対する入力を認識する場合、第2入力認識部2120は、動き検出部2100によって検出された撮像画像22上のマーカの座標の遷移を、所定の方法で、マーカから離れた場所における座標の遷移に変換する。
例えば第2入力認識部2120は、数式(1)を用いて説明したマーカの位置と入力位置60との関係を利用する。具体的には、第2入力認識部2120は、数式(1)を用いて、複数の撮像画像22上のマーカの位置をそれぞれ、入力位置60に変換する。そして、第2入力認識部2120は、算出された複数の入力位置60を時系列で並べた情報を、入力として認識する。
同様に、第2入力認識部2120は、数式(2)を用いて説明したマーカの位置と入力位置60との関係を利用し、複数の撮像画像22上のマーカの位置をそれぞれ、入力位置60に変換してもよい。
第2入力認識部2120が1)と2)のどちらの方法で入力を認識するのかは、予め第2入力認識部2120に設定されていてもよいし、第2入力認識部2120からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって選択可能であってもよい。
<入力認識部2040と第2入力認識部2120とを切り替える方法>
実施形態4の入力装置2000は、入力認識部2040と第2入力認識部2120のいずれかによってユーザの入力を認識する。入力装置2000が、入力認識部2040と第2入力認識部2120のどちらによってユーザの入力を認識するかを決定する方法は様々である。
例えば入力装置2000は、ユーザから、入力認識部2040と第2入力認識部2120のどちらによって入力を認識させるかを選択する操作を受け付ける。また例えば、入力装置2000は、抽出部2060によって抽出された部分画像24が表示制御部2080によって表示画面に表示されている間は、第2入力認識部2120によって入力を認識するようにしてもよい。こうすることで、ユーザが入力方法の選択操作を行うことなく、部分画像24に対して前述した線70の描画等を行えるようになる。
<作用・効果>
本実施形態によれば、ユーザは、マーカから離れた場所を指定する入力操作(入力認識部2040によって認識される入力操作)に加え、マーカの動きを用いた入力操作(第2入力認識部2120によって認識される入力操作)を行えるようになる。よって、ユーザによる入力操作のバリエーションが増え、入力装置2000の利便性が向上する。
[実施例]
以下、上述した入力装置2000を、より具体的な実施例に沿って説明する。なお、この実施例は入力装置2000の利用方法の一例であり、入力装置2000の利用方法を限定するものではない。
本実施例では、入力装置2000の運用には、グラス200とウォッチ210という2つのデバイスが用いられる。図22は、グラス200及びウォッチ210を例示する図である。
グラス200は、カメラ202が備えられたヘッドマウントディスプレイである。本実施例において、入力装置2000はグラス200に内蔵される。ユーザは、グラス200を眼鏡のように装着して利用する。
カメラ202はビデオカメラであり、上述した各実施形態におけるカメラ20に相当する。ディスプレイ204は、レンズの形状をした透過型のディスプレイである。グラス200は、ディスプレイ204に種々の情報を表示する。これにより、ユーザの目には、実世界の景色に種々の情報が重畳されて見える。
ウォッチ210は、振動センサ211を内蔵している。またウォッチ210は、タッチパネル212を有する。ウォッチ210、振動センサ211、タッチパネル212はそれぞれ、各実施形態1におけるデバイス10、センサ12、タッチパネル14に相当する。タッチパネル212は、マーカ画像216を表示する。
グラス200及びウォッチ210は、情報処理装置に対する入力インタフェースとして機能する入力システムを構成する。この入力システムの操作対象である情報処理装置は、グラス200又はウォッチ210であってもよいし、それ以外の計算機であってもよい。本実施例では、操作対象の情報処理装置をグラス200とする。
本実施例では、ユーザは、グラス200及びウォッチ210を用いて、機器の点検作業を行う。図23は、ユーザが行う点検作業の概要を例示する図である。ユーザは、チェックリストに従って各機器の状態を表すメータの読み取り作業を行ったり、機器の気になる箇所についてメモの記録や写真の撮影を行ったりする。
グラス200に対する入力操作は、3つに大別される。1つ目の入力操作は、カメラ202の撮像範囲に含まれるマーカ画像216から離れた場所を指定する入力である。この操作は、実施形態1から3で説明した入力である。グラス200がこの操作を受け付ける状態を、第1入力モードを呼ぶ。
2つ目の入力操作は、カメラ202の撮影範囲内で所定のオブジェクトを動かすことによって行う入力操作である。この操作は、実施形態4で説明した入力操作である。ただし、本実施例の入力装置2000は、マーカ画像216に限らず、ユーザの指など、各種のオブジェクトの動きを入力として認識する。グラス200がこの操作を受け付ける状態を、第2入力モードと呼ぶ。
3つ目の入力操作は、ディスプレイ204に表示される操作画像に対して操作を加えることで行う入力操作である。グラス200がこの操作を受け付ける状態を、第3入力モードと呼ぶ。なお、第3入力モードにおける操作の具体的な内容は後述する。
ユーザが点検作業を開始すると、グラス200は、ディスプレイ204上にチェックリストの1番目の項目と操作選択メニュー300を表示する。図24は、ユーザの視界に含まれる操作選択メニュー300を例示する図である。操作選択メニュー300は、入力ボタン302、撮影ボタン304、及び記録ボタン306という3つの操作画像を含んでいる。ここで、グラス200は、ユーザの目から見て、ウォッチ210が装着されている左腕50の付近にチェックリストの1番目の項目が見えるようにこの項目を表示する。また、グラス200は、ユーザの目から見て、ウォッチ210が装着されている左腕50上に操作選択メニューが見えるように、操作選択メニューを表示する。
ユーザは、操作画像を選択する操作を行う。具体的には、ユーザは、選択する操作画像をタップする動作を行う。すると、このタップの振動を検出したウォッチ210は、タッチパネル212に表示するマーカ画像を変更する。すると、グラス200は、タッチパネル212に表示されている画像が変化したことを検出し、これに伴って入力の認識を行う処理を行う。
操作選択メニュー300が表示されているときのグラス200の状態は、操作画像の選択を受け付ける第3入力モードである。そのため、グラス200は、タッチパネル212に表示されている画像が変化したことを検出したことに伴い、ユーザによってどの操作画像が選択されたかを判定する。具体的には、グラス200は、カメラ202によって撮影された撮像画像22からユーザの指の位置を検出し、その位置が、操作選択メニュー300に含まれる操作画像のどの位置に対応しているかを割り出す。
ユーザが操作選択メニュー300の中から撮影ボタン304を選択すると、グラス200は、ディスプレイ204に、撮像範囲を表すガイドを表示する。図25は、ユーザの視界に含まれるガイド80を例示する図である。ガイド80は、ユーザが入力装置2000に対して入力を行った場合に、表示制御部2080によって抽出される部分画像24(入力認識部2040によって認識される領域62)を表す。ガイド80を表示することにより、ユーザは、部分画像24の抽出を行う前に、どの部分が部分画像24として抽出されるのかを、視覚的に確認できる。
ユーザは、画像として保存したい場所にガイド80が表示されるように、デバイス10を動かす。その後、ユーザは、左腕50をタップすることで、入力装置2000に対して入力を行う。ここで、撮影ボタン304を押した後、入力装置2000の状態は、入力認識部2040が入力操作を受け付ける第2モードに遷移する。そこで、ユーザが左腕50をタップしたことにより、入力認識部2040が領域62を認識する。そして、表示制御部2080が、この領域62を用いて部分画像24を抽出する。
領域62によって抽出された部分画像24は、表示制御部2080により、ディスプレイ204の中心に表示される。ここで、部分画像24に含まれるパイプには、一部に錆があるそこでユーザは、マーカ画像216を動かすことにより、部分画像24上に70を描く。こうすることでユーザは、特に注目すべき点を強調した上で、部分画像24を保存することができる。図26は、ユーザが線70を描く様子を例示している。
ユーザが操作選択メニュー300の中から入力ボタン302を選択すると、入力方法選択メニュー310が表示される。入力方法選択メニュー310は、メータ読取ボタン312、数値入力ボタン314、及びメモボタン316という3つの操作画像を含む。
ユーザが操作選択メニュー300の中から入力ボタン302を選択すると、グラス200はディスプレイ204に入力方法選択メニュー310を表示する。図27は、ユーザの視界に含まれる入力方法選択メニュー310を例示する図である。入力方法選択メニュー310は、メータ読取ボタン312、数値入力ボタン314、及びメモボタン316という3つの操作画像を含む。
メータ読取ボタン312は、カメラ202によって撮像される撮像画像22からメータの値を自動で読み取る入力操作である。なお、ユーザがメータ読取ボタン312を選択すると、グラス200は第1入力モードに遷移する。そして、メータの値の自動読み取りが終了すると、グラス200は再度第2入力モードに遷移する。
数値入力ボタン314は、メータの値をユーザ自身が入力する入力操作である。図28は、数値入力ボタン314が選択された後の様子を例示する図である。グラス200は、左腕50にテンキー画像318が重畳して見えるように、ディスプレイ204にテンキー画像318を表示する。ユーザはテンキー画像318の各キーをタップすることで、メータの数値を入力する。
メモボタン316は、メモを入力するための入力操作である。図29は、メモボタン316が選択された後の様子を例示する図である。グラス200は、左腕50にキーボード画像320が重畳して見えるように、ディスプレイ204にキーボード画像320を表示する。ユーザはキーボード画像320の各キーをタップすることで、メモの入力を行う。
ユーザが操作選択メニュー300の中から記録ボタン306を選択すると、現在の点検項目に対する入力操作が終了し、次の点検項目に移る。ユーザは、上述した種々の入力操作を次の点検項目についても行う。このようにユーザは、各点検項目に対して入力操作を行う。
<ガイド80の表示方法>
実施例の入力装置2000は、ガイド80を表示するために、第2表示制御部2140を有する。図30は、第2表示制御部2140を有する入力装置2000を例示するブロック図である。
入力装置2000が第2表示制御部2140を有する場合、位置算出部2020は、センサによる振動などの検出の有無に関わらず、撮像画像22を時系列で取得して、各撮像画像22に含まれるマーカの位置をそれぞれ算出する。第2表示制御部2140は、これら時系列で並べられた各マーカの位置に対応してガイド80の表示を順に行う。
ガイド80の表示位置は、入力認識部2040によってマーカの位置から算出される入力位置60に相当する位置である。具体的には、第2表示制御部2140は、入力認識部2040がマーカの位置から入力位置60を算出する方法と同様の方法で、位置算出部2020によって算出された各マーカの位置からガイド80の表示位置を算出する。
撮像画像22が表示画面に表示される場合、第2表示制御部2140は、撮像画像22にガイド80が重畳されるように、撮像画像22上の上記表示位置にガイド80を表示する。一方、撮像画像22が表示画面に表示されない場合(ユーザが透過型のヘッドマウントディスプレイを利用している場合など)、第2表示制御部2140は、撮像画像22上の表示位置に相当する表示画面上の位置を算出し、その位置にガイドを表示する。
なお、撮像画像22上の座標と表示画面上の座標との対応関係は、前述したように、カメラ20に関する各種のパラメタ(画角や焦点距離)や、表示画面とカメラ20との位置関係などに基づいて定まる。この対応関係は、これらのパラメタなどを用いて第2表示制御部2140によって算出されてもよいし、設定値として予め定められていてもよい。
入力認識部2040が或る一点を入力として認識する場合、第2表示制御部2140は、入力位置60を表すガイド80を表示画面に表示する。入力位置60を表す表示は、例えば、入力位置60を中心位置とする点、十字点、バツ印、又は丸印などの任意の印である。
一方、入力認識部2040が或る領域を入力として認識する場合、第2表示制御部2140は、入力位置60に対応する領域62を表すガイド80を表示画面に表示する。領域62を表すガイド表示は、例えば領域62を表す枠線である。枠線は、実線、点線、一点鎖線などの任意の線とすることができる。また、領域62を表すガイド表示は、領域62の頂点のみを示してもよい。頂点は、点、十字点、バツ印、又は丸印などの任意の印で表すことができる。さらに領域62を表すガイド表示は、枠線及び頂点を表す印の双方であってもよい。
ガイド80の色は、任意の色とすることができる。
なお、本実施例では点検作業を対象にしているが、入力装置2000の応用範囲は点検作業に限られるものではない。例えば入力装置2000は、機器の組み立て作業、看護士などによる看護作業その他様々な作業の記録などに利用することができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、及び上記実施形態以外の様々な構成を採用することもできる。
以下、参考形態の例を付記する。
1. ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、
前記算出されたマーカの位置に基づいて、前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である、入力装置。
2. 前記入力認識手段は、前記算出されたマーカの位置から離れた位置にある領域を入力として認識し、
前記撮像画像から、前記領域に含まれる部分画像を抽出する抽出手段を有する、1.に記載の入力装置。
3. 前記部分画像を表示画面の所定位置に表示する表示制御手段を有する、2.に記載の入力装置。
4. 前記表示制御手段は、前記撮像画像から抽出された前記部分画像を、他の撮像画像に重畳させて前記表示画面に表示する、3.に記載の入力装置。
5. 前記表示画面は、ヘッドマウントディスプレイの表示画面又はプロジェクタの投影面である、3.又は4.に記載の入力装置。
6. 前記表示制御手段は、前記指定される場所を表す表示を前記表示画面に表示する、3.乃至5.いずれか一つに記載の入力装置。
7. 前記ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングを含む時間における前記マーカの動きを検出する動き検出手段と、
前記検出したマーカの動きを入力操作として認識する第2入力認識手段と、を有する1.乃至6.いずれか一つに記載の入力装置。
8. コンピュータによって実行される入力方法であって、
ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、
前記算出されたマーカの位置に基づいて、前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である、入力方法。
9. 前記入力認識ステップにおいて、前記算出されたマーカの位置から離れた位置にある領域を入力として認識し、
前記撮像画像から、前記領域に含まれる部分画像を抽出する抽出ステップを有する、8.に記載の入力方法。
10. 前記部分画像を表示画面の所定位置に表示する表示制御ステップを有する、9.に記載の入力方法。
11. 前記表示制御ステップにおいて、前記撮像画像から抽出された前記部分画像を、他の撮像画像に重畳させて前記表示画面に表示する、10.に記載の入力方法。
12. 前記表示画面は、ヘッドマウントディスプレイの表示画面又はプロジェクタの投影面である、10.又は11.に記載の入力方法。
13. 前記表示制御ステップにおいて、前記指定される場所を表す表示を前記表示画面に表示する、10.乃至12.いずれか一つに記載の入力方法。
14. 前記ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングを含む時間における前記マーカの動きを検出する動き検出ステップと、
前記検出したマーカの動きを入力操作として認識する第2入力認識ステップと、を有する8.乃至13.いずれか一つに記載の入力方法。
15. 8.乃至14.いずれか一つに記載の入力方法に係る各ステップをコンピュータに実行させるプログラム。
この出願は、2015年9月28日に出願された日本出願特願2015−190239号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (18)

  1. ユーザの身体に取り付けられた装着物に設けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、
    前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有し、
    前記指定される場所は、前記マーカから離れた場所であり、
    前記マーカは、前記装着物に描画又は字されたものである、入力装置。
  2. ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、
    前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有し、
    前記指定される場所は、前記マーカから離れた場所であり、
    前記マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である、入力装置。
  3. 前記入力認識手段は、前記算出されたマーカの位置から離れた位置にある領域を入力として認識し、
    前記撮像画像から、前記領域に含まれる部分画像を抽出する抽出手段を有する、請求項1又は2に記載の入力装置。
  4. ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、
    前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を指定する入力を認識する入力認識手段と、
    前記指定された領域に含まれる部分画像を前記撮像画像から抽出する抽出手段と、を有し、
    前記指定される場所は、前記マーカから離れた場所であり、
    前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である、入力装置。
  5. 前記抽出手段によって前記部分画像が抽出されたことに応じ、前記ユーザの操作を介することなく前記部分画像を表示画面の所定位置に表示する表示制御手段を有する、請求項3又は4に記載の入力装置。
  6. 前記部分画像が表示される前記表示画面の前記所定位置は、前記部分画像が前記抽出手段によって抽出されたタイミングにおける前記表示画面上の前記部分画像の位置である、請求項5に記載の入力装置。
  7. 前記表示制御手段は、前記撮像画像から抽出された前記部分画像を、他の撮像画像に重畳させて前記表示画面に表示する、請求項5又は6に記載の入力装置。
  8. 前記表示画面は、ヘッドマウントディスプレイの表示画面又はプロジェクタの投影面である、請求項5乃至7いずれか一項に記載の入力装置。
  9. 前記表示制御手段は、前記指定される場所を表す表示を前記表示画面に表示する、請求項5乃至8いずれか一項に記載の入力装置。
  10. 前記入力認識手段は、前記算出されたマーカの位置を基準とする所定の大きさ又は所定の形状の領域を指定する入力を認識する、請求項3乃至9いずれか一項に記載の入力装置。
  11. 前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を表すガイドを表示し、
    前記入力認識手段は、前記ガイドで表される領域を指定する入力を受け付ける、請求項3乃至10いずれか一項に記載の入力装置。
  12. 前記センサは、前記ユーザの身体が触れられたことを検知する振動センサ、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサである、請求項1乃至11いずれか一項に記載の入力装置。
  13. 前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
    前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
    前記位置算出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、請求項1乃至12いずれか一項に記載の入力装置。
  14. 前記ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングを含む時間における前記マーカの動きを検出する動き検出手段と、
    前記検出したマーカの動きを入力操作として認識する第2入力認識手段と、を有する請求項1乃至13いずれか一項に記載の入力装置。
  15. コンピュータによって実行される入力方法であって、
    ユーザの身体に取り付けられた装着物に設けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、
    前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有し、
    前記指定される場所は、前記マーカから離れた場所であり、
    前記マーカは、前記装着物に描画又は印字されたものである、入力方法。
  16. コンピュータによって実行される入力方法であって、
    ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、
    前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有し、
    前記指定される場所は、前記マーカから離れた場所であり、
    前記マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である、入力方法。
  17. コンピュータによって実行される入力方法であって、
    ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、
    前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を指定する入力を認識する入力認識ステップと、
    前記指定された領域に含まれる部分画像を前記撮像画像から抽出する抽出ステップと、を有し、
    前記指定される場所は、前記マーカから離れた場所であり、
    前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である、入力方法。
  18. 請求項15乃至17いずれか一項に記載の入力方法に係る各ステップをコンピュータに実行させるプログラム。
JP2017543168A 2015-09-28 2016-09-20 入力装置、入力方法、及びプログラム Active JP6390799B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015190239 2015-09-28
JP2015190239 2015-09-28
PCT/JP2016/077730 WO2017057107A1 (ja) 2015-09-28 2016-09-20 入力装置、入力方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017057107A1 JPWO2017057107A1 (ja) 2018-06-14
JP6390799B2 true JP6390799B2 (ja) 2018-09-19

Family

ID=58427555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017543168A Active JP6390799B2 (ja) 2015-09-28 2016-09-20 入力装置、入力方法、及びプログラム

Country Status (4)

Country Link
US (1) US10234955B2 (ja)
JP (1) JP6390799B2 (ja)
CN (1) CN108027654B (ja)
WO (1) WO2017057107A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6390799B2 (ja) * 2015-09-28 2018-09-19 日本電気株式会社 入力装置、入力方法、及びプログラム
CN108027655A (zh) * 2016-02-25 2018-05-11 日本电气株式会社 信息处理系统、信息处理设备、控制方法和程序
US11487353B2 (en) * 2016-11-14 2022-11-01 Logitech Europe S.A. Systems and methods for configuring a hub-centric virtual/augmented reality environment
US10545578B2 (en) * 2017-12-22 2020-01-28 International Business Machines Corporation Recommending activity sensor usage by image processing
US10546426B2 (en) * 2018-01-05 2020-01-28 Microsoft Technology Licensing, Llc Real-world portals for virtual reality displays
US10839603B2 (en) 2018-04-30 2020-11-17 Microsoft Technology Licensing, Llc Creating interactive zones in virtual environments
JP7166813B2 (ja) * 2018-07-06 2022-11-08 株式会社コロプラ 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
NL2022598B1 (en) * 2019-02-19 2020-08-31 Easee Health B V A method of performing an eye examination test for examining eyes of a user as well as a corresponding computing device.
WO2023067836A1 (ja) * 2021-10-18 2023-04-27 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム
JP7330323B2 (ja) * 2021-10-18 2023-08-21 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799099A (en) * 1993-02-12 1998-08-25 George S. Allen Automatic technique for localizing externally attached fiducial markers in volume images of the head
SE507680C2 (sv) * 1997-01-13 1998-07-06 Qualisys Ab Metod och anordning för att bestämma positionen av ett objekt
JP2000102036A (ja) 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8269842B2 (en) * 2008-06-11 2012-09-18 Nokia Corporation Camera gestures for user interface control
JP2011257943A (ja) 2010-06-08 2011-12-22 Canon Inc ジェスチャ操作入力装置
CN102402680B (zh) * 2010-09-13 2014-07-30 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
EP2620849B1 (en) * 2010-09-22 2019-08-28 Shimane Prefectural Government Operation input apparatus, operation input method, and program
KR20140066258A (ko) 2011-09-26 2014-05-30 마이크로소프트 코포레이션 투시 근안 디스플레이에 대한 센서 입력에 기초한 비디오 디스플레이 수정
JP2013114467A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
CN103135756B (zh) * 2011-12-02 2016-05-11 深圳泰山体育科技股份有限公司 生成控制指令的方法和系统
JP2013190941A (ja) 2012-03-13 2013-09-26 Nikon Corp 情報入出力装置、及び頭部装着表示装置
JP2013200793A (ja) * 2012-03-26 2013-10-03 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP5962547B2 (ja) * 2013-03-08 2016-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10025486B2 (en) * 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
ITTO20130541A1 (it) * 2013-06-28 2014-12-29 St Microelectronics Srl Dispositivo a semiconduttore integrante un partitore resistivo e procedimento di fabbricazione di un dispositivo a semiconduttore
US20150186708A1 (en) * 2013-12-31 2015-07-02 Sagi Katz Biometric identification system
CN104199602B (zh) * 2014-08-26 2018-11-09 联想(北京)有限公司 一种信息处理方法及电子设备
CN108027656B (zh) * 2015-09-28 2021-07-06 日本电气株式会社 输入设备、输入方法和程序
JP6390799B2 (ja) * 2015-09-28 2018-09-19 日本電気株式会社 入力装置、入力方法、及びプログラム
WO2017138545A1 (ja) * 2016-02-08 2017-08-17 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JP6256497B2 (ja) * 2016-03-04 2018-01-10 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
CN108027654A (zh) 2018-05-11
WO2017057107A1 (ja) 2017-04-06
CN108027654B (zh) 2021-01-12
JPWO2017057107A1 (ja) 2018-06-14
US10234955B2 (en) 2019-03-19
US20180260032A1 (en) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
JP6288372B2 (ja) インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP5900393B2 (ja) 情報処理装置、操作制御方法及びプログラム
EP2956843B1 (en) Human-body-gesture-based region and volume selection for hmd
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
JP6350772B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
US20140240225A1 (en) Method for touchless control of a device
KR101343748B1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
US10713488B2 (en) Inspection spot output apparatus, control method, and storage medium
JP6341343B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2012238293A (ja) 入力装置
JPWO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under section 34 (pct)

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20180322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180322

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R150 Certificate of patent or registration of utility model

Ref document number: 6390799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150