JP6344530B2 - 入力装置、入力方法、及びプログラム - Google Patents

入力装置、入力方法、及びプログラム Download PDF

Info

Publication number
JP6344530B2
JP6344530B2 JP2017543167A JP2017543167A JP6344530B2 JP 6344530 B2 JP6344530 B2 JP 6344530B2 JP 2017543167 A JP2017543167 A JP 2017543167A JP 2017543167 A JP2017543167 A JP 2017543167A JP 6344530 B2 JP6344530 B2 JP 6344530B2
Authority
JP
Japan
Prior art keywords
input
sensor
captured image
user
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017543167A
Other languages
English (en)
Other versions
JPWO2017057106A1 (ja
Inventor
真 則枝
真 則枝
誠 吉本
誠 吉本
才田 好則
好則 才田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Application granted granted Critical
Publication of JP6344530B2 publication Critical patent/JP6344530B2/ja
Publication of JPWO2017057106A1 publication Critical patent/JPWO2017057106A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、入力装置、入力方法、及びプログラムに関する。
ジェスチャ入力等、ユーザが空間上で行った動作をカメラで撮像し、生成された撮像画像を解析することで、情報処理装置に対するユーザの入力操作を認識する技術が開発されている。特許文献1は、ユーザの手のひらのジェスチャ(例えば手のひらを開くジェスチャ)に応じて、その手のひらにメニュー画面を表示したり、そのメニュー画面を切り替えたりする技術を開示している。
特許文献2は、ヘッドマウントディスプレイに表示される仮想キーボードを用いて入力を行う技術を開示している。また、特許文献2は、上記仮想キーボードを実空間上の物に固定することで、ヘッドマウントディスプレイの装着者が頭部を動かしても上記仮想キーボードの位置が変化しないようにする技術を開示している。
米国特許出願公開第2015/0016777号明細書 特表2015−504616号公報
撮像画像に含まれるユーザの手などの動きを解析する場合、ユーザが入力操作のために手などを動かしているのか、別の目的で手などを動かしているのかを区別することが難しい。そのため、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりする可能性がある。
本発明は、上記課題に鑑みてなされたものである。本発明の目的は、撮像画像からユーザの入力操作を認識する際の認識精度を向上する技術を提供することである。
本発明の第1の入力装置は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記動き検出手段は、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第2の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記センサは、前記ユーザに取り付けられたデバイスに設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
本発明の第3の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記動き検出手段は、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第4の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記センサは、前記ユーザに取り付けられたデバイスに設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
本発明の第1の入力方法は、コンピュータによって実行される入力方法である。
当該入力方法は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、を有する。
前記動き検出ステップにおいて、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第2の入力方法は、コンピュータによって実行される入力方法である。
当該入力方法は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記センサは、前記ユーザに取り付けられたデバイスに設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出ステップにおいて、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
本発明の第3の入力方法は、コンピュータによって実行される入力方法である。
当該入力方法は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記動き検出ステップにおいて、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第4の入力方法は、コンピュータによって実行される入力方法である。
当該入力方法は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記センサは、前記ユーザに取り付けられたデバイスに設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出ステップにおいて、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
本発明の第1のシステムは、センサ、カメラ、及び入力装置を有する。
前記入力装置は、1)前記センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記センサはユーザの身体に取り付けられる。
前記撮像画像は前記カメラによって生成される。
前記カメラと前記センサは互いに別体として設けられる。
前記動き検出手段は、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第2のシステムは、センサ、カメラ、及び入力装置を有する。
前記入力装置は、1)前記センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記センサはユーザの身体に取り付けられる。
前記撮像画像は前記カメラによって生成される。
前記カメラと前記センサは互いに別体として設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
本発明によれば、撮像画像からユーザの入力操作を認識する際の認識精度を向上する技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1に係る入力装置を例示するブロック図である。 入力装置の動作を概念的に説明するための図である。 入力装置を実現する計算機の構成を例示する図である。 実施形態1の入力装置によって実行される処理の流れを例示するフローチャートである。 ユーザによって左腕がタップされた場合に、デバイスの表示画面に表示されている画像が変更される様子を例示する図である。 センサタイミングを用いて検出対象期間の開始時点を決定する方法を例示する図である。 ぶれた状態のユーザの指が含まれる撮像画像を例示する図である。 オブジェクトの動きによって定まる形状を入力として認識する様子を例示する図である。 オブジェクトの動きを形状に変換する様子を例示する図である。 ジェスチャ入力を例示する図である。 実施形態2に係る入力装置を例示するブロック図である。 実施形態2の入力装置の動作を概念的に説明する図である。 実施形態2の入力装置によって実行される処理の流れを例示するフローチャートである。 表示制御部が第1領域の形状を補正して第2領域を生成する様子を例示する図である。 第2領域が撮像画像に重畳されて表示画面に表示される様子を例示する図である。 ヘッドマウントディスプレイの表示画面に表示された第2領域を例示する図である。 実施形態2の入力装置を実現する計算機のハードウエア構成を例示する図である。 グラス及びウォッチを例示する図である。 ユーザが行う点検作業の概要を例示する図である。 ユーザの視界に含まれる操作選択メニューを例示する図である。 ユーザの視界に含まれる入力方法選択メニューを例示する図である。 数値入力ボタンが選択された後の様子を例示する図である。 メモボタンが選択された後の様子を例示する図である。 ユーザが撮像画像上に含まれるものに対して描画を行う様子を例示する図である。 撮像画像の平面上における入力位置とオブジェクトの位置との関係を例示する図である。 3次元空間上における入力位置とオブジェクトとの位置との関係を例示する図である。 ユーザによる入力によって定まる位置に第2領域が表示される様子を例示する図である。 マーカに基づいて検出領域を定める方法を例示する第1の図である。 マーカに基づいて検出領域を定める方法を例示する第2の図である。 マーカに基づいて検出領域を定める方法を例示する第3の図である。 表示制御部が第1領域の形状を補正して第2領域を生成する様子を例示する第2の図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
[実施形態1]
図1は、実施形態1に係る入力装置2000を例示するブロック図である。図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
入力装置2000は、動き検出部2020及び入力認識部2040を有する。動き検出部2020は、オブジェクトが含まれる撮像画像を用いて、オブジェクトの動きを検出する。ここで、検出されるオブジェクトの動きは、入力装置2000のユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きである。入力認識部2040は、検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する。この入力によって操作などがされる情報処理装置(入力対象の情報処理装置)は、入力装置2000であってもよいし、それ以外の装置であってもよい。
図2は、入力装置2000の動作を概念的に説明するための図である。ユーザは、指30を動かすことで、情報処理装置へ入力を行う。指30の動きは、カメラ20によって撮像される。その結果、カメラ20は、指30が含まれる撮像画像を生成する。入力装置2000は、カメラ20によって生成された撮像画像に含まれる指30から、指30の動きを検出する。入力装置2000は、検出した指30の動きに基づいて、ユーザによる入力を認識する。
入力装置2000は、ユーザによる入力操作の認識に、ユーザに身につけられているセンサを利用する。図2では、ユーザの左腕50に身につけられているデバイス10にセンサ12が内蔵されている。センサ12は、例えば振動センサである。例えばユーザが入力操作を開始するタイミングで左腕50をタップするようにすれば、入力装置2000は、センサによってそのタップが検出されたタイミングに基づいて、そのタイミングを含むユーザの動作が入力操作であることを知ることができる。よって、入力装置2000は、そのタイミングを含む期間における指30の動きを検出することで、ユーザが意図した入力操作を正しく認識することができる。
ただし、図2を用いて説明した入力装置2000の動作は、入力装置2000の理解を容易にするための例示であり、入力装置2000の動作は上述の例に限定されるわけではない。入力装置2000の動作の詳細やバリエーションについては、以降の記載で説明する。
<作用・効果>
撮像画像に含まれるオブジェクトの動きのみを利用してユーザの入力操作を認識しようとすると、ユーザが入力操作のためにオブジェクトを動かしているのか、別の目的でオブジェクトを動かしているのかを区別することが難しい。そのため、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりする可能性がある。
そこで本実施形態の入力装置2000は、ユーザに身につけられているセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを解析することで、入力操作を認識する。この期間におけるオブジェクトの動きは、ユーザの入力操作を表す動きである蓋然性が高い。そのため、ユーザが意図して行った入力操作が正しく認識されるようになり、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりすることを防ぐことができる。
<入力装置2000のハードウエア構成の例>
入力装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、入力装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
計算機1000は、ヘッドマウントディスプレイ、タブレット端末、スマートフォン、Personal Computer(PC)、又はサーバマシンなど、種々の計算機である。計算機1000は、入力装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
図3は、入力装置2000を実現する計算機1000の構成を例示する図である。計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、及び入出力インタフェース1100を有する。バス1020は、プロセッサ1040、メモリ1060、及びストレージ1080が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などの演算処理装置である。メモリ1060は、RAM (Random Access Memory) や ROM (Read Only Memory) などのメモリである。ストレージ1080は、ハードディスク、SSD (Solid State Drive)、又はメモリカードなどの記憶装置である。また、ストレージ1080は、RAM や ROM などのメモリであってもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。カメラ20が接続されている。カメラ20は、繰り返し撮像を行って、各撮像結果を表す撮像画像を生成する任意のカメラである。なお、カメラ20は、2D(two-dimensional)カメラであってもよいし、3D(three-dimensional)カメラであってもよい。
カメラ20が設けられる位置は任意である。例えばカメラ20は、ユーザが身につけている物に取り付けられる。ユーザが身につけている物とは、例えばヘッドマウントディスプレイや、首から提げている社員証などである。また例えば、カメラ20は、ユーザが入力装置2000に対する入力操作を行う部屋の壁等に設けられてもよい。後者の場合、カメラ20の撮影範囲(撮影方向やズーム率など)は、リモコンなどによる遠隔操作によって変更できることが好ましい。
ストレージ1080は入力装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、そのプログラムモジュールに対応する各機能を実現する。ここでプロセッサ1040は、上記各モジュールを実行する際、これらのモジュールをメモリ1060上に読み出してから実行してもよいし、メモリ1060上に読み出さずに実行してもよい。
計算機1000のハードウエア構成は図3に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、計算機1000は、ストレージ1080を備えていなくてもよい。
<処理の流れ>
図4は、実施形態1の入力装置2000によって実行される処理の流れを例示するフローチャートである。動き検出部2020は、入力装置2000のユーザの身体に取り付けられたセンサ12の検出結果を把握する(S102)。動き検出部2020は撮像画像を取得する(S104)。動き検出部2020は、取得した撮像画像を用いて、センサ12の検出結果に基づいて定まる期間におけるオブジェクトの動きを検出する(S106)。入力認識部2040は、検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する(S108)。
<ユーザに身につけられるセンサについて>
ユーザに身に付けられるセンサは、ユーザによる入力操作のタイミングを把握するために利用できる任意のセンサであり、前述した振動センサに限定されない。例えばセンサは、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサなどでもよい。加速度センサや振動スイッチは、振動センサと同様に、例えばデバイス10の内部に設けられる。圧力センサや静電容量センサは、例えばデバイス10のタッチパネルに設けられる。また例えば、圧力センサや静電容量センサは、ユーザの腕や手などに貼られたり巻き付けられたりするシートなどに設けられてもよい。また例えば、圧力センサや静電容量センサは、ユーザの衣服(袖など)に設けられてもよい。
<センサの検出結果を把握する方法>
動き検出部2020は、入力装置2000のユーザの身体に取り付けられたセンサの検出結果を把握する(S102)。動き検出部2020がセンサの検出結果を把握する方法は様々である。以下、その方法を例示する。
<<無線通信の利用>>
例えば動き検出部2020は、センサを内蔵するデバイス10と無線通信を行うことにより、センサの検出結果を示す情報を取得することで、センサ12の検出結果を把握する。例えば、デバイス10は、センサが所定の大きさ以上の振動を検出したタイミングで、動き検出部2020に対して所定の信号を送信する。この場合、動き検出部2020は、この所定の信号を受信することにより、「センサによって振動が検出された」というセンサの検出結果を取得することができる。
また例えば、デバイス10は、センサ12によって所定の大きさ以上の振動が検出された場合に、その振動が検出された時点を示す情報を動き検出部2020に送信しても良い。
<<デバイス10の外観の変化の検出>>
デバイス10は、センサ12による振動の検出に応じてデバイス10の外観を変化させてもよい。この場合、カメラ20を用いてデバイス10を撮像する。動き検出部2020は、デバイス10が含まれる画像を用いてデバイス10の外観の変化を検出することで、センサの検出結果(センサによって振動が検出されたこと)を把握する。
例えばデバイス10が表示画面を有する場合、デバイス10は、センサによって所定の大きさ以上の振動が検出されたときに、表示画面の表示を変更する。より具体的には、デバイス10は、センサによって所定の大きさ以上の振動が検出されたとき、デバイス10の表示画面に表示されている画像を変更するか、又は何も表示されていなかった表示画面に新たに画像を表示する。動き検出部2020は、カメラ20によって繰り返し生成される画像を解析することで、デバイス10の表示画面の表示が変更されたことを検出する。これにより、動き検出部2020は、センサによって振動が検出されたことを把握する。図5は、ユーザによって左腕50がタップされた場合に、デバイス10の表示画面に表示されている画像が変更される様子を例示する図である。
また例えば、デバイス10は、センサ12によって振動が検出された場合に、デバイス10の表示画面のバックライトやデバイス10に設けられた LED(Light Emitting Diode)ライトなどのライトを点灯又は点滅させてもよい。動き検出部2020は、カメラ20によって繰り返し生成される画像を解析することで、これらのライトの点灯や点滅を検出する。これにより、動き検出部2020は、センサ12によって振動が検出されたことを把握する。
このように、センサ12による振動の検出に応じてデバイス10の外観を変化させることによって動き検出部2020がその振動の検出を把握すれば、デバイス10と入力装置2000との間で無線通信を行う必要がない。そのため、他に無線通信の必要性がない限り、デバイス10や入力装置2000は無線通信の機能を有さなくてよい。
動き検出部2020が振動センサ以外のセンサによる検出結果を把握する方法は、振動センサについて説明した上述の方法と同様である。例えばセンサが加速度センサや振動スイッチである場合、デバイス10や動き算出部2020は、これらのセンサが所定の大きさ以上の加速度や振動を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。また例えばセンサが圧力センサである場合、デバイス10や動き検出部2020は、圧力センサが所定の大きさ以上の圧力を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。また例えば、センサが静電容量センサである場合、デバイス10や動き検出部2020は、静電容量センサが所定の大きさ以上の静電容量の変位を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。
<撮像画像を取得する方法>
動き検出部2020は撮像画像を取得する(S104)。動き検出部2020が撮像画像を取得する方法は様々である。例えば動き検出部2020は、カメラ20から撮像画像を取得する。この場合、入力装置2000とカメラ20とは通信可能に接続されている。
また、カメラ20が外部の記憶装置に撮像画像を記憶する場合、動き検出部2020は、この記憶装置から撮像画像を取得する。この場合、動き検出部2020は、この記憶装置と通信可能に接続されている。
<オブジェクトの動きを検出する方法>
動き検出部2020は、取得した撮像画像を用いて、センサ12の検出結果に基づいて定まる期間におけるオブジェクトの動きを検出する(S106)。以下、1)何をオブジェクトとして扱うか、2)どの期間におけるオブジェクトの動きを検出するか、及び3)撮像画像からどのようにオブジェクトの動きを検出するかについて、それぞれ説明する。
<<何をオブジェクトとして扱うか>>
動き検出部2020は、所定の物をオブジェクトとして扱う。例えば所定の物は、ユーザの指やペンなどである。この場合、ユーザは、カメラ20の撮像範囲内で指やペンなどを動かすことにより、入力操作を行う。
また例えば、所定の物は、物に付されたマークであってもよい。例えばこのマークは、ユーザの身体(指など)に付される。また例えば、このマークは、ユーザが保持する物(ペンなど)に付される。また例えば、このマークは、ユーザが身につける物に付される。ユーザに身につけられる物は、例えば前述したセンサが内蔵されているデバイス10である。ユーザは、カメラ20の撮像範囲内で、マークが付された指、ペン、又はデバイス10などを動かすことにより、入力操作を行う。
動き検出部2020が何をオブジェクトとして扱うかを示す情報は、動き検出部2020に予め設定されていてもよいし、入力装置2000の内部又は外部に設けられた記憶装置に記憶されていてもよい。
なお、動き検出部2020がオブジェクトとして扱う物は、一種類であってもよいし、複数種類であってもよい。
<<どの期間におけるオブジェクトの動きを検出するか>>
動き検出部2020は、センサの検出結果を取得する。そして、動き検出部2020は、センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを検出する。以下、「センサの検出結果に基づいて定まる期間」を検出対象期間と表記する。検出対象期間を定める方法を以下に例示する。
動き検出部2020は、検出対象期間を定めるために、センサの検出結果を利用する。具体的には、動き検出部2020は、センサタイミングに基づいて検出対象期間を定める。センサタイミングは、センサによって振動などが検出されたタイミング又はこれに近いタイミングである。例えばセンサ12によって振動などが検出された場合にデバイス10から動き検出部2020へ所定の信号が送信される場合、センサタイミングは、動き検出部2020がこの所定の信号を受信した時点である。また例えば、センサ12によって振動などが検出された時点を示す情報がデバイス10から動き検出部2020へ送信される場合、センサタイミングは、この情報によって示される時点である。また例えば、センサ12によって振動などが検出された場合にデバイス10の外観に所定の変化が加わる場合、センサタイミングは、動き検出部2020によってこの所定の変化が検出された時点である。
動き検出部2020は、センサタイミングを1つ又は2つ用いて検出対象期間を定める。センサタイミングを1つ用いて検出対象期間を定める場合、動き検出部2020は、1つのセンサタイミングを用いて検出対象期間の開始時点及び終了時点の双方を定める。
センサタイミングを2つ用いて検出対象期間を定める場合、動き検出部2020は、2つのセンサタイミングを用いて検出対象期間を定める。具体的には、動き検出部2020は、2つのセンサタイミングのうち、より早いセンサタイミングを用いて検出対象期間の開始時点を決定し、より後のセンサタイミングを用いて検出対象期間の終了時点を決定する。
図6は、センサタイミングを用いて検出対象期間の開始時点を決定する方法を例示する図である。例えば動き検出部2020は、センサタイミングを検出対象期間の開始時点とする(図6(a))。また例えば、動き検出部2020は、センサタイミングから所定時間前の時点を、検出対象期間の開始時点とする(図6(b))。また例えば、動き検出部2020は、センサタイミングから所定時間後の時点を、検出対象期間の開始時点とする(図6(c))。
センサタイミングを用いて検出対象期間の終了時点を決定する方法は、センサタイミングを用いて検出対象期間の開始時点を決定する方法と同様である。
なお、センサタイミングよりも所定時間前の時点を検出対象期間の開始時点とする場合(図6(b))、オブジェクトの動きの検出には、センサタイミングよりも上記所定時間前以降に撮像されたオブジェクトが含まれる撮像画像が必要となる。そこで、カメラ20は、センサ12によって振動が検出される前から撮像を開始する。例えばカメラ20は、ユーザが入力装置2000の利用を開始してから終了するまでの間、継続して撮像を行う。また、カメラ20によって生成される撮像画像は、所定期間継続して記憶装置などに記憶される。
一方、センサタイミング又はセンサタイミングから所定時間後を検出対象期間の開始時点とする場合(図6(a)又は図6(c))、カメラ20は、センサ12によって振動が検出されてから撮像を開始してもよい。この場合、例えばカメラ20は、デバイス10又は入力装置2000から、センサ12によって振動が検出された旨の信号を受信し、その信号を受信したタイミングで撮像を開始する。
なお、上述した各所定時間を表す情報は、動き検出部2020に予め設定されていてもよいし、動き検出部2020からアクセス可能な記憶装置に記憶されていてもよい。また、検出対象期間の開始時点の決定に用いる所定時間と、検出対象期間の終了時点に用いる所定時間は、同じであってもよいし、異なっていてもよい。
<<撮像画像からどのようにオブジェクトの動きを検出するか>>
動き検出部2020は、検出対象期間において撮像されたオブジェクトが含まれる撮像画像を用いてオブジェクトの動きを検出する。検出対象期間において撮像されたオブジェクトが含まれる撮像画像が複数ある場合、例えば動き検出部2020は、それら複数の撮像画像それぞれについてオブジェクト認識を行い、各撮像画像に含まれるオブジェクトの位置を算出する。そして動き検出部2020は、オブジェクトの位置の変化を表す情報を、オブジェクトの動きを表す情報とする。オブジェクトの位置の変化を表す情報は、例えばオブジェクトの位置を時系列で並べた情報である。
検出対象期間において撮像されたオブジェクトが含まれる撮像画像は1つであってもよい。オブジェクトが動いている場合、ぶれた状態のオブジェクトが1つの撮像画像に含まれることが多い。そこで動き検出部2020は、その1つの撮像画像に含まれているぶれた状態のオブジェクトの画像から、オブジェクトの動きを算出する。
図7は、ぶれた状態のユーザの指が含まれる撮像画像22を例示する図である。撮像画像22では、ユーザの指30が、指30−Aから指30−Bへ移動するようにぶれている。動き検出部2020は、指30−Aと指30−Bに共通する特徴点の位置の変化を、オブジェクトの動きとして検出する。例えば動き検出部2020は、指30−Aの指先と指30−Bの指先の位置の変化によって定まる動き40を検出する。
<入力認識部2040の詳細>
入力認識部2040は、検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する(S108)。入力認識部2040は、1)検出したオブジェクトの動きに基づく形状を情報処理装置への入力として認識としてもよいし、2)検出したオブジェクトの動きに対応する所定の入力操作を、情報処理装置への入力として認識してもよい。
<<オブジェクトの動きに基づく形状を入力として認識するケース>>
図8は、オブジェクトの動きによって定まる形状を入力として認識する様子を例示する図である。図8(a)では、入力認識部2040は、オブジェクトの動き40−Aが表す形状41や、動き40−Bが表す形状42を、情報処理装置への入力として認識する。例えばこの入力は、ユーザが情報処理装置へ手書き入力を行う際に利用される。
図8(b)では、入力認識部2040は、オブジェクトの動きとは異なる形状ではあるものの、オブジェクトの動きによって形状及び大きさが定まる形状を、情報処理装置への入力として認識する。具体的には、入力認識部2040は、動き40−Cの両端を対角線の両端とする矩形44や、動き40−Cの両端を直径の両端とする円形46を、情報処理装置への入力として認識する。例えばこの入力は、ユーザが情報処理装置へ、ある範囲を表す入力(選択操作など)を行う際や、所定の図形の描画を行う際に用いられる。
図8(a)に示した方法と図8(b)で示した方法のどちらを用いるのかは、予め固定されていてもよいし、ユーザによって設定可能であってもよい。また、上記どちらの方法を用いるのかを示す情報は、入力認識部2040に予め設定されていてもよいし、入力認識部2040からアクセス可能な記憶装置に記憶されていてもよい。
ここで入力認識部2040は、カメラ20の正面から見たオブジェクトの動き(撮像画像に含まれるオブジェクトの動き)を上記の各形状に変換してもよいし、別の角度から見たオブジェクトの動きを上記の各形状に変換してもよい。図9は、オブジェクトの動きを形状に変換する様子を例示する図である。撮像画像22は、カメラ20によって生成された撮像画像である。ユーザは、左腕50上で動き40を行っている。ここで、撮像画像22に含まれる動き40を図8(b)に示した方法で形状に変換すると形状48となる。しかし、ユーザは左腕50を入力用の平面として扱っていることから、ユーザが入力しようとしたのは、動き40をカメラ20の正面から見た形状48ではなく、動き40を左腕50の正面から見た形状49であると考えられる。
そこで入力認識部2040は、動き40を左腕50の正面から見た動きに基づいて形状49を算出し、この形状49をユーザによる入力として認識する。そのために、入力認識部2040は、ユーザの左腕50に取り付けられているデバイス10を利用する。具体的には、入力認識部2040は、デバイス10のタッチパネル14を撮像画像から抽出する。そして、入力認識部2040は、抽出したタッチパネル14の形状から、タッチパネル14上の平面の座標軸140を割り出す。例えば入力認識部2040は、タッチパネル14の中心を原点とし、タッチパネル14によって定まる平面(例えばタッチパネル14の4隅で定まる平面)を XY 平面とし、その平面に直交する方向を Z 方向とする座標軸を座標軸140とする。そして、入力認識部2040は、この座標軸140で定まる平面上において動き40の両端を対角線の両端とする形状49を算出する。
なお、撮像画像22に含まれるオブジェクトの動きをそのまま形状に変換する方法と、別の角度(例えば左腕50を正面から見た角度)から見たオブジェクトの動きを形状に変換する方法のどちらを用いるのかは、予め固定されていてもよいし、ユーザによって設定可能であってもよい。また、上記どちらの方法を用いるのかを示す情報は、入力認識部2040に予め設定されていてもよいし、入力認識部2040からアクセス可能な記憶装置に記憶されていてもよい。
<<オブジェクトの動きに対応する所定の入力操作を認識するケース>>
検出したオブジェクトの動きに対応する所定の入力操作は、いわゆるジェスチャ入力による入力操作である。図10は、ジェスチャ入力を例示する図である。図10(a)はフリック動作を表し、図10(b)はピンチイン・ピンチアウト動作を表している。
オブジェクトの動きと、その動きに対応する所定の入力操作とを関連付ける情報は、入力認識部2040に予め設定されていてもよいし、入力装置2000の内部又は外部の記憶装置に予め記憶されていてもよい。
<オブジェクトを動かす動作が行われた場所の取り扱いについて>
入力認識部2040は、1)オブジェクトを動かす動作が行われた位置に関係なく、そのオブジェクトの動きのみを入力として認識してもよいし、2)オブジェクトの動きと、そのオブジェクトを動かす動作が行われた位置との組み合わせを入力として認識してもよい。前者の場合、オブジェクトを動かす動作が撮像画像22上のどの場所で行われても、同じオブジェクトの動きは同じ入力を表す。一方後者の場合、オブジェクトを動かす動作が撮像画像22上のどの場所で行われたかが意味を持つこととなる。
例えば、ユーザが、撮像画像22上に含まれるものや表示画面に表示されているものに対して描画操作を行うとする。この場合、描画される形状だけでなく、その描画が何に対して行われたものであるかが意味を持つ。図24は、ユーザが撮像画像22上に含まれるものに対して描画を行う様子を例示する図である。図24の撮像画像22には、一部にサビがあるパイプが含まれている。ユーザは、撮像画像22に含まれるパイプの一部にサビがあることを示すため、サビ部分を囲むように線62を描いている。この入力操作を認識するためには、入力認識部2040は、線62の形状だけでなく、線62が描かれた場所も入力として認識する必要がある。
1)の場合、入力認識部2040は、前述したように動き検出部2020によって検出されたオブジェクトの動きで定まる形状や、オブジェクトの動きで定まるジェスチャを、入力として認識する。
一方2)の場合、入力認識部2040は、動き検出部2020によって検出された撮像画像22上のオブジェクトの座標の遷移を入力として認識する。よって、図24において、入力認識部2040は、線62の形状だけでなく、線62が描かれた位置も入力として認識する。
また2)の場合、入力認識部2040は、オブジェクトの動作が行われた場所ではなく、その場所と離れた場所を、ユーザによって入力が行われた場所として認識してもよい。図24では、オブジェクトを動かすことで、オブジェクトから離れた位置を対象として入力を行っている。以下、オブジェクトの動作が行われた場所に対応して入力として認識される位置を、入力位置と表記する。
オブジェクトの動きに基づいて、オブジェクトから離れた場所を入力位置とする入力を認識する場合、入力認識部2040は、動き検出部2020によって検出された撮像画像22上のオブジェクトの座標の遷移を、所定の方法で、オブジェクトから離れた入力位置の座標の遷移に変換する。
入力位置は、撮像画像22上のオブジェクトの位置との関係で予め相対的に定められている。例えば入力位置とオブジェクトの位置との関係は、撮像画像22の平面上における二次元の位置関係で定められている。
図25は、撮像画像22の平面上における入力位置60とオブジェクトの位置との関係を例示する図である。入力位置60とオブジェクトの位置との関係は、以下の数式(1)で定められている。(ax, ay)は、撮像画像22における入力位置60の座標である。(mx, my)は、撮像画像22における指30の座標である。(cx, cy)は、オブジェクトの位置に対する入力位置60の相対位置である。図25では、オブジェクトは指30であり、オブジェクトの位置は指30の指先である。
Figure 0006344530
また例えば入力位置60の位置は、オブジェクトの位置に対する3次元空間上の相対位置として予め定められている。この3次元空間は、撮像画像22に含まれるオブジェクトによって定まる3次元空間である。
図26は、3次元空間上における入力位置60とオブジェクトとの位置との関係を例示する図である。入力認識部2040は、撮像画像22に含まれる所定の物を用いて座標軸140を決定する。例えば入力認識部2040は、デバイス10を用いて座標軸140を決定する。具体的には、入力認識部2040は、デバイス10のタッチパネル14の中心を原点とし、タッチパネル14によって定まる平面を XY 平面とし、その平面に直交する方向を Z 方向とする座標軸を座標軸140とする。
入力位置60とオブジェクトの位置との関係は、座標軸140で定まる3次元空間上において、例えば以下の数式(2)で定められる。(ax, ay, az)は、座標軸140で定まる3次元空間上における入力位置60の座標である。(mx, my, my)は、座標軸140で定まる3次元空間上におけるオブジェクトの位置の座標である。(cx, cy, cz)は、座標軸140で定まる3次元空間上における、オブジェクトの位置に対する入力位置60の相対位置である。図25でも、オブジェクトは指30であり、オブジェクトの位置は指30の指先である。
Figure 0006344530
入力認識部2040は、数式(1)や数式(2)を用いて、複数の撮像画像22上のオブジェクトの位置の座標をそれぞれ、入力位置60の座標に変換する。そして、入力認識部2040は、算出された複数の入力位置60の座標を時系列で並べた情報を、ユーザによる入力として認識する。
入力認識部2040が1)と2)のどちらの方法で入力を認識するのかは、予め入力認識部2040に設定されていてもよいし、入力認識部2040からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって選択可能であってもよい。
[実施形態2]
図11は、実施形態2に係る入力装置2000を例示するブロック図である。図11において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
図12は、実施形態2の入力装置2000の動作を概念的に説明する図である。実施形態2の入力装置2000において、入力認識部2040は、撮像画像22に含まれるオブジェクトの動きに基づいて、領域を描く入力を認識する。以下、入力認識部2040によって認識される領域を第1領域と表記する。第1領域は、例えば矩形領域や円形領域などである。図12における第1領域は、ユーザの左腕50上において、指30の動き40に基づいて描かれた矩形領域70である。
そして、入力装置2000は、その入力認識後に生成された撮像画像22の中から、その領域に基づいて定まる範囲を抽出する。図12では、上記矩形領域70の入力が認識された後、カメラ20によってメータ80が撮像され、その結果撮像画像90が生成されている。入力装置2000は、撮像画像90の矩形領域100に含まれる範囲(メータ80の計測結果)を抽出する。矩形領域100は、矩形領域70によって定まる領域である。例えば入力装置2000は、この抽出した画像を解析することにより、メータ80の計測結果を割り出す。
上記機能を実現するために、実施形態2の入力装置2000は表示制御部2050及び抽出部2060を有する。また、実施形態2の入力認識部2040は、前述した通り、オブジェクトの動きに基づいて第1領域を描く入力を認識する。表示制御部2050は、表示画面に第1の領域に基づいて定まる第2領域を表示する。抽出部2060は、入力認識部2040によって第1領域を描く入力が認識された後にカメラ20によって生成される画像から、第2領域に対応する範囲に含まれる部分画像を抽出する。
以下、実施形態2の入力装置2000についてさらに詳細を説明する。
<処理の流れ>
図13は、実施形態2の入力装置2000によって実行される処理の流れを例示するフローチャートである。入力認識部2040は、オブジェクトの動きに基づいて第1領域を描く入力を認識する(S202)。表示制御部2050は、第1領域に基づいて第2領域を生成する(S204)。表示制御部2050は、第2領域を表示画面に表示する(S206)。抽出部2060は、カメラ20によって生成される撮像画像から、第2領域に対応する範囲に含まれる部分画像を抽出する(S208)。
<入力認識部2040の詳細>
入力認識部2040は、オブジェクトの動きに基づいて第1領域を描く入力を認識する(S202)。例えば第1領域は、オブジェクトの動きそのものが表す領域である。また例えば、第1領域は、オブジェクトの動きによって定められる所定の形状を表す領域である。例えば第1領域は、図8で例示した形状42、矩形44、又は円形46などである。
<表示制御部2050の詳細>
<<第2領域の生成方法>>
表示制御部2050は、第1領域に基づいて第2領域を生成する(S204)。表示制御部2050が第1領域に基づいて第2領域を生成する方法は様々である。例えば表示制御部2050は、第1領域と同一の大きさ及び同一の形状の領域として、第2領域を生成する。
また例えば、表示制御部2050は、第1領域と形状が同じで(相似で)大きさが異なる領域を、第2領域として生成する。具体的には、表示制御部2050は、第1領域と形状が同じであり、かつ面積が所定の面積である領域を第2領域とする。
また例えば、表示制御部2050は、第1領域の形状を所定の方法で変形して第2領域を生成してもよい。概念的には、表示制御部2050は、第1領域がユーザの意図した形状になるように補正する。
図14は、表示制御部2050が第1領域の形状を補正して第2領域を生成する様子を例示する図である。図14(a)は撮像画像22に含まれる様子を示す。ユーザは、左腕50に対して第1領域110を表す入力を行っている。ここで、カメラ20が左腕50を正面から撮影していないため、撮像画像22に含まれる第1領域110の形状は、長方形を斜め上から見たような形状となっている。しかしユーザは、左腕50を正面から見た場合に目に見える形状を描こうとしていると考えられるため、ユーザが意図する第1領域110の形状は長方形であると考えられる。
そこで表示制御部2050は、第1領域110の形状を補正する。図14(b)は、第1領域110の形状を補正することで生成された第2領域120を示す図である。図14において、表示制御部2050は、ユーザの左腕50に取り付けられているデバイス10のタッチパネル14を撮像画像から抽出する。そして、表示制御部2050は、抽出したタッチパネル14の形状から、タッチパネル14上の平面の座標軸140を割り出す。そして、表示制御部2050は、この座標軸140を用いて第1領域110の形状を変換することで、第2領域120を生成する。
なお、第1領域の形状を補正する方法は、図14に示す方法に限定されない。図31は、表示制御部2050が第1領域の形状を補正して第2領域を生成する様子を例示する第2の図である。図31(a)の例において、表示制御部2050は、第1領域110−1を補正して、第2領域120−1又は第2領域120−2を生成する。第2領域120−1は、第1領域110−1の4つの頂点を直線で結んだ台形である。第2領域120−2は、第2領域120−1の上辺と底辺をそれぞれ短辺とする矩形である。なお、台形を補正して矩形に変換する技術には、既存の技術を利用することができる。
図31(b)の例において、表示制御部2050は、第1領域110−2を補正して、第2領域120−3又は第2領域120−4を生成する。第2領域120−3は、第1領域110−2の4つの頂点を直線で結んだ平行四辺形である。第2領域120−4は、第2領域120−3の上辺と底辺をそれぞれ長辺と矩形である。なお、平行四辺形を補正して矩形に変換する技術には、既存の技術を利用することができる。
なお、表示制御部2050が上述したどの方法を用いて第2領域を生成するのかは、予め固定されていてもよいし、ユーザによって設定可能であってもよい。また、どの方法を用いるのかを示す情報は、表示制御部2050に予め設定されていてもよいし、表示制御部2050からアクセス可能な記憶装置に記憶されていてもよい。
<<第2領域の表示方法>>
表示制御部2050は、第2領域を表示画面に表示する(S206)。ここで、表示制御部2050は、表示画面を見るユーザが、カメラ20によって生成される撮像画像と第2領域とが重畳された様子を見ることができるように、第2領域を表示する。
例えば表示制御部2050は、第2領域に撮像画像が重畳されるように、表示画面に撮像画像と第2領域の双方を表示する。これにより、ユーザは、撮像画像と第2領域とが重畳された様子を見ることができる。なお、撮像画像及び第2領域は、プロジェクタによって壁等に投影されてもよい。この場合、この投影面が表示画面となる。
また、表示画面が、ユーザによって装着された透過型のヘッドマウントディスプレイの表示画面である場合、表示制御部2050は、撮像画像の表示を行わなくてもよい。この場合、カメラ20は、ヘッドマウントディスプレイを装着したユーザの視界と同一又はこれに近い方向を撮影するように、ヘッドマウントディスプレイに設けられる。その結果、表示画面の先に見える実世界の景色は、撮像画像に含まれる景色と同様となる。
そこで表示制御部2050は、ヘッドマウントディスプレイの表示画面に第2領域を表示する。これにより、ヘッドマウントディスプレイを装着したユーザは「表示画面の先に見える実世界の景色と、表示画面に表示された第2領域とが重畳された景色」を見ることができ、この景色が撮像画像と第2領域とが重畳された様子を表す。
<<第2領域の表示位置について>>
実施形態1で説明したように、入力認識部2040は、1)オブジェクトを動かす動作が行われた位置に関係なく、そのオブジェクトの動きのみを入力として認識してもよいし、2)オブジェクトの動きと、そのオブジェクトを動かす動作が行われた位置との組み合わせを入力として認識してもよい。1)の場合、ユーザによる入力は第2領域の形状を定めるものであり、第2領域の位置の指定を含まない。そのため、第2領域の表示位置はユーザによって指定されない。そこで表示制御部2050は、例えば表示画面上の所定位置(表示画面の中心など)に第2領域を表示する。
一方、2)の場合、ユーザによる入力には、第2領域の形状だけでなく、第2領域の撮像画像22上の位置が含まれる。そこで表示制御部2050は、ユーザによる入力によって定まる表示画面上の位置に、第2領域を表示する。図27は、ユーザによる入力によって定まる位置に第2領域が表示される様子を例示する図である。ユーザは、左腕50上で動き40を行うことで、計器のメータ部分を囲む矩形を描く入力を行う。その結果、表示制御部2050は、表示画面150上におけるそのメータ部分に、第2領域120を表示する。
表示制御部2050は、撮像画像上の位置に対応する表示画面上の位置に、第2領域を表示する。表示画面に撮像画像が表示される場合(表示画面が非透過型のヘッドマウントディスプレイの表示画面である場合など)、表示制御部2050は、ユーザによる入力によって指定された位置に第2領域を重畳した撮像画像を、表示画面に表示する。
一方、撮像画像が表示画面に表示されない場合(表示画面が透過型のヘッドマウントディスプレイの表示画面である場合)、表示制御部2050は、撮像画像上の座標と表示画面上の座標との対応関係(撮像画像上の座標を表示画面上の座標に変換する変換式など)に基づいて、ユーザによって指定された撮像画像上の第2領域の位置から、表示画面上の位置を算出する。そして、表示制御部2050は、表示画面上の算出した位置に、第2領域を表示する。
撮像画像上の座標と表示画面上の座標との対応関係は、カメラ20に関する各種のパラメタ(画角や焦点距離)や、表示画面とカメラ20との位置関係などに基づいて定まる。この対応関係は、これらのパラメタなどを用いて表示制御部2050によって算出されてもよいし、設定値として予め定められていてもよい。
<<第2領域の移動や変形について>>
表示画面に表示された第2領域は、移動又は変形されてもよい。例えば表示制御部2050は、ユーザから、マウス等の入力デバイスを用いた操作や、実施形態1で説明した入力認識部2040に対する入力操作を受け付け、この操作に基づいて第2領域の移動又は変形を行う。第2領域を移動する操作は、例えばドラッグ操作である。第2領域を変形する操作は、例えばピンチイン・ピンチアウト操作である。第2領域を移動又は変形することにより、後述する抽出部2060によってユーザが意図した部分画像が抽出されるようにすることができる。
図15は、第2領域が撮像画像に重畳されて表示画面に表示される様子を例示する図である。図15において、表示制御部2050は、投影面130に撮像画像22及び第2領域120を投影している。図15(a)は、ユーザが第2領域120を移動させる前の様子を例示している。一方、図15(b)は、ユーザが第2領域120を移動させた後の様子を例示している。ユーザが第2領域120を移動させたことにより、図15(a)と図15(b)とで、第2領域120に含まれる画像が変化している。
ユーザは、カメラ20の撮像範囲を変更することで、カメラ20上の第2領域の位置を変更してもよい。例えばカメラ20がヘッドマウントディスプレイに設けられているカメラである場合、ユーザは、顔の向きを変更することなどにより、撮像画像中の意図した部分が第2領域に収まるようにすることができる。また例えばカメラ20が部屋に設置されているカメラである場合、ユーザはリモコンなどを用いてカメラの姿勢やズーム率を変化させることにより、撮像画像中の意図した部分が第2領域に収まるようにすることができる。
図16は、ヘッドマウントディスプレイの表示画面に表示された第2領域を例示する図である。ディスプレイ204は、眼鏡型のヘッドマウントディスプレイのレンズ部分として構成される表示画面である。図16(a)は、ヘッドマウントディスプレイを装着したユーザが顔の向きを変える前の様子を例示している。一方、図16(b)は、ユーザが顔の向きを変えた後の様子を例示している。
第2領域120は、図16(a)及び図16(b)双方においてディスプレイ204の中央に表示されている。しかし、ユーザが顔の向きを変えたことにより、図16(a)と図16(b)とで、第2領域120に含まれる部分画像が変化している。
<抽出部2060の詳細>
抽出部2060は、カメラ20によって生成される撮像画像から、第2領域に対応する範囲に含まれる部分画像を抽出する(S208)。第2領域が撮像画像上に重畳して表示される場合(表示画面が非透過型のヘッドマウントディスプレイの表示画面である場合など)、第2領域に対応する撮像画像上の範囲は、第2領域が重畳されている撮像画像上の範囲である。
一方、第2領域が撮像画像上に重畳して表示されない場合(表示画面が透過型のヘッドマウントディスプレイの表示画面である場合)、撮像画像は表示画面に表示されない。この場合、抽出部2060は、表示画面上の座標と撮像画像上の座標との対応関係(表示画面上の座標を撮像画像上の座標に変換する変換式など)に基づいて、表示画面上の第2領域を撮像画像上にマッピングする。抽出部2060は、撮像画像から、このマッピングされた領域に含まれる画像を抽出することで、部分画像を抽出する。
なお、撮像画像上の座標と表示画面上の座標との対応関係は、カメラ20に関する各種のパラメタ(画角や焦点距離)や、表示画面とカメラ20との位置関係などに基づいて定まる。この対応関係は、これらのパラメタなどを用いて抽出部2060によって算出されてもよいし、設定値として予め定められていてもよい。
抽出部2060が撮像画像から部分画像を抽出するタイミングは様々である。例えば入力装置2000は、ユーザから部分画像の抽出を指示する所定の操作を受け付ける。抽出部2060は、入力装置2000によってこの所定の操作が受け付けられた場合に部分画像の抽出を行う。マウス等の入力デバイスを用いた操作であってもよいし、実施形態1で説明した入力認識部2040に対する入力操作であってもよい。
また例えば、表示制御部2050が第2領域を移動又は変形する操作を受け付ける場合、抽出部2060は、所定時間以上これらの操作が受け付けられなかった場合に、部分画像の抽出を行ってもよい。また例えば、ユーザがカメラ20の撮影範囲を変更することで撮像画像上の第2領域の位置を変更する場合、抽出部2060は、所定時間以上カメラ20の撮影範囲が変更されなかった場合に、部分画像の抽出を行ってもよい。
<ハードウエア構成例>
図17は、実施形態2の入力装置2000を実現する計算機1000のハードウエア構成を例示する図である。この計算機1000の構成は、実施形態1の入力装置2000を実現する計算機1000の構成と同様である。ただし、実施形態2の計算機1000が有するストレージ1080は、本実施形態の入力装置2000が有する各機能を実現するためのプログラムモジュールをさらに有する。
入出力インタフェース1100には、第2領域が表示される表示画面150、又は第2領域を投影面に投影するプロジェクタ160などが接続される。表示画面150は、液晶ディスプレイなどの表示画面であってもよいし、ヘッドマウントディスプレイの表示画面であってもよい。図17に示す構成では、表示画面150はヘッドマウントディスプレイ170の表示画面である。
ヘッドマウントディスプレイ170は、ユーザの視界に入る表示画面150を有する任意のヘッドマウントディスプレイである。例えば表示画面150は、非透過型のディスプレイである。この場合、ヘッドマウントディスプレイ170は、ユーザの周囲(例えばユーザの顔方向)を撮像するカメラによって撮像された画像と、その他の物を表す画像とを重畳させて表示画面150に表示する。ユーザは、この表示画面150を見ることで、周囲の景色にその他の物が重畳された様子を見ることができる。なお、「ユーザの周囲を撮像するカメラ」は、カメラ20であってもよいし、これとは別途設けられるカメラであってもよい。
また例えば、表示画面150は、透過型のディスプレイである。この場合、ユーザは、表示画面150の先にある実物体及び表示画面150に表示される画像の両方を見ることができる。
<作用・効果>
本実施形態によれば、撮像画像から、ユーザによって行われた入力に基づく領域に対応する部分画像が抽出される。この構成により、ユーザは、撮像画像の中から抽出したい領域を容易に入力することができる。
[実施例]
以下、上述した入力装置2000を、より具体的な実施例に沿って説明する。なお、この実施例は入力装置2000の利用方法の一例であり、入力装置2000の利用方法を限定するものではない。
本実施例では、入力装置2000の運用には、グラス200とウォッチ210という2つのデバイスが用いられる。図18は、グラス200及びウォッチ210を例示する図である。
グラス200は、カメラ202が備えられたヘッドマウントディスプレイである。本実施例において、入力装置2000はグラス200に内蔵される。ユーザは、グラス200を眼鏡のように装着する。
カメラ202はビデオカメラであり、上述した各実施形態におけるカメラ20に相当する。ディスプレイ204は、レンズの形状をした透過型のディスプレイである。グラス200は、ディスプレイ204に種々の情報を表示する。これにより、ユーザの目には、実世界の景色に種々の情報が重畳されて見える。
ウォッチ210は、振動センサ211を内蔵している。またウォッチ210は、タッチパネル212を有する。ウォッチ210、振動センサ211、タッチパネル212はそれぞれ、実施形態1や2におけるデバイス10、センサ12、タッチパネル14に相当する。
グラス200及びウォッチ210は、情報処理装置に対する入力インタフェースとして機能する入力システムを構成する。この入力システムの操作対象である情報処理装置は、グラス200又はウォッチ210であってもよいし、それ以外の計算機であってもよい。本実施例では、操作対象の情報処理装置をグラス200とする。
本実施例では、ユーザは、グラス200及びウォッチ210を用いて、機器の点検作業を行う。図19は、ユーザが行う点検作業の概要を例示する図である。ユーザは、チェックリストに従って各機器の状態を表すメータの読み取り作業を行ったり、機器の気になる箇所についてメモの記録や写真の撮影を行ったりする。
グラス200に対する入力操作は、2つに大別される。1つ目の入力操作は、カメラ202の撮影範囲内で所定のオブジェクトを動かすことによって行う入力操作である。この操作は、実施形態1や2で説明した入力操作である。グラス200がこの操作を受け付ける状態を、第1入力モードと呼ぶ。2つ目の入力操作は、ディスプレイ204に表示される操作画像に対して操作を加えることで行う入力操作である。グラス200がこの操作を受け付ける状態を、第2入力モードと呼ぶ。なお、第2入力モードにおける操作の具体的な内容は後述する。
ユーザが点検作業を開始すると、グラス200は、ディスプレイ204上にチェックリストの1番目の項目と操作選択メニュー300を表示する。図20は、ユーザの視界に含まれる操作選択メニュー300を例示する図である。操作選択メニュー300は、入力ボタン302、撮影ボタン304、及び記録ボタン306という3つの操作画像を含んでいる。ここで、グラス200は、ユーザの目から見て、ウォッチ210が装着されている左腕50の付近にチェックリストの1番目の項目が見えるようにこの項目を表示する。また、グラス200は、ユーザの目から見て、ウォッチ210が装着されている左腕50上に操作選択メニューが見えるように、操作選択メニューを表示する。
ユーザは、操作画像を選択する操作を行う。具体的には、ユーザは、選択する操作画像をタップする動作を行う。すると、このタップの振動を検出したウォッチ210は、タッチパネル212に表示する画像を変更する。すると、グラス200は、タッチパネル212に表示されている画像が変化したことを検出し、これに伴って入力の認識を行う処理を行う。
現在のグラス200の状態は、操作画像の選択を受け付ける第2入力モードである。そのため、グラス200は、タッチパネル212に表示されている画像が変化したことを検出したことに伴い、ユーザによってどの操作画像が選択されたかを判定する。具体的には、グラス200は、カメラ202によって撮影された撮像画像からユーザの指の位置を検出し、その位置が、操作選択メニュー300に含まれる操作画像のどの位置に対応しているかを割り出す。
ユーザが操作選択メニュー300の中から入力ボタン302を選択すると、グラス200はディスプレイ204に入力方法選択メニュー310を表示する。図21は、ユーザの視界に含まれる入力方法選択メニュー310を例示する図である。入力方法選択メニュー310は、メータ読取ボタン312、数値入力ボタン314、及びメモボタン316という3つの操作画像を含む。
メータ読取ボタン312は、カメラ202によって撮像される撮像画像からメータの値を自動で読み取る入力操作である。例えばユーザは、実施形態2で説明した図27に示す入力操作を行うことで、計器のメータ部分を示す第2領域120を入力する。抽出部2060は、この第2領域120に基づいてメータ部分の部分画像を生成する。そして、入力装置2000は、このメータ部分に対して文字列認識処理を行うことにより、メータの値を特定する。これにより、メータの値が自動で読み取られる。なお、ユーザがメータ読取ボタン312を選択すると、グラス200は第1入力モードに遷移する。そして、メータの値の自動読み取りが終了すると、グラス200は再度第2入力モードに遷移する。
数値入力ボタン314は、メータの値をユーザ自身が入力する入力操作である。図22は、数値入力ボタン314が選択された後の様子を例示する図である。グラス200は、左腕50にテンキー画像318が重畳して見えるように、ディスプレイ204にテンキー画像318を表示する。ユーザはテンキー画像318の各キーをタップすることで、メータの数値を入力する。
メモボタン316は、メモを入力するための入力操作である。図23は、メモボタン316が選択された後の様子を例示する図である。グラス200は、左腕50にキーボード画像320が重畳して見えるように、ディスプレイ204にキーボード画像320を表示する。ユーザはキーボード画像320の各キーをタップすることで、メモの入力を行う。
ユーザが操作選択メニュー300の中から撮影ボタン304を選択すると、その選択が行われた時にカメラ202によって撮像された撮像画像が、現在の点検項目に対応付けて記憶される。例えばユーザは、点検対象の設備の気になる箇所が視界に入る状態で撮影ボタン304を押す。すると、その気になる箇所が含まれる撮像画像が記憶される。
ユーザが操作選択メニュー300の中から記録ボタン306を選択すると、現在の点検項目に対する入力操作が終了し、次の点検項目に移る。ユーザは、上述した種々の入力操作を次の点検項目についても行う。このようにユーザは、各点検項目に対して入力操作を行う。
なお、本実施例では点検作業を対象にしているが、入力装置2000の応用範囲は点検作業に限られるものではない。例えば入力装置2000は、機器の組み立て作業、看護士などによる看護作業その他様々な作業の記録などに利用することができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、及び上記実施形態以外の様々な構成を採用することもできる。
例えばこれまでの説明において、動き検出部2020は、撮像画像22全体を対象として、オブジェクトの動きを検出している。しかし、動き検出部2020は、撮像画像22の一部の領域を対象として、オブジェクトの動きを検出してもよい。後者の場合において、オブジェクトの動きの検出が行われる領域を、検出領域と表記する。
動き検出部2020は、撮像画像22に含まれるマーカを用いて検出領域を定める。マーカは、撮像画像22において少なくともその位置が特定できる任意のものである。例えばマーカは、3次元の座標系の決定に利用できるマーカである。3次元の座標系の決定に利用できるマーカは、例えば AR(Augmented Reality)マーカである。ただし、3次元の座標系の決定に利用できるマーカは、参照方向によらず、或る基準点からの相互に直交する3つの方向を一定に得ることができるものであればよく、AR マーカには限定されない。
マーカは、ユーザの身体の任意の箇所に取り付けることができる。例えばマーカは、ユーザの腕部に取り付けられる。ここで、ユーザの腕部とは、そのユーザの腕だけでなく、腕及び手を含む部分である。例えばマーカは、ユーザの腕部に取り付けられたデバイス10のタッチパネル14に表示される画像である。以下、タッチパネル14に表示されるマーカの画像を、マーカ画像と表記する。
マーカ画像は、予めデバイス10に記憶されている画像であってもよいし、デバイス10の外部にある記憶装置に記憶されている画像であってもよい。後者の場合、デバイス10は、表示するマーカ画像を記憶装置から取得して表示する。
例えばユーザが、検出対象のオブジェクト(例えばユーザの指)をユーザの腕部の上で動かするとする。この場合、ユーザは、その腕部に予めマーカを取り付けておく。例えばマーカが前述したマーカ画像であり、オブジェクトが左腕の上で動かされる場合、ユーザは、左腕にデバイス10を身につけておく。
例えば動き検出部2020は、撮像画像22に含まれるマーカを検出する。そして動き検出部は、マーカが身につけられている腕部を表す領域を検出領域として定める。図28は、マーカに基づいて検出領域を定める方法を例示する第1の図である。図28において、マーカはマーカ画像16である。
動き検出部2020は、撮像画像22からマーカ画像16を検出する。さらに動き検出部2020は、撮像画像22から、マーカ画像16が重畳されている左腕50を検出する。そして、動き検出部2020は、左腕50を表すドット柄で塗られた領域を、検出領域とする。
ここで動き検出部2020は、マーカ画像16を用いて、左腕50の一部を検出領域として定めてもよい。例えば動き検出部2020は、左腕50を表す領域を、マーカ画像を境界として2つに分割する。そして、動き検出部2020は、分割された2つの領域のうち、より広い領域を検出領域とする。
図29は、マーカに基づいて検出領域を定める方法を例示する第2の図である。図29において、左腕50を表す領域は、マーカ画像16を境界として領域52と領域54に分けられている。そして、領域52は領域54よりも広い。そこで動き検出部2020は、領域52を検出領域とする。
腕部の一部を検出領域として定める場合、動き検出部2020は、マーカが左右どちらの腕部に身につけられているかに基づいて、検出領域を定めてもよい。この場合、マーカが左右どちらの腕部に身につけられているかを示す情報が、予め定められているとする。この情報は、動き検出部2020に予め設定されていてもよいし、動き検出部2020からアクセス可能な記憶装置に記憶されていてもよい。
例えばマーカが左の腕部に身につけられている場合、動き検出部2020は、左の腕部を表す領域のうち、マーカの位置よりも左側の領域を検出領域とする。一方、マーカが右の腕部に身につけられている場合、動き検出部2020は、右の腕部を表す領域のうち、マーカの位置よりも右側の領域を検出領域とする。
図30は、マーカに基づいて検出領域を定める方法を例示する第3の図である。まず動き検出部2020は、撮像画像22からマーカ画像16を検出する。次に動き検出部2020は、座標軸140を算出する。
図30のケースにおいて、マーカ画像16はユーザの左腕50にある。そこで動き検出部2020は、マーカ画像16の位置よりも左側の領域を検出領域とする。具体的には、動き検出部2020は、座標軸140によって定まる座標系における xy 平面であり、かつ y 方向の位置が座標軸140の原点を基準に負の方向の位置となる領域を、検出領域として定める。図30では、検出領域180が検出領域である。
検出領域180において、x 方向の辺である辺182や y 方向の辺である辺184の長さは、例えば予め定められた所定の長さである。ただし動き検出部2020は、辺182や辺184の長さを徐々に短くしていくことで、検出領域180の大きさを徐々に狭くしていってもよい。具体的には、動き検出部2020は、検出領域180に含まれる領域のうち、中心から遠い領域において所定期間以上オブジェクトが検出されない場合に、検出領域180を狭くする。例えば検出領域180内の領域のうち、辺184を所定の長さ短くした場合に検出領域180に含まれなくなる領域において、所定期間オブジェクトが検出されなかったとする。この場合、動き検出部2020は、辺184を当該所定の長さ短くする。腕の大きさや太さには個人差があるため、動き検出部2020は、検出領域180を徐々に狭くすることで、このような個人差に対処する。なお、上記各所定の値は、動き検出部2020に予め設定されていてもよいし、動き検出部2020からアクセスできる記憶装置に記憶されていてもよい。
このように、マーカを基準としてオブジェクトの動きを検出する範囲を限定することにより、オブジェクトの動きの検出に要する計算の量を減らすことができる。これに伴い、オブジェクトの動きの検出に要する時間が短くなる。また、このようにマーカを基準として検出領域を定める方法によれば、検出領域を容易な方法で定めることができる。
さらに、例えば図28から図30の例のように、オブジェクトが動く場所をユーザの腕部の上に限定すれば、検出領域の背景が、ユーザの素肌や服の袖などとなる。そのため、一般的な景色が背景となる場合と比較し、背景の色や模様が単調となる。よって、オブジェクトの動きの検出が容易になる。
以下、参考形態の例を付記する。
1. ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
を有する入力装置。
2. 前記動き検出手段は、前記センサの検出タイミングを用いて、検出する前記オブジェクトの動きの始点及び終点の少なくとも一方を決定する、1.に記載の入力装置。
3. 前記センサは振動センサ、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサである、1.又は2.に記載の入力装置。
4. 前記オブジェクトは、ユーザの身体の一部又は前記センサが設けられているデバイスである、1.乃至3.いずれか一つに記載の入力装置。
5. 前記入力認識手段は、前記オブジェクトの動きに基づいて第1の領域を描く入力を認識し、
表示画面に前記第1の領域に基づいて定まる第2の領域を表示する表示制御手段と、
撮像画像から、前記第2の領域に対応する範囲に含まれる部分画像を抽出する抽出手段を有する1.乃至4.いずれか一つに記載の入力装置。
6. 前記表示制御手段は、前記第2の領域を撮像画像に重畳して前記表示画面に表示し、
前記抽出手段は、前記表示画面に表示される撮像画像において前記第2の領域が重畳されている範囲から、前記部分画像を抽出する、5.に記載の入力装置。
7. 前記動き検出手段は、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する、1.乃至6.いずれか一つに記載の入力装置。
8. コンピュータによって実行される入力方法であって、
ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
を有する入力方法。
9. 前記動き検出ステップにおいて、前記センサの検出タイミングを用いて、検出する前記オブジェクトの動きの始点及び終点の少なくとも一方を決定する、8.に記載の入力方法。
10. 前記センサは振動センサ、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサである、8.又は9.に記載の入力方法。
11. 前記オブジェクトは、ユーザの身体の一部又は前記センサが設けられているデバイスである、8.乃至10.いずれか一つに記載の入力方法。
12. 前記入力認識ステップにおいて、前記オブジェクトの動きに基づいて第1の領域を描く入力を認識し、
表示画面に前記第1の領域に基づいて定まる第2の領域を表示する表示制御ステップと、
撮像画像から、前記第2の領域に対応する範囲に含まれる部分画像を抽出する抽出ステップを有する8.乃至11.いずれか一つに記載の入力方法。
13. 前記表示制御ステップにおいて、前記第2の領域を撮像画像に重畳して前記表示画面に表示し、
前記抽出ステップは、前記表示画面に表示される撮像画像において前記第2の領域が重畳されている範囲から、前記部分画像を抽出する、12.に記載の入力方法。
14. 前記動き検出ステップにおいて、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する、8.乃至13.いずれか一つに記載の入力方法。
15. コンピュータに、8.乃至14.いずれか一つに記載の入力方法の各ステップを実行させるプログラム。
この出願は、2015年9月28日に出願された日本出願特願2015−190238号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (21)

  1. ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
    を有し、
    前記動き検出手段は、
    前記撮像画像に含まれるマーカを検出し、
    前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
    前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、入力装置。
  2. ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
    を有し、
    前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
    前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
    前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、入力装置。
  3. 前記センサは、振動センサ、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサである、請求項1又は2に記載の入力装置。
  4. 前記動き検出手段は、前記オブジェクトによって前記ユーザの身体が触れられたことの検出の結果に基づいて定まる期間における、前記オブジェクトの動きを検出する、請求項1乃至3いずれか一項に記載の入力装置。
  5. 前記動き検出手段は、前記ユーザの身体に振動が加えられたことを前記センサによって検出することで、前記ユーザの身体が触れられたことを検出する、請求項1乃至いずれか一項に記載の入力装置。
  6. ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
    を有し、
    前記撮像画像を生成するカメラは、前記センサとは別体として設けられ
    前記動き検出手段は、
    前記撮像画像に含まれるマーカを検出し、
    前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
    前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、入力装置。
  7. ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
    を有し、
    前記撮像画像を生成するカメラは、前記センサとは別体として設けられ、
    前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
    前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
    前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、入力装置。
  8. 前記センサは振動センサ、加速度センサ、又は振動スイッチである、請求項6又は7に記載の入力装置。
  9. 前記動き検出手段は、前記センサの検出タイミングを用いて、検出する前記オブジェクトの動きの始点及び終点の少なくとも一方を決定する、請求項1乃至いずれか一項に記載の入力装置。
  10. 前記オブジェクトは、ユーザの身体の一部又は前記センサが設けられているデバイスである、請求項1乃至いずれか一項に記載の入力装置。
  11. 前記入力認識手段は、前記オブジェクトの動きに基づいて第1の領域を描く入力を認識し、
    表示画面に前記第1の領域に基づいて定まる第2の領域を表示する表示制御手段と、
    撮像画像から、前記第2の領域に対応する範囲に含まれる部分画像を抽出する抽出手段を有する請求項1乃至10いずれか一項に記載の入力装置。
  12. 前記表示制御手段は、前記第2の領域を撮像画像に重畳して前記表示画面に表示し、
    前記抽出手段は、前記表示画面に表示される撮像画像において前記第2の領域が重畳されている範囲から、前記部分画像を抽出する、請求項11に記載の入力装置。
  13. 前記動き検出手段は、
    前記撮像画像に含まれるマーカを検出し、
    前記撮像画像における前記オブジェクトの位置を、前記マーカに基づいて定まる座標系における座標に変換し、前記座標系における前記オブジェクトの位置の変化を前記オブジェクトの動きとして検出する、請求項1又は6に記載の入力装置。
  14. 前記デバイスは、前記センサの検出結果に基づいて、前記デバイスに設けられているディスプレイ装置の表示を変更し、
    前記動き検出手段は、前記デバイスのディスプレイ装置が撮像された撮像画像を用いて、そのディスプレイ装置の表示の変化を検出することにより、前記センサの検出結果を認識する、請求項2又は7に記載の入力装置。
  15. コンピュータによって実行される入力方法であって、
    ユーザの身体が触れられたことを、前記ユーザに取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
    を有し、
    前記動き検出ステップにおいて、
    前記撮像画像に含まれるマーカを検出し、
    前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
    前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、入力方法。
  16. コンピュータによって実行される入力方法であって、
    ユーザの身体が触れられたことを、前記ユーザに取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
    を有し、
    前記撮像画像を生成するカメラは、前記センサとは別体として設けられ、
    前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
    前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
    前記動き検出ステップにおいて、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、入力方法。
  17. コンピュータによって実行される入力方法であって、
    ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
    を有し、
    前記撮像画像を生成するカメラは、前記センサとは別体として設けられ
    前記動き検出ステップにおいて、
    前記撮像画像に含まれるマーカを検出し、
    前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
    前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、入力方法。
  18. コンピュータによって実行される入力方法であって、
    ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
    を有し、
    前記撮像画像を生成するカメラは、前記センサとは別体として設けられ、
    前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
    前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
    前記動き検出ステップにおいて、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、入力方法。
  19. コンピュータに、請求項15乃至18いずれか一項に記載の入力方法の各ステップを実行させるプログラム。
  20. センサ、カメラ、及び入力装置を有するシステムであって、
    前記入力装置は、
    前記センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
    を有し、
    前記センサはユーザの身体に取り付けられており、
    前記撮像画像は前記カメラによって生成され、
    前記カメラと前記センサは互いに別体として設けられ
    前記動き検出手段は、
    前記撮像画像に含まれるマーカを検出し、
    前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
    前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、システム。
  21. センサ、カメラ、及び入力装置を有するシステムであって、
    前記入力装置は、
    前記センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
    前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
    を有し、
    前記センサはユーザの身体に取り付けられたデバイスに設けられており、
    前記撮像画像は前記カメラによって生成され、
    前記カメラと前記センサは互いに別体として設けられ、
    前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
    前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、システム。
JP2017543167A 2015-09-28 2016-09-20 入力装置、入力方法、及びプログラム Active JP6344530B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015190238 2015-09-28
JP2015190238 2015-09-28
PCT/JP2016/077729 WO2017057106A1 (ja) 2015-09-28 2016-09-20 入力装置、入力方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6344530B2 true JP6344530B2 (ja) 2018-06-20
JPWO2017057106A1 JPWO2017057106A1 (ja) 2018-07-05

Family

ID=58423673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017543167A Active JP6344530B2 (ja) 2015-09-28 2016-09-20 入力装置、入力方法、及びプログラム

Country Status (4)

Country Link
US (1) US10168769B2 (ja)
JP (1) JP6344530B2 (ja)
CN (1) CN108027656B (ja)
WO (1) WO2017057106A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10234955B2 (en) * 2015-09-28 2019-03-19 Nec Corporation Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
EP3557397A1 (de) * 2018-04-20 2019-10-23 Interactive Scape GmbH Steuer- und verarbeitungseinheit für einen berührungsempfindlichen bildschirm, system damit und verfahren zur verwendung
JP7117451B2 (ja) * 2019-02-19 2022-08-12 株式会社Nttドコモ 視線とジェスチャを用いた情報表示装置
US10948980B2 (en) * 2019-05-10 2021-03-16 Apple Inc. Electronic device system with controllers
KR102269466B1 (ko) * 2019-05-21 2021-06-28 이진우 동작 인식 기반의 문자 입력 방법 및 그 장치
JP7472734B2 (ja) 2020-09-17 2024-04-23 サクサ株式会社 画像処理装置及びプログラム
CN114967907A (zh) * 2021-02-26 2022-08-30 华为技术有限公司 识别方法及电子设备
JP7052128B1 (ja) * 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004192653A (ja) * 1997-02-28 2004-07-08 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
US6118888A (en) 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
US20040070563A1 (en) * 2002-10-10 2004-04-15 Robinson Ian Nevill Wearable imaging device
EP2039403B1 (en) * 2002-10-30 2016-08-24 NIKE Innovate C.V. Clothes with concealable motion capture markers for computer games
US20060007056A1 (en) * 2004-07-09 2006-01-12 Shu-Fong Ou Head mounted display system having virtual keyboard and capable of adjusting focus of display screen and device installed the same
JP2008067219A (ja) * 2006-09-08 2008-03-21 Sony Corp 撮像装置、撮像方法
US8471868B1 (en) * 2007-11-28 2013-06-25 Sprint Communications Company L.P. Projector and ultrasonic gesture-controlled communicator
WO2010024028A1 (ja) * 2008-08-29 2010-03-04 日本電気株式会社 位置情報入力装置および位置情報入力方法
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8310504B2 (en) 2009-08-31 2012-11-13 Fuji Xerox Co., Ltd. System and method for panning and selecting on large displays using mobile devices without client software
WO2011115035A1 (ja) 2010-03-15 2011-09-22 日本電気株式会社 入力装置、入力方法及びプログラム
US9958902B2 (en) * 2010-03-15 2018-05-01 Nec Corporation Input device, input method, and program
JP5790642B2 (ja) * 2010-03-15 2015-10-07 日本電気株式会社 入力装置、入力方法及びプログラム
JP2011257943A (ja) 2010-06-08 2011-12-22 Canon Inc ジェスチャ操作入力装置
JP2012079138A (ja) * 2010-10-04 2012-04-19 Olympus Corp ジェスチャ認識装置
US8884984B2 (en) * 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
KR101591579B1 (ko) * 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
JP5510401B2 (ja) 2011-06-27 2014-06-04 株式会社デンソー 操作端末
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
JP5765133B2 (ja) * 2011-08-16 2015-08-19 富士通株式会社 入力装置、入力制御方法及び入力制御プログラム
EP2761362A4 (en) 2011-09-26 2014-08-06 Microsoft Corp VIDEO DISPLAY CHANGE BASED ON SENSOR INPUT FOR TRANSPARENT EYE DISPLAY
JP2013114467A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
JP5804638B2 (ja) * 2011-11-29 2015-11-04 コイト電工株式会社 物体判別方法
JP2013186646A (ja) * 2012-03-07 2013-09-19 Toshiba Corp 情報処理装置および情報処理装置の制御方法
JP5148004B1 (ja) 2012-04-26 2013-02-20 株式会社三菱東京Ufj銀行 情報処理装置、電子機器およびプログラム
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
WO2014127126A1 (en) * 2013-02-14 2014-08-21 New York University Handphone
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9857971B2 (en) * 2013-12-02 2018-01-02 Industrial Technology Research Institute System and method for receiving user input and program storage medium thereof
JP5929933B2 (ja) * 2014-01-16 2016-06-08 カシオ計算機株式会社 表示システム、表示端末、表示方法及びプログラム
JP6188151B2 (ja) * 2014-02-27 2017-08-30 Kddi株式会社 身体を伝播する信号の位相差に基づいて入力情報を決定可能な入力システム及び入力方法
EP2946266B1 (en) * 2014-03-21 2023-06-21 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
KR101909540B1 (ko) * 2014-10-23 2018-10-18 삼성전자주식회사 가상의 입력 영역을 이용한 포터블 디바이스의 사용자 입력 방법
US10698535B2 (en) * 2015-05-21 2020-06-30 Nec Corporation Interface control system, interface control apparatus, interface control method, and program
US9971408B2 (en) * 2016-01-27 2018-05-15 Ebay Inc. Simulating touch in a virtual environment
JP6256497B2 (ja) * 2016-03-04 2018-01-10 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US10431007B2 (en) * 2016-05-31 2019-10-01 Augumenta Ltd. Method and system for user interaction

Also Published As

Publication number Publication date
JPWO2017057106A1 (ja) 2018-07-05
US20180260033A1 (en) 2018-09-13
WO2017057106A1 (ja) 2017-04-06
CN108027656A (zh) 2018-05-11
CN108027656B (zh) 2021-07-06
US10168769B2 (en) 2019-01-01

Similar Documents

Publication Publication Date Title
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
JP6288372B2 (ja) インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP6350772B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
US8648808B2 (en) Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
KR101343748B1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
JP2012238293A (ja) 入力装置
US20190156118A1 (en) Information processing apparatus, control method, and program
JPWO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014029656A (ja) 画像処理装置および画像処理方法
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
JPWO2014054317A1 (ja) ユーザインタフェース装置及びユーザインタフェース方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180320

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20180320

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180329

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6344530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150