JP6341343B2 - 情報処理システム、情報処理装置、制御方法、及びプログラム - Google Patents
情報処理システム、情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6341343B2 JP6341343B2 JP2017566966A JP2017566966A JP6341343B2 JP 6341343 B2 JP6341343 B2 JP 6341343B2 JP 2017566966 A JP2017566966 A JP 2017566966A JP 2017566966 A JP2017566966 A JP 2017566966A JP 6341343 B2 JP6341343 B2 JP 6341343B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- marker
- sensor
- information processing
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 134
- 238000000034 method Methods 0.000 title claims description 76
- 239000003550 marker Substances 0.000 claims description 132
- 230000033001 locomotion Effects 0.000 claims description 112
- 238000001514 detection method Methods 0.000 claims description 96
- 238000004364 calculation method Methods 0.000 claims description 30
- 210000000707 wrist Anatomy 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 28
- 230000008859 change Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 230000005484 gravity Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000003825 pressing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
前記情報処理装置は、1)カメラによって生成された撮像画像に写っている前記マーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出手段と、2)前記センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識手段と、3)前記認識手段によって認識される入力操作の操作対象を含む画面を前記出力装置に出力させる出力制御手段と、を有する。
また、前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される。
そして、3)前記マーカは、ユーザに身につけられるか、又はユーザの身体の一部であり、4)前記センサは、ユーザに身に付けられる。また、前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される。
図1は、実施形態1に係る情報処理システム3000を例示するブロック図である。情報処理システム3000は、マーカ3020、センサ3040、及び情報処理装置2000を有する。マーカ3020は、情報処理システム3000のユーザの身体の任意の部分であるか、又は情報処理システム3000のユーザに身に付けられる任意の印である。センサ3040は、情報処理システム3000のユーザに身に付けられるセンサである。例えばセンサ3040は振動センサである。マーカ3020やセンサ3040についての詳細な説明は後述する。
撮像画像に写っている操作体の位置又は動きのみを利用してユーザの入力操作を認識しようとすると、入力操作が行われたことを検出することが難しい。そのため、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりする可能性がある。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
センサ3040は、ユーザによる入力操作のタイミングを把握するために利用できる任意のセンサである。例えばセンサ3040は、前述した振動センサである。振動センサが設けられる場所は任意である。例えば振動センサは、前述したようにデバイス10の内部に設けられる。また例えば、振動センサは、ユーザの腕や手などに貼られてもよいし、ユーザの衣服(服の袖など)に設けられてもよい。
図4は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。情報処理装置2000は、センサ3040による検出結果を把握する(S102)。情報処理装置2000は、撮像画像を取得する(S104)。操作領域算出部2020は、撮像画像に写っているマーカ3020の位置を算出する(S106)。操作領域算出部2020は、算出されたマーカ3020の位置に基づいて、撮像画像に含まれる操作領域を算出する(S108)。認識部2040は、センサ3040の検出結果に基づくタイミングにおける操作領域内の操作体の位置、又はそのタイミングを含む時間における操作領域内の操作体の動きを算出する(S110)。認識部2040は、算出した操作体の位置又は動きに基づいて入力操作を認識する(S112)。
情報処理装置2000は、カメラ20によって生成された撮像画像を取得する(S104)。情報処理装置2000が撮像画像を取得する方法は様々である。例えば情報処理装置2000は、カメラ20から撮像画像を取得する。この場合、情報処理装置2000とカメラ20とは通信可能に接続されている。
情報処理装置2000は、センサ3040の検出結果を把握する(S104)。情報処理装置2000がセンサ3040の検出結果を把握する方法は様々である。以下、その方法を例示する。
例えば情報処理装置2000は、センサ3040を内蔵するデバイス10と無線通信を行うことにより、センサの検出結果を示す情報を取得する。この情報を用いて、情報処理装置2000は、センサ3040の検出結果を把握する。
デバイス10は、センサ3040による振動の検出に応じてデバイス10の外観を変化させてもよい。この場合、情報処理装置2000は、カメラ20によって生成された撮像画像を用いてデバイス10の外観の変化を検出することで、センサ3040の検出結果(センサ3040によって振動が検出されたこと)を把握する。
マーカ3020は、カメラ20によって生成される撮像画像において少なくともその位置が特定できる任意の印である。例えばマーカ3020は、3次元の座標系の決定に利用できるマーカである。3次元の座標系の決定に利用できるマーカは、例えば AR(Augmented Reality)マーカである。ただし、3次元の座標系の決定に利用できるマーカは、参照方向によらず、或る基準点からの相互に直交する3つの方向を一定に得ることができるものであればよく、AR マーカには限定されない。また、マーカ3020は、その位置が特定できる印であればよく、必ずしも3次元の座標系の決定に利用できる必要はない。
操作領域算出部2020は、撮像画像に写っているマーカ3020の位置を算出する(S106)。そのためマーカ3020は、マーカ3020として扱うものを特定する情報(マーカ3020に関する形状、サイズ、色などについての情報など:以下、マーカ情報)を利用する。この情報は、予め操作領域算出部2020に設定されていてもよいし、操作領域算出部2020からアクセス可能な記憶装置に記憶されていてもよい。
操作領域算出部2020は、算出したマーカ3020の位置に基づいて、操作領域40を算出する(S108)。操作領域40は、マーカ3020の位置を基準として定められる任意の領域である。例えば操作領域40は、マーカ3020の位置(例えば中心位置)を中心位置とする所定形状で定まる領域である。この所定形状は、円形や矩形など、任意の形状である。
認識部2040によって操作体として扱われる物は様々である。例えば認識部2040は、ユーザの腕部の一部(指など)や、ユーザの腕部によって保持される物(ペンなど)を操作体として扱う。この場合、ユーザは、カメラ20の撮像範囲内で指やペンなどを動かすことにより、入力操作を行う。なお、マーカ3020がユーザの腕部に身に付けられ、なおかつ操作体がユーザの腕部の一部である場合、マーカ3020が身に付けられる腕部と操作体として扱われる腕部は同一(両方とも左腕又は右腕)であってもよいし、異なっていてもよい(片方は左腕、もう片方は右腕)。このことは、操作体がユーザの腕部の一部によって保持される物である場合についても同様である。
認識部2040は、センサ3040の検出結果に基づくタイミングにおける操作体の位置を検出する(S110)。以下、「センサ3040の検出結果に基づくタイミング」を検出対象タイミングと表記する。
認識部2040は、検出対象タイミングを含む時間における操作体の動きを検出する(S110)。以下、「検出対象タイミングを含む時間」を検出対象時間と表記する。
認識部2040は、検出した操作体の位置又は動きに基づいて入力操作を認識する(S112)。認識部2040は、操作体の位置又は動きに基づいて定まる様々な入力操作を認識できる。以下、認識部2040によって認識できる種々の入力操作を例示する。
例えば認識部2040は、操作体の位置に基づいて、複数の選択肢から一つを選択する入力操作(以下、選択操作)を受け付ける。例えば選択操作には、YES 又は NO を選択する操作や、上下を選択する操作などがある。上下を選択する操作には、エアコンの温度又は風向を調節する操作などがある。
認識部2040は、1)検出した操作体の動きに基づく形状を入力する入力操作を認識としてもよいし、2)検出した操作体の動きに対応する所定の入力操作を認識してもよい。以下、それぞれについて説明する。
図15は、操作体の動きによって定まる形状を入力する入力操作を認識する様子を例示する図である。図15(a)では、認識部2040は、操作体の動き50−Aが表す形状51や、動き50−Bが表す形状52を入力する入力操作を認識する。例えばこの入力操作は、手書き入力を行う入力操作で利用される。
検出した操作体の動きに対応する所定の入力操作は、例えばジェスチャ入力による入力操作である。図16は、ジェスチャ入力を例示する図である。図16(a)はフリック動作を表し、図16(b)はピンチイン・ピンチアウト動作を表している。なお、矢印は操作体の動きを表している。
認識部2040は、1)操作体を動かす動作が行われた位置に関係なく、その操作体の動きのみを入力として認識してもよいし、2)操作体の動きと、その操作体を動かす動作が行われた位置との組み合わせを入力として認識してもよい。前者の場合、操作体を動かす動作が撮像画像22上のどの場所で行われても、同じ操作体の動きは同じ入力を表す。一方後者の場合、操作体を動かす動作が撮像画像22上のどの場所で行われたかが意味を持つ。例えばユーザが撮像画像に写っている特定の物を丸で囲む入力を行う場合、丸という形状だけでなく、その丸によって何が囲われたかが意味を持つ。
認識部2040が認識する操作体の位置や動きは、操作領域40内における相対的な位置や動きであってもよいし、撮像画像全体における相対的な位置や動きであってもよい。
図19は、実施形態2の情報処理システム3000を例示するブロック図である。以下で説明する点を除き、実施形態2の情報処理システム3000は、実施形態1の情報処理システム3000と同様の機能を有する。
図21は、実施形態2の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。まず情報処理装置2000は、入力操作の対象を含む表示画面を出力装置3060に出力させるトリガとなる入力操作を受け付ける(S202)。この入力操作は、認識部2040によって認識される入力操作であってもよいし、その他の入力操作であってもよい。後者の場合、例えば入力操作は、情報処理装置2000に対して接続されている入力デバイス(スイッチやキーボードなど)に対する操作である。
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。また、出力装置3060は、入出力インタフェース1100を介して計算機1000に接続される。ただし、出力装置3060を計算機1000に接続する方法は、入出力インタフェース1100を介して接続する方法に限定されない。例えば出力装置3060は、ネットワークを介して計算機1000に接続されてもよい。この場合、計算機1000は、ネットワークに接続するためのネットワークインタフェースを有する。
本実施形態によれば、出力制御部2060により、操作対象に関する情報が出力装置3060に出力される。よって、ユーザは操作対象に関する情報を参照しながら入力操作を行うことができる。こうすることで、ユーザにとって情報処理システム3000の利便性が向上する。
実施形態2の情報処理システム3000について、実施例を通じてさらに詳細に説明する。図22は、実施例の情報処理システム3000の使用環境を例示する図である。本実施例において、情報処理システム3000は自動車90に乗っている人(例えば運転手)によって利用される。
1. ユーザに身につけられるか、又はユーザの身体の一部であるマーカと、
ユーザに身に付けられるセンサと、
情報処理装置と、を有し、
前記情報処理装置は、
カメラによって生成された撮像画像に写っている前記マーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出手段と、
前記センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識手段と、
を有する情報処理システム。
2. 前記マーカは前記ユーザの腕部に身につけられ、
前記操作体は、前記腕部の一部であるか、又は前記腕部によって保持される物体である、
1.に記載の情報処理システム。
3. 前記マーカは前記腕部に含まれる手首に身につけられ、
前記操作領域算出手段は、前記マーカの位置から前記腕部に含まれる手のひらの方向へ所定距離離れた位置を含むように、前記操作領域を算出する、
2.に記載の情報処理システム。
4. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であり、
前記センサは前記デバイスに設けられている、
1.乃至3.いずれか一つに記載の情報処理システム。
5. 当該情報処理システムは、画面を出力する出力装置を有し、
前記情報処理装置は、前記認識手段によって認識される入力操作の操作対象を含む画面を前記出力装置に出力させる出力制御手段を有する、1.乃至4.いずれか一つに記載の情報処理システム。
6. 前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される、5.に記載の情報処理システム。
7. 前記出力制御手段が前記出力装置に出力させる前記画面は、前記乗り物に搭載されているデバイスを操作するための操作画面である、6.に記載の情報処理システム。
8. カメラによって生成された撮像画像に写っているマーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出手段と、
センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識手段と、を有し、
前記マーカは、ユーザに身につけられるか、又はユーザの身体の一部であり、
前記センサは、ユーザに身に付けられる、情報処理装置。
9. 前記マーカは前記ユーザの腕部に身につけられ、
前記操作体は、前記腕部の一部であるか、又は前記腕部によって保持される物体である、
8.に記載の情報処理装置。
10. 前記マーカは前記腕部に含まれる手首に身につけられ、
前記操作領域算出手段は、前記マーカの位置から前記腕部に含まれる手のひらの方向へ所定距離離れた位置を含むように、前記操作領域を算出する、
9.に記載の情報処理装置。
11. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であり、
前記センサは前記デバイスに設けられている、
8.乃至11.いずれか一つに記載の情報処理装置。
12. 前記認識手段によって認識される入力操作の操作対象を含む画面を出力装置に出力させる出力制御手段を有する、8.乃至11.いずれか一つに記載の情報処理装置。
13. 前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される、12.に記載の情報処理装置。
14. 前記出力制御手段が前記出力装置に出力させる前記画面は、前記乗り物に搭載されているデバイスを操作するための操作画面である、13.に記載の情報処理装置。
15. コンピュータによって実行される制御方法であって、
カメラによって生成された撮像画像に写っているマーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出ステップと、
センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識ステップと、
を有し、
前記マーカは、ユーザに身につけられるか、又はユーザの身体の一部であり、
前記センサは、ユーザに身に付けられる、制御方法。
16. 前記マーカは前記ユーザの腕部に身につけられ、
前記操作体は、前記腕部の一部であるか、又は前記腕部によって保持される物体である、
15.に記載の制御方法。
17. 前記マーカは前記腕部に含まれる手首に身につけられ、
前記操作領域算出ステップは、前記マーカの位置から前記腕部に含まれる手のひらの方向へ所定距離離れた位置を含むように、前記操作領域を算出する、
16.に記載の制御方法。
18. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であり、
前記センサは前記デバイスに設けられている、
15.乃至17.いずれか一つに記載の制御方法。
19. 前記制御方法は、前記認識ステップによって認識される入力操作の操作対象を含む画面を出力装置に出力させる出力制御ステップを有する、15.乃至18.いずれか一つに記載の制御方法。
20. 前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される、19.に記載の制御方法。
21. 前記出力制御ステップが前記出力装置に出力させる前記画面は、前記乗り物に搭載されているデバイスを操作するための操作画面である、20.に記載の制御方法。
22. カメラによって生成された撮像画像に写っているマーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出ステップと、
センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識ステップと、をコンピュータに実行させ、
前記マーカは、ユーザに身につけられるか、又はユーザの身体の一部であり、
前記センサは、ユーザに身に付けられる、プログラム。
23. 前記マーカは前記ユーザの腕部に身につけられ、
前記操作体は、前記腕部の一部であるか、又は前記腕部によって保持される物体である、
22.に記載のプログラム。
24. 前記マーカは前記腕部に含まれる手首に身につけられ、
前記操作領域算出ステップは、前記マーカの位置から前記腕部に含まれる手のひらの方向へ所定距離離れた位置を含むように、前記操作領域を算出する、
23.に記載のプログラム。
25. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であり、
前記センサは前記デバイスに設けられている、
22.乃至24.いずれか一つに記載のプログラム。
26. 前記認識ステップによって認識される入力操作の操作対象を含む画面を出力装置に出力させる出力制御ステップをコンピュータに実行させる、15.乃至18.いずれか一つに記載のプログラム。
27. 前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される、26.に記載のプログラム。
28. 前記出力制御ステップが前記出力装置に出力させる前記画面は、前記乗り物に搭載されているデバイスを操作するための操作画面である、29.に記載のプログラム。
Claims (8)
- ユーザに身につけられるか、又はユーザの身体の一部であるマーカと、
ユーザに身に付けられるセンサと、
情報処理装置と、
画面を出力する出力装置と、を有し、
前記情報処理装置は、
カメラによって生成された撮像画像に写っている前記マーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出手段と、
前記センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識手段と、
前記認識手段によって認識される入力操作の操作対象を含む画面を前記出力装置に出力させる出力制御手段と、
を有し、
前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される、情報処理システム。 - 前記マーカは前記ユーザの腕部に身につけられ、
前記操作体は、前記腕部の一部であるか、又は前記腕部によって保持される物体である、
請求項1に記載の情報処理システム。 - 前記マーカは前記腕部に含まれる手首に身につけられ、
前記操作領域算出手段は、前記マーカの位置から前記腕部に含まれる手のひらの方向へ所定距離離れた位置を含むように、前記操作領域を算出する、
請求項2に記載の情報処理システム。 - 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であり、
前記センサは前記デバイスに設けられている、
請求項1乃至3いずれか一項に記載の情報処理システム。 - 前記出力制御手段が前記出力装置に出力させる前記画面は、前記乗り物に搭載されているデバイスを操作するための操作画面である、請求項1乃至4いずれか一項に記載の情報処理システム。
- カメラによって生成された撮像画像に写っているマーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出手段と、
センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識手段と、
前記認識手段によって認識される入力操作の操作対象を含む画面を、画面を出力する出力装置に出力させる出力制御手段と、を有し、
前記マーカは、ユーザに身につけられるか、又はユーザの身体の一部であり、
前記センサは、ユーザに身に付けられ、
前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される、情報処理装置。 - コンピュータによって実行される制御方法であって、
カメラによって生成された撮像画像に写っているマーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出ステップと、
センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識ステップと、
前記認識ステップによって認識される入力操作の操作対象を含む画面を、画面を出力する出力装置に出力させる出力制御ステップと、
を有し、
前記マーカは、ユーザに身につけられるか、又はユーザの身体の一部であり、
前記センサは、ユーザに身に付けられ、
前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される、制御方法。 - カメラによって生成された撮像画像に写っているマーカの位置に基づいて、前記撮像画像に含まれる操作領域を算出する操作領域算出ステップと、
センサの検出結果に基づくタイミングにおいて前記操作領域内に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記操作領域内に写っている前記操作体の動きを検出し、前記検出した位置若しくは動きに基づいて入力操作を認識する認識ステップと、
前記認識ステップによって認識される入力操作の操作対象を含む画面を、画面を出力する出力装置に出力させる出力制御ステップと、をコンピュータに実行させ、
前記マーカは、ユーザに身につけられるか、又はユーザの身体の一部であり、
前記センサは、ユーザに身に付けられ、
前記出力装置は、乗り物の窓の一部と重なる領域へ前記画面を出力するようにその乗り物に設置される、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016021575 | 2016-02-08 | ||
JP2016021575 | 2016-02-08 | ||
PCT/JP2017/004491 WO2017138545A1 (ja) | 2016-02-08 | 2017-02-08 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6341343B2 true JP6341343B2 (ja) | 2018-06-13 |
JPWO2017138545A1 JPWO2017138545A1 (ja) | 2018-07-26 |
Family
ID=59563803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017566966A Active JP6341343B2 (ja) | 2016-02-08 | 2017-02-08 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10296101B2 (ja) |
JP (1) | JP6341343B2 (ja) |
WO (1) | WO2017138545A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10234955B2 (en) * | 2015-09-28 | 2019-03-19 | Nec Corporation | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program |
US10372229B2 (en) * | 2016-02-25 | 2019-08-06 | Nec Corporation | Information processing system, information processing apparatus, control method, and program |
US11402913B1 (en) | 2020-01-06 | 2022-08-02 | Rockwell Collins, Inc. | System and method for aircraft display device feedback |
CN112000272B (zh) * | 2020-08-25 | 2022-05-06 | 北京百度网讯科技有限公司 | 键盘面板的布局调整方法、装置、电子设备和存储介质 |
US20230041519A1 (en) * | 2021-08-09 | 2023-02-09 | Htc Corporation | Tracking system, tracking method and non-transitory computer-readable storage medium |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040095311A1 (en) * | 2002-11-19 | 2004-05-20 | Motorola, Inc. | Body-centric virtual interactive apparatus and method |
JP2009104429A (ja) | 2007-10-24 | 2009-05-14 | Nikon Corp | ヘッドマウントディスプレイ装置及び携帯装置 |
JP2011257943A (ja) * | 2010-06-08 | 2011-12-22 | Canon Inc | ジェスチャ操作入力装置 |
JP5845002B2 (ja) * | 2011-06-07 | 2016-01-20 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
EP2761362A4 (en) | 2011-09-26 | 2014-08-06 | Microsoft Corp | VIDEO DISPLAY CHANGE BASED ON SENSOR INPUT FOR TRANSPARENT EYE DISPLAY |
US9671566B2 (en) * | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
JP6030430B2 (ja) | 2012-12-14 | 2016-11-24 | クラリオン株式会社 | 制御装置、車両及び携帯端末 |
JP6015547B2 (ja) | 2013-05-09 | 2016-10-26 | 株式会社デンソー | 視線入力装置 |
JP6115421B2 (ja) | 2013-09-17 | 2017-04-19 | トヨタ自動車株式会社 | 入力装置および入力システム |
JP6287382B2 (ja) | 2014-03-12 | 2018-03-07 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
-
2017
- 2017-02-08 US US15/760,275 patent/US10296101B2/en active Active
- 2017-02-08 WO PCT/JP2017/004491 patent/WO2017138545A1/ja active Application Filing
- 2017-02-08 JP JP2017566966A patent/JP6341343B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US10296101B2 (en) | 2019-05-21 |
US20180267619A1 (en) | 2018-09-20 |
JPWO2017138545A1 (ja) | 2018-07-26 |
WO2017138545A1 (ja) | 2017-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6341343B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
CN107615214B (zh) | 界面控制系统、界面控制装置、界面控制方法及程序 | |
JP6390799B2 (ja) | 入力装置、入力方法、及びプログラム | |
CN106427571B (zh) | 交互式操纵装置和用于运行所述交互式操纵装置的方法 | |
JP4351599B2 (ja) | 入力装置 | |
KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
EP1980935A1 (en) | Information processing device | |
JP6350772B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP2014219938A (ja) | 入力支援装置、入力支援方法、および、プログラム | |
US20120249417A1 (en) | Input apparatus | |
JP2020510254A (ja) | 表示情報及び/又はデータの同時多機能操作を可能とするディスプレイを備えたスマートデバイス | |
JP2016126687A (ja) | ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム | |
KR101708455B1 (ko) | 핸드 플로트 입체 메뉴 시스템 | |
CN108778818B (zh) | 用于检测操作装置的至少一个操作功能的用户选择的方法 | |
JP2017197015A (ja) | 車載用情報処理システム | |
WO2017188098A1 (ja) | 車載用情報処理システム | |
JP6739864B2 (ja) | 車載用情報処理システム | |
KR20120062053A (ko) | 터치스크린의 가상 캐릭터 제어방법 | |
JP2017187922A (ja) | 車載用情報処理システム | |
RU115937U1 (ru) | Устройство пользовательского ввода | |
JP2017045472A (ja) | タッチパネル式装置によるヘッドマウントディスプレイ上のポインタ操作が可能なシステム、プログラム、及び方法 | |
JP2023066255A (ja) | 車載ディスプレイ制御システム及び車載ディスプレイ制御方法 | |
JP2016115039A (ja) | タッチパネル式装置によるヘッドマウントディスプレイ上のポインタ操作が可能なシステム、プログラム、及び方法 | |
KR20180007569A (ko) | 회전 센서를 이용한 3차원 공간 좌표 인식 마우스 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180322 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180322 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180430 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6341343 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |