JP2019207573A - 情報処理装置及びプログラム - Google Patents
情報処理装置及びプログラム Download PDFInfo
- Publication number
- JP2019207573A JP2019207573A JP2018102770A JP2018102770A JP2019207573A JP 2019207573 A JP2019207573 A JP 2019207573A JP 2018102770 A JP2018102770 A JP 2018102770A JP 2018102770 A JP2018102770 A JP 2018102770A JP 2019207573 A JP2019207573 A JP 2019207573A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- movement
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 66
- 230000033001 locomotion Effects 0.000 claims abstract description 133
- 238000001514 detection method Methods 0.000 claims abstract description 41
- 230000006870 function Effects 0.000 claims description 93
- 238000000034 method Methods 0.000 claims description 71
- 238000012545 processing Methods 0.000 claims description 58
- 238000004891 communication Methods 0.000 claims description 48
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 230000015541 sensory perception of touch Effects 0.000 claims description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 80
- 238000010586 diagram Methods 0.000 description 73
- 230000007246 mechanism Effects 0.000 description 41
- 238000003384 imaging method Methods 0.000 description 26
- 230000005540 biological transmission Effects 0.000 description 23
- 230000035807 sensation Effects 0.000 description 22
- 235000019615 sensations Nutrition 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 15
- 238000003860 storage Methods 0.000 description 14
- 210000003128 head Anatomy 0.000 description 12
- 210000004247 hand Anatomy 0.000 description 8
- 238000012805 post-processing Methods 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 238000005034 decoration Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008058 pain sensation Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 235000019613 sensory perceptions of taste Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000035923 taste sensation Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00352—Input means
- H04N1/00381—Input by recognition or interpretation of visible user gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/327—Initiating, continuing or ending a single-mode communication; Handshaking therefor
- H04N1/32765—Initiating a communication
- H04N1/32771—Initiating a communication in response to a request, e.g. for a particular document
- H04N1/32776—Initiating a communication in response to a request, e.g. for a particular document using an interactive, user-operated device, e.g. a computer terminal, mobile telephone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1202—Dedicated interfaces to print systems specifically adapted to achieve a particular effect
- G06F3/1203—Improving or facilitating administration, e.g. print management
- G06F3/1204—Improving or facilitating administration, e.g. print management resulting in reduced user or operator actions, e.g. presetting, automatic actions, using hardware token storing data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1202—Dedicated interfaces to print systems specifically adapted to achieve a particular effect
- G06F3/1203—Improving or facilitating administration, e.g. print management
- G06F3/1205—Improving or facilitating administration, e.g. print management resulting in increased flexibility in print job configuration, e.g. job settings, print requirements, job tickets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/1238—Secure printing, e.g. user identification, user rights for device usage, unallowed content, blanking portions or fields of a page, releasing held jobs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/1253—Configuration of print job parameters, e.g. using UI at the client
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/1268—Job submission, e.g. submitting print job order or request not the print data itself
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
請求項2に記載の発明は、前記物体の像は、撮像された画像に基づいて前記表示面に表示されている、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記検知手段は、撮像された画像を処理してユーザの手又は指の動きを検知する、請求項1に記載の情報処理装置である。
請求項4に記載の発明は、前記検知手段は、測定された距離の情報を用いてユーザの手又は指の動きを検知する、請求項1に記載の情報処理装置である。
請求項5に記載の発明は、前記表示面には、ユーザの手又は指の像が、前記物体の像に重ねて表示される、請求項1に記載の情報処理装置である。
請求項6に記載の発明は、ユーザの動きに対応する操作は、前記物体の個別の部位毎に用意されている、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記制御手段は、ユーザによる前記物体の操作が許可されている場合に、当該物体に対して操作の実行を指示する、請求項1に記載の情報処理装置である。
請求項8に記載の発明は、検知されたユーザの動きに対応する操作が前記物体で実行できない場合、ユーザに報知する、請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記物体に対する正しい操作の方法を報知する、請求項8に記載の情報処理装置である。
請求項10に記載の発明は、前記制御手段は、前記物体に応じ、検知されたユーザの動きに対応する操作の内容を決定する、請求項1に記載の情報処理装置である。
請求項11に記載の発明は、前記制御手段は、前記物体との通信を通じて操作が可能な当該物体の機能を取得する、請求項1に記載の情報処理装置である。
請求項12に記載の発明は、前記制御手段は、ユーザの体の部位を示唆する表記を前記物体に重ねて表示する、請求項1に記載の情報処理装置である。
請求項13に記載の発明は、前記制御手段は、ユーザの動きを操作として受け付けたことをユーザに報知する、請求項1に記載の情報処理装置である。
請求項14に記載の発明は、前記報知は、ユーザが前記表示面に対して非接触に動かした体の部位に触覚を通じて報知する、請求項13に記載の情報処理装置である。
請求項15に記載の発明は、前記制御手段は、操作として受け付けた体の部位を、受け付け前とは異なる態様で表示する、請求項13に記載の情報処理装置である。
請求項16に記載の発明は、前記制御手段は、前記物体の操作に用いる装備をユーザの体に重ねて表示する、請求項1に記載の情報処理装置である。
請求項17に記載の発明は、前記制御手段は、前記物体が存在する環境に応じた装備をユーザの体に重ねて表示する、請求項1に記載の情報処理装置である。
請求項18に記載の発明は、前記制御手段は、ユーザの動きに対応する操作が前記物体に対する物理的な操作を必要とする場合、可動部を有する別の機器に対して操作の実行を指示する、請求項1に記載の情報処理装置である。
請求項19に記載の発明は、前記表示面に表示されている前記物体の像は、操作の対象とする当該物体の画像を更に撮像した画像である、請求項1に記載の情報処理装置である。
請求項20に記載の発明は、前記表示面は空気中に形成される、請求項1に記載の情報処理装置である。
請求項21に記載の発明は、前記表示面は、拡張現実又は複合現実として表示される、請求項1に記載の情報処理装置である。
請求項22に記載の発明は、操作の対象とする物体とは非接触の状態のまま実行されるユーザの動きを検知する検知手段と、ユーザの動きが、前記物体の像を表示する表示面とユーザとの間で検知されたか、当該物体を撮像する当該表示面と当該物体との間で検知されたかに応じて、当該物体に指示する操作の内容を切り替える制御手段と、を有する情報処理装置である。
請求項23に記載の発明は、前記表示面とユーザとの間で検知されたユーザの動きと当該表示面と前記物体との間で検知されたユーザの動きとが、当該物体の異なる部位に対応付けられている、請求項22に記載の情報処理装置である。
請求項24に記載の発明は、前記表示面とユーザとの間で検知されたユーザの動きは、前記物体のうちユーザから見て手前側の面に対応付けられており、前記表示面と前記物体との間で検知されたユーザの動きは、当該物体のうちユーザから見て奥側の面に対応付けられている、請求項23に記載の情報処理装置である。
請求項25に記載の発明は、前記表示面とユーザとの間で検知されたユーザの動きと当該表示面と前記物体との間で検知されたユーザの動きとが、当該物体の同じ部位に対応付けられている、請求項22に記載の情報処理装置である。
請求項26に記載の発明は、前記制御手段は、前記表示面とユーザとの間で検知されたユーザの動きに限り、又は、当該表示面と前記物体との間で検知されたユーザの動きに限り、有効な動きとして当該物体に指示する、請求項22に記載の情報処理装置である。
請求項27に記載の発明は、前記有効な動きとして扱われる検知の位置は機能毎に設定される、請求項26に記載の情報処理装置である。
請求項28に記載の発明は、前記有効な動きとして扱われる検知の位置はユーザにより指定される、請求項26に記載の情報処理装置である。
請求項29に記載の発明は、コンピュータを、操作の対象とする物体の像を表示する表示面とは非接触の状態で、当該表示面とユーザとの間で行われるユーザの動きを検知する検知手段と、検知されたユーザの動きに対応する操作の実行を前記物体に指示する制御手段、として機能させるプログラムである。
請求項30に記載の発明は、コンピュータを、操作の対象とする物体とは非接触の状態のまま実行されるユーザの動きを検知する検知手段と、ユーザの動きが、前記物体の像を表示する表示面とユーザとの間で検知されたか、当該物体を撮像する当該表示面と当該物体との間で検知されたかに応じて、当該物体に指示する操作の内容を切り替える制御手段、として機能させるプログラムである。
請求項2記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項3記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項4記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項5記載の発明によれば、ユーザは画面上で自身の手又は指と操作の対象とする物体との位置関係を確認できる。
請求項6記載の発明によれば、部位ごとに異なる操作を実現できる。
請求項7記載の発明によれば、許可が必要とされる操作にも対応できる。
請求項8記載の発明によれば、正しくない操作を知らせることができる。
請求項9記載の発明によれば、正しい操作を促すことができる。
請求項10記載の発明によれば、物体が異なっても操作できる。
請求項11記載の発明によれば、物体の機能に応じた操作を指示できる。
請求項12記載の発明によれば、画面上で物体を確認したまま操作できる。
請求項13記載の発明によれば、操作の確定を確認できる。
請求項14記載の発明によれば、操作の確定を確認できる。
請求項15記載の発明によれば、操作の確定を確認できる。
請求項16記載の発明によれば、現実感を高めることができる。
請求項17記載の発明によれば、現実感を高めることができる。
請求項18記載の発明によれば、物理的な接触が必要とされる操作も実行を指示できる。
請求項19記載の発明によれば、目前にない物体でも操作できる。
請求項20記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項21記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項22記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項23記載の発明によれば、誤操作を低減できる。
請求項24記載の発明によれば、誤操作を低減できる。
請求項25記載の発明によれば、ユーザの動きが検知される位置により操作の内容を切り替えることができる。
請求項26記載の発明によれば、ユーザの動きが検知される位置により有効な操作と無効な操作を切り替えることができる。
請求項27記載の発明によれば、機能毎に有効な操作と無効な操作を切り替えることができる。
請求項28記載の発明によれば、ユーザの誤操作を低減できる。
請求項29載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項30記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
<実施の形態1>
<システム例>
図1及び図2を用い、実施の形態1に係るシステム全体の構成と、ユーザと機器との位置の関係を説明する。
図1は、実施の形態1に係るシステムの一例を説明する図である。
図2は、右手302とスマートフォン200の位置の関係を説明する図である。
実施の形態1に係るシステムは、記録材(以下、代表して「用紙」と記す場合もある。)に画像を形成する画像形成装置100と、画像形成装置100を撮像するスマートフォン200とで構成されている。
図1及び図2に示すように、本実施の形態の場合、ユーザ300は、左手301でスマートフォン200を保持した状態で右手302を空中で動かすことで、画像形成装置100に対する操作をスマートフォン200に入力する。
なお、右手302でスマートフォン200を保持した状態で左手301を空中で動かしてもよい。
本実施の形態に係るスマートフォン200は、ユーザの右手302(例えば人差し指)の動きを検知し、検知された動きに対応する操作の実行を画像形成装置100に指示する。すなわち、ユーザ300は、画像形成装置100の操作面とスマートフォン200の操作面のいずれにも触れずに、画像形成装置100に対する操作を入力する。
ただし、左手301はスマートフォン200に接している。
なお、画像形成装置100は、コピー機能、スキャン機能、ファックス送受信機能の全てを備える必要はなく、いずれか1つの機能に特化した装置、例えば複写機、スキャナ、ファックス送受信機、プリンタ(3次元プリンタを含む。)であってもよい。また、画像形成装置100は、これらの機能の一部を選択的に組み合わせた装置構成を有していてもよい。
スマートフォン200は、携帯型の端末装置であり、後述するように撮像用のカメラ、表示画面、通信機能等を備えている。
図1に示すスマートフォン200の表示画面には、画像形成装置100の像100Aが表示されている。
ここでの画像形成装置100は、操作の対象として現実の空間に存在する物体の一例であり、スマートフォン200は、ユーザ300に接した状態で使用される情報処理装置の一例である。
図3は、画像形成装置100のハードウェア構成の一例を説明する図である。
図3には、図1との対応部分に対応する符号を付して示している。
ユーザインタフェース部110は、操作画面等の表示に使用される表示部111と、ユーザの入力操作を受け付ける操作受付部112とを備えている。
表示部111は、例えば液晶ディスプレイパネルや有機EL(Electro Luminescence)ディスプレイパネル等で構成されている。
操作受付部112は、ユーザによる操作入力を受け付けるボタンやタッチパッド等で構成されている。
画像形成ユニット130は、制御部として機能するMPU(Micro Processing Unit)131と、ROM(Read Only Memory)132と、RAM(Random Access Memory)133を有している。
MPU131は、ROM132から読み出したファームウェア等のプログラムを実行し、各種の機能を提供する。RAM133は、プログラムの作業領域として使用される。
記憶部134は、ハードディスク装置や半導体メモリ等の不揮発性の記憶媒体を有している。記憶部134には、画像読取ユニット120で読み取った原稿の画像データや通信部137を通じて受信した画像データが記憶される。
通信部137は、LAN(Local Area Network)インタフェースやファクシミリ通信網サービスのインタフェースを備えている。前述したスマートフォン200(図1参照)との通信にはLANインタフェースが使用される。
なお、MPU131、ROM132、RAM133、記憶部134、画像処理部135、画像形成部136、通信部137は、バス138を通じて互いに接続されている。また、前述したユーザインタフェース部110と画像読取ユニット120は、インタフェース139を通じてバス138に接続されている。
図4は、スマートフォン200のハードウェア構成の一例を説明する図である。
スマートフォン200は、データを処理する処理回路部210と、プログラムやデータを記憶する不揮発性のメモリ221と、オーディオ信号を入出力するオーディオ回路222と、画像を表示する液晶ディスプレイ(LCD)223と、電源制御デバイス224と、画像を撮像する2台のカメラ225A、225Bと、操作面に対する接触を検知するタッチパッド226と、WiFi(登録商標)規格に準拠する無線信号を送受信するWiFi(Wireless Fidelity)モジュール227と、近距離無線通信規格の1つであるブルートゥース(登録商標)規格に準拠する無線信号を送受信するBluetooth(登録商標)モジュール228と、物体に接触していない体の部位に人工的な触覚を与える空中触覚モジュール229と、を有している。
このため、ユーザは、現実の空間に存在する物体(例えば画像形成装置)と自身の体の一部(例えば指、手、足)をカメラ225Aで撮像しながら、その画像を液晶ディスプレイ223で確認することが可能である。
一方、液晶ディスプレイ223と同じ面には、スマートフォン200を操作するユーザ300を撮像するカメラ225Bが設けられている。カメラ225Aとカメラ225Bとは反対側の面に設けられている。
もっとも、ユーザの指示があれば、カメラ225Aで撮像された画像又はメモリ221から再生される画像の代わりに、カメラ225Bで撮像された画像を液晶ディスプレイ223に表示してもよい。
なお、スマートフォン200を自分撮りモードで使用する場合、カメラ225Bで撮像された画像が液晶ディスプレイ223に表示される。
本実施の形態における空中触覚モジュール229は、例えば複数の超音波振動子を格子状に並べた超音波振動子アレーで構成される。この種の空中触覚モジュール229は、空中の任意の位置に超音波の焦点を生成することができる。焦点の分布や振動の強さを調整することにより、ユーザによって知覚される触覚は変化する。
本実施の形態における空中触覚モジュール229は、例えば複数の超音波振動子を格子状に並べた超音波振動子アレーで構成される。この種の空中触覚モジュール229は、空中の任意の位置に超音波の焦点を生成することができる。焦点の分布や振動の強さを調整することにより、ユーザによって知覚される触覚は変化する。
例えば操作の対象である機能に応じ、生成する触覚を変化させてもよい。触覚は、例えばユーザの動きが検知された場合、特定の機能に対する操作として受け付けられた場合等に生成される。また、他のユーザの動きや動きの強さを、触覚を通じて伝達してもよい。空中触覚モジュール229は、触覚を付与する付与手段の一例である。
ここでの処理回路部210は、検知手段の一例であるとともに制御手段の一例でもある。
処理回路部210は、画像データを処理してユーザの身振りを検知する身振り検知部251と、操作の対象とする物体を検知する操作対象検知部252と、操作の対象とする物体(本実施の形態では画像形成装置100)から物体が備える機能の情報を取得する対象側機能取得部253と、ユーザの身振りを操作として受け付ける操作受付部254と、受け付けた操作に対応する指示を対象とする物体に送信する指示送信部255と、操作の受け付けをユーザに報知する報知部256として機能する。
本実施の形態における身振りには、例えば押す、引く、回す、握る、蹴る、踏む、クリック、ダブルクリック、ドラッグ、タップ、フリック、スワイプ等が含まれる。
本実施の形態における身振り検知部251は、例えばカメラ225Bで撮像された画像からユーザの体の一部(例えば指、手、足)の動きを身振りとして検知する。動きの意味は、操作の対象として検知される物体毎に異なる。また、同じ物体に対する動きでも操作の対象とする機能が異なれば、動きの意味は異なる。
本実施の形態における身振りには、例えば押す、引く、回す、握る、蹴る、踏む、クリック、ダブルクリック、ドラッグ、タップ、フリック、スワイプ等が含まれる。なお、身振りの特定には、深層学習の機能を用いてもよい。
本実施の形態の場合、図2で説明したように、操作の対象である物体と操作の入力に用いられるユーザの体の一部は、スマートフォン200を挟んで反対側に位置するためである。
操作対象検知部252は、カメラ225Bで撮像された画像を処理して予め定めた体の一部(例えば指先、手、足)を抽出し、抽出された体の一部の液晶ディスプレイ223内における位置を特定する。
本実施の形態における操作子には、操作の対象となる物理的な構造物(例えばボタン、スイッチ)、ソフトウェア的に再現される画面上の表示(例えばボタン、スイッチ)等が含まれる。
画面内に複数の物体が含まれる場合、操作対象検知部252は、カメラ225Aで撮像された画像のうち画面の中央により近い物体を対象として検知してもよい。
なお、操作対象検知部252は、無線LAN等によってスマートフォン200と接続中の機器の一覧の中からユーザによって選択された機器を操作の対象として検知してもよい。
また、対象側機能取得部253は、例えば通信可能な機器のそれぞれから操作が可能な操作子の情報を取得してもよい。
なお、操作の対象が通信機能を有しているとは限らない。例えば操作の対象が植物や自然物の場合である。この場合でも、対象側機能取得部253は、人の動きを代行可能なロボットその他の機器と通信し、実行が可能な操作の情報を取得してもよい。
なお、図2に示したように、操作の対象とする物体は、ユーザと対向する位置に存在している。そして、カメラ225Aが操作の対象とする物体を撮像する方向と、カメラ225B(図4参照)がユーザの体の一部を撮像する方向とは逆向きになる。
ここでの逆向きは、正確に逆方向である必要はない。
また、指示送信部255は、操作の対象とする物体の各部に、それぞれ特有の身振りと機能の指示とが紐付けられている場合には、身振りを通じて受け付けた指示を送信してもよい。この場合、操作画面に対する操作は不要となる。
しかし、操作の対象とする物体の特定の部位に、それぞれ特定の身振りと特定の機能が割り当てられている場合には、より少ない操作で指示を送信することが可能になる。結果的に、複数の機能を素早く選択的に実行できる。
本実施の形態における報知部256は、オーディオ回路222や液晶ディスプレイ223を通じて、ユーザによる身振りによる操作を補助する各種の報知を実行する。
図6は、処理回路部210(図5参照)において実行される処理動作の一例を説明するフローチャートである。図6においては、ステップを記号のSで示す。
本実施の形態における処理回路部210は、液晶ディスプレイ223(図4参照)と同じ面に設けられているカメラ225Bで撮像された画像に含まれる人体の一部(例えば指、手、足)を認識する(ステップ101)。
次に、処理回路部210は、認識された部位(例えば指先)の動きを検知する(ステップ102)。
以上の処理は、例えば身振り検知部251(図5参照)が実行する。
なお、処理回路部210は、操作の対象である物体の認識も事前に又は並行して行う。操作の対象である物体を特定できない場合、処理回路部210は、操作の対象とする物体を特定できないこと、型式等を含む画像を撮像すべきこと等を報知する。この処理は、例えば報知部256(図5参照)が実行する。
なお、特定された部位に対応付けられている機能が存在しない場合や対応付けられている機能の実行とは関係のない動きの場合、処理回路部210は、検知された動きを操作として受け付けないこともある。
ステップ105で肯定結果が得られた場合、処理回路部210は、操作の実行を指示する信号を、対象とする物体に送信する(ステップ106)。
ステップ107で肯定結果が得られた場合、処理回路部210は、操作の実行を指示する信号を自走装置に送信する(ステップ108)。
ステップ107で否定結果が得られた場合、処理回路部210は、操作できない旨を報知する(ステップ109)。
以下では、前述した機能を用いて実現される操作例について説明する。
<操作例1>
図7は、操作の対象とする画像形成装置100の像が表示されている液晶ディスプレイ223に触れること無く画像形成装置100を操作する例を説明する図である。
この撮像の際、ユーザは、左手301でスマートフォン200を保持している。一方、右手302は、液晶ディスプレイ223とは非接触のまま、液晶ディスプレイ223とユーザとの間で動かされる。
右手302を液晶ディスプレイ223の表示面に接触させない点が、既存の使い方との違いである。
この表示の状態は、画像形成装置100の像が液晶ディスプレイ223に表示されている状態でズーム操作を実行することで得ることができる。例えばスマートフォン200には、画面を数回タップすると、画面を拡大又は縮小できる機能が備えられている。従って、スマートフォン200を保持する左手301の人差し指で画面を数回タップすれば、液晶ディスプレイ223に右手302を触れること無く、画面の拡大率を変更できる。また、音声認識技術を使用すれば、液晶ディスプレイ223に右手302を触れなくても、画面の拡大率を変更できる。
ここで、人差し指の像302Aは、カメラ225Bによって撮像された画像そのものではなく、予め用意されている表示用の画像やアイコンの類である。
なぜなら、カメラ225Bによって撮像される右手302の人差し指は、指の腹側(手のひら側)であり、撮像された画像をそのまま液晶ディスプレイ223に表示したのでは、不自然な画像になるためである。
この表示により、あたかもユーザが指先で液晶ディスプレイ223の表面に触れているかのような見え方を再現できる。
操作に用いる右手302と液晶ディスプレイ223の表示面とが近い場合には(例えば人差し指が表示面から1cm程度の場合には)、人差し指の像302Aの表示は必ずしも必要ではないが、人差し指の像302Aが表示されることで、ユーザは、自身の人差し指が液晶ディスプレイ223に表示された画像のどの部位に位置しているかを容易に確認することができる。
画像形成装置100の特定には、例えば画像形成装置100の画像を処理して機種を特定する技術、画像に含まれる型番等の文字情報を検知する技術、液晶ディスプレイ223に表示される候補の中から選択する技術等の使用が可能である。
ここでの候補は、例えば無線LAN等によってスマートフォン200と接続中の機器の一覧として与えられる。
ここでは、操作の対象として画像形成装置100が既に特定されているものとする。
図7の場合、2つの操作子が液晶ディスプレイ223に表示されているので、操作の対象とする操作子の像と人差し指の像302Aとが重なるように右手302を空中で移動させる必要がある。
このため、人差し指の像302Aが画面輝度調整用のボタン272と重なるまでの動きは、操作子に対する操作としては受け付けられていない。
なお、本実施の形態では、操作の対象がボタン類であるので人差し指の像302Aの動きを検知しているが、検知の対象とする体の一部分は、操作の対象に応じて定めてもよい。例えば手、腕、足などの人体の一部を検知の対象としてもよい。検知の対象を特定することで誤操作の回避が可能になる。
図8には、図7との対応する部分に対応する符号を付して示している。
ここでの押すような動作とは、右手302がスマートフォン200の表示面に近づく方向への動きである。
具体的には、実空間において、ユーザインタフェース部110に表示された操作子を押す場合と同じ動きになる。
本実施の形態の場合、スマートフォン200には、操作子と動きとの関係がメモリ221(図4参照)に記憶されている。もっとも、メモリ221に記憶される関係は、画像形成装置100に設けられる操作子のうちの一部についてでもよい。
また、画像形成装置100に設けられる操作子のイメージと操作として認識する動きの関係は、画像形成装置100に記憶されており、操作の対象とする操作子を特定する処理も画像形成装置100が実行してもよい。
本実施の形態におけるスマートフォン200には、操作の受け付けをユーザに報知する機能が用意されている。
このため、図8では、画面輝度調整用のボタン272の表示の形態を変化させ、操作の受け付けをユーザに報知している。
加えて、図8の場合、右手302の人差し指の腹側(手のひら側)には、空中触覚モジュール229から発生される超音波によって人差し指に振動が加えられている。この振動は、ユーザに、ボタンの操作が受け付けられた触覚を与える。
なお、操作の受け付けをユーザに報知する機能は必須ではない。
図9は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図9には、図8との対応部分に対応する符号を付して示している。
図9の場合、画面輝度調整用のボタン272の表示には変化がないが、不図示のスピーカから「カチッ」という音が出力されている。
この音の発生により、ユーザは、自身の動きが操作として受け付けられたことの確認が可能である。
なお、音による報知の手法は、「操作を受け付けました」等の言葉として発せられてもよい。
この場合も、空中触覚モジュール229から発生される超音波によって人差し指に振動が加えられている。
図10は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図10には、図8との対応部分に対応する符号を付して示している。
図10の場合、画面輝度調整用のボタン272の表示には変化がないが、操作の受け付けを示す小さい画面280が追加的に表示されている。
図10に示す画面280には「操作を受け付けました」との文字列が記述されている。勿論、この文字列は一例である。
この場合も、空中触覚モジュール229から発生される超音波によって人差し指に振動が加えられている。
図11は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図11には、図8との対応部分に対応する符号を付して示している。
図11の場合、画面輝度調整用のボタン272の表示には変化がないが、人差し指の像302Aの表示の態様を、操作として受け付ける前の態様から変化させている。
ここで、表示の形態を変化させる方法には、例えば人差し指の像302Aが表示されている領域の輝度を上げる、点滅させる、他の色に変化させる等の手法が用いられる。
この場合も、空中触覚モジュール229から発生される超音波によって人差し指に振動が加えられている。
図12は、人差し指の像302Aを液晶ディスプレイ223に表示させない手法を説明する図である。
図12には、図8との対応部分に対応する符号を付して示している。
例えば液晶ディスプレイ223と同じ面に設けられたカメラ225Bの撮像の範囲に侵入した人体の一部を常に表示する手法では、人体の一部によって操作子の大部分が隠れてしまう可能性もある。例えば操作子に記載されている文字が手や腕の像に隠れてしまう可能性がある。
操作子に記載されている文字を確認できないと、どの操作子を操作しているのかわからないだけでなく、誤操作の原因にもなる。
そこで、図12では、画像処理によって人差し指の像302Aを画面上から消している。この場合、ユーザは、どの操作子を操作の対象とするのかを操作の間中、画面上で確認することが可能である。
ただし、人差し指の像302Aの表示がなければ、自身の人差し指が画面上のどの位置を指しているか分からないので、指先が位置する操作子(図12では、画面輝度調整用のボタン272)の表示の形態を変化させて、誤操作が起こらないようにしている。なお、ユーザの操作を受け付けた場合には、操作された操作子の表示の形態を、操作を受け付ける前と変化させてもよい。
図13は、人差し指の像302Aを液晶ディスプレイ223に表示させない他の手法を説明する図である。
図13には、図12との対応部分に対応する符号を付して示している。
また、図13では、操作を受け付けたことを文字列で記述する画面280も表示している。
この表示により、自身の体の一部によって視認を妨げられずに、特定の操作子を操作することが可能になる。
また、操作子の表示の態様を変化させる機能がある場合には、操作の対象と間違えずに済む。さらに、操作の受け付けが報知される場合には、ユーザの操作性を高めることができる。
図14は、スマートフォン200によって検知された人差し指の位置を示唆する手法の例を説明する図である。
図14には、図13との対応部分に対応する符号を付して示している。
操作例6では、人差し指の像302Aを全く表示していないが、画面上での位置を確認したいという要望も考えられる。
図14は、このような要望を考慮した表示の手法であり、人差し指の像302Aが位置する領域の輪郭線を示している。輪郭線が示されることでユーザは、スマートフォン200が検知した人差し指の位置と操作子との位置の関係を容易に確認することが可能になる。ここでの輪郭線は、ユーザの体の部位を示唆する表記の一例である。
また、指先の部分だけを輪郭線や透過像で選択的に表現し、指先以外は実像で表示してもよいし、反対に指先の部分だけを選択的に実像で表示してもよい。人体の一部の像で隠れる面積が減るので、操作の対象である物体の像の確認が容易になる。
図15は、操作の対象が通信の機能を有する電卓400である場合を説明する図である。
この例の場合、ユーザは、右手の指先が汚れていても、電卓400を汚すことなく操作し、演算の結果を確認できる。
図15の場合、ユーザの人差し指の像302Aは、透過像として電卓の像400Aの上に重ねて表示されている。透過像は、輪郭線とは異なり、実像が透けるように表示される。
そこで、液晶ディスプレイ223に表示される体の一部の大きさを選択できるようにしてもよい。例えば実像に比して大きくしたり、小さくしたりできるようにしてもよい。また、段階的に調整できるようにしてもよい。
この機能を用意することにより、操作子の押し間違いの低減が期待される。
図16は、操作の対象がレバー500である場合を説明する図である。
本実施の形態におけるレバー500には、例えば操縦桿、ジョイスティック、シフトレバー、ウインカーレバー、ブレーキレバー、車両のコントローラが含まれる。
図16の場合、操作の対象はレバー500であるので、ユーザは、何かを握るように空中に右手302を突き出している。この例の場合、右手302を前後左右に動かすと、その動きを検知したスマートフォン200からの指示によりレバー500が同じ動きをする。
液晶ディスプレイ223には、右手の像302Bがレバーの像500Aを握ったように表示されている。なお、右手の像302Bは、レバーの像500Aの上に単に重ねて表示されてもよい。
レバー500は、入力装置であって最終的な制御の対象ではないためである。従って、レバー500とスマートフォン200との通信は必須ではない。レバー500と通信できなくても、スマートフォン200は、レバー500の操作によって制御される機器との間で通信が可能であればよい。
例えば操作例1(図7参照)の場合には、カメラ225B(図4参照)で撮像された体の一部に対応する表示用の画像やアイコンが表示されているが、図16の例では、薄手の手袋を着用した右手の像302Bが表示されている。ここでの手袋は装備の一例である。
また、装飾に使用する画像データは、スマートフォン200のメモリ221に記憶されていてもよいし、レバー500を備える機器、外部のサーバ等から与えられてもよい。
本実施の形態の場合、この機能は、スマートフォン200におけるアプリケーションプログラムの実行を通じて実現される。もっとも、スマートフォン200の外部に設けられたサーバその他のコンピュータを使用して画像処理を実行し、処理の結果を液晶ディスプレイ223の表示に反映してもよい。
図17には、図16との対応部分に対応する符号を付して示している。
図17の場合、冬場に屋外でレバー500を操作する場合を想定している。このため、図17の場合には、厚手の手袋が装飾として右手の像302Bに付加されている。
このように、液晶ディスプレイ223に装飾した右手の像302Bが表示されることで、レバー500を実際に操作する場合と同様の印象をユーザに与えることができ、操作の実感を高めることが可能になる。
図18は、蝶番が取り付けられた部分を軸として開閉する片開き扉600を操作の対象とする場合を説明する図である。
片開き扉600には、電気的に片開き扉600を開く又は閉じる開閉用の機構610が取り付けられている。開閉用の機構610は、出入り口が設けられている壁面側に取り付けられている。また、ここでの開閉用の機構610は、無線LAN等を通じてスマートフォン200と直接又は間接的に通信が可能である。
なお、出入り口の近くの壁面には、不図示の照明器具の点灯や消灯に用いられるスイッチ700が取り付けられている。
図18の場合、ユーザの右手302は、液晶ディスプレイ223とユーザとの間の空間に位置し、液晶ディスプレイ223の表示面には非接触である。
勿論、ユーザの右手302は、片開き扉600とは非接触である。
図18に示す片開き扉600は、押すことで奥方向に開き、手前に引くと閉まる。
図19では、右手302の動き方向を矢印で表している。この右手302の動きは、スマートフォン200において、片開き扉600を開ける操作として検知される。スマートフォン200は、検知された操作の実行を指示する信号を開閉用の機構610に送信している。
図20では、右手302の動きが継続しており、開閉用の機構610による駆動も継続している。
なお、片開き扉600を開く動作が検知された後は、右手302の動きが止まっても、片開き扉600の駆動が継続されるように制御してもよい。スマートフォン200による撮像中に右手302が移動できる範囲は、駆動の対象である片開き扉600が動く範囲に対して狭いためである。この制御は、スマートフォン200の機能として実現してもよいし、開閉用の機構610の機能として実現してもよい。
なお、右手302を手前に引く動きが検知された場合、スマートフォン200は、片開き扉600を閉じる操作として検知する。
この片開き扉600を開くには、レバー式の取っ手620を握って回転し、その後、押し出すような動きが必要になる。
図21では、片開き扉の像600Aと取っ手の像620Aの上に重ねて右手の像302Bが表示されている。
なお、図18〜図21では、片開き扉600を例示したが、扉の面が弧を描いて開閉する開き戸に限らず、溝やレールに案内されて直線的に開閉する引き戸、開き戸と引き戸を組み合わせたグライドスライドドア、折れ戸、回転扉などでもよい。
また、扉は、片開きに限らず両開きでもよい。
ここでは、誤った操作や想定外の操作の受け付けをユーザに警告する機能について説明する。
図22は、許容される最大の角度まで片開き扉600が開いた後も押し続ける身振りが検知される場合をユーザに報知する機能の一例を説明する図である。
図22には、図19との対応部分に対応する符号を付して示している。
図22の場合、液晶ディスプレイ223の下部には、「これ以上は開きません!」なる警告文を含む小さい画面290が表示されている。
なお、報知は、音声によって行われてもよい。また、報知は、文字と音に限らず、操作の対象として認識されている物体の像を変更する等してもよい。
また、ここでは可動範囲の上限を知らせているが、そもそも可動しない方向への操作の検知を報知してもよい。また、正しい操作の仕方を報知してもよい。
ただし、正しい操作については、常に報知する必要はない。
例えば操作の対象が金庫の場合である。金庫は、特定の人以外の解錠が許されないためである。なお、操作の指示を発信しているスマートフォン200のユーザアカウント等から認証できた操作者(権限を有する者、所有者等)には、正しい操作の仕方を報知してもよい。
図23は、照明器具800を撮像の対象とする場合を説明する図である。
図23に示す照明器具800は、不図示の配線を通じて位置保持型のスイッチ700に電気的に接続されている。スイッチ700がオン操作されると照明器具800は点灯し、スイッチ700がオフ操作されると照明器具800は消灯する。
図23の場合、照明器具800には、消灯している状態で右手302が空中に押し出される動作を点灯の操作として受け付け、点灯している状態で右手302が空中に押し出される動作を消灯の操作として受け付ける機能が設定されている。
具体的には、照明器具800が点灯状態であれば消灯を指示する信号が出力され、照明器具800が消灯状態であれば点灯を指示する信号が出力される。
また、前述の説明では、右手302を空中に押し出す動きを操作として検知しているが、指1本を点灯、指2本を消灯として検知してもよいし、指を立てたら点灯、指を横にすると消灯として検知してもよい。すなわち、液晶ディスプレイ223と同じ面に設けられたカメラ225Bで撮像される指の本数や指の向きに特定の操作を関連づけてもよい。
いずれにしても、照明器具800に直接触れることなく、照明器具800の動作の状態を操作することができる。
図24には、図23との対応部分に対応する符号が付されている。
前述したように、照明器具800は、スイッチ700のオン操作によって点灯し、スイッチ700のオフ操作によって消灯する。
なお、図24の場合には、人差し指の先端だけを像302Aとして選択的に表示し、その他の部位は表示していない点で図23と相違する。このように操作に関係する部位だけを表示することで、ユーザによる操作の対象の確認が容易になる。
なお、制御の対象は、他に空調機、オーディオ機器、家電製品等でもよい。
前述の操作例では、現実の空間に存在する物体をスマートフォン200で撮像しているが、撮像の対象は実在する物体の像であってもよい。
図25は、表示装置900に表示されている電卓の像400Aを撮像の対象とする場合を説明する図である。
図25には、図15との対応部分に対応する符号を付して示している。
ここで、スマートフォン200の液晶ディスプレイ223には、表示装置900を撮像した電卓の像400Bと人差し指の像302Aとが表示されている。勿論、右手302は、表示装置900に触れていない。
この操作例では、スマートフォン200による撮像の対象が、操作の対象である実在の電卓400と異なる以外は、図15を用いて説明した操作例8と同様である。
なお、電卓の像400Aと実在する電卓400との関係が不明でも、スマートフォン200は、画像を認識する技術を通じて撮像の対象が電卓であることを検知できる。この場合、スマートフォン200が通信可能な実在する電卓400を指定して、ユーザの動きに対応する操作の実行を指示してもよい。
ただし、スマートフォン200で検知された操作が通信可能な電卓400に用意されていない場合には、身振りの撮像によって電卓400を操作することはできない。
前述の操作例では、操作の対象である物体又はその像をカメラ225A(図4参照)で撮像しながら、ユーザの体の一部をカメラ225Bで撮像する場合を想定しているが、撮像の対象は、操作の対象である物体の像でも構わない。
図26は、スマートフォン200で撮像されるユーザの動きを液晶ディスプレイ223に表示されている操作子の操作に紐付ける例を説明する図である。
図26には、図7との対応部分に対応する符号を付して示している。
ただし、操作の対象である画像形成装置100は、インターネットやLAN等のネットワーク1000を介してスマートフォン200と通信可能に接続されている。
具体的には、ユーザインタフェース部110の一部分を撮像した像270のうち画面輝度調整用のボタン272の位置には、人差し指の位置を示す人差し指の像302Aが合成されている。
スマートフォン200は、この合成像を画像処理の対象とし、人差し指の動きを操作として受け付けると、対応する画像形成装置100に対して操作の実行を指示する信号を送信する。
前述の実施の形態1の場合には、スマートフォン200(図1参照)を用いてユーザの身振りを撮像し、実在する画像形成装置100(図1参照)の操作に用いているが、ユーザの身振りの撮像はスマートフォン200に限らない。
図27は、実施の形態2に係るシステムの一例を説明する図である。
図27には、図1との対応部分に対応する符号を付して示している。
図27の場合、ユーザは、メガネ型の端末1010を装着している。
このため、メガネ型の端末1010を装着したユーザは、透明度の高い光学素子を透して現実の空間にある画像形成装置100を直接視認することが可能である。
メガネ型の端末1010は、既に複数のメーカによって実用化されている。この種のメガネ型の端末1010は、透過型デバイス、網膜投射型デバイス等とも呼ばれる。
図28に示すメガネ型の端末1010は、透明度が高い導光板1011と、可視光透過型回折格子1012A、1012Bと、操作対象とする部位の像が表示される小型の表示部1013と、ユーザの前方を撮像するカメラ1014とを有している。
図28では、画像形成装置100で反射された外光L1が、導光板1011及び可視光透過型回折格子1012Bを透過するように直進して眼球310に導かれている。なお、可視光透過型回折格子1012Bは、平板形状を有し、眼球310の前方に配置されている。
ここでの可視光透過型回折格子1012Bは、導光板1011の内部を反射しながら伝搬する光L2を眼球310の方向に屈折させる機能も果たす。
なお、可視光透過型回折格子1012A及び1012Bには、例えばホログラフィック回折格子が用いられる。可視光透過型回折格子1012Bは、いわゆるハーフミラーとして機能する。従って、眼球310には、虚像としてのユーザインタフェース部の像110A(図27参照)が実在する風景に重なって見える。換言すると、ユーザ300には、拡張現実又は複合現実が視認される。
メガネ型の端末1010は、プログラム(ファームウェアを含む)の実行を通じて装置全体を制御するCPU1021と、BIOSやファームウェア等のプログラムを記憶するROM1022と、プログラムの実行領域として使用されるRAM1023と、を有している。
CPU1021、ROM1022、RAM1023は、コンピュータ1020として機能する。
センサ1024には、例えば本体の傾きを検知するジャイロセンサ、対象物までの距離を測定する距離センサ、メガネ型の端末1010の位置を検知するGPS(Global Positioning System)センサ、視線検知センサ等が含まれる。
ここでのメガネ型の端末1010は、ユーザの頭部に装着して使用するため、ユーザと接して使用される情報処理装置の一例である。
メガネ型の端末1010を装着したユーザは、自身の前方(例えば2.5m先)の空中に、ユーザインタフェース部の像110Aが浮かんでいるように知覚する。
このため、本実施の形態の場合も、奥側から順番に、操作の対象である画像形成装置100、ユーザインタフェース部の像110A(仮想の表示面)、右手302の関係になる。
前述した実施の形態で操作の対象とする機器(例えば画像処理装置、電卓、レバー、扉、照明)は、物理的な操作と身振りによる操作を区別しない点で共通している。
実施の形態3では、操作の受け付けを身振りによる操作に限定できる機器について説明する。
図30に示す金庫1100には、前面に配置されたシリンダ1101又は押しボタン1102が物理的に正しく操作されることを条件に解錠を有効にする機能の他に、これらの物理的な操作を無効化する機能も有している。
物理的な操作が無効化されている場合、解錠が有効化されるのは、スマートフォン200から押しボタン1102の操作に対応する信号が受信された場合である。
この実施の形態でも、液晶ディスプレイ223には金庫の像1100Aと人差し指の像302Aが表示されている。勿論、人差し指の像302Aは、右手302の人差し指に対応している。右手302は、金庫1100と液晶ディスプレイ223の両方に触れておらず、空中で動かされる。
金庫1100は、シリンダ1101と、操作面に英数文字が印字された複数の押しボタン1102と、MPU1111と、ファームウェア等のデータが記憶されるROM1112と、プログラムの作業領域として使用されるRAM1113と、スマートフォン200(図30参照)等の外部機器との通信に用いられる通信部1114と、電気的にシリンダ1101を解錠又は施錠する解錠制御部1115とを有している。これらの各部は、例えばバス1116により互いに接続されている。
まず、MPU1111は、物理的な操作は無効化されているか否かを判定する(ステップ201)。
ステップ201で肯定結果が得られた場合、MPU1111は、スマートフォン200からの操作だけを受け付ける設定を有効化する(ステップ202)。
一方、ステップ201で否定結果が得られた場合、MPU1111は、物理的な操作を受け付ける設定を有効化する(ステップ203)。物理的な操作を受け付ける設定が有効である場合、スマートフォン200からの操作も有効である。
ステップ204で肯定結果が得られた場合、MPU1111は、シリンダ1101を解錠する(ステップ205)。
一方、ステップ204で否定結果が得られた場合、MPU1111は、操作を無効化する(ステップ206)。
本実施の形態に係る金庫1100では、物理的な操作が正しくても解錠できない設定を有効にすることにより、防犯性を高めることが可能になる。また、スマートフォン200を用いた個人認証の機能を組み合わせることで、金庫1100を解錠できるユーザが特定の個人(スマートフォン200を操作できるユーザ)に限定される。
ここでは、ウェブカメラ等で撮像された被写体があたかも目の前にあるかのように身振りで操作する方法について説明する。
この実施の形態は、操作の対象がユーザの前方に実在しない点を除き、操作例10(図18〜図22)と同様である。
図33に示すシステムでは、ウェブカメラ1200から出力される画像データがネットワーク1300経由でスマートフォン200に送信され、液晶ディスプレイ223に表示されている。
図33に示す液晶ディスプレイ223には、片開き扉600を撮像した像600Aが表示されている。
図33の場合、ユーザの右手302に対応する像は液晶ディスプレイ223に表示されていない。
図34には、図33との対応部分に対応する符号が付されている。
図34では、片開き扉の像600Aにスマートフォン200のカメラ225Bで撮像された右手の像302Bが重なっている。
この状態で、右手302を空気中で押し出すように動かすと、ネットワーク1300経由で接続された開閉用の機構610に片開き扉600の開操作を指示する信号が出力される。
図35では、ウェブカメラ1200から出力される画像データをサーバ1400が取得し、その後、3台のスマートフォン200に配信する場合を表している。なお、サーバ1400の機能がウェブカメラ1200に内蔵されていてもよい。
図35の場合、いずれのスマートフォン200にも片開き扉の像600Aが表示されている。
図36の場合、3台のうちの1台のスマートフォン200を通じて受け付けられた操作は、サーバ1400を通じて片開き扉600の開閉用の機構610に送信される。なお、片開き扉600に対する操作が一度に複数発生した場合、本実施の形態におけるサーバ1400は、先に到達した操作を優先する。なお、矛盾する操作が一度に到達した場合には実行を保留してもよい。「一度に」とは、予め定めた区間内に到達する意味である。
この仕組みを用いれば、1つの機器を複数人が各自の身振りによって操作することが可能になる。
前述の実施の形態では、スマートフォン200に表示されている操作の対象が機器である場合について説明したが、ここでは操作の対象に通信の機能が設けられていない場合について説明する。
図38は、植木1500の移動を身振りで指示する場合を説明する図である。図38では、スマートフォン200の画面に、ユーザの右手の像302Bと植木の像1500Aが表示されている。この場合も、実空間にある右手302は、植木1500と液晶ディスプレイ223の両方に触れていない。
本実施の形態では、身振りによる操作の送信先として自走機能を有するヒト型のロボット1600を指定する。なお、指示の送信先としてのロボット1600は、例えばスマートフォン200との通信が可能な機器の一覧の中から指定すればよい。
図38に示すロボット1600は、胴部1611、頭部1612、腕1613、1615、手1614、1616、足1617、1618を有している。
胴部1611には、信号処理のための電子部品が格納されている。胴部1611には、表示デバイスや音響機器が搭載されてもよい。
3軸の全てに対して回転可能である必要はなく、1軸のみ又は2軸について回転可能でもよい。これらの回転は、不図示のモーターによって実現してもよいが、手動で行ってもよい。もっとも、頭部1612が胴部1611に対して固定される場合を妨げない。
頭部1612には目1612A、1612Bが設けられている。目1612A及び1612Bは、装飾的に配置されていてもよいし、撮像装置、投影機、照明等を内蔵してもよい。頭部1612には可動式の耳が配置されていてもよい。
なお、腕1613及び1615を予め定めた角度に折り曲げれば、物の運搬に用いることができる。
手1614及び1616は、腕1613及び1615に対して固定でもよい。
足1617及び1618がジョイント機構を介して胴部1611に連結される場合、ジョイント機構は、頭部1612と同じく多軸でも単軸でもよい。
また、軸周りの回転は不図示のモーターにより実現してもよいし、手動で実現してもよい。なお、足1617及び1618は、胴部1611に対して固定でもよい。ここでのジョイント機構も可動部の一例である。
ロボット1600は、装置全体の動きを制御する制御部1621と、ロボット周辺の画像を撮像するカメラ1622と、会話用の音声、楽曲、効果音を再生するスピーカ1623と、音の入力又は取得に用いられるマイク1624と、ジョイント機構などの可動機構1625と、外部装置(例えばスマートフォン)との通信に用いられる通信部1626と、画像を表示する表示部1627と、装置全体を移動させる移動機構1628と、各部に電力を供給する電源1629と、各部の状態や周辺情報の収集に使用されるセンサ1630と、位置情報の取得に用いられる位置検知部1631とを有している。これらの各部は、例えばバス1632により互いに接続されている。
また、ロボット1600は、不図示の機能部を更に搭載してもよい。例えばロボット1600は、電源ボタン、記憶装置(ハードディスク装置、半導体メモリ等)、熱源(冷却源を含む。)等を搭載してもよい。
ここでのプログラムには、人工知能に対応するアルゴリズムの実現に関連するプログラムが含まれる。制御部1621を構成するCPUやRAMは、人工知能が使用する計算資源を提供する。
例えばスピーカ1623を通じて音声を出力したり、通信部1626を通じてメッセージを送信したり、表示部1627を通じて画像を出力してもよい。
これら情報の入出力や可動機構1625の動きを通じ、制御部1621は、ユーザとの間でコミュニケーションを成立させることができる。コミュニケーションの応用例には、例えば接客や会議の進行なども含まれる。
制御部1621は、不明な事態が発生した場合に、インターネット検索や外部のコンピュータとの通信を通じて追加の情報を収集し、検索事象との類似度によって解決策を発見する機能も搭載する。
視覚は、カメラ1622で撮像された画像の認識処理を通じて実現される。
聴覚は、マイク1624で取得された音の認識処理を通じて実現される。
触覚には、例えば表在感覚(触覚、痛覚、温度覚)、深部覚(圧覚、位置覚、振動覚など)、皮質性感覚(二点識別覚、立体識別能力など)が含まれる。
制御部1621は、触覚の違いを分別できる。
触覚、味覚、嗅覚、平衡感覚、温度は、各種のセンサ1630による情報の検知を通じて実現される。なお、温度には、周辺温度、内部温度、ヒトや動物の体温なども含まれる。
更に、制御部1621が取得する情報には、ヒトや動物の脳波も含み得る。この場合、脳波は、ヒト等に装着された脳波検知デバイスから発信される情報を通信部1626で受信すればよい。
表示部1627として投影機が用いられる場合、投影機は、例えば目1612A及び1612B(図38参照)のいずれか一方又は両方に配置することができる。なお、投影機は胴部1611や頭部1612に配置してもよい。
物の搬送に使用される場合、可動機構1625は、腕1613、1615や手1614、1616(図38参照)の変形を通じて、例えば物を掴む、抱える、支える等の動作を実現する。
感情の表現に使用される場合、可動機構1625は、例えば頭部1612、腕1613、1615、手1614、1616等(図38参照)の駆動を通じて、頭を傾げる、見上げる、周囲を見回す(キョロキョロする)、万歳する、指さし等の動作を実行する。
ロボット1600には、通信先として想定する外部装置で用いられる通信方式の数だけ通信部1626が搭載される。通信方式には、例えば赤外線通信、可視光通信、近接無線通信、WiFi(登録商標)、ブルートゥース(登録商標)、RFID(登録商標)、ZigBee(登録商標)、IEEE802.11a(登録商標)、MulteFire、LPWA(Low Power Wide Area)等がある。
無線通信に使用する帯域には、短波長帯(例えば800MHz〜920MHz)、長波長帯(例えば2.4GHz、5GHz)等がある。
なお、通信部1626と外部装置との接続には通信ケーブルを使用してもよい。
表示部1627が頭部1612に配置される場合、表示部1627に表情を表示してもよい。
本実施の形態における電源1629には二次電池を使用するが、電力を発生できれば一次電池、燃料電池、太陽電池のいずれを用いてもよい。
また、電源1629の代わりに、電源ケーブルを通じて外部から電力の供給を受ける構成を採用してもよい。
位置検知部1631には、例えばGPS(Global Positioning System)信号から地点情報を読み取る方式、GPSと同等の信号を用いて屋内の位置を測位するIMES(Indoor Messaging System)方式、WiFiの複数のアクセスポイントから送信された電波の強度や到達時間等から位置を測位するWiFi測位方式、基地局から定期的に発生される信号に対する応答の方角と遅延時間から位置を測位する基地局測位方式、不可聴域の超音波を受信して位置を測位する音波測位方式、ブルートゥースを使ったビーコンからの電波を受信して位置を測位するブルートゥース測位方式、LED(Light Emitting Diode)等の照明光の点滅によって伝達される位置情報を用いて位置を測位する可視光測位方式、加速度センサやジャイロセンサ等を用いて現在位置を測位する自律航法方式等を利用する。
図40には、図38との対応部分に対応する符号を付して示している。
他の実施の形態と同様に、ユーザは、スマートフォン200の前方の空間で右手302を動かし、その動きを撮像する。
右手302の動きを操作として受け付けたスマートフォン200は、その操作の実行を植木1500への移動が可能なロボット1600に指示する。ここでの操作は、植木1500の横方向への移動である。
このとき、スマートフォン200には、植木の像1500Aを掴んで移動するロボットの像1600Aと右手の像302Bとが表示される。図40の場合、ロボットの像1600Aの確認が容易になるように、右手の像302Bを透過像として表示している。
図40の場合には、ユーザの目の前に植木1500もロボット1600も実在するので右手の像302Bを透過的に表示する必要性は低いが、スマートフォン200に表示されている植木の像1500Aがユーザの目の前にない場合(例えばスマートフォン200にはウェブカメラの画像が表示されている場合)には、右手の像302Bが透過的に表示されることで実空間の様子の確認が容易になる。
前述の実施の形態では、スマートフォン200が操作の対象である物体の正面側に位置する場合を、操作の対象とする物体に対向する位置の例として説明したが、対向する位置は正面に限らない。
図41は、画像形成装置100に対向する位置の他の例を説明する図である。
図41には、画像形成装置100から見て右斜め前方の位置P1、右斜め後方の位置P2、後ろの位置P3、左斜め後方の位置P4、左斜め前方の位置P5にスマートフォン200が位置する例を示している。これらのいずれも、画像形成装置100に対向する位置の一例である。
ユーザが画像形成装置100を撮像する方向が異なれば、カメラ225Aによって撮像される部位や操作子も異なる内容になる。このため、カメラ225Bによって撮像されるユーザの動きが同じでも、画像形成装置100に対する操作の内容は異なる。
前述の実施の形態では、画像形成装置100(図1参照)のユーザインタフェース部110(図1参照)に表示されたボタン類を身振りで操作する場合について説明したが、用紙の収容部140(図1参照)を身振りによって開閉してもよい。
図42は、身振りによって用紙の収容部140を開閉する例を説明する図である。操作の対象が用紙の収容部140であるので、スマートフォン200の液晶ディスプレイ223には、用紙の収容部の像140Aとユーザの右手の像302Bとが重なるように表示されている。図42では、矢印で示すように、右手302が手前方向(ユーザ自身に近づく方向又は液晶ディスプレイ223から離れる方向)に引かれている。
この例の場合には、ユーザインタフェース部110に表示されるボタンを操作しなくても、右手の像302Bとの重なりが検出された用紙の収容部140が手前側に引き出されることになる。
勿論、前提として、用紙の収容部140を駆動する不図示のモーターが画像形成装置100に内蔵されている必要がある。なお、右手302を奥方向に動かせば、用紙の収容部140を閉じることもできる。
前述の実施の形態では、ユーザインタフェース部110(図1参照)を直接操作する場合と同様の操作を身振りによって実現する場合について説明したが、操作の対象である特定の部位が身振りによって指定された場合には、ユーザインタフェース部110に表示される内容が指定された部位に関連のあるボタン類を含む表示に切り替わってもよい。
図43は、印刷された用紙に対して穴を開ける処理や綴る処理を加えるための機構(後処理装置150)が取り付けられている場合の操作例を説明する図である。なお、後処理装置150には仕分け機構が含まれてもよい。
図43では、後処理装置の像150Aの上に人差し指の像302Aが重なっている。
本実施の形態の場合、後処理装置の像150Aには、人差し指の像302Aによる選択の操作と後処理装置150に関連する設定の頁を開く機能が割り当てられている。
勿論、特定の身振りと特定の機能を割り当てる部位は後処理装置150に限らない。例えば画像形成装置100(図1参照)の背面でもよい。背面に配置された接続用の端子や通信線が撮像された状態で身振りによる選択が受け付けられた場合には、接続用の端子の調整や設定に用いられるメニュー画面を表示部111に表示させてもよい。
前述の実施の形態においては、図2に示したように、操作の指示に用いられる右手302が表示面(例えば液晶ディスプレイ223)とユーザ300の間の空中を動く場合について説明したが、右手302は、操作の対象である物体とスマートフォン200との間の空中を動かされてもよい。
以下では、図45及び図46を用い、実施の形態9に係るシステム全体の構成と、ユーザと機器との位置の関係を説明する。
図46は、右手302とスマートフォン200の位置の関係を説明する図である。
図45と図1を比較し、図46と図2を比較すれば分かるように、違いは、ユーザ300の右手302の位置である。
本実施の形態の場合、カメラ225Aによって、操作の対象である物体(画像形成装置100)とユーザの右手302とを一度に撮像することができる。このため、本実施の形態による使い方の場合には、液晶ディスプレイ223(図7参照)と同じ面に設けられるカメラ225Bを用いる必要がない。
本実施の形態の場合には、カメラ225Aで撮像される人差し指の像をそのまま、液晶ディスプレイ223に表示することができる。
なお、本実施の形態のように、操作の入力に用いる右手302をスマートフォン200と操作の対象とする画像形成装置100の間で動かす手法は、前述した実施の形態1〜8のいずれにも組み合わせることが可能であり、各実施の形態と同様の操作を実現できる。
本実施の形態では、前述した2種類の操作の手法を組み合わせる場合について説明する。
図47は、2種類の操作の手法の切り替えを説明する図である。(A)は右手302を液晶ディスプレイ223とユーザ300との間の空中で動かす手法を示し、(B)は右手302をスマートフォン200と画像形成装置100との間の空中で動かす手法を示す。
すなわち、(A)の手法は実施の形態1〜8に対応し、(B)の手法は実施の形態9に対応する。
ただし、本実施の形態の場合、操作受付部254(図5参照)には、ユーザ300による操作の入力がスマートフォン200の液晶ディスプレイ223と同じ側の空間で実行されているか、それとも反対側の空間で実行されているかを検知し、検知の結果に基づいて操作の内容を決定する機能が追加されている。
本実施の形態における操作受付部254は、操作の対象である物体や部位が同じであり、かつ、検出されるユーザ300の身振りが同じ場合でも、身振りが行われる空間が異なれば異なる操作として受け付けるよう設定されている。
もっとも、両者を区別しない設定とすることも可能である。
設定は、ユーザが個別に変更することが可能である。なお、両者を区別するか否かは、物体やその部位に関連付けられた個々の機能毎、操作の実行者であるユーザ毎に設定してもよい。
図48は、操作がスマートフォン200に対して手前側で行われる場合と奥側で行われる場合とで、操作の対象とする物体の部位が切り替えられる場合を説明する図である。(A)は、ユーザ300の操作が液晶ディスプレイ223とユーザ300との間で行われる場合の関係を示し、(B)は、ユーザ300の操作がスマートフォン200と画像形成装置100との間で行われる場合の関係を示す。
なお、ユーザの動きに対応する操作は、物体と部位の組み合わせに応じて定まる。従って、物体が異なれば、部位が同じでも異なる操作を割り当てることが可能である。
例えばスマートフォン200の手前側でユーザ300が右手302を動かす場合には、画像形成装置100の前面側と背面側の両方に操作子が配置されていても、前面側に配置されている操作子に対する操作としてユーザの操作が受け付けられる。
一方、スマートフォン200の奥側でユーザ300が右手302を動かす場合には、画像形成装置100の前面側と背面側の両方に操作子が配置されていても、背面側に配置されている操作子に対する操作としてユーザの操作が受け付けられる。
背面側に配置される機能は、前面側に比べて少なく、その種類も限られることが多い。このため、背面側の画像が表示されない場合でも、操作が可能な機能の一覧を表示して、ユーザ300の操作を対応付ける機能を選べるようにしてもよい。
図49は、操作がスマートフォン200に対して手前側で行われる場合と奥側で行われる場合とで、動作モードが切り替えられる場合を説明する図である。(A)は、ユーザ300の操作が液晶ディスプレイ223とユーザ300との間で行われる場合の関係を示し、(B)は、ユーザ300の操作がスマートフォン200と画像形成装置100との間で行われる場合の関係を示す。
図49の場合、ユーザ300による操作の位置の違いによらず、操作の対象は共通である。すなわち、操作の位置の違いによらず、操作の対象は、ユーザインタフェース部110である。
なお、管理者モードとしての操作は、ユーザ300が管理者として登録されていることを条件としてもよい。
また、管理者モードでの操作は、ユーザ300が画像形成装置100にログインできた場合に限定してもよい。
図50は、操作がスマートフォン200に対して手前側で行われる場合と奥側で行われる場合とで操作の有効と無効が設定されている場合を説明する図である。(A)は、ユーザ300の操作が液晶ディスプレイ223とユーザ300との間で行われる場合を示し、(B)は、ユーザ300の操作がスマートフォン200と画像形成装置100との間で行われる場合を示す。
図50の場合、スマートフォン200に対して手前側で行われる操作は有効な操作として受け付けられるのに対し、スマートフォン200に対して奥側で行われる操作は無効な操作として扱われる。
すなわち、操作がスマートフォン200に対して手前側で行われる場合にはユーザインタフェース部110の操作が可能であるのに対し、操作がスマートフォン200に対して奥側で行われる場合にはユーザインタフェース部110の操作が不能である。
図51は、液晶ディスプレイ223に表示される設定用の画面223Aの一例を示す図である。
図51に示す画面223Aは、身振りを検知する位置の設定用であり、スマートフォン200の手前側で行われる身振りの検知機能がオン、奥側で行われる身振りの検知機能がオフの例を示している。
図51の設定は、図50に示す操作の例に対応している。
ところで、身振りを検知する位置の設定は、機能毎に定めることも可能である。
例えば機能Aと機能Dに対する操作は、ユーザの操作がスマートフォン200の手前側で行われる場合も奥側で行われる場合も有効である。
例えば機能Bと機能Fに対する操作は、ユーザの操作がスマートフォン200の奥側で行われる場合に限り有効である。
例えば機能Cと機能Eに対する操作は、ユーザの操作がスマートフォン200の手前側で行われる場合に限り有効である。
本実施の形態では、操作画面が空中画像として表示される場合について説明する。
図53は、実施の形態11に係る空中画像形成システム2000の概略構成を説明する図である。空中画像形成システム2000は、情報処理システムの一例である。
本実施の形態において、空中画像2010とは、物体からの反射光と同等の光の状態を再現するように空気中に形成される像をいう。
空中画像2010は、空気中に浮かぶように形成されるので、人は、空中画像2010を通り抜けることも可能である。
図53の場合、ユーザインタフェース部110の画像は、カメラ2020によって撮像され、空中画像形成装置2030に与えられている。
本実施の形態の場合、操作の対象の画像(例えば「AAAAA/AAAAA/AAAAA/AAAAA」。ここでの記号/は改行を示す。)が空中画像2010に表示されているが、その他の画像が表示されてもよい。
空中画像2010には、静止画像だけでなく、動画像が表示されることもある。
図53では、空中画像2010が平面形状であるが、曲面、球体、立方体などの立体的な形状でもよい。
図53に示す空中画像形成システム2000は、空気中に空中画像2010を形成する空中画像形成装置2030と、ユーザ300の空中画像2010に対する操作を撮像の対象とするカメラ2040と、撮像されたユーザ300の動きに基づいて空中画像形成装置2030と画像形成装置100の動きを制御する制御装置2050と、を有している。
本実施の形態における空中画像形成装置2030は像形成手段の一例である。
制御装置2050は、カメラ2040から入力される画像を認識する技術(画像認識)を使用して、操作の内容を特定する。
ここでの制御装置2050は、特定された内容に応じて画像形成装置100を制御する情報処理装置の一例である。
ただし、本実施の形態における制御装置2050は、ユーザ300と接した状態で使用されない点で他の実施の形態と相違するが、実行する操作の内容は他の実施の形態と共通する。
図53では、カメラ2040が1台の場合を表しているが、カメラ2040は複数台でもよい。複数台のカメラ2040は、取り付け位置や撮像の方向が異なっていてもよい。取り付け位置や撮像の方向が異なることで、死角が少なくなり、ユーザ300の操作の検知や特定の制度を高めることが可能である。
図53では、カメラ2040を用いているが、他の種類のセンサを使用してもよい。例えば空中画像2010と平行に形成される検知面を横切る物体を検知するセンサを用いてもよい。検知面は、例えば赤外線で形成する。
図54の場合、ユーザ300は、デバイス2060を左手301で保持している。デバイス2060には、空中画像形成装置2030、カメラ2040、制御装置2050が収容されている。なお、デバイス2060は、携帯型に限らず、筐体ごと移動が可能であってもよい。
図56は、空中画像2010に対して奥側の位置で右手302を動かし、物体(例えば画像形成装置100)を操作する例を示す。(A)はユーザ300から見た空中画像2010と右手302の見え方を示し、(B)はユーザ300と空中画像2010と右手302の間の位置の関係を示す。
本実施の形態におけるデバイス2060は、右手302が空中画像2010に対して手前側に位置するか奥側に位置するかを検知し、検知された結果に応じて制御の内容を変更する。
図57は、表示デバイス3001から出力される光を専用の光学プレート3002を透過させることで空中画像2010を形成する空中画像形成装置3000Aの原理図である。(A)は各部材と空中画像2010との位置関係を示し、(B)は光学プレート3002の断面構造の一部を示す。ここでの表示デバイス3001と光学プレート3002は、光学部品の一例である。
光学プレート3002は、表示デバイス3001から出力される光を短冊状のガラス3002A及び3002Bで2回反射して空気中で結像させることで、表示デバイス3001に表示されている画像を空気中に再現する。
なお、表示デバイス3001と光学プレート3002の距離と、光学プレート3002と空中画像2010の距離は同じである。また、表示デバイス3001に表示される画像の寸法と空中画像2010の寸法は同じである。
図59は、2面コーナーリフレクタを構成する微小な四角い穴3004Aを平面内に等間隔に配列した構造のマイクロミラーアレイ3004を用いて空中画像2010を形成する空中画像形成装置3000Cの原理図である。(A)は各部材と空中画像2010との位置関係を示し、(B)はマイクロミラーアレイ3004の一部分を拡大した図である。1つの穴3004Aは、例えば100μm角で形成される。ここでのマイクロミラーアレイ3004は、光学部品の一例である。
再帰反射シート3007は、ビームスプリッタ3006による表示画像の反射方向に、表示デバイス3005の表示面に対して90°の角度に配置されている。表示デバイス3005、ビームスプリッタ3006、再帰反射シート3007は、光学部品の一例である。
空中画像形成装置3000Dの場合、表示デバイス3005から出力される光は、ビームスプリッタ3006によって再帰反射シート3007の方向に反射され、次に再帰反射シート3007で再帰反射され、ビームスプリッタ3006を透過して空中で結像される。光が結像する位置に空中画像2010が形成される。
空中画像形成装置3000Eの場合、赤外パルスレーザ3008がパルス状のレーザ光を出力し、XYZスキャナ3009がパルス状のレーザ光を空気中で集光する。このとき、焦点近傍3010の気体が瞬間的にプラズマ化し、発光する。パルス周波数は、例えば100Hz以下であり、パルス発光時間は、例えばナノ秒オーダである。ここでの赤外パルスレーザ3008とXYZスキャナ3009は、光学部品の一例である。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。上述の実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
Claims (30)
- 操作の対象とする物体の像を表示する表示面とは非接触の状態で、当該表示面とユーザとの間で行われるユーザの動きを検知する検知手段と、
検知されたユーザの動きに対応する操作の実行を前記物体に指示する制御手段と、
を有する情報処理装置。 - 前記物体の像は、撮像された画像に基づいて前記表示面に表示されている、請求項1に記載の情報処理装置。
- 前記検知手段は、撮像された画像を処理してユーザの手又は指の動きを検知する、請求項1に記載の情報処理装置。
- 前記検知手段は、測定された距離の情報を用いてユーザの手又は指の動きを検知する、請求項1に記載の情報処理装置。
- 前記表示面には、ユーザの手又は指の像が、前記物体の像に重ねて表示される、請求項1に記載の情報処理装置。
- ユーザの動きに対応する操作は、前記物体の個別の部位毎に用意されている、請求項1に記載の情報処理装置。
- 前記制御手段は、ユーザによる前記物体の操作が許可されている場合に、当該物体に対して操作の実行を指示する、請求項1に記載の情報処理装置。
- 検知されたユーザの動きに対応する操作が前記物体で実行できない場合、ユーザに報知する、請求項1に記載の情報処理装置。
- 前記物体に対する正しい操作の方法を報知する、請求項8に記載の情報処理装置。
- 前記制御手段は、前記物体に応じ、検知されたユーザの動きに対応する操作の内容を決定する、請求項1に記載の情報処理装置。
- 前記制御手段は、前記物体との通信を通じて操作が可能な当該物体の機能を取得する、請求項1に記載の情報処理装置。
- 前記制御手段は、ユーザの体の部位を示唆する表記を前記物体に重ねて表示する、請求項1に記載の情報処理装置。
- 前記制御手段は、ユーザの動きを操作として受け付けたことをユーザに報知する、請求項1に記載の情報処理装置。
- 前記報知は、ユーザが前記表示面に対して非接触に動かした体の部位に触覚を通じて報知する、請求項13に記載の情報処理装置。
- 前記制御手段は、操作として受け付けた体の部位を、受け付け前とは異なる態様で表示する、請求項13に記載の情報処理装置。
- 前記制御手段は、前記物体の操作に用いる装備をユーザの体に重ねて表示する、請求項1に記載の情報処理装置。
- 前記制御手段は、前記物体が存在する環境に応じた装備をユーザの体に重ねて表示する、請求項1に記載の情報処理装置。
- 前記制御手段は、ユーザの動きに対応する操作が前記物体に対する物理的な操作を必要とする場合、可動部を有する別の機器に対して操作の実行を指示する、請求項1に記載の情報処理装置。
- 前記表示面に表示されている前記物体の像は、操作の対象とする当該物体の画像を更に撮像した画像である、請求項1に記載の情報処理装置。
- 前記表示面は空気中に形成される、請求項1に記載の情報処理装置。
- 前記表示面は、拡張現実又は複合現実として表示される、請求項1に記載の情報処理装置。
- 操作の対象とする物体とは非接触の状態のまま実行されるユーザの動きを検知する検知手段と、
ユーザの動きが、前記物体の像を表示する表示面とユーザとの間で検知されたか、当該物体を撮像する当該表示面と当該物体との間で検知されたかに応じて、当該物体に指示する操作の内容を切り替える制御手段と、
を有する情報処理装置。 - 前記表示面とユーザとの間で検知されたユーザの動きと当該表示面と前記物体との間で検知されたユーザの動きとが、当該物体の異なる部位に対応付けられている、請求項22に記載の情報処理装置。
- 前記表示面とユーザとの間で検知されたユーザの動きは、前記物体のうちユーザから見て手前側の面に対応付けられており、
前記表示面と前記物体との間で検知されたユーザの動きは、当該物体のうちユーザから見て奥側の面に対応付けられている、請求項23に記載の情報処理装置。 - 前記表示面とユーザとの間で検知されたユーザの動きと当該表示面と前記物体との間で検知されたユーザの動きとが、当該物体の同じ部位に対応付けられている、請求項22に記載の情報処理装置。
- 前記制御手段は、前記表示面とユーザとの間で検知されたユーザの動きに限り、又は、当該表示面と前記物体との間で検知されたユーザの動きに限り、有効な動きとして当該物体に指示する、請求項22に記載の情報処理装置。
- 前記有効な動きとして扱われる検知の位置は機能毎に設定される、請求項26に記載の情報処理装置。
- 前記有効な動きとして扱われる検知の位置はユーザにより指定される、請求項26に記載の情報処理装置。
- コンピュータを、
操作の対象とする物体の像を表示する表示面とは非接触の状態で、当該表示面とユーザとの間で行われるユーザの動きを検知する検知手段と、
検知されたユーザの動きに対応する操作の実行を前記物体に指示する制御手段、
として機能させるプログラム。 - コンピュータを、
操作の対象とする物体とは非接触の状態のまま実行されるユーザの動きを検知する検知手段と、
ユーザの動きが、前記物体の像を表示する表示面とユーザとの間で検知されたか、当該物体を撮像する当該表示面と当該物体との間で検知されたかに応じて、当該物体に指示する操作の内容を切り替える制御手段、
として機能させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018102770A JP7135444B2 (ja) | 2018-05-29 | 2018-05-29 | 情報処理装置及びプログラム |
CN201811546913.8A CN110543233A (zh) | 2018-05-29 | 2018-12-18 | 信息处理设备和非暂时性计算机可读介质 |
US16/412,646 US11265428B2 (en) | 2018-05-29 | 2019-05-15 | Information processing apparatus and non-transitory computer readable medium for operating a target object in a real space through a virtual interface by detecting a motion of a user between a display surface displaying the virtual interface and the user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018102770A JP7135444B2 (ja) | 2018-05-29 | 2018-05-29 | 情報処理装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019207573A true JP2019207573A (ja) | 2019-12-05 |
JP7135444B2 JP7135444B2 (ja) | 2022-09-13 |
Family
ID=68693388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018102770A Active JP7135444B2 (ja) | 2018-05-29 | 2018-05-29 | 情報処理装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11265428B2 (ja) |
JP (1) | JP7135444B2 (ja) |
CN (1) | CN110543233A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172692A1 (ja) * | 2021-02-12 | 2022-08-18 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、画像処理システム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7119398B2 (ja) * | 2018-02-06 | 2022-08-17 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7155613B2 (ja) * | 2018-05-29 | 2022-10-19 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
CN113030947B (zh) * | 2021-02-26 | 2023-04-07 | 北京京东方技术开发有限公司 | 非接触式控制装置以及电子设备 |
JP2023046979A (ja) * | 2021-09-24 | 2023-04-05 | 富士フイルムビジネスイノベーション株式会社 | 照合装置及びプログラム |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063225A (ja) * | 2003-08-15 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム |
US20110138285A1 (en) * | 2009-12-09 | 2011-06-09 | Industrial Technology Research Institute | Portable virtual human-machine interaction device and operation method thereof |
JP2012088959A (ja) * | 2010-10-20 | 2012-05-10 | Kddi Corp | 遠隔操作システム、遠隔操作方法およびプログラム |
JP2012108771A (ja) * | 2010-11-18 | 2012-06-07 | Panasonic Corp | 画面操作システム |
JP2013008183A (ja) * | 2011-06-24 | 2013-01-10 | Brother Ind Ltd | 操作支援プログラム |
JP2013205983A (ja) * | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
JP5509391B1 (ja) * | 2013-06-07 | 2014-06-04 | 株式会社アスカネット | 再生画像の指示位置を非接触で検知する方法及び装置 |
JP2014157482A (ja) * | 2013-02-15 | 2014-08-28 | Konica Minolta Inc | 操作表示システム |
JP2014238828A (ja) * | 2013-05-10 | 2014-12-18 | 国立大学法人電気通信大学 | ユーザインタフェース装置およびユーザインタフェース制御プログラム |
US20150346701A1 (en) * | 2014-05-27 | 2015-12-03 | Leap Motion, Inc. | Systems and methods of gestural interaction in a pervasive computing environment |
JP2015228097A (ja) * | 2014-05-30 | 2015-12-17 | 株式会社ニコン | 電子機器、電子機器システム及びプログラム |
JP2015232783A (ja) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
JP2016148968A (ja) * | 2015-02-12 | 2016-08-18 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
JP2016194744A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
WO2016189390A2 (en) * | 2015-05-28 | 2016-12-01 | Eyesight Mobile Technologies Ltd. | Gesture control system and method for smart home |
JP2016207048A (ja) * | 2015-04-25 | 2016-12-08 | 京セラドキュメントソリューションズ株式会社 | 拡張現実操作システムおよび拡張現実操作プログラム |
JP2017062709A (ja) * | 2015-09-25 | 2017-03-30 | 新光商事株式会社 | ジェスチャー操作装置 |
JP2017092706A (ja) * | 2015-11-10 | 2017-05-25 | コニカミノルタ株式会社 | 画像形成装置、画像形成システム、及びプログラム |
JP2017120556A (ja) * | 2015-12-28 | 2017-07-06 | 株式会社ブリリアントサービス | 操作用ヘッドマウントディスプレイ、操作用ヘッドマウントディスプレイの制御方法および操作用ヘッドマウントディスプレイのプログラム |
US20170262045A1 (en) * | 2016-03-13 | 2017-09-14 | Logitech Europe S.A. | Transition between virtual and augmented reality |
JP2017167611A (ja) * | 2016-03-14 | 2017-09-21 | 富士ゼロックス株式会社 | 端末装置、データ処理システム及びプログラム |
JP2018082275A (ja) * | 2016-11-15 | 2018-05-24 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9152306B2 (en) * | 2011-03-29 | 2015-10-06 | Intel Corporation | Techniques for touch and non-touch user interaction input |
US20120326966A1 (en) | 2011-06-21 | 2012-12-27 | Qualcomm Incorporated | Gesture-controlled technique to expand interaction radius in computer vision applications |
JP2013172432A (ja) | 2012-02-23 | 2013-09-02 | Panasonic Corp | 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路 |
US20130303247A1 (en) * | 2012-05-08 | 2013-11-14 | Mediatek Inc. | Interaction display system and method thereof |
JP5935529B2 (ja) * | 2012-06-13 | 2016-06-15 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US20140258880A1 (en) * | 2013-03-07 | 2014-09-11 | Nokia Corporation | Method and apparatus for gesture-based interaction with devices and transferring of contents |
US9846486B2 (en) * | 2013-06-27 | 2017-12-19 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
KR20150051769A (ko) * | 2013-11-05 | 2015-05-13 | 엘지전자 주식회사 | 영상표시장치 및 영상표시장치 동작방법 |
JP6427942B2 (ja) * | 2014-05-01 | 2018-11-28 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法 |
JP6528193B2 (ja) * | 2015-02-10 | 2019-06-12 | 任天堂株式会社 | 電子機器 |
US10216273B2 (en) * | 2015-02-25 | 2019-02-26 | Bae Systems Plc | Apparatus and method for effecting a control action in respect of system functions |
DE102015204978A1 (de) * | 2015-03-19 | 2016-09-22 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben eines Ausgabesystems mit einer Anzeigevorrichtung und zumindest einer weiteren Ausgabevorrichtung |
JP6304497B2 (ja) * | 2015-04-25 | 2018-04-04 | 京セラドキュメントソリューションズ株式会社 | 画像形成システムおよび拡張現実プログラム |
JP6507827B2 (ja) * | 2015-04-28 | 2019-05-08 | 京セラドキュメントソリューションズ株式会社 | 表示システム |
KR102278747B1 (ko) * | 2015-11-04 | 2021-07-19 | 한국전자기술연구원 | 차량용 비접촉식 스크린 패드 |
CN107199888A (zh) * | 2016-03-18 | 2017-09-26 | 松下知识产权经营株式会社 | 姿势输入系统和姿势输入方法 |
JP2017187922A (ja) * | 2016-04-05 | 2017-10-12 | カルソニックカンセイ株式会社 | 車載用情報処理システム |
US20180053352A1 (en) * | 2016-08-22 | 2018-02-22 | Daqri, Llc | Occluding augmented reality content or thermal imagery for simultaneous display |
US10140773B2 (en) * | 2017-02-01 | 2018-11-27 | Accenture Global Solutions Limited | Rendering virtual objects in 3D environments |
JP6687157B2 (ja) * | 2017-07-14 | 2020-04-22 | 京セラドキュメントソリューションズ株式会社 | 表示装置および表示システム |
JP2019053426A (ja) * | 2017-09-13 | 2019-04-04 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
US20190094977A1 (en) * | 2017-09-25 | 2019-03-28 | Kabushiki Kaisha Toshiba | Input apparatus, image forming apparatus, and input method |
-
2018
- 2018-05-29 JP JP2018102770A patent/JP7135444B2/ja active Active
- 2018-12-18 CN CN201811546913.8A patent/CN110543233A/zh active Pending
-
2019
- 2019-05-15 US US16/412,646 patent/US11265428B2/en active Active
Patent Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063225A (ja) * | 2003-08-15 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム |
US20110138285A1 (en) * | 2009-12-09 | 2011-06-09 | Industrial Technology Research Institute | Portable virtual human-machine interaction device and operation method thereof |
JP2012088959A (ja) * | 2010-10-20 | 2012-05-10 | Kddi Corp | 遠隔操作システム、遠隔操作方法およびプログラム |
JP2012108771A (ja) * | 2010-11-18 | 2012-06-07 | Panasonic Corp | 画面操作システム |
JP2013008183A (ja) * | 2011-06-24 | 2013-01-10 | Brother Ind Ltd | 操作支援プログラム |
JP2013205983A (ja) * | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
JP2014157482A (ja) * | 2013-02-15 | 2014-08-28 | Konica Minolta Inc | 操作表示システム |
JP2014238828A (ja) * | 2013-05-10 | 2014-12-18 | 国立大学法人電気通信大学 | ユーザインタフェース装置およびユーザインタフェース制御プログラム |
JP5509391B1 (ja) * | 2013-06-07 | 2014-06-04 | 株式会社アスカネット | 再生画像の指示位置を非接触で検知する方法及び装置 |
US20150346701A1 (en) * | 2014-05-27 | 2015-12-03 | Leap Motion, Inc. | Systems and methods of gestural interaction in a pervasive computing environment |
JP2015228097A (ja) * | 2014-05-30 | 2015-12-17 | 株式会社ニコン | 電子機器、電子機器システム及びプログラム |
JP2015232783A (ja) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
JP2016148968A (ja) * | 2015-02-12 | 2016-08-18 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
JP2016194744A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
JP2016207048A (ja) * | 2015-04-25 | 2016-12-08 | 京セラドキュメントソリューションズ株式会社 | 拡張現実操作システムおよび拡張現実操作プログラム |
WO2016189390A2 (en) * | 2015-05-28 | 2016-12-01 | Eyesight Mobile Technologies Ltd. | Gesture control system and method for smart home |
JP2018516422A (ja) * | 2015-05-28 | 2018-06-21 | アイサイト モバイル テクノロジーズ エルティーディー. | スマートホームのためのジェスチャ制御システム及び方法 |
JP2017062709A (ja) * | 2015-09-25 | 2017-03-30 | 新光商事株式会社 | ジェスチャー操作装置 |
JP2017092706A (ja) * | 2015-11-10 | 2017-05-25 | コニカミノルタ株式会社 | 画像形成装置、画像形成システム、及びプログラム |
JP2017120556A (ja) * | 2015-12-28 | 2017-07-06 | 株式会社ブリリアントサービス | 操作用ヘッドマウントディスプレイ、操作用ヘッドマウントディスプレイの制御方法および操作用ヘッドマウントディスプレイのプログラム |
US20170262045A1 (en) * | 2016-03-13 | 2017-09-14 | Logitech Europe S.A. | Transition between virtual and augmented reality |
JP2017167611A (ja) * | 2016-03-14 | 2017-09-21 | 富士ゼロックス株式会社 | 端末装置、データ処理システム及びプログラム |
JP2018082275A (ja) * | 2016-11-15 | 2018-05-24 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
Non-Patent Citations (2)
Title |
---|
小林 稔 ET AL.: "没入型仮想共有環境", 電子情報通信学会誌, vol. 第85巻 第4号, JPN6022008420, 1 April 2002 (2002-04-01), JP, pages 259 - 264, ISSN: 0004721049 * |
野口 大翔 ET AL.: "車両型ロボットの指差し移動操作システムの開発", 第33回日本ロボット学会学術講演会予稿集, JPN6022008419, 3 September 2015 (2015-09-03), JP, pages 1071 - 1074, ISSN: 0004721050 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172692A1 (ja) * | 2021-02-12 | 2022-08-18 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、画像処理システム |
Also Published As
Publication number | Publication date |
---|---|
US11265428B2 (en) | 2022-03-01 |
CN110543233A (zh) | 2019-12-06 |
JP7135444B2 (ja) | 2022-09-13 |
US20190373119A1 (en) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7135444B2 (ja) | 情報処理装置及びプログラム | |
JP7411133B2 (ja) | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード | |
JP6669069B2 (ja) | 検出装置、検出方法、制御装置、および制御方法 | |
JP6786792B2 (ja) | 情報処理装置、表示装置、情報処理方法、及び、プログラム | |
CN114402589B (zh) | 用于2d和3d图形用户界面中的元素映射的智能触笔光束和辅助概率输入 | |
US11514705B2 (en) | Information processing apparatus and non-transitory computer readable medium to allow operation without contact | |
CN109313500A (zh) | 纤细形状因子的无源光学和惯性跟踪 | |
US20160196693A1 (en) | Display system, control method for display device, and computer program | |
CN105009039A (zh) | 使用imu的直接全息图操纵 | |
WO2016189372A2 (en) | Methods and apparatus for human centric "hyper ui for devices"architecture that could serve as an integration point with multiple target/endpoints (devices) and related methods/system with dynamic context aware gesture input towards a "modular" universal controller platform and input device virtualization | |
CN103347437A (zh) | 3d映射环境中的凝视检测 | |
JP2012115414A (ja) | ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム | |
CN106919262A (zh) | 增强现实设备 | |
CN103019377A (zh) | 基于头戴式可视显示设备的输入方法及装置 | |
JP2018084886A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP7271909B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
US11223729B2 (en) | Information processing apparatus and non-transitory computer readable medium for instructing an object to perform a specific function | |
WO2003003185A1 (en) | System for establishing a user interface | |
KR102039948B1 (ko) | 증강현실이나 가상현실에 기초하여 가상의 인체 장기를 렌더링하는 이동 단말기 및 이를 이용하는 시스템 | |
JP6996115B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
CN211454097U (zh) | 一种头戴设备的眼球追踪装置以及头戴设备 | |
US20240103606A1 (en) | Systems and methods for object interactions | |
CN117321547A (zh) | 来自电子眼睛佩戴设备的情境视觉和语音搜索 | |
CN206906983U (zh) | 增强现实设备 | |
EP4365659A1 (en) | Electronic device, head-mounted display device, wearable device, and operation method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7135444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |