JP2019207573A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2019207573A
JP2019207573A JP2018102770A JP2018102770A JP2019207573A JP 2019207573 A JP2019207573 A JP 2019207573A JP 2018102770 A JP2018102770 A JP 2018102770A JP 2018102770 A JP2018102770 A JP 2018102770A JP 2019207573 A JP2019207573 A JP 2019207573A
Authority
JP
Japan
Prior art keywords
user
image
movement
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018102770A
Other languages
English (en)
Other versions
JP7135444B2 (ja
Inventor
賢吾 得地
Kengo Tokuchi
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2018102770A priority Critical patent/JP7135444B2/ja
Priority to CN201811546913.8A priority patent/CN110543233A/zh
Priority to US16/412,646 priority patent/US11265428B2/en
Publication of JP2019207573A publication Critical patent/JP2019207573A/ja
Application granted granted Critical
Publication of JP7135444B2 publication Critical patent/JP7135444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00381Input by recognition or interpretation of visible user gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/327Initiating, continuing or ending a single-mode communication; Handshaking therefor
    • H04N1/32765Initiating a communication
    • H04N1/32771Initiating a communication in response to a request, e.g. for a particular document
    • H04N1/32776Initiating a communication in response to a request, e.g. for a particular document using an interactive, user-operated device, e.g. a computer terminal, mobile telephone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1204Improving or facilitating administration, e.g. print management resulting in reduced user or operator actions, e.g. presetting, automatic actions, using hardware token storing data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1205Improving or facilitating administration, e.g. print management resulting in increased flexibility in print job configuration, e.g. job settings, print requirements, job tickets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1238Secure printing, e.g. user identification, user rights for device usage, unallowed content, blanking portions or fields of a page, releasing held jobs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1253Configuration of print job parameters, e.g. using UI at the client
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1268Job submission, e.g. submitting print job order or request not the print data itself

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能とする。【解決手段】情報処理装置は、操作の対象とする物体の像を表示する表示面とは非接触の状態で、表示面とユーザとの間で行われるユーザの動きを検知する検知手段と、検知されたユーザの動きに対応する操作の実行を物体に指示する制御手段とを有し、ユーザと接して使用される。【選択図】図2

Description

本発明は、情報処理装置及びプログラムに関する。
ユーザが操作する携帯機器に内蔵されたカメラで撮像した画像に含まれる機器を認識し、認識された機器に対応する仮想ユーザインタフェースを拡張現実の空間に表示し、この仮想ユーザインタフェースを通じて機器を操作することが提示されている。
特開2013−172432号公報
機器の操作には、ユーザの接触による指示が前提とされる。
本発明は、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能とする。
請求項1に記載の発明は、操作の対象とする物体の像を表示する表示面とは非接触の状態で、当該表示面とユーザとの間で行われるユーザの動きを検知する検知手段と、検知されたユーザの動きに対応する操作の実行を前記物体に指示する制御手段と、を有する情報処理装置である。
請求項2に記載の発明は、前記物体の像は、撮像された画像に基づいて前記表示面に表示されている、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記検知手段は、撮像された画像を処理してユーザの手又は指の動きを検知する、請求項1に記載の情報処理装置である。
請求項4に記載の発明は、前記検知手段は、測定された距離の情報を用いてユーザの手又は指の動きを検知する、請求項1に記載の情報処理装置である。
請求項5に記載の発明は、前記表示面には、ユーザの手又は指の像が、前記物体の像に重ねて表示される、請求項1に記載の情報処理装置である。
請求項6に記載の発明は、ユーザの動きに対応する操作は、前記物体の個別の部位毎に用意されている、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記制御手段は、ユーザによる前記物体の操作が許可されている場合に、当該物体に対して操作の実行を指示する、請求項1に記載の情報処理装置である。
請求項8に記載の発明は、検知されたユーザの動きに対応する操作が前記物体で実行できない場合、ユーザに報知する、請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記物体に対する正しい操作の方法を報知する、請求項8に記載の情報処理装置である。
請求項10に記載の発明は、前記制御手段は、前記物体に応じ、検知されたユーザの動きに対応する操作の内容を決定する、請求項1に記載の情報処理装置である。
請求項11に記載の発明は、前記制御手段は、前記物体との通信を通じて操作が可能な当該物体の機能を取得する、請求項1に記載の情報処理装置である。
請求項12に記載の発明は、前記制御手段は、ユーザの体の部位を示唆する表記を前記物体に重ねて表示する、請求項1に記載の情報処理装置である。
請求項13に記載の発明は、前記制御手段は、ユーザの動きを操作として受け付けたことをユーザに報知する、請求項1に記載の情報処理装置である。
請求項14に記載の発明は、前記報知は、ユーザが前記表示面に対して非接触に動かした体の部位に触覚を通じて報知する、請求項13に記載の情報処理装置である。
請求項15に記載の発明は、前記制御手段は、操作として受け付けた体の部位を、受け付け前とは異なる態様で表示する、請求項13に記載の情報処理装置である。
請求項16に記載の発明は、前記制御手段は、前記物体の操作に用いる装備をユーザの体に重ねて表示する、請求項1に記載の情報処理装置である。
請求項17に記載の発明は、前記制御手段は、前記物体が存在する環境に応じた装備をユーザの体に重ねて表示する、請求項1に記載の情報処理装置である。
請求項18に記載の発明は、前記制御手段は、ユーザの動きに対応する操作が前記物体に対する物理的な操作を必要とする場合、可動部を有する別の機器に対して操作の実行を指示する、請求項1に記載の情報処理装置である。
請求項19に記載の発明は、前記表示面に表示されている前記物体の像は、操作の対象とする当該物体の画像を更に撮像した画像である、請求項1に記載の情報処理装置である。
請求項20に記載の発明は、前記表示面は空気中に形成される、請求項1に記載の情報処理装置である。
請求項21に記載の発明は、前記表示面は、拡張現実又は複合現実として表示される、請求項1に記載の情報処理装置である。
請求項22に記載の発明は、操作の対象とする物体とは非接触の状態のまま実行されるユーザの動きを検知する検知手段と、ユーザの動きが、前記物体の像を表示する表示面とユーザとの間で検知されたか、当該物体を撮像する当該表示面と当該物体との間で検知されたかに応じて、当該物体に指示する操作の内容を切り替える制御手段と、を有する情報処理装置である。
請求項23に記載の発明は、前記表示面とユーザとの間で検知されたユーザの動きと当該表示面と前記物体との間で検知されたユーザの動きとが、当該物体の異なる部位に対応付けられている、請求項22に記載の情報処理装置である。
請求項24に記載の発明は、前記表示面とユーザとの間で検知されたユーザの動きは、前記物体のうちユーザから見て手前側の面に対応付けられており、前記表示面と前記物体との間で検知されたユーザの動きは、当該物体のうちユーザから見て奥側の面に対応付けられている、請求項23に記載の情報処理装置である。
請求項25に記載の発明は、前記表示面とユーザとの間で検知されたユーザの動きと当該表示面と前記物体との間で検知されたユーザの動きとが、当該物体の同じ部位に対応付けられている、請求項22に記載の情報処理装置である。
請求項26に記載の発明は、前記制御手段は、前記表示面とユーザとの間で検知されたユーザの動きに限り、又は、当該表示面と前記物体との間で検知されたユーザの動きに限り、有効な動きとして当該物体に指示する、請求項22に記載の情報処理装置である。
請求項27に記載の発明は、前記有効な動きとして扱われる検知の位置は機能毎に設定される、請求項26に記載の情報処理装置である。
請求項28に記載の発明は、前記有効な動きとして扱われる検知の位置はユーザにより指定される、請求項26に記載の情報処理装置である。
請求項29に記載の発明は、コンピュータを、操作の対象とする物体の像を表示する表示面とは非接触の状態で、当該表示面とユーザとの間で行われるユーザの動きを検知する検知手段と、検知されたユーザの動きに対応する操作の実行を前記物体に指示する制御手段、として機能させるプログラムである。
請求項30に記載の発明は、コンピュータを、操作の対象とする物体とは非接触の状態のまま実行されるユーザの動きを検知する検知手段と、ユーザの動きが、前記物体の像を表示する表示面とユーザとの間で検知されたか、当該物体を撮像する当該表示面と当該物体との間で検知されたかに応じて、当該物体に指示する操作の内容を切り替える制御手段、として機能させるプログラムである。
請求項1記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項2記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項3記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項4記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項5記載の発明によれば、ユーザは画面上で自身の手又は指と操作の対象とする物体との位置関係を確認できる。
請求項6記載の発明によれば、部位ごとに異なる操作を実現できる。
請求項7記載の発明によれば、許可が必要とされる操作にも対応できる。
請求項8記載の発明によれば、正しくない操作を知らせることができる。
請求項9記載の発明によれば、正しい操作を促すことができる。
請求項10記載の発明によれば、物体が異なっても操作できる。
請求項11記載の発明によれば、物体の機能に応じた操作を指示できる。
請求項12記載の発明によれば、画面上で物体を確認したまま操作できる。
請求項13記載の発明によれば、操作の確定を確認できる。
請求項14記載の発明によれば、操作の確定を確認できる。
請求項15記載の発明によれば、操作の確定を確認できる。
請求項16記載の発明によれば、現実感を高めることができる。
請求項17記載の発明によれば、現実感を高めることができる。
請求項18記載の発明によれば、物理的な接触が必要とされる操作も実行を指示できる。
請求項19記載の発明によれば、目前にない物体でも操作できる。
請求項20記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項21記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項22記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項23記載の発明によれば、誤操作を低減できる。
請求項24記載の発明によれば、誤操作を低減できる。
請求項25記載の発明によれば、ユーザの動きが検知される位置により操作の内容を切り替えることができる。
請求項26記載の発明によれば、ユーザの動きが検知される位置により有効な操作と無効な操作を切り替えることができる。
請求項27記載の発明によれば、機能毎に有効な操作と無効な操作を切り替えることができる。
請求項28記載の発明によれば、ユーザの誤操作を低減できる。
請求項29載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
請求項30記載の発明によれば、ユーザの接触による操作を用いずに現実の空間に存在する物体の操作を可能にできる。
実施の形態1に係るシステムの一例を説明する図である。 右手とスマートフォンの位置の関係を説明する図である。 画像形成装置のハードウェア構成の一例を説明する図である。 スマートフォンのハードウェア構成の一例を説明する図である。 プログラムの実行を通じて処理回路部が実現する機能構成の一例を説明する図である。 処理回路部において実行される処理動作の一例を説明するフローチャートである。 操作の対象とする画像形成装置の像が表示されている液晶ディスプレイに触れること無く画像形成装置を操作する例を説明する図である。 操作の対象とする画像形成装置の像が表示されている液晶ディスプレイに触れること無く人差し指を空中で押すように動かして画像形成装置を操作する例を説明する図である。 操作の受け付けをユーザに報知する他の方法を説明する図である。 操作の受け付けをユーザに報知する他の方法を説明する図である。 操作の受け付けをユーザに報知する他の方法を説明する図である。 人差し指の像を液晶ディスプレイに表示させない手法を説明する図である。 人差し指の像を液晶ディスプレイに表示させない他の手法を説明する図である。 スマートフォンによって検知された人差し指の位置を示唆する手法の例を説明する図である。 操作の対象が通信の機能を有する電卓である場合を説明する図である。 操作の対象がレバーである場合を説明する図である。 操作の対象がレバーである場合の他の例を説明する図である。 蝶番が取り付けられた部分を軸として開閉する片開き扉を操作の対象とする場合を説明する図である。 ユーザが右手を空中に押し出す動きをスマートフォンで撮像することで片開き扉が少し開いた状態を説明する図である。 ユーザが右手を空中に押し出す動きをスマートフォンで撮像することで片開き扉が大きく開いた状態を説明する図である。 片開き扉にレバー式の取っ手(レバーハンドル)が取り付けられている場合を説明する図である。 許容される最大の角度まで片開き扉が開いた後も押し続ける身振りが検知される場合をユーザに報知する機能の一例を説明する図である。 照明器具を撮像の対象とする場合を説明する図である。 照明器具の点灯を制御するスイッチを撮像の対象とする場合を説明する図である。 表示装置に表示されている電卓の像を撮像の対象とする場合を説明する図である。 スマートフォンで撮像されるユーザの動きを液晶ディスプレイに表示されている操作子の操作に紐付ける例を説明する図である。 実施の形態2に係るシステムの一例を説明する図である。 実施の形態2で使用するメガネ型の端末の構造例を説明する図である。 実施の形態2で使用するメガネ型の端末のハードウェア構成の一例を示す図である。 金庫を操作の対象として撮像する場合を説明する図である。 金庫のハードウェア構成の一例を説明する図である。 MPUで実行される処理動作の一例を説明するフローチャートである。 実施の形態4に係るシステムの一例を説明する図である。 前述した実施の形態で説明したように、スマートフォンでユーザの体の一部の動きを片開き扉の操作として受け付ける場合を示す図である。 ネットワークを介して複数のユーザが操作の情報を共有する仕組みを説明する図である。 3台のスマートフォンのうちの1台を使用して片開き扉を押し開く場合を説明する図である。 片開き扉が開かれた状態が3台のスマートフォンで共有される様子を説明する図である。 植木の移動を身振りで指示する場合を説明する図である。 ロボットのハードウェア構成を説明する図である。 ロボットを使用した植木の移動を説明する図である。 画像形成装置に対向する位置の他の例を説明する図である。 身振りによって用紙の収容部を開閉する例を説明する図である。 印刷された用紙に対して穴を開ける処理や綴る処理を加えるための機構が取り付けられている場合の操作例を説明する図である。 後処理装置の像を人差し指の像で選択した場合に実行される表示部に生じる画面の変化を説明する図である。(A)は人差し指の像による身振りを受け付ける前の表示を示し、(B)は人差し指の像による身振りを受け付けた後の表示を示し、(C)は身振りによる操作を受け付けるスマートフォンの画面例を示す。 実施の形態9に係るシステムの一例を説明する図である。 右手とスマートフォンの位置の関係を説明する図である。 2種類の操作の手法の切り替えを説明する図である。(A)は右手を液晶ディスプレイとユーザとの間の空中で動かす手法を示し、(B)は右手をスマートフォンと画像形成装置との間の空中で動かす手法を示す。 操作がスマートフォンに対して手前側で行われる場合と奥側で行われる場合とで、操作の対象とする物体の部位が切り替えられる場合を説明する図である。(A)は、ユーザの操作が液晶ディスプレイとユーザとの間で行われる場合の関係を示し、(B)は、ユーザの操作がスマートフォンと画像形成装置との間で行われる場合の関係を示す。 操作がスマートフォンに対して手前側で行われる場合と奥側で行われる場合とで、動作モードが切り替えられる場合を説明する図である。(A)は、ユーザの操作が液晶ディスプレイとユーザとの間で行われる場合の関係を示し、(B)は、ユーザの操作がスマートフォンと画像形成装置との間で行われる場合の関係を示す。 操作がスマートフォンに対して手前側で行われる場合と奥側で行われる場合とで操作の有効と無効が設定されている場合を説明する図である。(A)は、ユーザの操作が液晶ディスプレイとユーザとの間で行われる場合を示し、(B)は、ユーザの操作がスマートフォンと画像形成装置との間で行われる場合を示す。 液晶ディスプレイに表示される設定用の画面の一例を示す図である。 身振りを検知する位置の設定を機能別に設定する画面の一例を示す図である。 実施の形態11に係る空中画像形成システムの概略構成を説明する図である。 空中画像を形成する携帯型のデバイスの一例を示す図である。 空中画像に対して手前の位置で右手を動かし、物体を操作する例を示す。(A)はユーザから見た空中画像と右手の見え方を示し、(B)はユーザと空中画像と右手の間の位置の関係を示す。 空中画像に対して奥側の位置で右手を動かし、物体を操作する例を示す。(A)はユーザから見た空中画像と右手の見え方を示し、(B)はユーザと空中画像と右手の間の位置の関係を示す。 表示デバイスから出力される光を専用の光学プレートを透過させることで空中画像を形成する空中画像形成装置の原理図である。(A)は各部材と空中画像との位置関係を示し、(B)は光学プレートの断面構造の一部を示す。ここでの表示デバイスと光学プレートは、光学部品の一例である。 空中画像として3次元像を形成する空中画像形成装置の原理図である。 2面コーナーリフレクタを構成する微小な四角い穴を平面内に等間隔に配列した構造のマイクロミラーアレイを用いて空中画像を形成する空中画像形成装置の原理図である。(A)は各部材と空中画像との位置関係を示し、(B)はマイクロミラーアレイの一部分を拡大した図である。 ビームスプリッタと再帰反射シートを使用する空中画像形成装置の原理図である。 空中画像をプラズマ発光体の集合として形成する空中画像形成装置の原理図である。
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<システム例>
図1及び図2を用い、実施の形態1に係るシステム全体の構成と、ユーザと機器との位置の関係を説明する。
図1は、実施の形態1に係るシステムの一例を説明する図である。
図2は、右手302とスマートフォン200の位置の関係を説明する図である。
実施の形態1に係るシステムは、記録材(以下、代表して「用紙」と記す場合もある。)に画像を形成する画像形成装置100と、画像形成装置100を撮像するスマートフォン200とで構成されている。
本実施の形態の場合、ユーザ300は、スマートフォン200を通じ、操作の対象とする画像形成装置100を操作する。
図1及び図2に示すように、本実施の形態の場合、ユーザ300は、左手301でスマートフォン200を保持した状態で右手302を空中で動かすことで、画像形成装置100に対する操作をスマートフォン200に入力する。
なお、右手302でスマートフォン200を保持した状態で左手301を空中で動かしてもよい。
図1及び図2に示すように、操作の入力に使用される右手302は、ユーザ300の頭部とスマートフォン200の間に位置し、スマートフォン200の表示面とは非接触である。
本実施の形態に係るスマートフォン200は、ユーザの右手302(例えば人差し指)の動きを検知し、検知された動きに対応する操作の実行を画像形成装置100に指示する。すなわち、ユーザ300は、画像形成装置100の操作面とスマートフォン200の操作面のいずれにも触れずに、画像形成装置100に対する操作を入力する。
ただし、左手301はスマートフォン200に接している。
画像形成装置100は、複製物を生成するコピー機能、原稿の画像を読み取るスキャン機能、他機との間でファックス画像を受け渡しするファックス送受信機能、用紙に画像を記録する印刷機能等を備えている。コピー機能は、スキャン機能と印刷機能とを組み合わせることで実現される。
なお、画像形成装置100は、コピー機能、スキャン機能、ファックス送受信機能の全てを備える必要はなく、いずれか1つの機能に特化した装置、例えば複写機、スキャナ、ファックス送受信機、プリンタ(3次元プリンタを含む。)であってもよい。また、画像形成装置100は、これらの機能の一部を選択的に組み合わせた装置構成を有していてもよい。
画像形成装置100は、ユーザ300からの操作の受け付けやユーザ300に対する各種情報の提示に用いられるユーザインタフェース部110と、原稿の画像を読み取る画像読取ユニット120と、用紙上に画像を記録する画像形成ユニット130と、用紙を収容する収容部140とで構成されている。
スマートフォン200は、携帯型の端末装置であり、後述するように撮像用のカメラ、表示画面、通信機能等を備えている。
図1に示すスマートフォン200の表示画面には、画像形成装置100の像100Aが表示されている。
ここでの画像形成装置100は、操作の対象として現実の空間に存在する物体の一例であり、スマートフォン200は、ユーザ300に接した状態で使用される情報処理装置の一例である。
<画像形成装置の構成>
図3は、画像形成装置100のハードウェア構成の一例を説明する図である。
図3には、図1との対応部分に対応する符号を付して示している。
ユーザインタフェース部110は、操作画面等の表示に使用される表示部111と、ユーザの入力操作を受け付ける操作受付部112とを備えている。
表示部111は、例えば液晶ディスプレイパネルや有機EL(Electro Luminescence)ディスプレイパネル等で構成されている。
操作受付部112は、ユーザによる操作入力を受け付けるボタンやタッチパッド等で構成されている。
画像読取ユニット120は、原稿から画像を読み取る画像読取部と、画像読取部に原稿を搬送する原稿搬送部とを有している。画像読取ユニット120は、画像形成ユニット130の上部に配置される。
画像形成ユニット130は、制御部として機能するMPU(Micro Processing Unit)131と、ROM(Read Only Memory)132と、RAM(Random Access Memory)133を有している。
MPU131は、ROM132から読み出したファームウェア等のプログラムを実行し、各種の機能を提供する。RAM133は、プログラムの作業領域として使用される。
画像形成ユニット130には、その他に、画像データ等の記憶に用いられる記憶部134、画像データに色補正や階調補正等の画像処理を加える画像処理部135、電子写真方式やインクジェット方式で用紙に画像を形成する画像形成部136、外部との通信に用いられる通信部137等を有している。
記憶部134は、ハードディスク装置や半導体メモリ等の不揮発性の記憶媒体を有している。記憶部134には、画像読取ユニット120で読み取った原稿の画像データや通信部137を通じて受信した画像データが記憶される。
画像処理部135は、例えば専用のプロセッサや処理ボードによって構成される。
通信部137は、LAN(Local Area Network)インタフェースやファクシミリ通信網サービスのインタフェースを備えている。前述したスマートフォン200(図1参照)との通信にはLANインタフェースが使用される。
なお、MPU131、ROM132、RAM133、記憶部134、画像処理部135、画像形成部136、通信部137は、バス138を通じて互いに接続されている。また、前述したユーザインタフェース部110と画像読取ユニット120は、インタフェース139を通じてバス138に接続されている。
<スマートフォンの構成>
図4は、スマートフォン200のハードウェア構成の一例を説明する図である。
スマートフォン200は、データを処理する処理回路部210と、プログラムやデータを記憶する不揮発性のメモリ221と、オーディオ信号を入出力するオーディオ回路222と、画像を表示する液晶ディスプレイ(LCD)223と、電源制御デバイス224と、画像を撮像する2台のカメラ225A、225Bと、操作面に対する接触を検知するタッチパッド226と、WiFi(登録商標)規格に準拠する無線信号を送受信するWiFi(Wireless Fidelity)モジュール227と、近距離無線通信規格の1つであるブルートゥース(登録商標)規格に準拠する無線信号を送受信するBluetooth(登録商標)モジュール228と、物体に接触していない体の部位に人工的な触覚を与える空中触覚モジュール229と、を有している。
本実施の形態の場合、画像形成装置100の撮像に用いられるカメラ225Aが設けられる面と液晶ディスプレイ223が設けられる面とは、表面と裏面の関係にある。
このため、ユーザは、現実の空間に存在する物体(例えば画像形成装置)と自身の体の一部(例えば指、手、足)をカメラ225Aで撮像しながら、その画像を液晶ディスプレイ223で確認することが可能である。
一方、液晶ディスプレイ223と同じ面には、スマートフォン200を操作するユーザ300を撮像するカメラ225Bが設けられている。カメラ225Aとカメラ225Bとは反対側の面に設けられている。
カメラ225Aで撮像された画像が液晶ディスプレイ223に表示されている場合、カメラ225Bで撮像された画像は、ユーザ300の身振り(体の一部の動き)の検知用に用いられる。この場合、カメラ225Bで撮像された画像は、例えば液晶ディスプレイ223に表示されていないか、カメラ225Aで撮像された画像を補助する画像として表示される。
もっとも、ユーザの指示があれば、カメラ225Aで撮像された画像又はメモリ221から再生される画像の代わりに、カメラ225Bで撮像された画像を液晶ディスプレイ223に表示してもよい。
なお、スマートフォン200を自分撮りモードで使用する場合、カメラ225Bで撮像された画像が液晶ディスプレイ223に表示される。
本実施の形態では、液晶ディスプレイ223を用いているが、表示面として、有機EL(Electro-Luminescence)ディスプレイその他の表示手段を用いてもよい。
本実施の形態における空中触覚モジュール229は、例えば複数の超音波振動子を格子状に並べた超音波振動子アレーで構成される。この種の空中触覚モジュール229は、空中の任意の位置に超音波の焦点を生成することができる。焦点の分布や振動の強さを調整することにより、ユーザによって知覚される触覚は変化する。
本実施の形態における空中触覚モジュール229は、例えば複数の超音波振動子を格子状に並べた超音波振動子アレーで構成される。この種の空中触覚モジュール229は、空中の任意の位置に超音波の焦点を生成することができる。焦点の分布や振動の強さを調整することにより、ユーザによって知覚される触覚は変化する。
例えば操作の対象である機能に応じ、生成する触覚を変化させてもよい。触覚は、例えばユーザの動きが検知された場合、特定の機能に対する操作として受け付けられた場合等に生成される。また、他のユーザの動きや動きの強さを、触覚を通じて伝達してもよい。空中触覚モジュール229は、触覚を付与する付与手段の一例である。
処理回路部210には、メモリ221との間でデータの読み書きを制御するメモリ制御部211と、処理を実行する複数のCPUコア(Central Processing Unit Core)212と、電源の供給を管理する電源管理部213と、組み込みシステムの動作を管理するシステム管理部214と、オーディオ信号を処理するオーディオ処理部215と、実時間で画像を処理するGPU(Graphics Processing Unit)216と、液晶ディスプレイ223に画像を表示するディスプレイ制御部217と、外部のモジュールとの接続に使用される外部インタフェース(I/F)218と、ベースバンド信号を処理するベースバンド回路219とが設けられている。
図5は、プログラムの実行を通じて処理回路部210が実現する機能構成の一例を説明する図である。
ここでの処理回路部210は、検知手段の一例であるとともに制御手段の一例でもある。
処理回路部210は、画像データを処理してユーザの身振りを検知する身振り検知部251と、操作の対象とする物体を検知する操作対象検知部252と、操作の対象とする物体(本実施の形態では画像形成装置100)から物体が備える機能の情報を取得する対象側機能取得部253と、ユーザの身振りを操作として受け付ける操作受付部254と、受け付けた操作に対応する指示を対象とする物体に送信する指示送信部255と、操作の受け付けをユーザに報知する報知部256として機能する。
本実施の形態における身振り検知部251は、カメラ225Bで撮像された画像からユーザの体の一部(例えば指、手、足)の動きを身振りとして検知する。動きの意味は、操作の対象として検知される物体(例えば画像形成装置100)毎に異なる。
本実施の形態における身振りには、例えば押す、引く、回す、握る、蹴る、踏む、クリック、ダブルクリック、ドラッグ、タップ、フリック、スワイプ等が含まれる。
本実施の形態における身振り検知部251は、例えばカメラ225Bで撮像された画像からユーザの体の一部(例えば指、手、足)の動きを身振りとして検知する。動きの意味は、操作の対象として検知される物体毎に異なる。また、同じ物体に対する動きでも操作の対象とする機能が異なれば、動きの意味は異なる。
本実施の形態における身振りには、例えば押す、引く、回す、握る、蹴る、踏む、クリック、ダブルクリック、ドラッグ、タップ、フリック、スワイプ等が含まれる。なお、身振りの特定には、深層学習の機能を用いてもよい。
身振りの検知には、他の手法の活用も可能である。例えば半導体レーザやLED(Light Emitting Diode)から発射され光が物体で反射して戻ってくるまでの時間を画素毎に計測して物体までの距離を測定するTOF(Time Of Flight)方式、時系列に変化する縦縞パターンを投影した物体を撮像した画素に現れる輝度の変化から物体までの距離を測定するSL(Structured Light)時系列パターン投影方式、超音波やミリ波を用いて物体までの距離を測定する方式等をそれぞれ単独で、又は、組み合わせてもよい。組み合わせの対象には、撮像された画像を処理して身振りを認識する技術も含まれる。
本実施の形態における操作対象検知部252は、カメラ225Bで撮像される画像から検出されたユーザの体の一部を、カメラ225Aで撮像される操作の対象とする物体(例えば画像形成装置100)やその操作子等に対応付ける処理を実行する。
本実施の形態の場合、図2で説明したように、操作の対象である物体と操作の入力に用いられるユーザの体の一部は、スマートフォン200を挟んで反対側に位置するためである。
操作対象検知部252は、カメラ225Bで撮像された画像を処理して予め定めた体の一部(例えば指先、手、足)を抽出し、抽出された体の一部の液晶ディスプレイ223内における位置を特定する。
その後、操作対象検知部252は、特定された液晶ディスプレイ223内の位置(画素)を用い、カメラ225Aで撮像された画像のうち操作の対象となる物体やその操作子等を検知する。
本実施の形態における操作子には、操作の対象となる物理的な構造物(例えばボタン、スイッチ)、ソフトウェア的に再現される画面上の表示(例えばボタン、スイッチ)等が含まれる。
処理に用いる画像は、液晶ディスプレイ223とは反対側の面に設けられたカメラ225Aから取得される実時間の画像データに限らず、メモリ221や外部から取得される画像データでもよい。
画面内に複数の物体が含まれる場合、操作対象検知部252は、カメラ225Aで撮像された画像のうち画面の中央により近い物体を対象として検知してもよい。
なお、操作対象検知部252は、無線LAN等によってスマートフォン200と接続中の機器の一覧の中からユーザによって選択された機器を操作の対象として検知してもよい。
本実施の形態における対象側機能取得部253は、例えば操作対象検知部252で検知された物体との通信を通じ、操作が可能な操作子の情報を取得する。例えば無線LANを用い、操作子の情報を取得する。
また、対象側機能取得部253は、例えば通信可能な機器のそれぞれから操作が可能な操作子の情報を取得してもよい。
なお、操作の対象が通信機能を有しているとは限らない。例えば操作の対象が植物や自然物の場合である。この場合でも、対象側機能取得部253は、人の動きを代行可能なロボットその他の機器と通信し、実行が可能な操作の情報を取得してもよい。
本実施の形態における操作受付部254は、検知された身振りを操作の対象とする物体の特定の機能に紐付けて操作として受け付ける。
なお、図2に示したように、操作の対象とする物体は、ユーザと対向する位置に存在している。そして、カメラ225Aが操作の対象とする物体を撮像する方向と、カメラ225B(図4参照)がユーザの体の一部を撮像する方向とは逆向きになる。
ここでの逆向きは、正確に逆方向である必要はない。
本実施の形態における指示送信部255は、受け付けた操作に対応する指示の実行を対象とする物体(例えば画像形成装置100)に対して送信する。なお、指示送信部255は、指示に対する応答(例えば指示の受け付け等)を対象とする物体の側から取得する機能も備えている。
また、指示送信部255は、操作の対象とする物体の各部に、それぞれ特有の身振りと機能の指示とが紐付けられている場合には、身振りを通じて受け付けた指示を送信してもよい。この場合、操作画面に対する操作は不要となる。
因みに、操作画面に対する操作を必須とする場合には、操作画面内に配置された複数の選択肢の中から1つを選択する操作や深い階層に位置する選択肢にたどり着く必要がある。
しかし、操作の対象とする物体の特定の部位に、それぞれ特定の身振りと特定の機能が割り当てられている場合には、より少ない操作で指示を送信することが可能になる。結果的に、複数の機能を素早く選択的に実行できる。
本実施の形態における報知部256は、オーディオ回路222や液晶ディスプレイ223を通じて、ユーザによる身振りによる操作を補助する各種の報知を実行する。
<処理回路部による処理動作>
図6は、処理回路部210(図5参照)において実行される処理動作の一例を説明するフローチャートである。図6においては、ステップを記号のSで示す。
本実施の形態における処理回路部210は、液晶ディスプレイ223(図4参照)と同じ面に設けられているカメラ225Bで撮像された画像に含まれる人体の一部(例えば指、手、足)を認識する(ステップ101)。
次に、処理回路部210は、認識された部位(例えば指先)の動きを検知する(ステップ102)。
以上の処理は、例えば身振り検知部251(図5参照)が実行する。
その後、処理回路部210は、検知された部位と画面上で重なる位置(画素)の物体又はその一部分を特定する(ステップ103)。この処理は、例えば操作対象検知部252(図5参照)が実行する。
なお、処理回路部210は、操作の対象である物体の認識も事前に又は並行して行う。操作の対象である物体を特定できない場合、処理回路部210は、操作の対象とする物体を特定できないこと、型式等を含む画像を撮像すべきこと等を報知する。この処理は、例えば報知部256(図5参照)が実行する。
続いて、処理回路部210は、検知された人体の動きを、特定された物体又は部位に対する操作として受け付ける(ステップ104)。この処理は、例えば操作受付部254が実行する。
なお、特定された部位に対応付けられている機能が存在しない場合や対応付けられている機能の実行とは関係のない動きの場合、処理回路部210は、検知された動きを操作として受け付けないこともある。
次に、処理回路部210は、対象とする物体を通信により制御可能か否かを判定する(ステップ105)。この処理も、例えば操作受付部254が実行する。
ステップ105で肯定結果が得られた場合、処理回路部210は、操作の実行を指示する信号を、対象とする物体に送信する(ステップ106)。
ステップ105で否定結果が得られた場合、処理回路部210は、操作の代行が可能な自走装置があるか否かを判定する(ステップ107)。
ステップ107で肯定結果が得られた場合、処理回路部210は、操作の実行を指示する信号を自走装置に送信する(ステップ108)。
ステップ107で否定結果が得られた場合、処理回路部210は、操作できない旨を報知する(ステップ109)。
<操作例>
以下では、前述した機能を用いて実現される操作例について説明する。
<操作例1>
図7は、操作の対象とする画像形成装置100の像が表示されている液晶ディスプレイ223に触れること無く画像形成装置100を操作する例を説明する図である。
この撮像の際、ユーザは、左手301でスマートフォン200を保持している。一方、右手302は、液晶ディスプレイ223とは非接触のまま、液晶ディスプレイ223とユーザとの間で動かされる。
右手302を液晶ディスプレイ223の表示面に接触させない点が、既存の使い方との違いである。
図7の場合、スマートフォン200の液晶ディスプレイ223には、ユーザインタフェース部110の一部分が拡大された状態で表示されている。
この表示の状態は、画像形成装置100の像が液晶ディスプレイ223に表示されている状態でズーム操作を実行することで得ることができる。例えばスマートフォン200には、画面を数回タップすると、画面を拡大又は縮小できる機能が備えられている。従って、スマートフォン200を保持する左手301の人差し指で画面を数回タップすれば、液晶ディスプレイ223に右手302を触れること無く、画面の拡大率を変更できる。また、音声認識技術を使用すれば、液晶ディスプレイ223に右手302を触れなくても、画面の拡大率を変更できる。
図7の場合、現実の空間に存在するユーザインタフェース部110の一部分を撮像した像270(言語切替用のボタン271と画面輝度調整用のボタン272)と、人差し指の像302Aとが、液晶ディスプレイ223に表示されている。
ここで、人差し指の像302Aは、カメラ225Bによって撮像された画像そのものではなく、予め用意されている表示用の画像やアイコンの類である。
なぜなら、カメラ225Bによって撮像される右手302の人差し指は、指の腹側(手のひら側)であり、撮像された画像をそのまま液晶ディスプレイ223に表示したのでは、不自然な画像になるためである。
本実施の形態では、予め手の甲の側から撮像した指の像やアイコンをメモリ221(図4参照)から読み出し、カメラ225Bで撮像された画像から検知された位置に合成して表示する。
この表示により、あたかもユーザが指先で液晶ディスプレイ223の表面に触れているかのような見え方を再現できる。
操作に用いる右手302と液晶ディスプレイ223の表示面とが近い場合には(例えば人差し指が表示面から1cm程度の場合には)、人差し指の像302Aの表示は必ずしも必要ではないが、人差し指の像302Aが表示されることで、ユーザは、自身の人差し指が液晶ディスプレイ223に表示された画像のどの部位に位置しているかを容易に確認することができる。
ところで、人差し指の動きで画像形成装置100を操作するには、操作の対象として画像形成装置100が事前に特定されている必要がある。
画像形成装置100の特定には、例えば画像形成装置100の画像を処理して機種を特定する技術、画像に含まれる型番等の文字情報を検知する技術、液晶ディスプレイ223に表示される候補の中から選択する技術等の使用が可能である。
ここでの候補は、例えば無線LAN等によってスマートフォン200と接続中の機器の一覧として与えられる。
ここでは、操作の対象として画像形成装置100が既に特定されているものとする。
図7の場合、操作が可能な2つの操作子(言語切替用のボタン271と画面輝度調整用のボタン272)が液晶ディスプレイ223に表示されているが、3つ以上の操作子が表示されていてもよいし、1つの操作子だけが表示されていてもよい。
図7の場合、2つの操作子が液晶ディスプレイ223に表示されているので、操作の対象とする操作子の像と人差し指の像302Aとが重なるように右手302を空中で移動させる必要がある。
この右手302の空気中での移動もスマートフォン200には、ユーザの動きとして検知される。ただし、水平方向への動きは、撮像されている操作子に対する操作の動きに対応付けられていない。
このため、人差し指の像302Aが画面輝度調整用のボタン272と重なるまでの動きは、操作子に対する操作としては受け付けられていない。
なお、本実施の形態では、操作の対象がボタン類であるので人差し指の像302Aの動きを検知しているが、検知の対象とする体の一部分は、操作の対象に応じて定めてもよい。例えば手、腕、足などの人体の一部を検知の対象としてもよい。検知の対象を特定することで誤操作の回避が可能になる。
図8は、操作の対象とする画像形成装置100の像が表示されている液晶ディスプレイ223に触れること無く人差し指を空中で押すように動かして画像形成装置100を操作する例を説明する図である。
図8には、図7との対応する部分に対応する符号を付して示している。
ここでの押すような動作とは、右手302がスマートフォン200の表示面に近づく方向への動きである。
具体的には、実空間において、ユーザインタフェース部110に表示された操作子を押す場合と同じ動きになる。
図8に示す液晶ディスプレイ223では、人差し指の像302Aが画面輝度調整用のボタン272と重なっているので、スマートフォン200は、画面輝度調整用のボタン272を押す操作として検知する。
本実施の形態の場合、スマートフォン200には、操作子と動きとの関係がメモリ221(図4参照)に記憶されている。もっとも、メモリ221に記憶される関係は、画像形成装置100に設けられる操作子のうちの一部についてでもよい。
また、画像形成装置100に設けられる操作子のイメージと操作として認識する動きの関係は、画像形成装置100に記憶されており、操作の対象とする操作子を特定する処理も画像形成装置100が実行してもよい。
図8では、画像形成装置100と通信が可能であるので、スマートフォン200は、画面輝度調整用のボタン272の操作を指示する信号を画像形成装置100に送信する。
本実施の形態におけるスマートフォン200には、操作の受け付けをユーザに報知する機能が用意されている。
このため、図8では、画面輝度調整用のボタン272の表示の形態を変化させ、操作の受け付けをユーザに報知している。
ここで、表示の形態を変化させる方法には、例えば操作の対象となったボタンが表示されている領域の輝度を上げる、点滅させる、他の色に変化させる等の手法が用いられる。
加えて、図8の場合、右手302の人差し指の腹側(手のひら側)には、空中触覚モジュール229から発生される超音波によって人差し指に振動が加えられている。この振動は、ユーザに、ボタンの操作が受け付けられた触覚を与える。
なお、操作の受け付けをユーザに報知する機能は必須ではない。
<操作例2>
図9は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図9には、図8との対応部分に対応する符号を付して示している。
図9の場合、画面輝度調整用のボタン272の表示には変化がないが、不図示のスピーカから「カチッ」という音が出力されている。
この音の発生により、ユーザは、自身の動きが操作として受け付けられたことの確認が可能である。
なお、音による報知の手法は、「操作を受け付けました」等の言葉として発せられてもよい。
この場合も、空中触覚モジュール229から発生される超音波によって人差し指に振動が加えられている。
<操作例3>
図10は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図10には、図8との対応部分に対応する符号を付して示している。
図10の場合、画面輝度調整用のボタン272の表示には変化がないが、操作の受け付けを示す小さい画面280が追加的に表示されている。
図10に示す画面280には「操作を受け付けました」との文字列が記述されている。勿論、この文字列は一例である。
この場合も、空中触覚モジュール229から発生される超音波によって人差し指に振動が加えられている。
<操作例4>
図11は、操作の受け付けをユーザに報知する他の方法を説明する図である。
図11には、図8との対応部分に対応する符号を付して示している。
図11の場合、画面輝度調整用のボタン272の表示には変化がないが、人差し指の像302Aの表示の態様を、操作として受け付ける前の態様から変化させている。
ここで、表示の形態を変化させる方法には、例えば人差し指の像302Aが表示されている領域の輝度を上げる、点滅させる、他の色に変化させる等の手法が用いられる。
この場合も、空中触覚モジュール229から発生される超音波によって人差し指に振動が加えられている。
<操作例5>
図12は、人差し指の像302Aを液晶ディスプレイ223に表示させない手法を説明する図である。
図12には、図8との対応部分に対応する符号を付して示している。
例えば液晶ディスプレイ223と同じ面に設けられたカメラ225Bの撮像の範囲に侵入した人体の一部を常に表示する手法では、人体の一部によって操作子の大部分が隠れてしまう可能性もある。例えば操作子に記載されている文字が手や腕の像に隠れてしまう可能性がある。
このような場合、ユーザは操作の対象とする操作子を画面上で確認することができず、又は、一部しか確認できないため、操作に支障が生じることがある。
操作子に記載されている文字を確認できないと、どの操作子を操作しているのかわからないだけでなく、誤操作の原因にもなる。
そこで、図12では、画像処理によって人差し指の像302Aを画面上から消している。この場合、ユーザは、どの操作子を操作の対象とするのかを操作の間中、画面上で確認することが可能である。
ただし、人差し指の像302Aの表示がなければ、自身の人差し指が画面上のどの位置を指しているか分からないので、指先が位置する操作子(図12では、画面輝度調整用のボタン272)の表示の形態を変化させて、誤操作が起こらないようにしている。なお、ユーザの操作を受け付けた場合には、操作された操作子の表示の形態を、操作を受け付ける前と変化させてもよい。
<操作例6>
図13は、人差し指の像302Aを液晶ディスプレイ223に表示させない他の手法を説明する図である。
図13には、図12との対応部分に対応する符号を付して示している。
図13の場合も、スマートフォン200が検知した人差し指が位置する操作子(ここでは、画面輝度調整のボタン272)の表示の形態を変化させ、ユーザの確認を支援している。
また、図13では、操作を受け付けたことを文字列で記述する画面280も表示している。
この表示により、自身の体の一部によって視認を妨げられずに、特定の操作子を操作することが可能になる。
また、操作子の表示の態様を変化させる機能がある場合には、操作の対象と間違えずに済む。さらに、操作の受け付けが報知される場合には、ユーザの操作性を高めることができる。
<操作例7>
図14は、スマートフォン200によって検知された人差し指の位置を示唆する手法の例を説明する図である。
図14には、図13との対応部分に対応する符号を付して示している。
操作例6では、人差し指の像302Aを全く表示していないが、画面上での位置を確認したいという要望も考えられる。
図14は、このような要望を考慮した表示の手法であり、人差し指の像302Aが位置する領域の輪郭線を示している。輪郭線が示されることでユーザは、スマートフォン200が検知した人差し指の位置と操作子との位置の関係を容易に確認することが可能になる。ここでの輪郭線は、ユーザの体の部位を示唆する表記の一例である。
なお、図14では、人差し指の像302Aの輪郭線を破線で示しているが、画像処理によって透過像に変換した画像を実像に代えて表示してもよい。ここでの透過像も、ユーザの体の部位を示唆する表記の一例である。
また、指先の部分だけを輪郭線や透過像で選択的に表現し、指先以外は実像で表示してもよいし、反対に指先の部分だけを選択的に実像で表示してもよい。人体の一部の像で隠れる面積が減るので、操作の対象である物体の像の確認が容易になる。
<操作例8>
図15は、操作の対象が通信の機能を有する電卓400である場合を説明する図である。
この例の場合、ユーザは、右手の指先が汚れていても、電卓400を汚すことなく操作し、演算の結果を確認できる。
図15の場合、ユーザの人差し指の像302Aは、透過像として電卓の像400Aの上に重ねて表示されている。透過像は、輪郭線とは異なり、実像が透けるように表示される。
ただし、電卓400のように操作子の寸法が小さい場合には、押し間違いの可能性が残る。
そこで、液晶ディスプレイ223に表示される体の一部の大きさを選択できるようにしてもよい。例えば実像に比して大きくしたり、小さくしたりできるようにしてもよい。また、段階的に調整できるようにしてもよい。
この機能を用意することにより、操作子の押し間違いの低減が期待される。
<操作例9>
図16は、操作の対象がレバー500である場合を説明する図である。
本実施の形態におけるレバー500には、例えば操縦桿、ジョイスティック、シフトレバー、ウインカーレバー、ブレーキレバー、車両のコントローラが含まれる。
図16の場合、操作の対象はレバー500であるので、ユーザは、何かを握るように空中に右手302を突き出している。この例の場合、右手302を前後左右に動かすと、その動きを検知したスマートフォン200からの指示によりレバー500が同じ動きをする。
液晶ディスプレイ223には、右手の像302Bがレバーの像500Aを握ったように表示されている。なお、右手の像302Bは、レバーの像500Aの上に単に重ねて表示されてもよい。
もっとも、レバー500を右手302に連動して動かす必要はなく、レバー500によって制御される対象に右手302の動きに応じた制御が現れればよい。
レバー500は、入力装置であって最終的な制御の対象ではないためである。従って、レバー500とスマートフォン200との通信は必須ではない。レバー500と通信できなくても、スマートフォン200は、レバー500の操作によって制御される機器との間で通信が可能であればよい。
この操作例におけるスマートフォン200には、液晶ディスプレイ223に表示されるユーザの体の一部をユーザの属性や使用の環境に応じて装飾する機能が用意されている。
例えば操作例1(図7参照)の場合には、カメラ225B(図4参照)で撮像された体の一部に対応する表示用の画像やアイコンが表示されているが、図16の例では、薄手の手袋を着用した右手の像302Bが表示されている。ここでの手袋は装備の一例である。
使用する装飾の種類は、事前にユーザが選択してもよいし、レバー500(又はレバー500を備える機器)側から通知されてもよいし、スマートフォン200のメモリ221(図4参照)に記憶されていてもよいし、外部のサーバなどから通知されてもよい。
また、装飾に使用する画像データは、スマートフォン200のメモリ221に記憶されていてもよいし、レバー500を備える機器、外部のサーバ等から与えられてもよい。
なお、液晶ディスプレイ223に表示される右手の像302Bの形状や大きさは、撮像の仕方によっても異なる。従って、スマートフォン200には、右手の像302Bの形状や大きさに応じて装飾する画像を変形する機能も備えている。
本実施の形態の場合、この機能は、スマートフォン200におけるアプリケーションプログラムの実行を通じて実現される。もっとも、スマートフォン200の外部に設けられたサーバその他のコンピュータを使用して画像処理を実行し、処理の結果を液晶ディスプレイ223の表示に反映してもよい。
図17は、操作の対象がレバー500である場合の他の例を説明する図である。
図17には、図16との対応部分に対応する符号を付して示している。
図17の場合、冬場に屋外でレバー500を操作する場合を想定している。このため、図17の場合には、厚手の手袋が装飾として右手の像302Bに付加されている。
このように、液晶ディスプレイ223に装飾した右手の像302Bが表示されることで、レバー500を実際に操作する場合と同様の印象をユーザに与えることができ、操作の実感を高めることが可能になる。
<操作例10>
図18は、蝶番が取り付けられた部分を軸として開閉する片開き扉600を操作の対象とする場合を説明する図である。
片開き扉600には、電気的に片開き扉600を開く又は閉じる開閉用の機構610が取り付けられている。開閉用の機構610は、出入り口が設けられている壁面側に取り付けられている。また、ここでの開閉用の機構610は、無線LAN等を通じてスマートフォン200と直接又は間接的に通信が可能である。
なお、出入り口の近くの壁面には、不図示の照明器具の点灯や消灯に用いられるスイッチ700が取り付けられている。
このため、スマートフォン200の液晶ディスプレイ223には、片開き扉の像600Aとスイッチの像700Aが表示されている。
図18の場合、ユーザの右手302は、液晶ディスプレイ223とユーザとの間の空間に位置し、液晶ディスプレイ223の表示面には非接触である。
勿論、ユーザの右手302は、片開き扉600とは非接触である。
図18に示す片開き扉600は、押すことで奥方向に開き、手前に引くと閉まる。
図19は、ユーザが右手302を空中に押し出す動きをスマートフォン200で撮像することで片開き扉600が少し開いた状態を説明する図である。
図19では、右手302の動き方向を矢印で表している。この右手302の動きは、スマートフォン200において、片開き扉600を開ける操作として検知される。スマートフォン200は、検知された操作の実行を指示する信号を開閉用の機構610に送信している。
この際、スマートフォン200は、画像上で検知された右手302の動きの速度を開閉用の機構610に送信してもよい。この場合、開閉用の機構610は、与えられた速度に応じて片開き扉600を開く速度に反映させることが可能になる。すなわち、片開き扉600を実際に操作する場合と近い感覚で片開き扉600を開くことが可能になる。
図20は、ユーザが右手302を空中に押し出す動きをスマートフォン200で撮像することで片開き扉600が大きく開いた状態を説明する図である。
図20では、右手302の動きが継続しており、開閉用の機構610による駆動も継続している。
なお、片開き扉600を開く動作が検知された後は、右手302の動きが止まっても、片開き扉600の駆動が継続されるように制御してもよい。スマートフォン200による撮像中に右手302が移動できる範囲は、駆動の対象である片開き扉600が動く範囲に対して狭いためである。この制御は、スマートフォン200の機能として実現してもよいし、開閉用の機構610の機能として実現してもよい。
なお、右手302を手前に引く動きが検知された場合、スマートフォン200は、片開き扉600を閉じる操作として検知する。
図21は、片開き扉600にレバー式の取っ手(レバーハンドル)620が取り付けられている場合を説明する図である。
この片開き扉600を開くには、レバー式の取っ手620を握って回転し、その後、押し出すような動きが必要になる。
図21では、片開き扉の像600Aと取っ手の像620Aの上に重ねて右手の像302Bが表示されている。
図21に示すスマートフォン200は、この2段階の動きが順番に検知された場合に、片開き扉600を開く操作として検知する。検知後の動作は、図19及び図20を用いた説明と同じである。
なお、図18〜図21では、片開き扉600を例示したが、扉の面が弧を描いて開閉する開き戸に限らず、溝やレールに案内されて直線的に開閉する引き戸、開き戸と引き戸を組み合わせたグライドスライドドア、折れ戸、回転扉などでもよい。
また、扉は、片開きに限らず両開きでもよい。
<操作例11>
ここでは、誤った操作や想定外の操作の受け付けをユーザに警告する機能について説明する。
図22は、許容される最大の角度まで片開き扉600が開いた後も押し続ける身振りが検知される場合をユーザに報知する機能の一例を説明する図である。
図22には、図19との対応部分に対応する符号を付して示している。
図22の場合、液晶ディスプレイ223の下部には、「これ以上は開きません!」なる警告文を含む小さい画面290が表示されている。
なお、報知は、音声によって行われてもよい。また、報知は、文字と音に限らず、操作の対象として認識されている物体の像を変更する等してもよい。
また、ここでは可動範囲の上限を知らせているが、そもそも可動しない方向への操作の検知を報知してもよい。また、正しい操作の仕方を報知してもよい。
ただし、正しい操作については、常に報知する必要はない。
例えば操作の対象が金庫の場合である。金庫は、特定の人以外の解錠が許されないためである。なお、操作の指示を発信しているスマートフォン200のユーザアカウント等から認証できた操作者(権限を有する者、所有者等)には、正しい操作の仕方を報知してもよい。
<操作例12>
図23は、照明器具800を撮像の対象とする場合を説明する図である。
図23に示す照明器具800は、不図示の配線を通じて位置保持型のスイッチ700に電気的に接続されている。スイッチ700がオン操作されると照明器具800は点灯し、スイッチ700がオフ操作されると照明器具800は消灯する。
図23の場合、照明器具800には、消灯している状態で右手302が空中に押し出される動作を点灯の操作として受け付け、点灯している状態で右手302が空中に押し出される動作を消灯の操作として受け付ける機能が設定されている。
従って、スマートフォン200の液晶ディスプレイ223に表示されている照明器具の像800Aの上に右手の像302Bを重ね、右手302を空中に押し出す動きをすると、その動きを検知したスマートフォン200から照明器具800に対して状態を切り替える信号が出力される。
具体的には、照明器具800が点灯状態であれば消灯を指示する信号が出力され、照明器具800が消灯状態であれば点灯を指示する信号が出力される。
なお、照明器具800の状態の切り替えは2段階に限らない。例えば点灯の状態でも明るさが異なる数段階の状態をユーザの動きを通じて切り替えてもよい。また、照明器具800が照明光の色を切り替えられる場合には、ユーザの動きを通じて色を切り替えてもよい。
また、前述の説明では、右手302を空中に押し出す動きを操作として検知しているが、指1本を点灯、指2本を消灯として検知してもよいし、指を立てたら点灯、指を横にすると消灯として検知してもよい。すなわち、液晶ディスプレイ223と同じ面に設けられたカメラ225Bで撮像される指の本数や指の向きに特定の操作を関連づけてもよい。
いずれにしても、照明器具800に直接触れることなく、照明器具800の動作の状態を操作することができる。
図24は、照明器具800の点灯を制御するスイッチ700を撮像の対象とする場合を説明する図である。
図24には、図23との対応部分に対応する符号が付されている。
前述したように、照明器具800は、スイッチ700のオン操作によって点灯し、スイッチ700のオフ操作によって消灯する。
なお、図24の場合には、人差し指の先端だけを像302Aとして選択的に表示し、その他の部位は表示していない点で図23と相違する。このように操作に関係する部位だけを表示することで、ユーザによる操作の対象の確認が容易になる。
スイッチ700にスマートフォン200と通信する機能が備えられている場合、スイッチの像700Aに人差し指の像302Aを重ねた状態で、右手302を空中に押し出す動きの操作があると、スイッチ700のオンとオフを切り替える信号をスマートフォン200が出力する。
なお、スイッチ700がスマートフォン200と通信する機能を有していない場合もある。この場合でも、スイッチ700と照明器具800との関係がスマートフォン200に与えられていれば、スイッチの像700Aに人差し指の像302Aを重ねた状態での右手302を空中に押し出す動きを照明器具800に対する操作として受け付けることができる。
なお、制御の対象は、他に空調機、オーディオ機器、家電製品等でもよい。
<操作例13>
前述の操作例では、現実の空間に存在する物体をスマートフォン200で撮像しているが、撮像の対象は実在する物体の像であってもよい。
図25は、表示装置900に表示されている電卓の像400Aを撮像の対象とする場合を説明する図である。
図25には、図15との対応部分に対応する符号を付して示している。
表示装置900は、例えばテレビジョン受像機やモニタである。ここでの電卓の像400Aは、実在する電卓400を撮像した画像データを再生した像である。
ここで、スマートフォン200の液晶ディスプレイ223には、表示装置900を撮像した電卓の像400Bと人差し指の像302Aとが表示されている。勿論、右手302は、表示装置900に触れていない。
この操作例では、スマートフォン200による撮像の対象が、操作の対象である実在の電卓400と異なる以外は、図15を用いて説明した操作例8と同様である。
この場合でも、無線LAN等によってスマートフォン200と接続中の機器の一覧の中から操作の対象とする電卓400を事前に特定しておけば、操作例8と同様に電卓400の操作が可能である。
なお、電卓の像400Aと実在する電卓400との関係が不明でも、スマートフォン200は、画像を認識する技術を通じて撮像の対象が電卓であることを検知できる。この場合、スマートフォン200が通信可能な実在する電卓400を指定して、ユーザの動きに対応する操作の実行を指示してもよい。
ただし、スマートフォン200で検知された操作が通信可能な電卓400に用意されていない場合には、身振りの撮像によって電卓400を操作することはできない。
<操作例14>
前述の操作例では、操作の対象である物体又はその像をカメラ225A(図4参照)で撮像しながら、ユーザの体の一部をカメラ225Bで撮像する場合を想定しているが、撮像の対象は、操作の対象である物体の像でも構わない。
図26は、スマートフォン200で撮像されるユーザの動きを液晶ディスプレイ223に表示されている操作子の操作に紐付ける例を説明する図である。
図26には、図7との対応部分に対応する符号を付して示している。
図26の場合、液晶ディスプレイ223には、実在する画像形成装置100のユーザインタフェース部110の一部分を撮像した像270(言語切替用のボタン271と画面輝度調整用のボタン272)が表示されているが、カメラ225Aの前方には画像形成装置100は存在していない。
ただし、操作の対象である画像形成装置100は、インターネットやLAN等のネットワーク1000を介してスマートフォン200と通信可能に接続されている。
図26では、液晶ディスプレイ223と並んで設けられたカメラ225Bによって撮像されたユーザの体の一部の像(例えば右手302の人差し指の像302A)が表示画面上に合成されて表示されている。
具体的には、ユーザインタフェース部110の一部分を撮像した像270のうち画面輝度調整用のボタン272の位置には、人差し指の位置を示す人差し指の像302Aが合成されている。
スマートフォン200は、この合成像を画像処理の対象とし、人差し指の動きを操作として受け付けると、対応する画像形成装置100に対して操作の実行を指示する信号を送信する。
<実施の形態2>
前述の実施の形態1の場合には、スマートフォン200(図1参照)を用いてユーザの身振りを撮像し、実在する画像形成装置100(図1参照)の操作に用いているが、ユーザの身振りの撮像はスマートフォン200に限らない。
図27は、実施の形態2に係るシステムの一例を説明する図である。
図27には、図1との対応部分に対応する符号を付して示している。
図27の場合、ユーザは、メガネ型の端末1010を装着している。
メガネ型の端末1010は、装着した際にユーザの目の部分に透明度が高い光学素子が配置される構成を有している。
このため、メガネ型の端末1010を装着したユーザは、透明度の高い光学素子を透して現実の空間にある画像形成装置100を直接視認することが可能である。
図28は、実施の形態2で使用するメガネ型の端末1010の構造例を説明する図である。
メガネ型の端末1010は、既に複数のメーカによって実用化されている。この種のメガネ型の端末1010は、透過型デバイス、網膜投射型デバイス等とも呼ばれる。
図28に示すメガネ型の端末1010は、透明度が高い導光板1011と、可視光透過型回折格子1012A、1012Bと、操作対象とする部位の像が表示される小型の表示部1013と、ユーザの前方を撮像するカメラ1014とを有している。
導光板1011は、例えば85%以上の透明度を有している。このため、ユーザは、導光板1011を透かして前方の景色を直接視認することができる。導光板1011は、透明な部材の一例である。
図28では、画像形成装置100で反射された外光L1が、導光板1011及び可視光透過型回折格子1012Bを透過するように直進して眼球310に導かれている。なお、可視光透過型回折格子1012Bは、平板形状を有し、眼球310の前方に配置されている。
ここでの可視光透過型回折格子1012Bは、導光板1011の内部を反射しながら伝搬する光L2を眼球310の方向に屈折させる機能も果たす。
光L2は、表示部1013から導光板1011に投影された後、可視光透過型回折格子1012Aによって屈折された後の光線である。
なお、可視光透過型回折格子1012A及び1012Bには、例えばホログラフィック回折格子が用いられる。可視光透過型回折格子1012Bは、いわゆるハーフミラーとして機能する。従って、眼球310には、虚像としてのユーザインタフェース部の像110A(図27参照)が実在する風景に重なって見える。換言すると、ユーザ300には、拡張現実又は複合現実が視認される。
図29は、実施の形態2で使用するメガネ型の端末1010のハードウェア構成の一例を示す図である。
メガネ型の端末1010は、プログラム(ファームウェアを含む)の実行を通じて装置全体を制御するCPU1021と、BIOSやファームウェア等のプログラムを記憶するROM1022と、プログラムの実行領域として使用されるRAM1023と、を有している。
CPU1021、ROM1022、RAM1023は、コンピュータ1020として機能する。
コンピュータ1020には、外界を撮像するカメラ1014と、カメラ1014で撮像された画像等を表示する表示部1013と、各種の物理量を検知するセンサ1024と、外部との通信に用いられる通信インタフェース(通信IF)1025とが接続されている。
センサ1024には、例えば本体の傾きを検知するジャイロセンサ、対象物までの距離を測定する距離センサ、メガネ型の端末1010の位置を検知するGPS(Global Positioning System)センサ、視線検知センサ等が含まれる。
ここでのメガネ型の端末1010は、ユーザの頭部に装着して使用するため、ユーザと接して使用される情報処理装置の一例である。
メガネ型の端末1010は、両手を使った操作の入力に用いることができる。このため、メガネ型の端末1010は、スマートフォン200を用いる場合よりも、入力可能な操作の範囲を広げることが可能になる。
メガネ型の端末1010を装着したユーザは、自身の前方(例えば2.5m先)の空中に、ユーザインタフェース部の像110Aが浮かんでいるように知覚する。
このため、本実施の形態の場合も、奥側から順番に、操作の対象である画像形成装置100、ユーザインタフェース部の像110A(仮想の表示面)、右手302の関係になる。
<実施の形態3>
前述した実施の形態で操作の対象とする機器(例えば画像処理装置、電卓、レバー、扉、照明)は、物理的な操作と身振りによる操作を区別しない点で共通している。
実施の形態3では、操作の受け付けを身振りによる操作に限定できる機器について説明する。
図30は、金庫1100を操作の対象として撮像する場合を説明する図である。
図30に示す金庫1100には、前面に配置されたシリンダ1101又は押しボタン1102が物理的に正しく操作されることを条件に解錠を有効にする機能の他に、これらの物理的な操作を無効化する機能も有している。
物理的な操作が無効化されている場合、解錠が有効化されるのは、スマートフォン200から押しボタン1102の操作に対応する信号が受信された場合である。
この実施の形態でも、液晶ディスプレイ223には金庫の像1100Aと人差し指の像302Aが表示されている。勿論、人差し指の像302Aは、右手302の人差し指に対応している。右手302は、金庫1100と液晶ディスプレイ223の両方に触れておらず、空中で動かされる。
図31は、金庫1100のハードウェア構成の一例を説明する図である。
金庫1100は、シリンダ1101と、操作面に英数文字が印字された複数の押しボタン1102と、MPU1111と、ファームウェア等のデータが記憶されるROM1112と、プログラムの作業領域として使用されるRAM1113と、スマートフォン200(図30参照)等の外部機器との通信に用いられる通信部1114と、電気的にシリンダ1101を解錠又は施錠する解錠制御部1115とを有している。これらの各部は、例えばバス1116により互いに接続されている。
図32は、MPU1111で実行される処理動作の一例を説明するフローチャートである。図32では、ステップを記号のSで示す。
まず、MPU1111は、物理的な操作は無効化されているか否かを判定する(ステップ201)。
ステップ201で肯定結果が得られた場合、MPU1111は、スマートフォン200からの操作だけを受け付ける設定を有効化する(ステップ202)。
一方、ステップ201で否定結果が得られた場合、MPU1111は、物理的な操作を受け付ける設定を有効化する(ステップ203)。物理的な操作を受け付ける設定が有効である場合、スマートフォン200からの操作も有効である。
これらの設定の後、MPU1111は、操作の内容が解錠の条件に合致するか否かを判定する(ステップ204)。
ステップ204で肯定結果が得られた場合、MPU1111は、シリンダ1101を解錠する(ステップ205)。
一方、ステップ204で否定結果が得られた場合、MPU1111は、操作を無効化する(ステップ206)。
例えば物理的な操作が無効化されている場合には、正しい鍵がシリンダ1101(図31参照)に挿入されても、押しボタン1102(図31参照)が正しい順番で操作されても施錠状態が維持される。一方で、押しボタン1102を正しい順番で操作する指示がスマートフォン200から与えられた場合には、解錠が許可される。
本実施の形態に係る金庫1100では、物理的な操作が正しくても解錠できない設定を有効にすることにより、防犯性を高めることが可能になる。また、スマートフォン200を用いた個人認証の機能を組み合わせることで、金庫1100を解錠できるユーザが特定の個人(スマートフォン200を操作できるユーザ)に限定される。
<実施の形態4>
ここでは、ウェブカメラ等で撮像された被写体があたかも目の前にあるかのように身振りで操作する方法について説明する。
この実施の形態は、操作の対象がユーザの前方に実在しない点を除き、操作例10(図18〜図22)と同様である。
図33は、実施の形態4に係るシステムの一例を説明する図である。
図33に示すシステムでは、ウェブカメラ1200から出力される画像データがネットワーク1300経由でスマートフォン200に送信され、液晶ディスプレイ223に表示されている。
図33に示す液晶ディスプレイ223には、片開き扉600を撮像した像600Aが表示されている。
図33の場合、ユーザの右手302に対応する像は液晶ディスプレイ223に表示されていない。
図34は、前述した実施の形態で説明したように、スマートフォン200でユーザの体の一部(ここでは右手302)の動きを片開き扉600の操作として受け付ける場合を示す図である。
図34には、図33との対応部分に対応する符号が付されている。
図34では、片開き扉の像600Aにスマートフォン200のカメラ225Bで撮像された右手の像302Bが重なっている。
この状態で、右手302を空気中で押し出すように動かすと、ネットワーク1300経由で接続された開閉用の機構610に片開き扉600の開操作を指示する信号が出力される。
図35は、ネットワーク1300を介して複数のユーザが操作の情報を共有する仕組みを説明する図である。図35には、図34との対応部分に対応する符号を付している。
図35では、ウェブカメラ1200から出力される画像データをサーバ1400が取得し、その後、3台のスマートフォン200に配信する場合を表している。なお、サーバ1400の機能がウェブカメラ1200に内蔵されていてもよい。
図35の場合、いずれのスマートフォン200にも片開き扉の像600Aが表示されている。
図36は、3台のスマートフォン200のうちの1台を使用して片開き扉600を押し開く場合を説明する図である。図36には、図35との対応部分に対応する符号を付して示している。
図36の場合、3台のうちの1台のスマートフォン200を通じて受け付けられた操作は、サーバ1400を通じて片開き扉600の開閉用の機構610に送信される。なお、片開き扉600に対する操作が一度に複数発生した場合、本実施の形態におけるサーバ1400は、先に到達した操作を優先する。なお、矛盾する操作が一度に到達した場合には実行を保留してもよい。「一度に」とは、予め定めた区間内に到達する意味である。
図37は、片開き扉600が開かれた状態が3台のスマートフォン200で共有される様子を説明する図である。図37には、図36との対応部分に対応する符号を付して示している。
この仕組みを用いれば、1つの機器を複数人が各自の身振りによって操作することが可能になる。
<実施の形態5>
前述の実施の形態では、スマートフォン200に表示されている操作の対象が機器である場合について説明したが、ここでは操作の対象に通信の機能が設けられていない場合について説明する。
図38は、植木1500の移動を身振りで指示する場合を説明する図である。図38では、スマートフォン200の画面に、ユーザの右手の像302Bと植木の像1500Aが表示されている。この場合も、実空間にある右手302は、植木1500と液晶ディスプレイ223の両方に触れていない。
植木1500には、通信機能も自走装置も取り付けられていない。このため、前述した実施の形態のように、スマートフォン200のカメラ225Bで右手302の動きを撮像しても、その動きによって植木1500を移動させることはできない。
本実施の形態では、身振りによる操作の送信先として自走機能を有するヒト型のロボット1600を指定する。なお、指示の送信先としてのロボット1600は、例えばスマートフォン200との通信が可能な機器の一覧の中から指定すればよい。
図38に示すロボット1600は、その外観にヒト型を採用しているが、必要な機能が搭載されていれば外観は任意である。例えば犬やネコなどの動物、花や木などの植物、車(電車を含む)や飛行機等の乗り物を模したものでもよい。
図38に示すロボット1600は、胴部1611、頭部1612、腕1613、1615、手1614、1616、足1617、1618を有している。
胴部1611には、信号処理のための電子部品が格納されている。胴部1611には、表示デバイスや音響機器が搭載されてもよい。
頭部1612は、首の部分に設けられたジョイント機構を介して胴部1611に連結されている。本実施の形態の場合、ジョイント機構は、3軸まわりに回転可能である。3軸まわりの回転とは、ヨー(z軸まわりの回転)、ロール(x軸まわりの回転)、ピッチ(y軸まわりの回転)の3つである。ここでのジョイント機構は可動部の一例である。
3軸の全てに対して回転可能である必要はなく、1軸のみ又は2軸について回転可能でもよい。これらの回転は、不図示のモーターによって実現してもよいが、手動で行ってもよい。もっとも、頭部1612が胴部1611に対して固定される場合を妨げない。
頭部1612には目1612A、1612Bが設けられている。目1612A及び1612Bは、装飾的に配置されていてもよいし、撮像装置、投影機、照明等を内蔵してもよい。頭部1612には可動式の耳が配置されていてもよい。
本実施の形態における腕1613及び1615は、胴部1611とジョイント機構を介して連結されている。腕1613及び1615の上腕と前腕は、ジョイント機構を介して連結されている。ここでのジョイント機構は、頭部1612と同様に多軸でも単軸でもよい。また、軸周りの回転は不図示のモーターにより実現してもよいし、手動で実現してもよい。もっとも、腕1613及び1615は、胴部1611に固定されていてもよい。ここでのジョイント機構も可動部の一例である。
なお、腕1613及び1615を予め定めた角度に折り曲げれば、物の運搬に用いることができる。
手1614及び1616は、手首の部分に設けられたジョイント機構を介して腕1613及び1615に連結されている。手1614及び1616の手の平と指は、いずれもジョイント機構を介して連結されている。ここでのジョイント機構は、頭部1612と同様に多軸でも単軸でもよい。また、軸周りの回転は不図示のモーターにより実現してもよいし、手動で実現してもよい。本実施の形態の場合、手1614及び1616は、指の開閉により物を掴むことができる。ここでのジョイント機構も可動部の一例である。
手1614及び1616は、腕1613及び1615に対して固定でもよい。
足1617及び1618は、ジョイント機構を介して胴部1611に連結されてもよいし、車輪やキャタピラー等の自走装置として胴部1611に取り付けられてもよい。
足1617及び1618がジョイント機構を介して胴部1611に連結される場合、ジョイント機構は、頭部1612と同じく多軸でも単軸でもよい。
また、軸周りの回転は不図示のモーターにより実現してもよいし、手動で実現してもよい。なお、足1617及び1618は、胴部1611に対して固定でもよい。ここでのジョイント機構も可動部の一例である。
図39は、ロボット1600のハードウェア構成を説明する図である。
ロボット1600は、装置全体の動きを制御する制御部1621と、ロボット周辺の画像を撮像するカメラ1622と、会話用の音声、楽曲、効果音を再生するスピーカ1623と、音の入力又は取得に用いられるマイク1624と、ジョイント機構などの可動機構1625と、外部装置(例えばスマートフォン)との通信に用いられる通信部1626と、画像を表示する表示部1627と、装置全体を移動させる移動機構1628と、各部に電力を供給する電源1629と、各部の状態や周辺情報の収集に使用されるセンサ1630と、位置情報の取得に用いられる位置検知部1631とを有している。これらの各部は、例えばバス1632により互いに接続されている。
言うまでもなく、図39に示すハードウェア構成は一例である。従って、ロボット1600は、前述した全ての機能部を搭載する必要はない。
また、ロボット1600は、不図示の機能部を更に搭載してもよい。例えばロボット1600は、電源ボタン、記憶装置(ハードディスク装置、半導体メモリ等)、熱源(冷却源を含む。)等を搭載してもよい。
制御部1621は、いわゆるコンピュータであり、CPU、ROM、RAMを有している。ROMには、CPUにより実行されるプログラムが記憶されている。CPUは、ROMに記憶されているプログラムを読み出し、RAMを作業エリアに使用してプログラムを実行する。プログラムの実行を通じ、CPUはロボット1600を構成する各部の動作を制御する。
ここでのプログラムには、人工知能に対応するアルゴリズムの実現に関連するプログラムが含まれる。制御部1621を構成するCPUやRAMは、人工知能が使用する計算資源を提供する。
本実施の形態における制御部1621は、例えばカメラ1622、マイク1624、センサ1630を通じて取得される情報を人工知能で処理し、ロボット1600の周辺環境や状態に応じた動作を自律的に決定する。
例えばスピーカ1623を通じて音声を出力したり、通信部1626を通じてメッセージを送信したり、表示部1627を通じて画像を出力してもよい。
これら情報の入出力や可動機構1625の動きを通じ、制御部1621は、ユーザとの間でコミュニケーションを成立させることができる。コミュニケーションの応用例には、例えば接客や会議の進行なども含まれる。
制御部1621は、不明な事態が発生した場合に、インターネット検索や外部のコンピュータとの通信を通じて追加の情報を収集し、検索事象との類似度によって解決策を発見する機能も搭載する。
本実施の形態の場合、制御部1621が取得する情報には、例えば視覚、聴覚、触覚、味覚、嗅覚、平衡感覚、温度が含まれる。
視覚は、カメラ1622で撮像された画像の認識処理を通じて実現される。
聴覚は、マイク1624で取得された音の認識処理を通じて実現される。
触覚には、例えば表在感覚(触覚、痛覚、温度覚)、深部覚(圧覚、位置覚、振動覚など)、皮質性感覚(二点識別覚、立体識別能力など)が含まれる。
制御部1621は、触覚の違いを分別できる。
触覚、味覚、嗅覚、平衡感覚、温度は、各種のセンサ1630による情報の検知を通じて実現される。なお、温度には、周辺温度、内部温度、ヒトや動物の体温なども含まれる。
更に、制御部1621が取得する情報には、ヒトや動物の脳波も含み得る。この場合、脳波は、ヒト等に装着された脳波検知デバイスから発信される情報を通信部1626で受信すればよい。
本実施の形態の場合、カメラ1622は、目1612A及び1612B(図38参照)の位置に配置される。
表示部1627として投影機が用いられる場合、投影機は、例えば目1612A及び1612B(図38参照)のいずれか一方又は両方に配置することができる。なお、投影機は胴部1611や頭部1612に配置してもよい。
可動機構1625は、物の搬送の他、感情を表現する目的でも使用される。
物の搬送に使用される場合、可動機構1625は、腕1613、1615や手1614、1616(図38参照)の変形を通じて、例えば物を掴む、抱える、支える等の動作を実現する。
感情の表現に使用される場合、可動機構1625は、例えば頭部1612、腕1613、1615、手1614、1616等(図38参照)の駆動を通じて、頭を傾げる、見上げる、周囲を見回す(キョロキョロする)、万歳する、指さし等の動作を実行する。
本実施の形態における通信部1626は、無線方式によって外部と通信する。
ロボット1600には、通信先として想定する外部装置で用いられる通信方式の数だけ通信部1626が搭載される。通信方式には、例えば赤外線通信、可視光通信、近接無線通信、WiFi(登録商標)、ブルートゥース(登録商標)、RFID(登録商標)、ZigBee(登録商標)、IEEE802.11a(登録商標)、MulteFire、LPWA(Low Power Wide Area)等がある。
無線通信に使用する帯域には、短波長帯(例えば800MHz〜920MHz)、長波長帯(例えば2.4GHz、5GHz)等がある。
なお、通信部1626と外部装置との接続には通信ケーブルを使用してもよい。
表示部1627は、ユーザとの間で視覚的なコミュニケーションを実現するために使用してもよい。例えば表示部1627には、文字や図形を表示してもよい。
表示部1627が頭部1612に配置される場合、表示部1627に表情を表示してもよい。
本実施の形態の場合、移動機構1628には車輪やキャタピラーを用いるが、プロペラや圧縮空気の吹き出し機構を用い、空気の力でロボット1600を移動させてもよい。
本実施の形態における電源1629には二次電池を使用するが、電力を発生できれば一次電池、燃料電池、太陽電池のいずれを用いてもよい。
また、電源1629の代わりに、電源ケーブルを通じて外部から電力の供給を受ける構成を採用してもよい。
本実施の形態の場合、ロボット1600には、位置検知部1631が搭載されている。
位置検知部1631には、例えばGPS(Global Positioning System)信号から地点情報を読み取る方式、GPSと同等の信号を用いて屋内の位置を測位するIMES(Indoor Messaging System)方式、WiFiの複数のアクセスポイントから送信された電波の強度や到達時間等から位置を測位するWiFi測位方式、基地局から定期的に発生される信号に対する応答の方角と遅延時間から位置を測位する基地局測位方式、不可聴域の超音波を受信して位置を測位する音波測位方式、ブルートゥースを使ったビーコンからの電波を受信して位置を測位するブルートゥース測位方式、LED(Light Emitting Diode)等の照明光の点滅によって伝達される位置情報を用いて位置を測位する可視光測位方式、加速度センサやジャイロセンサ等を用いて現在位置を測位する自律航法方式等を利用する。
図40は、ロボット1600を使用した植木1500の移動を説明する図である。
図40には、図38との対応部分に対応する符号を付して示している。
他の実施の形態と同様に、ユーザは、スマートフォン200の前方の空間で右手302を動かし、その動きを撮像する。
右手302の動きを操作として受け付けたスマートフォン200は、その操作の実行を植木1500への移動が可能なロボット1600に指示する。ここでの操作は、植木1500の横方向への移動である。
移動の指示を受信したロボット1600は、移動の対象である植木1500の場所まで移動すると、植木1500を掴んで横方向に移動させる。
このとき、スマートフォン200には、植木の像1500Aを掴んで移動するロボットの像1600Aと右手の像302Bとが表示される。図40の場合、ロボットの像1600Aの確認が容易になるように、右手の像302Bを透過像として表示している。
図40の場合には、ユーザの目の前に植木1500もロボット1600も実在するので右手の像302Bを透過的に表示する必要性は低いが、スマートフォン200に表示されている植木の像1500Aがユーザの目の前にない場合(例えばスマートフォン200にはウェブカメラの画像が表示されている場合)には、右手の像302Bが透過的に表示されることで実空間の様子の確認が容易になる。
<実施の形態6>
前述の実施の形態では、スマートフォン200が操作の対象である物体の正面側に位置する場合を、操作の対象とする物体に対向する位置の例として説明したが、対向する位置は正面に限らない。
図41は、画像形成装置100に対向する位置の他の例を説明する図である。
図41には、画像形成装置100から見て右斜め前方の位置P1、右斜め後方の位置P2、後ろの位置P3、左斜め後方の位置P4、左斜め前方の位置P5にスマートフォン200が位置する例を示している。これらのいずれも、画像形成装置100に対向する位置の一例である。
ユーザが画像形成装置100を撮像する方向が異なれば、カメラ225Aによって撮像される部位や操作子も異なる内容になる。このため、カメラ225Bによって撮像されるユーザの動きが同じでも、画像形成装置100に対する操作の内容は異なる。
<実施の形態7>
前述の実施の形態では、画像形成装置100(図1参照)のユーザインタフェース部110(図1参照)に表示されたボタン類を身振りで操作する場合について説明したが、用紙の収容部140(図1参照)を身振りによって開閉してもよい。
図42は、身振りによって用紙の収容部140を開閉する例を説明する図である。操作の対象が用紙の収容部140であるので、スマートフォン200の液晶ディスプレイ223には、用紙の収容部の像140Aとユーザの右手の像302Bとが重なるように表示されている。図42では、矢印で示すように、右手302が手前方向(ユーザ自身に近づく方向又は液晶ディスプレイ223から離れる方向)に引かれている。
この例の場合には、ユーザインタフェース部110に表示されるボタンを操作しなくても、右手の像302Bとの重なりが検出された用紙の収容部140が手前側に引き出されることになる。
勿論、前提として、用紙の収容部140を駆動する不図示のモーターが画像形成装置100に内蔵されている必要がある。なお、右手302を奥方向に動かせば、用紙の収容部140を閉じることもできる。
<実施の形態8>
前述の実施の形態では、ユーザインタフェース部110(図1参照)を直接操作する場合と同様の操作を身振りによって実現する場合について説明したが、操作の対象である特定の部位が身振りによって指定された場合には、ユーザインタフェース部110に表示される内容が指定された部位に関連のあるボタン類を含む表示に切り替わってもよい。
図43は、印刷された用紙に対して穴を開ける処理や綴る処理を加えるための機構(後処理装置150)が取り付けられている場合の操作例を説明する図である。なお、後処理装置150には仕分け機構が含まれてもよい。
図43では、後処理装置の像150Aの上に人差し指の像302Aが重なっている。
本実施の形態の場合、後処理装置の像150Aには、人差し指の像302Aによる選択の操作と後処理装置150に関連する設定の頁を開く機能が割り当てられている。
図44は、後処理装置の像150A(図43参照)を人差し指の像302Aで選択した場合に実行される表示部111に生じる画面の変化を説明する図である。(A)は人差し指の像302Aによる身振りを受け付ける前の表示を示し、(B)は人差し指の像302Aによる身振りを受け付けた後の表示を示し、(C)は身振りによる操作を受け付けるスマートフォン200の画面例を示す。
図44の場合、スマートフォン200でユーザインタフェース部110(図43参照)の表示部111を撮像すると、身振りによって操作しなくても、綴じ処理を実行するか否かを指定するためのボタン110Bを含む画面に切り替わっている。このように、特定の部位に特定の操作と特定の機能が割り当てられている場合には、少ない操作で指示を完了できる。すなわち、操作を効率化できる。
勿論、特定の身振りと特定の機能を割り当てる部位は後処理装置150に限らない。例えば画像形成装置100(図1参照)の背面でもよい。背面に配置された接続用の端子や通信線が撮像された状態で身振りによる選択が受け付けられた場合には、接続用の端子の調整や設定に用いられるメニュー画面を表示部111に表示させてもよい。
<実施の形態9>
前述の実施の形態においては、図2に示したように、操作の指示に用いられる右手302が表示面(例えば液晶ディスプレイ223)とユーザ300の間の空中を動く場合について説明したが、右手302は、操作の対象である物体とスマートフォン200との間の空中を動かされてもよい。
以下では、図45及び図46を用い、実施の形態9に係るシステム全体の構成と、ユーザと機器との位置の関係を説明する。
図45は、実施の形態9に係るシステムの一例を説明する図である。
図46は、右手302とスマートフォン200の位置の関係を説明する図である。
図45と図1を比較し、図46と図2を比較すれば分かるように、違いは、ユーザ300の右手302の位置である。
本実施の形態の場合、カメラ225Aによって、操作の対象である物体(画像形成装置100)とユーザの右手302とを一度に撮像することができる。このため、本実施の形態による使い方の場合には、液晶ディスプレイ223(図7参照)と同じ面に設けられるカメラ225Bを用いる必要がない。
本実施の形態の場合も、ユーザは、物体に触れずに操作できる。
本実施の形態の場合には、カメラ225Aで撮像される人差し指の像をそのまま、液晶ディスプレイ223に表示することができる。
なお、本実施の形態のように、操作の入力に用いる右手302をスマートフォン200と操作の対象とする画像形成装置100の間で動かす手法は、前述した実施の形態1〜8のいずれにも組み合わせることが可能であり、各実施の形態と同様の操作を実現できる。
<実施の形態10>
本実施の形態では、前述した2種類の操作の手法を組み合わせる場合について説明する。
図47は、2種類の操作の手法の切り替えを説明する図である。(A)は右手302を液晶ディスプレイ223とユーザ300との間の空中で動かす手法を示し、(B)は右手302をスマートフォン200と画像形成装置100との間の空中で動かす手法を示す。
すなわち、(A)の手法は実施の形態1〜8に対応し、(B)の手法は実施の形態9に対応する。
本実施の形態におけるスマートフォン200の基本的なハードウェア構成と機能構成は実施の形態1と同様である。
ただし、本実施の形態の場合、操作受付部254(図5参照)には、ユーザ300による操作の入力がスマートフォン200の液晶ディスプレイ223と同じ側の空間で実行されているか、それとも反対側の空間で実行されているかを検知し、検知の結果に基づいて操作の内容を決定する機能が追加されている。
本実施の形態における操作受付部254は、操作の対象である物体や部位が同じであり、かつ、検出されるユーザ300の身振りが同じ場合でも、身振りが行われる空間が異なれば異なる操作として受け付けるよう設定されている。
もっとも、両者を区別しない設定とすることも可能である。
設定は、ユーザが個別に変更することが可能である。なお、両者を区別するか否かは、物体やその部位に関連付けられた個々の機能毎、操作の実行者であるユーザ毎に設定してもよい。
<操作例1>
図48は、操作がスマートフォン200に対して手前側で行われる場合と奥側で行われる場合とで、操作の対象とする物体の部位が切り替えられる場合を説明する図である。(A)は、ユーザ300の操作が液晶ディスプレイ223とユーザ300との間で行われる場合の関係を示し、(B)は、ユーザ300の操作がスマートフォン200と画像形成装置100との間で行われる場合の関係を示す。
なお、ユーザの動きに対応する操作は、物体と部位の組み合わせに応じて定まる。従って、物体が異なれば、部位が同じでも異なる操作を割り当てることが可能である。
図48の例では、スマートフォン200に対して手前側で行われる操作は画像形成装置100の前面(手前側の面)100Fに対応付けられるのに対し、スマートフォン200に対して奥側で行われる操作は画像形成装置100の背面(奥側の面)100Rに対応付けられている。
この操作例の場合、ユーザは、画像形成装置100の前面側を操作したいか背面側を操作したいかによって、身振りによる操作を行う空間をスマートフォン200の手前側か奥側かを使い分ければよい。
例えばスマートフォン200の手前側でユーザ300が右手302を動かす場合には、画像形成装置100の前面側と背面側の両方に操作子が配置されていても、前面側に配置されている操作子に対する操作としてユーザの操作が受け付けられる。
一方、スマートフォン200の奥側でユーザ300が右手302を動かす場合には、画像形成装置100の前面側と背面側の両方に操作子が配置されていても、背面側に配置されている操作子に対する操作としてユーザの操作が受け付けられる。
なお、ユーザ300の位置から画像形成装置100の背面を見ることはできないが、事前に撮像された又は予め用意された背面側の画像に表示が切り替えられてもよい。もっとも、画像の切り替えは必須ではない。
背面側に配置される機能は、前面側に比べて少なく、その種類も限られることが多い。このため、背面側の画像が表示されない場合でも、操作が可能な機能の一覧を表示して、ユーザ300の操作を対応付ける機能を選べるようにしてもよい。
<操作例2>
図49は、操作がスマートフォン200に対して手前側で行われる場合と奥側で行われる場合とで、動作モードが切り替えられる場合を説明する図である。(A)は、ユーザ300の操作が液晶ディスプレイ223とユーザ300との間で行われる場合の関係を示し、(B)は、ユーザ300の操作がスマートフォン200と画像形成装置100との間で行われる場合の関係を示す。
図49の場合、ユーザ300による操作の位置の違いによらず、操作の対象は共通である。すなわち、操作の位置の違いによらず、操作の対象は、ユーザインタフェース部110である。
ただし、この操作例の場合、操作がスマートフォン200に対して手前側で行われる場合には一般ユーザモードとして操作が実行されるのに対し、操作がスマートフォン200に対して奥側で行われる場合には管理者モードとしての操作が実行される。
なお、管理者モードとしての操作は、ユーザ300が管理者として登録されていることを条件としてもよい。
また、管理者モードでの操作は、ユーザ300が画像形成装置100にログインできた場合に限定してもよい。
<操作例3>
図50は、操作がスマートフォン200に対して手前側で行われる場合と奥側で行われる場合とで操作の有効と無効が設定されている場合を説明する図である。(A)は、ユーザ300の操作が液晶ディスプレイ223とユーザ300との間で行われる場合を示し、(B)は、ユーザ300の操作がスマートフォン200と画像形成装置100との間で行われる場合を示す。
図50の場合、スマートフォン200に対して手前側で行われる操作は有効な操作として受け付けられるのに対し、スマートフォン200に対して奥側で行われる操作は無効な操作として扱われる。
すなわち、操作がスマートフォン200に対して手前側で行われる場合にはユーザインタフェース部110の操作が可能であるのに対し、操作がスマートフォン200に対して奥側で行われる場合にはユーザインタフェース部110の操作が不能である。
この設定は、ユーザ300が変更できることが望ましい。
図51は、液晶ディスプレイ223に表示される設定用の画面223Aの一例を示す図である。
図51に示す画面223Aは、身振りを検知する位置の設定用であり、スマートフォン200の手前側で行われる身振りの検知機能がオン、奥側で行われる身振りの検知機能がオフの例を示している。
図51の設定は、図50に示す操作の例に対応している。
ところで、身振りを検知する位置の設定は、機能毎に定めることも可能である。
図52は、身振りを検知する位置の設定を機能別に設定する画面223Bの一例を示す図である。
例えば機能Aと機能Dに対する操作は、ユーザの操作がスマートフォン200の手前側で行われる場合も奥側で行われる場合も有効である。
例えば機能Bと機能Fに対する操作は、ユーザの操作がスマートフォン200の奥側で行われる場合に限り有効である。
例えば機能Cと機能Eに対する操作は、ユーザの操作がスマートフォン200の手前側で行われる場合に限り有効である。
<実施の形態11>
本実施の形態では、操作画面が空中画像として表示される場合について説明する。
図53は、実施の形態11に係る空中画像形成システム2000の概略構成を説明する図である。空中画像形成システム2000は、情報処理システムの一例である。
本実施の形態において、空中画像2010とは、物体からの反射光と同等の光の状態を再現するように空気中に形成される像をいう。
空中画像2010は、空気中に浮かぶように形成されるので、人は、空中画像2010を通り抜けることも可能である。
本実施の形態の場合、空中画像2010には、ユーザ300が操作の対象とする物体(例えば画像形成装置100のユーザインタフェース部110)の像が表示される。
図53の場合、ユーザインタフェース部110の画像は、カメラ2020によって撮像され、空中画像形成装置2030に与えられている。
本実施の形態の場合、操作の対象の画像(例えば「AAAAA/AAAAA/AAAAA/AAAAA」。ここでの記号/は改行を示す。)が空中画像2010に表示されているが、その他の画像が表示されてもよい。
空中画像2010には、静止画像だけでなく、動画像が表示されることもある。
図53では、矩形形状の外縁を有する空中画像2010の例を示しているが、空中画像2010の外縁を規定する形状は任意である。例えば物体(オブジェクト)の像が形成される空間を、空中画像2010が形成される空間の全てとしてもよい。例えば操作用のボタンの像、人の像、動物の像、製品の像、果物の像なども、ここでの空中画像2010の一例である。
図53では、空中画像2010が平面形状であるが、曲面、球体、立方体などの立体的な形状でもよい。
空中画像2010は、単独で配置される場合もあるが、1つの空間内に複数を配置する場合もある。
図53に示す空中画像形成システム2000は、空気中に空中画像2010を形成する空中画像形成装置2030と、ユーザ300の空中画像2010に対する操作を撮像の対象とするカメラ2040と、撮像されたユーザ300の動きに基づいて空中画像形成装置2030と画像形成装置100の動きを制御する制御装置2050と、を有している。
本実施の形態における空中画像形成装置2030は像形成手段の一例である。
制御装置2050は、ユーザ300が空中画像2010に対して行った動きと動きが検知された位置とを組み合わせて操作の内容を特定する点で前述の実施の形態と共通する。
制御装置2050は、カメラ2040から入力される画像を認識する技術(画像認識)を使用して、操作の内容を特定する。
ここでの制御装置2050は、特定された内容に応じて画像形成装置100を制御する情報処理装置の一例である。
ただし、本実施の形態における制御装置2050は、ユーザ300と接した状態で使用されない点で他の実施の形態と相違するが、実行する操作の内容は他の実施の形態と共通する。
カメラ2040は、例えばユーザ300の手や指先の動きを撮像できる位置に配置される。
図53では、カメラ2040が1台の場合を表しているが、カメラ2040は複数台でもよい。複数台のカメラ2040は、取り付け位置や撮像の方向が異なっていてもよい。取り付け位置や撮像の方向が異なることで、死角が少なくなり、ユーザ300の操作の検知や特定の制度を高めることが可能である。
図53では、カメラ2040を用いているが、他の種類のセンサを使用してもよい。例えば空中画像2010と平行に形成される検知面を横切る物体を検知するセンサを用いてもよい。検知面は、例えば赤外線で形成する。
図54は、空中画像2010を形成する携帯型のデバイス2060の一例を示す図である。
図54の場合、ユーザ300は、デバイス2060を左手301で保持している。デバイス2060には、空中画像形成装置2030、カメラ2040、制御装置2050が収容されている。なお、デバイス2060は、携帯型に限らず、筐体ごと移動が可能であってもよい。
図55は、空中画像2010に対して手前の位置で右手302を動かし、物体(例えば画像形成装置100)を操作する例を示す。(A)はユーザ300から見た空中画像2010と右手302の見え方を示し、(B)はユーザ300と空中画像2010と右手302の間の位置の関係を示す。
図56は、空中画像2010に対して奥側の位置で右手302を動かし、物体(例えば画像形成装置100)を操作する例を示す。(A)はユーザ300から見た空中画像2010と右手302の見え方を示し、(B)はユーザ300と空中画像2010と右手302の間の位置の関係を示す。
本実施の形態におけるデバイス2060は、右手302が空中画像2010に対して手前側に位置するか奥側に位置するかを検知し、検知された結果に応じて制御の内容を変更する。
以下では、空中画像形成装置2030の具体例を説明する。
図57は、表示デバイス3001から出力される光を専用の光学プレート3002を透過させることで空中画像2010を形成する空中画像形成装置3000Aの原理図である。(A)は各部材と空中画像2010との位置関係を示し、(B)は光学プレート3002の断面構造の一部を示す。ここでの表示デバイス3001と光学プレート3002は、光学部品の一例である。
光学プレート3002は、壁面を鏡として使用する短冊状のガラス3002Aを配列したプレートと、ガラス3002Aに対して直交する向きに短冊状のガラス3002Bを配列したプレートを上下に重ねた構造を有する。
光学プレート3002は、表示デバイス3001から出力される光を短冊状のガラス3002A及び3002Bで2回反射して空気中で結像させることで、表示デバイス3001に表示されている画像を空気中に再現する。
なお、表示デバイス3001と光学プレート3002の距離と、光学プレート3002と空中画像2010の距離は同じである。また、表示デバイス3001に表示される画像の寸法と空中画像2010の寸法は同じである。
図58は、空中画像2010として3次元像を形成する空中画像形成装置3000Bの原理図である。空中画像形成装置3000Bは、実際の物体3003の表面で反射された光をリング型の光学プレート3002を2回透過させることで3次元像(空中画像2010)を空気中に再現する。なお、光学プレート3002を直列に配置する必要はない。
図59は、2面コーナーリフレクタを構成する微小な四角い穴3004Aを平面内に等間隔に配列した構造のマイクロミラーアレイ3004を用いて空中画像2010を形成する空中画像形成装置3000Cの原理図である。(A)は各部材と空中画像2010との位置関係を示し、(B)はマイクロミラーアレイ3004の一部分を拡大した図である。1つの穴3004Aは、例えば100μm角で形成される。ここでのマイクロミラーアレイ3004は、光学部品の一例である。
図60は、ビームスプリッタ3006と再帰反射シート3007を使用する空中画像形成装置3000Dの原理図である。ここで、ビームスプリッタ3006は、表示デバイス3005の表示面に対して45°の角度で配置されている。
再帰反射シート3007は、ビームスプリッタ3006による表示画像の反射方向に、表示デバイス3005の表示面に対して90°の角度に配置されている。表示デバイス3005、ビームスプリッタ3006、再帰反射シート3007は、光学部品の一例である。
空中画像形成装置3000Dの場合、表示デバイス3005から出力される光は、ビームスプリッタ3006によって再帰反射シート3007の方向に反射され、次に再帰反射シート3007で再帰反射され、ビームスプリッタ3006を透過して空中で結像される。光が結像する位置に空中画像2010が形成される。
図61は、空中画像2010をプラズマ発光体の集合として形成する空中画像形成装置3000Eの原理図である。
空中画像形成装置3000Eの場合、赤外パルスレーザ3008がパルス状のレーザ光を出力し、XYZスキャナ3009がパルス状のレーザ光を空気中で集光する。このとき、焦点近傍3010の気体が瞬間的にプラズマ化し、発光する。パルス周波数は、例えば100Hz以下であり、パルス発光時間は、例えばナノ秒オーダである。ここでの赤外パルスレーザ3008とXYZスキャナ3009は、光学部品の一例である。
<他の実施形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。上述の実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
(1)例えば前述の実施の形態では、現実の空間に存在する物体の操作にスマートフォン200(図1参照)やメガネ型の端末(図27参照)を用いているが、撮像用のカメラと、表示部と、通信部を有していれば、ユーザの身振りを操作として受け付ける情報処理装置は、例えばタブレット端末でも、いわゆるデジタルカメラでも、ゲーム機器などの玩具でも、時計型のウェアラブル端末やカメラ内蔵型のコンタクトレンズでも構わない。カメラ内蔵型のコンタクトレンズは、ウェアラブル端末の一例であり、スマートコンタクトレンズとも呼ばれる。スマートコンタクトレンズは、角膜に接触させて使用するレンズに、例えばカメラ、アンテナ、電子部品(送受信回路、信号処理回路等)を配置した構成を有し、まばたきによる操作が可能である。例えばシャッター、ズーム、絞り、焦点を操作できる。
(2)前述の実施の形態では、スマートフォン200で撮像する自身の体の一部の動きを操作として受け付ける処理をスマートフォン200で実行しているが、スマートフォン200は体の一部の動きを撮像する手段として使用し、その動きを操作として受け付ける処理は外部の装置(例えばサーバ)で実行してもよい。
(3)前述の実施の形態では、使用の場面に応じてユーザの体の一部を装飾する例として手袋を例示しているが、装飾として衣類の類を付加してもよい。また、画面上では爪にマニキュアが塗られていてもよい。また、足を用いて操作を行う場合には、使用の場面に応じた履物を装飾として付加してもよい。例えばビジネスシューズ、スポーツシューズ、サンダル、長靴などでもよい。
(4)前述の実施の形態の場合、図57〜図61で説明した仕組みで空中画像を生成しているが、空中画像を生成する手法はこれに限らない。例えばいわゆるホログラムの手法を用いて空中画像を生成してもよい。
100…画像形成装置、200…スマートフォン、225A、225B、1014、1622、2020、2040…カメラ、229…空中触覚モジュール、300…ユーザ、301…左手、302…右手、310…眼球、400…電卓、500…レバー、600…片開き扉、700…スイッチ、800…照明器具、900…表示装置、1000、1300…ネットワーク、1010…メガネ型の端末、1011…導光板、1012A、1012B…可視光透過型回折格子、1013…表示部、1100…金庫、1200…ウェブカメラ、1400…サーバ、1500…植木、1600…ロボット

Claims (30)

  1. 操作の対象とする物体の像を表示する表示面とは非接触の状態で、当該表示面とユーザとの間で行われるユーザの動きを検知する検知手段と、
    検知されたユーザの動きに対応する操作の実行を前記物体に指示する制御手段と、
    を有する情報処理装置。
  2. 前記物体の像は、撮像された画像に基づいて前記表示面に表示されている、請求項1に記載の情報処理装置。
  3. 前記検知手段は、撮像された画像を処理してユーザの手又は指の動きを検知する、請求項1に記載の情報処理装置。
  4. 前記検知手段は、測定された距離の情報を用いてユーザの手又は指の動きを検知する、請求項1に記載の情報処理装置。
  5. 前記表示面には、ユーザの手又は指の像が、前記物体の像に重ねて表示される、請求項1に記載の情報処理装置。
  6. ユーザの動きに対応する操作は、前記物体の個別の部位毎に用意されている、請求項1に記載の情報処理装置。
  7. 前記制御手段は、ユーザによる前記物体の操作が許可されている場合に、当該物体に対して操作の実行を指示する、請求項1に記載の情報処理装置。
  8. 検知されたユーザの動きに対応する操作が前記物体で実行できない場合、ユーザに報知する、請求項1に記載の情報処理装置。
  9. 前記物体に対する正しい操作の方法を報知する、請求項8に記載の情報処理装置。
  10. 前記制御手段は、前記物体に応じ、検知されたユーザの動きに対応する操作の内容を決定する、請求項1に記載の情報処理装置。
  11. 前記制御手段は、前記物体との通信を通じて操作が可能な当該物体の機能を取得する、請求項1に記載の情報処理装置。
  12. 前記制御手段は、ユーザの体の部位を示唆する表記を前記物体に重ねて表示する、請求項1に記載の情報処理装置。
  13. 前記制御手段は、ユーザの動きを操作として受け付けたことをユーザに報知する、請求項1に記載の情報処理装置。
  14. 前記報知は、ユーザが前記表示面に対して非接触に動かした体の部位に触覚を通じて報知する、請求項13に記載の情報処理装置。
  15. 前記制御手段は、操作として受け付けた体の部位を、受け付け前とは異なる態様で表示する、請求項13に記載の情報処理装置。
  16. 前記制御手段は、前記物体の操作に用いる装備をユーザの体に重ねて表示する、請求項1に記載の情報処理装置。
  17. 前記制御手段は、前記物体が存在する環境に応じた装備をユーザの体に重ねて表示する、請求項1に記載の情報処理装置。
  18. 前記制御手段は、ユーザの動きに対応する操作が前記物体に対する物理的な操作を必要とする場合、可動部を有する別の機器に対して操作の実行を指示する、請求項1に記載の情報処理装置。
  19. 前記表示面に表示されている前記物体の像は、操作の対象とする当該物体の画像を更に撮像した画像である、請求項1に記載の情報処理装置。
  20. 前記表示面は空気中に形成される、請求項1に記載の情報処理装置。
  21. 前記表示面は、拡張現実又は複合現実として表示される、請求項1に記載の情報処理装置。
  22. 操作の対象とする物体とは非接触の状態のまま実行されるユーザの動きを検知する検知手段と、
    ユーザの動きが、前記物体の像を表示する表示面とユーザとの間で検知されたか、当該物体を撮像する当該表示面と当該物体との間で検知されたかに応じて、当該物体に指示する操作の内容を切り替える制御手段と、
    を有する情報処理装置。
  23. 前記表示面とユーザとの間で検知されたユーザの動きと当該表示面と前記物体との間で検知されたユーザの動きとが、当該物体の異なる部位に対応付けられている、請求項22に記載の情報処理装置。
  24. 前記表示面とユーザとの間で検知されたユーザの動きは、前記物体のうちユーザから見て手前側の面に対応付けられており、
    前記表示面と前記物体との間で検知されたユーザの動きは、当該物体のうちユーザから見て奥側の面に対応付けられている、請求項23に記載の情報処理装置。
  25. 前記表示面とユーザとの間で検知されたユーザの動きと当該表示面と前記物体との間で検知されたユーザの動きとが、当該物体の同じ部位に対応付けられている、請求項22に記載の情報処理装置。
  26. 前記制御手段は、前記表示面とユーザとの間で検知されたユーザの動きに限り、又は、当該表示面と前記物体との間で検知されたユーザの動きに限り、有効な動きとして当該物体に指示する、請求項22に記載の情報処理装置。
  27. 前記有効な動きとして扱われる検知の位置は機能毎に設定される、請求項26に記載の情報処理装置。
  28. 前記有効な動きとして扱われる検知の位置はユーザにより指定される、請求項26に記載の情報処理装置。
  29. コンピュータを、
    操作の対象とする物体の像を表示する表示面とは非接触の状態で、当該表示面とユーザとの間で行われるユーザの動きを検知する検知手段と、
    検知されたユーザの動きに対応する操作の実行を前記物体に指示する制御手段、
    として機能させるプログラム。
  30. コンピュータを、
    操作の対象とする物体とは非接触の状態のまま実行されるユーザの動きを検知する検知手段と、
    ユーザの動きが、前記物体の像を表示する表示面とユーザとの間で検知されたか、当該物体を撮像する当該表示面と当該物体との間で検知されたかに応じて、当該物体に指示する操作の内容を切り替える制御手段、
    として機能させるプログラム。
JP2018102770A 2018-05-29 2018-05-29 情報処理装置及びプログラム Active JP7135444B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018102770A JP7135444B2 (ja) 2018-05-29 2018-05-29 情報処理装置及びプログラム
CN201811546913.8A CN110543233A (zh) 2018-05-29 2018-12-18 信息处理设备和非暂时性计算机可读介质
US16/412,646 US11265428B2 (en) 2018-05-29 2019-05-15 Information processing apparatus and non-transitory computer readable medium for operating a target object in a real space through a virtual interface by detecting a motion of a user between a display surface displaying the virtual interface and the user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018102770A JP7135444B2 (ja) 2018-05-29 2018-05-29 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019207573A true JP2019207573A (ja) 2019-12-05
JP7135444B2 JP7135444B2 (ja) 2022-09-13

Family

ID=68693388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018102770A Active JP7135444B2 (ja) 2018-05-29 2018-05-29 情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US11265428B2 (ja)
JP (1) JP7135444B2 (ja)
CN (1) CN110543233A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172692A1 (ja) * 2021-02-12 2022-08-18 ソニーグループ株式会社 画像処理装置、画像処理方法、画像処理システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7119398B2 (ja) * 2018-02-06 2022-08-17 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7155613B2 (ja) * 2018-05-29 2022-10-19 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN113030947B (zh) * 2021-02-26 2023-04-07 北京京东方技术开发有限公司 非接触式控制装置以及电子设备
JP2023046979A (ja) * 2021-09-24 2023-04-05 富士フイルムビジネスイノベーション株式会社 照合装置及びプログラム

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005063225A (ja) * 2003-08-15 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
US20110138285A1 (en) * 2009-12-09 2011-06-09 Industrial Technology Research Institute Portable virtual human-machine interaction device and operation method thereof
JP2012088959A (ja) * 2010-10-20 2012-05-10 Kddi Corp 遠隔操作システム、遠隔操作方法およびプログラム
JP2012108771A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
JP2013008183A (ja) * 2011-06-24 2013-01-10 Brother Ind Ltd 操作支援プログラム
JP2013205983A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP5509391B1 (ja) * 2013-06-07 2014-06-04 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置
JP2014157482A (ja) * 2013-02-15 2014-08-28 Konica Minolta Inc 操作表示システム
JP2014238828A (ja) * 2013-05-10 2014-12-18 国立大学法人電気通信大学 ユーザインタフェース装置およびユーザインタフェース制御プログラム
US20150346701A1 (en) * 2014-05-27 2015-12-03 Leap Motion, Inc. Systems and methods of gestural interaction in a pervasive computing environment
JP2015228097A (ja) * 2014-05-30 2015-12-17 株式会社ニコン 電子機器、電子機器システム及びプログラム
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2016148968A (ja) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016194744A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
WO2016189390A2 (en) * 2015-05-28 2016-12-01 Eyesight Mobile Technologies Ltd. Gesture control system and method for smart home
JP2016207048A (ja) * 2015-04-25 2016-12-08 京セラドキュメントソリューションズ株式会社 拡張現実操作システムおよび拡張現実操作プログラム
JP2017062709A (ja) * 2015-09-25 2017-03-30 新光商事株式会社 ジェスチャー操作装置
JP2017092706A (ja) * 2015-11-10 2017-05-25 コニカミノルタ株式会社 画像形成装置、画像形成システム、及びプログラム
JP2017120556A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 操作用ヘッドマウントディスプレイ、操作用ヘッドマウントディスプレイの制御方法および操作用ヘッドマウントディスプレイのプログラム
US20170262045A1 (en) * 2016-03-13 2017-09-14 Logitech Europe S.A. Transition between virtual and augmented reality
JP2017167611A (ja) * 2016-03-14 2017-09-21 富士ゼロックス株式会社 端末装置、データ処理システム及びプログラム
JP2018082275A (ja) * 2016-11-15 2018-05-24 京セラ株式会社 電子機器、プログラムおよび制御方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9152306B2 (en) * 2011-03-29 2015-10-06 Intel Corporation Techniques for touch and non-touch user interaction input
US20120326966A1 (en) 2011-06-21 2012-12-27 Qualcomm Incorporated Gesture-controlled technique to expand interaction radius in computer vision applications
JP2013172432A (ja) 2012-02-23 2013-09-02 Panasonic Corp 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路
US20130303247A1 (en) * 2012-05-08 2013-11-14 Mediatek Inc. Interaction display system and method thereof
JP5935529B2 (ja) * 2012-06-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US20140258880A1 (en) * 2013-03-07 2014-09-11 Nokia Corporation Method and apparatus for gesture-based interaction with devices and transferring of contents
US9846486B2 (en) * 2013-06-27 2017-12-19 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
KR20150051769A (ko) * 2013-11-05 2015-05-13 엘지전자 주식회사 영상표시장치 및 영상표시장치 동작방법
JP6427942B2 (ja) * 2014-05-01 2018-11-28 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法
JP6528193B2 (ja) * 2015-02-10 2019-06-12 任天堂株式会社 電子機器
US10216273B2 (en) * 2015-02-25 2019-02-26 Bae Systems Plc Apparatus and method for effecting a control action in respect of system functions
DE102015204978A1 (de) * 2015-03-19 2016-09-22 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Ausgabesystems mit einer Anzeigevorrichtung und zumindest einer weiteren Ausgabevorrichtung
JP6304497B2 (ja) * 2015-04-25 2018-04-04 京セラドキュメントソリューションズ株式会社 画像形成システムおよび拡張現実プログラム
JP6507827B2 (ja) * 2015-04-28 2019-05-08 京セラドキュメントソリューションズ株式会社 表示システム
KR102278747B1 (ko) * 2015-11-04 2021-07-19 한국전자기술연구원 차량용 비접촉식 스크린 패드
CN107199888A (zh) * 2016-03-18 2017-09-26 松下知识产权经营株式会社 姿势输入系统和姿势输入方法
JP2017187922A (ja) * 2016-04-05 2017-10-12 カルソニックカンセイ株式会社 車載用情報処理システム
US20180053352A1 (en) * 2016-08-22 2018-02-22 Daqri, Llc Occluding augmented reality content or thermal imagery for simultaneous display
US10140773B2 (en) * 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
JP6687157B2 (ja) * 2017-07-14 2020-04-22 京セラドキュメントソリューションズ株式会社 表示装置および表示システム
JP2019053426A (ja) * 2017-09-13 2019-04-04 富士ゼロックス株式会社 情報処理装置及びプログラム
US20190094977A1 (en) * 2017-09-25 2019-03-28 Kabushiki Kaisha Toshiba Input apparatus, image forming apparatus, and input method

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005063225A (ja) * 2003-08-15 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
US20110138285A1 (en) * 2009-12-09 2011-06-09 Industrial Technology Research Institute Portable virtual human-machine interaction device and operation method thereof
JP2012088959A (ja) * 2010-10-20 2012-05-10 Kddi Corp 遠隔操作システム、遠隔操作方法およびプログラム
JP2012108771A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
JP2013008183A (ja) * 2011-06-24 2013-01-10 Brother Ind Ltd 操作支援プログラム
JP2013205983A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP2014157482A (ja) * 2013-02-15 2014-08-28 Konica Minolta Inc 操作表示システム
JP2014238828A (ja) * 2013-05-10 2014-12-18 国立大学法人電気通信大学 ユーザインタフェース装置およびユーザインタフェース制御プログラム
JP5509391B1 (ja) * 2013-06-07 2014-06-04 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置
US20150346701A1 (en) * 2014-05-27 2015-12-03 Leap Motion, Inc. Systems and methods of gestural interaction in a pervasive computing environment
JP2015228097A (ja) * 2014-05-30 2015-12-17 株式会社ニコン 電子機器、電子機器システム及びプログラム
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2016148968A (ja) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016194744A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2016207048A (ja) * 2015-04-25 2016-12-08 京セラドキュメントソリューションズ株式会社 拡張現実操作システムおよび拡張現実操作プログラム
WO2016189390A2 (en) * 2015-05-28 2016-12-01 Eyesight Mobile Technologies Ltd. Gesture control system and method for smart home
JP2018516422A (ja) * 2015-05-28 2018-06-21 アイサイト モバイル テクノロジーズ エルティーディー. スマートホームのためのジェスチャ制御システム及び方法
JP2017062709A (ja) * 2015-09-25 2017-03-30 新光商事株式会社 ジェスチャー操作装置
JP2017092706A (ja) * 2015-11-10 2017-05-25 コニカミノルタ株式会社 画像形成装置、画像形成システム、及びプログラム
JP2017120556A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 操作用ヘッドマウントディスプレイ、操作用ヘッドマウントディスプレイの制御方法および操作用ヘッドマウントディスプレイのプログラム
US20170262045A1 (en) * 2016-03-13 2017-09-14 Logitech Europe S.A. Transition between virtual and augmented reality
JP2017167611A (ja) * 2016-03-14 2017-09-21 富士ゼロックス株式会社 端末装置、データ処理システム及びプログラム
JP2018082275A (ja) * 2016-11-15 2018-05-24 京セラ株式会社 電子機器、プログラムおよび制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
小林 稔 ET AL.: "没入型仮想共有環境", 電子情報通信学会誌, vol. 第85巻 第4号, JPN6022008420, 1 April 2002 (2002-04-01), JP, pages 259 - 264, ISSN: 0004721049 *
野口 大翔 ET AL.: "車両型ロボットの指差し移動操作システムの開発", 第33回日本ロボット学会学術講演会予稿集, JPN6022008419, 3 September 2015 (2015-09-03), JP, pages 1071 - 1074, ISSN: 0004721050 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172692A1 (ja) * 2021-02-12 2022-08-18 ソニーグループ株式会社 画像処理装置、画像処理方法、画像処理システム

Also Published As

Publication number Publication date
US11265428B2 (en) 2022-03-01
CN110543233A (zh) 2019-12-06
JP7135444B2 (ja) 2022-09-13
US20190373119A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP7135444B2 (ja) 情報処理装置及びプログラム
JP7411133B2 (ja) 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード
JP6669069B2 (ja) 検出装置、検出方法、制御装置、および制御方法
JP6786792B2 (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
CN114402589B (zh) 用于2d和3d图形用户界面中的元素映射的智能触笔光束和辅助概率输入
US11514705B2 (en) Information processing apparatus and non-transitory computer readable medium to allow operation without contact
CN109313500A (zh) 纤细形状因子的无源光学和惯性跟踪
US20160196693A1 (en) Display system, control method for display device, and computer program
CN105009039A (zh) 使用imu的直接全息图操纵
WO2016189372A2 (en) Methods and apparatus for human centric &#34;hyper ui for devices&#34;architecture that could serve as an integration point with multiple target/endpoints (devices) and related methods/system with dynamic context aware gesture input towards a &#34;modular&#34; universal controller platform and input device virtualization
CN103347437A (zh) 3d映射环境中的凝视检测
JP2012115414A (ja) ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム
CN106919262A (zh) 增强现实设备
CN103019377A (zh) 基于头戴式可视显示设备的输入方法及装置
JP2018084886A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP7271909B2 (ja) 表示装置、及び、表示装置の制御方法
US11223729B2 (en) Information processing apparatus and non-transitory computer readable medium for instructing an object to perform a specific function
WO2003003185A1 (en) System for establishing a user interface
KR102039948B1 (ko) 증강현실이나 가상현실에 기초하여 가상의 인체 장기를 렌더링하는 이동 단말기 및 이를 이용하는 시스템
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
CN211454097U (zh) 一种头戴设备的眼球追踪装置以及头戴设备
US20240103606A1 (en) Systems and methods for object interactions
CN117321547A (zh) 来自电子眼睛佩戴设备的情境视觉和语音搜索
CN206906983U (zh) 增强现实设备
EP4365659A1 (en) Electronic device, head-mounted display device, wearable device, and operation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7135444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150