JP2018097388A - ユーザインタフェース装置及びユーザインタフェースシステム - Google Patents

ユーザインタフェース装置及びユーザインタフェースシステム Download PDF

Info

Publication number
JP2018097388A
JP2018097388A JP2015086676A JP2015086676A JP2018097388A JP 2018097388 A JP2018097388 A JP 2018097388A JP 2015086676 A JP2015086676 A JP 2015086676A JP 2015086676 A JP2015086676 A JP 2015086676A JP 2018097388 A JP2018097388 A JP 2018097388A
Authority
JP
Japan
Prior art keywords
display
image
light
user interface
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015086676A
Other languages
English (en)
Inventor
岡嶋 伸吾
Shingo Okajima
伸吾 岡嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Manufacturing Co Ltd
Original Assignee
Murata Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Manufacturing Co Ltd filed Critical Murata Manufacturing Co Ltd
Priority to JP2015086676A priority Critical patent/JP2018097388A/ja
Priority to PCT/JP2016/050811 priority patent/WO2016170804A1/ja
Publication of JP2018097388A publication Critical patent/JP2018097388A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Abstract

【課題】画像を表示する表示面近傍におけるユーザの操作の誤検出を低減する。
【解決手段】入力デバイス1は、指5などの物体の動きに基づきユーザの操作を検出する。入力デバイス1は、表示部2と、TOFセンサ3と、制御部10とを備える。表示部2は、表示面に画像を表示する。TOFセンサ3は、LED光を照射するとともにLED光の反射光を受光して、LED光を反射した物体までの距離を検出する。制御部10は、TOFセンサ3によって検出された距離に基づいて、ユーザの操作を検出する。制御部10は、3D画像G1の表示期間と表示停止期間とを交互に繰り返すように表示部2を制御する。TOFセンサ3は、表示停止期間中にLED光を発光して、物体までの距離を検出する。
【選択図】図1

Description

本発明は、ユーザの操作を検出するユーザインタフェース装置及びユーザインタフェースシステムに関する。
ユーザの手や指などによるジェスチャーを検出して、ジェスチャーによるコンピュータ等の操作を可能にするユーザインタフェース装置が知られている。例えば、特許文献1は、ディスプレイを見ながら行われるユーザのジェスチャーを撮影し、TOFセンサなどによりユーザの指示ポイントまでの距離を求め、検出した指示ポイントの移動軌跡をディスプレイ画面に表示する3次元ジェスチャー入力システムを開示している。従来のユーザインタフェース装置では、ディスプレイ画面中に表示される画像を遠隔操作するためのジェスチャーを検出するために、画像から離れた位置において距離検出が行われている。
また、ホログラフィやインテグラル方式などの表示面から立体的に浮かび上がる画像、所謂三次元画像を形成する技術が知られている。特許文献2は、ライトフィールドカメラ等によって生成された三次元情報に対応する三次元画像が表示される三次元画像表示装置を開示している。特許文献1では、液晶表示器などの表示画素から輻射される光束を、表示用マイクロレンズを介して投影することにより、奥行きを有する空中像が表示される。
特開2012−137989号公報 特開2013−64996号公報
本発明者は、上記の技術を組み合わせて、三次元画像に対するユーザの操作を検出し、三次元画像に触って操作するような感覚をユーザに与えるという新たなユーザインタフェース装置を考案した。このような発明者の検討の下で、表示面の近傍においては、三次元画像を形成するために表示面から発光する光が距離検出の障害となり、ユーザの操作の誤検出が生じるという課題が明らかになった。
本発明は、画像を表示する表示面近傍におけるユーザの操作の誤検出を低減することができるユーザインタフェース装置及びシステムを提供することを目的とする。
本発明の一態様に係るユーザインタフェース装置は、物体の動きに基づきユーザの操作を検出するユーザインタフェース装置である。ユーザインタフェース装置は、表示部と、第1の距離検出部と、制御部とを備える。表示部は、表示面に画像を表示する。第1の距離検出部は、第1の光を照射するとともに第1の光の反射光を受光して、第1の光を反射した物体までの距離を検出する。制御部は、第1の距離検出部によって検出された距離に基づいて、ユーザの操作を検出する。制御部は、画像を表示する表示期間と画像の表示を停止する表示停止期間とを交互に繰り返すように表示部を制御する。第1の距離検出部は、表示停止期間中に第1の光を照射して、物体までの距離を検出する。
本発明の一態様に係るユーザインタフェースシステムは、ユーザインタフェース装置と、ユーザインタフェース装置に接続される電子機器とを備える。ユーザインタフェース装置は、ユーザの操作の検出結果を示す情報を前記電子機器に入力する。
本発明に係るユーザインタフェース装置及びシステムによると、表示部の表示停止期間中に距離検出部による距離検出が行われるため、表示部と距離検出部とが干渉せず、表示面近傍におけるユーザの操作の誤検出を低減することができる。
本発明の実施の形態1に係る入力デバイスの概要を示す模式図 入力デバイスによるユーザの操作の検出方法を説明するための図 実施の形態1に係る入力デバイスの構成を示すブロック図 入力デバイスによる三次元画像の表示方法を説明するための図 入力デバイスに接続された電子機器の構成を示すブロック図 入力デバイスの動作を示すフローチャート 実施の形態1に係る入力デバイスの動作タイミングの一例を示すタイミングチャート 実施の形態2に係るユーザインタフェースシステムの概要を示す模式図 実施の形態2に係るユーザインタフェースシステムの構成を示すブロック図 実施の形態2に係る入力デバイスの動作タイミングの一例を示すタイミングチャート 実施の形態2に係る入力デバイスの動作タイミングの他の例を示すタイミングチャート 実施の形態3に係る入力デバイスの概要を示す模式図 実施の形態3に係る入力デバイスの構成を示すブロック図 実施の形態3に係る入力デバイスの動作タイミングの一例を示すタイミングチャート
以下、添付の図面を参照して本発明に係るユーザインタフェース装置の一例として、実施の形態に係る入力デバイスについて説明する。
各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換または組み合わせが可能であることは言うまでもない。実施の形態2以降では実施の形態1と共通の事項についての記述を省略し、異なる点についてのみ説明する。特に、同様の構成による同様の作用効果については、実施形態毎には逐次言及しない。
(実施の形態1)
0.概要
実施の形態1に係る入力デバイスの概要について、図1及び図2(a)、(b)を参照して説明する。図1は、本発明の実施の形態1に係る入力デバイスの概要を示す模式図である。図2(a)は、入力デバイスに対するユーザの操作を説明するための図である。図2(b)は、入力デバイスの表示面の上の空間におけるユーザの操作の検出方法を説明するための図である。
図1に示すように、本実施形態に係る入力デバイス1は、表示部2と、TOF(Time-of-Flight)センサ3とを備える。入力デバイス1は、表示部2が表示する画像に対するユーザの操作を検出して、検出結果を示す情報を電子機器4等に入力するデバイスである。
表示部2は、表示面から画像G1が立体的に飛び出した位置(表示面よりもユーザ側の位置)に、ユーザによって視認されるように、表示面上に画像G1と対応する画像を表示する。以下、説明の便宜上、ユーザにより表示面から飛び出した位置に視認される画像を「3D画像(三次元画像)」という。又、3D画像G1が立体的に視認されるように、表示部2が表示面上に3D画像G1と対応する画像を表示することを、「3D画像G1を表示する」という。3D画像G1の表示方法の詳細については後述する。
3D画像G1は、奥行きを有する立体画像、又は表示面から離れて表示される平面画像であり、例えばスイッチ、ボタン、キーボード、カーソル、アイコンなどの操作部材を示す画像である。3D画像G1は、動画であってもよいし、静止画であってもよい。
TOFセンサ3は、TOF方式の距離画像センサであり、被測定物までの距離を検出し、検出結果を距離画像として出力する。
本実施形態に係る入力デバイス1は、TOFセンサ3を用いてユーザが3D画像G1を視認する空間的位置に近接するユーザの手や指5などの動きを感知して、3D画像G1に対するユーザの操作を検出する。例えば、図2(a)に示すようにユーザが3D画像G1の表示位置に指5を重ねた場合、入力デバイス1は、TOFセンサ3の距離画像に基づき、ユーザが3D画像G1を視認する空間的位置に近づく指5の位置を検出し(図2(b)参照)、3D画像G1が指5の動きに合わせて押し込まれるように表示部2を制御する。このように、TOFセンサ3を用いて、3D画像G1に対するユーザの操作を検出することにより、ユーザに、3D画像G1を触って操作していると感じる様な感覚を与えることができる。以下、本実施形態に係る入力デバイス1及び入力デバイス1が接続される電子機器4の構成について説明する。
1.構成
1−1.入力デバイスの構成
図3は、本実施形態に係る入力デバイス1の構成を示すブロック図である。入力デバイス1は、表示部2及びTOFセンサ3を備えるとともに、制御部10と、外部インタフェース11とをさらに備える。
制御部10は、CPUやMPUなどで構成され、入力デバイス1全体の動作を制御する。制御部10は、画像データ等の各種のデータやプログラムを格納する内部メモリ(ROM,フラッシュメモリ等)を有する。制御部10は、内部メモリに格納された所定のプログラムを実行することによって、後述する各種の機能を実現する。制御部10は、専用に設計された電子回路や再構成可能な電子回路などのハードウェア回路(ASIC,FPGA等)のみで実現されてもよい。
外部インタフェース11は、外部機器と情報通信を行うためのインタフェース回路で構成される。外部インタフェース11は、外部機器に有線接続され、USBやHDMI(登録商標)等の所定のインタフェース規格に準拠して情報通信を行う。なお、外部インタフェース11は、外部機器等に無線接続するインタフェース回路であってもよい。例えば、外部インタフェース11は、Wi-FiやBluetooth(登録商標)、3G、LTE等の通信方式に従い外部機器と無線通信を行ってもよい。
表示部2は、例えばバックライトを有する液晶ディスプレイで構成される。バックライトは、例えば白色LED(発光ダイオード)で構成され、バックライトから発光される光には、可視光とともに近赤外領域の光も含まれ得る。表示部2は、制御部10の制御により、表示面上に画像データに基づく画像を生成する。なお、表示部2は、自発光する有機ELディスプレイで構成されてもよい。表示部2による3D画像G1の表示方法については後述する。
TOFセンサ3は、LED31と、受光素子32とを備える。LED31は、近赤外領域の波長帯を有する光(以下、「LED光」という)を発光する。LED31は、例えば表示面近傍に設けられた半球レンズの近傍に設置される。半球レンズは、入力デバイス1の外部からの光を受光素子32に集光する。受光素子32は、複数の画素を有し、各画素で近赤外領域の波長帯を有する光を受光する。TOFセンサ3は、LED光をパルス変調した光を照射するとともに照射したLED光の反射光を受光し、LED光の発光タイミングからの反射光の受光タイミングの遅延情報を受光素子32の画素毎に取得する。TOFセンサ3は、画素毎の遅延情報に基づき、反射光を反射した物体までの距離を示す距離画像を生成し、出力する。TOFセンサ3は、ユーザインタフェース装置における第1の距離検出部の一例である。
1−1−1.3D画像の表示方法
次に、図4を参照して、入力デバイス1の表示部2による3D画像G1の表示方法について説明する。本実施形態に係る入力デバイス1では、図4に示すように、マイクロレンズアレイ21が表示部2の表示面を覆うように設置されている。マイクロレンズアレイ21は、複数のマイクロレンズをマトリクス状に配列して構成される。マイクロレンズアレイ21は、同一の焦点距離を有するマイクロレンズ群で構成されてもよいし、異なる焦点距離を有するマイクロレンズを含んでもよい。マイクロレンズアレイ21は、表示部2の表示面から各マイクロレンズの焦点距離程度(例えば各マイクロレンズの焦点距離の平均値)の間隔をあけて設置される。
ここで、表示部2に対向する空間領域に3D画像G1を形成するために、マイクロレンズアレイ21の各マイクロレンズは、表示部2の表示面から入射した光を空間領域に出射する。この場合、各マイクロレンズから出射した光が3D画像G1を再現できるように、表示部2の表示面には、マイクロレンズ毎に対応した画像が投影されることとなる。本実施形態では、表示面から発する表示光がマイクロレンズアレイ21を介して表示部2に対向する空間領域において集光して、3D画像G1を形成する。
制御部10の内部メモリには、表示部2の表示面に投影される画像を示す画像データが格納されている。制御部10は、この画像データを内部メモリから読み出し、表示部2を制御して、表示面において読み出した画像データが示す画像を表示する。表示面からの光がマイクロレンズアレイ21を介して集光されることにより、ユーザは、あたかも3D画像G1が浮き出ているように視認することができる。3D画像が形成される位置は、表示部2の表示面の近傍の位置であり、例えば、表示部2の表示面からの距離が1cm以上2cm以下の領域の範囲内にある。なお、マイクロレンズを用いた3D画像表示の技術については、例えば特許文献2に開示がある。
1−2.電子機器の構成
次に、図5を参照して、入力デバイス1が接続される電子機器4の構成について説明する。図5は、電子機器4の構成を示すブロック図である。電子機器4は、制御部40と、記憶部41と、表示部42と、操作部43と、外部インタフェース44と、通信インタフェース45とを備える。電子機器4は、例えばPC(パーソナルコンピュータ)やタブレット端末、スマートフォン、携帯電話などである。電子機器4に対して入力デバイス1が接続され、入力デバイス1及び電子機器4は、ユーザインタフェースシステムを構成する。
制御部40は、例えばCPUやMPUで構成され、電子機器4全体の動作を制御する。制御部40は、所定のプログラムを実行することによって、各種の機能を実現する。制御部40は、専用に設計された電子回路や再構成可能な電子回路などのハードウェア回路(ASIC,FPGA等)のみで実現されてもよい。
記憶部41は、制御部40の各種の機能を実現するために必要なパラメータ、データ、及びプログラムを記憶する記憶媒体であり、制御部40で実行される制御プログラムや、各種のデータを格納している。記憶部41は、例えばハードディスク(HDD)や半導体記憶装置(SSD)で構成される。
表示部42は、例えば液晶ディスプレイや有機ELディスプレイで構成される。
操作部43は、キーボード、マウス、タッチパネルなどで構成され、電子機器4に対してユーザが指示を行うための装置である。
外部インタフェース44は、入力デバイス1等の外部機器と有線接続して情報通信を行うためのインタフェース回路である。外部インタフェース44は、USBやHDMI(登録商標)等の所定のインタフェース規格に準拠して、外部機器とデータやコマンドの通信を行う。
通信インタフェース45は、外部機器と無線信号により情報通信を行うためのインタフェース回路である。通信インタフェース45は、例えばWi-FiやBluetooth(登録商標)、3G、LTE等の通信方式に従い外部機器と無線通信を行う。
本実施形態では、入力デバイス1の外部インタフェース11(図3参照)は、電子機器4の外部インタフェース44に有線接続されている。入力デバイス1の外部インタフェース11が無線通信可能である場合、これに代えて、又は加えて、外部インタフェース11は通信インタフェース45に無線接続されてもよい。
2.動作
以下、本実施形態に係る入力デバイス1の動作について説明する。
2−1.動作の概要
まず、図1〜4を参照して、入力デバイス1におけるユーザの操作の検出動作の概要について説明する。本実施形態において、入力デバイス1は、表示部2の表示面を覆う空間中に3D画像G1を表示し(図1参照)、TOFセンサ3を用いて、3D画像G1を押したり触ったりするようなユーザの操作を検出する(図2(a)参照)。ユーザの操作の検出において、まず、TOFセンサ3は、図2(b)に示すように、LED光を照射して指5などの物体で反射した反射光を半球レンズから受光することにより、表示部2の表示面を覆う空間に存在する物体までの距離を検出し、検出結果を示す距離画像を出力する。入力デバイス1の制御部10は、TOFセンサ3から距離画像を取得し、例えば、距離画像におけるTOFセンサ3から指5までの距離に基づき、指5から表示面までの距離や3D画像G1の表示位置までの距離を算出する。この算出結果から、制御部10は、指5の動きを感知し、その動きに基づいてユーザの操作を検出する。
ここで、3D画像G1の表示位置を含む表示面近傍の空間では、3D画像G1を表示するために表示部2から発光した光束の密度が大きいので(図4参照)、指5が表示面近傍の空間に到達した場合、表示面からの光が指5に散乱されやすい。表示部2から発光した光(表示光)は、可視光とともに近赤外領域の光も含み得る。そのため、表示面近傍の空間において、表示部2から発光して指5に散乱された光がTOFセンサ3に入射すると、TOFセンサ3が誤検出を起こしてしまうという問題が想定される。
そこで、本実施形態では、画像の表示を間欠的に行うように表示部2を制御し、表示停止期間中にのみTOFセンサ3からLED光を照射して、表示面近傍の空間の距離画像を取得する。これにより、表示部2からの光を誤検出することなく、TOFセンサ3によって表示面近傍の空間の距離画像の検出を精度良く行うことができる。なお、表示面近傍の空間は、例えば表示部2の表示面からの距離が5cm以内の空間であり、2cm以内の空間であってもよいし、1cm以内の空間であってもよい。
2−2.入力デバイスの動作
次に、図1〜3,6,7を参照して、入力デバイス1の動作について説明する。図6は、入力デバイス1の動作を示すフローチャートである。図7は、入力デバイス1の動作タイミングの一例を示すタイミングチャートである。
本フローチャートが示す処理は、入力デバイス1の制御部10によって、所定の周期で繰り返し実行される(図7参照)。なお、以下の説明では、フレームレートは一例として30fpsとする。
制御部10は、表示部2を制御し、3D画像G1を表示させる(S1)。このとき、制御部10は、内部メモリから3D画像G1に対応する画像データを読み出し、表示部2を制御して、表示面から3D画像G1を形成する。これにより、図1に示すように、表示部2の表示面を覆う空間中に3D画像G1が表示される。
制御部10は、所定期間、3D画像G1を表示した後に、3D画像G1の表示を停止する(S2)。表示部2において、画像の表示の停止は、バックライトを消灯(OFF)したり、表示面の全領域が黒となる画像を表示したり、その双方の制御を行うことを含む。図7に示す例では、表示部2の画像の表示期間は29フレームであり、表示停止期間は1フレームである。
表示部2の表示の停止後、制御部10は、TOFセンサ3を制御して、図3のLED31からLED光を所定期間(例えば1フレーム)だけ発光させる(S3)。このとき、TOFセンサ3は、図3の受光素子32において画素毎にLED光の反射光を受光して、表示面の上の空間における距離画像を検出する。
次に、制御部10は、TOFセンサ3から距離画像を取得して、物体までの距離を測定する(S4)。例えば、制御部10は、距離画像におけるTOFセンサ3から物体(例えばユーザの指)までの距離に基づいて、物体から表示面までの距離を算出する。
次に、制御部10は、ステップS4の測定結果に基づいて、表示面に表示する画像の画像データを更新し(S5)、ステップS1に戻る。
例えば、ステップS4において測定された距離が表示面から3D画像G1の表示位置までの距離などの所定の閾値以下である場合、3D画像G1の表示位置を物体の位置に追従させるように画像データを更新する。また、このような場合、制御部10は、「3D画像G1を押す」という操作がなされたと判断し、ユーザの操作を示す情報を電子機器4に出力する。
以降、ステップS1〜S5の処理を繰り返す。以上の処理を繰り返し実行することにより、制御部10は、距離画像に映る物体の距離を連続的に測定する。これにより、制御部10は、手や指などの物体の動きを感知して、ジェスチャーなどによるユーザの操作を検出する。
以上のように、表示部2の画像表示(S1,S2)とTOFセンサ3の距離検出(S3,S4)とを排他的に制御することにより、表示部2とTOFセンサ3とが干渉せず、3D画像G1に対するユーザの操作の誤検出を低減することができる。
以上の処理において、ステップS1〜S5の一連の処理の周期や表示部2の表示期間、TOFセンサ3の発光期間は、それぞれ一定でなくてもよい。例えば、ステップS4において測定された物体の距離が閾値以下である場合や、物体の動きが所定値以上速い場合などに、TOFセンサ3の発光期間を長くしたり、TOFセンサ3の発光サイクルを短くしたりしてもよい。この場合、表示部2の表示期間は、TOFセンサ3の発光期間中には発光させないように設定する。例えば、表示部2の発光期間10フレームに対してTOFセンサ3の発光期間を2フレームなどとしてもよい。
また、TOFセンサ3の発光期間は、例えば表示部2の表示停止期間1フレームに対して1/40秒というように、表示部2の表示停止期間よりも短く設定して、マージンを持たせてもよい。
3.まとめ
以上のように、本実施形態に係る入力デバイス1は、指5などの物体の動きに基づきユーザの操作を検出するユーザインタフェース装置の一例である。入力デバイス1は、表示部2と、TOFセンサ3と、制御部10とを備える。表示部2は、表示面に画像を表示する。TOFセンサ3は、LED光を照射するとともにLED光の反射光を受光して、LED光を反射した物体までの距離を検出する。制御部10は、TOFセンサ3によって検出された距離に基づいて、表示画像に対するユーザの操作を検出する。制御部10は、3D画像G1を表示する表示期間と3D画像G1の表示を停止する表示停止期間とを交互に繰り返すように表示部2を制御する。TOFセンサ3は、表示停止期間中にLED光を照射して、物体までの距離を検出する。
以上の入力デバイス1によると、表示部3の表示期間とTOFセンサ3の発光期間とを間欠的に制御し、表示部3の画像表示の停止中にのみTOFセンサ3から距離検出のための光を照射する。これにより、表示面近傍におけるユーザの操作の誤検出が低減される。
また、表示部2は、表示面からユーザ側の空間中に、ユーザに3D画像G1が視認されるように表示面に画像を表示する。制御部10は、TOFセンサ3によって検出された距離に基づいて、3D画像に対するユーザの操作を検出する。これにより、3D画像G1を表示するための光の密度が大きい表示面の近傍の空間中であっても、TOFセンサ3を用いてユーザの操作を検出することができる。
また、制御部10は、TOFセンサ3によって検出された距離に基づいて、ユーザの操作が、ユーザに視認される3D画像G1の位置において行われたことを判断し、判断結果に応じて表示部2によって表示される画像を制御してもよい。これにより、ユーザに、3D画像G1を触って操作していると感じる様な感覚を与えることができる。
3D画像G1は、表示面から発する表示光によって、表示面からユーザ側の空間中に形成されてもよい。これにより、表示光によって形成された3D画像G1を触って操作する感覚が得られる。3D画像G1は、操作部材を示す画像であってもよい。これにより、ユーザに、表示面に浮き出た操作部材を操作している様な感覚を与えることができる。
(実施の形態2)
実施の形態1では、1つの入力デバイス1を用いる場合について説明したが、複数の入力デバイス1を同時に使用してもよい。実施の形態2では、2つの入力デバイスを使用する場合のユーザインタフェースシステムについて説明する。
図8は、実施の形態2に係るユーザインタフェースシステムの概要を示す模式図である。図9は、実施の形態2に係る入力デバイス及び電子機器の構成を示すブロック図である。本実施形態に係るユーザインタフェースシステムは、第1及び第2の入力デバイス1A,1Bと、電子機器4とを含む。第1及び第2の入力デバイス1A,1Bは、図8に示すように、互いに隣接して配置されている。図9に示すように、第1及び第2の入力デバイス1A,1Bの構成は、それぞれ実施の形態1に係る入力デバイス1の構成と同様である。第1及び第2の入力デバイス1A,1Bは、電子機器4により、表示部2の画像表示タイミングと、TOFセンサ3の発光タイミングとが制御される。
第1及び第2の入力デバイス1A,1Bは、共に電子機器4に接続されており、それぞれ独立してユーザの操作を受け付けて、電子機器4に情報を入力する。ここで、各入力デバイス1A,1Bがユーザの操作を検出する際、第1及び第2の入力デバイス1A,1Bのうちの一方のTOFセンサ3のLED31から発したLED光が、他方のTOFセンサ3の受光素子32に入射することがある。そのため、各入力デバイス1A,1BのTOFセンサ3同士が干渉してしまうことがある。
そこで、本実施形態では、表示停止期間中に各入力デバイス1A,1BのTOFセンサ3を発光させるとともに、2つの入力デバイス1A,1BのTOFセンサ3間においても、発光タイミングをずらす。これにより、各入力デバイス1A,1BのTOFセンサ3間の干渉を抑制することができる。また、本実施形態では、各入力デバイス1A,1Bが接続されている電子機器4の制御部40により、各入力デバイス1A,1Bに対する上記のタイミング制御を行う。
図10は、本実施形態に係るユーザインタフェースシステムの各入力デバイス1A,1Bの動作タイミングの一例を示すタイミングチャートである。図10(a)は、第1の入力デバイス1Aの表示部2の画像表示タイミングを示し、図10(b)は、第1の入力デバイス1AのTOFセンサ3の発光タイミングを示す。図10(c)は、第2の入力デバイス1Bの表示部2の画像表示タイミングを示し、図10(b)は、第2の入力デバイス1BのTOFセンサ3の発光タイミングを示す。
図10(a),(c)に示すように、第1及び第2の入力デバイス1A,1Bは、それぞれ間欠的に、3D画像を表示している。各入力デバイス1A,1Bの表示部2が画像を表示するタイミングは、例えば電子機器4の制御部40によって制御されている。電子機器4の制御部40は、表示部2での画像表示を停止すると、まず、第1の入力デバイス1AのTOFセンサ3を発光させ、第1の入力デバイス1AのTOFセンサ3の発光が終了した後に、第2の入力デバイス1BのTOFセンサ3を発光させる。そして、制御部40は、表示部2の表示停止期間中に、第2の入力デバイス1BのTOFセンサ3の発光を終了する。制御部40は、以上の処理を繰り返し実行する。これにより、各入力デバイス1A,1BのTOFセンサ3は、それぞれの発光期間が重ならないので、互いに干渉することなく距離画像を検出することができる。
以上のように、本実施形態に係るユーザインタフェースシステムは、入力デバイス1A,1Bと、入力デバイス1A,1Bに接続される電子機器4とを備える。入力デバイス1A,1Bは、ユーザの操作の検出結果を示す情報を電子機器4に入力する。複数の入力デバイス1A,1BのそれぞれのTOFセンサ3は、それぞれ異なるタイミングでLED光を照射する。これにより、それぞれのTOFセンサ3が干渉することなく、各入力デバイス1A,1Bを隣接して使用できる。
また、本実施形態では、電子機器4が、入力デバイス1A,1BのそれぞれのTOFセンサ3の発光を制御した。しかし、TOFセンサ3の発光の制御はこれに限定されない。例えば、複数の入力デバイス1A,1B同士を有線又は無線接続して、一方又は両方の制御部10が、それぞれ異なるタイミングでLED光を照射するように制御してもよい。
また、図10に示す一例では、一回の表示部2の表示停止期間中に第1及び第2の入力デバイス1A,1Bの両方のTOFセンサ3を発光させたが、TOFセンサ3の発光タイミングの制御はこれに限らない。図11に示すように、一回の表示部2の表示停止期間中に第1及び第2の入力デバイス1A,1Bの片方のみのTOFセンサ3を発光させてもよい。
また、第1及び第2の入力デバイス1A,1Bの各TOFセンサ3の発光タイミングは、3D画像の表示と表示停止を繰り返す周期の全てにおいて一定であってもよいし、周期毎に変化させてもよい。例えば、第1の入力デバイス1Aの発光後に第2の入力デバイス1Bを発光させるタイミングを、表示部2の表示停止期間中に収まる範囲内で変化させてもよい。また、各入力デバイス1A,1BのTOFセンサ3は交互に発光してもよいし、順番が入れ替わってもよい。また、各入力デバイス1A,1BのTOFセンサ3の発光期間は、同一であってもよいし、異なってもよい。また、第1及び第2の入力デバイス1A,1Bの表示部2の表示期間及び表示停止期間についても、周期毎に変化させてもよい。
また、3つ以上の入力デバイスを用いる場合についても、上記の説明と同様に、それぞれの発光期間が重ならないようにタイミング制御を行うことで、隣接する入力デバイスのTOFセンサ間の干渉を抑制することができる。
(実施の形態3)
実施の形態1では、1つの入力デバイス1が1つのTOFセンサ3を備えたが、入力デバイスにおいて複数のTOFセンサを設けてもよい。実施の形態3では、2つのTOFセンサを備える入力デバイスについて説明する。
図12は、実施の形態3に係る2つのTOFセンサを備えた入力デバイスの概要を示す模式図である。図13は、実施の形態3に係る入力デバイスの構成を示すブロック図である。本実施形態に係る入力デバイス1Cは、実施の形態1に係る入力デバイス1の構成に加えて、第2のTOFセンサ3’をさらに備える。図12において、第2のTOFセンサ3’は、入力デバイス1Cの表示部2の表示面において第1のTOFセンサ3と対向する位置に配置されている。第2のTOFセンサ3’は、ユーザインタフェース装置における第2の距離検出部の一例である。2つのTOFセンサ3,3’を用いることにより、ユーザの操作の検出精度を向上することができる。
ここで、入力デバイス1Cの2つのTOFセンサ3,3’も、実施形態2における2つの入力デバイス1A,1Bの各TOFセンサ3と同様に、干渉を起こす可能性がある。そのため、本実施形態においても、表示停止期間中に、タイミングをずらして入力デバイス1CのTOFセンサ3,3’を発光させる。また、本実施形態では、入力デバイス1Cの制御部10により、上記のタイミング制御を行う。
図14は、本実施形態に係る入力デバイス1Cの動作タイミングの一例を示すタイミングチャートである。図14では、実施の形態2において図10に示した例と同様に、一回の表示部2の表示停止期間中に第1及び第2のTOFセンサ3,3’の両方を排他的に発光させている。なお、本実施形態においても、実施の形態2における図11に示した例と同様に、一回の表示停止期間中に第1及び第2のTOFセンサ3,3’の片方のみを発光させてもよい。また、各TOFセンサ3,3’の発光タイミングや発光期間についても、第1及び第2の入力デバイス1A,1Bの各TOFセンサ3と同様に、全周期において一定であってもよいし、周期毎に変化させてもよい。
以上のように、本実施形態に係る入力デバイス1Cは、第2のTOFセンサ3’をさらに備える。第2のTOFセンサ3’は、表示部2の表示停止期間中に、第1の光が照射されるタイミングとは異なるタイミングで第2の光を照射するとともに第2の光の反射光を受光し、第2の光を反射した物体までの距離を検出する。これにより、2つのTOFセンサ3,3’を干渉させずに使用でき、ユーザの操作の検出精度を向上することができる。
(他の実施の形態)
上記の各実施形態では、マイクロレンズアレイを用いて、表示面から浮き出すように3D画像を表示したが、マイクロレンズアレイを用いなくてもよい。例えば、ホログラフィ技術を用いて、表示部2の表示面内に、3D画像に対応する干渉縞を示す画像(ホログラム画像)を生成することにより、表示面から浮き出すように3D画像を表示(形成)してもよい。また、高密度指向性表示やインテグラルイメージングなどの空間像方式によって表示部2の画像表示を制御してもよい。
また、上記の各実施形態では、マイクロレンズを用いて表示面から浮き出すように3D画像を表示したが、これに限らず、例えば、ユーザの視差等を利用して、3D画像が表示面から浮き出して観察されるようにしてもよい。例えば、偏光眼鏡やレンチキュラ、パララックスバリア等を用いて、二眼式や多眼式の画像を表示面に表示してもよい。以上のような方法で3D画像が表示面から浮き出して観察されるようにした場合においても、表示面に間欠的に画像表示するとともに画像表示の停止期間中にTOFセンサ3で距離検出を行うことで、3D画像を触るような感覚の操作を実現できる。
また、3D画像ではなく2D画像(立体視できない画像)を表示面に表示してもよい。この場合であっても、表示面近傍では2D画像を表示するための光の密度が大きい。そこで、このような場合においても、画像表示を間欠的に制御するとともに画像表示の停止期間中にTOFセンサ3のLED光を照射させるようにすることで、TOFセンサ3の誤検出を低減できる。2D画像に対するこのようなTOFセンサ3の制御は、表示面を触らないユーザの操作を検出するようなアプリケーションに有効である。表示面を触らないユーザの操作を実現することで、例えば医療現場や給仕場などにおける衛生面の安全性を向上できる。
また、上記各実施形態に係る入力デバイスは、電子機器4に通信接続されたが、これに限らず、電子機器に一体的に搭載されてもよい。例えば、入力デバイスはスマートフォンやタブレット端末などに搭載されてもよいし、家電やゲーム機などに操作インタフェースとして搭載されてもよい。
また、上記各実施形態において、距離検出部の一例としてTOFセンサを示したが、距離検出部はTOFセンサに限らず、例えば、パターン照射型の距離画像センサや、ステレオカメラ、赤外線カメラなどであってもよい。
1,1A,1B,1C 入力デバイス
10 制御部
11 外部インタフェース
2 表示部
3,3’ TOFセンサ
4 電子機器
G1 3D画像

Claims (8)

  1. 物体の動きに基づきユーザの操作を検出するユーザインタフェース装置であって、
    表示面に画像を表示する表示部と、
    第1の光を照射するとともに第1の光の反射光を受光して、第1の光を反射した前記物体までの距離を検出する第1の距離検出部と、
    前記第1の距離検出部によって検出された距離に基づいて、ユーザの操作を検出する制御部とを備え、
    前記制御部は、前記画像を表示する表示期間と前記画像の表示を停止する表示停止期間とを交互に繰り返すように前記表示部を制御し、
    前記表示停止期間中に、前記第1の距離検出部は、前記第1の光を照射して、前記物体までの距離を検出する
    ユーザインタフェース装置。
  2. 前記表示部は、前記表示面からユーザ側の空間中に、ユーザに三次元画像が視認されるように、前記表示面に画像を表示し、
    前記制御部は、前記第1の距離検出部によって検出された距離に基づいて、前記三次元画像に対するユーザの操作を検出する
    請求項1に記載のユーザインタフェース装置。
  3. 前記制御部は、
    前記第1の距離検出部によって検出された距離に基づいて、ユーザの操作が、ユーザに視認される三次元画像の位置において行われたことを判断し、
    判断結果に応じて、前記表示部によって表示される画像を制御する
    請求項2に記載のユーザインタフェース装置。
  4. 前記三次元画像は、前記表示面から発する表示光によって前記表示面からユーザ側の空間中に形成される
    請求項2又は3に記載のユーザインタフェース装置。
  5. 前記三次元画像は、操作部材を示す画像である
    請求項2〜4のいずれか1項に記載のユーザインタフェース装置。
  6. 前記表示停止期間中に、前記第1の光が照射されるタイミングとは異なるタイミングで第2の光を照射するとともに第2の光の反射光を受光し、第2の光を反射した物体までの距離を検出する第2の距離検出部をさらに備える、
    請求項1〜5のいずれか1項に記載のユーザインタフェース装置。
  7. 請求項1〜6のいずれか1項に記載のユーザインタフェース装置と、
    ユーザインタフェース装置に接続される電子機器とを備え、
    ユーザインタフェース装置は、ユーザの操作の検出結果を示す情報を前記電子機器に入力するユーザインタフェースシステム。
  8. 前記電子機器は、複数のユーザインタフェース装置に接続され、
    複数のユーザインタフェース装置のそれぞれの第1の距離検出部は、それぞれ異なるタイミングで第1の光を照射する
    請求項7に記載のユーザインタフェースシステム。
JP2015086676A 2015-04-21 2015-04-21 ユーザインタフェース装置及びユーザインタフェースシステム Pending JP2018097388A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015086676A JP2018097388A (ja) 2015-04-21 2015-04-21 ユーザインタフェース装置及びユーザインタフェースシステム
PCT/JP2016/050811 WO2016170804A1 (ja) 2015-04-21 2016-01-13 ユーザインタフェース装置及びユーザインタフェースシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015086676A JP2018097388A (ja) 2015-04-21 2015-04-21 ユーザインタフェース装置及びユーザインタフェースシステム

Publications (1)

Publication Number Publication Date
JP2018097388A true JP2018097388A (ja) 2018-06-21

Family

ID=57144549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015086676A Pending JP2018097388A (ja) 2015-04-21 2015-04-21 ユーザインタフェース装置及びユーザインタフェースシステム

Country Status (2)

Country Link
JP (1) JP2018097388A (ja)
WO (1) WO2016170804A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020012711A1 (ja) * 2018-07-10 2020-01-16 オムロン株式会社 入力装置
WO2020075456A1 (ja) * 2018-10-11 2020-04-16 オムロン株式会社 入力装置
WO2022244515A1 (ja) * 2021-05-17 2022-11-24 株式会社東海理化電機製作所 非接触操作装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6721875B2 (ja) * 2017-05-26 2020-07-15 コニカミノルタ株式会社 非接触入力装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297317A (ja) * 2001-03-30 2002-10-11 Smk Corp 操作パネル入力装置
JP2010019915A (ja) * 2008-07-08 2010-01-28 Sony Corp 表示装置およびその駆動方法、並びに電子機器
JP5563250B2 (ja) * 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020012711A1 (ja) * 2018-07-10 2020-01-16 オムロン株式会社 入力装置
JP2020009682A (ja) * 2018-07-10 2020-01-16 オムロン株式会社 入力装置
CN112262451A (zh) * 2018-07-10 2021-01-22 欧姆龙株式会社 输入装置
JP7056423B2 (ja) 2018-07-10 2022-04-19 オムロン株式会社 入力装置
CN112262451B (zh) * 2018-07-10 2024-04-23 欧姆龙株式会社 输入装置
WO2020075456A1 (ja) * 2018-10-11 2020-04-16 オムロン株式会社 入力装置
WO2022244515A1 (ja) * 2021-05-17 2022-11-24 株式会社東海理化電機製作所 非接触操作装置

Also Published As

Publication number Publication date
WO2016170804A1 (ja) 2016-10-27

Similar Documents

Publication Publication Date Title
US10324534B2 (en) Information processing apparatus, information processing system, and information processing method for haptic output based on distance-related delay
US9754167B1 (en) Safety for wearable virtual reality devices via object detection and tracking
WO2016208215A1 (ja) 距離センサ及びユーザインタフェース装置
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
WO2016170804A1 (ja) ユーザインタフェース装置及びユーザインタフェースシステム
US9984508B2 (en) Light-based radar system for augmented reality
KR102059359B1 (ko) 디스플레이 장치, 디스플레이 장치의 동작 방법 및 제조 방법
JP2011070625A (ja) 光学式タッチ制御システム及びその方法
RU2468415C2 (ru) Способ и система для определения местоположения объекта на поверхности
US20150084853A1 (en) Method and System for Mapping for Movement Trajectory of Emission Light Source Application Trajectory Thereof
WO2018232945A1 (zh) 基于体感交互的智能家居服务端、控制系统及控制方法
JP2011179997A (ja) 距離情報取得装置および距離情報取得装置における光量調節方法
CN105659191A (zh) 用于提供图形用户界面的系统和方法
JP2014115733A (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体
KR101330531B1 (ko) 3차원 카메라를 이용한 가상 터치 방법 및 장치
KR20210008403A (ko) 광학 라벨을 기반으로 하는 정보 기기의 상호 작용 방법 및 시스템
KR20160144148A (ko) 광학 장치 및 깊이 정보 생성 방법
KR20120026956A (ko) 동작 인식 장치 및 그 방법
KR101385601B1 (ko) 손동작 인식 및 인터렉션을 위한 장갑장치 및 방법
EP3169068B1 (en) Portable device that controls photography mode, and control method therefor
TWI454996B (zh) 顯示器和三維互動立體顯示器之指示物位置判斷的方法
TWI521413B (zh) 光學式觸控裝置
US9784834B2 (en) Image sensing apparatus and operations using burst mode
JP6740614B2 (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
US10469998B2 (en) Interaction method and communication device