JP2017027401A - 表示操作装置 - Google Patents

表示操作装置 Download PDF

Info

Publication number
JP2017027401A
JP2017027401A JP2015145926A JP2015145926A JP2017027401A JP 2017027401 A JP2017027401 A JP 2017027401A JP 2015145926 A JP2015145926 A JP 2015145926A JP 2015145926 A JP2015145926 A JP 2015145926A JP 2017027401 A JP2017027401 A JP 2017027401A
Authority
JP
Japan
Prior art keywords
tactile
display
presenter
image
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015145926A
Other languages
English (en)
Other versions
JP2017027401A5 (ja
Inventor
希 北川
Mare Kitagawa
希 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015145926A priority Critical patent/JP2017027401A/ja
Priority to US15/745,963 priority patent/US20180210551A1/en
Priority to PCT/JP2016/002985 priority patent/WO2017013834A1/ja
Publication of JP2017027401A publication Critical patent/JP2017027401A/ja
Publication of JP2017027401A5 publication Critical patent/JP2017027401A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】空間に空中表示された実体のない操作対象物の映像を操作する操作者に、確実に操作感を与えることが可能な表示操作装置の提供。【解決手段】表示操作装置100は、空間表示器50、操作体特定器20、及び触覚提示器30を備え、空間に表示された操作対象物61の映像を操作者OPに操作させることができる。空間表示器50は、操作対象物61の映像を空中表示領域60に表示する。操作体特定器20は、空中表示領域60にある手指Fの位置を特定する。触覚提示器30は、操作対象物61の映像に触れた手指Fに非接触で触感刺激を与える。そして、操作対象物61の映像は、触感刺激への感度の高い指先の腹から側面が、触覚提示器30による触感刺激を受け易い方向を向くように、手指Fの状態を誘導する表示態様とされる。【選択図】図1

Description

本発明は、空間に表示された操作対象物の映像を操作者に操作させる表示操作装置に関する。
従来、例えば特許文献1には、超音波による刺激を人間の皮膚に与えることにより、あたかも物体に触れているかのような触感刺激を感じさせる触覚提示装置が開示されている。このような触覚提示装置を、三次元映像を空間に表示させる表示器、及び三次元映像を操作する手指等の位置を特定する赤外線カメラと組み合わせることによれば、バーチャルな物体を、触感を伴いながら手で操作可能なインタラクションシステムが構成される。
特許第5343946号公報
さて、本発明の発明者は、特許文献1のようなインタラクションシステムを開発する過程において、操作者の手指等には、触感刺激への感度の高い高感度部位と、感度の低い低感度部分とがあることを見出した。空間に表示された映像に触れる手指に、バーチャルな触感を確実に感じてもらうためには、触感刺激は、高感度部位に与えられるのか望ましい。
しかし、触覚提示装置は、空間に表示される映像との位置関係から、映像を操作する手指等の感度の高い部位に、常に触感刺激を与えられるわけではない。そのため、映像を操作する手指等の操作体の状態によっては、操作者に触感刺激を感じさせることが困難な状況も生じ得た。
本発明は、このような問題に鑑みてなされたものであって、その目的は、空間に空中表示された実体のない操作対象物の映像を操作する操作者に、確実に操作感を与えることが可能な表示操作装置を提供することにある。
上記目的を達成するため、開示された一つの発明は、空間に表示された操作対象物(61,261,361,461)の映像を操作者(OP)に操作させる表示操作装置であって、空間に規定される仮想の空中表示領域(60)に、操作対象物の映像を表示する空間表示器(50)と、空中表示領域にある操作体(F)の位置を特定する位置特定器(21)と、位置特定器にて位置を特定された操作体が操作対象物の映像に触れると、この操作体に非接触で触感刺激を与える触覚提示器(30,330,430,440,530,630)と、を備え、操作対象物の映像は、操作者の一部である操作体において触感刺激への感度の高い高感度部位(SR)が、触覚提示器による触感刺激を受け易い方向を向くように、操作体の状態を誘導する表示態様であることを特徴としている。
この発明によれば、空間に表示された操作対象物の映像に誘導されることにより、操作者の操作体において触感刺激への感度の高い高感度部位は、触覚提示器による触感刺激を受け易い方向に向き得る。故に、非接触にて加えられる触感刺激であっても、操作者の感じる確実性は高くなる。以上によれば、表示操作装置は、空間に表示された実体のない操作対象物の映像を操作する操作者に対して、操作感を確実に与えることができる。
尚、上記括弧内の参照番号は、本発明の理解を容易にすべく、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、本発明の範囲を何ら制限するものではない。
表示操作装置が搭載された車両の運転席周辺のレイアウトを示す図である。 表示操作装置の各構成の位置関係を示す図である。 第一実施形態による表示操作装置の電気的構成を示すブロック図である。 触感制御部にて実施される触覚制御処理の詳細を示すフローチャートである。 表示制御部にて実施される映像制御処理の詳細を示すフローチャートである。 第一実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図である。 第二実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図である。 第三実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図である。 第三実施形態による表示操作装置の電気的構成を示すブロック図である。 第四実施形態における操作対象物の映像の表示態様と、この映像に誘導される手の状態を示す図である。 第四実施形態による表示操作装置の電気的構成を示すブロック図である。 第五実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図である。 ダイヤルの回転操作に伴う移動機構の作動を説明するための図である。 第五実施形態の触感制御部にて実施される触覚制御処理の詳細を示すフローチャートである。 第五実施形態による表示操作装置の電気的構成を示すブロック図である。 第六実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図である。 ダイヤルの回転操作に伴う触覚提示器の切り替えを説明するための図である。 ダイヤルの回転操作に伴う触覚提示器の切り替えを説明するための図である。 第六実施形態の触感制御部にて実施される触覚制御処理の詳細を示すフローチャートである。 第六実施形態による表示操作装置の電気的構成を示すブロック図である。
以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。そして、複数の実施形態及び変形例に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。
(第一実施形態)
図1及び図2に示す本発明の第一実施形態による表示操作装置100は、車両に搭載され、例えば空調装置121(図3参照)及びオーディオ装置122(図3参照)といった他の車載機器への操作を受け付ける車両用のユーザーインターフェースとして機能する。表示操作装置100の各構成は、センタークラスター111及びセンターコンソール112に収容されている。表示操作装置100は、矩形の平面状に規定された仮想の空中表示領域60(図1のドットの範囲を参照)に、操作対象物61の映像を表示する。空中表示領域60は、センターコンソール112の上方であって、センタークラスター111の後方の空間に規定されている。運転席に着座する運転者及び助手席に着座する乗員等は、操作者OPとして、運転席及び助手席の間に空中表示されたバーチャルな操作対象物61の映像を操作することができる。
表示操作装置100は、図1〜図3に示すように、操作体特定器20、触覚提示器30、及び空間表示器50を備えている。操作体特定器20、触覚提示器30、及び空間表示器50は、互いに電気的に接続されており、相互に情報をやり取りすることができる。表示操作装置100は、他の車載機器へ向けて、操作者OP等によって入力された操作情報を出力することができる。
尚、以下の説明では、空中表示領域60の長手方向を左右方向HDとし、空中表示領域60に沿って左右方向HDと直交する方向を上下方向VDとする。また、空中表示領域60に対して車両前方を奥側とし、空中表示領域60に対して車両後方を手前側とする。
操作体特定器20は、例えば赤外線カメラ等を含む構成であって、操作対象物61の映像を操作しようとする操作体(例えば手指F等)の状態を検出する。操作体特定器20は、触覚提示器30の上方且つ奥側に配置されている。操作体特定器20は、空中表示領域60とその周囲を少なくとも含む三次元空間での操作体の状態を検出することができる。
操作体特定器20は、位置特定部21及び姿勢特定部22を有している。位置特定部21は、赤外線カメラによって撮像された画像を解析することにより、空中表示領域60における手指Fの位置を特定する。姿勢特定部22は、赤外線カメラによって撮像された画像を解析することにより、空中表示領域60における手指Fの姿勢を特定する。
触覚提示器30は、全体として平板状に形成されており、空中表示領域60の下方に配置されている。触覚提示器30は、超音波発生面31及び触感制御部32を有している。超音波発生面31は、超音波を発振する複数の振動子を二次元配列することによって形成されている。超音波発生面31が空中表示領域60を向く姿勢にて、触覚提示器30は、センターコンソール112に固定されている。超音波発生面31は、超音波振動子によって生じさせる圧力により、触覚提示領域36にある操作体に触感刺激を発生させる。触覚提示領域36は、空中表示領域60とその周囲を少なくとも含む三次元空間であり、操作体特定器20が操作体を検出可能な範囲と概ね一致している。
触感制御部32は、複数の超音波振動子を協調動作させることにより、操作体に与える触感刺激を制御する。触感制御部32は、触覚制御処理(図4参照)を繰り返し実施する。触感制御部32は、操作体特定器20から手指Fの位置及び姿勢の情報を取得すると共に(図4 S101参照)、空間表示器50から操作対象物61の形状情報を取得する(図4 S102参照)。そして触感制御部32は、取得した各情報に基づき、操作対象物61の映像に手指F等の操作体が触れているか否かを判定する(図4 S103参照)。その結果、手指Fが操作対象物61に触れていると肯定判定した場合に、触感制御部32は、手指F等に非接触で触感刺激を与える(図4 S104参照)。
空間表示器50は、液晶パネル51、リフレクタ52、及び表示制御部53を有している。液晶パネル51は、表示面51aを形成する表示パネルと、表示パネルを透過照明するバックライト等とによって構成されている。液晶パネル51は、表示制御部53から逐次取得する画像データを表示面51aに連続的に形成することにより、フルカラーの映像を表示することができる。液晶パネル51は、リフレクタ52の下方に配置され、表示面51aをリフレクタ52に向けた姿勢にて、センタークラスター111又はセンターコンソール112内に固定されている。
リフレクタ52は、全体として平板状に形成されており、液晶パネル51の上方に配置されている。リフレクタ52は、所謂二面直交リフレクタであり、多数のマイクロミラーが配列された光学素子である。詳記すると、リフレクタ52は、格子状に形成されることで、多数の微小な貫通孔を形成している。各貫通孔は、四角孔状に形成されている。貫通孔を区画している各側面は、鏡面状とされており、上述のマイクロミラーを形成している。各マイクロミラーは、互いに直交している。
以上の構成によれば、表示面51aから出射される光の一部は、互いに直交する二つのマイクロミラーによって一回ずつ反射され、リフレクタ52を挟んで液晶パネル51とは反対側の空間に実像として結像される。表示面51aの映像を結像させている二次元状の結像面が、空中表示領域60として予め規定される。操作者OPは、空中表示領域60に空中表示される操作対象物61の映像を裸眼視することができる。
表示制御部53は、液晶パネル51に設けられた複数の画素を制御することにより、表示面51aに映る映像、ひいては空中表示領域60に結像される実像の形態を制御する。表示制御部53は、手指Fの操作入力に合わせて操作対象物61の形態を変化させる映像制御処理(図5参照)を繰り返し実施する。表示制御部53は、操作体特定器20から手指Fの位置情報を取得し(図5 S111参照)、取得した情報に基づいて操作対象物61への手指F等の操作入力があるか否かを判定する(図5 S112参照)。その結果、操作入力があると判定した場合に、表示制御部53は、手指Fによる操作入力に合わせて、操作対象物61の形態を更新する(図5 S113参照)。さらに表示制御部53は、更新された操作対象物61の形状情報を触覚提示器30へ向けて出力する(図5 S114参照)と共に、手指Fの操作に基づく指令信号を外部の車載機器へ向けて出力する。
次に、第一実施形態における操作対象物61の詳細を、図6に基づいて、図1を参照しつつ説明する。
操作対象物61の映像は、操作者OPの手指Fにおいて触感刺激への感度の高い高感度部位SRが、触覚提示器30による触感刺激を受け易い方向、即ち下方を向くように、手指Fの状態を誘導する表示態様とされている。高感度部位SRには、皮膚直下に存在するマイスナー小体、及び表皮に存在するメルケル細胞といった生体触覚センサとして機能する受容器が高密度で分布しているものと推定される。第一実施形態では、指先の腹から側面にかけての部位を高感度部位SRとし、手指Fの他の部位を低感度部位DRとする。
操作対象物61の映像は、左右方向HDに移動可能なツマミ部62と、ツマミ部62の移動範囲を示すスライダ溝部63とを含んでいる。空間に表示された映像としてのツマミ部62を左右方向HDへスライドさせる操作が操作者OPによって入力されると、表示制御部53は、スライダ溝部63に沿ってツマミ部62を移動させる。操作者OPは、ツマミ部62のスライド操作により、例えばオーディオ装置における設定音量、及び空調装置における設定温度等を変更することができる。
第一実施形態におけるツマミ部62の移動可能な方向は、超音波発生面31の板面方向に沿って規定されている。故に、ツマミ部62をスライダ溝部63に沿って左右方向HDに移動させようとした場合、操作者OPは、親指と人差指とによってツマミ部62を左右方向HDの両側から挟みにいく。その結果、親指及び人差指の高感度部位SRは、超音波発生面31の位置する下方に向くようになる。以上によれば、操作者OPは、超音波発生面31から出力される超音波による触感刺激を親指及び人差指の各指先で確実に受けて、ツマミ部62を挟んでいるようなバーチャルな触感を感じることができる。
比較のために、上下方向VDに移動可能なツマミ部162を図6に図示する。このツマミ部162は、超音波発生面31の板面方向に対して直交する方向に移動可能である。ツマミ部162を上下方向VDに移動させようとした場合、操作者OPは、親指と人差指とによってツマミ部162を上下から挟みにいく。その結果、親指は、低感度部位DRである指の背を超音波発生面31の位置する下方へ向けた状態となる。さらに、人差指の高感度部位SRは、親指によって超音波発生面31から隠された状態となる。以上によれば、操作者OPは、超音波による触感刺激を親指及び人差指の各指先で受け難くなってしまうのである。
さらに触覚提示器30は、ツマミ部62を移動させる操作が行われた場合に、親指及び人差指のそれぞれへ与える触感刺激に強弱を設ける。具体的に、ツマミ部62を挟んでいる二つの指先のうちで移動方向前側にある指先よりも、移動方向後側にある指先に対して、強い触感刺激を発生させる。具体的には、運転席側へ向けてツマミ部62をスライドさせる場合には、親指の指先よりも人差指の指先に強い触感刺激が与えられる。反対に、助手席側へ向けてツマミ部62をスライドさせる場合には、人差指の指先よりも親指の指先に強い触感刺激が与えられる。以上により、操作者OPは、ツマミ部62の移動に伴うバーチャルな抵抗感を指先に感じることができる。
ここまで説明した第一実施形態によれば、空間に表示された操作対象物61の映像に誘導されることで、操作者OPの手指Fにおいて触感刺激への感度の高い高感度部位SRは、触覚提示器30による触感刺激を受け易い方向に向き得る。故に、非接触にて加えられる触感刺激であっても、操作者の感じる確実性は高くなる。以上によれば、表示操作装置100は、空間に表示された実体のない操作対象物61の映像を操作する操作者OPに対して、操作感を確実に与えることができる。
加えて第一実施形態のように、超音波発生面31に沿って左右方向HDにスライド可能なツマミ部62が表示されれば、操作者OPは、ツマミ部62を左右方向HDの両側から手指Fによって挟むはずである。その結果、手指Fの高感度部位SRは、超音波発生面31を向くようになる。したがって、触覚提示器30は、ツマミ部62を挟んでいる各指先の高感度部位SRに触感刺激を与えて、このツマミ部62を挟んでいるかのような感覚を操作者OPに感じさせることができる。
また第一実施形態によれば、高感度部位SRは、受ける触感刺激の強弱も感度良く感じ得る。故に、ツマミ部62を挟んでいる二本の指先に対して異なる強さの触感刺激を与えるようにすれば、触覚提示器30は、移動方向後側からツマミ部62を押してスライド操作をしているようなリアリティのある触感を、操作者OPに感じさせることができる。
尚、第一実施形態において、手指Fが「操作体」に相当し、位置特定部21が「位置特定器」に相当し、姿勢特定部22が「姿勢特定器」に相当し、超音波発生面31が「発生面」に相当し、ツマミ部62が「接触部」に相当する。
(第二実施形態)
図7に示す本発明の第二実施形態は、第一実施形態の変形例である。第二実施形態における操作対象物261の映像には、複数の押釦262が含まれている。複数の押釦262は、超音波発生面31に沿って左右方向HDに並んでいる。押釦262には、操作者OPに向けられた押圧面263が設けられている。押圧面263は、奥側へ向かうに従って上方に僅かに傾斜している。こうした押圧面263の傾斜により、各押釦262は、触覚提示器30の位置する下方へ向けたプッシュ操作の可能な入力部として操作者OPに認識され得る。
以上の押釦262に下方へ向けたプッシュ操作が入力されると、表示制御部53(図3参照)は、操作の入力された押釦262を下方へ押し下げる映像を表示させる。加えて触感制御部32(図3参照)は、押圧面263に触れている手指Fの指先に触感刺激を与えると共に、押釦262が押し込まれたタイミングに合わせて、発生させる触感刺激を強める制御を行う。以上によれば、操作者OPは、プッシュ操作に伴ったバーチャルな打鍵感を感じることができる。
ここまで説明した第二実施形態でも、第一実施形態と同様の効果を奏することが可能である。その結果、操作対象物261の映像によって手指Fの状態が誘導され、操作者OPは、実体の無い操作対象物261の映像の操作においても、操作感を確実に感じることができる。
加えて第二実施形態では、押釦262の形状に誘導されることで、操作者OPは、高感度部位SRである手指Fの腹の部分を超音波発生面31へ向けた状態で、プッシュ操作を行おうとするはずである。その結果、触覚提示器30は、手指Fの腹の部分に触感刺激を与えて、押釦262を押している感覚を操作者に感じさせることができる。尚、第二実施形態では、押釦262が「押釦部」に相当する。
(第三実施形態)
図8及び図9示す本発明の第三実施形態は、第一実施形態の別の変形例である。第三実施形態における表示操作装置300は、操作体特定器20、第一触覚提示器330、第二触覚提示器340、空間表示器350、及び制御ユニット310を備えている。
第一触覚提示器330は、第一実施形態の触覚提示器30に相当する構成である。第一触覚提示器330からは、触感制御部32(図3参照)が省略されている。第一触覚提示器330は、空中表示領域60の下方に配置されて、触覚提示領域36にある手指F等の操作体に触感刺激を与えることができる。
第二触覚提示器340は、第一触覚提示器330と実質的に同一の構成であり、第一触覚提示器330とは別に、空中表示領域60の奥側に配置されている。第二触覚提示器340の超音波発生面341は、第一触覚提示器330の超音波発生面31と同様に、空中表示領域60へ向けられている。超音波発生面341は、手前側に規定された触覚提示領域36にある手指F及び手の平等の操作体に、第一触覚提示器330とは異なる方向から触感刺激を与えることができる。
空間表示器350は、第一実施形態の空間表示器50(図3参照)に相当する構成である。空間表示器350からは、表示制御部53(図3参照)が省略されている。空間表示器350のリフレクタ52(図2参照)は、第二触覚提示器340に対して上下方向VDにずらして配置されている。
制御ユニット310は、操作体特定器20、第一触覚提示器330、第二触覚提示器340、及び空間表示器350と電気的に接続されている。制御ユニット310は、表示操作装置300の外部の車載機器と電気的に接続されており、当該車載機器に操作情報を出力する。制御ユニット310は、プロセッサ、RAM、及びメモリを有するマイクロコンピュータを主体に構成されている。
制御ユニット310は、プロセッサに所定のプログラムを実行させることにより、操作情報取得部11、表示制御部12、及び触感制御部13を機能ブロックとして構築する。操作情報取得部11は、位置特定部21及び姿勢特定部22から操作体の位置及び姿勢を示す情報を取得する。表示制御部12は、第一実施形態の表示制御部53(図3参照)に相当する機能を発揮可能であり、空中表示領域60に表示される映像を制御する。触感制御部13は、第一実施形態の触感制御部32(図3参照)に相当する機能を発揮可能であり、二つの触覚提示器330,340のそれぞれから操作体に加えられる触感刺激を制御する。
次に、表示操作装置300によって空中表示領域60に空中表示される映像の詳細を説明する。
空中表示領域60には、多階層に構成されたメニュー画面群の一つと、操作対象物361の映像等が表示される。メニュー画面群には、例えば空調装置121への操作を受け付ける空調メニュー画面、及びオーディオ装置122への操作を受け付けるオーディオメニュー画面等と、これらの上位の階層となるメインメニュー画面が少なくとも含まれている。操作者OPは、メインメニュー画面に表示された複数のアイコンのうちの一つを選択及び決定する操作により、メインメニュー画面から、空調メニュー画面及びオーディオメニュー画面等の下位の階層へと、表示を遷移させることができる。
操作対象物361の映像には、少なくとも一つの回転可能なダイヤル362が含まれている。ダイヤル362は、空中表示領域60に対して仮想の回転軸を交差させた姿勢にて、当該空中表示領域60に表示される。第三実施形態におけるダイヤル362の回転軸は、空中表示領域60に対して実質的に直交している。こうした操作対象物361の映像の表示態様により、操作者OPは、ダイヤル362を複数の手指Fによって上方から掴み、いずれかの方向へ回転させる操作を誘導される。
以上のダイヤル362に反時計回りの回転操作が入力されると、表示制御部12は、位置特定部21及び姿勢特定部22から操作情報取得部11に出力された情報に基づき、反時計回りに回転しているダイヤル362の映像を表示させる。同様に、時計回りの回転操作が入力された場合でも、時計回りに回転しているダイヤル362の映像が表示される。こうした回転操作によれば、操作者OPは、表示中のメニュー画面において選択中とされるアイコンを、順に切り替えることができる。さらに、ダイヤル362に触れている手指Fの指先には、触感制御部13によって制御された第一触覚提示器330により、触感刺激が与られる。その結果、操作者OPは、ダイヤル362を掴んでいるかのようなバーチャルな触感を感じることができる。
また、回転軸に沿って奥側へ押し込む押込操作がダイヤル362に入力されると、表示制御部12は、奥側へ変位するダイヤル362の映像を表示させる。さらに、ダイヤル362の押し込みによって選択中のアイコンが決定されると、表示制御部12は、メニュー画面群の階層を他の階層へ遷移させる。そして、押込操作を行う手指F及び手の平には、ダイヤル362が押し込まれたタイミングに合わせて、触感制御部13によって制御された第二触覚提示器340により、触感刺激が与られる。その結果、操作者OPは、ダイヤル362の押込操作に伴ったバーチャルなクリック感を感じることができる。
ここまで説明した第三実施形態でも、第一実施形態と同様の効果を奏することが可能である。その結果、操作対象物361の映像によって手指Fの状態が誘導され、操作者OPは、実体の無い操作対象物361の映像の操作においても、操作感を確実に感じることができる。
加えて第三実施形態においても、ダイヤル362を掴む各手指Fの高感度部位SRは、第一触覚提示器330の位置する下方へ向き得る。以上によれば、第一触覚提示器330は、ダイヤル362を掴んでいる手指Fの腹の部分に触感刺激を与えて、ダイヤル362を握っている感覚を操作者に確実に感じさせることができる。
また第三実施形態では、複数の触覚提示器330,340が互いに異なる方向から操作体に触感刺激を与え得る。故に、表示操作装置300は、回転操作及び押込操作のそれぞれに対応したバーチャルな触感を、手指Fに感じさせることができる。その結果、多階層に構成されたメニュー画面群を遷移するような複雑な入力を行う操作者OPに対しても、表示操作装置300は、十分な操作感を感じさせることができる。尚、第三実施形態では、ダイヤル362が「ダイヤル部」に相当する。
(第四実施形態)
図10及び図11示す本発明の第四実施形態は、第三実施形態の変形例である。第四実施形態による表示操作装置400は、第三実施形態の第一触覚提示器330及び第二触覚提示器340に替えて、左方触覚提示器430及び右方触覚提示器440を備えている。これら触覚提示器430,440は、空中表示領域60の左右方向HDの両側に一つずつ、互いに対向して設けられている。
左方触覚提示器430は、空中表示領域60の左側に配置されている。左方触覚提示器430は、超音波発生面431を右方向に位置する空中表示領域60へ向けた姿勢で固定されている。右方触覚提示器440は、空中表示領域60の右側に配置されている。右方触覚提示器440は、超音波発生面441を左方向に位置する空中表示領域60へ向けた姿勢で固定されている。超音波発生面441は、左右方向HDにおいて超音波発生面431と対向している。各触覚提示器430,440は、二つの超音波発生面431,441の間に規定された触覚提示領域36にある操作体に対して、互いに異なる方向から触感刺激を与えることができる。
第四実施形態の操作対象物461の映像には、一組のガイド表示部462,463が含まれている。各ガイド表示部462,463は、空中表示領域60内で手等の操作体を左右方向HDに移動させる操作を案内している。各ガイド表示部462,463によって案内される手の移動方向は、二つの触覚提示器430,440が並ぶ方向と同じである。各ガイド表示部462,463はそれぞれ、矢印を模った画像である。各ガイド表示部462,463は、左右方向HDに並んで表示されており、且つ、互いに反対の方向を向けられている。
二つのガイド表示部のうちで左側に位置する一方(左方ガイド表示部462)は、左方向を指し示す矢印であり、例えば青色で表示されている。操作者OPは、空中表示領域60に差し込んだ手を左方向に動かすことにより、空調装置121の設定温度を下げることができる。右側に位置する他方(右方ガイド表示部463)は、右方向を指し示す矢印であり、例えば赤色で表示されている。操作者OPは、空中表示領域60に差し込んだ手を右方向へ動かすことにより、空調装置121の設定温度を上げることができる。以上のように、操作者OPは、矢印状とされたガイド表示部462,463に誘導されて、空中表示領域60内において手を左右方向HDに移動させる操作を行うようになる。尚、第四実施形態では、手の平が高感度部位SRとされ、手の甲が低感度部位DRとされる。
空中表示領域60を横切るような操作が入力されると、制御ユニット310は、設定温度の変更を指示する指令信号を空調装置121(図3参照)へ向けて出力する。また触感制御部13は、左方触覚提示器430及び右方触覚提示器440を制御することにより、手の平と手の甲とに触感刺激を発生させる。以上によれば、操作者OPは、バーチャルな抵抗感を感じることができる。
加えて触感制御部13は、操作情報取得部11にて取得する情報に基づき、手の平の向きを検知できる。触感制御部13は、手の平が左方向を向いていた場合に、右方触覚提示器440により発生させている触感刺激の出力を、左方触覚提示器430により発生させている触感刺激の出力よりも高く設定する。その結果、高感度部位SRに与えられる触感刺激よりも、低感度部位DRに与えられる触感刺激が強くなるため、操作者OPは、手の平と手の甲の両方に、確実に触感を感じるようになる。尚、触感制御部13は、手の平が右方向を向いていた場合には、左方触覚提示器430によって発生させている触感刺激の出力を、右方触覚提示器440によって発生させている触感刺激の出力よりも高く設定する。
さらに触感制御部13は、移動する操作体が各触覚提示器430,440に近づいてくる場合に、操作体が遠ざかる場合よりも強い触感刺激を発生させる。例えば、操作者OPが手を左方向へ動かした場合、触感制御部13は、左方触覚提示器430から出力される触感刺激を強めると共に、右方触覚提示器440から出力される触感刺激を弱める。以上により、操作者OPは、あたかも粘性の高い流体内で手を動かしているかのような抵抗感を感じることができる。
ここまで説明した第四実施形態でも、第一実施形態と同様の効果を奏することが可能である。その結果、操作対象物461の映像によって手の向きが誘導され、操作者OPは、少なくとも高感度部位SRとしての手の平に操作感を確実に感じることができる。
加えて第四実施形態によれば、各ガイド表示部462,463の誘導により、高感度部位SRとしての手の平は、左右いずれかの触覚提示器430,440を向いた状態とされ得る。その結果、左方触覚提示器430又は右方触覚提示器440は、空中表示領域60に差し込まれた手の平に触感刺激を与えて、操作者OPに抵抗感を感じさせることができる。
加えて第四実施形態では、手の平だけでなく手の甲にも触感刺激が与えられ、且つ、手の移動方向に応じて触感刺激の強弱が調整される。以上によれば、触感制御部13は、空中表示領域60を横切る操作をしている操作者OPに対し、リアリティの高いバーチャルな抵抗感を感じさせることができる。尚、第四実施形態では、左方触覚提示器430及び右方触覚提示器440が「触覚提示器」に相当し、左右方向HDが「対向方向」に相当する。
(第五実施形態)
図12〜図15示す本発明の第五実施形態は、第三実施形態の別の変形例である。第五実施形態による表示操作装置500の触感制御部513は、触覚提示器530及び移動機構580と電気的に接続されている。触覚提示器530は、第一実施形態と実質的に同一の構成である。触覚提示器530は、空中表示領域60に超音波発生面31を向けた姿勢を維持しつつ、空中表示領域60の周囲を移動可能とされている。
移動機構580は、空中表示領域60に対する触覚提示器530の相対位置を変化させる機構である。移動機構580は、空中表示領域60の下方において触覚提示器530を移動させることができる。移動機構580による触覚提示器530の可動範囲は、例えば空中表示領域60の左下から右下までの間とされている。ダイヤル362の回転操作によって手の姿勢が変化した場合(図13参照)、移動機構580は、高感度部位SRに触感刺激を与え易い位置へ、触覚提示器530を移動させる。例えば、ダイヤル362を時計回りに回転させる操作が入力された場合、触覚提示器530は、空中表示領域60の周囲を時計回りに公転する。
触感制御部513は、触覚提示器530による触感刺激の発生を制御すると共に、移動機構580による触覚提示器530の移動を制御する。触感制御部513は、触覚制御処理の実施により、操作情報取得部11から取得する情報に基づき、操作対象物361の映像に手指Fが触れているか否かを判定する(図14 S501〜S503参照)。その結果、手指Fが操作対象物361に触れていると肯定判定した場合に、触感制御部513は、姿勢特定部22にて特定された手指Fの姿勢に基づき、手指Fの高感度部位SRに触感刺激を与え易い位置まで触覚提示器530を移動させる(図14 S504参照)。そうしたうえで、触感制御部513は、手指Fの高感度部位SRに非接触で触感刺激を与える(図14 S505参照)。
ここまで説明した第五実施形態でも、第三実施形態と同様の効果を奏し、操作者OPは、実体の無いダイヤル362の操作でも、操作感を確実に感じることができる。加えて第五実施形態では、ダイヤル362を回転させる操作の過程において手指Fの姿勢が変化しても、移動機構580による位置調整により、触覚提示器530は、高感度部位SRに触感刺激を与え易い状態を維持し得る。以上によれば、ダイヤル362の回転操作において、操作者OPは、ダイヤル362を掴んでいるバーチャルな感覚を継続して感じ続けることができる。
(第六実施形態)
図16〜図20示す本発明の第六実施形態は、第三実施形態のさらに別の変形例である。表示操作装置600の触感制御部613は、空中表示領域60に対して互いに異なる位置に設けられた複数(三つ)の触覚提示器630,640a,640bと電気的に接続されている。下方触覚提示器630は、第一実施形態の触覚提示器30(図6参照)に相当し、空中表示領域60の下方から触感刺激を発生させる。左方触覚提示器640aは、第四実施形態の左方触覚提示器430(図10参照)に相当し、空中表示領域60の左方から触感刺激を発生させる。右方触覚提示器640bは、第四実施形態の右方触覚提示器440(図10参照)に相当し、空中表示領域60の右方から触感刺激を発生させる。
触感制御部613は、触覚制御処理の実施により、操作情報取得部11から取得する情報に基づき、操作対象物361の映像に手指Fが触れているか否かを判定する(図19 S601〜S603参照)。その結果、手指Fが操作対象物361に触れていると肯定判定した場合、触感制御部613は、作動対象とする触覚提示器を選択する(図19 S604参照)。具体的に、触感制御部613は、姿勢特定部22により特定された手指Fの姿勢に基づき、複数の触覚提示器630,640a,640bうちで、高感度部位SRに触感刺激を与え易い位置にある少なくとも一つを、作動対象とする触覚提示器として決定する。そして、作動対象とされた触覚提示器により、手指Fの高感度部位SRに非接触で触感刺激が与えられる(図19 S605参照)。
以上によれば、ダイヤル362を上方から掴んだ初期の状態では、主に下方触覚提示器630によって手指Fに触感刺激が与えられる(図16参照)。そして、ダイヤル362を時計回りに回転させる操作が入力された場合には、主に左方触覚提示器640aによって手指Fに触感刺激が与えられる(図17参照)。一方で、ダイヤル362を反時計回りに回転させる操作が入力された場合には、主に右方触覚提示器640bによって手指Fに触感刺激が与えられる(図18参照)。
ここまで説明した第六実施形態でも、第三実施形態と同様の効果を奏し、操作者OPは、実体の無いダイヤル362の操作でも、操作感を確実に感じることができる。加えて第六実施形態では、ダイヤル362を回転させる操作の過程において手指Fの姿勢が変化しても、触感制御部613による複数の触覚提示器の協調制御により、高感度部位SRには触感刺激が与えられ続ける。以上によれば、ダイヤル362の回転操作において、操作者OPは、ダイヤル362を掴んでいるバーチャルな感覚を継続して感じ続けることができる。
(他の実施形態)
以上、本発明による複数の実施形態について説明したが、本発明は、上記実施形態に限定して解釈されるものではなく、本発明の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
上記第一実施形態の変形例1では、触覚提示器30(図6参照)に替えて、右方触覚提示器(図10参照)が設けられている。こうした構成では、スライダ溝部によって明示されるツマミ部の移動可能な方向は、右方触覚提示器の超音波発生面に沿った上下方向VDに設定される。
上記第三実施形態の変形例2では、第二触覚提示器340(図8参照)が省略されている。このような変形例2でも、第一触覚提示器330(図8参照)に相当する構成が、空中表示領域60の下方から手指の高感度部位に触感刺激を与えて、ダイヤルを掴んでいるバーチャルな感覚を操作者に感じさせ続けることができる。
以上のように、触覚提示器の数及び配置は、車両において表示操作装置に対して確保可能なスペースに応じて適宜変更可能である。そして、操作対象物の映像の表示形態は、空中表示領域に対する触覚提示器の相対位置に対応させて、手指等の高感度部位が触覚提示器を向くようなアフォーダンスの絵図となるように、適宜変更可能である。
上記実施形態における各触覚提示器は、振動子を平板状に配列することによって超音波発生面を形成していた。しかし、振動子の配列される超音波発生面は、湾曲形状とされていてもよい。さらに、手指等の操作体に触感刺激を与えることができれば、触覚提示器は、超音波を用いた構成でなくてもよい。例えば、収束させた気流を操作体へ向けて射出することにより、操作体に触感刺激を与える装置が触覚提示器として採用可能である。
上記実施形態における操作体特定器は、赤外線カメラの撮像画像を解析することにより、手指等の位置及び姿勢を検出していた。しかし、空中にある操作体の状態を検出可能な種々の構成が、操作体特定器として採用可能である。例えば、ステレオカメラ、TOF(Time Of Flight)方式の距離画像カメラ、高感度な静電容量センサ等が、操作体特定器をして採用可能である。
上記実施形態における空間表示器は、リフレクタ52(図2参照)によって空間に結像させた映像を操作者に視認させる構成であった。しかし、空間に映像を表示することが可能なスクリーンレスの空中ディスプレイであれば、空間表示器は、リフレクタ52を用いない構成であってもよい。
上記実施形態における空中表示領域の規定位置、形状、大きさ、及び姿勢等は、適宜変更可能である。例えば、空中表示領域は、縦長の矩形形状及び横長の楕円形状等であってもよい。また、空中表示領域の上下方向VD及び左右方向HDは、静止状態にある車両の鉛直方向及び幅方向に対して傾斜していてもよい。例えば、空中表示領域の正面を運転席のヘッドレストへ向ける配置により、運転席に座る操作者に空中表示領域に表示されている映像が見易くされてもよい。
上記第一実施形態による表示操作装置では、操作者は、空中表示領域に表示される映像を透過して、奥側を視認可能であった。故に、表示操作装置は、運転者の目線に近い高さに空中表示領域を位置させて、運転席に座る操作者の視線移動の負荷を軽減させることができた。一方、第三実施形態の表示操作装置では、第二触覚提示器が空中表示領域の奥側に位置しているため、操作者は、空中表示領域の向こう側を視認し難くなる。故に、第三実施形態のような表示操作装置は、運転席に座る操作者の手元近傍、例えばセンターコンソールの直上に、空中表示領域を位置させるのが望ましい。
上記実施形態の表示操作装置は、空調装置及びオーディオ装置等の操作を受け付けるインターフェースであった。しかし、表示操作装置への入力によって操作可能な車載機器は、上述の装置に限定されない。また、各車載機器を操作する際に表示されるメニュー画面は、上記実施形態のように空中表示領域に表示されてもよく、又はコンビネーションメータの液晶画面のような他の表示領域に表示されてもよい。
上記第一実施形態等では、操作者は、表示されたツマミ部を操作するために、手指を触覚提示領域に差し込んでいた。故に、手指の腹から側面の範囲が高感度部位とされ、触覚提示器へ向くよう誘導されていた。一方、第四実施形態では、操作者は、手の全体を触覚提示領域に差し込んでいた。故に、手の平が高感度部位とされ、触覚提示器へ向くように誘導されていた。以上のように、操作者による入力が想定される操作方法に合わせて、高感度部位とされる範囲は、適宜設定可能である。但し、高感度部位とされる範囲には、触覚提示領域にある他の範囲よりも、生体触覚センサとして機能する受容器が高密度で分布していることが望ましい。
上記第一実施形態等では、触覚提示器及び空間表示器のそれぞれに制御部が設けられていた。また上記第三実施形態等では、触覚提示器及び空間表示器を制御する制御部は、制御ユニットに纏めて設けられていた。このような各制御部によって提供されていた機能は、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって提供可能である。例えば、空間表示器に設けられた制御回路のプロセッサが、触覚提示器の制御、又は画像解析の解析による操作体の位置及び姿勢の特定を行うことも可能である。
上記実施形態では、車両用の表示操作装置に本発明を適用した例を説明したが、本発明の適用対象は、車両に搭載される表示操作装置に限定されない。例えば、本発明を適用した表示装置は、手指等が有体物に触れないため、特に衛生管理の厳しい医療機器のインターフェースに好適である。さらに、現金自動預け払い機等の不特定多数の操作者によって操作が入力される機器のインターフェースにも、本発明を適用した表示操作装置は好適である。
13,32,513,613 触感制御部、21 位置特定部(位置特定器)、22 姿勢特定部(姿勢特定器)、30,530 触覚提示器、330 第一触覚提示器(触覚提示器)、340 第二触覚提示器、430,640a 左方触覚提示器(触覚提示器)、440,640b 右方触覚提示器(触覚提示器)、630 下方触覚提示器(触覚提示器)、31,431,441 超音波発生面(発生面)、50 空間表示器、60 空中表示領域、61,261,361,461 操作対象物、62 ツマミ部(接触部)、262 押釦(押釦部)、362 ダイヤル(ダイヤル部)、462,463 ガイド表示部、100,300,400,500,600 表示操作装置、580 移動機構、OP 操作者、F 手指(操作体)、SR 高感度部位、DR 低感度部位、HD 左右方向(対向方向)

Claims (11)

  1. 空間に表示された操作対象物(61,261,361,461)の映像を操作者(OP)に操作させる表示操作装置であって、
    空間に規定される仮想の空中表示領域(60)に、前記操作対象物の映像を表示する空間表示器(50)と、
    前記空中表示領域にある操作体(F)の位置を特定する位置特定器(21)と、
    前記位置特定器にて位置を特定された前記操作体が前記操作対象物の映像に触れると、この操作体に非接触で触感刺激を与える触覚提示器(30,330,430,440,530,630)と、を備え、
    前記操作対象物の映像は、前記操作者の一部である前記操作体において触感刺激への感度の高い高感度部位(SR)が、前記触覚提示器による触感刺激を受け易い方向を向くように、前記操作体の状態を誘導する表示態様であることを特徴とする表示操作装置。
  2. 前記触覚提示器は、前記空中表示領域を向く姿勢に設けられて前記操作体に触感刺激を発生させる発生面(31)を有し、
    前記空間表示器は、前記発生面に沿って移動可能な接触部(62)を含む前記操作対象物の映像を表示することを特徴とする請求項1に記載の表示操作装置。
  3. 前記触覚提示器は、前記接触部を移動させる操作が行われた場合に、当該接触部を挟んでいる前記操作体の二つの部位のうちで移動方向前側にある部位よりも移動方向後側にある部位に対して、強い触感刺激を発生させることを特徴とする請求項2に記載の表示操作装置。
  4. 前記空間表示器は、前記触覚提示器へ向けてのプッシュ操作が可能な押釦部(262)を含む前記操作対象物の映像を表示することを特徴とする請求項1に記載の表示操作装置。
  5. 前記触覚提示器(330,530,630)は、前記空中表示領域の下方に配置され、
    前記空間表示器は、面状に規定された前記空中表示領域に対して仮想の回転軸を交差させた姿勢の回転可能なダイヤル部(362)、を含む前記操作対象物の映像を表示することを特徴とする請求項1に記載の表示操作装置。
  6. 前記空中表示領域にある前記操作体の姿勢を特定する姿勢特定器(22)と、
    前記姿勢特定器により特定された前記操作体の姿勢に基づき、前記高感度部位に触感刺激を与え易い位置へ前記触覚提示器(530)を移動させる移動機構(580)と、をさらに備えることを特徴とする請求項5に記載の表示操作装置。
  7. 多階層に構成されたメニュー画面群を操作可能な表示操作装置であって、
    前記触覚提示器としての第一触覚提示器(330)とは別に、前記空中表示領域の奥側に配置される第二触覚提示器(340)をさらに備え、
    前記空間表示器は、前記回転軸に沿って奥側へ押し込む操作により、前記メニュー画面群の階層を遷移させる前記ダイヤル部を表示し、
    前記第二触覚提示器は、前記操作体によって前記ダイヤル部を奥側へ押し込む操作が行われた場合に、前記操作体に触感刺激を発生させることを特徴とする請求項5又は6に記載の表示操作装置。
  8. 前記空中表示領域に対して互いに異なる位置に設けられる複数の前記触覚提示器と、
    前記空中表示領域にある前記操作体の姿勢を特定する姿勢特定器(22)と、
    前記姿勢特定器により特定された前記操作体の姿勢に基づき、複数の前記触覚提示器のうちで、前記高感度部位に触感刺激を与え易い位置にある少なくとも一つによって前記操作体に触感刺激が与えられるよう、各前記触覚提示器を制御する触感制御部(613)と、を備えることを特徴とする請求項5に記載の表示操作装置。
  9. 前記触覚提示器は、前記空中表示領域の両側に一つずつ互いに対向して設けられ、
    前記空間表示器は、ガイド表示部(462,463)を含む前記操作対象物の映像を表示し、
    前記ガイド表示部は、二つの前記触覚提示器が並ぶ対向方向(HD)に沿って、前記操作体を前記空中表示領域内で移動させる操作を案内する表示態様であることを特徴とする請求項1に記載の表示操作装置。
  10. 二つの前記触覚提示器のうちで、前記高感度部位よりも感度の低い低感度部位(DR)に触感刺激を与える一方は、前記高感度部位に触感刺激を与える他方よりも、強い触感刺激を発生させることを特徴とする請求項9に記載の表示操作装置。
  11. 前記触覚提示器は、移動する前記操作体が当該触覚提示器に近づいてくる場合に、当該操作体が遠ざかる場合よりも強い触感刺激を発生させることを特徴とする請求項9又は10に記載の表示操作装置。
JP2015145926A 2015-07-23 2015-07-23 表示操作装置 Pending JP2017027401A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015145926A JP2017027401A (ja) 2015-07-23 2015-07-23 表示操作装置
US15/745,963 US20180210551A1 (en) 2015-07-23 2016-06-21 Display manipulation device
PCT/JP2016/002985 WO2017013834A1 (ja) 2015-07-23 2016-06-21 表示操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015145926A JP2017027401A (ja) 2015-07-23 2015-07-23 表示操作装置

Publications (2)

Publication Number Publication Date
JP2017027401A true JP2017027401A (ja) 2017-02-02
JP2017027401A5 JP2017027401A5 (ja) 2017-07-06

Family

ID=57834158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015145926A Pending JP2017027401A (ja) 2015-07-23 2015-07-23 表示操作装置

Country Status (3)

Country Link
US (1) US20180210551A1 (ja)
JP (1) JP2017027401A (ja)
WO (1) WO2017013834A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019023062A (ja) * 2017-06-01 2019-02-14 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH システムの操縦または挙動を自動で実行するためのシステムおよび方法
WO2019146032A1 (ja) * 2018-01-25 2019-08-01 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
JP2019139698A (ja) * 2018-02-15 2019-08-22 有限会社ワタナベエレクトロニクス 非接触入力システム、方法およびプログラム
JP2019144672A (ja) * 2018-02-16 2019-08-29 トヨタ自動車株式会社 操作認識装置
JP2020064631A (ja) * 2018-10-11 2020-04-23 オムロン株式会社 入力装置
JP2020160877A (ja) * 2019-03-27 2020-10-01 株式会社Subaru 車両の非接触操作装置、および車両
JP2020160874A (ja) * 2019-03-27 2020-10-01 株式会社Subaru 車両の非接触操作装置、および車両
JP2022503796A (ja) * 2018-10-01 2022-01-12 レイア、インコーポレイテッド ホログラフィックリアリティシステム、マルチビューディスプレイ、および方法
WO2022009758A1 (ja) * 2020-07-08 2022-01-13 株式会社ニコン 音場生成装置、音場生成方法、および音場生成プログラム
WO2022018926A1 (ja) * 2020-07-22 2022-01-27 日本電産サンキョー株式会社 入力装置および入力装置の制御方法
JP2022019992A (ja) * 2017-07-17 2022-01-27 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ディスプレイ装置
US11320669B2 (en) 2019-03-27 2022-05-03 Subaru Corporation Non-contact operating apparatus for vehicle and vehicle

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6733731B2 (ja) * 2016-06-28 2020-08-05 株式会社ニコン 制御装置、プログラムおよび制御方法
CN109407908B (zh) * 2018-09-30 2020-09-04 清华大学 一种带有触觉引导功能的图形显示器及其使用方法
DE102019211526A1 (de) * 2019-08-01 2021-02-04 Siemens Healthcare Gmbh Verfahren und System zum Erzeugen eines angereicherten Bildes eines Zielobjekts, und entsprechendes Computerprogramm und computerlesbares Speichermedium
US11691514B2 (en) * 2021-02-09 2023-07-04 Hyundai Mobis Co., Ltd. Vehicle display device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011321A1 (ja) * 2010-07-23 2012-01-26 日本電気株式会社 立体表示装置及び立体表示方法
US20150007025A1 (en) * 2013-07-01 2015-01-01 Nokia Corporation Apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4713070B2 (ja) * 2003-08-26 2011-06-29 ヤマハ株式会社 ポインティングデバイス
JP2006323492A (ja) * 2005-05-17 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> 制御装置およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011321A1 (ja) * 2010-07-23 2012-01-26 日本電気株式会社 立体表示装置及び立体表示方法
US20150007025A1 (en) * 2013-07-01 2015-01-01 Nokia Corporation Apparatus

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019023062A (ja) * 2017-06-01 2019-02-14 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH システムの操縦または挙動を自動で実行するためのシステムおよび方法
EP3409553B1 (en) * 2017-06-01 2021-08-04 Honda Research Institute Europe GmbH System and method for automated execution of a maneuver or behavior of a system
JP2022019992A (ja) * 2017-07-17 2022-01-27 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ディスプレイ装置
JP7366109B2 (ja) 2017-07-17 2023-10-20 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ディスプレイ装置
WO2019146032A1 (ja) * 2018-01-25 2019-08-01 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
JPWO2019146032A1 (ja) * 2018-01-25 2020-07-02 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
JP2019139698A (ja) * 2018-02-15 2019-08-22 有限会社ワタナベエレクトロニクス 非接触入力システム、方法およびプログラム
JP7017675B2 (ja) 2018-02-15 2022-02-09 有限会社ワタナベエレクトロニクス 非接触入力システム、方法およびプログラム
JP2019144672A (ja) * 2018-02-16 2019-08-29 トヨタ自動車株式会社 操作認識装置
JP2022503796A (ja) * 2018-10-01 2022-01-12 レイア、インコーポレイテッド ホログラフィックリアリティシステム、マルチビューディスプレイ、および方法
JP2020064631A (ja) * 2018-10-11 2020-04-23 オムロン株式会社 入力装置
US11385715B2 (en) 2019-03-27 2022-07-12 Subaru Corporation Non-contact operating apparatus for vehicle and vehicle
US11320669B2 (en) 2019-03-27 2022-05-03 Subaru Corporation Non-contact operating apparatus for vehicle and vehicle
JP2020160874A (ja) * 2019-03-27 2020-10-01 株式会社Subaru 車両の非接触操作装置、および車両
US11440407B2 (en) 2019-03-27 2022-09-13 Subaru Corporation Non-contact operating apparatus for vehicle and vehicle
JP7336228B2 (ja) 2019-03-27 2023-08-31 株式会社Subaru 車両の非接触操作装置、および車両
JP2020160877A (ja) * 2019-03-27 2020-10-01 株式会社Subaru 車両の非接触操作装置、および車両
JP7377615B2 (ja) 2019-03-27 2023-11-10 株式会社Subaru 車両の非接触操作装置、および車両
WO2022009758A1 (ja) * 2020-07-08 2022-01-13 株式会社ニコン 音場生成装置、音場生成方法、および音場生成プログラム
WO2022018926A1 (ja) * 2020-07-22 2022-01-27 日本電産サンキョー株式会社 入力装置および入力装置の制御方法

Also Published As

Publication number Publication date
US20180210551A1 (en) 2018-07-26
WO2017013834A1 (ja) 2017-01-26

Similar Documents

Publication Publication Date Title
WO2017013834A1 (ja) 表示操作装置
US20230320799A1 (en) User-interface control using master controller
US10417880B2 (en) Haptic device incorporating stretch characteristics
CN104750247B (zh) 使用单个控制器和支持触觉的用户接口控制多个显示器的系统和方法
EP2624238B1 (en) Virtual mock up with haptic hand held aid
US20210030491A1 (en) Interaction between user-interface and master controller
CN106919294B (zh) 一种3d触控交互装置、其触控交互方法及显示装置
US10821831B2 (en) Method for interacting with image contents displayed on a display device in a transportation vehicle
CN108434726A (zh) 自动局部触觉生成系统
EP3220234A1 (en) Gesture input system
Mahr et al. Determining human-centered parameters of ergonomic micro-gesture interaction for drivers using the theater approach
KR101518727B1 (ko) 입체 인터랙션 시스템 및 입체 인터랙션 방법
US20150323988A1 (en) Operating apparatus for an electronic device
US20140215403A1 (en) Method and device for making available a user interface, in particular in a vehicle
RU2604430C2 (ru) Взаимодействие с трехмерным виртуальным динамическим отображением
CN106066689B (zh) 基于ar或vr系统的人机交互方法和装置
JP6115421B2 (ja) 入力装置および入力システム
JP2014041441A (ja) 背面触覚情報提示型情報入力装置およびその方法
KR102589770B1 (ko) 초음파 이미징 시스템
EP1182535A1 (en) Haptic terminal
CN117120967A (zh) 触觉反馈控制方法、触觉反馈控制装置及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181002