JP2014179097A - ポインティングによる情報クエリ - Google Patents

ポインティングによる情報クエリ Download PDF

Info

Publication number
JP2014179097A
JP2014179097A JP2014050616A JP2014050616A JP2014179097A JP 2014179097 A JP2014179097 A JP 2014179097A JP 2014050616 A JP2014050616 A JP 2014050616A JP 2014050616 A JP2014050616 A JP 2014050616A JP 2014179097 A JP2014179097 A JP 2014179097A
Authority
JP
Japan
Prior art keywords
fingertip
display device
user
hand
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014050616A
Other languages
English (en)
Other versions
JP6335556B2 (ja
Inventor
Kikuo Fujimura
キクオ、フジムラ
Ng-Thow-Hing Victor
ソー ヒン ビクター、ン
Dariush Behzad
ベザド、ダリウス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2014179097A publication Critical patent/JP2014179097A/ja
Application granted granted Critical
Publication of JP6335556B2 publication Critical patent/JP6335556B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザが車両の操作中にクエリ検索操作が素早く行える方法、システムを提供する。
【解決手段】第一の入力装置210を用いて、ユーザの指のオブジェクトまたはアイテムへのポインティングを検知し、第二入力装置220を用いて、前記オブジェクトまたはアイテムの選択のユーザによる指示を受け取る。前記第一の入力装置210により手の画像を撮像し、該画像を処理して、ポインティングする指の指先の位置に対応する表示装置上の位置を判定する。前記指の位置に対応するオブジェクトまたはアイテムは、前記第二の入力装置220が所定のユーザ入力を受け取った後に選択される。
【選択図】図2

Description

発明者
キクオ・フジムラ
ヴィクター・ントヒン
ベザド・ダリウシュ
関連出願とのクロスリファレンス
本開示は、2013年3月13日に出願された米国仮特許出願第61/780,023号の35U.S.C.119(e)に基づく優先権を主張するものであり、その出願の内容が、全体として本出願に組み入れられる。
本開示は、ユーザの指先の動きを追尾することによる車両内での情報クエリに関する。
車両の運転者は、車両内で、通常は、主に指や手を介してスイッチ、画面、キーパッド、その他の入力機構を使って装置を操作する。このような入力機構は、例えば、ナビゲーションシステム、エンターテインメントシステム、気候システム、電話システムの操作に利用することができる。また、ヘッドアップ・ディスプレイ(HUD)は、このようなシステムと連動して、車両のウィンドシールド上で情報を提示するために利用される。HUDは、ユーザが視線を道路から車両のダッシュボードやコンソールに移すことなく、種々の有用な情報を提示することができる。
車両内で、装置に対して所望の命令を発するために、入力機構に対して複雑な一連の操作を行わなければならないことがある。このような操作には、運転者は、一方の手で車両のハンドルを操作し、その間、他方の手で入力機構を操作することが必要になる。しかしながら、運転者にとっては、両手をハンドルに据え、入力装置を合間合間に短時間片手で操作することが好ましい。操作の複雑さによっては、運転者が望むように操作を実行できるまで、入力装置の操作を何回も試みる必要が生じる。
さらに、車両の速度によって、運転者が素早く入力することが必要になることがある。例えば、運転者が、高速道路上で付近のレストランを探している場合に、高速道路の出口を通過する前に、運転者には、ナビゲーションシステムでクエリ検索するために限られた時間しかない、ということがある。その出口を通過するまでにクエリ検索と応答がなされない場合は、次の出口に近いレストランをクエリ検索し直さなければならなくなる。ユーザが車両の操作に注力している最中にも、しばしば、このようなクエリ検索操作が行われる。これによって、注意を向ける時間が短くなり、手の可動性が低くなるために不正確な入力となる可能性が高まる。
注意を向ける時間と手の可動性に限りがあるために、運転者は、不正確なユーザ入力を行うことになりうる。このようなユーザ入力は、結果として、後続の修復措置において、もともと意図しない操作と時間の浪費を強いられることとなる。
実施形態は、指し示す(以下、「ポインティング」ともいう)指の指先の位置を判定するための、ユーサの手を含む深度画像の処理と、前記指先の位置に対応する表示装置上の位置または領域に示されたオブジェクトまたはアイテムに関連づけられた操作を実行するための選択信号の入力装置による受け取りに関する。車両内に配置された深度カメラは、ユーザの手を撮像し、その深度画像を生成する。撮像された深度画像を処理することによって、前記指し示す指の指先の位置を判定する。選択信号は、前記入力装置から受け取られ、前記指先の位置に対応する表示装置上の位置または領域に示されたアイテムまたはオブジェクトが選択されたことが示される。前記アイテムまたはオブジェクトに関連づけられた操作は、前記選択信号の受け取り後に実行される。
一実施形態においては、指先の位置を、手の骨格構造を生成することにより判定する。前記手の骨格構造は、複数の線分を含み、各線分は手の異なる部分を示す。
一実施形態においては、前記入力装置は、ユーザからの発声による命令を受け取るマイクロフォンを有する。選択信号は、発声による命令について発言認識を行うことによって生成される。
一実施形態においては、前記入力装置は、ボタンまたはスイッチを有し、選択信号は前記入力装置が操作されたことを示す。
一実施形態においては、操作の結果が表示装置に表示される。
一実施形態においては、前記表示装置は、複数の領域に分割さており、各領域は、各々の水平方向の位置に基づいて異なる水平方向の幅を有する。
一実施形態においては、前記表示装置は、人工的なグラフィック要素を車両のウィンドシールド上に投影する立体ヘッドアップディスプレイ(HUD)装置である。
一実施形態においては、指先の位置に対応する表示装置上の位置または領域を、第一のマッピングによって前記指先にマッピングされた複数の仮想エリアの中から、一つの仮想エリアを特定することによって判定する。
一実施形態においては、指先の位置に対応する表示装置上の位置または領域を、前記特定された仮想エリアに相当する表示装置上の位置または領域を第二のマッピングによって特定することによってさらに判定する。
一実施形態においては、前記複数の仮想エリアの各々は、半円の等角部の平面上への投影に沿って分割されている。
本明細書に記載された特徴と効果は、すべてを含んでいなく、特に、多くのさらなる特徴と効果が、図面、明細書、請求の範囲を参照すれば、当業者には明らかになるであろう。さらに、本明細書に使用されている表現は、主に読みやすさと教示のために選定されたものであり、必ずしも本主題の輪郭を示したり境界を示すために選定されたものではない点に留意すべきである。
本開示による教示は、添付図面と関連した以下の詳細な説明を参照すれば、容易に理解することができる。
一実施形態による、撮像装置とヘッドアップ表示装置を備える例示的な車両の側面図である。
一実施形態による、図1Aの例示的な車両の上面図である。
一実施形態による、例示的な命令処理システムのブロック図である。
一実施形態による、前記命令処理システムの例示的な画像処理モジュールのブロック図である。
一実施形態による、ユーザ命令を処理する例示的な方法のフローチャートである。
一実施形態による、ヘッドアップ表示(HUD)画像を投影され、ユーザによって見られる例示的なウィンドシールドの見え方を説明する図である。
一実施形態による、指の回転角度に基づき水平方向に分割された例示的な各セルを説明する図である。
一実施形態による、指の回転角度の、水平方向に分割された各セルへのマッピングを説明する図である。 一実施形態による、ポインティング装置を情報クエリシステムの操作に利用する例示的な命令システムを説明する図である。
図面を参照して、好ましい実施形態を以下に説明する。なお、同一の参照番号は、同一の、または機能的に同様の要素を示す。
本明細書中の「一実施形態」との記載は、実施形態に結びつけて記載された個々の特徴、構成、特性は、少なくとも一つの実施形態に含まれることを意味する。また、本明細書中の様々な箇所に記載された「一実施形態における」との表現は、必ずしも同一の実施形態を意味するものではない。
以下における詳細な説明には、コンピュータメモリ中のデータビット上での動作のアルゴリズムおよびシンボル表現の意味で記載されている箇所がある。これらのアルゴリズム的な記載と表現は、データ処理分野における当業者によって、その業務における内容を、同分野の他の当業者に、最も効率的に伝達するために用いられている。ここで、また、一般的に、アルゴリズムは、所望の結果に導くステップ(命令)の一貫性のあるシーケンスと考えられる。これらのステップは、物理量を伴う物理的操作を要求するステップである。必ずしもそうではないが、通常は、これらの量は、電気的、磁気的、または、光学的信号の形をとり、格納、伝送、結合、比較、その他の操作が可能である。場合によっては、主に共通に使うために、これらの信号をビット、値、エレメント、シンボル、文字、ターム、数字、等として表現するのが好都合である。さらに、場合によっては、物理量の物理的操作を要するステップの所定の構成を、一般性を損なわずに、モジュールまたはコード装置として言及することも好都合である。
しかしながら、これらすべての、および同様の表現は、適切な物理量と関連付けられるべきであり、これらの物理量に適用される単に便宜的な呼び方である。以下の検討から明らかなように、特に他のように記載ない限りは、明細書を通じて、「処理」、「演算」、「計算」、「判定」、「表示」、「決定」、等の表現を使用した考察は、コンピュータシステムのメモリ、レジスタ、あるいは、その他の情報格納、伝送、表示装置内の物理(電子)量として表現されるデータを操作および変換するコンピュータシステムあるいは同様の電子的計算装置におけるアクションまたは処理を意味すると解釈されるところである。
実施形態のある側面は、アルゴリズムの形式でここに記載されるプロセスのステップや命令を含む。プロセスのステップや命令はソフトウェア、ファームウェア、または、ハードウェアを組み込むことも可能で、ソフトウェアに組み込まれた場合は、様々なオペレーティングシステムにより使用される異なるプラットフォーム上にダウンロードされて動作させることも可能であることに留意するべきである。
実施形態は、ここでの動作を実行する装置にも関する。この装置は、必要とされる目的で特別に製作してもよく、あるいは、選択的に動作される、または、コンピュータ内に格納されたコンピュータプログラムによって再構成される汎用コンピュータによって構成してもよい。このようなコンピュータプログラムは、コンピュタ読取可能な記憶媒体、例えば、限定されないが、フロッピー(登録商標)ディスク、光学ディスク、CD−ROM,光磁気ディスク、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM,EEPROM、磁気または光学カード、特定用途向け集積回路 (ASIC)、あるいは、電子命令格納に適した各種媒体、に格納でき、各々はコンピュータシステムバスに接続される。さらに、本明細書で言及するコンピュータは、シングルプロセッサを有してもよく、あるいは、計算上の互換性を高めるためのマルチプロセッサ設計を採用したアーキテクチュアに基づいてもよい。
ここに提案されたアルゴリズムと表示は、本質的に、いかなる特定のコンピュータまたはその他の装置に関するものではない。各種の汎用システムも、ここにおける教示に従ったプログラムで使用できる。あるいは、方法における必要なステップを実行するために、より特化した装置を構築するのが好都合であると判明することもありうる。これら各種のシステムに要求される構成は、以下の記載から明らかになるであろう。さらに、実施形態は、いかなる特定のプログラミング言語も参照せずに記載されている。ここに記載された教示を実現するために様々なプログラミング言語が使用でき、ここに記載された具体的な表現の以下のいかなる言及も、実施可能であることと最良の形態を開示するために提示されていると解釈されるところである。
さらに、本明細書で使用されている表現は、主に読みやすさと教示目的で選択されており、本主題の輪郭を示したり境界を示すために選定されたものではない。従って、本開示は、限定はしないが、後記の請求項に記載された範囲の説明を意図している。
実施形態は、表示装置(例えば、ヘッドアップ表示装置)中のオブジェクトあるいはアイテムを介したナビゲーションに関し、前記表示装置はユーザの指(例えば、人さし指)のオブジェクトあるいはアイテムへのポインティングを検知するために第一の入力装置(例えばカメラ)を使用し、また、ユーザの前記オブジェクトあるいはアイテムの選択の指示を受け取るために第二の入力装置(例えばマイクロフォン)を使用する。手の画像が第一の入力装置によって撮像され、ポインティングする指の指先の位置に対応する表示装置上の位置を判定するために処理される。指先の位置に対応するオブジェクトまたはアイテムは、第二の入力装置からの所定のユーザ入力を第二の入力装置が受け取った後に選択される。
ここに使用される「ユーザ」という表現は、車両の運転者とともに車両の搭乗者を含む。ユーザは、ともかく車両内で一または複数の装置をコントロールしようとする者である。
ここに使用される「ポインティングする指」とは、ポインティングによって表示装置上の位置を示すために使われるユーザの指を意味する。ポインティング指は伸ばされ、他の指は折曲げられているか、何か(例えばハンドル)を握っている。ポインティングする指は、通常は人差し指であるが、他の指もポインティングする指として使用できる。
指先検知機構を備えた車両の概要
図1Aおよび1Bは、命令処理システムを備える一実施形態による車両100を説明する図である。前記命令処理システムは、他の構成要素とともに、撮像装置120とヘッドアップ表示(HUD)システム130とを含む。前記命令処理システムは、車両100の他の構成要素(例えばワイヤレス通信システム)に接続されて、様々なオペレーションを実行する。前記命令処理システムは、ユーザの指によってポインティングされた表示装置上の位置または領域を検知する。
撮像装置120は、ユーザ(運転者または同乗者)を撮像し、その画像をさらなる処理のために画像処理モジュール214に送る。撮像装置120は、ユーザの方に向けて配置され、少なくともユーザの右手か左手を含むユーザの正面画像を生成する。一実施形態において、撮像装置120は、カメラからユーザの体の異なる部位までの距離を検知する深度カメラである。撮像された画像は、グレースケール画像であり、より明るい画素は、ユーザの撮像装置120により近い部位を示し、より暗い画素は、ユーザのあるいは背景の物体の撮像装置120からより離れた部分を示す。
HUDシステム130は、グラフィック要素を車両100のウィンドシールド上に投影し、ユーザは、車外の実物体に重ねて投影された画像を見ることができる。グラフィック要素とは、例えば、アイコン、テキストボックス、広告、矢印、線要素である。ユーザは、これらのグラフィック要素の一部、または、すべてを所定のオペレーションのために選択できる。
一実施形態においては、HUDシステム130は、ユーザがウィンドシールドの反対側、すなわち車両の外側に存在するものと知覚する実物体上に、グラフィック要素を投影することによって拡張現実感(AR)を具現化する。グラフィック要素が、実物体の上に置かれるか、実物体と混ぜ合わせられることによって、ユーザがそれらのグラフィック要素を実物体の一部であると知覚する。3次元立体HUDを使うと、グラフィック要素の焦点を実世界の実物体とマッチングすることによって、グラフィック要素と実世界の実物体をより現実的に混ぜ合わせることができる。ARを使ってウィンドシールド上示された画像の例を図5を参照して、以下に詳細に説明する。
前記命令処理システムは、図1Aおよび1Bに示されていない他の構成要素を含みうる。例えば、前記命令処理システムは、車両100のダッシュボードまたは他の箇所に設置された計算装置を含み、撮像装置120によって撮像された画像をさらに処理することもできる。
実施形態は、表示装置として主にHUDの使用する場合を引用して記載されているが、他の実施形態において、液晶ディスプレイ(LCD)、その他の表示装置を使用することもできる。このような実施形態において、前記命令処理システムは、このような表示装置内に表示される表示アイテムの選択に使用することもできる。
命令処理システムの例
図2は、一実施形態による命令処理システム200を説明するブロック図である。命令処理システム200によって、車両で実行すべき情報クエリオペレーションのユーザによる操作と選択が可能である。命令処理システム200は、他の構成要素とともに、撮像装置210、画像処理モジュール214、入力装置220、選択検知モジュール224、情報クエリシステム240、および、HUDシステム130を有する。図に図示されていないが、命令処理システム200は、合成音声を生成するために追加の入力装置のような他の構成要素を有することもできる。
画像処理モジュール214は、ハードウェア、ファームウェア、ソフトウェア、または、それらの組み合わせであり、画像212を処理してユーザの指先の位置216を検知する。画像212は、深度画像である。画像処理モジュール214は、画像212をクロップしてユーザの手のあたりの画像212の領域を抽出し、画像212から手の骨格構造を生成する。
入力装置220は、ハードウェア、ファームウェア、ソフトウェア、または、それらの組み合わせであり、撮像とは別にユーザが使用する機構からの入力を受け取る。入力装置220は、発声による命令を検知するマイクロフォンである。あるいは、入力装置220は、車両のハンドルあるいはダッシュボードのような車両の容易に手の届く箇所に設けられたボタンやスイッチでもよい。指先の動きによって示された表示装置上の位置または領域がユーザがオペレーションの実行を意図する位置または領域であるとユーザが決定した後に、入力装置220は、オペレーションの選択を示すユーザ入力を受け取る。ユーザが入力した結果として、入力装置220によりセンサ信号222が生成される。
選択検知モジュール224はインターフェース装置であり、センサ信号222を受信し、指先の動きによって示された表示装置上の位置または領域がユーザがオペレーションの実行を意図する位置または領域であることを示す選択信号226を生成する。発声による命令を検知するために、マイクロフォンが入力装置220として使用される場合は、選択検知モジュール224は、発言認識システムの一部であってもよい。
情報クエリシステム240は、ハードウェア、ファームウェア、ソフトウェア、または、それらの組み合わせであり、ユーザ入力に基づいて、様々な情報クエリオペレーションを実行する。例示的な情報クエリシステム240は、他のシステムとともに、車載ナビゲーションシステム、エンターテインメントシステム、電話操作システム、車内温度調節システムを備えている。情報クエリシステム240は、このような機能の全体または一部を実行する複合システムでもよい。情報クエリシステム240は、さらに、クエリ情報228を外部のシステムに送信したり、外部のシステムから応答情報を受信してもよい。
情報クエリシステム240は、ユーザの指先の位置216と選択信号226を受信し、ユーザの所望するようにオペレーションを実行する。ユーザの指先の位置216と選択信号226に示されるようにオペレーションを実行後、情報クエリシステム240は、表示情報244をHUDシステム130または他の表示装置に送り、ユーザに関連情報を提示する。
一または複数の実施形態において、入力装置220および選択検知モジュール224は、設けなくてもよい。代わりに、指の所定の動作(例えば、素早く2回動かせる動作)を行い、これを検知することによって、HUDシステム130上に示されたオブジェクトまたはアイテムの選択を示してもよい。
画像処理モジュールのアーキテクチュアの例
図3は、一実施形態による、画像処理モジュール214の構成要素を説明するブロック図である。画像処理モジュール214は、他の構成要素とともに、プロセッサ312、入力モジュール324、出力モジュール326、メモリ340、およびこれらの構成要素を接続するバス330を有する。画像処理モジュール214は、分離されたスタンドアローンの装置でも、あるいは、画像処理以外のオペレーションも行うより大きなシステムの一部でもよい。
プロセッサ312は、メモリ340に格納された命令を実行するハードウェア要素である。入力モジュール324は、撮像装置210から画像212を受け取るハードウェア要素である。入力モジュール324は、一またはそれ以上の画像212を仮に記憶するためのバッファを備える。出力モジュール326は、指先の位置216を情報クエリシステムに送るための構成要素である。これらの構成要素は、1つの集積回路(IC)チップまたは複数のICチップのいずれでも具現化される。
メモリ340は、ソフトウェア要素を格納する持続性コンピュータ読取可能記憶媒体である。メモリ340に格納されたソフトウェア要素は、他の構成要素とともに、補正モジュール342、抽出モジュール346、骨格モジュール350、指先検知モジュール354、座標マッピングモジュール358を備える。さらに、メモリ340は、ユーザの手または指先の軌跡を追尾し記憶するトラッキングモジュールと画像212内のノイズを除去するフィルタリングモジュールのような他のモジュールも格納する。
補正モジュール342は、画像処理モジュール214を補正するユーザ入力を受け取り記憶するための命令を格納する。一または複数の実施形態において、補正は、ユーザに(i)手を楽な姿勢でハンドル上に置き、(ii)手のひらをハンドルに置いた状態で、ポインティングする指(例えば人差し指)を右端、左端、底、上端の位置に移動する、ように指示して実行する。これら4点に対応する指先の位置は、表示装置(例えばHUDウィンドシールド)上の位置または領域(すなわちセル)にマッピングされる。表示装置内で、指先と他の位置または領域の間の位置は、補間によってマッピングされる。
抽出モジュール346は、画像212をクロッピングしてユーザの手を示す画像212の領域を抽出する命令を格納する。ユーザの手はカメラに最も近い傾向があり、このため手を示す画像212の領域を画像の深度情報を使用することによって抽出できる。抽出の精度を高めるために、画素のクラスタの動きを経時的に追尾することができ、そのために、例えば米国特許第7,308,112号(2007年12月11日発行、以下、「112特許」という)および米国特許第8,351,646号(2013年1月8日発行、以下、「646特許」という)に記載された技術を用いるが、その全体がここに参照され組み入れられている。
骨格モジュール350は抽出された画像中の手の骨格構造を生成する。骨格構造を生成するために用いられる多くの技術のうちの1つが、「112特許」の「Skeleton Generation」(骨格生成)と題された節に記載されている。その骨格構造は、少なくともポインティングする指を示す線分を含み、さらに、ユーザの他の指を示す線分も含みうる。
指先検知モジュール354は、手の前記骨格構造に基づいて指先の位置を判定する。指先の位置を判定する一つの方法では、ポインティングする指を表す線分に沿って移動する円を用いて、指先の位置を判定する。別の一つの方法では、カメラに近い方の手の一つ、または複数の画素の位置を用いて、指先の位置と判定する。ポインティングする指が、カメラをポインティングしている場合は、骨格モジュール350は、ポインティングする指を精度よく表す線分を生成しない可能性があり、このため、骨格構造を用いずに、カメラに近い方の手の画素の点を、指先に相当するものとして選択する。指先検知モジュール354で判定された指先の位置は座標マッピングモジュール358に送られる。
座標マッピングモジュール358は、補正モジュール342中に生成されたマッピング情報と、指先検知モジュール354によって検知された指先の位置情報を処理して指先の位置に対応する表示装置内の座標を決定する。一実施形態においては、図5を参照して以下に詳細に説明するように、これらの座標は表示装置内の点または領域の座標に変換される。
指先の位置を用いて情報をクエリ検索する方法の例
図4は、一実施形態による、ユーザ命令を処理する方法のフローチャートである。先ず、ステップ420で、車両内のユーザのための補正がなされる。補正において、ユーザは両手をハンドルに据え、所定の方向を指でポインティングする。補正の結果、ユーザの指先の位置と表示装置上の位置または領域を対応づけたマッピングが確立する。
表示装置上の位置を、ステップ430で、ユーザのポインティングしている指の指先の位置を検知することによって判定する。ユーザの指先の位置は深度画像を処理することによって検知される。
ユーザの指先の位置に対応する前記位置または領域のアイテムまたはオブジェクトの選択は、ステップ440で、入力装置220から受け取られる。アイテムまたはオブジェクトの選択は、ポインタがアイテムまたはオブジェクト上に置かれた後、マウス上のボタンをクリックまたはダブルクリックするディスクトップまたはラップトップコンピュータにおける操作に相当する。
アイテムまたはオブジェクトの選択に基づいて、ステップ450で情報クエリシステム240によってオペレーションが実行される。このオペレーションには、例えば、ターゲットのアイテムまたはオブジェクトの情報の車載ナビゲーションシステムまたはエンターテインメントシステムからの検索、外部ソースからの遠隔測定データの収集、実行するアプリケーションの起動、電話呼の送信または受信、現在の走行セッションにおける数値データ(例えば、走行距離や速度)の検索を含む。オペレーションの結果は、表示装置上に表示される。
上記の実施形態は、指がポインティングする方向を検知するために、撮像された画像から生成された骨格を用いる場合を説明したが、骨格を用いずにポインティング方向を検知するために様々なスキームを用いることができる。
表示装置内のセル分割の例
図5は、一実施形態による、HUD画像が投影されたウィンドシールド上にユーザが見るビュー800を説明する図である。ビュー800は、ウィンドシールドの外側の実際の物体とともに、HUDシステム130によってウィンドシールドに投影された人工的なグラフィック要素も含む。一実施形態において、拡張現実感(AR)が、実画像を人工的なグラフィック要素と混ぜ合わせることによって得られる。ユーザは、ポインティングする指(例えば、人差し指)を用いて、ウィンドシールドに示されたオブジェクトまたはアイテムを検索し選択する。
指の垂直方向移動の範囲は、水平方向移動と比較してより制約され、HUD画像800は、水平方向の解像度と比較してより低い垂直方向の解像度を有する。図5の例では、垂直方向の解像度は、10領域(すなわちセル)であり、水平方向の解像度は、17セルである。ユーザは、ポインティングする指を動かしてこれらのセルのうちの1つ(例えばセル810)を選択して所定のオペレーションを実行する。図5の例では、セル810が選択されている。結果として、セル810に示される画像の一部を有するビルディング804の情報814がHUDウィンドシールド上に示される。
さらに、セルのサイズは、右あるいは左端の位置と比較して、中央の位置で大きい。最も右または左の端は、図6を参照して以下に説明するように、両端での指の動きが限られているため、より届きにくい。従って、HUDウィンドシールドの中央にあるセルがより広いエリアを占めるようにすることで、ユーザは、指の動きでセルの選択をより直観的にコントロールすることができる。各セルの垂直方向の高さは図8では同じであるが、指を上端と下端に届くように移動することが難しいために、各セルの高さを変えてもよい。
一または複数の実施形態において、セルが指先の位置にマッピングされる。これらの実施形態においては、画像処理モジュール214は、指先の現在の位置に対応するセルを特定する。他のオペレーション・モードでは、画像処理モジュール214は、指先の位置の中心の座標を生成する。
一実施形態において、指先の位置に対応するHUD画像800上の位置を明るくして、ユーザに、関心のあるオブジェクトまたはアイテムを正しくポインティングしやすくする。
図6は、一実施形態による、指の回転角度に基づいた、セルの水平方向の分割を説明する図である。ポインティングする指は、可動範囲を制限されるが、特に他の指がハンドルを握っているときに制限される。図6の実施形態では、説明上8つのセルだけが図示されているが、実際には、表示装置の領域は、より高い解像度(例えば、水平方向の分割を30セルに)で区分されている。
図6のHUD画像のセルは、表示装置の水平方向寸法を分割し、それによって、各セルは、(sine nxθ − sine (n−1)θ)に相当する幅を有する。ここで、nは、中央のセル(中央のセルのnは0)から始まり、左右の端に向かって増加するセルのシーケンスである。すなわち、セルは、切断された半円の中心のまわりの等角区間の投影に対応する位置で分割されている。図6のようなセルの分割の結果、ポインティングする指を水平に動かすときに、選択操作のより直感的なコントロールが可能になる。
図5および図6に図示された表示装置の領域の水平方向の分割は、単に説明のためである。表示装置の領域の水平方向の分割には、様々な他の分割も可能である。例えば、表示装置の領域は、各セルが同一の水平方向の幅を有するように分割することもできる。
図7は、一実施形態による、指の回転角度の、水平方向に分割された各セルへのマッピングを説明する図である。図7に示す実施形態では、指の回転角度は、図6を参照した上記の場合と同様に、異なる幅を有する仮想コラム914のうちの1つにマッピングされる。具体的には、仮想コラムは、切断された半円の中心まわりの等角区間の投影に対応する位置で分割されている。
しかしながら、仮想コラム914は、水平方向に等しい間隔のセルを有するビュー画面800に再度マッピングされている。すなわち、指の回転は、二重のマッピングによってセルにマッピングされており、一つは、指から仮想コラム914に、次に、仮想コラムからビュー画面800へのマッピングである。このようにして、左右の最端に近いところでは、指の小さな回転により、ビュー画面800の左端と右端での相対的に大きな水平方向の移動を生ぜしめる。指の回転を仮想コラムにマッピングし、次に仮想コラムをビュー画面800のセルにマッピングする二重マッピングによって、ユーザは、より直感的に、指の回転によって選択操作を誘導し実行することができる。
一または複数の実施形態において、命令処理システム200は、書き込みモードで動作し、指先の動きが追尾されるため、ユーザはポインティングする指を動かして数字またはシンボルを描くことができる。書き込みモードは、入力装置220で所定のユーザ入力を行うことによって起動する。指先が動かされるにつれて、指先の位置が追尾される。指先の軌跡が得られ、記憶されているパターンのセットと比較されて、指先の軌跡に対応する文字やシンボルが判定される。ノイズを除去して指の追尾をより確実にするために、フィルタ(例えば、バターワース・フィルタ)を用いることができる。
一または複数の実施形態において、命令処理システム200は、車両以外の運輸装置にも使用される。命令処理システム200は、例えば、航空機や自動二輪車に使用できる。
実施形態において、ポインティングする指の代わりに、ポインティング装置を用いて、車両100のウィンドシールド上に示されたアイテムまたはオブジェクトをポインティングすることもできる。図8は、一実施形態による、ポインティング装置1010を情報クエリシステム240の操作に利用する命令システム1000を説明する図である。ポインティング装置1010は、限定されないが、キー・フォブ、携帯電話、リモート・コントローラ、ペンなどの様々な携帯装置で具現化される。ポインティング装置は、ユーザによって保持され、ウィンドシールドに示されるオブジェクトまたはアイテムに向かってポインティングされる。ポインティング装置1010によってポインティングされたオブジェクトまたはアイテムを選択するために、所定の動作(例えば、ボタンの押圧)は、ポインティング装置上でも、他の装置上でも可能である。
ポインティング装置1010は、他の構成要素とともに、ポインティング装置のポインティング方向を感知するセンサ1016と有線または無線通信を介して情報クエリシステム240に信号1222を送信する通信モジュール1018を含む。センサ1016は、ポインティング装置1010の動きと向きを検知するための一または複数の加速度計、ジャイロスコープ、磁気計を有する慣性センサである。ポインティング装置1010は、センサ1016からセンサ信号を受信する回路1020を備え、センサ信号を処理してビュー画面800の座標またはセルを示す。あるいは、センサ信号は、処理およびポインティング装置1010のポインティング方向の処理および検知のために情報クエリシステム240に送られる。一実施形態においては、センサと回路は、1つのユニットに統合される。例えば、WillistonやVermontのLORD MICROSTAIN SENSING SYSTEMSから調達される3DM方向センサを、センサと回路を備える1つのユニットとして使用できる。
一実施形態においては、ポインティング装置1010は、さらにウィンドシールドに向けて発光する光源を有する。光がウィンドシールドに当たると、光の点がウィンドシールド上に見られる。ウィンドシールド上に示された光によって、ユーザは、ポインティング装置1010がポインティングしているウィンドシールド上の位置を確認し、ポインティング装置1010の向きを調整することができ、それによって、ウィンドシールド上のオブジェクトまたはアイテムを選択することができる。
ポインティング装置1010の向きをウィンドシールド上の位置と合わせるために、補正が行われる。グローバル・ポジショニング・システム(GPS)または磁気計からの情報を、ポインティング装置1010の向きを自動的に補正するために使用することができる。
システム1000の情報クエリシステム240とHUDシステム130のアーキテクチャと機能は、図2の命令処理システム200の場合と略同様であるので、説明を簡潔とするために、その詳細な説明は、ここでは省略する。
以上、数通りの実施形態を記載したが、本開示の範囲内で様々な変更が可能である。

Claims (20)

  1. 車両内に置かれた深度カメラによって、ユーザの手を含み、前記深度カメラからユーザの部位までの距離を表す画素を有する深度画像を撮像するステップと、
    撮像された前記深度画像を処理することによって、前記手のポインティングする指の指先の位置を判定するステップと、
    前記指先の位置に対応する表示装置上の位置または領域を判定するステップと、
    前記車両内の入力装置から受信したセンサ信号に基づいて、前記表示装置上の判定された前記位置または領域のアイテムまたはオブジェクトの選択を示す選択信号を受信するステップと、
    前記選択信号の受信に反応して、前記選択されたアイテムまたはオブジェクトに関連付けられたオペレーションを実行するステップと、を含むことを特徴とする方法。
  2. 前記指先の前記位置を判定するステップは、複数の線分を含む前記手の骨格構造を生成することを含み、前記複数の線分の各々は、前記手の異なる部位を表すことを特徴とする請求項1に記載の方法。
  3. 前記ポインティングする指先によって描かれた文字またはシンボルを認識するために、前記指先の前記位置を追尾するステップをさらに含む請求項1に記載の方法。
  4. 前記入力装置が、前記ユーザからの発声による命令を受け取るマイクロフォンを有し、前記選択信号は、前記発声による命令の発言認識を実行ことによって生成されることを特徴とする請求項1に記載の方法。
  5. 前記入力装置が、ボタンまたはスイッチを有し、前記選択信号が前記入力装置が操作されたことを示すことを特徴とする請求項1に記載の方法。
  6. 前記オペレーションの結果を前記表示装置上に表示するステップをさらに含む請求項1に記載の方法。
  7. 前記表示装置は、複数の領域に分割され、前記複数の領域は、各々の水平方向の位置に基づいて異なる水平方向の幅を有し、前記指先の複数の位置の各々が、前記複数の領域のうちの1つにマッピングされることを特徴とする請求項1に記載の方法。
  8. 前記表示装置が、アイテムまたはオブジェクトに対応する人工的なグラフィック要素を前記車両のウィンドシールド上に投影する立体ヘッドアップ表示(HUD)装置を有することを特徴とする請求項1に記載の方法。
  9. 前記指先の前記位置に対応する前記表示装置上の前記位置または領域は、第一のマッピングによって前記指先にマッピングされた前記複数の仮想エリアの1つを特定することによって判定されることを特徴とする請求項1に記載の方法。
  10. 前記指先の前記位置に対応する前記表示装置上の前記位置または領域は、前記特定された仮想エリアに対応する前記表示装置上の前記位置または領域を第二のマッピングによって特定することによって、さらに判定されることを特徴とする請求項9に記載の方法。
  11. 前記複数の仮想エリアの各々は、半円の等角区間の平面上への投影であることを特徴とする請求項9に記載の方法。
  12. 命令処理システムであって、
    車両内に置かれ、ユーザの手を含む深度画像を撮像するように構成され、それ自体から前記ユーザの部位までの距離を表す画素を有する深度カメラと、
    前記手のポインティングする指の指先の位置を、前記撮像された深度画像を処理することによって判定し、
    前記指先の前記位置に対応する表示装置上の位置または領域を判定する、ように構成された画像処理モジュールと、
    車両内の入力装置から受信されたセンサ信号に基づいて、前記表示装置上の前記判定された位置または領域のアイテムまたはオブジェクトの選択を示す選択信号を受信し、
    前記選択信号の受信に反応して、前記選択されたアイテムまたはオブジェクトに関連付けられたオペレーションを実行するように構成された情報クエリシステムと、
    を備えることを特徴とする命令処理システム。
  13. 前記画像処理モジュールが、複数の線分を含む前記手の骨格構造を生成し、前記複数の各線分は前記手の異なる部位を表す、ように構成されていることを特徴とする請求項12に記載のシステム。
  14. 前記ポインティングする指先によって描かれた文字またはシンボルを認識するために、前記指先の前記位置を追尾することを特徴とする請求項12に記載のシステム。
  15. 前記入力装置によって受け取られた発声による命令の発言認識を実行するように構成された選択検知モジュールをさらに備えることを特徴とする請求項12に記載のシステム。
  16. さらに、前記オペレーションの結果を表示するように構成された前記表示装置を備えることを特徴とする請求項12に記載のシステム。
  17. 前記表示装置は、複数の領域に分割され、前記複数の領域は、各々の水平方向の位置に基づいて異なる水平方向の幅を有し、前記指先の複数の位置の各々が、前記複数の領域のうちの1つにマッピングされることを特徴とする請求項12に記載のシステム。
  18. 前記表示装置が、アイテムまたはオブジェクトに対応する人工的なグラフィック要素を前記車両のウィンドシールド上に投影する立体ヘッドアップ表示(HUD)装置を有することを特徴とする請求項12に記載のシステム。
  19. 前記画像処理モジュールは、前記指先の前記位置に対応する前記表示装置上の前記位置または領域を、第一のマッピングによって前記指先にマッピングされた複数の仮想エリアの1つを特定することによって判定するように構成されたことを特徴とする請求項12に記載のシステム。
  20. 前記画像処理モジュールは、前記指先の前記位置に対応する前記表示装置上の前記位置または領域を、前記特定された仮想エリアに対応する前記表示装置上の前記位置または領域を第二のマッピングによって特定することによって、さらに判定するように構成されたことを特徴とする請求項19に記載のシステム。
JP2014050616A 2013-03-13 2014-03-13 ポインティングによる情報クエリ Expired - Fee Related JP6335556B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361780023P 2013-03-13 2013-03-13
US61/780,023 2013-03-13

Publications (2)

Publication Number Publication Date
JP2014179097A true JP2014179097A (ja) 2014-09-25
JP6335556B2 JP6335556B2 (ja) 2018-05-30

Family

ID=51419278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014050616A Expired - Fee Related JP6335556B2 (ja) 2013-03-13 2014-03-13 ポインティングによる情報クエリ

Country Status (3)

Country Link
US (1) US9477315B2 (ja)
JP (1) JP6335556B2 (ja)
DE (1) DE102014204320A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061183A1 (ja) * 2015-10-05 2017-04-13 株式会社村田製作所 ヒューマンインターフェース
US11037037B2 (en) 2018-07-05 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer readable storage medium
US11995536B2 (en) 2017-02-16 2024-05-28 Panasonic Intellectual Property Management Co., Ltd. Learning device, estimating device, estimating system, learning method, estimating method, and storage medium to estimate a state of vehicle-occupant with respect to vehicle equipment

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US20150113468A1 (en) * 2012-09-24 2015-04-23 Richard Lawrence Clark System and method of inputting time on an electronic device having a touch screen
US9477653B2 (en) * 2014-06-26 2016-10-25 Blackberry Limited Character entry for an electronic device using a position sensing keyboard
FR3029649B1 (fr) 2014-12-03 2016-12-23 Commissariat Energie Atomique Procede d'etalonnage d'un systeme de restitution visuelle en realite augmentee comprenant au moins un dispositif d'affichage partiellement transparent, par rapport a son utilisateur, et systeme associe
DE102014225796A1 (de) * 2014-12-15 2016-06-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Steuerung eines Fahrzeugsystems
DE102015226152A1 (de) * 2015-12-21 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Anzeigevorrichtung und Verfahren zum Ansteuern einer Anzeigevorrichtung
DE102016014167A1 (de) * 2016-11-26 2018-05-30 Leopold Kostal Gmbh & Co. Kg Kraftfahrzeug mit einem Fahrerassistenzsystem
JP2018142168A (ja) * 2017-02-28 2018-09-13 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US11314346B2 (en) * 2018-11-30 2022-04-26 Lg Electronics Inc. Vehicle control device and vehicle control method
US11507194B2 (en) * 2020-12-02 2022-11-22 Huawei Technologies Co., Ltd. Methods and devices for hand-on-wheel gesture interaction for controls

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067179A (ja) * 1999-08-27 2001-03-16 Nec Corp ポインティング装置とそれを用いたコンピュータシステム
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム
WO2008078603A1 (ja) * 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置
JP2011065652A (ja) * 2004-05-14 2011-03-31 Honda Motor Co Ltd サインに基づくマンマシンインタラクション

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003032143A2 (en) 2001-10-12 2003-04-17 Hrl Laboratories, Llc Vision-based pointer tracking method and apparatus
KR100575906B1 (ko) 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
US20060103590A1 (en) 2004-10-21 2006-05-18 Avner Divon Augmented display system and methods
US7961173B2 (en) * 2006-09-05 2011-06-14 Navisense Method and apparatus for touchless calibration
US20080088528A1 (en) 2006-10-17 2008-04-17 Takashi Shindo Warp Image Circuit
US8904312B2 (en) * 2006-11-09 2014-12-02 Navisense Method and device for touchless signing and recognition
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
DE102008010419A1 (de) * 2007-05-03 2008-11-13 Navigon Ag Vorrichtung und Verfahren zur Erstellung eines Textobjekts
EP2273353A1 (en) 2009-07-07 2011-01-12 Ford Global Technologies Inc. Improved human machine interface
US8861797B2 (en) * 2010-11-12 2014-10-14 At&T Intellectual Property I, L.P. Calibrating vision systems
JP2012105230A (ja) * 2010-11-15 2012-05-31 Sony Corp 画像表示装置及び画像表示装置の駆動方法
US9292093B2 (en) * 2010-11-18 2016-03-22 Alpine Electronics, Inc. Interface method and apparatus for inputting information with air finger gesture
US8731331B2 (en) * 2010-11-30 2014-05-20 Ricoh Company, Ltd. Apparatus, system, and method of communication, and recording medium storing communication control program
US8605011B2 (en) * 2010-12-29 2013-12-10 GM Global Technology Operations LLC Virtual viewfinder on full windshield head-up display
US8924150B2 (en) * 2010-12-29 2014-12-30 GM Global Technology Operations LLC Vehicle operation and control system for autonomous vehicles on full windshield display
US8633979B2 (en) * 2010-12-29 2014-01-21 GM Global Technology Operations LLC Augmented road scene illustrator system on full windshield head-up display
US9008904B2 (en) * 2010-12-30 2015-04-14 GM Global Technology Operations LLC Graphical vehicle command system for autonomous vehicles on full windshield head-up display
US9057874B2 (en) * 2010-12-30 2015-06-16 GM Global Technology Operations LLC Virtual cursor for road scene object selection on full windshield head-up display
EP2689413A4 (en) 2011-03-25 2015-07-22 Oblong Ind Inc QUICK FINGER FINGER DETECTION TO INITIALIZE A VISION BASED HAND TRACER
US20120249422A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system and method
US8203502B1 (en) 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US20130030811A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation Natural query interface for connected car
DE102011112447A1 (de) * 2011-09-03 2013-03-07 Volkswagen Aktiengesellschaft Verfahren und Anordnung zum Bereitstellen einer graphischen Nutzerschnittstelle, insbesondere in einem Fahrzeug
US8854433B1 (en) * 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US20130219340A1 (en) * 2012-02-21 2013-08-22 Sap Ag Navigation on a Portable Electronic Device
EP2650754A3 (en) * 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
US8836768B1 (en) * 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US8994652B2 (en) * 2013-02-15 2015-03-31 Intel Corporation Model-based multi-hypothesis target tracker
US20140258942A1 (en) * 2013-03-05 2014-09-11 Intel Corporation Interaction of multiple perceptual sensing inputs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067179A (ja) * 1999-08-27 2001-03-16 Nec Corp ポインティング装置とそれを用いたコンピュータシステム
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2011065652A (ja) * 2004-05-14 2011-03-31 Honda Motor Co Ltd サインに基づくマンマシンインタラクション
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム
WO2008078603A1 (ja) * 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061183A1 (ja) * 2015-10-05 2017-04-13 株式会社村田製作所 ヒューマンインターフェース
JPWO2017061183A1 (ja) * 2015-10-05 2018-08-30 株式会社村田製作所 ヒューマンインターフェース
US11995536B2 (en) 2017-02-16 2024-05-28 Panasonic Intellectual Property Management Co., Ltd. Learning device, estimating device, estimating system, learning method, estimating method, and storage medium to estimate a state of vehicle-occupant with respect to vehicle equipment
US11037037B2 (en) 2018-07-05 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer readable storage medium

Also Published As

Publication number Publication date
JP6335556B2 (ja) 2018-05-30
US9477315B2 (en) 2016-10-25
US20140282259A1 (en) 2014-09-18
DE102014204320A1 (de) 2014-09-18

Similar Documents

Publication Publication Date Title
JP6335556B2 (ja) ポインティングによる情報クエリ
JP6763448B2 (ja) 視覚強化ナビゲーション
US10360696B2 (en) Image processing apparatus, image processing method, and program
US9891716B2 (en) Gesture recognition in vehicles
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
US9122916B2 (en) Three dimensional fingertip tracking
US20150066360A1 (en) Dashboard display navigation
US20120224060A1 (en) Reducing Driver Distraction Using a Heads-Up Display
JP5760696B2 (ja) 画像認識装置
WO2022088973A1 (zh) 展示车辆的行驶状态的方法以及电子设备
US20140028716A1 (en) Method and electronic device for generating an instruction in an augmented reality environment
EP2304527A1 (en) Gesture-based control system for vehicle interfaces
US11656090B2 (en) Method and system for generating navigation data for a geographical location
CN104049872B (zh) 利用指向的信息查询
CN113557492B (zh) 利用二维摄像头来辅助对象控制的方法、系统和非暂时性计算机可读记录介质
US11354896B2 (en) Display device, display method, and computer program
JPWO2017217375A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2014215845A (ja) 操作支援方法、操作支援システム、操作支援サーバ及び操作支援プログラム
JP2019128607A (ja) 画像処理装置及び画像処理方法
EP3637056B1 (en) Method and system for generating navigation data for a geographical location
JP2014191818A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
CN113993736A (zh) 机动车中的人机交互
JP2019121042A (ja) 対象選択装置
JP2006038556A (ja) カーナビゲーション装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180501

R150 Certificate of patent or registration of utility model

Ref document number: 6335556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees