JP2014179097A - ポインティングによる情報クエリ - Google Patents
ポインティングによる情報クエリ Download PDFInfo
- Publication number
- JP2014179097A JP2014179097A JP2014050616A JP2014050616A JP2014179097A JP 2014179097 A JP2014179097 A JP 2014179097A JP 2014050616 A JP2014050616 A JP 2014050616A JP 2014050616 A JP2014050616 A JP 2014050616A JP 2014179097 A JP2014179097 A JP 2014179097A
- Authority
- JP
- Japan
- Prior art keywords
- fingertip
- display device
- user
- hand
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】第一の入力装置210を用いて、ユーザの指のオブジェクトまたはアイテムへのポインティングを検知し、第二入力装置220を用いて、前記オブジェクトまたはアイテムの選択のユーザによる指示を受け取る。前記第一の入力装置210により手の画像を撮像し、該画像を処理して、ポインティングする指の指先の位置に対応する表示装置上の位置を判定する。前記指の位置に対応するオブジェクトまたはアイテムは、前記第二の入力装置220が所定のユーザ入力を受け取った後に選択される。
【選択図】図2
Description
ヴィクター・ントヒン
ベザド・ダリウシュ
指先検知機構を備えた車両の概要
命令処理システムの例
画像処理モジュールのアーキテクチュアの例
指先の位置を用いて情報をクエリ検索する方法の例
表示装置内のセル分割の例
Claims (20)
- 車両内に置かれた深度カメラによって、ユーザの手を含み、前記深度カメラからユーザの部位までの距離を表す画素を有する深度画像を撮像するステップと、
撮像された前記深度画像を処理することによって、前記手のポインティングする指の指先の位置を判定するステップと、
前記指先の位置に対応する表示装置上の位置または領域を判定するステップと、
前記車両内の入力装置から受信したセンサ信号に基づいて、前記表示装置上の判定された前記位置または領域のアイテムまたはオブジェクトの選択を示す選択信号を受信するステップと、
前記選択信号の受信に反応して、前記選択されたアイテムまたはオブジェクトに関連付けられたオペレーションを実行するステップと、を含むことを特徴とする方法。 - 前記指先の前記位置を判定するステップは、複数の線分を含む前記手の骨格構造を生成することを含み、前記複数の線分の各々は、前記手の異なる部位を表すことを特徴とする請求項1に記載の方法。
- 前記ポインティングする指先によって描かれた文字またはシンボルを認識するために、前記指先の前記位置を追尾するステップをさらに含む請求項1に記載の方法。
- 前記入力装置が、前記ユーザからの発声による命令を受け取るマイクロフォンを有し、前記選択信号は、前記発声による命令の発言認識を実行ことによって生成されることを特徴とする請求項1に記載の方法。
- 前記入力装置が、ボタンまたはスイッチを有し、前記選択信号が前記入力装置が操作されたことを示すことを特徴とする請求項1に記載の方法。
- 前記オペレーションの結果を前記表示装置上に表示するステップをさらに含む請求項1に記載の方法。
- 前記表示装置は、複数の領域に分割され、前記複数の領域は、各々の水平方向の位置に基づいて異なる水平方向の幅を有し、前記指先の複数の位置の各々が、前記複数の領域のうちの1つにマッピングされることを特徴とする請求項1に記載の方法。
- 前記表示装置が、アイテムまたはオブジェクトに対応する人工的なグラフィック要素を前記車両のウィンドシールド上に投影する立体ヘッドアップ表示(HUD)装置を有することを特徴とする請求項1に記載の方法。
- 前記指先の前記位置に対応する前記表示装置上の前記位置または領域は、第一のマッピングによって前記指先にマッピングされた前記複数の仮想エリアの1つを特定することによって判定されることを特徴とする請求項1に記載の方法。
- 前記指先の前記位置に対応する前記表示装置上の前記位置または領域は、前記特定された仮想エリアに対応する前記表示装置上の前記位置または領域を第二のマッピングによって特定することによって、さらに判定されることを特徴とする請求項9に記載の方法。
- 前記複数の仮想エリアの各々は、半円の等角区間の平面上への投影であることを特徴とする請求項9に記載の方法。
- 命令処理システムであって、
車両内に置かれ、ユーザの手を含む深度画像を撮像するように構成され、それ自体から前記ユーザの部位までの距離を表す画素を有する深度カメラと、
前記手のポインティングする指の指先の位置を、前記撮像された深度画像を処理することによって判定し、
前記指先の前記位置に対応する表示装置上の位置または領域を判定する、ように構成された画像処理モジュールと、
車両内の入力装置から受信されたセンサ信号に基づいて、前記表示装置上の前記判定された位置または領域のアイテムまたはオブジェクトの選択を示す選択信号を受信し、
前記選択信号の受信に反応して、前記選択されたアイテムまたはオブジェクトに関連付けられたオペレーションを実行するように構成された情報クエリシステムと、
を備えることを特徴とする命令処理システム。 - 前記画像処理モジュールが、複数の線分を含む前記手の骨格構造を生成し、前記複数の各線分は前記手の異なる部位を表す、ように構成されていることを特徴とする請求項12に記載のシステム。
- 前記ポインティングする指先によって描かれた文字またはシンボルを認識するために、前記指先の前記位置を追尾することを特徴とする請求項12に記載のシステム。
- 前記入力装置によって受け取られた発声による命令の発言認識を実行するように構成された選択検知モジュールをさらに備えることを特徴とする請求項12に記載のシステム。
- さらに、前記オペレーションの結果を表示するように構成された前記表示装置を備えることを特徴とする請求項12に記載のシステム。
- 前記表示装置は、複数の領域に分割され、前記複数の領域は、各々の水平方向の位置に基づいて異なる水平方向の幅を有し、前記指先の複数の位置の各々が、前記複数の領域のうちの1つにマッピングされることを特徴とする請求項12に記載のシステム。
- 前記表示装置が、アイテムまたはオブジェクトに対応する人工的なグラフィック要素を前記車両のウィンドシールド上に投影する立体ヘッドアップ表示(HUD)装置を有することを特徴とする請求項12に記載のシステム。
- 前記画像処理モジュールは、前記指先の前記位置に対応する前記表示装置上の前記位置または領域を、第一のマッピングによって前記指先にマッピングされた複数の仮想エリアの1つを特定することによって判定するように構成されたことを特徴とする請求項12に記載のシステム。
- 前記画像処理モジュールは、前記指先の前記位置に対応する前記表示装置上の前記位置または領域を、前記特定された仮想エリアに対応する前記表示装置上の前記位置または領域を第二のマッピングによって特定することによって、さらに判定するように構成されたことを特徴とする請求項19に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361780023P | 2013-03-13 | 2013-03-13 | |
US61/780,023 | 2013-03-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014179097A true JP2014179097A (ja) | 2014-09-25 |
JP6335556B2 JP6335556B2 (ja) | 2018-05-30 |
Family
ID=51419278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014050616A Expired - Fee Related JP6335556B2 (ja) | 2013-03-13 | 2014-03-13 | ポインティングによる情報クエリ |
Country Status (3)
Country | Link |
---|---|
US (1) | US9477315B2 (ja) |
JP (1) | JP6335556B2 (ja) |
DE (1) | DE102014204320A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017061183A1 (ja) * | 2015-10-05 | 2017-04-13 | 株式会社村田製作所 | ヒューマンインターフェース |
US11037037B2 (en) | 2018-07-05 | 2021-06-15 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer readable storage medium |
US11995536B2 (en) | 2017-02-16 | 2024-05-28 | Panasonic Intellectual Property Management Co., Ltd. | Learning device, estimating device, estimating system, learning method, estimating method, and storage medium to estimate a state of vehicle-occupant with respect to vehicle equipment |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9792017B1 (en) | 2011-07-12 | 2017-10-17 | Domo, Inc. | Automatic creation of drill paths |
US9202297B1 (en) * | 2011-07-12 | 2015-12-01 | Domo, Inc. | Dynamic expansion of data visualizations |
US20150113468A1 (en) * | 2012-09-24 | 2015-04-23 | Richard Lawrence Clark | System and method of inputting time on an electronic device having a touch screen |
US9477653B2 (en) * | 2014-06-26 | 2016-10-25 | Blackberry Limited | Character entry for an electronic device using a position sensing keyboard |
FR3029649B1 (fr) | 2014-12-03 | 2016-12-23 | Commissariat Energie Atomique | Procede d'etalonnage d'un systeme de restitution visuelle en realite augmentee comprenant au moins un dispositif d'affichage partiellement transparent, par rapport a son utilisateur, et systeme associe |
DE102014225796A1 (de) * | 2014-12-15 | 2016-06-16 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Steuerung eines Fahrzeugsystems |
DE102015226152A1 (de) * | 2015-12-21 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Anzeigevorrichtung und Verfahren zum Ansteuern einer Anzeigevorrichtung |
DE102016014167A1 (de) * | 2016-11-26 | 2018-05-30 | Leopold Kostal Gmbh & Co. Kg | Kraftfahrzeug mit einem Fahrerassistenzsystem |
JP2018142168A (ja) * | 2017-02-28 | 2018-09-13 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
US11314346B2 (en) * | 2018-11-30 | 2022-04-26 | Lg Electronics Inc. | Vehicle control device and vehicle control method |
US11507194B2 (en) * | 2020-12-02 | 2022-11-22 | Huawei Technologies Co., Ltd. | Methods and devices for hand-on-wheel gesture interaction for controls |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067179A (ja) * | 1999-08-27 | 2001-03-16 | Nec Corp | ポインティング装置とそれを用いたコンピュータシステム |
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
WO2006104132A1 (ja) * | 2005-03-28 | 2006-10-05 | Matsushita Electric Industrial Co., Ltd. | ユーザインタフェイスシステム |
WO2008078603A1 (ja) * | 2006-12-22 | 2008-07-03 | Panasonic Corporation | ユーザインターフェイス装置 |
JP2011065652A (ja) * | 2004-05-14 | 2011-03-31 | Honda Motor Co Ltd | サインに基づくマンマシンインタラクション |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003032143A2 (en) | 2001-10-12 | 2003-04-17 | Hrl Laboratories, Llc | Vision-based pointer tracking method and apparatus |
KR100575906B1 (ko) | 2002-10-25 | 2006-05-02 | 미츠비시 후소 트럭 앤드 버스 코포레이션 | 핸드 패턴 스위치 장치 |
US20060103590A1 (en) | 2004-10-21 | 2006-05-18 | Avner Divon | Augmented display system and methods |
US7961173B2 (en) * | 2006-09-05 | 2011-06-14 | Navisense | Method and apparatus for touchless calibration |
US20080088528A1 (en) | 2006-10-17 | 2008-04-17 | Takashi Shindo | Warp Image Circuit |
US8904312B2 (en) * | 2006-11-09 | 2014-12-02 | Navisense | Method and device for touchless signing and recognition |
US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
DE102008010419A1 (de) * | 2007-05-03 | 2008-11-13 | Navigon Ag | Vorrichtung und Verfahren zur Erstellung eines Textobjekts |
EP2273353A1 (en) | 2009-07-07 | 2011-01-12 | Ford Global Technologies Inc. | Improved human machine interface |
US8861797B2 (en) * | 2010-11-12 | 2014-10-14 | At&T Intellectual Property I, L.P. | Calibrating vision systems |
JP2012105230A (ja) * | 2010-11-15 | 2012-05-31 | Sony Corp | 画像表示装置及び画像表示装置の駆動方法 |
US9292093B2 (en) * | 2010-11-18 | 2016-03-22 | Alpine Electronics, Inc. | Interface method and apparatus for inputting information with air finger gesture |
US8731331B2 (en) * | 2010-11-30 | 2014-05-20 | Ricoh Company, Ltd. | Apparatus, system, and method of communication, and recording medium storing communication control program |
US8605011B2 (en) * | 2010-12-29 | 2013-12-10 | GM Global Technology Operations LLC | Virtual viewfinder on full windshield head-up display |
US8924150B2 (en) * | 2010-12-29 | 2014-12-30 | GM Global Technology Operations LLC | Vehicle operation and control system for autonomous vehicles on full windshield display |
US8633979B2 (en) * | 2010-12-29 | 2014-01-21 | GM Global Technology Operations LLC | Augmented road scene illustrator system on full windshield head-up display |
US9008904B2 (en) * | 2010-12-30 | 2015-04-14 | GM Global Technology Operations LLC | Graphical vehicle command system for autonomous vehicles on full windshield head-up display |
US9057874B2 (en) * | 2010-12-30 | 2015-06-16 | GM Global Technology Operations LLC | Virtual cursor for road scene object selection on full windshield head-up display |
EP2689413A4 (en) | 2011-03-25 | 2015-07-22 | Oblong Ind Inc | QUICK FINGER FINGER DETECTION TO INITIALIZE A VISION BASED HAND TRACER |
US20120249422A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Interactive input system and method |
US8203502B1 (en) | 2011-05-25 | 2012-06-19 | Google Inc. | Wearable heads-up display with integrated finger-tracking input sensor |
US20130030811A1 (en) * | 2011-07-29 | 2013-01-31 | Panasonic Corporation | Natural query interface for connected car |
DE102011112447A1 (de) * | 2011-09-03 | 2013-03-07 | Volkswagen Aktiengesellschaft | Verfahren und Anordnung zum Bereitstellen einer graphischen Nutzerschnittstelle, insbesondere in einem Fahrzeug |
US8854433B1 (en) * | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US20130219340A1 (en) * | 2012-02-21 | 2013-08-22 | Sap Ag | Navigation on a Portable Electronic Device |
EP2650754A3 (en) * | 2012-03-15 | 2014-09-24 | Omron Corporation | Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium |
US8836768B1 (en) * | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US8994652B2 (en) * | 2013-02-15 | 2015-03-31 | Intel Corporation | Model-based multi-hypothesis target tracker |
US20140258942A1 (en) * | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
-
2014
- 2014-02-27 US US14/192,499 patent/US9477315B2/en active Active
- 2014-03-10 DE DE102014204320.4A patent/DE102014204320A1/de not_active Withdrawn
- 2014-03-13 JP JP2014050616A patent/JP6335556B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067179A (ja) * | 1999-08-27 | 2001-03-16 | Nec Corp | ポインティング装置とそれを用いたコンピュータシステム |
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2011065652A (ja) * | 2004-05-14 | 2011-03-31 | Honda Motor Co Ltd | サインに基づくマンマシンインタラクション |
WO2006104132A1 (ja) * | 2005-03-28 | 2006-10-05 | Matsushita Electric Industrial Co., Ltd. | ユーザインタフェイスシステム |
WO2008078603A1 (ja) * | 2006-12-22 | 2008-07-03 | Panasonic Corporation | ユーザインターフェイス装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017061183A1 (ja) * | 2015-10-05 | 2017-04-13 | 株式会社村田製作所 | ヒューマンインターフェース |
JPWO2017061183A1 (ja) * | 2015-10-05 | 2018-08-30 | 株式会社村田製作所 | ヒューマンインターフェース |
US11995536B2 (en) | 2017-02-16 | 2024-05-28 | Panasonic Intellectual Property Management Co., Ltd. | Learning device, estimating device, estimating system, learning method, estimating method, and storage medium to estimate a state of vehicle-occupant with respect to vehicle equipment |
US11037037B2 (en) | 2018-07-05 | 2021-06-15 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6335556B2 (ja) | 2018-05-30 |
US9477315B2 (en) | 2016-10-25 |
US20140282259A1 (en) | 2014-09-18 |
DE102014204320A1 (de) | 2014-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6335556B2 (ja) | ポインティングによる情報クエリ | |
JP6763448B2 (ja) | 視覚強化ナビゲーション | |
US10360696B2 (en) | Image processing apparatus, image processing method, and program | |
US9891716B2 (en) | Gesture recognition in vehicles | |
JP5724543B2 (ja) | 端末装置、オブジェクト制御方法及びプログラム | |
US9122916B2 (en) | Three dimensional fingertip tracking | |
US20150066360A1 (en) | Dashboard display navigation | |
US20120224060A1 (en) | Reducing Driver Distraction Using a Heads-Up Display | |
JP5760696B2 (ja) | 画像認識装置 | |
WO2022088973A1 (zh) | 展示车辆的行驶状态的方法以及电子设备 | |
US20140028716A1 (en) | Method and electronic device for generating an instruction in an augmented reality environment | |
EP2304527A1 (en) | Gesture-based control system for vehicle interfaces | |
US11656090B2 (en) | Method and system for generating navigation data for a geographical location | |
CN104049872B (zh) | 利用指向的信息查询 | |
CN113557492B (zh) | 利用二维摄像头来辅助对象控制的方法、系统和非暂时性计算机可读记录介质 | |
US11354896B2 (en) | Display device, display method, and computer program | |
JPWO2017217375A1 (ja) | 画像表示装置、画像表示方法、及び画像表示プログラム | |
JP2014215845A (ja) | 操作支援方法、操作支援システム、操作支援サーバ及び操作支援プログラム | |
JP2019128607A (ja) | 画像処理装置及び画像処理方法 | |
EP3637056B1 (en) | Method and system for generating navigation data for a geographical location | |
JP2014191818A (ja) | 操作支援システム、操作支援方法及びコンピュータプログラム | |
CN113993736A (zh) | 机动车中的人机交互 | |
JP2019121042A (ja) | 対象選択装置 | |
JP2006038556A (ja) | カーナビゲーション装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20160620 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171205 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180402 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180501 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6335556 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |