WO2022269983A1 - 信号処理装置、信号処理方法、記録媒体、および信号処理システム - Google Patents
信号処理装置、信号処理方法、記録媒体、および信号処理システム Download PDFInfo
- Publication number
- WO2022269983A1 WO2022269983A1 PCT/JP2022/005153 JP2022005153W WO2022269983A1 WO 2022269983 A1 WO2022269983 A1 WO 2022269983A1 JP 2022005153 W JP2022005153 W JP 2022005153W WO 2022269983 A1 WO2022269983 A1 WO 2022269983A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vibration
- recognition
- vehicle
- signal processing
- unit
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 87
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000000034 method Methods 0.000 claims abstract description 150
- 238000012937 correction Methods 0.000 claims description 66
- 230000008569 process Effects 0.000 claims description 34
- 238000001514 detection method Methods 0.000 claims description 31
- 230000005540 biological transmission Effects 0.000 claims description 29
- 238000005516 engineering process Methods 0.000 abstract description 17
- 238000004458 analytical method Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 25
- 238000013523 data management Methods 0.000 description 18
- 230000001133 acceleration Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 13
- 238000002372 labelling Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000011017 operating method Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
Definitions
- the present technology relates to a signal processing device, a signal processing method, a recording medium, and a signal processing system, and in particular, a signal processing device, a signal processing method, a recording medium, and a signal processing device that enable appropriate recognition of operations using gestures. and signal processing systems.
- FIG. 1 It is a figure showing an example of composition of a vibration data management system concerning one embodiment of this art. It is a figure which shows the flow of the data in a vibration data management system. It is a figure which shows the mode of operation using a gesture by the passenger
- the server 1 stores the vibration data transmitted from the preceding vehicle 2A in association with the position of the map data indicated by the position information.
- the map data is data for the server 1 to collectively manage vibration data and the like of a plurality of positions. That is, the vibration data is stored as traveling data at the position where the preceding vehicle 2A is traveling.
- the server 1 is composed of a data reception unit 21, a vibration data management unit 22, and a data transmission unit 23.
- the data receiving unit 41 acquires from the server 1 vibration data linked to the predicted position of the target vehicle 2B. Specifically, the data receiving unit 41 requests the server 1 for vibration data labeled with vehicle information indicating a vehicle type corresponding to the vehicle type of the target vehicle 2B, and acquires the vibration data from the server 1 . The vibration data acquired from the server 1 is supplied to the vibration pattern analysis section 42 .
- the operation method setting unit 65 supplies the UI display control unit 45 with an operation method parameter indicating whether or not a gesture using each part is to be recognized.
- the operation method parameters are defined, for example, in the following format. A value of 1 indicates that it is a recognition target, and a value of 0 indicates that it is not a recognition target.
- both the recognition range and the display range may be changed, or only one of them may be changed.
- the recognition disable period is the period during which gesture recognition is disabled. For example, a period during which an event such as vibration with an amplitude greater than a predetermined threshold occurs that lowers the accuracy of gesture recognition is set as the recognition invalid period. If a recognition disable period is applied, the duration of the gesture is measured exclusive of the recognition disable period. On the other hand, if no recognition disable period is applied, the duration of the gesture is measured without removing the recognition disable period.
- the occurrence of stable vibration at the predicted position is detected by classifying the vibration pattern indicated by the vibration data. For example, when amplitudes larger than a predetermined threshold continuously occur in the vibration data, it is determined that stable vibration occurs at the predicted position.
- the UI command generation unit 82 determines whether the gesture satisfies the operation condition, such as whether the duration of the state in which the gesture is performed within the recognition range has reached the recognition determination time. . For example, if the gesture satisfies the operation condition, the UI command generation unit 82 determines that the gesture is an operation for selecting the UI corresponding to the recognition range.
- the recognition range is indicated by a recognition range parameter
- the recognition determination time is indicated by a recognition determination time parameter.
- the following vehicle 2C is provided with the same configuration as the target vehicle 2B.
- step S73 the UI command generation unit 82 determines whether the gesture performed by the passenger satisfies the operation conditions. For example, the UI command generation unit 82 compares the duration of a state in which the part used for the gesture set as the recognition target is directed within the recognition range and the recognition determination time. When the duration of the gesture reaches the recognition determination time, the UI command generation unit 82 determines that the gesture has satisfied the operation condition, and the process proceeds to step S74. At this time, if the recognition invalid period is set to be applied, the duration of the gesture is measured in a period other than the recognition invalid period. Note that the recognition range is indicated by a recognition range parameter, and whether or not the recognition determination time and recognition invalid period are applied is indicated by a recognition determination time parameter.
- the operating method setting unit 65 corrects the operating method parameters so as to disable the operating method with a low success rate. For example, the operation method setting unit 65 modifies the operation method parameter so as to invalidate (not to be recognized) a gesture using a part that is easily affected by vibration, such as a hand or finger.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
1.振動データ管理システム
2.各機器の構成
3.各機器の動作
4.変形例
図1は、本技術の一実施形態に係る振動データ管理システムの構成例を示す図である。
<サーバの構成>
図5は、サーバ1の構成例を示すブロック図である。
図6は、先行車両2Aの構成例を示すブロック図である。
・全体の構成
図7は、対象車両2Bの構成例を示すブロック図である。
図8は、振動パターン解析部42の詳細な構成例を示すブロック図である。
振動特性データ=(ランダム性,周波数,振幅,連続性)
(腕,手,指,身体,頭,顔,視線)=(1,1,1,0,0,0,0)
(x,y,k,f)=(0,0,1,1)
図12は、UI表示制御部45の詳細な構成例を示すブロック図である。
以上のような構成を有する振動データ管理システムの各機器の動作について説明する。
図13のフローチャートを参照して、先行車両2Aとサーバ1が行う処理について説明する。
・全体の動作
図14のフローチャートを参照して、対象車両2Bとサーバ1が行う処理について説明する。
図15のフローチャートを参照して、図14のステップS25において行われるUI補正データ生成処理について説明する。
図16のフローチャートを参照して、図14のステップS26において行われる操作決定処理について説明する。
<UI補正データの有効性をフィードバックする例>
例えば、道路の状態、乗員の姿勢などの状態、車両の状態などは状況や時間経過によって変化するため、UI補正データによる操作の認識方法の補正が、必ずしも最適であるとは限らない。これに対して、UI補正データが有効であったか否かが操作認識(UI操作)の成功率として算出され、成功率が低かった操作の認識を再度行う際、UI補正データが修正され、最適化されるようにしてもよい。
車両情報がラベリングされた予測位置の振動データをサーバ1から取得する例について説明したが、対象車両2Bが先行車両2Aと通信を行い、振動データ、位置情報、および車両情報を先行車両2Aから直接取得するように構成することが可能である。対象車両2Bが後続車両2Cと通信を行い、振動データ、位置情報、車両情報、およびUI補正データを後続車両2Cに送信するように構成することも可能である。
上述したサーバ1や信号処理装置が実行する処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
本技術は、以下のような構成をとることもできる。
将来生じると予測される振動を示す第1の振動データに基づいて、ジェスチャを用いた操作の認識方法を設定する設定部と、
前記設定部により設定された前記認識方法に従って、ユーザが行った前記ジェスチャが示す前記操作を認識する操作認識部と
を備える信号処理装置。
(2)
前記操作認識部は、前記信号処理装置が搭載された車両内の前記ユーザが行った前記ジェスチャが示す前記操作を認識する
前記(1)に記載の信号処理装置。
(3)
前記第1の振動データは、前記車両が将来走行すると予測される予測位置を前記車両より先に走行した先行車両により検出された振動を示す
前記(2)に記載の信号処理装置。
(4)
前記設定部は、前記先行車両において設定された前記認識方法を示す補正データに基づいて、前記認識方法を修正する
前記(3)に記載の信号処理装置。
(5)
前記設定部は、前記車両の車種に相当する車種の前記先行車両により検出された振動を示す前記第1の振動データに基づいて、前記認識方法を設定する
前記(3)または(4)に記載の信号処理装置。
(6)
前記車両の振動を検出し、前記車両の振動の検出結果を示す第2の振動データを生成する振動検出部と、
前記車両の後に前記予測位置を走行する後続車両、または、前記第2の振動データを前記後続車両に送信するサーバに前記第2の振動データを送信する送信部と
をさらに備える前記(3)乃至(5)のいずれかに記載の信号処理装置。
(7)
前記送信部は、前記車両の種別を示す車両情報を前記第2の振動データとともに前記後続車両または前記サーバに送信する
前記(6)に記載の信号処理装置。
(8)
前記送信部は、前記設定部により設定された前記認識方法を示す補正データを前記第2の振動データとともに前記後続車両または前記サーバに送信する
前記(6)または(7)に記載の信号処理装置。
(9)
前記先行車両を撮影した動画像に基づいて、前記第1の振動データを取得する取得部を
さらに備える前記(3)乃至(8)のいずれかに記載の信号処理装置。
(10)
前記設定部は、認識対象とする前記ジェスチャの種類、前記ジェスチャを前記操作として認識する範囲、および、前記ジェスチャを前記操作として認識するまでの認識判定時間のうちの少なくともいずれかを、前記認識方法として設定する
前記(1)乃至(9)のいずれかに記載の信号処理装置。
(11)
前記設定部は、前記将来生じると予測される振動のランダム性、周波数、振幅、および連続性のうちの少なくともいずれかに基づいて、前記認識方法を設定する
前記(10)に記載の信号処理装置。
(12)
前記操作認識部は、所定の閾値よりも大きい振幅の振動が生じる期間を除いた期間における前記ジェスチャの継続時間を前記認識判定時間と比較することにより、前記操作を認識する
前記(11)に記載の信号処理装置。
(13)
前記設定部は、所定の閾値よりも大きい振幅の振動が連続して生じると予測される場合、認識対象とする前記ジェスチャの種類を制限する
前記(11)または(12)に記載の信号処理装置。
(14)
前記設定部は、所定の閾値よりも大きい振幅の振動が連続して生じると予測される場合、前記ジェスチャを前記操作として認識する範囲を拡大させる
前記(11)乃至(13)のいずれかに記載の信号処理装置。
(15)
前記操作認識部は、前記ユーザを撮影した動画像に基づいて、前記ユーザが行った前記ジェスチャを認識する
前記(1)乃至(14)のいずれかに記載の信号処理装置。
(16)
前記設定部により設定された前記認識方法の有効性を判定する判定部をさらに備え、
前記設定部は、前記認識方法の有効性の判定結果に基づいて、前記認識方法を修正する
前記(1)乃至(15)のいずれかに記載の信号処理装置。
(17)
信号処理装置が、
将来生じると予測される振動を示す第1の振動データに基づいて、ジェスチャを用いた操作の認識方法を設定し、
設定された前記認識方法に従って、ユーザが行った前記ジェスチャが示す前記操作を認識する
信号処理方法。
(18)
将来生じると予測される振動を示す第1の振動データに基づいて、ジェスチャを用いた操作の認識方法を設定し、
設定された前記認識方法に従って、ユーザが行った前記ジェスチャが示す前記操作を認識する
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(19)
将来生じると予測される振動を示す振動データに基づいて、ジェスチャを用いた操作の認識方法を設定する設定部と、
前記設定部により設定された前記認識方法に従って、ユーザが行った前記ジェスチャが示す前記操作を認識する操作認識部と
を備える信号処理装置と、
前記ジェスチャを用いた前記操作の対象となる画像を表示する表示部を
備える表示装置と
を有する信号処理システム。
(20)
前記信号処理システムは、
前記振動データが示す振動が検出された位置に紐づけて前記振動データを管理する管理部を
備えるサーバをさらに有し、
前記設定部は、前記サーバから取得した前記振動データに基づいて、前記認識方法を設定する
前記(19)に記載の信号処理システム。
Claims (20)
- 将来生じると予測される振動を示す第1の振動データに基づいて、ジェスチャを用いた操作の認識方法を設定する設定部と、
前記設定部により設定された前記認識方法に従って、ユーザが行った前記ジェスチャが示す前記操作を認識する操作認識部と
を備える信号処理装置。 - 前記操作認識部は、前記信号処理装置が搭載された車両内の前記ユーザが行った前記ジェスチャが示す前記操作を認識する
請求項1に記載の信号処理装置。 - 前記第1の振動データは、前記車両が将来走行すると予測される予測位置を前記車両より先に走行した先行車両により検出された振動を示す
請求項2に記載の信号処理装置。 - 前記設定部は、前記先行車両において設定された前記認識方法を示す補正データに基づいて、前記認識方法を修正する
請求項3に記載の信号処理装置。 - 前記設定部は、前記車両の車種に相当する車種の前記先行車両により検出された振動を示す前記第1の振動データに基づいて、前記認識方法を設定する
請求項3に記載の信号処理装置。 - 前記車両の振動を検出し、前記車両の振動の検出結果を示す第2の振動データを生成する振動検出部と、
前記車両の後に前記予測位置を走行する後続車両、または、前記第2の振動データを前記後続車両に送信するサーバに前記第2の振動データを送信する送信部と
をさらに備える請求項3に記載の信号処理装置。 - 前記送信部は、前記車両の種別を示す車両情報を前記第2の振動データとともに前記後続車両または前記サーバに送信する
請求項6に記載の信号処理装置。 - 前記送信部は、前記設定部により設定された前記認識方法を示す補正データを前記第2の振動データとともに前記後続車両または前記サーバに送信する
請求項6に記載の信号処理装置。 - 前記先行車両を撮影した動画像に基づいて、前記第1の振動データを取得する取得部を
さらに備える請求項3に記載の信号処理装置。 - 前記設定部は、認識対象とする前記ジェスチャの種類、前記ジェスチャを前記操作として認識する範囲、および、前記ジェスチャを前記操作として認識するまでの認識判定時間のうちの少なくともいずれかを、前記認識方法として設定する
請求項1に記載の信号処理装置。 - 前記設定部は、前記将来生じると予測される振動のランダム性、周波数、振幅、および連続性のうちの少なくともいずれかに基づいて、前記認識方法を設定する
請求項10に記載の信号処理装置。 - 前記操作認識部は、所定の閾値よりも大きい振幅の振動が生じる期間を除いた期間における前記ジェスチャの継続時間を前記認識判定時間と比較することにより、前記操作を認識する
請求項11に記載の信号処理装置。 - 前記設定部は、所定の閾値よりも大きい振幅の振動が連続して生じると予測される場合、認識対象とする前記ジェスチャの種類を制限する
請求項11に記載の信号処理装置。 - 前記設定部は、所定の閾値よりも大きい振幅の振動が連続して生じると予測される場合、前記ジェスチャを前記操作として認識する範囲を拡大させる
請求項11に記載の信号処理装置。 - 前記操作認識部は、前記ユーザを撮影した動画像に基づいて、前記ユーザが行った前記ジェスチャを認識する
請求項1に記載の信号処理装置。 - 前記設定部により設定された前記認識方法の有効性を判定する判定部をさらに備え、
前記設定部は、前記認識方法の有効性の判定結果に基づいて、前記認識方法を修正する
請求項1に記載の信号処理装置。 - 信号処理装置が、
将来生じると予測される振動を示す振動データに基づいて、ジェスチャを用いた操作の認識方法を設定し、
設定された前記認識方法に従って、ユーザが行った前記ジェスチャが示す前記操作を認識する
信号処理方法。 - 将来生じると予測される振動を示す振動データに基づいて、ジェスチャを用いた操作の認識方法を設定し、
設定された前記認識方法に従って、ユーザが行った前記ジェスチャが示す前記操作を認識する
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 - 将来生じると予測される振動を示す振動データに基づいて、ジェスチャを用いた操作の認識方法を設定する設定部と、
前記設定部により設定された前記認識方法に従って、ユーザが行った前記ジェスチャが示す前記操作を認識する操作認識部と
を備える信号処理装置と、
前記ジェスチャを用いた前記操作の対象となる画像を表示する表示部を
備える表示装置と
を有する信号処理システム。 - 前記信号処理システムは、
前記振動データが示す振動が検出された位置に紐づけて前記振動データを管理する管理部を
備えるサーバをさらに有し、
前記設定部は、前記サーバから取得した前記振動データに基づいて、前記認識方法を設定する
請求項19に記載の信号処理システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/569,242 US20240264678A1 (en) | 2021-06-22 | 2022-02-09 | Signal processing device, signal processing method, recording medium, and signal processing system |
JP2023529483A JPWO2022269983A1 (ja) | 2021-06-22 | 2022-02-09 | |
CN202280042810.6A CN117501212A (zh) | 2021-06-22 | 2022-02-09 | 信号处理装置、信号处理方法、记录介质和信号处理系统 |
EP22827907.1A EP4361992A1 (en) | 2021-06-22 | 2022-02-09 | Signal processing device, signal processing method, recording medium, and signal processing system |
KR1020237042536A KR20240024809A (ko) | 2021-06-22 | 2022-02-09 | 신호 처리 장치, 신호 처리 방법, 기록 매체 및 신호 처리 시스템 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021103260 | 2021-06-22 | ||
JP2021-103260 | 2021-06-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022269983A1 true WO2022269983A1 (ja) | 2022-12-29 |
Family
ID=84543745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/005153 WO2022269983A1 (ja) | 2021-06-22 | 2022-02-09 | 信号処理装置、信号処理方法、記録媒体、および信号処理システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20240264678A1 (ja) |
EP (1) | EP4361992A1 (ja) |
JP (1) | JPWO2022269983A1 (ja) |
KR (1) | KR20240024809A (ja) |
CN (1) | CN117501212A (ja) |
WO (1) | WO2022269983A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116761040A (zh) * | 2023-08-22 | 2023-09-15 | 超级芯(江苏)智能科技有限公司 | Vr云平台交互方法及交互系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293419A (ja) * | 2004-04-02 | 2005-10-20 | Alpine Electronics Inc | 空間入力システム |
WO2013145223A1 (ja) * | 2012-03-29 | 2013-10-03 | パイオニア株式会社 | 画像認識装置、画像認識方法、画像認識プログラム、及び記録媒体 |
US20150084849A1 (en) * | 2013-09-23 | 2015-03-26 | Hyundai Motor Company | Vehicle operation device |
JP2016126556A (ja) | 2015-01-05 | 2016-07-11 | 株式会社デンソー | 車載用タッチパネル装置 |
KR20180120396A (ko) * | 2017-04-27 | 2018-11-06 | 현대모비스 주식회사 | 주행 조건에 따른 모션제스처 피드백 실행 방법 및 장치 |
JP2019095210A (ja) * | 2017-11-17 | 2019-06-20 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
-
2022
- 2022-02-09 US US18/569,242 patent/US20240264678A1/en active Pending
- 2022-02-09 KR KR1020237042536A patent/KR20240024809A/ko unknown
- 2022-02-09 WO PCT/JP2022/005153 patent/WO2022269983A1/ja active Application Filing
- 2022-02-09 CN CN202280042810.6A patent/CN117501212A/zh active Pending
- 2022-02-09 JP JP2023529483A patent/JPWO2022269983A1/ja active Pending
- 2022-02-09 EP EP22827907.1A patent/EP4361992A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293419A (ja) * | 2004-04-02 | 2005-10-20 | Alpine Electronics Inc | 空間入力システム |
WO2013145223A1 (ja) * | 2012-03-29 | 2013-10-03 | パイオニア株式会社 | 画像認識装置、画像認識方法、画像認識プログラム、及び記録媒体 |
US20150084849A1 (en) * | 2013-09-23 | 2015-03-26 | Hyundai Motor Company | Vehicle operation device |
JP2016126556A (ja) | 2015-01-05 | 2016-07-11 | 株式会社デンソー | 車載用タッチパネル装置 |
KR20180120396A (ko) * | 2017-04-27 | 2018-11-06 | 현대모비스 주식회사 | 주행 조건에 따른 모션제스처 피드백 실행 방법 및 장치 |
JP2019095210A (ja) * | 2017-11-17 | 2019-06-20 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116761040A (zh) * | 2023-08-22 | 2023-09-15 | 超级芯(江苏)智能科技有限公司 | Vr云平台交互方法及交互系统 |
CN116761040B (zh) * | 2023-08-22 | 2023-10-27 | 超级芯(江苏)智能科技有限公司 | Vr云平台交互方法及交互系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117501212A (zh) | 2024-02-02 |
EP4361992A1 (en) | 2024-05-01 |
US20240264678A1 (en) | 2024-08-08 |
KR20240024809A (ko) | 2024-02-26 |
JPWO2022269983A1 (ja) | 2022-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11899855B2 (en) | Changing a mode of operation of a computing device by a pen device | |
US10403147B2 (en) | Systems and methods for automatically documenting an accident | |
US10732695B2 (en) | Transitioning a computing device from a low power state based on sensor input of a pen device | |
US20170235361A1 (en) | Interaction based on capturing user intent via eye gaze | |
US8292833B2 (en) | Finger motion detecting apparatus and method | |
CN110740896B (zh) | 用于运输工具的用户界面以及具有用户界面的运输工具 | |
US20210266714A1 (en) | Systems and Methods for Locating Mobile Devices Within A Vehicle | |
WO2022269983A1 (ja) | 信号処理装置、信号処理方法、記録媒体、および信号処理システム | |
CN103279223B (zh) | 一种反馈触控消息的方法、设备及系统 | |
CN105739680A (zh) | 用于基于眼睛跟踪生成触觉效果的系统和方法 | |
US9489052B2 (en) | Image recognition device, image recognition method, image recognition program, and recording medium | |
EP2693311A1 (en) | Operation device | |
CN104160362A (zh) | 针对不利使用条件调整移动用户界面 | |
US20190317659A1 (en) | Dynamic Image Stabilization Using Motion Sensors | |
KR20220041831A (ko) | 음성 인식의 활성화 | |
JP6043671B2 (ja) | クラクション発生装置、クラクション発生方法、プログラム及び乗物用入力装置 | |
US20220242430A1 (en) | Vehicle information display system, vehicle information display device, and vehicle control system | |
JP2024100965A (ja) | 情報生成装置、制御方法、プログラム及び記憶媒体 | |
US20170021693A1 (en) | Air-conditioning control apparatus, air-conditioning apparatus, air-conditioning control method, air-conditioning control system, and non-transitory recording medium | |
US11754417B2 (en) | Information generating device, vehicle control system, information generation method, and computer program product | |
US20230075321A1 (en) | Systems and methods for user interaction based vehicle feature control | |
JP2018195167A (ja) | 情報提供装置および情報提供方法 | |
JP6770488B2 (ja) | 注視対象物推定装置、注視対象物推定方法、およびプログラム | |
JP2020053083A (ja) | 撮影装置、制御方法、プログラム及び記憶媒体 | |
CN116424243B (zh) | 一种智能车载多媒体系统控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22827907 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2023529483 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202280042810.6 Country of ref document: CN |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202327087741 Country of ref document: IN |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2022827907 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2022827907 Country of ref document: EP Effective date: 20240122 |