JP2024033538A - データ処理装置及びデータ処理方法 - Google Patents
データ処理装置及びデータ処理方法 Download PDFInfo
- Publication number
- JP2024033538A JP2024033538A JP2022137170A JP2022137170A JP2024033538A JP 2024033538 A JP2024033538 A JP 2024033538A JP 2022137170 A JP2022137170 A JP 2022137170A JP 2022137170 A JP2022137170 A JP 2022137170A JP 2024033538 A JP2024033538 A JP 2024033538A
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- vehicle
- unit
- data processing
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000009471 action Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005043 peripheral vision Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/002—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q3/00—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
- B60Q3/70—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q3/00—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
- B60Q3/10—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors for dashboards
- B60Q3/14—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors for dashboards lighting through the surface to be illuminated
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q3/00—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
- B60Q3/10—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors for dashboards
- B60Q3/16—Circuits; Control arrangements
- B60Q3/18—Circuits; Control arrangements for varying the light intensity
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q3/00—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
- B60Q3/70—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
- B60Q3/78—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose for generating luminous strips, e.g. for marking trim component edges
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q3/00—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
- B60Q3/80—Circuits; Control arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/10—Interpretation of driver requests or demands
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】車両乗員に対して好適なフィードバックが実現できる。【解決手段】開示のデータ処理装置20は、車両の乗員が前記車両の外部を指し示す動作を認識する乗員状態認識部22と、前記車両の周囲の状況を取得する周囲状況取得部21と、前記乗員状態認識部22による認識結果と、前記周囲状況取得部21による取得結果とに基づいて、前記乗員が指し示した対象を認識する対象認識部24と、前記車両のフロントガラスの上方または下方に、車体幅の方向に渡って設置された長尺状の発光部14と、前記乗員状態認識部による認識結果及び/又は前記対象認識部による認識結果に基づいて、前記乗員が指し示した方向及び/又は前記対象が所在する方向に対応する前記発光部の一部の発光態様を少なくとも2段階で制御する発光制御部25とを備える。【選択図】図2
Description
本発明は、データ処理装置及びデータ処理方法に関する。
従来、車両の乗員であるユーザが指し示した対象物を特定する技術がある。例えば、特許文献1には、「ユーザの手や指が指し示している方向に存在する対象物を正確に特定する対象物特定装置を提供する。」、「測位部13は、車両の現在位置および車両の方位を検出する。撮像部18は、車両の周囲を撮像する。指差し方向検知部16は、車両内のユーザが自身の手を用いて指し示した指示方向を検知する。対象物抽出部は、指差し方向検知部16が検知した指示方向に存在する対象物を撮像部18が撮像した画像内から抽出する。対象物位置特定部は、車両に対して、対象物抽出部が抽出した対象物の位置を特定する。」との記載がある。
従来の技術では、車両の乗員による指さし動作を車載の装置がどのように認識しているかをフィードバックすることが困難であった。例えば、運転者がフロントガラス越しに対象を指し示した場合、車載の装置は、指し示された方向を認識したこと、もしくは指し示された対象を認識したことを運転者にフィードバックとして伝達し、インタラクションを成立させることが望ましい。そして、このフィードバックは、運転者による周囲の目視確認を阻害することなく行うことが求められる。
そこで、本発明では、車両乗員に好適なフィードバックを行うデータ処理装置及びデータ処理方法を提供することを目的とする。
上記目的を達成するために、代表的な本発明のデータ処理装置の一つは、車両の乗員が前記車両の外部を指し示す動作を認識する乗員状態認識部と、前記車両の周囲の状況を取得する周囲状況取得部と、前記乗員状態認識部による認識結果と、前記周囲状況取得部による取得結果とに基づいて、前記乗員が指し示した対象を認識する対象認識部と、前記車両のフロントガラスの上方または下方に、車体幅の方向に渡って設置された長尺状の発光部に接続され、前記乗員状態認識部による認識結果及び/又は前記対象認識部による認識結果に基づいて、前記乗員が指し示した方向及び/又は前記対象が所在する方向に対応する前記発光部の一部の発光態様を少なくとも2段階で制御する発光制御部とを備えることを特徴とする。
本発明によれば、車両乗員に対して好適なフィードバックが実現できる。上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。
以下、実施例を図面を用いて説明する。
図1は、実施例1のデータ処理における操作および動作の概要を説明する説明図である。また、図2は、実施例1のデータ処理装置20を含む車載システム10全体の構成図である。車両に搭載された車載システム10は、データ処理装置20と、車内を撮像する車内カメラと、自車両の周囲を撮像する車外カメラとを備える。さらに、車両のフロントガラスの下方に、車体幅の方向に渡って設置された長尺状の発光部14を備える(A1)。発光部14は、例えば、低解像度のLED(Light Emitting Diode)である。
データ処理装置20は、車内カメラから画像を取得し、ユーザである車両の乗員の状態を認識する。例えば、乗員が車外を指さすと、データ処理装置20は、車内カメラの画像を分析して乗員の目の位置と手指の位置を識別し、目の位置と指先を結ぶ直線を指さし方向と判定する。ここで、手指とは、手と指の少なくとも一方を含む意味で用いる。
乗員の指さしを認識したデータ処理装置20は、乗員によって指し示された方向(指さし方向)を含む発光部14の一部を幅L1で発光させる(A2)。
乗員の指さしを認識したデータ処理装置20は、乗員によって指し示された方向(指さし方向)を含む発光部14の一部を幅L1で発光させる(A2)。
さらに、データ処理装置20は、車外カメラの画像等を用いて車両の周囲の状況を取得する。データ処理装置20は、車両の周囲の状況から、乗員による指さしの対象となり得る候補を抽出し、各候補の車両に対する相対方向を特定する。そして、いずれかの候補の相対方向と指さし方向とが略一致する場合に、当該候補を乗員が指し示した対象(指さし対象)であると認識する。
指さし対象を認識したデータ処理装置20は、指さし対象の方向を含む発光部14の一部を幅L2で発光させる(A3)。ここで、幅L2は、幅L1よりも十分に狭くする。
図1では、乗員は駐車領域P1を指さしており、データ処理装置20は、駐車領域P1の方向に対応する発光部14の一部を発光させている。
その後、乗員が指さしをやめると、データ処理装置20は、駐車領域P1の方向における幅L2での発光を所定時間継続させ(A4)、発光を終了させる。
指さし対象を認識したデータ処理装置20は、指さし対象の方向を含む発光部14の一部を幅L2で発光させる(A3)。ここで、幅L2は、幅L1よりも十分に狭くする。
図1では、乗員は駐車領域P1を指さしており、データ処理装置20は、駐車領域P1の方向に対応する発光部14の一部を発光させている。
その後、乗員が指さしをやめると、データ処理装置20は、駐車領域P1の方向における幅L2での発光を所定時間継続させ(A4)、発光を終了させる。
このように、データ処理装置20は、乗員の指さし行為に対する認識の進捗を、発光態様の段階的な変化でフィードバックできる。また、フロントガラスの下方の発光態様の変化を用いるため、乗員は車両周辺の直接目視を行いつつ、周辺視野でデータ処理装置20からのフィードバックを確認できる。
図2において、データ処理装置20は、駆動制御ユニット30及びナビゲーションユニット40と接続される。駆動制御ユニット30は、自車両の加減速と操舵を制御するユニットである。車両のナビゲーションユニット40は、自車両の位置を特定し、地図データベースを参照して車両の経路の探索と案内を行うユニットである。この地図データベースは、乗員が指し示す対象となり得るものの位置を示す対象物データベースとして用いることができる。
データ処理装置20は、車載システム10が有する車外カメラ11、車内カメラ12、マイクロフォン13、発光部14に接続されている。車外カメラ11は、車両の周囲を撮像する撮像装置である。車内カメラ12は、車室内を撮像する撮像装置であり、車室内の乗員の状態を取得するセンサとして機能する。マイクロフォン13は、車室内の音を集音する。発光部14は、車両のフロントガラスの下方に、車体幅の方向に渡って設置された長尺状の低解像度LEDである。
車外カメラ11は、例えば乗員の視界を撮像範囲に含む位置に設置する。
車内カメラ12は、乗員の目と手を撮像可能な位置に設置する。例えば、ルームミラー近傍やルームライト近傍などに設置すればよい。
車内カメラ12は、乗員の目と手を撮像可能な位置に設置する。例えば、ルームミラー近傍やルームライト近傍などに設置すればよい。
データ処理装置20は、周囲状況取得部21、乗員状態認識部22、音声認識部23、対象認識部24、発光制御部25、駐車支援実行部26及び目的地設定部27を有する。データ処理装置20をコンピュータで実現する場合には、CPU(Central Processing Unit)がプログラムを実行することで、周囲状況取得部21、乗員状態認識部22、音声認識部23、対象認識部24、発光制御部25、駐車支援実行部26及び目的地設定部27に対応する機能を実現すればよい。
周囲状況取得部21は、自車両の周囲の状況を取得する。具体的には、周囲状況取得部21は、自車両の周囲を撮像する車外カメラ11が撮像した画像や、ナビゲーションユニット40により特定された自車両の位置データと周囲の地図データを取得し、対象認識部24に出力する。
乗員状態認識部22は、車内カメラ12が撮像した画像を取得し、車両の乗員の状態を認識する。乗員状態認識部22が認識する乗員の状態は、車両の外部を指し示す動作を含む。また、乗員状態認識部22は、乗員の目の位置と手指の位置を認識する。乗員状態認識部22は、乗員の目の位置と手指の位置から指さし方向を認識し、対象認識部24に出力する。
音声認識部23は、乗員の音声から対象に関する単語を認識する。例えば、「駐車場」、「お店」など、乗員が差し示した対象の絞り込みに寄与する単語を認識すればよい。
対象認識部24は、周囲状況と、指さし方向と、音声に含まれる単語とを用いて乗員が指し示した対象を認識する。
まず、対象認識部24は、車両周囲における対象候補と、対象候補の自車両に対する相対方向を特定する。
例えば、対象認識部24は、車外カメラ11の画像に対して画像処理を行うことで、自車両が駐車可能な駐車領域などを対象候補として認識し、画像内の位置から相対方向を特定できる。
また、対象認識部24は、自車両の位置データと周辺の地図データを用い、自車両の周囲の施設の3Dモデルデータを生成することで、対象候補と相対方向を特定できる。なお、施設とは、建築物、店舗、公園など乗員が指さす対象となり得る任意のものをいう。
例えば、対象認識部24は、車外カメラ11の画像に対して画像処理を行うことで、自車両が駐車可能な駐車領域などを対象候補として認識し、画像内の位置から相対方向を特定できる。
また、対象認識部24は、自車両の位置データと周辺の地図データを用い、自車両の周囲の施設の3Dモデルデータを生成することで、対象候補と相対方向を特定できる。なお、施設とは、建築物、店舗、公園など乗員が指さす対象となり得る任意のものをいう。
対象認識部24は、指さし方向と相対方向とが略一致する場合、例えば、指さし方向と相対方向の差が所定値以下である場合、その対象を乗員の指さし対象と認識する。
なお、対象認識部24による対象の認識には、音声に含まれる単語を用いることができる。具体的には、対象認識部24は、音声に含まれる単語に該当することを条件に、対象の候補を絞り込んだうえで、指さし方向と相対方向が略一致する対象を指さし対象と認識する。
発光制御部25は、乗員状態認識部22による認識結果や対象認識部24による認識結果に基づいて、発光部14の発光を制御する。発光制御部25は、乗員が指し示した方向や対象が所在する方向に対応する発光部14の一部の発光態様を少なくとも2段階で制御することで、乗員の指さしをどのように認識しているかをフィードバックする。
発光制御部25は、乗員状態認識部22が指さし方向(乗員によって指し示された方向)を認識したか否かで発光態様を異ならせることができ、また、対象認識部24が指さし対象(乗員によって指し示された対象)を認識したか否かで発光態様を異ならせることができる。
一例として、発光制御部25は、乗員状態認識部22が指さし方向を認識した場合に、指さし方向を含む発光部14の一部を幅L1で発光させ、対象認識部24が指さし対象を認識した場合に、指さし対象が所在する方向を含む発光部14の一部を幅L1よりも狭い幅L2で発光させる。
駐車支援実行部26は、対象認識部24が駐車領域を対象として認識し、所定の確定操作を受け付けた場合に、駐車領域への駐車を支援する。具体的には、駐車支援実行部26は、対象認識部24が出力した駐車領域の位置を示すデータに基づいて、駆動制御ユニット30に対して動作指示を出力する。この動作指示は、自車両の加減速と操舵を制御する指示であり、この動作指示を受けて駆動制御ユニット30が動作することで、自車両は駐車領域まで自動走行し、停車する。
目的地設定部27は、対象認識部24が施設を対象として認識し、所定の確定操作を受け付けた場合に、当該施設を目的地としてナビゲーションユニット40に出力する。ナビゲーションユニット40は、出力された目的地に至る経路を探索し、探索した経路を案内する。
図3は、発光態様の制御についての説明図である。図3に示すように、指さしに関する認識の段階は、(1)乗員の手を認識した段階、(2)指さし動作を認識した段階、(3)指さし方向を認識した段階、(4)指さし対象を認識した段階に区分することができる。
発光制御部25は、これらの段階に対して異なる発光態様を割り当てて、認識の進捗を乗員に伝えることができる。
発光制御部25は、これらの段階に対して異なる発光態様を割り当てて、認識の進捗を乗員に伝えることができる。
図3に示したパターン1では、発光制御部25は、指さし動作を認識した段階(2)までは発光無しで、指さし方向を認識した段階(3)で第1発光態様、指さし対象を認識した段階(4)で第2発光態様で発光制御する。
パターン2では、発光制御部25は、乗員の手を認識した段階(1)までは発光無し、指さし動作を認識した段階(2)と指さし方向を認識した段階(3)は第1発光態様、指さし対象を認識した段階(4)で第2発光態様としている。
パターン3では、発光制御部25は、乗員の手を認識した段階(1)までは発光無し、指さし動作を認識した段階(2)で第1発光態様、指さし方向を認識した段階(3)と指さし対象を認識した段階(4)で第2発光態様としている。
パターン4では、発光制御部25は、乗員の手を認識した段階(1)までは発光無し、指さし動作を認識した段階(2)で第1発光態様、指さし方向を認識した段階(3)で第2発光態様、指さし対象を認識した段階(4)で第3発光態様としている。
パターン2では、発光制御部25は、乗員の手を認識した段階(1)までは発光無し、指さし動作を認識した段階(2)と指さし方向を認識した段階(3)は第1発光態様、指さし対象を認識した段階(4)で第2発光態様としている。
パターン3では、発光制御部25は、乗員の手を認識した段階(1)までは発光無し、指さし動作を認識した段階(2)で第1発光態様、指さし方向を認識した段階(3)と指さし対象を認識した段階(4)で第2発光態様としている。
パターン4では、発光制御部25は、乗員の手を認識した段階(1)までは発光無し、指さし動作を認識した段階(2)で第1発光態様、指さし方向を認識した段階(3)で第2発光態様、指さし対象を認識した段階(4)で第3発光態様としている。
発光態様は、発光の幅、点滅、色、明るさなど、任意の要素を組み合わせて用いることができる。発光の位置も任意に制御可能であるが、指さしに関するフィードバックである点から、指さし方向や対象の方向に対応させた位置を部分的に発光させることが好適である。
図4は、パターン1での発光制御を説明するフローチャートである。データ処理装置20は、次のステップS101~S106の動作を繰り返し実行する。
ステップS101 乗員状態認識部22は、乗員の状態を認識し、乗員が指さし動作を行っているか否かを判定する。乗員が指さし動作を行っていないか指さし方向を特定できなければ、ステップS101を繰り返す。乗員が指さし動作を行っており、指さし方向を特定できれば、ステップS102に進む。
ステップS101 乗員状態認識部22は、乗員の状態を認識し、乗員が指さし動作を行っているか否かを判定する。乗員が指さし動作を行っていないか指さし方向を特定できなければ、ステップS101を繰り返す。乗員が指さし動作を行っており、指さし方向を特定できれば、ステップS102に進む。
ステップS102 発光制御部25は、指さし方向を含む発光部14の一部を広い幅で光らせる。その後、ステップS103に進む。
ステップS103 周囲状況取得部21は、車外カメラ11の画像、位置データ、周辺の地図データなどを周囲状況として取得し、ステップS104に進む。
ステップS104 対象認識部24は、指さし方向、音声、周囲状況から指さし対象を判定する。また、指さし対象の判定の確信度を算出する。確信度が一定以上であれば、ステップS105に進み、確信度が一定未満であればステップS106に進む。
ステップS103 周囲状況取得部21は、車外カメラ11の画像、位置データ、周辺の地図データなどを周囲状況として取得し、ステップS104に進む。
ステップS104 対象認識部24は、指さし方向、音声、周囲状況から指さし対象を判定する。また、指さし対象の判定の確信度を算出する。確信度が一定以上であれば、ステップS105に進み、確信度が一定未満であればステップS106に進む。
ステップS105 発光制御部25は、指さし対象の方向を含む発光部14の一部を狭い幅で光らせる。その後、ステップS106に進む。
ステップS106 発光制御部25は、一定時間後に発光を終了し、ステップS101に戻る。
ステップS106 発光制御部25は、一定時間後に発光を終了し、ステップS101に戻る。
これまでの説明では、発光部14として低解像度LEDを用いる場合を説明したが、発光部14は、フロントガラスに設置されたヘッドアップディスプレイであってもよい。ヘッドアップディスプレイを用いる場合には、フロントガラスの下端近傍が所定の発光態様となるように投影を行うことになる。
また、フロントガラスの下に、車体幅の方向に渡って設置された長尺状の液晶ディスプレイを用いてもよい。この場合には、液晶ディスプレイの上側の表示領域の一部を、発光部14として利用することになる。
また、フロントガラスの上側に発光部14を設ける構成としてもよい。
また、フロントガラスの下に、車体幅の方向に渡って設置された長尺状の液晶ディスプレイを用いてもよい。この場合には、液晶ディスプレイの上側の表示領域の一部を、発光部14として利用することになる。
また、フロントガラスの上側に発光部14を設ける構成としてもよい。
また、対象の認識結果は、自動駐車や目的地の設定に限らず、任意に利用可能である。例えば、対象に関する情報提供を行ってもよいし、対象の車両に追従する自動走行制御を行ってもよい。また、駐車の運転操作を支援する情報提供のみを行う構成とすることもできる。
上述してきたように、開示のデータ処理装置20は、車両の乗員が前記車両の外部を指し示す動作を認識する乗員状態認識部22と、前記車両の周囲の状況を取得する周囲状況取得部21と、前記乗員状態認識部22による認識結果と、前記周囲状況取得部21による取得結果とに基づいて、前記乗員が指し示した対象を認識する対象認識部24と、前記車両のフロントガラスの上方または下方に、車体幅の方向に渡って設置された長尺状の発光部14に接続され、前記乗員状態認識部による認識結果及び/又は前記対象認識部による認識結果に基づいて、前記乗員が指し示した方向及び/又は前記対象が所在する方向に対応する前記発光部の一部の発光態様を少なくとも2段階で制御する発光制御部25とを備える。
この構成及び動作により、車両乗員に対して好適なフィードバックが実現できる。
この構成及び動作により、車両乗員に対して好適なフィードバックが実現できる。
また、前記発光制御部25は、一例として、前記乗員状態認識部22が前記乗員によって指し示された方向を認識したか否かで前記発光態様を異ならせる。
また、前記発光制御部25は、一例として、前記対象認識部24が前記乗員によって指し示された対象を認識したか否かで前記発光態様を異ならせる。
このように、データ処理装置20は、指さしに関する認識の進捗を発光態様の変化でフィードバックできる。
また、前記発光制御部25は、一例として、前記対象認識部24が前記乗員によって指し示された対象を認識したか否かで前記発光態様を異ならせる。
このように、データ処理装置20は、指さしに関する認識の進捗を発光態様の変化でフィードバックできる。
具体的には、前記発光制御部25は、前記乗員状態認識部22が前記乗員によって指し示された方向を認識した場合に、前記乗員によって指し示された方向を含む発光部14の一部を第1の幅で発光させ、前記対象認識部24が前記乗員によって指し示された対象を認識した場合に、当該対象が所在する方向を含む発光部14の一部を第2の幅で発光させ、前記第2の幅は、前記第1の幅よりも狭い。
このように発光の幅を変更することで、指さしに対する認識の進捗を簡明にフィードバックできる。特に、発光の幅の変化は、周辺視野でも十分に確認可能であるから、乗員による周辺の目視確認を阻害することなくフィードバック可能である。
このように発光の幅を変更することで、指さしに対する認識の進捗を簡明にフィードバックできる。特に、発光の幅の変化は、周辺視野でも十分に確認可能であるから、乗員による周辺の目視確認を阻害することなくフィードバック可能である。
前記発光部14は、一例として、低解像度のLED(Light Emitting Diode)である。
発光部14によるフィードバックは、詳細な情報の出力を要しないので、低解像度LEDが適する。また、低解像度LEDは、車内インテリアとしても利用できる。
発光部14によるフィードバックは、詳細な情報の出力を要しないので、低解像度LEDが適する。また、低解像度LEDは、車内インテリアとしても利用できる。
また、前記発光部14は、一例として、前記フロントガラスに設置されたヘッドアップディスプレイである。
ヘッドアップディスプレイは、各種情報の提供と指さしに関するフィードバックに共用可能である。
ヘッドアップディスプレイは、各種情報の提供と指さしに関するフィードバックに共用可能である。
また、前記周囲状況取得部21は、前記車両の周囲を撮像するカメラから画像を取得し、前記対象認識部24は、前記画像から前記車両が駐車可能な駐車領域を前記対象として認識し、前記駐車領域への駐車を支援する駐車支援実行部26をさらに備える構成としてもよい。
この構成では、乗員が指さした駐車領域への駐車を支援することができる。
この構成では、乗員が指さした駐車領域への駐車を支援することができる。
また、前記周囲状況取得部21は、前記車両の周囲の地図データを取得し、前記対象認識部24は、前記地図データに含まれる施設を前記対象として認識し、前記施設を目的地として設定する目的地設定部27をさらに備える構成としてもよい。
この構成では、乗員が指さした施設への案内を簡易に行うことができる。
この構成では、乗員が指さした施設への案内を簡易に行うことができる。
なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、かかる構成の削除に限らず、構成の置き換えや追加も可能である。
例えば、運転者以外に他の乗員がいる場合に、他の乗員を対象に本発明を適用してもよい。また、複数の乗員のうち、特定の乗員を指定して本発明の適用対象としてもよい。
また、車内カメラ以外の任意のセンサ、例えば、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)や、据え置きされたスマートフォンなどから乗員の状態を取得してもよい。さらに、複数のセンサ、複数種類のセンサの出力を組み合わせて用いることもできる。
また、上記実施例では、目と指先の延長線上を乗員が指し示す方向として判定したが、手指の2点を認識し、この2点の延長線上を乗員が指し示す方向として判定してもよい。
10:車載システム、11:車外カメラ、12:車内カメラ、13:マイクロフォン、14:発光部、20:データ処理装置、21:周囲状況取得部、22:乗員状態認識部、23:音声認識部、24:対象認識部、25:発光制御部、26:駐車支援実行部、27:目的地設定部、30:駆動制御ユニット、40:ナビゲーションユニット
Claims (7)
- 車両の乗員が前記車両の外部を指し示す動作を認識する乗員状態認識部と、
前記車両の周囲の状況を取得する周囲状況取得部と、
前記乗員状態認識部による認識結果と、前記周囲状況取得部による取得結果とに基づいて、前記乗員が指し示した対象を認識する対象認識部と、
前記車両のフロントガラスの上方または下方に、車体幅の方向に渡って設置された長尺状の発光部に接続され、前記乗員状態認識部による認識結果及び/又は前記対象認識部による認識結果に基づいて、前記乗員が指し示した方向及び/又は前記対象が所在する方向に対応する前記発光部の一部の発光態様を少なくとも2段階で制御する発光制御部と
を備えることを特徴とするデータ処理装置。 - 請求項1に記載のデータ処理装置であって、
前記発光制御部は、前記乗員状態認識部が前記乗員によって指し示された方向を認識したか否かで前記発光態様を異ならせることを特徴とするデータ処理装置。 - 請求項1に記載のデータ処理装置であって、
前記発光制御部は、前記対象認識部が前記乗員によって指し示された対象を認識したか否かで前記発光態様を異ならせることを特徴とするデータ処理装置。 - 請求項3に記載のデータ処理装置であって、
前記発光制御部は、
前記乗員状態認識部が前記乗員によって指し示された方向を認識した場合に、前記乗員によって指し示された方向を含む発光部の一部を第1の幅で発光させ、
前記対象認識部が前記乗員によって指し示された対象を認識した場合に、当該対象が所在する方向を含む発光部の一部を第2の幅で発光させ、
前記第2の幅は、前記第1の幅よりも狭いことを特徴とするデータ処理装置。 - 請求項1に記載のデータ処理装置であって、
前記周囲状況取得部は、前記車両の周囲を撮像するカメラから画像を取得し、
前記対象認識部は、前記画像から前記車両が駐車可能な駐車領域を前記対象として認識し、
前記駐車領域への駐車を支援する駐車支援実行部をさらに備えたことを特徴とするデータ処理装置。 - 請求項1に記載のデータ処理装置であって、
前記周囲状況取得部は、前記車両の周囲の地図データを取得し、
前記対象認識部は、前記地図データに含まれる施設を前記対象として認識し、
前記施設を目的地として設定する目的地設定部をさらに備えたことを特徴とするデータ処理装置。 - フロントガラスの上方または下方に、車体幅の方向に渡って設置された長尺状の発光部を備える車両に搭載されたデータ処理装置が、
前記車両の乗員が前記車両の外部を指し示す動作を認識する乗員状態認識ステップと、
前記車両の周囲の状況を取得する周囲状況取得ステップと、
前記乗員状態認識ステップによる認識結果と、前記周囲状況取得ステップによる取得結果とに基づいて、前記乗員が指し示した対象を認識する対象認識ステップと、
前記乗員状態認識ステップによる認識結果及び/又は前記対象認識ステップによる認識結果に基づいて、前記乗員が指し示した方向及び/又は前記対象が所在する方向に対応する前記発光部の一部の発光態様を少なくとも2段階で制御する発光制御ステップと
を含むことを特徴とするデータ処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022137170A JP2024033538A (ja) | 2022-08-30 | 2022-08-30 | データ処理装置及びデータ処理方法 |
US18/457,570 US20240075874A1 (en) | 2022-08-30 | 2023-08-29 | Data processing device and data processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022137170A JP2024033538A (ja) | 2022-08-30 | 2022-08-30 | データ処理装置及びデータ処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024033538A true JP2024033538A (ja) | 2024-03-13 |
Family
ID=90061182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022137170A Pending JP2024033538A (ja) | 2022-08-30 | 2022-08-30 | データ処理装置及びデータ処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240075874A1 (ja) |
JP (1) | JP2024033538A (ja) |
-
2022
- 2022-08-30 JP JP2022137170A patent/JP2024033538A/ja active Pending
-
2023
- 2023-08-29 US US18/457,570 patent/US20240075874A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240075874A1 (en) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108136987B (zh) | 停车位检测方法及装置 | |
US7783422B2 (en) | Navigation device and method of navigating vehicle | |
JP4940168B2 (ja) | 駐車スペース認識装置 | |
JP6528139B2 (ja) | 表示制御装置及び表示制御プログラム | |
CN103578286B (zh) | 交通标志识别 | |
EP2080668A1 (en) | Driving assist device, method and computer program product for a vehicle | |
JP2005138755A (ja) | 虚像表示装置およびプログラム | |
CN109478373A (zh) | 自动驾驶车辆的控制装置以及控制程序 | |
KR20200017917A (ko) | 차량 및 그 제어 방법 | |
JP2008260337A (ja) | 走行支援装置 | |
WO2018146961A1 (ja) | 車両用表示制御装置 | |
US11256462B2 (en) | Display device for a vehicle | |
JP7346859B2 (ja) | 制御装置、表示装置、移動体、制御方法、及びプログラム | |
JP2014120111A (ja) | 走行支援システム、走行支援方法及びコンピュータプログラム | |
JP2007263931A (ja) | ドライバ思考推定装置、ドライバ思考推定方法及びドライバ思考推定プログラム | |
JP2014120114A (ja) | 走行支援システム、走行支援方法及びコンピュータプログラム | |
JP6136238B2 (ja) | 走行支援システム、走行支援方法及びコンピュータプログラム | |
JP6600342B2 (ja) | 深度値に基づいたジェスチャ操作方法および深度値に基づいたジェスチャ操作システム | |
JP2018091908A (ja) | ヘッドアップディスプレイ装置 | |
JP2023133535A (ja) | 撮影装置、制御方法、プログラム及び記憶媒体 | |
JP2024033538A (ja) | データ処理装置及びデータ処理方法 | |
JP6385624B2 (ja) | 車載情報処理装置、車載装置および車載情報処理方法 | |
US20240190338A1 (en) | Data processing device and data processing method | |
CN115556767A (zh) | 自动驾驶车辆、远程控制自动驾驶车辆的控制系统及方法 | |
JP2024082985A (ja) | データ処理装置及びデータ処理方法 |