JP2022093012A - 注目対象共有装置、注目対象共有方法 - Google Patents
注目対象共有装置、注目対象共有方法 Download PDFInfo
- Publication number
- JP2022093012A JP2022093012A JP2020206064A JP2020206064A JP2022093012A JP 2022093012 A JP2022093012 A JP 2022093012A JP 2020206064 A JP2020206064 A JP 2020206064A JP 2020206064 A JP2020206064 A JP 2020206064A JP 2022093012 A JP2022093012 A JP 2022093012A
- Authority
- JP
- Japan
- Prior art keywords
- child
- interest
- driver
- information
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000001514 detection method Methods 0.000 claims abstract description 43
- 230000004044 response Effects 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 12
- 241001465754 Metazoa Species 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 32
- 230000006870 function Effects 0.000 description 21
- 230000000694 effects Effects 0.000 description 13
- 230000008921 facial expression Effects 0.000 description 10
- 230000029058 respiratory gaseous exchange Effects 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 241000282472 Canis lupus familiaris Species 0.000 description 6
- 230000036760 body temperature Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000008451 emotion Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 230000017531 blood circulation Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 230000033764 rhythmic process Effects 0.000 description 5
- 239000012141 concentrate Substances 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 210000005259 peripheral blood Anatomy 0.000 description 4
- 239000011886 peripheral blood Substances 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 210000001097 facial muscle Anatomy 0.000 description 3
- 239000005357 flat glass Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 230000035900 sweating Effects 0.000 description 3
- 241000271566 Aves Species 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- RFHAOTPXVQNOHP-UHFFFAOYSA-N fluconazole Chemical compound C1=NC=NN1CC(C=1C(=CC(F)=CC=1)F)(O)CN1C=NC=N1 RFHAOTPXVQNOHP-UHFFFAOYSA-N 0.000 description 2
- 230000017525 heat dissipation Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000000241 respiratory effect Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000385223 Villosa iris Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000002820 sympathetic nervous system Anatomy 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/787—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y10/00—Economic sectors
- G16Y10/40—Transportation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/20—Information sensed or collected by the things relating to the thing itself
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/20—Analytics; Diagnosis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
【課題】車室外の物事に対する子供の反応に対して運転席の乗員が応答しやすい注目対象共有装置、注目対象共有方法を提供する。【解決手段】HCU1は、子供用カメラ25及び子供センサからの入力データに基づき子供の興味反応を検出すると、その検出時点における子供の視線情報と車外カメラの画像とに基づいて、子供が興味を示した車室外の物事である注目対象物を特定する。そして、注目対象物についての名前や種別、特徴などをサーバ5から取得して、ドライバ及び子供に提示する。また、注目対象物の情報を事後参照可能にサーバやスマートフォン等に保存する。【選択図】図3
Description
本開示は、後部座席に着座している人物が関心を寄せた車外の物事についての情報をドライバが共有する技術に関する。
特許文献1には、ドライバ以外の乗員である同乗者が特定の表情や動作をしたこと、特定感情を表す音声を発したこと、又は所定の指示操作が行われたことに基づいて、車外カメラの撮像画像をドライバが視認可能なディスプレイに表示する技術が開示されている。ディスプレイに表示される画像は、車室外のうち、同乗者の視線方向に存在する被写体の画像である。このように特許文献1には、特許文献1に開示の構成では、同乗者が関心を寄せた可能性がある被写体を含む画像がディスプレイに表示される。
車両の利用形態として、子供が後部座席に設けられた子供用シートに着座し、その保護者(例えば親)が運転席に着座することがある。子供は大人に比べて多様な物体に興味を持ちうる。そして、子供は、興味をもった物事について、ドライバとしての保護者にしばしば問い合わせたり、その存在を教えてくれたりする。
しかしながら、ドライバとしての保護者は運転に集中する必要があるため、子供の問いかけに対していつも丁寧に応対できるわけではない。また、ドライバは後部座席に着座している子供が何を見ているか把握しづらい。よって、運転負荷が軽い場合であっても、子供の興味反応に寄り添った対応をドライバが行うことは難しい。特に、子供がまだ物事をうまく言語化できない年頃である場合や、ボキャブラリーが少ない年頃である場合には、より一層困難となる。
そのような課題に対し、特許文献1に開示の技術によれば、子供が興味を持った可能性がある被写体を含む画像がディスプレイに表示されるため、ドライバは、当該画像を見ることにより、子供が何に興味を寄せているのか、ある程度は見当をつけることができる。しかしながら、特許文献1に開示の構成では単に画像が表示されるだけである。そのため、車室外の物事に対する子供の反応に対して親が回答/共感するためには、表示画像をもとに子供が着目したであろう被写体を特定し、それを言語化して発話する必要があり、依然としてドライバへの負担が大きい。なお、ここでのドライバとは運転席に着座している人物である運転席乗員を指す。
本開示は、この事情に基づいて成されたものであり、その目的とするところは、車室外の物事に対する子供の反応に対して運転席の乗員が応答しやすい注目対象共有装置、注目対象共有方法を提供することにある。
その目的を達成するための注目対象共有装置は、子供が着座するための座席である子供用シートが設けられた車両で使用される注目対象共有装置であって、子供用シートに着座している子供の状態を表す情報として、子供の少なくとも顔部を撮像範囲に含む車室内カメラ(25)の画像に基づき、子供の視線方向を取得する子供情報取得部(F1)と、子供の生体情報、子供の音声、及び、視線方向の少なくとも何れか1つに基づいて、車室外の物事に対する子供の興味反応を検出する興味反応検出部(F5)と、子供情報取得部が取得した視線方向と、車外を撮像するように車両に取り付けられている車外カメラ(28)の撮像画像と、に基づいて、子供が興味を持った対象である注目対象を検出する注目対象検出部(F6)と、車両の内部又は外部に配置されたデータベースから、注目対象について言語化された情報を取得する対象情報取得部(F7)と、対象情報取得部が取得した情報を、当該情報に対応するテキストの表示及び音声出力の少なくとも何れか一方を用いて、運転席乗員及び子供の少なくとも何れか一方に通知する通知処理部(F9)と、を備える。
上記構成では、子供の視線情報に基づき、子供が注目している物事を注目対象として特定するとともに、当該注目対象について言語化されている情報を取得して子供又は運転席乗員の少なくともに何れか一方に提供する。ここで、運転席乗員としての保護者に注目対象についての情報を通知する構成によれば、単に画像だけでなく、言語化された情報も通知されるため、当該保護者は子供が何に注目しているのかを認識しやすい。よって、子供が注目している物事をテーマとして子供と会話を行いやすくなる。
また、子供に注目対象についての情報を通知する構成によれば、注目対象物について言語化された情報も通知されるため、当該情報を元に、自分が何に注目しているかを運転席乗員に伝えやすくなる。その結果、子供の興味反応に対して運転席乗員が応答しやすくなる。
また、上記目的を達成するための注目対象共有方法は、車両に予め設定されている子供用シートに着座している子供が興味を示した物事を保護者が共有するための、少なくとも1つのプロセッサによって実行される注目対象共有方法であって、子供用シートに着座している子供の少なくとも顔部を撮像範囲に含む車室内カメラ(25)の画像に基づき、子供の視線方向を取得すること(S101)と、子供の生体情報、子供の音声、及び、視線方向の少なくとも何れか1つに基づいて、車室外の物事に対する子供の興味反応を検出すること(S104)と、取得された子供の視線方向と、車外を撮像するように車両に取り付けられている車外カメラ(28)の撮像画像とに基づいて、子供が興味を持った対象である注目対象を検出すること(S105)と、車両の内部又は外部に配置されたデータベースから、注目対象について言語化された情報を取得すること(S107)と、取得された注目対象についての情報を、当該情報に対応するテキストの表示及び音声出力の少なくとも何れか一方を用いて、運転席乗員及び子供の少なくとも何れか一方に通知すること(S110、S111、S113)と、を含む。
上記方法は、上述した注目対象共有装置によって実行される方法である。上記の方法によれば注目対象共有装置と同様の作用により同様の効果が得られる。
なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
以下、本開示の実施形態について図を用いて説明する。図1は、本開示に係る注目対象共有装置が適用された注目対象共有システムSysの概略的な構成の一例を示す図である。本開示の注目対象共有システムSysを構成する要素の一部又は全部は、車両に搭載されている。注目対象共有システムSysが備える機能要素の一部は、車両の外部に設けられていても良い。なお、注目対象共有システムSysは、1つの側面において子供とドライバとしての保護者とのコミュニケーションを支援するシステムと解する事もできる。故に、注目対象共有システムSysはコミュニケーション支援システムと呼ぶこともできる。
<前置き>
本開示におけるドライバとは、運転席に着座している人物、つまり運転席乗員を指す。ドライバとの表現には、実際に運転操作の一部又は全部を実施している人物に限らない。ドライバとの記載は、自動運転中においては自動運転システムから運転操作の権限を受け取るべき人物を指す。ここでは一例として、後部座席に設置されたチャイルドシートに子供が乗車してあって、かつ、後部座席に着座している子供の保護者がドライバとして運転席に着座している場合を想定して、注目対象共有システムSysの作動を説明する。保護者の概念には、子供の母親や、父親の他、祖父母などの親戚などが含まれる。ベビーシッターもまた当該システムが使用される地域の慣習又は法律に応じて保護者に含まれうる。
本開示におけるドライバとは、運転席に着座している人物、つまり運転席乗員を指す。ドライバとの表現には、実際に運転操作の一部又は全部を実施している人物に限らない。ドライバとの記載は、自動運転中においては自動運転システムから運転操作の権限を受け取るべき人物を指す。ここでは一例として、後部座席に設置されたチャイルドシートに子供が乗車してあって、かつ、後部座席に着座している子供の保護者がドライバとして運転席に着座している場合を想定して、注目対象共有システムSysの作動を説明する。保護者の概念には、子供の母親や、父親の他、祖父母などの親戚などが含まれる。ベビーシッターもまた当該システムが使用される地域の慣習又は法律に応じて保護者に含まれうる。
例えば運転席の後ろ側に位置する座席など、車両が備える後部座席のうちの所定位置には、チャイルドシートが、シートベルトやISOFIX等の機構により固定されている。ISOFIXは、ISO13216-1:1999で規定されている構成であって、LATCH(Lower Anchors and Tethers for Children)とも称される。ここでのチャイルドシートは、広義での子供用の乗員保護装置又は拘束装置を指し、着座面の高さを調整するためのブースターシートやジュニアシートなどを含めることができる。チャイルドシートが設置されている座席など、子供が着座する席のことを以降では子供用シートと記載する。なお、例えば子供の体が十分に大きい場合など、拘束器具の設置を省略可能な条件を充足している場合には、子供用シートへのチャイルドシートは設置されていなくとも良い。子供用シートは、子供が着座可能な座席であればよく、必ずしも子供専用というわけではない。子供用シートは、時として大人も着座可能な座席として構成されていても良い。
また、本開示の「自動運転」が指すレベルは、例えば米国自動車技術会(SAE International)が定義するレベル3相当であってもよいし、レベル4以上であってもよい。レベル3は、運行設計領域(ODD:Operational Design Domain)内においてシステムが全ての運転タスクを実行する一方、緊急時にはシステムからユーザに操作権限が移譲されるレベルを指す。ODDは、例えば走行位置が高速道路内であること等の、自動運転を実行可能な条件を規定するものである。レベル3では、システムから運転交代の要求があった場合に、ドライバが迅速に対応可能であることが求められる。レベル3は、いわゆる条件付き自動運転に相当する。レベル4は、対応不可能な道路、極限環境等の特定状況下を除き、システムが全ての運転タスクを実施可能なレベルである。レベル5は、あらゆる環境下でシステムが全ての運転タスクを実施可能なレベルである。レベル4以上の自動運転とは、自動運転装置がすべての運転タスクを行うレベル、すなわち、運転席乗員の睡眠が許容される自動化レベルを指す。なお、レベル2以下は、ドライバが操舵及び加減速の少なくとも一部の運転タスクを実行する運転支援レベルに相当する。ここでのシステムとは注目対象共有システムSysを含む車載システムを指す。
<注目対象共有システムSysの構成について>
図1に示すように注目対象共有システムSysは、ディスプレイなどのHMI(Human Machine Interface)の作動を制御するHCU(HMI Control Unit)1を含んで構成されている。HCU1が注目対象共有装置に相当する。
図1に示すように注目対象共有システムSysは、ディスプレイなどのHMI(Human Machine Interface)の作動を制御するHCU(HMI Control Unit)1を含んで構成されている。HCU1が注目対象共有装置に相当する。
HCU1は、ドライバステータスモニタ(以降、DSM:Driver Status Monitor)21などの多様な車載デバイスと接続されて使用される。例えばHCU1は、DSM21、ドライバセンサ22、ドライバ用マイク23、入力装置24、子供用カメラ25、子供センサ26、子供用マイク27、車外カメラ28、及びロケータ29と接続されている。また、HCU1は、通信装置31や、メータディスプレイ32、センターディスプレイ33、ヘッドアップディスプレイ(HUD)34、後席ディスプレイ35、ウインドウディスプレイ36、対話装置37、スピーカ38などとも接続されている。
加えて、HCU1は、車両内に構築されている通信ネットワークである車両内ネットワークNwを介して、図1での図示を省略している多様なセンサ/デバイスとも接続されている。例えばHCU1には、車両内ネットワークNwを介して自動運転装置などの車両の走行を制御するコンピュータとも相互通信可能に構成されてあって、現在の車両が自動運転モードであるか否かを示す信号が入力されうる。また、HCU1は、車両内ネットワークNwを介して多様な車載センサの検出結果等が入力される。車載センサとしては、例えば、車速、加速度、操舵角、シフトポジション、アクセルの踏み込み量、ブレーキの踏み込み量等を検出するセンサが挙げられる。また、車載センサにはパーキングブレーキの作動状態や、車両の電源状態を検出するセンサ/スイッチなども含まれる。
なお、HCU1と種々のデバイスとは専用線で接続されていても良いし、車両内ネットワークNwを介して接続されていてもよい。また、HCU1と車載デバイスとの間にはECU(Electronic Control Unit)が介在していてもよい。
DSM21は、ユーザの顔画像に基づいてユーザの状態を逐次検出する装置である。DSM21は、例えば近赤外光源と、近赤外カメラと、これらを制御する制御モジュールと、を含む。DSM21は、近赤外カメラが運転席のヘッドレストが存在する方向に向いた姿勢にて、例えばステアリングコラム部の上面、又はインストゥルメントパネルの上面等に設置されている。DSM21は、近赤外光源によって近赤外光を照射されたドライバの頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像は、制御モジュールによって画像解析される。制御モジュールは、近赤外カメラから入力される撮像画像から、例えばドライバの目の開度など、ドライバの状態を示す情報であるドライバ状態情報を抽出する。なお、DSM21を構成するカメラは可視光カメラであってもよい。DSM21は、ドライバの顔画像から抽出したドライバ状態情報をHCU1に出力する。
ドライバ状態情報には、例えばドライバの顔の向きや、視線方向、瞼の開度、瞳孔の開度、口の開度、姿勢などを含む。また、DSM21は、顔の特徴点の分布等に基づき、ドライバの表情や感情等を推定するように構成されていてもよい。画像解析に基づく表情を検出する手法としては、顔の特徴点の分布パターンや顔の筋肉の動きを用いる方法など、多様な方法を援用することができるため、ここでの詳しい説明は省略する。一例としては解剖学的知見に基づき顔面の各筋肉に対応づいた動きの単位として定義された、複数種類のAction unit(以下、AU)を検出するとともに、AU毎の検出量(スコア)のパターンに基づいて表情を推定する方法などを採用可能である。AUとしては、例えば眉が下がる、頬が上がる、口角が上がる、上唇が上がるなどが挙げられる。
加えて、DSM21は、ドライバの表情などに基づき、ドライバの緊張度合いを推定しても良い。その他、ドライバの顔部の色情報に基づきドライバの健康状態を推定しても良い。ドライバの状態情報には、表情や感情、緊張度合い、健康状態などを含めることができる。なお、画像解析に基づいてドライバの状態を検出する機能は、HCU1が備えていても良い。その場合、DSM21はドライバの顔部画像をHCU1に出力可能に構成されていればよい。DSM21とHCU1の間における機能配置は適宜変更可能である。
ドライバセンサ22は、ドライバの生体情報をセンシングする生体センサである。ドライバセンサ22は、例えば脈波をセンシングする脈波センサである。ドライバセンサ22は、血圧、心電位、心拍数、発汗量、体温、人体からの放熱量、呼吸のリズム、呼吸の深さ、呼気成分、体組成、姿勢、体動、皮膚電気活動、顔面筋の活動電位、及び末梢血流量の少なくとも何れか1つを検出対象とするセンサであってもよい。末梢血流量は例えば指先などの末梢部の血流量を指す。生体センサには、温度センサや脈波センサ、湿度センサ、心拍センサなどが含まれる。また、生体情報の概念には、上述したように多様な状態量が含まれうる。HCU1には検出対象とする生体情報が異なる複数種類のドライバセンサ22が接続されていても良い。なお、前述のDSM21も広義においては、ドライバセンサ22に含めることができる。
ドライバセンサ22は、運転席の背もたれ部やヘッドレストに内蔵されていても良いし、ステアリングに設けられていても良い。また、探査波としてのミリ波を運転席に向けて送受信することで、ドライバの心拍数や体動、姿勢を検出するミリ波レーダも生体センサに含めることができる。ドライバセンサ22はサーモグラフィーカメラであってもよい。ドライバセンサ22としては電波式のタイプのものや、赤外線を用いるタイプのものなど、多様な検出原理のセンサを採用することができる。
加えて、種々のドライバセンサ22の一部又は全部は、ドライバの例えば手首等に装着されて使用されるウェアラブルデバイスであっていてもよい。ウェアラブルデバイスは、リストバンド型、腕時計型、指輪型、メガネ型、イヤホン型など、多様な形状のものを採用可能である。ドライバセンサ22としてのウェアラブルデバイスは、車両に搭載されている通信装置31を介してHCU1と相互通信可能に構成されている。ウェアラブルデバイスと通信装置31との接続態様は有線接続であっても良いし、無線接続であっても良い。無線接続の方式としては、Bluetooth(登録商標)や、Wi-Fi(登録商標)などの近距離無線通信規格を採用可能である。その他、生体センサとしては、交感神経システム活動に由来する皮膚コンダクタンス(皮膚表面電位)変化を検出する皮膚電気活動(EDA)センサなども採用可能である。
ドライバ用マイク23は、前部座席の乗員が発話した音声等の周囲の音を電気信号に変換してHCU1に入力する装置である。ドライバ用マイク23は、ドライバの発話音声を集音しやすいように、例えばステアリングコラムカバーの上面や、ハンドル、インストゥルメントパネルの中央部などに配置されている。
入力装置24は、HCU1に対するドライバの指示を受け付けるための操作部材である。入力装置24は、ステアリングホイールのスポーク部に設けられたメカニカルスイッチ(いわゆるステアスイッチ)であってもよいし、ドライバの発話内容を認識する音声入力装置であってもよい。また、入力装置24は、例えばセンターディスプレイ33など、インストゥルメントパネルに設けられたディスプレイの表示パネル上に積層されたタッチパネルであってもよい。さらに、入力装置24はドライバのスマートフォンであっても良い。例えばドライバが所持するスマートフォンのタッチパネル及びディスプレイを入力装置24として援用する事ができる。
子供用カメラ25は、子供用シートに着座する子供の顔部を撮像するカメラである。例えば子供用カメラ25は、子供用シートの正面に位置する前部座席の背面部に取り付けられている。子供用カメラ25は、後部座席に着座している子供の顔部を撮像可能なように、車室内の天井部などに配置されていても良い。後部座席全体を撮像範囲に含むカメラを子供用カメラ25として援用しても良い。例えば子供用カメラ25は、天井部の中央部や、フロントガラスの上端部、オーバーヘッドコンソールなどに取り付けられていても良い。子供用カメラ25が撮像した画像データは、HCU1に向けて出力される。なお、ここでの画像データの概念には映像信号も含めることができる。子供用カメラ25は車室内カメラに相当する。
子供センサ26は、子供用シートに着座している乗員(つまり子供)の生体情報をセンシングする生体センサである。子供センサ26は、ドライバセンサ22と同様に、血圧や、心電位、心拍数、発汗量、体温など、多様な状態量の少なくとも1つを検出対象とするセンサである。例えば子供センサ26は、脈波をセンシングする脈波センサである。HCU1には検出対象とする生体情報が異なる複数種類の子供センサ26が接続されていても良い。子供の生体情報には、ドライバの生体情報と同様に多様な項目が含まれうる。
子供センサ26は、例えば子供用シートに内蔵されている。なお、子供センサ26は、ミリ波や赤外線などを用いて種々のバイタル情報を取得する、非接触式のセンサであってもよい。子供センサ26はサーモグラフィーカメラであってもよい。加えて、子供センサ26として、子供の例えば手首等に装着されて使用されるウェアラブルデバイスであっていてもよい。子供センサ26としてのウェアラブルデバイスは、車両に搭載されている通信装置31を介してHCU1と相互通信可能に構成されていればよい。
子供用マイク27は、後部座席の乗員、特に子供用シートに着座している子供が発話した音声を電気信号に変換してHCU1に入力する装置である。子供用マイク27は、子供用シートに着座している子供の発話音声を集音しやすいように、例えば子供用シートの正面に位置する前部座席の背面部や、車室内天井部の中央部などに配置されている。子供用マイク27は、チャイルドシートのヘッドレスト付近に設けられていても良い。
車外カメラ28は、自車両周辺を撮影し、当該撮影画像のデータをHCU1に出力する車載カメラである。車外カメラ28は、少なくともレンズとイメージセンサとを備えており、自車両の周辺を示す画像を電子的に取得する。車外カメラ28は、一台であっても良いし、複数台であっても良い。
例えばHCU1には、車外カメラ28としてフロントカメラ、リアカメラ、左サイドカメラ、及び右サイドカメラが接続されている。フロントカメラは、車両前方を所定の画角で撮像するカメラであって、例えばフロントグリルなどの自車両の前端に取り付けられている。リアカメラは、車両後方を所定の画角で撮像するカメラであって、例えばリアナンバープレート付近やリアウインドウ付近など、車体背面部の所定位置に配置されている。左サイドカメラは、自車両の左側方を撮像するカメラであって、左側サイドミラーに取り付けられている。右サイドカメラは、自車両の右側方を撮像するカメラであって、右側サイドミラーに取り付けられている。これらの車外カメラ28のレンズとしては魚眼レンズなどの広角レンズが採用されており、各車外カメラ28は180度以上の画角を有している。このため、4つのカメラ2を利用することで、自車両の全周囲(つまり360°)を撮影することが可能である。
なお、上述した各カメラ2の取り付け位置は適宜変更可能である。フロントカメラは、ルームミラーやフロントガラスの上端部などに取り付けられていても良い。左右のサイドカメラは、AピラーやBピラーの付け根付近に配置されていてもよい。車外カメラ28はルーフ上に取り付けられても良いし、車室内の天井部に取り付けられていても良い。一部又は全部の車外カメラ28は、例えばルーフ上や、ダッシュボード上、後部座席用のドアの窓枠付近などに後付されたカメラであってもよい。車外カメラ28は、レンズと撮像素子のセットを複数備え、1台で360°撮像可能な複眼カメラであってもよい。また、注目対象共有システムSysは車外カメラ28として、撮像距離の範囲が異なる複数のカメラを備えていても良い。例えば、注目対象共有システムSysは車外カメラ28として、近距離を撮像するための近距離カメラと、相対的に遠方を撮像するための望遠カメラとを備えていても良い。
ロケータ29は、自車両の現在位置を測位する装置である。ロケータ29は、例えばGNSS受信機、慣性センサ、地図データベース(以下、DB)を用いて実現されている。GNSS受信機は、GNSS(Global Navigation Satellite System)を構成する測位衛星から送信される航法信号を受信することで、当該GNSS受信機の現在位置を逐次(例えば100ミリ秒毎に)検出するデバイスである。ロケータ29は、GNSS受信機の測位結果と、慣性センサでの計測結果とを組み合わせることにより、自車両の位置を逐次測位する。測位した車両位置はHCU1に向けて出力される。また、ロケータ29は地図DBから現在位置を基準として定まる所定範囲の地図データを読み出し、HCU1に提供する。地図DBは車両にローカル保存されていてもよいし、クラウド上に配置されていても良い。
通信装置31は、外部装置と無線又は有線通信するための装置である。例えば通信装置31は、Bluetooth(登録商標)などの規格に準拠して車室内に持ち込まれたスマートフォン4やウェアラブルデバイスとデータ通信を実施する。スマートフォン4は主としてドライバが所持するスマートフォンである。また、通信装置31は、例えばLTE(Long Term Evolution)や4G、5Gなどの規格に準拠した無線通信を実施可能に構成されており、所定のサーバ5とデータ通信を実施する。
サーバ5は、例えば別途後述するように、子供が興味を寄せた車室外の物体である注目対象物についてのデータを保存する。また、サーバ5は、多様な物体についての説明情報が登録されているデータベースなどを備えている。サーバ5は、車両からの要求に基づいて、HCU1で検出された子供の注目対象物についての説明情報を送信可能に構成されている。なお、サーバ5は、車両から送信されてきた注目対象物について、インターネット上の情報を取得して車両に返送する機能を有していても良い。サーバ5はWebサーバであってもよい。車両から送信されてくる注目対象物についてのデータは、画像データであってもよく、その場合、サーバ5は受信した画像を解析することで、検索ワードとして、注目対象物を言語化したテキストデータを取得可能に構成されていればよい。
メータディスプレイ32は、インストゥルメントパネルにおいて運転席の正面に位置する領域に配置されているディスプレイである。ディスプレイとしては液晶ディスプレイや有機ELディスプレイなどを採用可能である。センターディスプレイ33は、インストゥルメントパネルにおいて車幅方向中央付近に配置されているディスプレイである。HUD34は、HCU1やナビゲーション装置などから入力される制御信号及び映像データに基づき、フロントガラスの所定領域に画像光を投影することにより、ユーザによって知覚されうる虚像を映し出すデバイスである。HUD34は、車両の前方の風景と重畳した画像を表示する。メータディスプレイ32、センターディスプレイ33、及びHUD34のそれぞれは、HCU1から入力された信号に応じた画像を表示する。メータディスプレイ32、センターディスプレイ33、及びHUD34は、ドライバ向けのディスプレイに相当する。もちろん、センターディスプレイ33は、助手席の乗員も視認可能である。故に、センターディスプレイ33は助手席乗員を含む前部座席の乗員向けのディスプレイと解することもできる。
後席ディスプレイ35は、後部座席の乗員、主として、子供用シートに着座している乗員向けのディスプレイである。後席ディスプレイ35はリアモニターとも称される。後席ディスプレイ35は、例えば子供用シートの正面に位置する前部座席の背面部や、車室内天井部などに配置されている。後席ディスプレイ35もまた、HCU1からの入力信号に基づいて作動する。なお、ここでは一例として、後席ディスプレイ35はタッチパネルを備え、後席ディスプレイ35に表示画面への子供による指示操作を受付可能に構成されている。
ウインドウディスプレイ36は、車両側面の窓ガラス、特に子供用シートに隣接するサイドウインドウに、表示光を照射することによって、当該窓ガラスに画像を表示する装置である。ウインドウディスプレイ36は、例えば図2に示すように、画像光を射出するためのプロジェクタ361と、スクリーン362とを含む。スクリーン362は、画像光を車室内に向けて反射するためのフィルム状の構成であって、画像光の照射対象となる窓ガラス61の車室内側の面に貼り付けられている。プロジェクタ361とスクリーン362の間には、拡大反射するためのミラー363が介在していてもよい。ミラー363は凹面鏡が好ましいが平面鏡であってもよい。プロジェクタ361やミラー363はルーフ部62の車室内側の面、すなわち車室内天井部に配置されている。
対話装置37は、子供用シートに着座している子供やドライバなどの種々の乗員と対話を行う装置である。対話装置37は、例えば子供用マイク27が取得した子供の音声データを認識すること、子供の入力音声に対する回答を作成すること、及び回答を音声出力することを行う。対話装置37は、例えば、人工知能を用いて乗員の発話内容の認識及び回答の生成を行うように構成されている。発話内容の認識処理や、回答の生成処理は、通信装置31を介してサーバ5が実施するように構成されていてもよい。対話装置37は、後席ディスプレイ35に、所定のエージェントの画像を表示する機能も備えうる。エージェントとは、例えば、架空の人物や、擬人化された動物などのキャラクターである。エージェントは、ドライバが事前に設定した、ドライバのアバターなどであってもよい。
対話装置37は、所定のメッセージを音声出力する場合、エージェントが喋っているように動くアニメーションを後席ディスプレイ35に表示しうる。なお、エージェントを用いたアニメーションの表示を含む、対話装置37の作動はHCU1によって制御される。また、エージェントを用いたアニメーションの表示先は後席ディスプレイ35に限らず、ウインドウディスプレイ36であってもよい。
スピーカ38は、車両の車室内で音声を発生させる。音声出力の種類としては、所定のテキストを読み上げる音声メッセージや、音楽と、アラームなどがある。音声との表現には、単なる音も含まれる。車両にはスピーカ38としてドライバ用のスピーカ38Aと、子供用のスピーカ38Bとが設けられている。ドライバ用のスピーカ38Aは例えばインストゥルメントパネルや運転席のヘッドレスト等に設けられている。また子供用のスピーカ38Bは、子供用シートに内蔵されている。子供用のスピーカ38Bは、子供用シート付近の側壁部や天井部に設けられていてもよい。
<HCU1の構成について>
HCU1は、ディスプレイ等を用いたユーザへの情報提示を統合的に制御するコンピュータである。HCU1は、プロセッサ11、RAM(Random Access Memory)12、ストレージ13、通信インターフェース14(図中のI/O)、及びこれらの構成を接続するバスラインなどを備えた、コンピュータとして構成されている。
HCU1は、ディスプレイ等を用いたユーザへの情報提示を統合的に制御するコンピュータである。HCU1は、プロセッサ11、RAM(Random Access Memory)12、ストレージ13、通信インターフェース14(図中のI/O)、及びこれらの構成を接続するバスラインなどを備えた、コンピュータとして構成されている。
プロセッサ11は、例えばCPU(Central Processing Unit)等の演算コアである。プロセッサ11は、RAM12へのアクセスにより、種々の処理を実行する。RAM12は揮発性のメモリである。通信インターフェース14は、HCU1が他の装置と通信するための回路である。通信インターフェース14は、アナログ回路素子やICなどを用いて実現されればよい。
ストレージ13は、フラッシュメモリ等の不揮発性の記憶媒体を含む構成である。ストレージ13には、コンピュータをHCU1として機能させるためのプログラムである注目対象共有プログラムが格納されている。プロセッサ11が注目対象共有プログラムを実行することは、注目対象共有プログラムに対応する方法である注目対象共有方法が実行されることに相当する。また、ストレージ13には、車外カメラ28の車両における設置位置や、子供用シートの位置、子供用カメラ25の設置位置などを示すデータが登録されている。
HCU1は、プロセッサ11がストレージ13に保存されている注目対象共有プログラムを実行することにより図3に示す各機能部を提供する。つまり、HCU1は、子供情報取得部F1、車外情報取得部F2、ドライバ情報取得部F3、及び車両情報取得部F4を備える。また、HCU1は機能部として、興味反応検出部F5、対象物特定部F6、説明情報取得部F7、運転負荷推定部F8、通知制御部F9、記録処理部FA、及び興味対象管理部FBを備える。通知制御部F9はより細かい機能部として、タイミング調停部F91や対象制御部F92を備える。通知制御部F9が通知処理部に相当する。
子供情報取得部F1は、子供用カメラ25や子供センサ26から、子供用シートに着座している子供の状態に関する多様な情報を取得する。例えば子供情報取得部F1は、子供用カメラ25から提供される画像を解析することで、子供の顔の向きや、視線方向、瞼の開度、瞳孔の開度、口の開度、姿勢、体動などの少なくとも一部を推定する。体動には、窓の外に指又は手を向ける振る舞いも含まれる。子供情報取得部F1は、子供用カメラ25からの画像に含まれる顔の特徴点の分布等に基づき、子供の表情や感情等を推定するように構成されていてもよい。加えて、口周りの特徴点の分布の時系列変化パターンに基づいて子供の発話の有無を検出するように構成されていてもよい。さらに、体動、主として胸部又は腹部の位置の変化パターンから呼吸のリズムを推定しても良い。
なお、子供用カメラ25の撮像画像を解析することで子供の状態を推定する機能/処理モジュールは子供用カメラ25が備えていてもよい。また、上記の機能は外部サーバが備えていても良い。その場合、通信装置31が子供の画像データをサーバ5に送信するとともに、サーバ5で受信画像を解析し、その結果を車両に返送する。そのように本開示の構成を実現するための種々の機能は、エッジとクラウドとに分散配置されていてもよい。種々の機能の配置態様は適宜変更可能である。
また、子供情報取得部F1は、子供センサ26から脈波情報などの検出結果を取得する。もちろん、子供センサ26が、脈拍数、血圧、心電位、心拍数、発汗量、体温、放熱量、呼吸のリズム、呼吸の深さ、呼気成分、体組成、姿勢、体動などを検出可能に構成されている場合には、子供情報取得部F1はそれらの情報も取得しうる。
子供情報取得部F1が取得した子供の状態情報は、取得時刻を示すタイムスタンプを付与してRAM12に保存する。子供情報取得部F1が取得した子供の状態量の情報は、情報種別ごとに区別されて、例えばRAM12に一定時間保存される。取得時刻が異なるデータは、取得時刻が最新のデータが先頭となるように取得時刻順にソートされて保存されうる。データの保存期間は例えば2分や5分などとすることができる。
加えて、子供情報取得部F1は、脈拍数や、目の開度、心拍数、体温、皮表面電位など関し、直近所定時間の検出結果に基づいて、それぞれの平常値を算出する。平常値は、たとえは直近所定時間以内の観測値の平均値や中央値とすることができる。例えば子供情報取得部F1は脈拍数や、目の開度、顔の向きのそれぞれについて、直近1分以内の観測値を平均化することで各状態量の平常値を算出する。それらの平常値は、子供が何かに興味を持って興奮状態となったことを検出するための判断基準として使用されうる。
その他、子供情報取得部F1は、子供が発話した場合には、子供用マイク27からの入力信号に基づき、子供が発話したことを検出する。また、より好ましくは、子供情報取得部F1は、子供が何か言葉を発した場合には、その発話内容や声の大きさを示す情報を取得する。発話内容は音声認識処理によって特定されうる。子供情報取得部F1が取得又は検出した種々の情報は興味反応検出部F5や対象物特定部F6によって利用される。
車外情報取得部F2は、車外カメラ28やロケータ29などから、車外の情報取得する構成である。例えば車外情報取得部F2は、車外カメラ28が撮像した画像データを逐次取得し、RAM12等に一時保存する。画像データの保存領域はリングバッファとして構成されうる。すなわち、保存量が一定の上限値に達した場合には古いデータから順次削除して新規データが保存される。
車外情報取得部F2は、車外カメラ28から入力された画像データを、撮影時点における車両の位置情報や、時刻情報と対応付けてRAM12に保存する。なお、車外情報取得部F2は、車外カメラ28から入力された画像を解析することで、当該画像内に含まれる被写体の位置や種別を特定するように構成されていても良い。物体の識別には、例えばディープラーニングを適用したCNN(Convolutional Neural Network)やDNN(Deep Neural Network)技術などを用いることができる。
また、車外情報取得部F2はロケータ29から車両周辺の地図情報を取得する。すなわち、車両周辺に存在する施設やランドマークなどの情報を取得する。また、地図情報には、現在走行している道路の種別などの道路構造に係る情報も含まれる。道路の種別とは、例えば一般道路か、高速道路であるかなどを示す。また、道路構造に係る情報には、道路の曲率や、車両の前方に存在する分岐/合流地点、交差点、信号機までの残り距離などを含む。
ドライバ情報取得部F3は、DSM21やドライバセンサ22から、ドライバの状態に関する多様な情報を取得する。ドライバ情報取得部F3が運転席乗員情報取得部に相当する。例えばドライバ情報取得部F3は、DSM21からドライバの顔の向きや、視線方向、瞼の開度、瞳孔の開度、口の開度、姿勢などの少なくとも一部を取得する。また、DSM21がドライバの表情や緊張度合い等を推定可能に構成されている場合には、ドライバ情報取得部F3はそれらの情報も取得しうる。加えて、口周りの特徴点の分布の時系列変化パターンに基づいてドライバの発話の有無を検出するように構成されていてもよい。さらに、体動、主として胸部又は腹部の位置の変化パターンからドライバの呼吸のリズムを推定しても良い。呼吸のリズムは緊張度合いや運転負荷を推定材料となりうる。前述の通り、DSM21が備える機能、すなわちドライバの画像を解析することでドライバの状態を推定する機能/処理モジュールは、ドライバ情報取得部F3やサーバ5が備えていても良い。
車両情報取得部F4は、走行用電源の状態(オン/オフ)や、車速、加速度、操舵角、アクセルの踏み込み量、ブレーキの踏み込み量なども取得する。走行用電源は、車両が走行するための電源であって、車両がガソリン車である場合にはイグニッション電源を指す。車両が電気自動車やハイブリッド車である場合、走行用電源とはシステムメインリレーを指す。また、車両情報取得部F4は、ロケータ29から車両の現在位置を示す情報を取得する。自車両の位置情報は緯度、経度、高度などで表現されうる。
興味反応検出部F5は、子供情報取得部F1が取得している子供の状態情報に基づき、子供が車室外の何かに興味を示したか否かを判定する。子供が車室外の何かに興味を示したことをここでは興味反応とも記載する。興味反応が生じたと判定することは興味反応を検出することに相当する。子供が興味を示す対象としては建物や看板などの静止物のほか、歩行者や動物などの移動体、景色など、多様な物事が想定される。ここでの物事との表現には、静止物や移動体といった物だけでなく、状況や、状態、風景、体験などが含まれる。
例えば興味反応検出部F5は、子供用シートに着座している子供が所定時間以上、同じものを見続けていた場合に、興味反応があったと判定する。子供が所定時間以上同じものを見続けていた場合には、視線方向が所定時間一定方向であった場合のほか、注目物体を目で追いかけるように視線方向を車両の進行方向逆側(例えば後方)に動かした場合も含めることができる。
また、興味反応検出部F5は、子供が特定感情を表す表情となった場合に、興味反応があったと判定してもよい。ここでの特定感情とは、感嘆や驚嘆などを含み、より具体的には、驚きや、感心、笑顔などを含む。さらに興味反応検出部F5は、子供が車室外に顔を向けた状態にて発話したことを検出した場合に、興味反応があったと判定してもよい。その際、子供の声の大きさに応じて興味の高さを評価しても良い。また、子供が車室外に顔を向けた状態で同じ単語を所定回数以上繰り返し発したことに基づいて、高い興味反応を示していると判定しても良い。
その他、子供が「見て」や、「あれはなに?」など、ドライバに質問するようなフレーズを発したことに基づいて興味反応があったと判定しても良い。その他、特定の動物又は状態を示す擬声語や擬態語、擬音語(いわゆるオノマトペ)を発したことに基づいて興味反応を検出してもよい。加えて、子供が窓の外に指又は手を向ける動作、すなわち何かを指し示す動作を行ったことに基づいて興味反応があったと判定しても良い。
加えて、興味反応検出部F5は、子供の脈拍や心拍、目の開度などの生体情報に基づいて子供の興味反応を検出しても良い。例えば脈拍が平常値よりも所定の閾値以上早くなったことに基づいて興味反応があったと判定してもよい。また、目の開度が平常値よりも所定値以上増加したことに基づいて興味反応があったと判定してもよい。興味反応の検出材料としては、体温の変化や、呼吸の状態、体組成なども使用可能である。なお、呼吸の状態には、呼吸の速度や、呼気成分などが含まれる。このように興味反応検出部F5は、子供が普段と違う状態となっていることや、興奮状態であることに基づいて、何かに興味関心を示していることを検知してもよい。
対象物特定部F6は、興味反応検出部F5が子供の興味反応を検出した場合に、その時点から直近所定の遡及時間以内の子供の視線方向に基づいて、子供が興味を示した対象である注目対象物を特定する。ここでの注目対象物の概念には、施設や、ランドマーク、看板などの静止物、歩行者などの移動体、動物、状況(イベント)、景色などが含まれる。例えば、見慣れない建物や、気ぐるみを着た人、犬、猫、消防車などの緊急車両、子供に人気のあるキャラクターを用いた商業看板、企業の看板などが注目対象物となりうる。対象物特定部F6が注目対象検出部に相当する。
対象物特定部F6は、例えば興味反応が検出された時点、又は遡及時間以内において、車外カメラ28が撮像した画像のなかで、子供の視線方向に存在する被写体を注目対象として特定する。ここでの遡及時間は、200ミリ秒や500ミリ秒、1秒などとすることができる。
なお、車室外に対する子供の視線方向は、子供用カメラ25の画像に基づいて特定される、車室内における子供の目の位置と、子供の目の位置を始点とする視線方向と、に基づいて算出されうる。車室内における子供の目の位置は、子供用カメラ25の設置位置及び姿勢と、画像内における子供の目の位置とに基づいて算出されうる。また、車室外に対する子供の視線方向に、車体が向いている方位角などの情報を組み合わせることで、子供が視線を向けていた絶対方向なども算出されうる。ここでの絶対方向とは、例えば東西南北などの所定の方位角に対応する方向である。
そのように興味反応が検出された時点又はその直前に取得及び保存された車外カメラ28の画像と子供の視線方向とが照合されることにより、子供が注目していた対象物が自動的に特定されうる。
なお、ここでは一例として対象物特定部F6は、注目対象物を画像として取得するものとする。もちろん、他の態様として対象物特定部F6は、特定した注目対象物としての被写体の画像である注目対象物画像を解析することにより、当該注目対象物の種別や名称などを特定しても良い。対象物特定部F6が取得した注目対象物の画像である注目対象画像は、説明情報取得部F7に出力される。なお、対象物特定部F6は、注目対象物の特定過程において、車両又は運転席から見て注目対象物が存在する方向も特定する。注目対象物が存在する方向についての情報も、説明情報取得部F7や通知制御部F9に出力される。
説明情報取得部F7は、車両内又は車両外に配置された辞書データベースから、対象物特定部F6が特定した注目対象物についての説明情報を取得する。辞書データベースは、多様な物体についての説明情報が登録されているデータベースである。辞書データベースは車両に搭載されていても良いし、クラウド上に配置されていても良い。辞書データベースは、Webサーバなどであっても良い。説明情報取得部F7が対象情報取得部に相当する。
例えば説明情報取得部F7は、サーバ5に注目対象物画像を送信することにより、サーバ5から注目対象物についての説明情報を取得する。ここでの説明情報とは、対象の名称の他、対象のカテゴリ(大分類)や、役割、背景、類似する物事などの少なくとも1つを含む。例えば注目対象物が建物であれば、その固有名称/一般名称や、役割、高さ、建設年などが説明情報に含まれる。また、注目対象物が動物であれば、犬や猫、鳥などといった大分類と、より詳細な種別の名称、大きさ、原産地、特性(性格)などが説明情報に含まれる。注目対象物がお祭りなどのイベントであれば、その名称や、歴史的背景、開催時期などが説明情報に含まれる。注目対象物が、虹などの自然現象である場合には、その名称や、発生原理などが説明情報となりうる。注目対象物が救急車や工事車両などの車両である場合には、その名称や、役務、特徴などが説明情報に含まれる。注目対象物が企業やお店の看板である場合には、当該企業/お店の名称の他、提供サービスの種別、設立年、代表商品などが説明情報に含まれうる。説明情報は主として図鑑や、辞書、ガイドブックなどに掲載されている情報とすることができる。
サーバ5は、説明情報取得部F7からの問い合わせに基づいて、注目対象物画像を解析することで注目対象物の名称を特定するとともに、当該注目対象物に係る名称以外の情報も取得する。名称以外の情報は、当該名称を検索キーとしてインターネット検索することで取得しても良いし、サーバ5自身が保有する辞書データベースを参照することで取得してもよい。そして、サーバ5は、注目対象物の名称を検索キーとして収集した情報を説明情報として車両に返送する。そのような構成によれば、説明情報取得部F7は車両が膨大なデータを収録したデータベースを備えていなくとも、多様な注目対象物についての情報を取得可能となる。
なお、説明情報取得部F7が、注目対象物画像を解析することにより、当該注目対象物の種別や名称などを特定しても良い。その場合には、注目対象物の名称を検索キーとして、当該注目対象物の役務や背景などの補足情報を車両内又は車両外に配置されたデータベースから取得すれば良い。説明情報取得部F7が取得した情報は対象物画像と対応付けられてRAM12等に一時保存される。当該データセットは通知制御部F9や記録処理部FAによって参照される。
運転負荷推定部F8は、ドライバの状態情報、車両の走行環境、及び自動運転中か否かの少なくとも何れか1つに基づいて、ドライバの運転負荷が高い状態であるか否かを判定する。ドライバの状態情報としてはドライバ情報取得部F3が取得/検出した情報が用いられる。走行環境情報としては、車両情報取得部F4又は車外情報取得部F2が取得した車両周辺の情報が用いられうる。自動運転中かは、車両内ネットワークNwを介して自動運転装置から入力されうる。なお、自動運転装置からは自動運転のレベル、すなわちレベル0~5の何れかに該当するかを示す信号が入力されても良い。
運転負荷推定部F8は、例えばレベル3以上の自動運転中であって、かつ、ハンドオーバーまでの残り時間が所定の閾値以上である場合には、運転負荷は高くないと判定する。なお、ハンドオーバーは、システムから運転席乗員に対して運転操作の権限を移譲することに相当する。一方、自動運転中であっても、ハンドオーバーを要求している場合などにはドライバの運転負荷は高いと判断されうる。
また、運転負荷推定部F8は、ドライバの脈拍や、呼吸の間隔及び深さ、皮膚電気活動、顔面筋の活動電位、末梢血流量等の生体情報に基づいて運転負荷が高いか否かを判定しても良い。例えば脈拍や呼吸が平常値よりも所定値以上速い場合など、ドライバが緊張状態であることを示している場合には運転負荷が高いと判断されうる。ドライバの緊張状態は、ハンドルを握る強さや、姿勢、皮膚電気活動、瞬目の間隔、末梢血流量など、多様な生体情報から推定可能である。緊張状態や運転負荷の判定方法としては多様な方法を援用可能である。
その他、運転負荷推定部F8は、高速道路の分岐/合流地点や交差点付近を走行中であることや、車線変更中であることに基づいて、運転負荷が高いと判定しても良い。交差点付近とは例えば交差点までの残り距離が50m以内となる区間などとすることができる。また交差点付近には交差点の内部も含まれる。その他、見通しが悪い交差点や、歩行者の飛び出しが多い道路、交通事故が多発している区間を走行していることに基づいて運転負荷が高いと判定しても良い。見通しが悪い交差点や、歩行者の飛び出しが多い道路、交通事故が多発している区間などの情報は地図データとしてロケータ29又は地図サーバから取得されうる。
なお、高速道路の分岐/合流地点や交差点付近を走行中であるか否か、車線変更を計画中か否かなどは走行環境の安全レベルの指標に相当する。上記の構成は、走行環境の安全レベル、換言すれば走行環境に応じて定まる潜在リスクの大きさに応じて、ドライバの運転負荷を評価する構成に相当する。運転負荷が高いと判定するための判断材料/判断条件としては多様な情報/条件を採用可能である。
通知制御部F9は、説明情報取得部F7が取得した注目対象物についての情報に係る通知を制御する構成である。例えば通知制御部F9は、通知対象とする人物/座席や、注目対象物に係る画像の表示タイミング、音声出力のタイミング、画像表示をする場合の出力先などを、運転負荷推定部F8の判定結果に基づいて統合的に制御する。注目対象物に係る画像の表示や音声出力のタイミングを調停する機能部がタイミング調停部F91に相当する。また、注目対象物に係る画像の表示先や音声出力先を調整することは、注目対象物に係る情報の通知対象とする乗員を選定することに対応する。注目対象物に係る画像の表示先として、メータディスプレイ32やHUD34などのドライバ向けのディスプレイを除外することは、画像情報の提示対象からドライバを除外することに相当するためである。注目対象物に係る画像の表示先や音声出力先を調整する機能部が対象制御部F92に相当する。通知制御部F9は、1つの制御形態として、興味反応検出部F5によって子供の興味反応が検出された場合、子供が興味反応を示したことを示すアイコン画像をHUD352に表示するように構成されていても良い。通知制御部F9の詳細については別途後述する。
記録処理部FAは、説明情報取得部F7が取得した注目対象物についてのデータを、興味反応を示した時点における位置情報と対応付けて所定の記憶媒体に保存する。データの保存先とするデバイス(いわゆる保存デバイス)は、ドライバのスマートフォン4や、サーバ5などの外部デバイスであってもよいし、ストレージ13などの内部デバイスであっても良い。なお、記録対象とするデータである記録データは、注目対象物の画像データを含むことが好ましい。記録データに含める画像データは静止画であってもよいし映像であっても良い。また、記録データには、当該画像を解析して定まる説明情報のテキストデータが含まれていても良い。記録データには、興味反応が検出された時点での車両の位置情報だけでなく、注目対象物が存在する方向や、注目対象物の位置情報、検出時刻情報が対応付けられて保存されても良い。また、記録データは、注目対象物を見ているときの子供の画像データを含んでいても良い。加えて、記録データは、興味反応が検出された時点を基準として定まる所定時間以内の車内の音声データを含んでいても良い。
なお、上記データの保存先をサーバ5とする場合には、ドライバや祖父母等が所有するスマートフォン等などから、サーバ5に保存されているデータを参照可能に構成されていることが好ましい。当該構成によれば、離れて暮らす家族とも、子供が興味を持った物事を共有可能となる。興味反応の検出をトリガとするデータ保存が生じた場合、HCU1又はサーバ5は、事前に登録されたデバイスへ記録データの更新が生じたことを通知しても良い。上記の共有処理は、ソーシャルネットワーキングサービス(SNS:Social Networking Service)との連携によって実現されても良い。
上記のように記録処理部FAが注目対象物についてのデータを種々の情報と対応付けて保存することにより、記録対象物のデータを後から参照可能となる。その結果、保護者は、例えば運転の休憩中や自宅に戻ってから、注目対象物についての記録データを参照しながら子供がどんなものを見かけたかについて子供と会話しやすくなる。また、子供が注目した物事を後から見ることで、保護者が子供の成長を感じることも可能となるといった利点を有する。
興味対象管理部FBは、過去に検出された注目対象物の種別などの情報に基づき、子供が興味を持っている物事のカテゴリである興味対象カテゴリを特定する構成である。興味対象カテゴリとしては、乗り物、動物、建物、看板、植物、キャラクター、ファッションなどが想定される。キャラクターは、アニメーションの名前などでより詳細に区分されても良い。乗り物などについても、四輪車か二輪車か電車かなどで細分化しても良い。ファッションに関しても、洋服や髪型などに細分化されていてもよい。動物は、犬、猫、鳥などに細分化されていても良い。
HCU1は、子供が興味を持っているカテゴリである興味対象カテゴリを特定可能に構成されている場合、興味対象カテゴリに属する物事が車外カメラ28に写っている場合、子供の興味反応を検出するための閾値を調整しても良い。例えば、興味対象カテゴリに属する物事が車外カメラ28に写っている場合には、子供の興味反応を検出するための閾値を下げても良い。
<HCU1の作動例について>
ここでは図4を用いてHCU1が実行するコミュニケーション支援処理について説明する。ここでは一例としてコミュニケーション支援処理は、ステップS101~S115を備えるものとする。もちろん、コミュニケーション支援処理を構成するステップの数や、処理順序は適宜変更可能である。
ここでは図4を用いてHCU1が実行するコミュニケーション支援処理について説明する。ここでは一例としてコミュニケーション支援処理は、ステップS101~S115を備えるものとする。もちろん、コミュニケーション支援処理を構成するステップの数や、処理順序は適宜変更可能である。
図4に示すコミュニケーション支援処理は、所定の開始イベントが発生したときに開始される。開始イベントとしては、例えば、車両のイグニッションがオンになること、車両の走行が開始されること、ドライバによる開始指示が入力されたこと等が採用することができる。その他、コミュニケーション支援処理は、興味反応検出部F5によって子供用シートに着座している子供の興味反応が検出されたことをトリガとして開始されても良い。その場合、ステップS101~S104はコミュニケーション支援処理とは別途独立した処理として逐次実行されうる。
まずステップS101ではHCU1が、HCU1に接続されている多様なデバイスから、処理上必要な情報を取得してステップS102に移る。例えば子供情報取得部F1が子供センサ26等から子供の生体情報を取得する。車外情報取得部F2が、車外カメラ28等から車外の環境に関する情報を取得する。ドライバ情報取得部F3がDSM21やドライバセンサ22などからドライバの生体情報を取得する。また、車両情報取得部F4が車両内ネットワークNwやロケータ29等から車両の現在位置や走行速度等に関する情報を取得する。ステップS101で取得された各種情報は取得時刻を示す情報とともにRAM12などの所定のメモリに保存される。このようなステップS101は情報取得ステップ及び情報取得処理と呼ぶことができる。なお、情報取得ステップは、ステップS102以降においても、例えば100ミリ秒や200ミリ秒、500ミリ秒など、所定の周期で逐次実行されうる。
ステップS102では運転負荷推定部F8が、ドライバ情報取得部F3が取得したドライバの生体情報に基づき、例えば上述したアルゴリズムにてドライバの運転負荷が高い状態にあるか否かを判定し、ステップS103に移る。なお、ドライバの運転負荷に係る判定結果は、複数段階のレベル値で表現されても良い。その場合には判定値が所定の閾値以上である状態が運転負荷の高い状態に対応する。また、ドライバの運転負荷が高い状態にあるか否かは、フラグで管理されても良い。例えば運転負荷の高い場合には、運転負荷フラグが1(オン)に設定される一方、運転負荷が高くない場合には運転負荷フラグが0(オフ)に設定されうる。ステップS102が完了するとステップS103に移る。このようなステップS102はドライバ状態推定ステップと呼ぶことができる。
ステップS103では興味反応検出部F5が、子供情報取得部F1が取得している直近所定時間以内の子供の生体情報に基づいて、子供が興味反応を示したか否かを判定する。興味反応があった場合にはステップS104を肯定判定してステップS105に移る。一方、興味反応がない場合にはステップS115で所定の終了条件が充足したかどうかを判定する。ステップS103~S104の処理は興味反応検出ステップと呼ぶことができる。
ステップS105では対象物特定部F6が、子供の視線方向及び子供の目の位置に基づいて、車両から見て注目対象物が存在する方向を推定する。そして、車外カメラ28の画像データに含まれる被写体の中から、注目対象物の推定方向に存在する物事を、注目対象物として抽出してステップS106に移る。このようなステップS105は注目対象物特定ステップと呼ぶことができる。
ステップS106では対象物特定部F6が、車外カメラ28の撮像画像から、注目対象物が写っている画像部分を注目対象物画像として抽出してステップS107に移る。このようなステップS106は注目対象物画像取得ステップと呼ぶことができる。
ステップS107では説明情報取得部F7が通信装置31と連携して、サーバ5等やインターネットなどにアクセスすることにより、注目対象物についての説明情報を取得してステップS108に移る。なお、説明情報はテキスト又は音声データなどによって、注目対象物の特徴や役務、名称等が言語化されたデータである。このようなステップS107は説明情報取得ステップと呼ぶことができる。
ステップS108では運転負荷が高い状態であると判定されているか否かを判定する。ステップS108で使用される運転負荷に係る情報は、ステップS102での判定結果を流用することができる。運転負荷が高い場合にはステップS108を肯定判定してステップS109に移る。一方、運転負荷が高い状態ではない場合にはステップS108を否定判定してステップS111に移る。なお、HCU1の動作モードとして、ドライバの代わりにシステムが自動応答する代理応答モードを備えていてもよい。HCU1はドライバの操作によって代理応答モードに設定されている場合には、運転負荷の判定値によらずにステップS109に移るように構成されていても良い。
ステップS109では通知制御部F9が、注目対象物に係る情報の通知対象からドライバを除外する。例えば、注目対象物に係る情報の通知対象を子供だけに設定する。助手席にも乗員が乗車している場合には、注目対象物に係る情報の通知対象を子供と助手席乗員に設定しても良い。助手席に人が乗車しているか否かは、助手席に設けられた着座センサの検出信号から特定可能である。
ここでの注目対象物に係る情報とは、注目対象物の画像や説明情報である。説明情報は、前述の通りテキストやアイコンなどの画像で出力されても良いし、音声メッセージとして出力されても良い。注目対象物についての画像には、注目対象物そのものの画像のほか、説明情報のテキスト画像も含まれる。注目対象物に係る情報は、画像表示と音声出力の少なくとも何れか一方を用いて実現されうる。
なお、子供を通知対象に含めるということは、後席ディスプレイ35やウインドウディスプレイ36、及び、スピーカ38Bの少なくとも何れか1つを、通知デバイスとして採用することに相当する。ここでの通知デバイスとは、注目対象物に係る情報を画像又は音声で出力するデバイスを指す。また、ドライバを通知対象に含めるということは、メータディスプレイ32、センターディスプレイ33、HUD34、及び、スピーカ38Aの少なくとも何れか1つを、通知デバイスとして採用することに相当する。助手席乗員を通知対象に含めるということは、センターディスプレイ33及びスピーカ38Aの少なくとも何れか1つを、通知デバイスとして採用することに相当する。なお、注目対象共有システムSysが助手席の正面に設けられたディスプレイである助手席用ディスプレイを備える場合には、助手席乗員用の通知デバイスとして助手席用ディスプレイも採用可能である。助手席用ディスプレイは、インストゥルメントパネルの右端から左端まで連続的に設けられたディスプレイの一部であってもよい。
もちろん、画像表示の通知対象と、音声出力での通知対象は別々に設定されても良い。子供へは画像と音声の両方で通知を行う一方、ドライバには音声のみで通知するように制御されても良い。ステップS109での通知対象の選択処理が完了するとステップS110に移る。
ステップS110では通知制御部F9が、後席ディスプレイ35及びウインドウディスプレイ36の少なくとも何れか一方に注目対象物の画像及びその説明情報を表示するとともに、当該説明情報に対応する音声をスピーカ38Bから出力させる。仮にステップS104で検出された興味反応の内容が、子供がドライバに注目対象物について質問するタイプのものであった場合、当該ステップS110としてのシステム応答は、システムがドライバの代わりに応答する処理である代理応答処理に相当する。代理応答処理は、1つの側面において対話装置37の動作を制御する処理と解することもできる。
このようにドライバの運転負荷が高い場合には、ドライバの代わりにシステムが速やかに応答することにより、子供が注目対象物に対する興味をなくす前に、注目対象物についての説明情報を提示することができる。また、ドライバとしてはすぐに子供の問いかけ等に応答する必要性が低減されるため、運転操作に集中することができる。
なお、ステップS110では、対話装置37を起動させて、子供の追加的な質問に対して応答可能なシステム状態を構築してもよい。そのような構成によれば、提示された説明情報に対する子供の疑問等に対して、引き続きシステムが応答可能となる。対話装置37と子供とのやり取りは、エージェント画像を用いて実施されうる。ステップS110が完了するとステップS114に移る。
ステップS111では、運転席向けのディスプレイや子供向けのディスプレイに注目対象物についての情報を表示してステップS112に移る。なお、各種ディスプレイに表示する際には、画像表示されたことをドライバや子供が気づきやすいように、各スピーカ38から所定の効果音を出力させても良い。
ステップS112ではステップS111での画像表示から所定の応答待機時間以内に、ドライバが発話したか否かを判定する。当該ステップS112は子供の興味反応に対してドライバが何かしらの応答をしたか否かを判定する処理に相当する。応答待機時間は例えば4秒や6秒などとすることができる。応答待機時間内にドライバの発話を検出した場合には、子供の興味反応に対してドライバが応答したとみなし、音声出力は省略してステップS114に移る。一方、ステップS111での画像表示開始から応答待機時間が経過してもドライバの発話が検出されなかった場合には、子供の興味反応に対してドライバが応答困難であるとみなし、ステップS113に移る。ステップS113では注目対象物についての説明情報を音声出力してステップS114に移る。ステップS110やS111、S113は、ドライバ及び子供の少なくとも何れか一方に注目対象について言語化された情報を提示するため、通知処理ステップと呼ぶことができる。
ステップS114では記録処理部FAが、注目対象物についての画像データを、位置情報や車室内での音声データ、時刻情報などと対応付けて所定の記録装置に保存してステップS115に移る。
ステップS115では所定の終了条件が充足しているか否かを判定する。終了条件としては例えば、車両の走行用電源がオフになったこと、目的地に到着したこと、ドライバによる終了指示がなされたこと等が挙げられる。終了条件が充足された場合(S115 YES)には、本処理は終了する。
<注目対象物についての通知画像の表示例>
ここでは図5~図8を用いて、注目対象物についての情報を示す表示画像の一例について説明する。
ここでは図5~図8を用いて、注目対象物についての情報を示す表示画像の一例について説明する。
なお、ドライバに提供する注目対象物についての通知画像には、対象物特定部F6が注目対象物を検出した方向や、まだ車外カメラ28で注目対象物を捕捉できているか否かといった、注目対象の位置を示す対象位置情報画像Pdを含んでいることが好ましい。対象位置情報画像Pdは、テキスト又はアイコンなどで構成されうる。対象位置情報画像Pdを提示することにより、ドライバが注目対象物を自分の目で見て確認しやすくなる。また、車外カメラ28でまだ撮像できているか否かを示す情報を提示することにより、車両及び注目対象物の少なくとも何れか一方の移動に伴ってすでに見えなくなっているものを探すことを抑制することができる。
図5は、注目対象物が例えば歩道上を散歩している犬であった場合の通知画像Pxを模した図である。図5に示すように注目対象物が犬である場合の通知画像Pxは、注目対象物そのものの画像Piに加えて、名称(犬種)や原産国、性格などのテキスト画像Ptを含む。また、図6は注目対象物が隣接車線を走行していた他車両であった場合の通知画像Pxを模した図である。図6に示すように注目対象物が車である場合の通知画像Pxは、注目対象物そのものの画像Piに加えて、名称(車種)や、製造者(いわゆるメーカー)、特徴などのテキスト画像Ptを含む。車両の特徴とは、電気自動車かエンジン車か否かや、サイズ、走行性能などを指す。
注目対象物が例えばタワーなどの建設物である場合の通知画像Pxは図7に示すように、注目対象物そのものの画像Piに加えて、建物の名称や、役割、建設年、高さなどのテキスト画像Ptを含む。建物の役割とは、例えばテレビやラジオなどの放送波の送信を行う電波塔や、複合商業施設、官公庁、工場、学校、住宅などを含む。役割は、提供サービスや属性と言い換えることもできる。なお、ランドマークとしての建設物の通知画像Pxは、別の角度からの写真や、たとえば夜などの現在とは異なる時間帯での外観写真Pjをタッチ選択可能な態様で表示しても良い。
図8は、注目対象物が虹であった場合の通知画像Pxを模した図である。図8に示すように注目対象物が虹などの自然現象である場合の通知画像Pxは、注目対象物そのものの画像Piに加えて、発生理由や特徴などを示すテキスト画像Ptを含む。なお、虹の特徴とは、例えば一番外側の色が赤と紫であることなど、色のグラデーションについての情報を含む。
その他、通知制御部F9は、通知画像Pxとして、注目対象物に関連する動画コンテンツ又はそのリストを表示しても良い。例えば注目対象物が或るアニメーションのキャラクターである場合には、当該アニメーションの動画等のコンテンツを表示しても良い。
<効果>
上記の構成においてHCU1は、子供が興味を示した注目対象物について、その画像だけでなく、注目対象物の名称等を言語化した説明情報をドライバに提示する。そのような構成によれば、ドライバは子供が何に注目したのかを認識しやすい。その結果、子供の興味反応に対して、子供の反応に寄り添った対応をしやすくなる。
上記の構成においてHCU1は、子供が興味を示した注目対象物について、その画像だけでなく、注目対象物の名称等を言語化した説明情報をドライバに提示する。そのような構成によれば、ドライバは子供が何に注目したのかを認識しやすい。その結果、子供の興味反応に対して、子供の反応に寄り添った対応をしやすくなる。
また、上記では一例として、ドライバの運転負荷が高いと判定されている場合には、子供の興味反応に対するドライバの応答を待つことなく、システムが子供の質問等に対する回答を行う。当該構成によればドライバは運転に集中しやすい。また、子供は、システムから知りたい情報を取得できる。加えて、子供にとっては自分が興味を示したものに対してシステムが応答してくれるため、移動時間を退屈と感じる恐れを低減できる。
また、上記構成では一例として、ドライバに注目対象物についての情報を画像及び音声で通知する場合であっても、画像表示を行ってから所定の応答待機時間が経過したことに基づいて、説明情報の音声出力を行う。そのように画像表示と音声出力との間に時間差を設けることで、ドライバとしての保護者自身が子供の興味反応に対して応答しやすくなる。これにより、ドライバとしての保護者と子供とのコミュニケーションが活性化する効果が期待できる。また、上記構成では、ドライバ用のディスプレイに画像表示を行ってから所定の応答待機時間が経過してもドライバの発話が検出できなかった場合には、システムが代理的に応答する。上記構成によれば、子供は自身の興味に対して保護者とシステムの少なくとも何れか一方が応答してくれるため、移動時間を楽しみやすくなる。
加えて、以上では、子供の興味を示した物事を位置情報等と対応付けて記録する。これによれば、子供が何に興味を示したのか、興味反応が検出された直後ではドライバが特定できなかった場合でも、後から特定可能となる。例えば、注目対象物を通り過ぎたあとも、当該注目対象物の画像を見ることで、子供が興味を持った物事を特定可能となる。また例えば運転終了後や、帰宅後などにおいても、注目対象物の画像を見返す事が可能となる。加えて、注目対象物のデータは、サーバ5などと連携して離れて暮らす家族も参照可能に構成されている。故に、子供が興味をもった物事を、ドライバ以外の家族、親戚も共有しやすくなる。
上記構成では一例として、注目対象物の種別とその存在方向とを画像又は音声にてドライバに通知する。当該構成によれば、ドライバは、運転中も車室外において子供が注目している物体を視認しやすくなる。また、子供がどんなものに注目しているかが認識しやすくなるため、移動時間を保護者が子供の成長を知る機会としても利用可能となりうる。
さらに、注目対象物として検出される物事は、例えば施設やランドマークなど、地図データに登録されているような地図要素に限定されない。歩行者や自動車、電車、動物、虹など多様なものが注目対象物として検出される。そして、当該検出された注目対象物についての説明情報をインターネットなどから取得して子供及びドライバの少なくとも何れか一方に提示する。このような構成によれば、子供は、自分が興味をもった多様な物事についての情報を積極的に取得可能となるため、移動時間中にも様々なことを学習可能となる。
また、上記構成によれば子供は、データベース上の知識と現実世界とを具体的に結びつけて学ぶことが可能となる。実際に自分の目でみて得た知識やその記憶は、教科書などから得た情報よりも記憶に残りやすい。故に、上記の構成によれば、塾や学校までの移動時間を用いて効率的に知識を獲得可能となる。つまり移動時間を知識獲得の機会として利用可能となる。特に、子供が複数の塾に通っている場合には、移動時間を有効に活用することは、子供、及び子供に付き添う保護者にとって重要となりうる。そのような事情に対し、本開示の構成によれば、移動時間を知識獲得や親子のコミュニケーションの機会として活用しやすくなるといった利点を有する。
その他、上記の構成では一例として、注目対象物の画像とともに、車内の会話を示す音声データなども合わせて保存する。当該構成によれば、注目対象物についての車内の会話も後日再生することができる。
上記構成によれば、運転中における子供とドライバとしての保護者のコミュニケーションを支援することにより、車両での移動時間をより楽しくすることができる。また、小さい子供は、時として、親からの反応が得られないことに対して大きな声を出したり泣いたりしうる。子供が癇癪を起こすと、結果としてドライバの運転負荷が上がりうる。本開示の構成によれば、運転中における子供と保護者のコミュニケーションを円滑にすることにより、子供が癇癪を起こす恐れを低減でき、その結果として運転負荷が上がることを抑制する効果も期待できる。
以上、本開示の実施形態を説明したが、本開示は上述の実施形態に限定されるものではなく、以降で述べる種々の補足や変形例も本開示の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。例えば種々の変形例は、技術的な矛盾が生じない範囲において適宜組み合わせて実施することができる。なお、前述の実施形態で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。また、構成の一部のみに言及している場合、他の部分については先に説明した実施形態の構成を適用することができる。
<子供への通知内容の制御例>
子供の年齢や知識レベル、能力レベルに基づいて、子供に通知する情報の量や、種類、表現方法などを変更しても良い。例えば、子供がまだ母国語の文字を読めない年頃である場合には母国語のテキストと音声とをセットで出力してもよい。当該構成によれば母国語の文字の習得を早める効果が期待できる。また、子供が母国語の文字をある程度読める年頃である場合には母国語のテキストと他の言語での翻訳文とをセットで出力してもよい。当該構成によれば母国語以外の言語を学習する効果が期待できる。
子供の年齢や知識レベル、能力レベルに基づいて、子供に通知する情報の量や、種類、表現方法などを変更しても良い。例えば、子供がまだ母国語の文字を読めない年頃である場合には母国語のテキストと音声とをセットで出力してもよい。当該構成によれば母国語の文字の習得を早める効果が期待できる。また、子供が母国語の文字をある程度読める年頃である場合には母国語のテキストと他の言語での翻訳文とをセットで出力してもよい。当該構成によれば母国語以外の言語を学習する効果が期待できる。
また、乗車中の子供の覚醒度や、姿勢、乗車時間などに基づいて、子供に通知する情報の量や、種類、表現方法などを変更しても良い。子供が眠そうな状態においては、覚醒している状態よりも情報量を減らしても良い。あるいは、文字量を減らして画像を増やしてもよい。当該構成によれば、過剰な情報によって子供に煩わしさを与えてしまう恐れを低減できる。また、子供の乗車姿勢が崩れている場合、子供が疲れている可能性が高い。故に、子供の乗車姿勢が崩れている場合には、子供の乗車姿勢が崩れていない場合に比べて提示する情報量を少なくしても良い。加えて、乗車してから経過時間(つまり乗車時間)が長いほど、情報量を低減するように要構成されていても良い。その他、仮に注目対象物に係る動画コンテンツのリストを子供に提示する構成においては、目的地に到達するまでの残り時間よりも再生時間が短いコンテンツに絞って子供に提示するように構成されていても良い。
後席ディスプレイ35等を介して子供に通知する情報の量や種類は所定の設定画面を介してドライバが設定可能に構成されていても良い。なお、子供の年齢等の情報は、設定画面等を介してドライバが手動で入力しても良いし、子供用カメラ25等の画像を元にHCU1が推定しても良い。
また、子供が「あれは何?」といった複数の単語の組み合わせたフレーズである複合語フレーズを発話したことに基づいて興味反応を検出したか否かに応じて、子供への通知内容の情報量などを変更しても良い。複合語フレーズを発話できたということは相応の言葉を覚えていることが期待できるため、より詳細な説明情報を通知しても良い。一方、複合語フレーズ以外の発話を元に興味反応を検出した場合には、相対的に通知内容は簡素な情報にとどめてもよい。このように興味反応の検出トリガとして用いた発話内容に応じて、子供に通知する情報量を増減させても良い。
また、子供の発話音声を用いて興味反応を検出したか否かに応じて、子供に通知する情報を制御してもよい。例えば子供の発話がない状態で検出された注目対象物についての情報は、画像表示に留めてもよい。子供の発話を伴わない場合には、誤検出の恐れが相対的に高く、音声出力まで行うと子供を含むユーザに煩わしさを与える恐れがあるためである。上記構成によれば、誤検出の恐れが相対的に高い場合には、音声出力を省略することでユーザに煩わしさを与える恐れを低減できる。
なお、HCU1は、同一物を注視している時間の長さや、発話内容、心拍などの生体情報が示す興奮度合いなどから、注目度合いを評価し、注目度合いが所定の閾値以下である場合には、注目対象物についての音声出力を省略するように構成されていてもよい。当該構成によっても、興味が無いもの或いは興味が薄いものついての情報を音声出力する恐れを低減できる。また、その結果としてユーザに煩わしさを与える恐れを低減できる。
<ドライバへの通知内容の制御例>
HCU1は、興味反応が検出されていない場合にも、常時又は所定の通知間隔で、子供の体温や眠気等を示すステータス情報をHUD34等のドライバ用のディスプレイに表示してもよい。そのような構成によれば、例えば子供が眠そうにしているか否か、暑そうか否かなど、子供の様子を認識しやすくなる。また、子供の状態に応じた声掛けを行いやすくなる。
HCU1は、興味反応が検出されていない場合にも、常時又は所定の通知間隔で、子供の体温や眠気等を示すステータス情報をHUD34等のドライバ用のディスプレイに表示してもよい。そのような構成によれば、例えば子供が眠そうにしているか否か、暑そうか否かなど、子供の様子を認識しやすくなる。また、子供の状態に応じた声掛けを行いやすくなる。
<ドライバへの通知制御の補足>
上述した実施形態では運転負荷が高いか否かの判定結果に応じて、注目対象物についての情報のドライバへの提示態様を変更する制御例を開示したが、ドライバへの情報の提示態様を切り替えるためのパラメータは運転負荷の高さに限定されない。例えば、HCU1は、車両が走行中であるか否かに応じて、注目対象物についての情報をドライバに提示する際の作動を変更しても良い。例えば停車時には画像表示と音声出力の両方を実施する一方、車両が走行中である場合には画像表示は行わずに音声出力だけに留めてもよい。
上述した実施形態では運転負荷が高いか否かの判定結果に応じて、注目対象物についての情報のドライバへの提示態様を変更する制御例を開示したが、ドライバへの情報の提示態様を切り替えるためのパラメータは運転負荷の高さに限定されない。例えば、HCU1は、車両が走行中であるか否かに応じて、注目対象物についての情報をドライバに提示する際の作動を変更しても良い。例えば停車時には画像表示と音声出力の両方を実施する一方、車両が走行中である場合には画像表示は行わずに音声出力だけに留めてもよい。
HCU1は、レベル3以上の自動運転中であるか否かに応じて、注目対象物についての情報をドライバに提示する際の作動を変更しても良い。例えばレベル3以上の自動運転中である場合には画像表示と音声出力の両方を実施する一方、自動運転中ではない場合には画像表示は行わずに音声出力だけに留めてもよい。
なお、HCU1は、車両の走行状態に加えて、助手席に他の乗員が乗車しているか否かも併用して、注目対象物についての画像の表示先の組み合わせを変更しても良い。例えば、助手席にも乗員が着座している場合、自動運転中では助手席用ディスプレイと子供用ディスプレイにのみ注目対象物についての情報を表示する一方、自動運転中にはドライバ用ディスプレイにも当該情報画像を表示しても良い。
その他、ドライバの運転負荷は高くないと判定している状態であっても、システムからドライバへの権限移譲が近い場合には、ドライバへの注目対象物についての情報提示は省略するように構成されていても良い。権限移譲までの残り時間が所定値未満である場合にはドライバへの注目対象物への情報提示を差し控えることで、ドライバが運転操作を再開する準備に集中しやすくなる。
また、HCU1は、ドライバの運転状態に応じて、注目対象物についての情報を表示する場所や、通知態様を変更しても良い。HCU1は、ドライバの状況や、ドライバの指示に基づき、画像表示を行うタイミングを調整可能に構成されていても良い。ドライバの指示操作は、音声、タッチ、ジェスチャーなどによって受け付け可能である。表示タイミングの選択候補としては、今すぐ、5分後、一時停車時、駐車時、運転負荷低下時、自動運転開始時などが採用可能である。
<過去の検出結果の利用>
HCU1は、注目対象物に係る過去の検出結果をもとに、子供の興味反応を検出するための閾値を調整しても良い。例えば興味反応検出部F5は、過去に興味反応を示したことがある対象物の近くを走行している場合には、子供の興味反応を検出するための閾値を下げても良い。また、興味対象管理部FBは、過去に複数回興味反応を示している対象物は、特に興味を持っている物体であるお気に入り対象物として登録しても良い。なお、HCU1は、お気に入り対象物までの残り距離が所定距離未満となった場合や、お気に入り対象物が車外カメラ28で撮像されている場合には、子供にお気に入り対象物の存在を通知しても良い。HCU1は、過去の検出結果をもとに子供が興味を持っている対象を学習するように構成されていても良い。
HCU1は、注目対象物に係る過去の検出結果をもとに、子供の興味反応を検出するための閾値を調整しても良い。例えば興味反応検出部F5は、過去に興味反応を示したことがある対象物の近くを走行している場合には、子供の興味反応を検出するための閾値を下げても良い。また、興味対象管理部FBは、過去に複数回興味反応を示している対象物は、特に興味を持っている物体であるお気に入り対象物として登録しても良い。なお、HCU1は、お気に入り対象物までの残り距離が所定距離未満となった場合や、お気に入り対象物が車外カメラ28で撮像されている場合には、子供にお気に入り対象物の存在を通知しても良い。HCU1は、過去の検出結果をもとに子供が興味を持っている対象を学習するように構成されていても良い。
その他、HCU1が、興味対象カテゴリを管理可能に構成されている場合、既存の興味対象カテゴリに属する対象物に対して子供が興味を示したことを検出した場合には、通常時とは異なる態様でドライバに通知を行っても良い。ここでの通常時とは、既存の興味対象カテゴリに属する対象物に対して子供が興味を示した場合を指す。当該構成によれば、ドライバは子供がこれまでとは異なる、新たな物事に興味を持ち始めたこと、換言すれば、成長に伴う興味対象の移り変わりを知ることが可能となりうる。また、上記の構成によれば1つの側面において、ドライバは、ドライバ自身が把握していなかった子供の興味対象を知ることが可能となる。換言すれば、上記HCU1による興味対象カテゴリの管理は、子供の意外な一面を知るための一助となりうる。
<プリセットされた子供の注目対象物の利用>
以上ではHCU1が過去の検出結果に基づいて、子供が興味を持っている物事を学習する態様を言及したがこれに限らない。所定の設定画面を介して子供が好きな物事、嗜好の情報は、HCU1やサーバ5に予め登録されていても良い。
以上ではHCU1が過去の検出結果に基づいて、子供が興味を持っている物事を学習する態様を言及したがこれに限らない。所定の設定画面を介して子供が好きな物事、嗜好の情報は、HCU1やサーバ5に予め登録されていても良い。
手動登録又は自動学習により、子供が好きな物事に関するデータが登録されている場合には、対象物特定部F6は、当該データに基づいて注目対象物を検出するように構成されていても良い。つまり、子供の視線方向に対応するカメラ画像の中から、子供が好きな物事に関連する被写体を優先的に注目対象物として抽出するように構成されていてもよい。当該構成によれば、子供が興味のない/薄い物事が、注目対象物として抽出されるおそれを低減できる。換言すればシステムの誤作動を抑制可能となる。また、HCU1は、子供の嗜好情報に基づいて、子供に通知する情報の量や、表現方法などを変更しても良い。注目対象物が子供の好きな物事である場合には、そうではない場合よりも多くの/より詳細な情報を表示してもよい。また、注目対象物が子供の好きな物事である場合には通知音とともに注目対象物に係る画像を表示する一方、注目対象物が子供の好きな物事ではない場合には通知音なしで注目対象物に係る画像を表示しても良い。
<コミュニケーション方法の補足>
ドライバと子供とは、カメラ及びマイクを通して会話可能に構成されていてもよい。例えば会話機能がオンに設定されている場合には、子供用カメラ25の画像をメータディスプレイ32に表示するとともにスピーカ38Aから子供用マイク27が取得した音声を出力する。また、DSM21の画像を後席ディスプレイ35に表示するとともにスピーカ38Bからドライバ用マイク23が取得した音声を出力する。当該構成によれば、例えば3列以上のシート構成であって、前から3列目以降に子供が着座している場合など、運転席と子供用シートとが離れている場合にもコミュニケーションを取りやすくなる。
ドライバと子供とは、カメラ及びマイクを通して会話可能に構成されていてもよい。例えば会話機能がオンに設定されている場合には、子供用カメラ25の画像をメータディスプレイ32に表示するとともにスピーカ38Aから子供用マイク27が取得した音声を出力する。また、DSM21の画像を後席ディスプレイ35に表示するとともにスピーカ38Bからドライバ用マイク23が取得した音声を出力する。当該構成によれば、例えば3列以上のシート構成であって、前から3列目以降に子供が着座している場合など、運転席と子供用シートとが離れている場合にもコミュニケーションを取りやすくなる。
<子供用カメラの撮像範囲制御について>
HCU1はドライバ用マイク23を介して取得したドライバの音声コマンドに基づいて、子供用カメラ25の撮像方向や拡大率を変更可能に構成されていても良い。子供用カメラ25の撮像方向は、ピッチ角やロール角、ヨー角などで表現される。子供用カメラ25の撮像方向を変更することは、姿勢角を変更することに相当する。子供用カメラ25の撮像方向は、例えば子供用カメラ25の姿勢を制御するモータを制御することで実現されうる。
HCU1はドライバ用マイク23を介して取得したドライバの音声コマンドに基づいて、子供用カメラ25の撮像方向や拡大率を変更可能に構成されていても良い。子供用カメラ25の撮像方向は、ピッチ角やロール角、ヨー角などで表現される。子供用カメラ25の撮像方向を変更することは、姿勢角を変更することに相当する。子供用カメラ25の撮像方向は、例えば子供用カメラ25の姿勢を制御するモータを制御することで実現されうる。
上記構成によればドライバは、子供用カメラ25の撮像範囲を音声にて調整可能となり、子供の表情などを確認しやすくなる。なお、子供用カメラ25の撮像範囲の制御は、音声入力に限らず、ハプティックデバイスなどの操作部材などを介して実行可能に構成されていてもよい。
<付言>
本開示に記載の装置、システム、並びにそれらの手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。また、本開示に記載の装置及びその手法は、専用ハードウェア論理回路を用いて実現されてもよい。さらに、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウェア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。つまり、HCU1等が提供する手段及び/又は機能は、実体的なメモリ装置に記録されたソフトウェア及びそれを実行するコンピュータ、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供できる。例えばHCU1が備える機能の一部又は全部はハードウェアとして実現されても良い。或る機能をハードウェアとして実現する態様には、1つ又は複数のICなどを用いて実現する態様が含まれる。HCU1は、CPUの代わりに、MPUやGPU、DFP(Data Flow Processor)を用いて実現されていてもよい。HCU1は、CPUや、MPU、GPUなど、複数種類の演算処理装置を組み合せて実現されていてもよい。HCU1は、システムオンチップ(SoC:System-on-Chip)として実現されていても良い。さらに、各種処理部は、FPGA(Field-Programmable Gate Array)や、ASIC(Application Specific Integrated Circuit)を用いて実現されていても良い。各種プログラムは、非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよい。プログラムの保存媒体としては、HDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ、SD(Secure Digital)カード等、多様な記憶媒体を採用可能である。非遷移的実体的記録媒体には、EPROM(Erasable Programmable Read Only Memory)などのROMも含まれる。
本開示に記載の装置、システム、並びにそれらの手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。また、本開示に記載の装置及びその手法は、専用ハードウェア論理回路を用いて実現されてもよい。さらに、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウェア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。つまり、HCU1等が提供する手段及び/又は機能は、実体的なメモリ装置に記録されたソフトウェア及びそれを実行するコンピュータ、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供できる。例えばHCU1が備える機能の一部又は全部はハードウェアとして実現されても良い。或る機能をハードウェアとして実現する態様には、1つ又は複数のICなどを用いて実現する態様が含まれる。HCU1は、CPUの代わりに、MPUやGPU、DFP(Data Flow Processor)を用いて実現されていてもよい。HCU1は、CPUや、MPU、GPUなど、複数種類の演算処理装置を組み合せて実現されていてもよい。HCU1は、システムオンチップ(SoC:System-on-Chip)として実現されていても良い。さらに、各種処理部は、FPGA(Field-Programmable Gate Array)や、ASIC(Application Specific Integrated Circuit)を用いて実現されていても良い。各種プログラムは、非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよい。プログラムの保存媒体としては、HDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ、SD(Secure Digital)カード等、多様な記憶媒体を採用可能である。非遷移的実体的記録媒体には、EPROM(Erasable Programmable Read Only Memory)などのROMも含まれる。
上記実施形態における1つの構成要素が有する複数の機能は、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。加えて、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
上述した注目対象共有装置を構成要素とするシステムなと、種々の形態も本開示の範囲に含まれる。例えば、コンピュータを注目対象共有装置として機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体等の形態も本開示の範囲に含まれる。
Sys 注目対象共有システム、1 HCU(注目対象共有装置)、11 プロセッサ、12 RAM(メモリ)、21 DSM、22 ドライバセンサ、23 ドライバ用マイク、25 子供用カメラ(車室内カメラ)、26 子供センサ、27 子供用マイク、28 車外カメラ、F1 子供情報取得部、F2 車外情報取得部、F3 ドライバ情報取得部(運転席乗員情報取得部)、F4 車両情報取得部、F5 興味反応検出部、F6 対象物特定部(注目対象検出物)、F7 説明情報取得部(対象情報取得部)、F8 運転負荷推定部、F9 通知制御部(通知処理部)、FA 記録処理部、FB 興味対象管理部、S110・S111・S113 通知処理ステップ
Claims (10)
- 子供が着座するための座席である子供用シートが設けられた車両で使用される注目対象共有装置であって、
前記子供用シートに着座している子供の状態を表す情報として、前記子供の少なくとも顔部を撮像範囲に含む車室内カメラ(25)の画像に基づき、前記子供の視線方向を取得する子供情報取得部(F1)と、
前記子供の生体情報、前記子供の音声、及び、前記視線方向の少なくとも何れか1つに基づいて、車室外の物事に対する前記子供の興味反応を検出する興味反応検出部(F5)と、
前記子供情報取得部が取得した前記視線方向と、車外を撮像するように前記車両に取り付けられている車外カメラ(28)の撮像画像と、に基づいて、前記子供が興味を持った対象である注目対象を検出する注目対象検出部(F6)と、
前記車両の内部又は外部に配置されたデータベースから、前記注目対象について言語化された情報を取得する対象情報取得部(F7)と、
前記対象情報取得部が取得した前記情報を、当該情報に対応するテキストの表示及び音声出力の少なくとも何れか一方を用いて、運転席乗員及び前記子供の少なくとも何れか一方に通知する通知処理部(F9)と、を備える注目対象共有装置。 - 請求項1に記載の注目対象共有装置であって、
前記対象情報取得部は、前記注目対象についての情報として、前記注目対象の種別を取得し、
前記注目対象検出部は、前記車両に対して前記注目対象が存在する方向を取得し、
前記通知処理部は、前記注目対象の種別と、前記注目対象が存在する方向とを前記運転席乗員に通知するように構成されている注目対象共有装置。 - 請求項1又は2に記載の注目対象共有装置であって、
前記注目対象検出部は、前記注目対象として、歩行者、他車両、動物、イベント、自然現象、及び所定のキャラクターの絵の、少なくとも何れか1つを検出可能に構成されており、
前記対象情報取得部は、前記注目対象についての情報として、前記注目対象の名称、特徴、製造者、原産国、発生理由、大きさ、建設年、役割、及び歴史的背景の少なくとも何れか1つを取得し、
前記通知処理部は、前記対象情報取得部が取得した前記情報に対応するテキストを前記注目対象の画像とともに、所定のディスプレイに表示するように構成されている注目対象共有装置。 - 請求項1から3の何れか1項に記載の注目対象共有装置であって、
前記注目対象の検出結果を管理する興味対象管理部(FB)を備え、
前記興味対象管理部は、過去の前記注目対象の検出結果の履歴をもとに、前記子供が興味を持っている対象のカテゴリである興味対象カテゴリを特定するとともに、
新たに検出された前記注目対象が既存の前記興味対象カテゴリに属さない場合には、新たに検出された前記注目対象が既存の前記興味対象カテゴリに属する場合とは異なる態様で前記運転席乗員に通知を行うように構成されている注目対象共有装置。 - 請求項1から4の何れか1項に記載の注目対象共有装置であって、
前記注目対象を、位置情報と対応付けて所定の保存デバイスに記録する記録処理部(FA)を備え、
前記通知処理部は、過去に検出された前記注目対象から所定距離以内まで接近したことに基づいて、前記子供又は前記運転席乗員の少なくとも何れか一方に前記注目対象の存在を予告するように構成されている注目対象共有装置。 - 請求項1から5の何れか1項に記載の注目対象共有装置であって、
前記運転席乗員が発した音声を含む、前記運転席乗員の状態を示す情報を取得する運転席乗員情報取得部(F3)を備え、
前記通知処理部は、前記興味反応検出部が前記子供の前記興味反応を検出してから所定の応答待機時間が経過しても、前記運転席乗員情報取得部が前記運転席乗員の発話音声を取得しなかったことに基づいて、前記対象情報取得部が取得した前記情報を音声出力するように構成されている注目対象共有装置。 - 請求項6に記載の注目対象共有装置であって、
前記運転席乗員情報取得部は、前記運転席乗員の運転負荷を示す情報を取得可能に構成されており、
前記通知処理部は、
前記運転席乗員情報取得部が前記運転席乗員の前記運転負荷が高いことを示す情報を取得していない場合には、前記興味反応が検出されてから前記応答待機時間が経過しても、前記運転席乗員情報取得部が前記運転席乗員の発話音声を取得しなかったことを条件として、前記対象情報取得部が取得した前記情報を音声出力する一方、
前記運転席乗員情報取得部が前記運転席乗員の前記運転負荷が高いことを示す情報を取得している場合には、前記応答待機時間の経過を待たずに、前記対象情報取得部が取得した前記情報を前記車両に設けられたスピーカから音声出力するように構成されている注目対象共有装置。 - 請求項7に記載の注目対象共有装置であって、
前記通知処理部は、前記興味反応検出部が前記興味反応を検出したことに基づいて、前記対象情報取得部が取得した前記情報を含む前記注目対象についての情報を、前記運転席乗員が視認可能なディスプレイと、前記子供が視認可能なディスプレイのそれぞれに表示するとともに、
前記運転席乗員情報取得部が前記運転席乗員の前記運転負荷が高いことを示す情報を取得していない場合には、前記ディスプレイへの前記注目対象についての情報を表示してから前記応答待機時間が経過しても前記運転席乗員情報取得部が前記運転席乗員の発話音声を取得しなかったことを条件として、前記対象情報取得部が取得した前記情報を音声出力するように構成されている注目対象共有装置。 - 請求項1から8の何れか1項に記載の注目対象共有装置であって、
前記通知処理部は、前記子供の年齢、嗜好、乗車からの経過時間、目的地までの残り時間の少なくとも何れか1つに基づいて、前記子供への前記注目対象についての前記情報の通知態様を変更するように構成されている注目対象共有装置。 - 車両に予め設定されている子供用シートに着座している子供が興味を示した物事を保護者が共有するための、少なくとも1つのプロセッサによって実行される注目対象共有方法であって、
前記子供用シートに着座している子供の少なくとも顔部を撮像範囲に含む車室内カメラ(25)の画像に基づき、前記子供の視線方向を取得すること(S101)と、
前記子供の生体情報、前記子供の音声、及び、前記視線方向の少なくとも何れか1つに基づいて、車室外の物事に対する前記子供の興味反応を検出すること(S104)と、
取得された前記子供の前記視線方向と、車外を撮像するように前記車両に取り付けられている車外カメラ(28)の撮像画像とに基づいて、前記子供が興味を持った対象である注目対象を検出すること(S105)と、
前記車両の内部又は外部に配置されたデータベースから、前記注目対象について言語化された情報を取得すること(S107)と、
取得された前記注目対象についての情報を、当該情報に対応するテキストの表示及び音声出力の少なくとも何れか一方を用いて、運転席乗員及び前記子供の少なくとも何れか一方に通知すること(S110、S111、S113)と、を含む注目対象共有方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020206064A JP2022093012A (ja) | 2020-12-11 | 2020-12-11 | 注目対象共有装置、注目対象共有方法 |
CN202180081745.3A CN116547729A (zh) | 2020-12-11 | 2021-12-01 | 关注对象共享装置、关注对象共享方法 |
PCT/JP2021/044133 WO2022124164A1 (ja) | 2020-12-11 | 2021-12-01 | 注目対象共有装置、注目対象共有方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020206064A JP2022093012A (ja) | 2020-12-11 | 2020-12-11 | 注目対象共有装置、注目対象共有方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022093012A true JP2022093012A (ja) | 2022-06-23 |
Family
ID=81973944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020206064A Pending JP2022093012A (ja) | 2020-12-11 | 2020-12-11 | 注目対象共有装置、注目対象共有方法 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2022093012A (ja) |
CN (1) | CN116547729A (ja) |
WO (1) | WO2022124164A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004061259A (ja) * | 2002-07-29 | 2004-02-26 | Mazda Motor Corp | 情報提供装置、情報提供方法及び情報提供用プログラム |
JP6201415B2 (ja) * | 2013-05-17 | 2017-09-27 | 日産自動車株式会社 | 車室内監視装置 |
JP6515764B2 (ja) * | 2015-09-28 | 2019-05-22 | 株式会社デンソー | 対話装置及び対話方法 |
JP7178626B2 (ja) * | 2018-09-28 | 2022-11-28 | パナソニックIpマネジメント株式会社 | 情報提示サーバ、情報提示システムおよび情報提示方法 |
-
2020
- 2020-12-11 JP JP2020206064A patent/JP2022093012A/ja active Pending
-
2021
- 2021-12-01 CN CN202180081745.3A patent/CN116547729A/zh active Pending
- 2021-12-01 WO PCT/JP2021/044133 patent/WO2022124164A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022124164A1 (ja) | 2022-06-16 |
CN116547729A (zh) | 2023-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7288911B2 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
JP7155122B2 (ja) | 車両制御装置及び車両制御方法 | |
JP7080598B2 (ja) | 車両制御装置および車両制御方法 | |
US10908677B2 (en) | Vehicle system for providing driver feedback in response to an occupant's emotion | |
US10317900B2 (en) | Controlling autonomous-vehicle functions and output based on occupant position and attention | |
JP7324716B2 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
KR102599937B1 (ko) | 정보 처리 장치 및 정보 처리 방법 | |
WO2021145131A1 (ja) | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム | |
JP6083441B2 (ja) | 車両用乗員感情対応制御装置 | |
JP6115577B2 (ja) | 車両用乗員感情対応制御装置 | |
US10666901B1 (en) | System for soothing an occupant in a vehicle | |
JP2019131096A (ja) | 車両制御支援システムおよび車両制御支援装置 | |
JP6213489B2 (ja) | 車両用乗員感情対応制御装置 | |
KR20210107017A (ko) | 정보 처리 장치, 이동 장치 및 방법, 그리고 프로그램 | |
JP2016137200A (ja) | 車両用乗員感情対応制御装置 | |
JP2021128349A (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
JP2016137202A (ja) | 車両用乗員感情対応制御装置 | |
JP6213488B2 (ja) | 車両用乗員感情対応制御装置 | |
WO2022124164A1 (ja) | 注目対象共有装置、注目対象共有方法 | |
JP7238193B2 (ja) | 車両制御装置および車両制御方法 | |
JP2020130502A (ja) | 情報処理装置および情報処理方法 | |
JP2021068357A (ja) | 観光支援装置、該装置が搭載されたロボット、観光支援システム、及び観光支援方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240411 |