JP2019034659A - 車両用システム - Google Patents

車両用システム Download PDF

Info

Publication number
JP2019034659A
JP2019034659A JP2017157419A JP2017157419A JP2019034659A JP 2019034659 A JP2019034659 A JP 2019034659A JP 2017157419 A JP2017157419 A JP 2017157419A JP 2017157419 A JP2017157419 A JP 2017157419A JP 2019034659 A JP2019034659 A JP 2019034659A
Authority
JP
Japan
Prior art keywords
driver
child seat
infant
vehicle
detection means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017157419A
Other languages
English (en)
Inventor
雅也 藤森
Masaya Fujimori
雅也 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017157419A priority Critical patent/JP2019034659A/ja
Publication of JP2019034659A publication Critical patent/JP2019034659A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Selective Calling Equipment (AREA)
  • Seats For Vehicles (AREA)

Abstract

【課題】チャイルドシート上の搭乗者とのコミュニケーションを可能とする。【解決手段】車両用システムは、車両の運転者(100)が行う所定の操作を検出する第1検出手段(10)と、所定の操作とは異なる運転者の動作を検出する第2検出手段(20,30)と、第2検出手段で検出された運転者の動作に基づいて、運転者がチャイルドシート(50)上の搭乗者(200)とのコミュニケーションを望んでいるか否かを判定する判定手段(41,42)と、運転者がチャイルドシート上の搭乗者とのコミュニケーションを望んでいると判定された場合に、第1検出手段で検出された所定の操作に対応する動作を行うように可動部(51)の動作を制御する制御手段(43)とを備える。【選択図】図1

Description

本発明は、車両に搭載されたチャイルドシート上の搭乗者とのコミュニケーションを支援する車両用システムの技術分野に関する。
この種の装置として、車両に搭載されたチャイルドシート上の搭乗者の状態を自動的に検知するものがある。例えば、停車車両内のチャイルドシート上に幼児を待機させたまま運転者が車両から離れている時に、幼児の異変をチャイルドシート内外のセンサにて検知し、車両外の運転者へ報知するという技術が開示されている(特許文献1参照)。
また、その他の関連する技術として、車両内の乗員が車室内に配置された表示装置を遠隔操作する際の技術も開示されている(特許文献2参照)。
特開2001−202580号公報 特開2004−216953号公報
チャイルドシートに幼児を乗せた状態で走行する場合、幼児の機嫌が悪くなることで、車両の安全運転に支障を来たす場合がある。例えば、運転操作に集中すべき運転者が幼児の泣き声等に気を取られ、運転に集中できなくなってしまうおそれがある。この時、直接触れてあやしたりできれば、幼児の機嫌を良くすることもできると考えられるが、運転者には車両の運転操作を続行することが求められるため、幼児とコミュニケーションをとることは難しい。よって、一時的に停車する等の対応をしなければ、状況を改善することは困難である。
本発明は、上記問題点に鑑みてなされたものであり、運転者がチャイルドシート上の搭乗者とコミュニケーションをとることが可能な車両用システムを提供することを課題とする。
本発明の車両用システムは上述した課題を解決するために、車両に配置されたチャイルドシートの可動部の動作を制御することで、前記チャイルドシート上の搭乗者とコミュニケーションをとることが可能な車両用システムであって、前記車両の運転者が行う所定の操作を検出する第1検出手段と、前記所定の操作とは異なる前記運転者の動作を検出する第2検出手段と、前記第2検出手段で検出された前記運転者の動作に基づいて、前記運転者が前記チャイルドシート上の搭乗者とのコミュニケーションを望んでいるか否かを判定する判定手段と、前記運転者が前記チャイルドシート上の搭乗者とのコミュニケーションを望んでいると判定された場合に、前記第1検出手段で検出された前記所定の操作に対応する動作を行うように、前記可動部の動作を制御する制御手段とを備える。
第1実施形態に係る車両用システムの構成を示すブロック図である。 第1実施形態に係る車両用システムの動作の流れを示すフローチャートである。 ハンドルを利用したジェスチャーの一例を示す表である。 動作モードの切換えを示す概念図である。 第2実施形態に係る車両用システムの自動モードを実現する構成を示すブロック図である。 第2実施形態に係る車両用システムの自動モード時の動作の流れを示すフローチャートである。
以下、図面を参照して車両用システムの実施形態について説明する。
<第1実施形態>
第1実施形態に係る車両用システムについて、図1から図3を参照して説明する。
(1)装置構成
まず、第1実施形態に係る車両用システムの構成について、図1を参照して説明する。図1は、第1実施形態に係る車両用システムの構成を示すブロック図である。
第1実施形態に係る車両用システムは、ジェスチャー入力部10、カメラ20、マイク30、処理装置40、及びチャイルドシート50を備えて構成されている。
ジェスチャー入力部10は、例えば運転者100が運転中に触れることが可能なハンドル、シフトレバー、ドアトリム等として構成されており、運転者100が行う所定の操作(以下、適宜「ジェスチャー」と称する)を認識する。ジェスチャー入力部10は、例えば圧覚型触覚センサとして構成され、運転者100のジェスチャー入力部10に対する接触範囲、接触圧力、接触移動速度等を検出する。ジェスチャー入力部10で認識されたジェスチャーに関する情報は、処理装置40に出力される構成となっている。ジェスチャー入力部10は、後述する付記における「第1検出手段」の一具体例である。
カメラ20は、運転者100の画像を撮像可能な車載カメラとして構成されており、運転者の動作(例えば、視線の動き等)を検出する。カメラ20で検出された運転者100の動作に関する情報は、処理装置40に出力される構成となっている。カメラ20は、後述する付記における「第2検出手段」の一具体例である。
マイク30は、運転者100の発する音声を検出可能なマイクとして構成されている。マイク30で検出された運転者100の音声に関する情報は、処理装置40に出力される構成となっている。マイク30は、カメラ20と同様に、後述する付記における「第2検出手段」の一具体例である。
処理装置40は、例えば車両に搭載されるECU(Electronic Control Unit)として構成されている。処理装置40は、その内部に実現される論理的な又は物理的な処理ブロックとして、シーン推定部41、動作実施判断部42、及び制御部43を備えている。シーン推定部41及び動作実施判断部42は、後述する付記における「判定手段」の一具体例である。制御部43は、後述する付記における「制御手段」の一具体例である。処理装置40が備える各部の動作については、後に詳しく説明する。
チャイルドシート50は、車両に幼児を乗せる際に利用する補助具であり、車両のシートにシートベルト等を利用して固定されている。また、本実施形態に係るチャイルドシート50は、チャイルドシート上の幼児200とコミュニケーションをとるための可動部51が備えられている。可動部51は、例えばマッサージチェアのような構造(ただし、やさしく触られているような感覚を与えるための素材や形状)をしており、チャイルドシート50上の幼児に対して、なでる、さする、背中をやさしくトントンたたく等の動きを実現可能に構成されている。また、チャイルドシート50全体を振動させたり、ゆりかごのように動かしたりすることが可能であってもよい。なお、可動部51の電源は、車両から有線で供給されればよい。
<動作説明>
次に、第1実施形態に係る車両用システムの動作について、図2を参照して説明する。図2は、第1実施形態に係る車両用システムの動作の流れを示すフローチャートである。
図2に示すように、第1実施形態に係る車両用システムの動作時には、まずジェスチャー入力部10が運転者100のジェスチャーを認識する(ステップS11)。ジェスチャーは、チャイルドシート50上の幼児200に対して可動部51が実行し得る動作の各々に対応するように複数種類設定されている。以下では、運転者100が行うジェスチャーについて、図3を参照して具体的に説明する。図3は、ハンドルを利用したジェスチャーの一例を示す表である。
図3において、ジェスチャー入力部10がハンドルである場合、運転者100がハンドルに対して行える操作(ただし、運転操作の支障にならない操作)がジェスチャーとして予め設定される。具体的には、「狭い部分をなでる」、「広い範囲をなでる」、「片手でもむ」、「両手でもむ」、「片手でたたく」、「両手でたたく」という操作がジェスチャーとして設定される。これらのジェスチャーは夫々、「頭をなでる」、「背中をなでる/さする」、「背中をトントンたたく」、「足をなでる」、「全体を振動させる」、「全体をスイングさせる」という可動部51の動作に対応付けられており、運転者100は、所望の動作に対応するジェスチャーをハンドルに対して行えばよい。
なお、ジェスチャー入力部10は、ジェスチャーの強弱や速度についても認識可能であってもよい。その場合、ジェスチャーの強弱や速度が、可動部51の動作の強弱や速度に反映される。ただし、明らかに強い又は速いジェスチャーに関しては、そのまま伝達されないようセーフティガードをかけてもよい。
図2に戻り、ジェスチャーが認識されると、シーン推定部41が運転者100の意図を推定する(ステップS12)。具体的には、シーン推定部41は、カメラ20で検出された運転者100の動作、及びマイク30で検出された運転者100の音声に基づいて、運転者100の様子を推定し、運転者100にコミュニケーションの意図があるか否かを推定する。より具体的には、カメラ20で検出された運転者100の視線に基づいて、運転者100が運転に集中(即ち、前方に集中)しているか、それとも後席(即ち、チャイルドシート50上の幼児200)が気になっているかを推定する。あるいは、マイク30で検出された音声(例えば、「幼児200の名前」や「大丈夫だよ」等のキーワード)に基づいて、運転者100がチャイルドシート50上の幼児200とコミュニケーションをとろうとしているかを推定する。その他、車両に備えられる各種センサ(図示せず)等から認識される車両の状態に基づいて、運転者100の運転負荷が高い状態か否かを推定してもよい。
続いて、動作実施判断部42が、ジェスチャーに応じた可動部51の動作を実際に実行させるか否かを判定する(ステップS13)。具体的には、動作実施判断部42は、運転者100にコミュニケーションの意図がある場合には、チャイルドシート50の可動部51を動作させると判定し(ステップS13:YES)、運転者100にコミュニケーションの意図がない場合には、チャイルドシート50の可動部51を動作させないと判定する(ステップS13:NO)。なお、チャイルドシート50の可動部51を動作させないと判定された場合には、以降の処理は省略され、一連の処理は終了する。この場合、所定期間後に再びステップS11から一連の処理が開始されてもよい。
チャイルドシート50の可動部51を動作させると判定された場合(ステップS13:YES)、制御部43は認識した可動部51から出力すべき動作(即ち、認識したジェスチャーに応じた動作)を決定し(ステップS14)、可動部51の動作を制御する(ステップS15)。このように、認識されたジェスターに応じた動作は、運転者100にコミュニケーションの意図がある場合にのみ実行される。
以上説明したように、第1実施形態に係る車両用システムによれば、運転者100が運転操作を中止することなく、チャイルドシート50上の幼児200とコミュニケーションをとることができる。よって、車両の走行中に急に幼児200の機嫌が悪くなった場合でも、運転者100は運転操作を続けながら、ジェスチャーによって幼児200の機嫌を良くするようなコミュニケーションを実現することが可能である。
<第2実施形態>
次に、第2実施形態に係る車両用システムについて、図4から図6を参照して説明する。なお、第2実施形態は、上述した第1実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1実施形態と同様である。このため、以下では第1実施形態と異なる部分について詳細に説明し、重複する部分については適宜説明を省略するものとする。
(1)モード切換動作
まず、第2実施形態に係る車両用システムが実行可能なモード切替動作について、図4を参照して説明する。図4は、動作モードの切換えを示す概念図である。
図4に示すように、第2実施形態に係る車両用システムは、手動モード(即ち、第1実施形態で説明した、運転者100のジェスチャーに応じて可動部51を制御するモード)と、自動モード(即ち、後述する運転者100のジェスチャーによらずに可動部51を制御するモード)とを相互に切換えて動作することが可能である。
なお、車両の電源がOFFになっている状態からONになると、まずは手動モードで車両用システムの動作が開始される。手動モードで動作されている状態で自動モードONが選択されると、自動モードでの動作が開始される。自動モードのON/OFFは、例えば運転者100によるスイッチ操作等で切換えられる。
<自動モード用の構成>
次に、第2実施形態に係る車両用システムにおける自動モード用の構成について、図5を参照して説明する。図5は、第2実施形態に係る車両用システムの自動モードを実現する構成を示すブロック図である。なお、図5では、図1で示した各構成要素と同じ構成要素に同一の参照符号を付している。
図5に示すように、第2実施形態に係る車両用システムは、図1で示した構成(即ち、手動モード用の構成)に加え、自動モード用の構成として、カメラ20b、マイク30b、生体センサ60を備えて構成されている。
カメラ20bは、チャイルドシート50上の幼児200の画像を撮像可能な車載カメラとして構成されている。カメラ20bで撮像された幼児200の画像に関する情報は、処理装置40に出力される構成となっている。なお、運転者100及び幼児200の両方を撮像可能であれば、カメラ20(図1参照)及びカメラ20bは同一のカメラとして構成されてもよい。
マイク30bは、チャイルドシート50上の幼児200の発する音声を検出可能なマイクとして構成されている。マイク30bで検出された幼児200の音声に関する情報は、処理装置40に出力される構成となっている。なお、運転者100及び幼児200の両方が発する音声を別々に検出可能であれば、マイク30(図1参照)及びマイク30bは同一のマイクで構成されてもよい。
生体センサ60は、チャイルドシート50上の幼児200の脈拍や呼吸等(即ち、幼児の状態を知るための生体情報)を検出可能なセンサとして構成されている。生体センサ60で検出された幼児200の生体情報は、処理装置40に出力される構成となっている。
<自動モード時の動作>
次に、本実施形態に係る車両用システムの自動モード時の動作について、図6を参照して説明する。図6は、第2実施形態に係る車両用システムの自動モード時の動作の流れを示すフローチャートである。
図6に示すように、第2実施形態に係る車両用システムが自動モードで動作している場合には、まずシーン推定部41が、チャイルドシート50上の幼児200の意図を推定する(ステップS21)。具体的には、シーン推定部41は、カメラ20bで検出された幼児200の動作、マイク30bで検出された幼児200の音声、及び生体センサ60で検出された幼児200の生体情報に基づいて、幼児200の様子を推定し、幼児200に対してコミュニケーションが要求される状況であるか否かを推定する。
続いて、動作実施判断部42が、可動部51の動作を実行させるか否かを判定する(ステップS22)。具体的には、動作実施判断部42は、幼児200にコミュニケーションが要求されるような状況(例えば、幼児の機嫌が悪い状況)では、チャイルドシート50の可動部51を動作させると判定し(ステップS22:YES)、幼児200にコミュニケーションが要求されないような状況(例えば、幼児の機嫌が良い状況)では、チャイルドシート50の可動部51を動作させないと判定する(ステップS22:NO)。なお、チャイルドシート50の可動部51を動作させないと判定された場合には、以降の処理は省略され、一連の処理は終了する。この場合、所定期間後に再びステップS21から一連の処理が開始されてもよい。
チャイルドシート50の可動部51を動作させると判定された場合(ステップS22:YES)、制御部43は可動部51から出力すべき動作を決定し(ステップS23)、可動部51の動作を制御する(ステップS24)。なお、可動部51から出力すべき動作は、シーン推定部41で推定された幼児200の状況(言い換えれば、カメラ20bで検出された幼児200の動作、マイク30bで検出された幼児200の音声、及び生体センサ60で検出された幼児200の生体情報)に基づいて決定される。ただし、幼児200がどのような状況でどのような動作を望むかには個人差もあるため、その後のフィードバックで(例えば、可動部51の動作によって幼児200の機嫌が良くなったかを確認することで)、どのような状況でどのような動作を出力すべきかを学習するようにしてもよい。
以上説明したように、第2実施形態に係る車両用システムによれば、自動モードを選択することで、運転者100がジェスチャーを行わない場合でも、チャイルドシート50上の幼児200とコミュニケーションをとることができる。よって、運転者がジェスチャーを行うことが難しいような状況においても、幼児200の機嫌を良くするようなコミュニケーションを実現することが可能である。
<付記>
以上説明した実施形態から導き出される発明の各種態様を以下に説明する。
(付記1)
付記1に記載の温度推定装置は、車両に配置されたチャイルドシートの可動部の動作を制御することで、前記チャイルドシート上の搭乗者とコミュニケーションをとることが可能な車両用システムであって、前記車両の運転者が行う所定の操作を検出する第1検出手段と、前記所定の操作とは異なる前記運転者の動作を検出する第2検出手段と、前記第2検出手段で検出された前記運転者の動作に基づいて、前記運転者が前記チャイルドシート上の搭乗者とのコミュニケーションを望んでいるか否かを判定する判定手段と、前記運転者が前記チャイルドシート上の搭乗者とのコミュニケーションを望んでいると判定された場合に、前記第1検出手段で検出された前記所定の操作に対応する動作を行うように、前記可動部の動作を制御する制御手段とを備える。
付記1に記載の車両用システムによれば、車両の走行中であっても、車両に配置されたチャイルドシートの可動部の動作が制御されることで、運転者がチャイルドシート上の搭乗者に対しコミュニケーションをとることが可能である。チャイルドシートの可動部は運転者が行う所定の操作に対応する動作を行うように制御される。また、チャイルドシートの可動部の制御は、運転者の動作に基づいて、運転者がチャイルドシート上の搭乗者とのコミュニケーションを望んでいるか否かを判定した上で実行される。よって、運転者の意図を反映した適切なコミュニケーションを実現することが可能である。
本発明は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う車両用システムもまた本発明の技術的範囲に含まれるものである。
10 ジェスチャー入力部
20,20b カメラ
30,30b マイク
40 処理装置
41 シーン推定部
42 動作実施判断部
43 制御部
50 チャイルドシート
51 可動部
60 生体センサ
100 運転者
200 幼児

Claims (1)

  1. 車両に配置されたチャイルドシートの可動部の動作を制御することで、前記チャイルドシート上の搭乗者とコミュニケーションをとることが可能な車両用システムであって、
    前記車両の運転者が行う所定の操作を検出する第1検出手段と、
    前記所定の操作とは異なる前記運転者の動作を検出する第2検出手段と、
    前記第2検出手段で検出された前記運転者の動作に基づいて、前記運転者が前記チャイルドシート上の搭乗者とのコミュニケーションを望んでいるか否かを判定する判定手段と、
    前記運転者が前記チャイルドシート上の搭乗者とのコミュニケーションを望んでいると判定された場合に、前記第1検出手段で検出された前記所定の操作に対応する動作を行うように、前記可動部の動作を制御する制御手段と
    を備えることを特徴とする車両用システム。
JP2017157419A 2017-08-17 2017-08-17 車両用システム Pending JP2019034659A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017157419A JP2019034659A (ja) 2017-08-17 2017-08-17 車両用システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017157419A JP2019034659A (ja) 2017-08-17 2017-08-17 車両用システム

Publications (1)

Publication Number Publication Date
JP2019034659A true JP2019034659A (ja) 2019-03-07

Family

ID=65636591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017157419A Pending JP2019034659A (ja) 2017-08-17 2017-08-17 車両用システム

Country Status (1)

Country Link
JP (1) JP2019034659A (ja)

Similar Documents

Publication Publication Date Title
US10252725B2 (en) Vehicle stop apparatus
JP6304885B2 (ja) 車両遠隔操作システム
JP5692049B2 (ja) ステアリング位置制御システム
US11491988B2 (en) Driving assistance device
US20180208212A1 (en) User Interface Device for Selecting an Operating Mode for an Automated Drive
JP2015048034A (ja) 自動運転装置
US20170355367A1 (en) Method and apparatus for the closed-loop and/or open-loop control of a lateral guidance of a vehicle with the aid of a lane-keeping assist, and lane-keeping assist
JP4997989B2 (ja) 状態制御装置、状態制御方法、案内制御装置および案内制御方法
JP2020050331A (ja) 第1のドライバーアシスト機能から第2のドライバーアシスト機能へ切換えるための方法および装置
JP5942727B2 (ja) 車両用ドア開閉装置
JP2019034659A (ja) 車両用システム
JP2018135030A (ja) 自動運転操作支援装置
JPWO2016079857A1 (ja) 入力機器
JP2015033991A (ja) インターフェースデバイス、インターフェースデバイス制御方法、及びインターフェースデバイス制御プログラム
JP2016190524A (ja) ステアリングホイールの位置調整装置
US9939915B2 (en) Control device and method for controlling functions in a vehicle, in particular a motor vehicle
JP2020040439A (ja) 駐車制御装置、駐車制御方法、車両及びプログラム
JP2019079083A (ja) 運転支援装置
CN111469849B (zh) 车辆控制装置和车辆
WO2021033516A1 (ja) シート制御装置
JP2017154624A (ja) ステアリングホイール装置
JP2021017109A (ja) 遠隔運転システム
KR20170025175A (ko) 차량 조향 보조 장치 및 방법
JP2020040440A (ja) 駐車制御装置、駐車制御方法、車両及びプログラム
JP2009116619A (ja) 遠隔操作装置