JP2024041746A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2024041746A
JP2024041746A JP2023201226A JP2023201226A JP2024041746A JP 2024041746 A JP2024041746 A JP 2024041746A JP 2023201226 A JP2023201226 A JP 2023201226A JP 2023201226 A JP2023201226 A JP 2023201226A JP 2024041746 A JP2024041746 A JP 2024041746A
Authority
JP
Japan
Prior art keywords
occupant
vehicle
posture
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023201226A
Other languages
English (en)
Inventor
智也 大石
翔吾 藤江
祥子 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JP2024041746A publication Critical patent/JP2024041746A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Abstract

【課題】利便性を向上させる情報処理装置を提供する。【解決手段】情報処理装置3は、通信部31と、制御部32と、記憶部33と、を備える。画像取得部321は、撮影画像を取得し、姿勢検出部322は、車両VEの乗員PAの姿勢を検出する。サービス実行部324は、姿勢検出部322にて検出された当該乗員PAの姿勢と、情報取得部323にて取得された各種の情報とに基づいて、飲食物のオーダーを受け付けるサービスを乗員に対して実行する。【選択図】図3

Description

本発明は、情報処理装置に関する。
従来、マイクロフォンから入力された音声をネットワーク上のAI(Artificial Intelligence:人工知能)で認識し、入力された音声に応答する音声アシスタント機能を有するスマートスピーカが知られている(例えば、特許文献1参照)。当該音声アシスタント機能は、ユーザが発した特定の言葉(以下、ウェイクワードと記載)に応じて起動する。
特開2019-184809号公報
特許文献1に記載の技術では、音声アシスタント機能を利用したサービスの提供を受けることを望むユーザに対して、ウェイクワードを発するという作業を行わせる必要があり、利便性を向上させることができない、という問題が一例として挙げられる。
本発明は、上記に鑑みてなされたものであって、例えば利便性を向上させることができる情報処理装置を提供することを目的とする。
請求項1に記載の情報処理装置は、移動体内における乗員が無意識にとった姿勢を検出する姿勢検出部と、前記乗員に対して複数種類のサービスを実行可能とし、前記姿勢に基づいて、前記複数種類のサービスのうち少なくとも一つのサービスを実行するサービス実行部とを備えることを特徴とする。
図1は、実施の形態に係る情報処理システムの構成を示すブロック図である。 図2は、車載端末の構成を示すブロック図である。 図3は、情報処理装置の構成を示すブロック図である。 図4は、情報処理方法を示すフローチャートである。 図5は、情報処理方法を説明する図である。
以下に、図面を参照しつつ、本発明を実施するための形態(以下、実施の形態)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。
〔情報処理システムの概略構成〕
図1は、実施の形態に係る情報処理システム1の構成を示すブロック図である。
情報処理システム1は、移動体である車両VE(図1)の乗員PA(図5参照)に対して、当該乗員PAの姿勢に応じたサービスを実行するシステムである。この情報処理システム1は、図1に示すように、車載端末2と、情報処理装置3とを備える。そして、これら車載端末2及び情報処理装置3は、無線通信網であるネットワークNE(図1)を介して、通信を行う。
なお、情報処理装置3と通信を行う車載端末2としては、図1では1台である場合を例示しているが、複数の車両にそれぞれ搭載された複数台であっても構わない。また、1台の車両に乗車している複数の乗員に対してそれぞれサービスを実行するために、1台の車両に車載端末2が複数台、搭載されていても構わない。
〔車載端末の構成〕
図2は、車載端末2の構成を示すブロック図である。
車載端末2は、例えば、車両VEに設置される据え置き型のナビゲーション装置またはドライブレコーダーである。なお、車載端末2としては、ナビゲーション装置またはドライブレコーダーに限らず、車両VEの乗員PAが利用するスマートフォン等の携帯型端末を採用しても構わない。この車載端末2は、図2に示すように、音声入力部21と、音声出力部22と、撮像部23と、表示部24と、センサ部25と、端末本体26とを備える。
音声入力部21は、音声を入力して電気信号に変換するマイクロフォン211(図5参照)を含み、当該電気信号にA/D(Analog/Digital)変換等を行うことにより音声情報を生成する。本実施の形態において、音声入力部21にて生成された音声情報は、デジタル信号である。そして、音声入力部21は、当該音声情報を端末本体26に出力する。
音声出力部22は、スピーカ221(図5参照)を含み、端末本体26から入力したデジタルの音声信号をD/A(Digital/Analog)変換によってアナログの音声信号に変換し、当該スピーカ221から当該アナログの音声信号に応じた音声を出力する。
撮像部23は、端末本体26による制御の下、車両VEの乗員PAを撮影して撮影画像を生成する。そして、撮像部23は、生成した撮影画像を端末本体26に出力する。
表示部24は、液晶または有機EL(Electro Luminescence)等を用いた表示ディスプレイで構成され、端末本体26による制御の下、各種の画像を表示する。
センサ部25は、図2に示すように、GNSS(Global Navigation Satellite System)センサ251と、車速センサ252と、加速度センサ253と、舵角センサ254と、生体センサ255とを備える。
GNSSセンサ251は、GNSSを利用して、航法衛星から送信された測位用データを含む電波を受信する。当該測位用データは、緯度及び経度情報等から車両VEの絶対的な位置を検出するために用いられる。なお、利用されるGNSSは、例えば、GPS(Global Positioning System)であってもよいし、他のシステムであっても構わない。
車速センサ252は、車両VEの速度を検出し、当該速度に応じた車速データを生成する。
加速度センサ253は、車両VEにおける例えば鉛直方向の加速度を検出し、当該加速度に応じた振動データを生成する。当該振動データは、車両VEが道路の凹凸、穴、または障害物の上を通った際に当該車両VEに加わる鉛直方向の加速度に応じたデータである。すなわち、当該振動データは、車両VEの走行経路の状態に関する本実施の形態に係る経路状態情報に相当する。
舵角センサ254は、車両VEにおけるハンドル舵角を検出し、当該ハンドル舵角に応じた舵角データを生成する。
生体センサ255は、車両VEの乗員PAが座る座席に内蔵、車両VEの乗員PAが身に着けるウェアラブル機器、あるいは、車両VEの乗員PA周辺に設置されるものであり、当該乗員PAにおける心拍、脈波、呼吸、体動、及び脳波等の生体情報を検出し、当該生体情報に応じた生体データを生成する。
そして、センサ部25は、上述した測位用データ、車速データ、振動データ、舵角データ、及び生体データ等の出力データを端末本体26に出力する。
端末本体26は、図2に示すように、通信部261と、制御部262と、記憶部263とを備える。
通信部261は、制御部262による制御の下、ネットワークNEを介して情報処理装置3との間で情報の送受信を行う。
制御部262は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のコントローラによって、記憶部263に記憶された各種プログラムが実行されることにより実現され、車載端末2全体の動作を制御する。なお、制御部262は、CPUやMPUに限らず、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路によって構成されても構わない。
記憶部263は、制御部262が実行する各種のプログラムや、当該制御部262が処理を行うときに必要なデータ等を記憶する。
〔情報処理装置の構成〕
図3は、情報処理装置3の構成を示すブロック図である。
情報処理装置3は、例えば、サーバ装置である。この情報処理装置3は、図3に示すように、通信部31と、制御部32と、記憶部33とを備える。
通信部31は、制御部32による制御の下、ネットワークNEを介して車載端末2(通信部261)等との間で情報の送受信を行う。
制御部32は、CPUやMPU等のコントローラによって、記憶部33に記憶された各種プログラム(本実施の形態に係る情報処理プログラムを含む)が実行されることにより実現され、情報処理装置3全体の動作を制御する。なお、制御部32は、CPUやMPUに限らず、ASICやFPGA等の集積回路によって構成されても構わない。この制御部32は、図3に示すように、画像取得部321と、姿勢検出部322と、情報取得部323と、サービス実行部324とを備える。
画像取得部321は、通信部31を介して車載端末2から撮像部23にて生成された撮影画像を取得する。
姿勢検出部322は、車両VEの乗員PAの姿勢を検出する。当該乗員PAの姿勢は、当該乗員が無意識にとった姿勢を含む。本実施の形態では、姿勢検出部322は、所謂、骨格検知により当該姿勢を検出する。より具体的に、姿勢検出部322は、以下に示す学習モデルを用いた画像認識(AIを用いた画像認識)により、画像取得部321にて取得された撮影画像内に被写体として含まれる車両VEの乗員PAの骨格を検知することで当該乗員PAの姿勢を検出する。
当該学習モデルは、人が撮影された撮影画像に対して当該人の関節点の位置が予めラベリングされた画像を教師画像とし、当該教師画像に基づいて当該関節点の位置を機械学習(例えば深層学習等)することにより得られたモデルである。
情報取得部323は、以下に示す出力データ、道路交通情報、道路データ、施設情報、乗車時間情報、テンポ情報等の各種の情報を取得する。
当該出力データは、通信部31を介して車載端末2から取得されるセンサ部25の出力データである。
当該道路交通情報は、通信部31を介してVICS(登録商標、Vehicle Information Communication System)センタから取得する渋滞情報や交通情報等の道路交通情報であって、上述した出力データ(GNSSセンサ251にて受信した測位用データ)から推定される車両VEの現在位置に対応した道路交通情報である。
当該道路データは、記憶部33に記憶された道路データであって、上述した出力データ(GNSSセンサ251にて受信した測位用データ)から推定される車両VEの現在位置に対応した当該車両VEが走行している道路を示す道路データである。すなわち、当該道路データは、車両VEの走行経路に関する本実施の形態に係る走行経路情報に相当する。
当該施設情報は、記憶部33に記憶された施設情報であって、上述した出力データ(GNSSセンサ251にて受信した測位用データ)から推定される車両VEの現在位置周辺の施設を示す施設情報である。
なお、上述した道路データや施設情報の記憶場所は、記憶部33に記憶された構成に限らず、その他の場所、例えば記憶部263としても構わない。
当該乗車時間情報は、通信部31を介して車載端末2から取得される情報であって、車両VEが連続して運転されている運転時間(例えば車両VEのエンジンが連続してONとなっている時間)に関する情報である。当該運転時間は、例えば、制御部262にて計測される。
当該テンポ情報は、通信部31を介して車載端末2から取得される情報であって、当該車載端末2において再生されている楽曲のテンポ(BPM(Beats Per Minute))に関する情報である。当該テンポ情報は、例えば、当該楽曲の楽曲データについて周知の解析方法により制御部262が解析することで生成された情報、あるいは、当該楽曲データ内部のタグデータ等に含まれているBPMに関する情報である。
サービス実行部324は、車両VEの乗員PAに対して複数種類のサービスを実行可能とする。そして、サービス実行部324は、姿勢検出部322にて検出された当該乗員PAの姿勢と、情報取得部323にて取得された各種の情報とに基づいて、当該複数種類のサービスのうち少なくとも一つのサービスを実行する。このサービス実行部324は、図3に示すように、エージェント起動部3241と、複数のサービスエージェント32421~3242Nとを備える。
以下では、複数のサービスエージェント32421~3242Nを特に区別する必要のないときは、単にサービスエージェント3242と記載する。
複数のサービスエージェント32421~3242Nは、車両VEの乗員PAに対して、互いに異なるサービスをそれぞれ実行する。このサービスエージェント3242は、少なくとも一つのタスク(機能)を実行する少なくとも一つのアプリケーションプログラムによって構成されている。すなわち、本実施の形態に係る「サービスを実行する」とは、当該少なくとも一つのタスク(機能)を実行することを意味する。
エージェント起動部3241は、姿勢検出部322にて検出された車両VEの乗員PAの姿勢と、情報取得部323にて取得された各種の情報とに基づいて、サービスエージェント3242を起動するか否かを判定する。また、エージェント起動部3241は、サービスエージェント3242を起動すると判定した場合に、複数のサービスエージェント32421~3242Nのうち、当該姿勢及び当該各種の情報に応じた少なくとも一つのサービスエージェント3242を選択し起動する。そして、当該起動した少なくとも一つのサービスエージェント3242は、サービスを実行する。
記憶部33は、制御部32が実行する各種のプログラム(本実施の形態に係る情報処理プログラム)の他、制御部32が処理を行うときに必要なデータ等を記憶する。この記憶部33は、図3に示すように、学習モデルDB(データベース)331と、地図DB332とを備える。
学習モデルDB331は、上述した学習モデルを記憶する。
地図DB332は、地図データを記憶する。当該地図データは、道路に相当するリンクと道路の接続部分(交差点)に相当するノードとにより表された道路データや、各施設と当該各施設の位置(以下、施設位置と記載)とがそれぞれ対応付けられた施設情報等を含む。
〔情報処理方法〕
次に、情報処理装置3(制御部32)が実行する情報処理方法について説明する。
図4は、情報処理方法を示すフローチャートである。図5は、情報処理方法を説明する図である。具体的に、図5は、撮像部23にて生成され、ステップS1にて取得される撮影画像IMを示す図である。ここで、図5では、車両VEの運転席に座った乗員(運転手)PAを側方から撮影するように当該車両VE内に撮像部23を設置した場合を例示している。
なお、撮像部23の設置位置としては、上述した設置位置に限らない。例えば、乗員PAを前方から撮影するように当該車両VE内に撮像部23を設置しても構わない。また、本実施の形態に係る車両の乗員としては、車両VEの運転席に座った乗員に限らず、助手席や後部座席に座った乗員等を含むものである。
また、車両VE内に設置される撮像部23の数としては、一つに限らず、複数としても構わない。すなわち、一人の乗員PAを複数の撮像部23により撮影して、複数の視点から当該乗員PAの姿勢を検出する構成を採用しても構わない。
先ず、画像取得部321は、通信部31を介して車載端末2から撮像部23にて生成された撮影画像IMを取得する(ステップS1)。
ステップS1の後、姿勢検出部322は、学習モデルDB331に記憶された学習モデルを用いた画像認識により、撮影画像IM内に被写体として含まれる車両VEの乗員PAの骨格を検知することで当該乗員PAの姿勢を検出する(ステップS2:姿勢検出ステップ)。
ステップS2の後、情報取得部323は、各種の情報を取得する(ステップS3)。
ステップS3の後、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢と当該ステップS3にて取得された各種の情報とに基づいて、サービスエージェント3242を起動するか否かを判定する(ステップS4)。
サービスエージェント3242を起動しないと判定された場合(ステップS4:No)には、制御部32は、ステップS1に戻る。
一方、サービスエージェント3242を起動すると判定した場合(ステップS4:Yes)には、エージェント起動部3241は、複数のサービスエージェント32421~3242Nのうち、ステップS2にて検出された乗員PAの姿勢とステップS3にて取得された各種の情報とに応じた少なくとも一つのサービスエージェント3242を選択し起動する(ステップS5)。これにより、当該起動した少なくとも一つのサービスエージェント3242は、サービスを実行する。すなわち、ステップS5は、本実施の形態に係るサービス実行ステップに相当する。
なお、ステップS4,S5の詳細については、後述する「サービスエージェントの具体例」において説明する。
〔サービスエージェントの具体例〕
上述したサービスエージェント3242としては、以下に示す第1~第10のサービスエージェントを例示することができる。
〔第1のサービスエージェント(フードオーダーエージェント)〕
第1のサービスエージェントは、以下に示す第1,第2のタスク(機能)を実行するサービスエージェント3242である。
第1のタスク(機能)は、車両VEの乗員PAと対話するタスクである。より具体的に、第1のサービスエージェントは、第1のタスク(機能)を実行することにより、通信部31を介して車載端末2から、当該乗員PAが発した言葉(音声)を音声入力部21が取り込み、当該音声に基づいて当該音声入力部21にて生成された音声情報を取得する。また、第1のサービスエージェントは、当該取得した音声情報を認識し、当該音声情報が示す音声に返答する音声情報を、通信部31を介して車載端末2に送信する。これにより、当該音声情報に応じた音声が音声出力部22から出力され、当該乗員PAと第1のサービスエージェントとの間で対話が行われる。
ここで、第1のタスク(機能)は、後述する第3,第4,第6,第8,第10,第12のタスク(機能)と以下の点で異なる。
具体的に、第1のサービスエージェントは、第1のタスク(機能)の実行中、ステップS3にて取得された出力データ(GNSSセンサ251にて受信した測位用データ)から推定される車両VEの現在位置や当該車両VEの目的地までのルート等を考慮する。そして、第1のサービスエージェントは、車両VEの乗員PAと対話を行いつつ、当該乗員PAが受け取ることができる飲食物を当該乗員PAに対して提案する。
第2のタスク(機能)は、上述した第1のタスク(機能)において、飲食物を提案するとともに、車両VEの乗員PAが当該飲食物を望んだ場合に実行されるタスクである。より具体的に、第1のサービスエージェントは、第2のタスク(機能)を実行することにより、当該飲食物のオーダーや配送を受け付ける外部の管理サーバに対して通信部31を介してアクセスし、当該飲食物のオーダーや配送を依頼する。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「ハンドルに寄り掛かった姿勢(以下、第1の姿勢と記載)」である場合に、ステップS4,S5において、第1のサービスエージェントを選択する。
ここで、エージェント起動部3241は、第1のサービスエージェントを選択するにあたって、乗員PAの姿勢の他、ステップS3にて取得された各種の情報のうち、以下の情報を考慮する。当該情報は、乗車時間情報及びセンサ部25の出力データ(生体センサ255にて生成された生体データ)の少なくとも一つである。具体的に、エージェント起動部3241は、乗員PAの姿勢が第1の姿勢であり、かつ、以下の第1,第2の場合の少なくとも一つの場合に、第1のサービスエージェントを選択する。
すなわち、第1の場合は、乗車時間情報が示す乗員PAの運転時間が特定の閾値以上である場合である。第2の場合は、生体データが示す乗員PAの心拍等から当該乗員PAの状態が疲労のある状態であると推定される場合である。
以上のように、第1のサービスエージェントは、車両VEの乗員PAが疲労のある状態であって飲食を必要とする場合に起動する。
〔第2のサービスエージェント(休憩提案エージェント)〕
第2のサービスエージェントは、第3のタスク(機能)を実行するサービスエージェント3242である。
第3のタスク(機能)は、上述した第1のタスク(機能)と同様に、車両VEの乗員PAと対話するタスクである。
ここで、第2のサービスエージェントは、第3のタスク(機能)の実行中、ステップS3にて取得された出力データ(GNSSセンサ251にて受信した測位用データ)から推定される車両VEの現在位置や当該車両VEの目的地までのルート等を考慮する。そして、第2のサービスエージェントは、車両VEの乗員PAと対話を行いつつ、当該乗員PAに対して現在位置付近のサービスエリアやコンビニエンスストア等の休憩場所を提案し、休憩を促す。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「あくびをした姿勢(以下、第2の姿勢と記載)」である場合に、ステップS4,S5において、第2のサービスエージェントを選択する。
ここで、エージェント起動部3241は、第2のサービスエージェントを選択するにあたって、乗員PAの姿勢の他、ステップS3にて取得された各種の情報のうち、以下の情報を考慮する。当該情報は、乗車時間情報、道路交通情報、及びセンサ部25の出力データ(生体センサ255にて生成された生体データ)の少なくとも一つである。具体的に、エージェント起動部3241は、乗員PAの姿勢が第2の姿勢であり、かつ、以下の第3~第6の場合の少なくとも一つの場合に、第2のサービスエージェントを選択する。
すなわち、第3の場合は、乗車時間情報が示す乗員PAの運転時間が特定の閾値以上である場合である。第4の場合は、生体データから推定される乗員PAの起床時間が特定の時間よりも早い時間である場合である。第5の場合は、道路交通情報が示す車両VEの走行中の道路が渋滞中である場合である。第6の場合は、生体データが示す乗員PAの心拍等から当該乗員PAの状態が眠気のある状態であると推定される場合である。
以上のように、第2のサービスエージェントは、車両VEの乗員PAが眠気のある状態であって休憩を必要とする場合に起動する。
〔第3のサービスエージェント(エンターテイメントエージェント)〕
第3のサービスエージェントは、以下に示す第4,第5のタスク(機能)を実行するサービスエージェント3242である。
第4のタスク(機能)は、上述した第1のタスク(機能)と同様に、車両VEの乗員PAと対話するタスクである。
ここで、第3のサービスエージェントは、第4のタスク(機能)を実行することにより、車両VEの乗員PAと対話を行いつつ、当該乗員PAに対してクイズを出す。
第5のタスク(機能)は、車載端末2に特定の楽曲データを再生させ、特定の音楽をかけるタスクである。具体的に、第3のサービスエージェントは、第5のタスク(機能)を実行することにより、通信部31を介して車載端末2に特定の楽曲データを送信する。これにより、車載端末2は、当該楽曲データを再生する。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「窓等に肘をかけた姿勢(以下、第3の姿勢と記載)」である場合に、ステップS4,S5において、第3のサービスエージェントを選択する。
ここで、エージェント起動部3241は、第3のサービスエージェントを選択するにあたって、乗員PAの姿勢の他、ステップS3にて取得された各種の情報のうち、以下の情報を考慮する。当該情報は、乗車時間情報、道路データ、道路交通情報、及びセンサ部25の出力データ(加速度センサ253にて生成された振動データ、生体センサ255にて生成された生体データ)の少なくとも一つである。具体的に、エージェント起動部3241は、乗員PAの姿勢が第3の姿勢であり、かつ、以下の第7~第11の場合の少なくとも一つの場合に、第3のサービスエージェントを選択する。
すなわち、第7の場合は、乗車時間情報が示す乗員PAの運転時間が特定の閾値以上である場合である。第8の場合は、道路データが示す車両VEの走行中の道路が単調な道路(例えば、直線が続いている道路等)である場合である。第9の場合は、振動データが示す車両VEにおける鉛直方向の加速度から車両VEの走行中の道路が単調な道路(例えば、平滑な道路等)であると推定される場合である。第10の場合は、道路交通情報が示す車両VEの走行中の道路の交通量が特定の閾値以下である場合である。第11の場合は、生体データが示す乗員PAの心拍等から当該乗員PAの状態が疲労のない状態であると推定される場合である。
以上のように、第3のサービスエージェントは、例えば車両VEが単調な道路を走行中で、当該車両VEの乗員PAが退屈している場合に起動する。
〔第4のサービスエージェント(観光インフォエージェント)〕
第4のサービスエージェントは、以下に示す第6,第7のタスク(機能)を実行するサービスエージェント3242である。
第6のタスク(機能)は、上述した第1のタスク(機能)と同様に、車両VEの乗員PAと対話するタスクである。
第7のタスク(機能)は、車両VEの乗員PAが当該車両VE外の物体(例えば、建物)に対して指を差した場合に、当該物体を認識するタスクである。より具体的に、第4のサービスエージェントは、第7のタスク(機能)を実行することにより、通信部31を介して車載端末2から撮影画像IMを取得する。また、第4のサービスエージェント、当該撮影画像IMに基づいて、当該撮影画像IMに被写体として含まれる乗員PAの指の方向に位置する物体を認識する。当該認識された物体を説明する物体情報(例えば当該物体の名称等)は、例えば、上述した第6のタスク(機能)を実行することによって、乗員PAに対して音声出力される。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「車両VE外を指差した姿勢(以下、第4の姿勢と記載)」である場合に、ステップS4,S5において、第4のサービスエージェントを選択する。
ここで、エージェント起動部3241は、第4のサービスエージェントを選択するにあたって、乗員PAの姿勢の他、ステップS3にて取得された各種の情報のうち、施設情報も考慮する。具体的に、エージェント起動部3241は、乗員PAの姿勢が第4の姿勢であり、かつ、施設情報が示す車両VEの現在位置周辺の施設から当該車両VEが観光地を走行中であると推定される場合に、第4のサービスエージェントを選択する。
以上のように、第4のサービスエージェントは、例えば車両VEが観光地を走行中で、当該車両VEの乗員PAが当該車両VE外を指差した場合に起動する。
〔第5のサービスエージェント(セイフティエージェント)〕
第5のサービスエージェントは、以下に示す第8のタスク(機能)を実行するサービスエージェント3242である。
第8のタスク(機能)は、上述した第1のタスク(機能)と同様に、車両VEの乗員PAと対話するタスクである。
ここで、第5のサービスエージェントは、第8のタスク(機能)を実行することにより、車両VEの乗員PAと対話を行いつつ、当該乗員PAに対して安全のために両手でハンドルを持って運転することを促す。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「片手でハンドルを持っている姿勢(以下、第5の姿勢と記載)」である場合に、ステップS4,S5において、第5のサービスエージェントを選択する。
ここで、エージェント起動部3241は、第5のサービスエージェントを選択するにあたって、乗員PAの姿勢の他、ステップS3にて取得された各種の情報のうち、以下の情報を考慮する。当該情報は、道路データ、及びセンサ部25の出力データ(加速度センサ253にて生成された振動データ)の少なくとも一つである。具体的に、エージェント起動部3241は、乗員PAの姿勢が第5の姿勢であり、かつ、以下の第12,第13の場合の少なくとも一つの場合に、第5のサービスエージェントを選択する。
すなわち、第12の場合は、道路データが示す車両VEの走行中の道路がコーナーの続く山道である場合である。第13の場合は、振動データが示す車両VEにおける鉛直方向の加速度から車両VEの走行中の道路がコーナーの続く山道であると推定される場合である。
以上のように、第5のサービスエージェントは、例えば車両VEがコーナーの続く山道を走行中で、当該車両VEの乗員PAが危険な運転(片手でハンドルを持つ)をしている場合に起動する。
〔第6のサービスエージェント(DJ(Disk Jockey)エージェント)〕
第6のサービスエージェントは、以下に示す第9のタスク(機能)を実行するサービスエージェント3242である。
第9のタスク(機能)は、車載端末2でかけられている音楽を楽しんで聞いてもらうように、当該聞いてもらう音楽を選曲したり、当該音楽にDJのエフェクトを入れたりするタスクである。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「一定のリズムで左右に揺れている姿勢(以下、第6の姿勢と記載)」である場合に、ステップS4,S5において、第6のサービスエージェントを選択する。
ここで、エージェント起動部3241は、第6のサービスエージェントを選択するにあたって、乗員PAの姿勢の他、ステップS3にて取得された各種の情報のうち、テンポ情報も考慮する。具体的に、エージェント起動部3241は、乗員PAの姿勢が第4の姿勢であり、かつ当該第4の姿勢が示す左右に揺れている一定のリズムと、テンポ情報が示す車載端末2において再生されている楽曲のテンポとが略一致している場合に、第6のサービスエージェントを選択する。
以上のように、第6のサービスエージェントは、車載端末2において再生されている楽曲のテンポで車両VEの乗員PAがリズムをとっている場合に起動する。
〔第7のサービスエージェント(友達エージェント)〕
第7のサービスエージェントは、以下に示す第10のタスク(機能)を実行するサービスエージェント3242である。
第10のタスク(機能)は、上述した第1のタスク(機能)と同様に、車両VEの乗員PAと対話するタスクである。
ここで、第7のサービスエージェントは、第10のタスク(機能)を実行することにより、ステップS1にて取得された撮影画像IMや、ステップS3にて取得された生体データが示す乗員PAの心拍等から推定される当該乗員PAの感情に応じて当該乗員PAと対話する。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「本やスマートフォンを見ている姿勢(以下、第7の姿勢と記載)」である場合に、ステップS4,S5において、第7のサービスエージェントを選択する。
以上のように、第7のサービスエージェントは、車両VEの乗員PAが本やスマートフォンを見ている場合に起動する。
〔第8のサービスエージェント(エマージェンシーエージェント)〕
第8のサービスエージェントは、以下に示す第11のタスク(機能)を実行するサービスエージェント3242である。
第11のタスク(機能)は、通信部31及び車載端末2を介して車両VEの動作を制御し、車両VEを自動で路肩に緊急停止させるタスクである。ここで、第8のサービスエージェントは、第11のタスク(機能)の実行中、車両VEの動作を制御するにあたって、ステップS3にて取得された道路データ及びセンサ部25の出力データ(車速センサ252にて生成された車速データ、及び舵角センサ254にて生成された舵角データ)を参照する。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「通常の運転姿勢でない姿勢(以下、第8の姿勢と記載)」で一定時間、継続した場合に、ステップS4,S5において、第8のサービスエージェントを選択する。当該通常の運転姿勢でない姿勢とは、頭が前や後等に倒れてしまっている、あるいは、前を見ることができない状態で体が倒れてしまっている姿勢等を例示することができる。
ここで、エージェント起動部3241は、第8のサービスエージェントを選択するにあたって、乗員PAの姿勢の他、ステップS3にて取得された各種の情報のうち、センサ部25の出力データ(生体センサ255にて生成された生体データ)も考慮する。具体的に、エージェント起動部3241は、乗員PAが第8の姿勢を一定時間、継続し、生体データが示す当該乗員PAの心拍等から当該乗員PAの状態が意識のない状態であると推定される場合に、第8のサービスエージェントを選択する。
以上のように、第8のサービスエージェントは、車両VEの乗員PAが意識のない状態である場合に起動する。
〔第9のサービスエージェント(対話エージェント)〕
第9のサービスエージェントは、以下に示す第12のタスク(機能)を実行するサービスエージェント3242である。
第12のタスク(機能)は、上述した第1のタスク(機能)と同様に、車両VEの乗員PAと対話するタスクである。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「両手を頭の後ろに置いた姿勢(以下、第9の姿勢と記載)」で一定時間、継続した場合に、ステップS4,S5において、第9のサービスエージェントを選択する。
以上のように、第9のサービスエージェントは、車両VEの乗員PAが何か考え事をしている場合に起動する。
〔第10のサービスエージェント(車内環境コントロールエージェント)〕
第10のサービスエージェントは、以下に示す第13のタスク(機能)を実行するサービスエージェント3242である。
第13のタスク(機能)は、通信部31及び車載端末2を介して、車両VEのエアコン調整、音量調整、シートリクライニング等を行い、当該車両VEの乗員PAの快眠を促すタスクである。
そして、エージェント起動部3241は、ステップS2にて検出された乗員PAの姿勢が「シートに寄り掛かった姿勢(以下、第10の姿勢)」で一定時間、継続した場合に、ステップS4,S5において、第10のサービスエージェントを選択する。
ここで、エージェント起動部3241は、第10のサービスエージェントを選択するにあたって、乗員PAの姿勢の他、ステップS3にて取得された各種の情報のうち、センサ部25の出力データ(生体センサ255にて生成された生体データ)も考慮する。具体的に、エージェント起動部3241は、乗員PAが第10の姿勢を一定時間、継続し、生体データが示す当該乗員PAの心拍等から当該乗員PAの状態が睡眠状態であると指定される場合に、第10のサービスエージェントを選択する。
以上のように、第10のサービスエージェントは、車両VEの乗員PAが眠っている場合に起動する。
なお、サービスエージェント3242を起動しないと判定する場合(ステップS4:No)とは、例えば、上述した第1~第10のサービスエージェントのいずれも選択しない場合に相当する。
以上説明した本実施の形態によれば、以下の効果を奏する。
本実施の形態1に係る情報処理装置3は、車両VEの乗員PAが無意識にとった姿勢を検出し、当該姿勢に基づいて、複数種類のサービスのうち少なくとも一つのサービスを実行する。言い換えれば、当該姿勢に基づいて、複数のサービスエージェント32421~3242Nのうち少なくとも一つが起動する。
すなわち、車両VEの乗員PAは、複数のサービスエージェント32421~3242Nのうち少なくとも一つを起動させるために、従来のようにウェイクワードを発する必要がない。したがって、利便性を向上させることができる。
特に、複数のサービスエージェント32421~3242Nのうち少なくとも一つは、車両VEの乗員PAの姿勢に応じて能動的に起動する。このため、当該乗員PAにとって適切なタイミングで適切なサービスを実行することができる。
また、情報処理装置3は、所謂、骨格検知により車両VEの乗員PAの姿勢を検出する。このため、当該姿勢を高精度に検出することができ、適切なサービスエージェント3242を起動することができる。
また、情報処理装置3は、車両VEの乗員PAが無意識にとった姿勢と、乗車時間情報、当該乗員PAの生体データ、及び車両VEの走行中の道路の渋滞情報の少なくとも一つの情報とに基づいて、複数のサービスエージェント32421~3242Nのうち少なくとも一つを起動する。このため、姿勢だけでは分からない乗員PAの状態を当該少なくとも一つの情報により明確化することができる。そして、当該乗員PAに対して当該明確化した状態に応じた適切なサービスを実行する(例えば乗員PAが疲労のある状態であれば第1のサービスエージェントを起動する等)ことができる。
また、情報処理装置3は、車両VEの乗員PAが無意識にとった姿勢と、道路データ及び振動データのうち少なくとも一つの情報とに基づいて、複数のサービスエージェント32421~3242Nのうち少なくとも一つを起動する。このため、姿勢だけでは分からない乗員PAに必要なサービスを実行する(例えば第5のサービスエージェント(セイフティエージェント)を起動する等)ことができる。
(その他の実施形態)
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態によってのみ限定されるべきものではない。
上述した実施の形態において、情報処理装置3の全ての構成を車載端末2に設けても構わない。この場合には、当該車載端末2は、本実施の形態に係る情報処理装置に相当する。また、情報処理装置3における制御部32の一部の機能を車載端末2に設けても構わない。この場合には、情報処理システム1全体が本実施の形態に係る情報処理装置に相当する。
上述した実施の形態において、「サービスエージェントの具体例」において説明したように、一つのサービスエージェント3242のみが起動する構成としてもよく、あるいは、複数のサービスエージェント3242が略同時に起動する構成としても構わない。
上述した実施の形態では、サービスエージェント3242を起動するにあたって、車両VEの乗員PAの姿勢の他、情報取得部323にて取得される各種の情報を考慮していたが、これに限らず、当該乗員PAの姿勢のみを考慮する構成を採用しても構わない。
3 情報処理装置
321 画像取得部
322 姿勢検出部
323 情報取得部
324 サービス実行部

Claims (1)

  1. 移動体内における乗員が無意識にとった姿勢を検出する姿勢検出部と、
    前記姿勢に基づいて、飲食物のオーダーを受け付けるサービスを前記乗員に対して実行するサービス実行部とを備える
    ことを特徴とする情報処理装置。
JP2023201226A 2020-01-21 2023-11-29 情報処理装置 Pending JP2024041746A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020007865 2020-01-21
JP2020007865 2020-01-21
PCT/JP2021/001125 WO2021149593A1 (ja) 2020-01-21 2021-01-14 情報処理装置、情報処理方法、情報処理プログラム及び記憶媒体
JP2021573115A JPWO2021149593A1 (ja) 2020-01-21 2021-01-14

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021573115A Division JPWO2021149593A1 (ja) 2020-01-21 2021-01-14

Publications (1)

Publication Number Publication Date
JP2024041746A true JP2024041746A (ja) 2024-03-27

Family

ID=76992739

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021573115A Pending JPWO2021149593A1 (ja) 2020-01-21 2021-01-14
JP2023201226A Pending JP2024041746A (ja) 2020-01-21 2023-11-29 情報処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021573115A Pending JPWO2021149593A1 (ja) 2020-01-21 2021-01-14

Country Status (4)

Country Link
US (1) US20230054224A1 (ja)
EP (1) EP4095823A4 (ja)
JP (2) JPWO2021149593A1 (ja)
WO (1) WO2021149593A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7347342B2 (ja) * 2020-06-16 2023-09-20 トヨタ自動車株式会社 情報処理装置、提案システム、プログラム、及び提案方法
JP2023080878A (ja) * 2021-11-30 2023-06-09 本田技研工業株式会社 通信システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015156877A (ja) * 2012-05-18 2015-09-03 日産自動車株式会社 運転者身体状態適合装置、道路地図情報構築方法
JP6236952B2 (ja) * 2013-07-23 2017-11-29 日産自動車株式会社 運転支援装置および運転支援方法
JP2017138762A (ja) * 2016-02-03 2017-08-10 トヨタ自動車株式会社 運転者の感情推定装置
EP3444774A4 (en) * 2016-04-14 2019-08-28 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND MOBILE BODY
JP6820533B2 (ja) * 2017-02-16 2021-01-27 パナソニックIpマネジメント株式会社 推定装置、学習装置、推定方法、及び推定プログラム
JP7014951B2 (ja) * 2017-06-20 2022-02-02 テイ・エス テック株式会社 乗物用シート
JP7197992B2 (ja) 2018-04-10 2022-12-28 シャープ株式会社 音声認識装置、音声認識方法

Also Published As

Publication number Publication date
US20230054224A1 (en) 2023-02-23
EP4095823A4 (en) 2024-01-24
WO2021149593A1 (ja) 2021-07-29
EP4095823A1 (en) 2022-11-30
JPWO2021149593A1 (ja) 2021-07-29

Similar Documents

Publication Publication Date Title
JP6513069B2 (ja) 運転支援装置および運転支援方法
JP2024041746A (ja) 情報処理装置
JP7092116B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20180093673A1 (en) Utterance device and communication device
CN107886045B (zh) 设施满意度计算装置
JP6972629B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2007122579A (ja) 車両制御装置
JP6173477B2 (ja) ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法
JP5045302B2 (ja) 自動車用情報提供装置
WO2014057540A1 (ja) ナビゲーション装置およびナビゲーション用サーバ
JP6083441B2 (ja) 車両用乗員感情対応制御装置
JP4936094B2 (ja) エージェント装置
WO2007046269A1 (ja) 情報提示装置、情報提示方法、情報提示プログラムおよびコンピュータに読み取り可能な記録媒体
JP2019139354A (ja) 情報提供装置及び情報提供方法
JP6037130B2 (ja) 運転状態改善装置
US20200309549A1 (en) Control apparatus, control method, and storage medium storing program
JP2016137200A (ja) 車両用乗員感情対応制御装置
JP6552548B2 (ja) 地点提案装置及び地点提案方法
WO2007032278A1 (ja) 経路探索装置、経路探索方法、経路探索プログラムおよびコンピュータに読み取り可能な記録媒体
JP3907509B2 (ja) 緊急通報装置
JP6419134B2 (ja) 車両感情表示装置、車両感情表示方法および車両感情表示プログラム
JP6894579B2 (ja) サービス提供システムおよびサービス提供方法
JP2020130502A (ja) 情報処理装置および情報処理方法
WO2022124164A1 (ja) 注目対象共有装置、注目対象共有方法
JP2020140238A (ja) 情報処理システム、プログラム、及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231129