JP2022157401A - 情報処理装置、移動体、それらの制御方法、及びプログラム - Google Patents

情報処理装置、移動体、それらの制御方法、及びプログラム Download PDF

Info

Publication number
JP2022157401A
JP2022157401A JP2021061595A JP2021061595A JP2022157401A JP 2022157401 A JP2022157401 A JP 2022157401A JP 2021061595 A JP2021061595 A JP 2021061595A JP 2021061595 A JP2021061595 A JP 2021061595A JP 2022157401 A JP2022157401 A JP 2022157401A
Authority
JP
Japan
Prior art keywords
user
information
communication device
vehicle
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021061595A
Other languages
English (en)
Inventor
コンダパッレィアニルドレッディ
Reddy Kondapally Anirudh
健太郎 山田
Kentaro Yamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021061595A priority Critical patent/JP2022157401A/ja
Priority to CN202210285709.5A priority patent/CN115147788A/zh
Priority to US17/704,716 priority patent/US20220315063A1/en
Publication of JP2022157401A publication Critical patent/JP2022157401A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/34Compact city vehicles, e.g., microcars or kei cars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/041Potential occupants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Figure 2022157401000001
【課題】本発明は、好適にユーザを推定することにある。また、他の目的として、推定したユーザと移動体との間での合流位置を調整することにある
【解決手段】本情報処理装置であって、ユーザの通信装置から該ユーザによる発話情報及び該通信装置の位置情報の少なくとも一方を取得する第1取得手段と、前記発話情報に含まれる目印に応じて所定領域を特定する特定手段と、取得した前記発話情報及び前記ユーザの通信装置から取得した位置情報の少なくとも一方から、前記ユーザの移動方向を取得し、前記取得したユーザの移動方向に基づいて、前記所定領域に対して前記ユーザが存在する確率分布を設定する設定手段と、前記設定された前記確率分布に基づいて、前記ユーザを推定する推定手段とを備える。
【選択図】図7

Description

本発明は、情報処理装置、移動体、それらの制御方法、及びプログラムに関する。
近年、超小型モビリティ(マイクロモビリティともいわれる)と呼ばれる、乗車定員が1~2名程度である電動車両(移動体)が知られており、手軽な移動手段として普及することが期待されている。
このような超小型モビリティをシェアリングに用いるカーシェアリングシステムが提案されている(特許文献1)。このカーシェアリングシステムでは、車両管理サーバが、カーシェアリングの対象となる車両(移動体)の利用開始時刻や貸出場所を含む利用申込メッセージをユーザの通信装置から受信する。そして、利用申込メッセージの内容と運搬車両の現在位置とに基づいて、利用開始時刻までに貸出場所に到着可能な運搬車両を特定し、特定した運搬車両にシェアリングカーを貸出場所に運搬させる。ユーザは、指定した利用開始時間に貸出場所を訪れるとシェアリングカーを利用することができる。
特開2020-77035号公報
ところで、ユーザが超小型モビリティを利用する場合に、超小型モビリティが停車する貸出場所をユーザが訪れるのではなく、超小型モビリティとユーザとがそれぞれ移動しながら動的に合流位置を調整するようなユースケースが考えられる。このようなユースケースは、混雑などにより予め指定した位置での合流が困難となった場合や、ユーザが、最初に大まかな地域や建物等を指定し、互いが近くに到着した段階で具体的な合流位置を調整する場合などに有効である。
本発明は、上記課題に鑑みてなされ、好適にユーザを推定することにある。また、他の目的として、推定したユーザと移動体との間での合流位置を調整することにある。
本発明によれば、情報処理装置であって、ユーザの通信装置から該ユーザによる発話情報及び該通信装置の位置情報の少なくとも一方を取得する第1取得手段と、前記発話情報に含まれる目印に応じて所定領域を特定する特定手段と、取得した前記発話情報及び前記ユーザの通信装置から取得した位置情報の少なくとも一方から、前記ユーザの移動方向を取得し、前記取得したユーザの移動方向に基づいて、前記所定領域に対して前記ユーザが存在する確率分布を設定する設定手段と、前記設定された前記確率分布に基づいて、前記ユーザを推定する推定手段とを備える。
また、本発明によれば、移動体であって、ユーザの通信装置と通信を行う通信手段と、移動体の周囲を撮像する撮像手段と、ユーザの通信装置から該ユーザによる発話情報及び該通信装置の位置情報の少なくとも一方を前記通信手段によって取得する第1取得手段と、前記発話情報に含まれる目印に応じて所定領域を特定する特定手段と、取得した前記発話情報及び前記ユーザの通信装置から取得した位置情報の少なくとも一方から、前記ユーザの移動方向を取得し、前記取得したユーザの移動方向に基づいて、前記所定領域の分割領域に対して前記ユーザが存在する確率分布を設定する設定手段と、前記設定された前記確率分布に基づいて、前記ユーザを推定する推定手段とを備えることを特徴とする。
本発明によれば、好適にユーザを推定することが可能になる。また、推定したユーザと移動体との間での合流位置を調整することにある。
本発明の実施形態に係る情報処理システムの一例を示す図 本実施形態に係る移動体のハードウェアの構成例を示すブロック図 本実施形態に係る移動体の機能構成例を示すブロック図 本実施形態に係るサーバと通信装置の構成例を示すブロック図 本実施形態に係る、発話と画像を用いた合流位置の推定について説明するための図 本実施形態に係る、合流位置の調整処理の一連の動作を示すフローチャート 本実施形態に係る、確率分布によるユーザの推定について説明するための図 本実施形態に係る、確率分布によるユーザの推定処理の一連の動作を示すフローチャート 本実施形態に係る、発話と画像を用いたユーザの推定処理の一連の動作を示すフローチャート 本実施形態に係る、発話と画像を用いたユーザの推定について説明する図 本実施形態に係る、推定したユーザと移動体との位置関係を表示する画面例を示す図 他の実施形態に係る情報処理システムの一例を示す図
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
<情報処理システムの構成>
図1を参照して、本実施形態に係る情報処理システム1の構成について説明する。情報処理システム1は、車両(移動体)100と、サーバ110と、通信装置(通信端末)120とを含む。本実施形態では、ユーザ130の発話情報と、車両100の周囲の撮像画像とを用いて、サーバ110がユーザを推定し、さらに合流位置を推定して車両100と合流させる。ユーザは、保持している通信装置120上で起動される所定のアプリケーションを介してサーバ110とやり取りし、自身の位置等を発話により提供しながら、自身が指定する合流位置(例えば、近くの目印となる赤いポスト)へ移動する。サーバ110はユーザや合流位置を推定しながら、車両100を制御して推定した合流位置へ移動させる。以下では各構成を詳細に説明していく。
車両100は、バッテリを搭載しており、例えば、主にモータの動力で移動する超小型モビリティである。超小型モビリティとは、一般的な自動車よりもコンパクトであり、乗車定員が1又は2名程度の超小型車両である。本実施形態では、車両100を超小型モビリティとした例で説明するが、本発明を限定する意図はなく例えば四輪車両や鞍乗型車両であってもよい。また、本発明の車両は、乗り物に限らず、荷物を積載して人の歩行に並走する車両や、人を先導する車両であってもよい。さらに、本発明には、四輪や二輪等の車両に限らず、自立移動が可能な歩行型ロボットなども適用可能である。つまり、本発明は、これらの車両や歩行型ロボットなどの移動体に対して適用することができ、車両100は移動体の一例である。
車両100は、例えば、Wi‐Fiや第5世代移動体通信などの無線通信を介してネットワーク140に接続する。車両100は、様々なセンサによって(車両の位置、走行状態、周囲の物体の物標などの)車両内外の状態を計測し、計測したデータをサーバ110に送信可能である。このように収集されて送信されるデータは、一般にフローティングデータ、プローブデータ、交通情報などとも呼ばれる。車両に関する情報は、一定の間隔でまたは特定のイベントが発生したことに応じてサーバ110に送信される。車両100は、ユーザ130が乗車していない場合であっても自動運転により走行可能である。車両100は、サーバ110から提供される制御命令などの情報を受信して、或いは、自車で計測したデータを用いて車両の動作を制御する。
サーバ110は、情報処理装置の一例であり、1つ以上のサーバ装置で構成され、車両100から送信される車両に関する情報や、通信装置120から送信される発話情報及び位置情報を、ネットワーク140を介して取得し、車両100の走行を制御可能である。車両100の走行制御は、後述するユーザ130と車両100との合流位置の調整処理を含む。
通信装置120は、例えばスマートフォンであるが、これに限らず、イヤフォン型の通信端末であってもよいし、パーソナルコンピュータ、タブレット端末、ゲーム機などであってもよい。通信装置120は、例えば、Wi‐Fiや第5世代移動体通信などの無線通信を介してネットワーク140に接続する。
ネットワーク140は、例えばインターネットや携帯電話網などの通信網を含み、サーバ110と、車両100や通信装置120と間の情報を伝送する。この情報処理システム1では、離れた場所にいたユーザ130と車両100が、(視覚的な目印となる)物標等を視覚で確認できる程度に近づいた場合に、発話情報と車両100で撮像された画像情報とを用いて合流位置を調整する。なお、本実施形態では、車両100の周囲を撮像するカメラが車両自身に設けられる例について説明するが、必ずしも車両100にカメラ等が設けられる必要はない。例えば車両100の周囲に既に設置されている監視カメラ等を用いて撮像した画像を利用するようにしてもよいし、それらの両方を利用するようにしてもよい。これにより、ユーザの位置を特定する際に、より最適な角度で撮像した画像を利用することができる。例えば、1つの目印に対してユーザが発話により、自身が当該目印に対してどのような位置関係にいるかを発話した際に、当該目印と予測される位置に近いカメラで撮像された画像を解析することにより、超小型モビリティとの合流を要求するユーザをより正確に特定することができる。
ユーザ130と車両100とが物標等を視覚で確認できる程度に近づく前には、まずサーバ110は、ユーザの現在位置或いはユーザの予測位置が含まれる大まかなエリアまで車両100を移動させる。そして、サーバ110は、車両100が大まかなエリアに到達すると、視覚的な目印に関連する場所を尋ねる音声情報(例えば「近くにお店ありますか?」や「進行方向に何が見えますか?」)などを通信装置120へ送信する。視覚的な目印に関連する場所は、例えば、地図情報に含まれる場所の名称を含む。ここで、視覚的な目印とは、ユーザが視認可能な物理的なオブジェクトを示すものであり、例えば建物、信号機、河川、山、銅像、看板など種々のオブジェクトが含まれるものである。サーバ110は、視覚的な目印に関連する場所を含むユーザによる発話情報(例えば「xxコーヒーショップの建物があります」)を通信装置120から受け付ける。そして、サーバ110は、地図情報から該当する場所の位置を取得して車両100を当該場所の周辺まで移動させる(つまり、車両とユーザが物標等を視覚で確認できる程度に近づく)。なお、地図情報から位置を特定できない場合、例えば候補位置が複数存在する場合には、追加の質問を行って候補位置を絞り込むようにすることも可能である。
<移動体の構成>
次に、図2を参照して、本実施形態に係る移動体の一例としての車両100の構成について説明する。図2(A)は本実施形態に係る車両100の側面を示し、図2(B)は車両100の内部構成を示している。図中矢印Xは車両100の前後方向を示しFが前をRが後を示す。矢印Y、Zは車両100の幅方向(左右方向)、上下方向を示す。
車両100は、走行ユニット12を備え、バッテリ13を主電源とした電動自律式車両である。バッテリ13は例えばリチウムイオンバッテリ等の二次電池であり、バッテリ13から供給される電力により走行ユニット12によって車両100は自走する。走行ユニット12は、左右一対の前輪20と、左右一対の後輪21とを備えた四輪車である。走行ユニット12は三輪車の形態等、他の形態であってもよい。車両100は、一人用又は二人用の座席14を備える。
走行ユニット12は操舵機構22を備える。操舵機構22はモータ22aを駆動源として一対の前輪20の舵角を変化させる機構である。一対の前輪20の舵角を変化させることで車両100の進行方向を変更することができる。走行ユニット12は、また、駆動機構23を備える。駆動機構23はモータ23aを駆動源として一対の後輪21を回転させる機構である。一対の後輪21を回転させることで車両100を前進又は後進させることができる。
車両100は、車両100の周囲の物標を検知する検知ユニット15~17を備える。検知ユニット15~17は、車両100の周辺を監視する外界センサ群であり、本実施形態の場合、いずれも車両100の周囲の画像を撮像する撮像装置であり、例えば、レンズなどの光学系とイメージセンサとを備える。しかし、撮像装置に代えて或いは撮像装置に加えて、レーダやライダ(Light Detection and Ranging)を採用することも可能である。
検知ユニット15は車両100の前部にY方向に離間して二つ配置されており、主に、車両100の前方の物標を検知する。検知ユニット16は車両100の左側部及び右側部にそれぞれ配置されており、主に、車両100の側方の物標を検知する。検知ユニット17は車両100の後部に配置されており、主に、車両100の後方の物標を検知する。
<移動体の制御構成>
図3は、移動体である車両100の制御系のブロック図である。ここでは本発明を実施する上で必要な構成を主に説明する。従って、以下で説明する構成に加えてさらに他の構成が含まれてもよい。車両100は、制御ユニット(ECU)30を備える。制御ユニット30は、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。プロセッサ、記憶デバイス、インタフェースは、車両100の機能別に複数組設けられて互いに通信可能に構成されてもよい。
制御ユニット30は、検知ユニット15~17の検知結果、操作パネル31の入力情報、音声入力装置33から入力された音声情報、サーバ110からの制御命令(例えば、撮像画像や現在位置の送信等)などを取得して、対応する処理を実行する。制御ユニット30は、モータ22a、23aの制御(走行ユニット12の走行制御)、操作パネル31の表示制御、音声による車両100の乗員への報知、情報の出力を行う。
音声入力装置33は、車両100の乗員の音声を収音する。制御ユニット30は、入力された音声を認識して、対応する処理を実行可能である。GNSS(Global Navigation Satellite system)センサ34は、GNSS信号を受信して車両100の現在位置を検知する。記憶装置35は、車両100が走行可能な走路、建造物などのランドマーク、店舗等の情報を含む地図データ等を記憶する大容量記憶デバイスである。記憶装置35にも、プロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納されてよい。記憶装置35は、制御ユニット30によって実行される音声認識や画像認識用の機械学習モデルの各種パラメータ(例えばディープニューラルネットワークの学習済みパラメータやハイパーパラメータなど)を格納してもよい。通信ユニット36は、例えば、Wi‐Fiや第5世代移動体通信などの無線通信を介してネットワーク140に接続可能な通信装置である。
<サーバと通信装置の構成>
次に、図4を参照して、本実施形態に係る情報処理装置の一例としてのサーバ110と通信装置120の構成例について説明する。
(サーバの構成)
まずサーバ110の構成例について説明する。ここでは本発明を実施する上で必要な構成を主に説明する。従って、以下で説明する構成に加えてさらに他の構成が含まれてもよい。制御ユニット404は、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。プロセッサ、記憶デバイス、インタフェースは、サーバ110の機能別に複数組設けられて互いに通信可能に構成されてもよい。制御ユニット404は、プログラムを実行することにより、サーバ110の各種動作や、後述する合流位置の調整処理などを実行する。制御ユニット404は、CPUのほか、GPU、或いは、ニューラルネットワーク等の機械学習モデルの処理の実行に適した専用のハードウェアを更に含んでよい。
ユーザデータ取得部413は、車両100から送信される画像や位置の情報を取得する。また、ユーザデータ取得部413は、通信装置120から送信されるユーザ130の発話情報及び通信装置120の位置情報の少なくとも一方を取得する。ユーザデータ取得部413は、取得した画像や位置の情報を記憶部403に格納してもよい。ユーザデータ取得部413が取得した画像や発話の情報は、推論結果を得るために、推論段階の学習済みモデルに入力されるが、サーバ110で実行される機械学習モデルを学習させるための学習データとして用いられてもよい。
音声情報処理部414は、音声情報を処理する機械学習モデルを含み、当該機械学習モデルの学習段階の処理や推論段階の処理を実行する。音声情報処理部414の機械学習モデルは、例えば、ディープニューラルネットワーク(DNN)を用いた深層学習アルゴリズムの演算を行って、発話情報に含まれる場所名、建造物などのランドマーク名、店舗名、物標の名称などを認識する。物標は、発話情報に含まれる通行人、看板、標識、自動販売機など野外に設置される設備、窓や入口などの建物の構成要素、道路、車両、二輪車、などを含んでよい。DNNは、学習段階の処理を行うことにより学習済みの状態となり、新たな発話情報を学習済みのDNNに入力することにより新たな発話情報に対する認識処理(推論段階の処理)を行うことができる。なお、本実施形態では、サーバ110が音声認識処理を実行する場合を例に説明するが、車両や通信装置において音声認識処理を実行し、認識結果をサーバ110に送信するようにしてもよい。
画像情報処理部415は、画像情報を処理する機械学習モデルを含み、当該機械学習モデルの学習段階の処理や推論段階の処理を実行する。画像情報処理部415の機械学習モデルは、例えば、ディープニューラルネットワーク(DNN)を用いた深層学習アルゴリズムの演算を行って、画像情報に含まれる物標を認識する処理を行う。物標は、画像内に含まれる通行人、看板、標識、自動販売機など野外に設置される設備、窓や入口などの建物の構成要素、道路、車両、二輪車、などを含んでよい。
合流位置推定部416は、後述する、合流位置の調整処理を実行する。合流位置の調整処理については後述する。ユーザ推定部417は、後述するユーザの推定処理を実行する。ここで、ユーザの推定とは、車両100との合流を要求するユーザを推定するものであり、所定領域内における1以上の人から、当該要求ユーザの位置を特定してユーザを推定する。詳細な処理については後述する。
なお、サーバ110は、一般に、車両100などと比べて豊富な計算資源を用いることができる。また、様々な車両で撮像された画像データを受信、蓄積することで、多種多用な状況における学習データを収集することができ、より多くの状況に対応した学習が可能になる。
通信ユニット401は、例えば通信用回路等を含む通信装置であり、車両100や通信装置120などの外部装置と通信する。通信ユニット401は、車両100からの画像情報や位置情報、通信装置120からの発話情報及び位置情報の少なくとも一方を受信するほか、車両100への制御命令、通信装置120への発話情報を送信する。電源ユニット402は、サーバ110内の各部に電力を供給する。記憶部403は、ハードディスクや半導体メモリなどの不揮発性メモリである。
(通信装置の構成)
次に、通信装置120の構成について説明する。通信装置120は、ユーザ130が所持するスマートフォン等の携帯機器を示す。ここでは本発明を実施する上で必要な構成を主に説明する。従って、以下で説明する構成に加えてさらに他の構成が含まれてもよい。通信装置120は、制御ユニット501、記憶部502、外部通信機器503、表示操作部504、マイクロフォン507、スピーカ508、及び速度センサ509を備える。外部通信機器503は、GPS505、及び通信ユニット506を含む。
制御ユニット501は、CPUに代表されるプロセッサを含む。記憶部502にはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。なお、記憶部502は制御ユニット501の内部に組み込まれてもよい。制御ユニット501は、他のコンポーネント502、503、504、508、509とバス等の信号線で接続され、信号を送受することができ、通信装置120の全体を制御する。
制御ユニット501は、外部通信機器503の通信ユニット506を用いてネットワーク140を介してサーバ110の通信ユニット401と通信を行うことができる。また、制御ユニット501は、GPS505を介して、各種情報を取得する。GPS505は、通信装置120の現在位置を取得する。これにより、例えば、ユーザの発話情報とともに、位置情報をサーバ110へ提供することができる。なお、本発明においてGPS505は必須の構成ではなく、本発明ではGPS505の位置情報が取得できない、屋内などの施設内においても利用可能なシステムを提供するものである。従って、GPS505による位置情報はユーザを推定する際の補足的な情報として取り扱う。
表示操作部504は、例えばタッチパネル式の液晶ディスプレイであり、各種表示を行うとともに、ユーザ操作を受け付けることができる。表示操作部504には、サーバ110からの問い合わせ内容や、車両100との合流位置などの情報が表示される。なお、サーバ110から問い合わせがあった場合には、選択可能に表示されたマイクボタンを操作することによりユーザの発話を通信装置120のマイクロフォン507へ取得させることができる。マイクロフォン507はユーザによる発話を音声情報として取得する。マイクロフォンは、例えば操作画面に表示されたマイクボタンを押下することにより起動状態へ移行し、ユーザの発話を取得するようにしてもよい。スピーカ508は、サーバ110からの指示に従ってユーザに問い合わせを行う際に、音声によるメッセージを出力する(例えば、「何色の服を着ていますか?」など)。音声による問い合わせであれば、例えば通信装置120が表示画面を有していないヘッドセット等の簡易な構成であってもユーザとやり取りを行うことができる。また、ユーザが通信装置120を手に持っていない場合などであっても、ユーザは例えばイヤフォン等からサーバ110の問い合わせを聞くことができる。
速度センサ509は、通信装置120の前後方向、左右方向、上下方向の加速度を検知する加速度センサである。速度センサ509から出力された加速度を示す出力値は記憶部502のリングバッファに格納され、最も古い記録から上書きされていく。サーバ110はこれらのデータを取得して、ユーザの移動方向を検出するために用いてもよい。
<発話と画像とを用いた合流位置推定の概要>
図5を参照して、サーバ110において実行される、発話と画像とを用いた合流位置推定の概要について説明する。本処理は、上述のように、離れた場所にいたユーザ130と車両100が、(視覚的な目印となる)物標等を視覚で確認できる程度に近づいた後に実行される処理である。図5は、ユーザの発話情報と、車両100で撮像された画像情報とを用いてユーザと車両との相対的な位置関係を理解する様子を示す。
まずS501でユーザ130が通信装置120に対して合流位置を示す発話(例えば、「ポストの前ね!」)を行う。通信装置120は、ユーザの発話をマイクロフォン507で取得し、取得した発話情報をサーバ110へ送信する。S502でサーバ110は、ユーザによる発話情報の音声認識を行い、S503でユーザの位置に関する情報を発話情報から抽出する。ここでは、ユーザの位置に関する情報として、上述したユーザが視認可能な物理的なオブジェクトを示す名称であり、建物など目印の名称を示す情報が抽出される。
一方、S511で車両100はある程度ユーザ130との距離が近づいているため、撮像装置である検知ユニット15~17により車両100の周囲を撮像し、1以上の撮像データを画像情報としてサーバ110へ送信する。なお、ここでサーバ110へ送信される撮像データは車両100で撮像されたデータのみとは限らず、他の車両に設けられたカメラや周辺に設置されている監視カメラで撮像されたデータが送信されてもよい。S512でサーバ110は、受信した1以上の撮像データの画像認識(画像解析)を行い、S513においてS503で抽出された目印名を画像の認識結果から抽出する。ここでは目印名の抽出を例にしているが、本発明をそのような制御に限定する意図はなく、例えば画像認識の結果に基づいて認識される建物等のオブジェクトであってもよい。その後S520でサーバ110はS503やS513の結果を用いてユーザと車両との位置関係を理解し、ユーザを推定して、さらに合流位置となるターゲット位置を推定する。
<合流位置の調整処理の一連の動作>
次に、図6を参照して、本実施形態に係るサーバ110における合流位置の調整処理の一連の動作について説明する。なお、本処理は、制御ユニット404がプログラムを実行することにより実現される。なお、以下の説明では、説明の簡単のために制御ユニット404が各処理を実行するものとして説明するが、(図4にて上述した)制御ユニット404の各部により対応する処理が実行される。なお、ここでは、ユーザと車両とが最終的に合流するフローについて説明するが、本発明の特徴的な構成はユーザの推定に関連する構成であり、合流位置を推定する構成については必須の構成ではない。即ち、以下では、合流位置の推定に関する制御も含んだ処理手順について説明するが、ユーザの推定に関する処理手順のみを行うような制御してもよい。
S601において、制御ユニット404は、車両100との合流を開始するためのリクエスト(合流リクエスト)を通信装置120から受信する。S602において、制御ユニット404は、ユーザの位置情報を通信装置120から取得する。なお、ユーザの位置情報は、通信装置120のGPS505によって取得された位置情報である。S603において、制御ユニット404は、S602で取得したユーザの位置に基づき、合流する大まかなエリア(単に合流エリア、所定領域ともいう)を特定する。合流エリアは、例えば、ユーザ130(通信装置120)の現在位置を中心とした半径が所定距離(例えば、数百m)のエリアである。
S604において、制御ユニット404は、例えば、車両100から定期的に送信される位置情報に基づいて、合流エリアへ向かう車両100の移動を追跡する。なお、制御ユニット404は、例えば、ユーザ130の現在位置(或いは所定の時間後の到達地点)の周辺に位置する複数の車両の中から、当該現在位置に最も近い車両を、ユーザ130と合流する車両100として選択することができる。或いは、制御ユニット404は、特定の車両100を指定する情報が合流リクエストに含まれていた場合、当該車両100を、ユーザ130と合流する車両100として選択してもよい。
S605において、制御ユニット404は、車両100が合流エリアに到達したかを判定する。制御ユニット404は、例えば、車両100と通信装置120との間の距離が合流エリアの半径以内である場合に、車両100が合流エリアに到達したと判定して、処理をS606に進める。そうでない場合、サーバ110は処理をS605に戻して、車両100が合流エリアに到達するのを待つ。
S606において、制御ユニット404は、発話を用いてユーザを推定するための確率分布を設定し、撮像画像内のユーザの推定を行う。ここでのユーザの発話を用いたユーザの推定処理の詳細については後述する。続いて、S607において、制御ユニット404はS606で推定したユーザに基づいて、さらに合流位置を推定する。例えば、撮像画像内におけるユーザを推定することにより、ユーザが合流位置として「近くの赤いポスト」などと発話していた場合には、推定したユーザに近い赤いポストを探索することにより、より正確に合流位置を推定することができる。その後、S608において、制御ユニット404は、合流位置の位置情報を車両へ送信する。すなわち、制御ユニット404は、S607の処理において推定された合流位置を車両100へ送信することで、車両100を合流位置に移動させる。制御ユニット404は、合流位置を車両100へ送信すると、その後、一連の動作を終了する。
<確率分布の設定>
次に、図7を参照してユーザの発話情報及び位置情報の少なくとも一方から所定領域におけるユーザが存在する確率分布を設定してユーザを推定する例について説明する。ここでユーザの推定とは、基本的に、所定領域の周辺を撮像した撮像画像で検知される人のいずれがユーザであるかを推定することを示す。
図7(a)はユーザが「ちょうど今Pを通り過ぎた。」と発話した場合の確率分布を示す。”P”は特定の商業施設など、目印を示すものであり、サーバ110は大まかなユーザの位置情報に基づいて、発話情報から抽出した”P”を地図上で検索する。大まかなユーザの位置情報とは、発話情報から抽出された特定の地域や、ユーザが所持する通信装置120のGPS505から取得した位置情報などから特定される。
発話情報から大まかなユーザの位置情報を特定する場合、例えばユーザが「ちょうど今Pを通り過ぎた。」と発話する前に、更に別の目印に関する発話を行った場合、その二つの発話に基づいてPを特定してもよい。例えばユーザが「ちょうど今Pを通り過ぎた。」と発話する前に、「今Qの前にいる。」という発話をしていた場合、“Q”が所定範囲内に存在する“P”を地図上で検索する。“Q”は“P”と同様、特定の商業施設など目印を示すものである。このようにすれば、GPS505から取得した位置情報を利用できない場合などであっても、目印Pを特定することができる。地図上で”P”が検索されると、サーバ110は”P”を中心とした所定領域700を複数の領域に分割し、それぞれにユーザが存在する確率を示す確率分布を設定する。
ここで、各分割領域に対してユーザが存在する確率を設定するが、ユーザによる発話情報に従って複数のパターンが予め用意されている。基本的には目印Pに対するユーザの移動方向を判断して確率を設定する。ここで、ユーザの移動方向とは、種々の移動方向を含む概念であり、例えば、地図上の方位(東西南北)を示す移動方向や、ユーザが目印Pに対して近づいているのか、遠ざかっているのかなどの目印に対する移動方向をも含むものであり、ユーザの発話情報及び位置情報の少なくとも一方から得られる情報によって推定される。例えば、図7(a)では、ユーザ130は”目印Pを通り過ぎた”と発話しており、目印Pから遠ざかっていると判断することができる。従って、図7(a)に示すように、サーバ110は目印Pから人が遠ざかっている領域の確率を相対的に高く(確率”高”)設定し、その周辺の領域を次に高く(確率”中”)設定し、それら以外の領域を相対的に低く(確率”低”)設定する。なお、確率”高”の領域を決定する際には目印Pに対するユーザの大まかな位置情報及び発話情報の少なくとも一方からユーザの移動方向を推定し、推定した移動方向に応じて目印Pに対してどの領域の確率を高く設定するかを決定することができる。図7(a)の例では、ユーザの移動方向は北側から南側に向かう方向であると推定できているため、目印Pの南側に対応する領域の確率が高く設定される。
ユーザの移動方向は、発話情報、及びGPS505から取得した位置情報の少なくとも一方に基づいて推定を行う。発話情報からユーザの移動方向の推定を行う場合、“目印Pを通り過ぎた”と発話する以前の発話情報に基づいて推定を行ってよい。例えば、ユーザが“目印Pを通り過ぎた”と発話する以前に、目印Pよりも北側にある目印Qの近傍にいたことを示す発話を行っていた場合、ユーザの移動方向は北側から南側に向かう方向であると推定することができる。
その後、サーバ110は、車両100の検知ユニット15~17で撮像された撮像画像の画像認識を行い、当該所定領域に存在する1以上の人を検知する。ここでも車両100が撮像した画像のみならず、他の撮像装置によって撮像された画像データも利用することができる。サーバ110は検知した人のそれぞれの移動方向を画像解析により判断して、ユーザによる発話情報及び位置情報の少なくとも一方から取得されたユーザの移動方向に一致する動作を行っているユーザに対して高い確率を設定する。図7(a)では検知された人を”1”、”2”、”3”で示し、さらにそれらの人の移動方向を矢印で示す。従って、ユーザによって”目印Pを通り過ぎた”と発話されているため、Pを通り過ぎている”2”の確率が最も高く設定され、その次に現在通り過ぎている”3”が高く設定され、目印”P”に近づいている”1”については最も低い確率が設定される。したがって、”2”>”3”>”1”の関係で、検知されたそれぞれの人に確率が設定される。さらに、サーバ110は、人に付与した確率と、当該人が位置する領域に設定した確率とを合成した合成確率を取得し、最も高い確率の人をユーザとして推定する。図7(a)の例では”2”の人物がユーザと推定される。
図7(b)はユーザが「今Pに近づいている。」と発話した場合の確率分布を示す。サーバ110は”P”について図7(a)で説明した場合と同様に、地図上で検索する。地図上で”P”が検索されると、サーバ110は”P”を中心とした所定領域710を複数の領域に分割し、それぞれにユーザが存在する確率を示す確率分布を設定する。
図7(b)では、ユーザ130は”目印Pに近づいている”と発話しており、目印Pへ近づいていると判断することができる。従って、図7(b)に示すように、サーバ110は目印Pへ人が近づいている領域の確率を相対的に高く(確率”高”)設定し、その周辺の領域を次に高く(確率”中”)設定し、それら以外の領域を相対的に低く(確率”低”)設定する。なお、確率”高”の領域を決定する際には目印Pに対するユーザの大まかな位置情報から、目印Pに対してどの領域の確率を高く設定するかを決定することができる。図7(b)の例では、直前のユーザの位置が大まかに目印Pの北側と認識できているため対応する領域の確率が高く設定される。
その後、サーバ110は、車両100の検知ユニット15~17で撮像された撮像画像の画像認識を行い、当該所定領域に存在する1以上の人を検知する。ここでも車両100が撮像した画像のみならず、他の撮像装置によって撮像された画像データも利用することができる。サーバ110は検知した人のそれぞれの移動方向を画像解析により判断して、ユーザによる発話情報及び位置情報の少なくとも一方から取得されたユーザの移動方向に一致する動作を行っているユーザに対して高い確率を設定する。図7(b)では検知された人を”1”、”2”、”3”で示し、さらにそれらの人の移動方向を矢印で示す。従って、ユーザによって”目印Pへ近づいている”と発話されているため、Pへ近づいている”1”の確率が最も高く設定され、目印”P”から離れている”2”、”3”については低い確率が設定される。したがって、”1”>”2”=”3”の関係で、検知されたそれぞれの人に確率が設定される。さらに、サーバ110は、人に付与した確率と、当該人が位置する領域に設定した確率とを合成した合成確率を取得し、最も高い確率の人をユーザとして推定する。図7(b)の例では”1”の人物がユーザと推定される。
<発話を用いたユーザの推定処理の一連の動作>
次に、図8を参照して、サーバ110における、発話を用いたユーザの推定処理(S606)の一連の動作について説明する。なお、本処理は、図6に示す処理と同様、制御ユニット404がプログラムを実行することにより実現される。
S801において、制御ユニット404は、「視覚的な目印に関連する場所」について尋ねる音声情報を、通信装置120に送信する。視覚的な目印に関連する場所について尋ねる音声情報は、例えば「近くにお店ありますか?」のような音声を含む。この視覚的な目印に関連する場所について尋ねる音声情報は、予め定められ、記憶部403に記憶された情報であってよい。
S802において、制御ユニット404は、ユーザの発話情報を通信装置120から受信して、発話内容を認識し、発話内容に含まれる目印を中心とした所定領域を特定する。このとき、ユーザの発話情報は、「xxコーヒーショップの建物があります」のように、視覚的な目印に関連する場所の情報を含む。さらに、S803において、制御ユニット404は、図7を用いて上述したように、発話情報とユーザの大まかな位置に応じて、ユーザの移動方向を取得し、特定した所定領域を分割して確率分布を設定する。
続いて、S804において、制御ユニット404は、S802で特定した所定領域を撮像した画像を、車両100等から取得して解析する。具体的には、制御ユニット404は、取得した撮影画像を解析して、所定領域内に位置する1以上の人(候補ユーザ)を検知する。さらに、制御ユニット404は、検知した人それぞれについて、その向きや姿勢から移動方向(1以上の人の移動方向)を推定する。なお、制御ユニット404は、時系列の画像データを取得することもでき、時間的な位置の差異によって移動方向を特定してもよい。さらに、S805において、制御ユニット404は、候補ユーザの移動方向からそれぞれの検知された人に対して、車両との合流を要求しているユーザである確率を付与する。ここでの処理は、図7を用いて説明したように、制御ユニット404は、ユーザによる発話情報に応じてその確率を付与する。
S806において、制御ユニット404は、発話情報、位置情報及び画像情報を用いてユーザを推定し、本処理を終了する。詳細な処理については図9を用いて後述する。なお、S805までの処理で既にユーザを特定することができる確率分布が設定されていれば、S806においては最も高い確率又は所定値以上の確率を有する人をユーザとして特定する。一方、一人のユーザに特定できない場合には図9を用いて説明するように、さらにユーザと会話を行って候補ユーザを絞り込んでいく。
図9を参照して、S806の詳細な処理について説明する。なお、本処理は、図6に示す処理と同様、制御ユニット404がプログラムを実行することにより実現される。
S901において、制御ユニット404は、図8のフローチャートにおいて設定された所定領域における各分割領域と、検知された1以上の人に対して付与された確率とを合成した合成確率を算出し、当該合成確率が高い候補ユーザが複数存在するか否かを判断する。例えば、合成確率の算出方法は、候補ユーザに付与された確率と、当該候補ユーザの位置に対応する分割領域に対して設定された確率を合成することにより算出される。複数存在する場合にはS902に進み、そうでない場合はS905に進む。S905で、制御ユニット404は、最も高い合成確率を有する候補ユーザをユーザと特定し、処理を終了する。
一方、候補ユーザが複数いる場合にはユーザを特定することができないため、S902で制御ユニット404は、所定領域を撮影した画像をさらに解析して、検知された人の特徴をさらに抽出する。ここでの特徴とは、ユーザ身に着けている服の帽子、眼鏡などの特徴や、カバンなどの所持しているもの特徴などの特徴であり、例えばそれらの色や形、数などを示す。
次に、S903で、制御ユニット404は、S902で抽出した特徴に従って、ユーザの特徴を尋ねる追加の音声情報(例えば、「何色の服を着ていますか?」)を通信装置120へ送信する。ここで、送信する音声情報は、例えば、複数の候補ユーザが存在する場合において、それぞれの候補ユーザが異なる特徴となる事項について尋ねることが望ましい。これにより、より効率的にユーザを特定することができる。例えば、それらの候補ユーザがそれぞれ着ている服の色が異なる場合には、「何色の服を着ていますか?」などの音声情報によってユーザに尋ねることが望ましい。
その後、S904で制御ユニット404は、通信装置120からユーザによる発話情報を受信して、確率分布を補正する。なお、ここにおいても通信装置120の位置情報を合わせて受信し、確率分布の補正に利用してもよい。ここで、制御ユニットは、発話情報の内容において、補正する確率として、人に付与される確率と、分割領域に設定された確率との少なくとも一方を選択することができる。確率分布を補正すると処理をS901に戻し、制御ユニット404は、改めて候補ユーザがまだ複数存在するかどうかを判断する。制御ユニット404は、候補ユーザが一人に絞り込まれるまでS902乃至S904の処理を繰り返し実行する。
<通信装置での表示例>
図10は、発話と画像を用いたユーザの推定の過程を示す通信装置120の表示部の一例を示す。図10に示す表示画面1000は、サーバ110から提供される画面情報に従って通信装置120の表示操作部504に表示され、車両とユーザとの合流位置の調整の中で、ユーザの推定を行っている様子を示す。したがって、通信装置120の表示操作部504はWebサーバであるサーバ110に対してWebブラウザとして機能するものであってもよい。
表示1001はユーザの発話を通信装置120が取得して、取得した内容を文字列で表示している様子を示す。ユーザは例えばマイクボタン1006を押下しながら通信装置120へ発話することにより通信装置120へ自身の発話を提供することができる。表示する文字列については言語解析が必要であるため、通信装置120で言語解析を行うのではなく、サーバ110から発話情報の解析結果を受信して表示することが望ましい。これにより、通信装置120での処理負荷を軽減することができるとともに、通信装置120に対して言語解析モジュールを実装する必要がなくなる。表示1002は、図8で説明した所定領域に対する確率分布の設定の結果、図9のS901で候補ユーザが複数存在する場合に表示され、ユーザが存在するであろう該当エリアに複数の候補ユーザが存在している旨のメッセージが含まれる。
表示1003はサーバ110からユーザへの問い合わせを示し、サーバ110から通信装置120へ送信された音声情報をメッセージ(例えば、「何色の服を着ていますか?」)で表示している。この際、通信装置120はスピーカ508を介してメッセージに従った音声を出力してもよい。その後、ユーザはマイクボタン1006を押下しながら、通信装置120のマイクロフォン507へ向けて問い合わせに対する回答を発話する。表示1004はユーザの回答を示し、サーバ110で解析された発話情報をメッセージで表示している。表示1004では、サーバ110が解釈したユーザの発話(例えば、「赤色の服を着ています」)が表示されている。その後、サーバ110が候補ユーザを一人に絞り込んで、ユーザを特定すると、表示1005のメッセージ(「ユーザを推定しました」)が表示される。
表示画面1000には、さらに、マップ表示ボタン1007が操作可能に表示されてもよい。このマップ表示ボタン1007を操作すると、後述するマップ表示画面1100へ遷移する。マップ表示ボタン1007は、ユーザを推定した段階で操作可能に表示されてもよい。
図11は、推定したユーザと車両との位置関係を表示するマップ表示画面1100を示す。マップ表示画面1100は、通信装置120の表示操作部504に表示され、所定領域周辺の地図が表示される。
地図上の表示1101はS606で推定したユーザを示す。また、表示1002はユーザ130と合流する車両100を示す。表示1103はS802でユーザによる発話情報から特定された目印の位置を示す。表示1004はS607でユーザの発話情報から推定された合流位置を示す。このように、マップ表示画面1100では、推定したユーザ、目印、合流位置などを所定領域の地図上に表示してそれらの位置関係を示すものである。なお、ユーザはこれらの位置関係を確認し、合流位置を再調整することができる。ボタン1105は発話画面へ遷移するためのボタンであり、操作されると表示画面1000へ遷移する。ユーザはボタン1105を操作して表示画面1000へ戻り、合流位置の再調整などを発話によりサーバ110へ要求することができる。
なお、ここではユーザを推定した段階で表示されたマップ表示画面の例について説明するが、本発明を限定する意図はない。例えば、複数の候補ユーザが表示された段階で、マップ表示を行い、複数の候補ユーザを選択可能に所定領域を示す地図上に表示し、ユーザに対して自身を示す候補ユーザを選択させるようにしてもよい。或いは、撮像画像上で検知された複数の候補ユーザを、当該撮像画像上で選択可能とするような表示画面を提供してもよい。この場合、例えば検知された人を線など囲み、ユーザがその内部を選択することによりユーザを選択するようにしてもよい。このように、ユーザに自身を選択させることにより、より効率的にかつ正確にユーザを特定することができる。また、推定された合流位置の表示を行わなくてもよく、そもそも合流位置の推定を行わなくてもよい。この場合、例えば推定したユーザに近づくように車両100を制御してもよいし、ユーザに改めて合流位置を指定するよう要求してもよい。また、車両100からユーザに対して合流位置を提案してもよい。
<変形例>
以下、本発明に係る変形例について説明する。上記実施形態では、合流位置の調整処理をサーバ110において実行する例について説明した。しかし、上述の合流位置の調整処理は、車両側で実行することもできる。この場合、情報処理システム1200は、図12に示すように、車両1210と通信装置120とで構成される。ユーザの発話情報は通信装置120から車両1210へ送信される。車両1210で撮像された画像情報は、ネットワークを介して送信されるかわりに、車両内の制御ユニットによって処理される。車両1210の構成は、制御ユニット30が合流位置の調整処理を実行可能であることを除き、車両100と同一の構成であってよい。車両1210の制御ユニット30は、車両1210における制御装置として動作し、記憶されているプログラムを実行することにより、上述の合流位置の調整処理を実行する。図6、図8及び図9に示した一連の動作における、サーバと車両の間のやり取りは、車両の内部(例えば制御ユニット30の内部、又は制御ユニット30と検知ユニット15の間)で行えばよい。その他の処理については、サーバと同様に実行することができる。
このように、ユーザと車両とが合流するための合流位置を調整する車両の制御装置において、通信装置から、視覚的な目印を含む、合流位置に関する発話情報及び位置情報の少なくとも一方を取得する。そして、上記発話情報に含まれる視覚的な目印特定し、発話情報及び位置情報の少なくとも一方からユーザの移動方向を取得し、取得したユーザの移動方向に基づいて撮像画像内のユーザを推定する。さらに、推定したユーザに基づいて、合流位置を推定する。
<実施形態のまとめ>
1.上記実施形態の情報処理装置(例えば、110)は、
ユーザの通信装置から該ユーザによる発話情報及び該通信装置の位置情報の少なくとも一方を取得する第1取得手段(401、413)と、
前記発話情報に含まれる目印に応じて所定領域を特定する特定手段(417)と、

取得した前記発話情報及び前記ユーザの通信装置から取得した位置情報の少なくとも一方から、前記ユーザの移動方向を取得し、前記取得したユーザの移動方向に基づいて、前記所定領域に対して前記ユーザが存在する確率分布を設定する設定手段(417、S801~S805)と、
前記設定された前記確率分布に基づいて、前記ユーザを推定する推定手段(417、S806)と、を備える。
この実施形態によれば、好適にユーザを推定することが可能になる。
2.上記実施形態の情報処理装置では、前記特定した所定領域の周囲において撮像された撮像画像を取得する第2取得手段(401)をさらに備え、前記設定手段は、前記第2取得手段によって取得した前記撮像画像の中で、1以上の人を検知する(S804)。
この実施形態によれば、ユーザの発話情報に基づいて特定した所定領域周辺の撮像画像において検知される人の中からユーザを特定することができ、より正確にユーザの推定を行うことができる。
3.上記実施形態の情報処理装置では、前記推定手段は、前記目印に対する前記1以上の人の移動方向を前記撮像画像から解析し、前記設定手段によって設定された前記確率分布と、前記解析した前記1以上の人の移動方向とに基づいて、前記ユーザを推定する(S805)。
この実施形態によれば、ユーザを推定する際に、検知された人それぞれの移動方向を解析することにより、さらに正確にユーザを特定することができる。
4.上記実施形態の情報処理装置では、前記推定手段は、前記解析した前記1以上の人の移動方向のうち、前記ユーザの移動方向に一致する移動方向の人に対して、一致しない移動方向の人と比較して高い確率を付与する(S805)。
この実施形態によれば、ユーザを推定する際に、検知された人それぞれの移動方向を解析して、ユーザによる発話情報と組み合わせることにより、さらに正確にユーザを特定することができる。
5.上記実施形態の情報処理装置では、前記推定手段は、前記設定手段によって設定された前記確率分布と、前記1以上の人に付与された確率との合成確率に基づいて前記ユーザを推定する(S901、S905)。また、前記推定手段は、対応する前記合成確率が最も高い人又は所定値以上である人を前記ユーザと推定する。
この実施形態によれば、ユーザを推定する際に、検知された人それぞれの移動方向を解析して、ユーザによる発話情報と組み合わせることにより、さらに正確にユーザを特定することができる。
6.上記実施形態の情報処理装置では、前記推定手段は、一人のユーザに特定できない場合において、前記ユーザによる発話情報を前記第1取得手段によってさらに取得し、取得した前記発話情報及び撮像画像から前記合成確率を更新して前記ユーザを推定する(S902~S904)。
この実施形態によれば、ユーザへの追加の問い合わせを行うことにより、候補ユーザを絞り込むことができ、より正確にユーザを特定することができる。
7.上記実施形態の情報処理装置では、前記第1取得手段は、ユーザの周辺に位置する移動体によって撮像された撮像画像の解析に基づいて前記ユーザに対して問い合わせを行い、該問い合わせの応答として前記ユーザによる発話情報を前記通信装置から取得する(S902、S903)。
この実施形態によれば、画像解析に基づくユーザへの追加の問い合わせを行うことにより、候補ユーザを絞り込むことができ、より正確にユーザを特定することができる。
8.上記実施形態の情報処理装置は、前記第2取得手段は、ユーザの周辺に位置する移動体によって撮像された撮像画像、及び前記移動体の周囲に位置する撮像手段によって撮像された撮像画像の少なくとも一方を取得する。
この実施形態によれば、移動体に設けられた撮像手段のみならず、他の移動体の撮像手段や周囲の監視カメラの撮像画像を利用することができ、より正確にユーザの推定や合流位置を推定することができる。
9.上記実施形態の情報処理装置は、前記第1取得手段によって取得した発話情報を言語解析した結果を表示する画面情報を前記通信装置へ提供する提供手段をさらに備える(図10)。
この実施形態によれば、ユーザによる発話情報をシステム側がどのように認識しているかをユーザに通知することができ、誤解した解析に基づいた推定を防ぐことができる。
10.上記実施形態の情報処理装置は、前記提供手段は、さらに、前記第2取得手段によって取得した撮像画像の中で検知した1以上の人のうち、複数の候補ユーザを選択可能に表示する画面情報を前記通信装置へ提供する。
11.上記実施形態の情報処理装置では、前記推定手段は、前記推定したユーザに従って、ユーザと車両との合流位置をさらに推定する(S607)。
この実施形態によれば、好適にユーザを推定して、合流しようとするユーザと車両との間での合流位置を調整することが可能になる。
この実施形態によれば、ユーザに複数の候補ユーザから自身を選択させることができ、より正確にユーザを特定することができる。
100…車両、110…サーバ、120…通信装置、404…制御ユニット、413…ユーザデータ取得部、414…音声情報処理部、415…画像情報処理部、416…合流位置推定部、417…ユーザ推定部

Claims (17)

  1. 情報処理装置であって、
    ユーザの通信装置から該ユーザによる発話情報及び該通信装置の位置情報の少なくとも一方を取得する第1取得手段と、
    前記発話情報に含まれる目印に応じて所定領域を特定する特定手段と、
    取得した前記発話情報及び前記ユーザの通信装置から取得した位置情報の少なくとも一方から、前記ユーザの移動方向を取得し、前記取得したユーザの移動方向に基づいて、前記所定領域に対して前記ユーザが存在する確率分布を設定する設定手段と、
    前記設定された前記確率分布に基づいて、前記ユーザを推定する推定手段と
    を備えることを特徴とする情報処理装置。
  2. 前記特定した所定領域の周囲において撮像された撮像画像を取得する第2取得手段をさらに備え、
    前記設定手段は、前記第2取得手段によって取得した前記撮像画像の中で、1以上の人を検知することを特徴とする請求項1に記載の情報処理装置。
  3. 前記推定手段は、前記目印に対する前記1以上の人の移動方向を前記撮像画像から解析し、前記設定手段によって設定された前記確率分布と、前記解析した前記1以上の人の移動方向とに基づいて、前記ユーザを推定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記推定手段は、前記解析した前記1以上の人の移動方向のうち、前記ユーザの移動方向に一致する移動方向の人に対して、一致しない移動方向の人と比較して高い確率を付与することを特徴とする請求項3に記載の情報処理装置。
  5. 前記推定手段は、前記設定手段によって設定された前記確率分布と、前記1以上の人に付与された確率との合成確率に基づいて前記ユーザを推定することを特徴とする請求項4に記載の情報処理装置。
  6. 前記推定手段は、対応する前記合成確率が最も高い人を前記ユーザと推定することを特徴とする請求項5に記載の情報処理装置。
  7. 前記推定手段は、対応する前記合成確率が所定値以上である人を前記ユーザと推定することを特徴とする請求項5に記載の情報処理装置。
  8. 前記推定手段は、一人のユーザに特定できない場合において、前記ユーザによる発話情報を前記第1取得手段によってさらに取得し、取得した前記発話情報及び撮像画像から前記合成確率を更新して前記ユーザを推定することを特徴とする請求項5乃至7の何れか1項に記載の情報処理装置。
  9. 前記第1取得手段は、ユーザの周辺に位置する移動体によって撮像された撮像画像の解析に基づいて前記ユーザに対して問い合わせを行い、該問い合わせの応答として前記ユーザによる発話情報を前記通信装置から取得することを特徴とする請求項8に記載の情報処理装置。
  10. 前記第2取得手段は、ユーザの周辺に位置する移動体によって撮像された撮像画像、及び前記移動体の周囲に位置する撮像手段によって撮像された撮像画像の少なくとも一方を取得することを特徴とする請求項2乃至9の何れか1項に記載の情報処理装置。
  11. 前記第1取得手段によって取得した発話情報を言語解析した結果を表示する画面情報を前記通信装置へ提供する提供手段をさらに備えることを特徴とする請求項2乃至10の何れか1項に記載の情報処理装置。
  12. 前記提供手段は、さらに、前記第2取得手段によって取得した撮像画像の中で検知した1以上の人のうち、複数の候補ユーザを選択可能に表示する画面情報を前記通信装置へ提供することを特徴とする請求項11に記載の情報処理装置。
  13. 前記推定手段は、前記推定したユーザに従って、ユーザと移動体との合流位置をさらに推定することを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  14. 情報処理装置の制御方法であって、
    ユーザの通信装置から該ユーザによる発話情報及び該通信装置の位置情報の少なくとも一方を取得する第1取得工程と、
    前記発話情報に含まれる目印に応じて所定領域を特定する特定工程と、

    取得した前記発話情報及び前記ユーザの通信装置から取得した位置情報の少なくとも一方から、前記ユーザの移動方向を取得し、前記取得したユーザの移動方向に基づいて、前記所定領域の分割領域に対して前記ユーザが存在する確率分布を設定する設定工程と、
    前記設定された前記確率分布に基づいて、前記ユーザを推定する推定工程と
    を備えることを特徴とする情報処理装置の制御方法。
  15. コンピュータを、請求項1から13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
  16. 移動体であって、
    ユーザの通信装置と通信を行う通信手段と、
    移動体の周囲を撮像する撮像手段と、
    ユーザの通信装置から該ユーザによる発話情報及び該通信装置の位置情報の少なくとも一方を前記通信手段によって取得する第1取得手段と、
    前記発話情報に含まれる目印に応じて所定領域を特定する特定手段と、
    取得した前記発話情報及び前記ユーザの通信装置から取得した位置情報の少なくとも一方から、前記ユーザの移動方向を取得し、前記取得したユーザの移動方向に基づいて、前記所定領域の分割領域に対して前記ユーザが存在する確率分布を設定する設定手段と、
    前記設定された前記確率分布に基づいて、前記ユーザを推定する推定手段と
    を備えることを特徴とする移動体。
  17. ユーザの通信装置と通信を行う通信手段と、移動体の周囲を撮像する撮像手段と、を備える移動体の制御方法であって、
    ユーザの通信装置から該ユーザによる発話情報及び該通信装置の位置情報の少なくとも一方を前記通信手段によって取得する第1取得工程と、
    前記発話情報に含まれる目印に応じて所定領域を特定する特定工程と、
    取得した前記発話情報及び前記ユーザの通信装置から取得した位置情報の少なくとも一方から、前記ユーザの移動方向を取得し、前記取得したユーザの移動方向に基づいて、前記所定領域の分割領域に対して、前記ユーザが存在する確率分布を設定する設定工程と、
    前記設定された前記確率分布に基づいて、前記ユーザを推定する推定工程と
    を含むことを特徴とする移動体の制御方法。
JP2021061595A 2021-03-31 2021-03-31 情報処理装置、移動体、それらの制御方法、及びプログラム Pending JP2022157401A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021061595A JP2022157401A (ja) 2021-03-31 2021-03-31 情報処理装置、移動体、それらの制御方法、及びプログラム
CN202210285709.5A CN115147788A (zh) 2021-03-31 2022-03-22 信息处理装置、移动体、它们的控制方法以及存储介质
US17/704,716 US20220315063A1 (en) 2021-03-31 2022-03-25 Information processing apparatus, mobile object, control method thereof, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021061595A JP2022157401A (ja) 2021-03-31 2021-03-31 情報処理装置、移動体、それらの制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2022157401A true JP2022157401A (ja) 2022-10-14

Family

ID=83405014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021061595A Pending JP2022157401A (ja) 2021-03-31 2021-03-31 情報処理装置、移動体、それらの制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220315063A1 (ja)
JP (1) JP2022157401A (ja)
CN (1) CN115147788A (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135113A (ja) * 2019-02-14 2020-08-31 トヨタ自動車株式会社 走行制御装置および走行制御方法
WO2021100190A1 (ja) * 2019-11-22 2021-05-27 三菱電機株式会社 合流支援装置、合流支援システム、及び、合流支援方法

Also Published As

Publication number Publication date
US20220315063A1 (en) 2022-10-06
CN115147788A (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
US20230394683A1 (en) Information processing apparatus, control method, and program
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US9316502B2 (en) Intelligent mobility aid device and method of navigating and providing assistance to a user thereof
EP3252432A1 (en) Information-attainment system based on monitoring an occupant
US20200126418A1 (en) Method and system for vehicle location
JP7180670B2 (ja) 制御装置、制御方法、並びにプログラム
EP3994426A1 (en) Method and system for scene-aware interaction
US20200160715A1 (en) Information processing system, program, and information processing method
US20220315062A1 (en) Information processing apparatus, control apparatus for moving body, method of controlling information processing apparatus, and method of controlling moving body
US11904893B2 (en) Operating a vehicle
US20230298340A1 (en) Information processing apparatus, mobile object, control method thereof, and storage medium
GB2611589A (en) Techniques for finding and accessing vehicles
JP6424100B2 (ja) ナビゲーションシステム、ナビゲーション装置、グラス型デバイス及び装置間連携方法
JP2022157401A (ja) 情報処理装置、移動体、それらの制御方法、及びプログラム
JP2020119131A (ja) サーバ、サーバ制御方法、サーバ制御プログラム、通信端末、端末制御方法、及び端末制御プログラム
JP2022179490A (ja) 運転評価モデル適合装置、端末装置、制御方法、プログラム及び記憶媒体
TWI501759B (zh) 盲人行動記錄分析與導航系統
JP2020106997A (ja) 車載装置、通信システム
WO2023187890A1 (ja) 移動体の制御装置、移動体の制御方法、移動体、情報処理方法及びプログラム
US20230128104A1 (en) Accessibility system for assisting a user in interacting with a vehicle
US20230294739A1 (en) Mobile body control device, mobile body control method, mobile body, information processing method, and storage medium
CN114587949B (zh) 一种导盲系统
CN215897762U (zh) 一种视觉辅助系统
KR101382798B1 (ko) 차량의 카메라를 이용한 지도 생성 장치 및 방법
US11303815B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507