JP2019121048A - 乗客との会話により目的地を絞り込む移動体、移動体システム、目的地絞り込み方法及びプログラム - Google Patents

乗客との会話により目的地を絞り込む移動体、移動体システム、目的地絞り込み方法及びプログラム Download PDF

Info

Publication number
JP2019121048A
JP2019121048A JP2017254010A JP2017254010A JP2019121048A JP 2019121048 A JP2019121048 A JP 2019121048A JP 2017254010 A JP2017254010 A JP 2017254010A JP 2017254010 A JP2017254010 A JP 2017254010A JP 2019121048 A JP2019121048 A JP 2019121048A
Authority
JP
Japan
Prior art keywords
question
passenger
information
mobile
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017254010A
Other languages
English (en)
Other versions
JP6528342B1 (ja
Inventor
武 吉岡
Takeshi Yoshioka
武 吉岡
義弘 三宅
Yoshihiro Miyake
義弘 三宅
山口 健二
Kenji Yamaguchi
健二 山口
岳一 井上
Takekazu Inoue
岳一 井上
一浩 武藤
Kazuhiro Muto
一浩 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Optage Inc
Original Assignee
Japan Research Institute Ltd
K Opticom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd, K Opticom Corp filed Critical Japan Research Institute Ltd
Priority to JP2017254010A priority Critical patent/JP6528342B1/ja
Application granted granted Critical
Publication of JP6528342B1 publication Critical patent/JP6528342B1/ja
Publication of JP2019121048A publication Critical patent/JP2019121048A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】会話に支障がある乗客であっても、その乗客との会話から目的地を絞り込むことができる移動体及び移動体システムを提供する。【解決手段】移動体100は、乗客に質問をするタイミングを制御する質問タイミング制御手段101を備え、移動体100又は移動体管理サーバ150は、乗客に移動方向を確認するための質問を格納する質問DB121と、質問するタイミングを判定するための基礎情報である判定基礎情報を取得する判定基礎情報取得手段101Aを備え、質問タイミング制御手段101は、判定基礎情報に基づいて質問するタイミングを決定し、質問DB121に格納された質問を出力する。【選択図】図2

Description

本発明は、乗客との会話手段を備えた移動体、移動体システム等に関する。
従来、タクシー内でドライバーとの意思疎通を支援するためのシステムが知られている。例えば、特許文献1には、タクシー利用者が言語に不自由なくタクシードライバーと意思疎通でき、かつ、安心感を与えるためのタクシー内における会話支援システムが開示されている。このシステムは、タクシー管理センター装置に、ユーザの使用言語、通訳サービスの利用の有無を含んだ予約情報の入力を受けるタクシー予約登録処理部と、タクシー予約登録処理部に予約情報の入力があると通訳サービスの利用の有無を判断し、利用ありの場合にはその予約情報に基づいて通訳サービス装置に対して通訳の予約登録を行う通訳予約登録処理部と、を設け、通訳サービス装置に、通信端末機と通話接続するとオペレーターに対し通訳の予約登録に関する情報を表示する表示部と、オペレーターが発する音声を信号に変えて通信端末機に送信するとともに通信端末機から送信される信号を音波に変換して出力する通話部と、が設けられている。
一方、自動運転技術の急速な進歩により、自動運転車のタクシーも夢ではなくなってきた。例えば、特許文献2には、自動運転車の無人運転による配車サービスを実現するため、配車管理サーバと自動運転車からなるシステムであって、利用者による配車管理サーバに対する配車要求に基づき、配車管理サーバが自動運転車を利用者に対して配車するようにする配車管理システムが開示されている。
特開2011−076417号公報 特開2016−115364号公報
しかしながら、特許文献1に記載のような会話支援システムは、あくまでも有人のタクシーを前提としたものであり、自動運転によるタクシーを考慮したものではなかった。自動運転タクシーでは、ドライバーが乗車していないため、タクシーの利用者が目的地をどのようにして正確に指示できるかが課題となる。目的地の情報を無人運転車に指示するには、車載端末などの情報機器(目的地入力装置)が考えられる。しかし、利用者には、高齢者や視力障害者などのように情報機器を操作することができない者も多い。そこで音声入力による目的地の指示方法が考えられるが、タクシーを利用する者は、泥酔者など正常な会話ができない者、土地勘がなく目的地の情報がうろ覚えである者、外国人など目的地の情報を正確に発することができない者も多い。
したがって、本発明では、上記のような課題にかんがみ、会話に支障がある乗客であっても、その乗客との会話から目的地を絞り込むことができる移動体システムを提供することを目的とする。
上記課題を解決するため、本発明は、以下のような解決手段を提供する。
(1)乗客を乗せる移動体であって、前記乗客に移動方向を確認するための質問を格納する質問DBと、前記乗客に対する質問を出力する質問出力手段と、前記乗客に対する質問のタイミングを制御する質問タイミング制御手段と、前記質問するタイミングを判定するための基礎情報である判定基礎情報を取得する判定基礎情報取得手段と、を備え、前記質問タイミング制御手段は、前記判定基礎情報に基づいて前記質問するタイミングを決定し、前記質問DBに格納された質問を前記質問出力手段を用いて出力させることを特徴とする。
(2)上記(1)に記載の構成において、乗客を乗せる移動体と移動体管理サーバとが無線通信によって接続された移動体システムであって、前記移動体は、前記乗客に質問するタイミングを制御する質問タイミング制御手段を備え、前記移動体管理サーバは、前記乗客に移動方向を確認するための質問を格納する質問DBと、前記質問をするタイミングを判定するための基礎情報である判定基礎情報を取得する判定基礎情報取得手段と、を備え、前記質問タイミング制御手段は、前記判定基礎情報に基づいて前記質問するタイミングを決定し、前記質問DBに格納された質問を出力させることを特徴とする。
(3)上記(2)に記載の構成において、前記判定基礎情報は、場所情報、時間情報、道路情報、他移動体からの情報、乗客の様子の情報のうち、少なくとも1つを含むことを特徴とする。
(4)上記(2)又は(3)に記載の構成において、前記質問は、前記乗客に快適に乗車してもらうための質問を含むことを特徴とする。
(5)上記(2)から(4)までのいずれか1つの構成において、前記移動体は、前記乗客と会話するための仮想ドライバーの映像を車内に出力する映像出力手段を備えることを特徴とする。
(6)上記(5)の構成において、前記移動体は、前記乗客が乗車した際に事前会話を行い、当該事前会話、及び/又は乗車時の乗客の映像に基づいて、当該乗客の乗客プロフィール情報を推定する乗客プロフィール推定手段を備えることを特徴とする。
(7)上記(6)に記載の構成において、前記映像出力手段は、前記乗客プロフィール情報、又は前記質問タイミング制御手段が質問を出力させるタイミングに応じて、前記仮想ドライバーの映像を変化させることを特徴とする。
(8)上記(6)又は(7)の構成において、前記移動体又は前記移動体管理サーバは、乗客との会話をスムーズに行わせるため情報を格納した会話支援データベースを備え、前記会話支援データベースは、言い間違えやすい地名又は施設のリストを格納した言い間違いDBを備えることを特徴とする。
(9)上記(8)の構成において、前記会話支援データベースは、前記乗客プロフィール情報に基づいて使用言語又は方言を選択するための外国語DB、及び/又は方言DBを備えることを特徴とする。
(10)乗客を乗せる移動体と移動体管理サーバとが無線通信によって接続された移動体システムにおける目的地絞り込み方法であって、前記移動体が、乗客に質問をするタイミングを判定するための基礎情報である判定基礎情報を取得するステップと、前記判定基礎情報に基づいて、前記質問をするタイミングを決定するステップと、前記質問するタイミングにおいて、質問DBに格納された、前記乗客に移動方向を確認するための質問を出力させるステップと、を実行することを特徴とする。
(11)上記(10)に記載の各ステップをコンピュータに実行させることを特徴とするプログラム。
本発明によれば、会話に支障がある乗客であっても、乗客との会話から目的地を絞り込むことができる移動体及び移動体システムを提供することができる。
本発明の実施形態に係る移動体の車内のイメージ図である。 本発明の実施形態に係る移動体の機能構成を示す図である。 乗客プロフィール情報、会話履歴DBに格納されるデータの具体例を示す図である。 質問タイミング制御手段及び会話分析手段の処理フローの一例を示す図である。 車内での会話内容の具体例を示す図である。 車内での会話内容の具体例を示す続図である。 車内での会話にしたがって移動体が実際に走行した移動ルートの地図を示す図である。
以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以降の図においては、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。また、機能構成の図において、機能ブロック間の矢印は、データの流れ方向、又は処理の流れ方向を表す。
(移動体の車内イメージ)
図1は、本発明の実施形態に係る移動体の車内イメージ図(カットモデル図)である。本発明の実施形態に係る移動体100は、自動運転車両をはじめとする無人の自動運転移動体を想定しており、人間のドライバーは乗車していないが、ホログラム投影機10(映像出力手段の一例)によって、人間のドライバーがあたかも乗車しているかのような立体映像(仮想ドライバー)を生成して出力する。図では仮想ドライバー11の映像を運転席に投影しているが、他の位置、例えば乗客の横に投影してもよい。なお、ホログラムとは、ホログラフィ(位相のそろったレーザー光を使い、レンズなしで1枚の写真で立体像を撮影・再現する方法)を応用し、立体画像をプリントしたもので、光線をあてると、立体画像が再現されるものである。ただし、映像出力手段は、ホログラムに限らず、その他の公知技術を用いた立体映像の投影手段であってもよい。また、出力される映像は、立体映像に限らず2次元映像でもよい。また、「物」への投影ではなく、車内に設置されたディスプレイ(図示せず)等に表示してもよい。
移動体100は自動運転車であるが、非常時に人間が運転可能なように、運転席にはハンドル、ブレーキ、アクセルを装備していてもよい。また、ホログラム投影機10は、360度回転可能とし、ホログラムの映像は、前述したように、必ずしも運転席に投影する必要はなく、後部座席(30a,30b,30c,30d)に投影してもよい。乗客の横に投影すると親近感が増し、より会話が進むと考えられる。また、ホログラムの映像は、乗客のプロフィールや客層に応じて変化させてもよい。例えば、男性乗客には若い女性の映像、女性の乗客にはイケメン男性の映像、家族連れにはアニメのキャラクターの映像などであってもよい。このようにすることで、乗客をリラックスさせ、話すことが苦手な乗客でも会話がはずむようにすることができる。
なお、聴覚障害者、声帯障害者など音声による会話ができない乗客のために、乗客に任意の情報を表示、又は乗客が任意の情報を入力するためのタッチパネル方式のタッチパネルディスプレイ40(有機EL方式が好ましい)を後部座席に備えていてもよい。なお、タッチパネルディスプレイ40に仮想ドライバー11を表示してもよい。
車内の後部座席(30a,30b,30c,30d)は、回転式で乗降がしやすいようになっている。また、車載カメラ20は、後部座席に座った乗客の映像を撮像することができ、画像認識及び音声認識により、乗客の人数、状態、年齢層、性別などをシステムが把握できるようになっている。ただし、プライバシー保護のため、乗客が降車後直ちに乗客の映像は自動的に削除される。
(移動体システムの機能構成)
図2は、本発明の実施形態に係る移動体システム(以下本システムと呼ぶ)の機能構成を示す図である。本システムは、移動体100が、複数の移動体100を管理する移動体管理サーバ150に無線通信手段より接続されるシステムである。
図示するように、移動体100は、機能ブロックとして、自動運転機構110、質問タイミング制御手段101、判定基礎情報取得手段101A、会話分析手段102、乗客プロフィール推定手段103、車内カメラ104、会話支援データベース120、質問DB121、場所情報DB122、映像制御手段130、映像ライブラリ131、映像出力手段132を備えている。ただし、このような構成に限定するものではない。以下、各機能の概略について順に説明する。
自動運転機構110は、移動体100の自動運転を制御する自動運転制御手段111を中心に、移動体及び周囲の情報を検知する各種センサ112、車外の映像及び音声を取得する車外カメラ113(前後左右を映すカメラ、上方の物体や遠方の風景を映すカメラ、性能の異なるカメラなど複数あってもよい)、移動体の現在位置を取得する位置情報手段114などの情報によって、エンジン、車輪、ハンドル、ブレーキ、アクセル等の駆動機構115を制御する。ただし、自動運転技術については公知技術なのでここでは説明を省略する。
質問タイミング制御手段101は、乗客に質問をするタイミングを制御し、ホログラムで投影される仮想ドライバーと乗客との会話を制御する。仮想ドライバー自身が言葉を発するわけではないが、車内の1又は複数のスピーカから、あたかも仮想ドライバーが喋っているように音声が乗客に向かって発せられる。また、質問タイミング制御手段101は、仮想ドライバー11が発する言葉の、言語、声質(男性の声、女性の声、若い人の声、年配の人の声など)、テンポを制御し、乗客に質問するタイミングを制御する。このようにすることで、会話に支障のある乗客に機械的な質問をやつぎばやに行うのではなく、会話しやすい雰囲気を醸し出すことができる。
判定基礎情報取得手段101Aは、質問タイミング制御手段101が質問を行うか否かを判定するための判定基礎情報を取得する。判定基礎情報取得手段101Aは、質問タイミング制御手段101の一部と考えてもよい。ここで、判定基礎情報とは、例えば、車外カメラ113の映像を画像認識し、場合によっては周囲の音を音声認識して、
・「この橋を渡ったら」、「○○交差点に差し掛かったら」、「このY字路に来たら」、「右側に焼却所の高い煙突が見えたら」などの場所情報(後述の場所情報DB122に格納される)
・走行中の所定時間ごとなどの時間情報
・目の前の道路や目的地方面の渋滞や事故など、道路管理センター又は移動体管理サーバ150から取得可能な道路交通情報
・事故、渋滞、工事等の直近の情報など、他移動体から取得可能な情報
・「乗客が嬉しそうにしている/悲しそうにしている/つまらなそうにしている」などの車内カメラ104から取得可能な乗客の様子の情報
などがある。
判定基礎情報取得手段101Aは、上記のような情報を少なくとも1つ取得する。なお、場所情報については、移動体が通常営業中に学習するようにしてもよい(例えば、この場所で、乗客は運転手に指示を出すことが多いなど)。
このように、質問タイミング制御手段101、判定基礎情報取得手段101Aを備えることにより、移動中の経路の要所要所で、そのときの車外の映像(例えば、ランドマークとなる建物の映像)などの状況に合わせて、乗客に順次質問を投げかけ、乗客との会話をとおして目的地を絞りこむことなどができる。また、会話の例として「遠くに50階建ての高層マンションが見えるでしょ。まずはあそこを目指して」、「ここから3つ目の信号を右折して」、「白い高い煙突の手前を左折して」等が考えられる。
会話分析手段102は、乗客の発した音声を音声認識し、テキスト情報に変換する音声認識装置を含み、テキスト変換した乗客の発話を分析し、後述の会話支援データベース120を参照して、乗客が発した言葉に対する最も適切な応答を抽出する。対応する言語は外国語や方言であってもよい。また、音声を発することができない乗客の場合は、音声以外の手段(例えば、ジュスチャーやボディランゲージ、「話せる文字パッド」など)を利用するようにしてもよい。なお、図2では、質問タイミング制御手段101と会話分析手段102とを別の構成としたが、両者をまとめて会話制御手段として構成してもよい。
乗客プロフィール推定手段103は、車内カメラ104(図1の車載カメラ20)で撮った乗客の映像、及び乗客の発した音声のトーンから、乗客のプロフィール情報(年齢、性別、使用言語等)を推定する。また、乗客の泥酔状態などを推定することもできる。推定した情報は乗客プロフィール情報として記憶される。
会話支援データベース120は、会話分析手段102が参照するための、乗客との会話をスムーズに行うための各種データベースの集まりである。具体的には、会話支援データベース120は、会話履歴DB、言い間違いDB、外国語DB、方言DB等を含むことができる。
会話履歴DBは、車内の会話記録を質問ポイントでの質問とともに格納したデータベースである。会話履歴DBに格納される具体例は図3(b)に示す。
言い間違いDB(言い間違い地名、施設のリスト)は、その土地に土地勘のない者や外国人などがよく間違う地名、施設やランドマーク等の名称を格納したデータベースである。言い間違いDBには、言い間違えられた地名と正しい地名が対応づけられて記憶される。例えば、北海道や沖縄の地名は他県の人間には発音が難しい。例えば、大阪市淀川区の「十三(じゅうそう)」は、「じゅうさん」や「とうさん」とよく間違えて発音される。なお、言い間違えは、乗客の客層によっても異なるので、客層ごとに言い間違いリストを設けてもよい。
外国語DBは、後述の質問DB121の質問を外国語で格納したデータベースである。方言DBは、方言(なまり)と標準語の対応づけが記憶されたデータベースである。会話分析手段102は、乗客プロフィール情報に基づいて、乗客に応じた外国語DB及び/又は方言DBを選択する。
会話支援データベース120には、図示は省略するが、その他のデータベースとして、全ての移動体の実際の走行ルートを記録した走行ルート履歴DB、会話に支障のある乗客に地図を表示するための地図DBなどを含んでもよい。
なお、会話支援データベース120は、図2では移動体100内部に備えるように記載したが、上記のデータベースの一部又は全部を、移動体管理サーバ150が備えるようにし、移動体100は、サーバとの高速な無線通信にて必要な情報を必要なときに取得するようにしてもよい。
質問DB121は、質問タイミング制御手段101が判定したタイミングごとに、乗客に移動方向を確認するための質問(どちらの方向に進むかの質問)を格納したデータベースである。外国語や方言の質問DB121を備えてもよい。また、場所情報DB122は、分岐点等の所定の場所で移動体100が走行可能な道路上で質問をするための場所情報を地域全体にわたって格納したデータベースである。ここで対象となる経路ルートの道路は、移動体100が安全に走行可能な道路である。したがって、自動走行が困難である幅が狭い道路や障害物の多い道路は除かれる。
また、質問DB121には、乗客に移動方向を確認するための質問の他、乗客が車内で快適に過ごしてもらうための様々な状況に合わせた質問を格納するようにしてもよい。例えば、「寒く(暑く)ないですか?」、「周りがうるさくないですか?」、「もっと明るい音楽に変えましょうか?」「このくらいのスピードでよろしいですか?」などの質問が格納される。また、必ずしも最短時間で目的地に向かうための質問でなく、別のルートを走行したほうが快適であれば、そのような質問を質問DB121に格納しておいてもよい。例えば、乗客が観光客であると判別できたときは、「少し遠回りになりますが、こちらのルートを走ったほうが景色が綺麗ですがいかがいたしましょうか?」のような質問を格納しておいてもよい。
映像制御手段130は、映像出力手段132に投影する映像を選択して投影する装置である。このとき、映像制御手段130は、映像ライブラリ131に格納された映像からその場の状況に最適なものを選択する。例えば、前述したように、仮想ドライバー11の映像を複数用意しておき、その乗客の客層やプロフィールに合った映像を自動的に選択するようにしてもよい。あるいは、乗客からの希望を受付けて表示する映像を選択するようにしてもよい。また、映像制御手段130は、仮想ドライバーの映像が映し出されるタイミング又は消去されるタイミングを、質問タイミング制御手段101が制御する質問タイミングに連動して制御してもよい。例えば、走行中は仮想ドライバーは映し出されておらず、移動体が何かを話し始めるときなどには仮想ドライバーが登場する。このようにすることで、乗客は、いきなり話し始められると聞き漏らすこともあるが、仮想ドライバーの映像が登場したら、何か話すな、と聞く準備ができる。逆に、仮想ドライバーの映像が消えたら、もう話すことがなくなったな、ということを乗客が判断できる。また、タイミングによって仮想ドライバーの映像を変化させてもよい。例えば、当初は女性ドライバーの映像だったものが、泥酔客が女性ドライバーに絡み始めたような場合には、強面の男性ドライバーの映像に変化させてもよい。
また、映像制御手段130は、質問タイミング制御手段101又は会話分析手段102の指示により、タッチパネルディスプレイ40に、乗客との会話をスムーズに行うための助けとなるような映像を表示したり、乗客からの入力を受付けたりしてもよい。例えば、車外カメラ113が撮った周辺の映像を車内に表示するなどである。このようにすることで、乗客は目的地の地名は覚えていなくとも周辺の映像から目的地を特定する助けともなる。
図3は、乗客プロフィール情報、会話支援データベース120の会話履歴DBに格納されるデータの具体例を示す図である。図3の(a)は、乗客プロフィール情報を示したものである。乗客プロフィール情報には、乗車日時、天候、性別、推定年齢、使用言語、方言・なまり、乗客の状態(泥酔状態など)、乗車地点、当初乗客が告げた目的地の情報(あいまいな情報であってもよい。)、経由地、最終降車地点などの情報が格納される。天候を乗客プロフィール情報に含ませるのは、同じ地点でも、天候によって客層が変わることがあるからである(例えば、雨の日は普段タクシーに乗らない人が多いなど)。乗客プロフィール情報は、主に、乗客が乗車してから発車するまでの間の事前会話とその時の映像から抽出される。図の乗車日時から当初目的地までは事前会話時に抽出した情報である。なお、乗客が複数である場合は、主に会話を発した人物の情報を乗客プロフィール情報として記憶する。
図3の(b)は、会話履歴DBに格納された、過去に乗車した乗客との会話を質問ポイントとともに記憶したデータベースである。このDBは、その地域を走る全ての移動体における車内の会話履歴を集めたものであり、車内での仮想ドライバー11と乗客の会話が乗客プロフィール情報とともに格納されている。
会話履歴には、「質問ポイント」ごとに、地名などその地点の位置情報、及びその地点での会話内容が記録される。ここで、「質問ポイント」とは、地域内の交差点などの分岐点等の手前にあらかじめ設定された特定の地点(ポイント)、ランドマーク、その他乗客からの指示が多い場所などの所定の地点であり、移動体100がその所定の地点を通過する前に、乗客にどの方向に進むかを前もって確認するための質問をその位置情報と対応づけて記憶した地点を言う。特に、質問ポイント1は、発車前の乗車地点であり、この時の会話(事前会話)における質問は、目的地又は目的地方面を特定するための質問や乗客の状態を確認するために行われる。例えば、仮想ドライバー11の最初の質問「どちらに向かいますか?」は、おおよその目的地、移動方向、最初の分岐点等を確認するための最も簡単な質問である。また、乗客がその応答で発した「ヒック!」などの音声から乗客が泥酔状態であることが推定できる。
もちろん、事前会話だけで目的地及び移動ルートが正確に特定できることもあるが、会話になんらかの支障のある乗客では、多くの場合、目的地点やそこに至るルートを正確に聞き出すことは難しく、また、そのために乗車地点で長時間停車することになり周囲に迷惑である。そのため、事前会話は目的地方面が聞き出せた段階で終了することが望ましい。
また、図示する例では、質問ポイント2、質問ポイント3は、走行中のポイントであり、質問ポイント4は最終降車地点である。なお、事前会話が終わると走行を開始するが、走行中の質問は、質問ポイントを通過する方向によって変化する。例えば、質問ポイントを南から北に向かって通過する場合と、北から南に向かって通過する場合とでは、移動方向及び目的地が異なるので、質問内容が異なるのは当然である。また、質問ポイントには複数の質問が格納され、最初の質問だけでは適切な応答が得られなかった場合は、追加の質問が発せられる。
以上説明した移動体システムの機能構成は、あくまで一例であり、一つの機能ブロック(データベース及び機能処理部)を分割したり、複数の機能ブロックをまとめて一つの機能ブロックとして構成したりしてもよい。各機能処理部は、装置に内蔵されたCPU(Central Processing Unit)が、ROM(Read Only Memory)、フラッシュメモリ、SSD(Solid State Drive)、ハードディスク等の記憶装置に格納されたコンピュータ・プログラムを読み出し、CPUにより実行されたコンピュータ・プログラムによって実現される。すなわち、各機能処理部は、このコンピュータ・プログラムが、記憶装置に格納されたデータベース(DB;Data Base)やメモリ上の記憶領域からテーブル等の必要なデータを読み書きし、場合によっては、関連するハードウェア(例えば、入出力装置、表示装置、通信インターフェース装置)を制御することによって実現される。また、本発明の実施形態におけるデータベース(DB)は、商用データベースであってよいが、単なるテーブルやファイルの集合体をも意味し、データベースの内部構造自体は問わないものとする。
(会話制御処理フロー)
図4は、会話分析手段102及び質問タイミング制御手段101(ここでは両者をまとめて会話制御手段と呼ぶことにする)の処理フローの一例を示す図である。以下、各ステップの処理を順に説明する。なお、この処理フローにおいては、各ステップの入力と出力の関係を損なわない限りステップの順序を入れ替えてもよい。
会話制御手段は、まず、ステップS10において、事前会話(乗客が乗車した時の会話)から乗客のプロフィールを抽出し、その乗客プロフィールに合った方法で目的地を聞き出すための質問(「どちらに行かれますか?」など)を行う。乗客プロフィールに合った方法とは、例えば、事前会話において乗客が外国人であると判断された場合は、その外国語で質問を行うことである。また、事前会話において乗客が泥酔客であると判断された場合は、ゆっくりとしたテンポで大きめの声で発話することである。仮想ドライバーの映像を変えるのもその方法の一つである。また、乗客が方言を喋る場合は、受け答えもその方言を使うようにしてもよい。なお、ここで乗客プロフィール情報の抽出は、事前会話だけでなく、車内カメラ104が撮った乗客の映像を併用して行ってもよいのは前述したとおりである。
また、会話制御手段は、乗客からの返答があるたびに言い間違いDBを参照し、言い間違いDBに格納された言い間違いやすい言葉が乗客の発話中にある場合は、念のため聞き返すようにしてもよい。ここで言い間違いは客層によっても異なるので、乗客プロフィール情報を参照してもよい。なお、同じ外国語でも方言(なまり)があるので、外国語DBだけでなく方言DBも参照する。例えば、オーストラリア人は、「a」を「ai」と発音するので注意が必要である。
会話制御手段は、次に、ステップS11において、目的地を特定できたか否かを判断する。ここで特定する目的地は、正確な目的地でなくともよく、その目的地への方向(目的地方面又は目的地方面の有名な施設等のランドマーク)であってもよい。以下では特に断らない限り、「目的地」と言ったときは「目的地方面又は目的地付近のランドマーク」を含むものとする。
ステップS11において、目的地を特定できなかった場合は(ステップS11:N)、目的地を特定できるまで質問を繰り返し、目的地を特定できた後(ステップS11:Y)、ステップS12に移り、その目的地へ向かう移動ルートの最初の分岐点等の質問ポイントを決定する。このとき、質問DB121を参照する。そして自動運転制御手段111に対して走行開始指示を行い、最初の質問ポイントに向けて走行する(ステップS13)。
質問タイミング制御手段101は、移動体100が質問ポイントに到達すると(ステップS14:Y)、その質問ポイントに設定された質問を出力する(ステップS15)。ここで質問ポイントに設定された質問は1つではなく、質問の返答によって更なる質問(追加質問)がいくつか用意されているものとする。
質問ポイントに設定された質問に対し、乗客から返答があった場合は(ステップS16:Y)、ステップS17において、会話制御手段は、目的地に補正(目的地の修正)が必要か否かを判断する。補正は、乗客が目的地を間違えていたりうろ覚えだったりする場合に必要な処理である。補正が必要な場合は(ステップS17:Y)、補正後の新たな目的地を設定し(ステップS18)、ステップS14に戻る。このとき、補正後の目的地に対して新たな質問ポイントを決定する(質問ポイントの再設定)。補正が不要な場合は(ステップS17:N)、ステップS19に移り、最終目的地を特定できたかどうかを判断し、特定できた場合は(ステップS19:Y)、最終目的地に向かって走行する(ステップS20)。最終目的地を特定できなかった場合は(ステップS19:N)、ステップS15に移り、質問ポイントに設定された質問を更に出力する。
ステップS16において、乗客からなんらかの返答がなかった場合は(ステップS16:N)、乗客が眠ってしまったことが考えられるので、このときはステップS21において、走行ルート履歴DB(図2では図示せず)に目的地に移動するに際し参考となるルートがあるかどうかを判断する。参考ルートがあると判断した場合は(ステップS21:Y)、事例の多いルートを選択し(ステップS22),ステップS14に戻る。
会話制御手段は、ステップS21において参考ルートがないと判断した場合は(ステップS21:N)、これ以上の走行は無意味と判断し、いったん停止する(ステップS23)。その後、タイミングを見て再度質問し、ステップS16に戻る。
このようなステップを踏むことで、質問ポイントに到達するたびに目的地を絞り込み、また乗客が途中で眠ってしまったような場合であっても、対処が可能となる。
(会話例)
図5A、図5Bは、車内での会話内容の具体例を示す図である。この例では、泥酔客が乗車後、仮想ドライバーと会話しながら目的地まで到達する様子を示している。仮想ドライバー又は乗客の発話の右肩にある数字は、質問ポイントの番号を示す。「1」は事前会話の地点、すなわち、乗車地点での会話である。「2」は、乗客が眠ってしまったが分岐点が近づいたので起さなければならない地点での会話である。
「3」は、高速道路を下りて最初の分岐点での会話、「4」は、幹線道路から脇道に入る分岐点での会話、「5」は、脇道内の分岐点での会話を示している。そして「6」は、最終目的地直前での会話である。このように要所要所で質問することで、目的地を的確に答えられないような乗客であっても、目的地を徐々に絞り込み、最終的に目的地に辿りつくことができる。なお、質問に対する乗客の返答がなくなり、これ以上走行を続けられないと判断したときは、安全な場所で停車するのはもちろんである。
図6は、車内で会話(図5A,図5Bの会話例)をしながら、移動体が実際に走行した移動ルートの地図を示す図である。地図上の数字は、図5A,図5Bの会話の番号と対応している。この例では、大阪市の北新地で乗客を乗せ、阪神高速の空港前出口で高速道路を降り、その後、171号線に入り、箕面市の自宅まで移動したルートが示されている。
(実施形態の効果)
本システムによれば、高齢者、視力障害者、泥酔者、土地勘のない者、外国人等、会話に支障がある乗客であっても、その乗客との会話から目的地を絞り込むことができる移動体及び移動体システムを提供することができる。移動体が乗客に発する質問は、場所情報や時間情報など、所定の判定条件に基づき、最適なタイミングが選ばれる。
また、仮想ドライバーの映像を車内に投影することで乗客に有人の車に乗っているような気分にさせることができる。また、事前会話と乗客の映像から性別、年齢、使用言語などの乗客プロフィールを推定し、その乗客プロフィールに合った会話を行うことができる。また、乗客プロフィールや仮想ドライバーが質問するタイミングによって仮想ドライバーの映像を変化させることもできる。また、言い間違いDBを備えることで、よく間違えやすい地名にも対処できる。また、外国語DBと方言DBを備えることで、外国語はもちろん、外国語の国や地域のなまりにも対応することができる。
なお、上記の実施形態では、無人の自動運転の移動体を前提に説明したが、自動運転か否かを問わす、有人の移動体においても、ドライバーと乗客の会話支援システムにも適用が可能である。有人の移動体の場合は、人間のドライバーは、乗客との会話を仮想ドライバーに任せて、自分自身は運転に専念することができる。
以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲に限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。なお、上記の実施形態では、本発明を物の発明として、移動体及び移動体システムについて説明したが、本発明は、方法の発明(移動体システムにおける目的地絞り込み方法)又はそのコンピュータ・プログラムの発明(移動体システムにおける目的地絞り込みのプログラム)として捉えることもできる。
10 ホログラム投影機
11 仮想ドライバー(ホログラム映像)
20 車載カメラ
30a,30b,30c,30d 後部座席
40 タッチパネルディプレイ
100 移動体
101 質問タイミング制御手段
101A 判定基礎情報取得手段
102 会話分析手段
103 乗客プロフィール推定手段
104 車内カメラ
110 自動運転機構
111 自動運転制御手段
112 各種センサ
113 車外カメラ
114 位置情報取得手段
115 駆動機構
120 会話支援データベース
121 質問DB
122 場所情報DB
130 映像制御手段
131 映像ライブラリ
132 映像出力手段
150 移動体管理サーバ

Claims (11)

  1. 乗客を乗せる移動体であって、
    前記乗客に移動方向を確認するための質問を格納する質問DBと、
    前記乗客に対する質問を出力する質問出力手段と、
    前記乗客に対する質問のタイミングを制御する質問タイミング制御手段と、
    前記質問するタイミングを判定するための基礎情報である判定基礎情報を取得する判定基礎情報取得手段と、
    を備え、
    前記質問タイミング制御手段は、前記判定基礎情報に基づいて前記質問するタイミングを決定し、前記質問DBに格納された質問を前記質問出力手段を用いて出力させることを特徴とする移動体。
  2. 乗客を乗せる移動体と移動体管理サーバとが無線通信によって接続された移動体システムであって、
    前記移動体は、
    前記乗客に質問するタイミングを制御する質問タイミング制御手段を備え、
    前記移動体管理サーバは、
    前記乗客に移動方向を確認するための質問を格納する質問DBと、
    前記質問をするタイミングを判定するための基礎情報である判定基礎情報を取得する判定基礎情報取得手段と、を備え、
    前記質問タイミング制御手段は、前記判定基礎情報に基づいて前記質問するタイミングを決定し、前記質問DBに格納された質問を出力させることを特徴とする移動体システム。
  3. 前記判定基礎情報は、場所情報、時間情報、道路情報、他移動体からの情報、乗客の様子の情報のうち、少なくとも1つを含むことを特徴とする請求項2に記載の移動体システム。
  4. 前記質問は、前記乗客に快適に乗車してもらうための質問を含むことを特徴とする請求項2又は3に記載の移動体システム。
  5. 前記移動体は、前記乗客と会話するための仮想ドライバーの映像を車内に出力する映像出力手段を備えることを特徴とする請求項2から4までのいずれか1項に記載の移動体システム。
  6. 前記移動体は、前記乗客が乗車した際に事前会話を行い、当該事前会話、及び/又は乗車時の乗客の映像に基づいて、当該乗客の乗客プロフィール情報を推定する乗客プロフィール推定手段を備えることを特徴とする請求項5に記載の移動体システム。
  7. 前記映像出力手段は、前記乗客プロフィール情報、又は前記質問タイミング制御手段が質問を出力させるタイミングに応じて、前記仮想ドライバーの映像を変化させることを特徴とする請求項6に記載の移動体システム。
  8. 前記移動体又は前記移動体管理サーバは、乗客との会話をスムーズに行わせるため情報を格納した会話支援データベースを備え、前記会話支援データベースは、言い間違えやすい地名又は施設のリストを格納した言い間違いDBを備えることを特徴とする請求項6又は7に記載の移動体システム。
  9. 前記会話支援データベースは、前記乗客プロフィール情報に基づいて使用言語又は方言を選択するための外国語DB、及び/又は方言DBを備えることを特徴とする請求項8に記載の移動体システム。
  10. 乗客を乗せる移動体と移動体管理サーバとが無線通信によって接続された移動体システムにおける目的地絞り込み方法であって、
    前記移動体が、
    乗客に質問をするタイミングを判定するための基礎情報である判定基礎情報を取得するステップと、
    前記判定基礎情報に基づいて、前記質問をするタイミングを決定するステップと、
    前記質問するタイミングにおいて、質問DBに格納された、前記乗客に移動方向を確認するための質問を出力させるステップと、
    を実行することを特徴とする目的地絞り込み方法。
  11. 請求項10に記載の各ステップをコンピュータに実行させることを特徴とするプログラム。
JP2017254010A 2017-12-28 2017-12-28 乗客との会話により目的地を絞り込む移動体、移動体システム、目的地絞り込み方法及びプログラム Active JP6528342B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254010A JP6528342B1 (ja) 2017-12-28 2017-12-28 乗客との会話により目的地を絞り込む移動体、移動体システム、目的地絞り込み方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254010A JP6528342B1 (ja) 2017-12-28 2017-12-28 乗客との会話により目的地を絞り込む移動体、移動体システム、目的地絞り込み方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6528342B1 JP6528342B1 (ja) 2019-06-12
JP2019121048A true JP2019121048A (ja) 2019-07-22

Family

ID=66821593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254010A Active JP6528342B1 (ja) 2017-12-28 2017-12-28 乗客との会話により目的地を絞り込む移動体、移動体システム、目的地絞り込み方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6528342B1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194494A (ja) * 2019-05-30 2020-12-03 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2021111255A (ja) * 2020-01-15 2021-08-02 株式会社リテラ 情報処理システム
JP7465302B2 (ja) 2022-05-24 2024-04-10 ソフトバンク株式会社 情報提供システム、情報提供システムの制御方法、及び情報提供システムの制御プログラム
JP7489120B2 (ja) 2020-07-01 2024-05-23 ケイシーク カンパニー リミテッド 自律走行自動車連結観光サービス提供方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076417A (ja) * 2009-09-30 2011-04-14 Hinomaru Limousine Co Ltd タクシー内における会話支援システム
JP2015087865A (ja) * 2013-10-29 2015-05-07 矢崎エナジーシステム株式会社 タクシーメータの外部操作表示器及びタクシーメータシステム
JP2016115364A (ja) * 2014-04-01 2016-06-23 みこらった株式会社 配車管理システム及び配車管理サーバ
JP2016161479A (ja) * 2015-03-04 2016-09-05 株式会社ゼンリンデータコム ナビゲーションシステム及びナビゲーション方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076417A (ja) * 2009-09-30 2011-04-14 Hinomaru Limousine Co Ltd タクシー内における会話支援システム
JP2015087865A (ja) * 2013-10-29 2015-05-07 矢崎エナジーシステム株式会社 タクシーメータの外部操作表示器及びタクシーメータシステム
JP2016115364A (ja) * 2014-04-01 2016-06-23 みこらった株式会社 配車管理システム及び配車管理サーバ
JP2016161479A (ja) * 2015-03-04 2016-09-05 株式会社ゼンリンデータコム ナビゲーションシステム及びナビゲーション方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194494A (ja) * 2019-05-30 2020-12-03 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7114526B2 (ja) 2019-05-30 2022-08-08 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2021111255A (ja) * 2020-01-15 2021-08-02 株式会社リテラ 情報処理システム
JP7489120B2 (ja) 2020-07-01 2024-05-23 ケイシーク カンパニー リミテッド 自律走行自動車連結観光サービス提供方法
JP7465302B2 (ja) 2022-05-24 2024-04-10 ソフトバンク株式会社 情報提供システム、情報提供システムの制御方法、及び情報提供システムの制御プログラム

Also Published As

Publication number Publication date
JP6528342B1 (ja) 2019-06-12

Similar Documents

Publication Publication Date Title
JP6528342B1 (ja) 乗客との会話により目的地を絞り込む移動体、移動体システム、目的地絞り込み方法及びプログラム
US11577742B2 (en) Methods and systems for increasing autonomous vehicle safety and flexibility using voice interaction
JP6102117B2 (ja) 移動体、システム、プログラム、および情報処理装置
JP7275058B2 (ja) エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラム
US20190178671A1 (en) Route navigation based on user feedback
WO2014057540A1 (ja) ナビゲーション装置およびナビゲーション用サーバ
US20170270916A1 (en) Voice interface for a vehicle
CN112805182A (zh) 智能体装置、智能体控制方法及程序
JP4259054B2 (ja) 車載装置
CN111750885A (zh) 控制装置、控制方法以及存储程序的存储介质
US11709065B2 (en) Information providing device, information providing method, and storage medium
US20230356591A1 (en) Audible passenger announcements for autonomous vehicle services
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
JP4258607B2 (ja) 車載装置
JP2004037953A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
JP6623657B2 (ja) 情報提供装置、情報提供システム及び情報提供方法
JP2022103675A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018147282A (ja) 利用者と車両のマッチングを促進するシステムにおける管理サーバ、表示方法及びプログラム
JP2004050975A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
JP6980960B2 (ja) 車両に積載され、車両に乗車しているユーザとコミュニケーションが可能な車載コミュニケーション装置、コミュニケーション方法及びプログラム
JP4059019B2 (ja) 車載装置、及びデータ作成装置
JP2020060623A (ja) エージェントシステム、エージェント方法、およびプログラム
JP6739017B1 (ja) 観光支援装置、該装置が搭載されたロボット、観光支援システム、及び観光支援方法
JP2004061252A (ja) 車載装置、データ作成装置、及びデータ作成プログラム
WO2023163047A1 (ja) 端末装置、情報提供システム、情報処理方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190426

R150 Certificate of patent or registration of utility model

Ref document number: 6528342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250