JP2022054294A - Interactive guiding device - Google Patents
Interactive guiding device Download PDFInfo
- Publication number
- JP2022054294A JP2022054294A JP2020161400A JP2020161400A JP2022054294A JP 2022054294 A JP2022054294 A JP 2022054294A JP 2020161400 A JP2020161400 A JP 2020161400A JP 2020161400 A JP2020161400 A JP 2020161400A JP 2022054294 A JP2022054294 A JP 2022054294A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- character
- guidance
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 15
- 230000004044 response Effects 0.000 claims abstract description 111
- 230000001502 supplementing effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 abstract description 11
- 239000013589 supplement Substances 0.000 abstract description 5
- 238000012544 monitoring process Methods 0.000 description 39
- 238000012545 processing Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、対話型案内装置に関する。 The present invention relates to an interactive guide device.
従来、オフィスビルや商業施設、病院等の施設の警備及び利用者に対する案内のために、施設の入口に警備員を配置することがなされている。また、特許文献1に記載されているように、警備員の画像を表示する表示機能と、監視室との通話機能とを有することにより、警備員を配置することなく施設の警備及び利用者に対する案内を実現する警備装置が提案されている。
Conventionally, security guards have been assigned at the entrance of facilities for security of facilities such as office buildings, commercial facilities, hospitals, etc. and for guidance to users. Further, as described in
特許文献1に記載されている警備装置においては、利用者との音声による対話により案内がなされる。ここで、音声による対話では、多くの情報を利用者に伝えようとすると冗長になり、一方、情報を厳選すると利用者が必要とする情報を提供できないおそれがある。また、音声に代えて図画や写真を表示することで同時に多くの情報を利用者に提供することは可能となるが、対話によるコミュニケーションの中で自然に情報を伝達することができなくなってしまう。そこで、このような装置において、音声対話による案内を基本としつつ、利用者に対する案内を円滑にすることが求められていた。
In the security device described in
本発明は、上述の課題を解決するためになされたものであり、利用者に対する案内を円滑にすることを可能とする対話型案内装置を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide an interactive guidance device capable of facilitating guidance to a user.
本発明に係る対話型案内装置は、キャラクタの画像を表示する表示部と、所定空間内の人物を検知する検知部と、キャラクタによる発話を音声として出力するとともに、検知された人物による発話を音声入力として受付ける音声入出力部と、音声入出力部及び表示部を制御して、キャラクタに検知された人物と対話させることにより、人物に対する応対をする応対部と、を有し、応対部は、応対において、人物に対する案内情報をキャラクタによる発話として出力するとともに、案内情報を補足する文字情報を表示する、ことを特徴とする。 The interactive guidance device according to the present invention has a display unit that displays an image of a character, a detection unit that detects a person in a predetermined space, and outputs utterances by the character as voice, and also outputs utterances by the detected person as voice. It has a voice input / output unit that accepts input, and a response unit that controls the voice input / output unit and the display unit to interact with the person detected by the character to respond to the person. In the response, the guidance information for the person is output as an utterance by the character, and the character information that supplements the guidance information is displayed.
また、本発明に係る対話型案内装置は、複数の応対シナリオを記憶する記憶部と、人物による発話に基づいて、複数の応対シナリオのうちから人物に対する応対シナリオを選択する選択部と、をさらに有し、応対部は、応対において、選択された応対シナリオに基づいて案内情報を音声出力するとともに文字情報を表示する、ことが好ましい。 Further, the interactive guidance device according to the present invention further includes a storage unit for storing a plurality of response scenarios and a selection unit for selecting a response scenario for a person from a plurality of response scenarios based on utterances by the person. It is preferable that the response unit outputs guidance information by voice and displays text information based on the selected response scenario in the response.
また、本発明に係る対話型案内装置において、応対部は、文字情報として、案内情報に関連し且つ案内情報の案内対象とは異なる案内対象に関する関連情報を表示する、ことが好ましい。 Further, in the interactive guidance device according to the present invention, it is preferable that the response unit displays, as text information, related information related to the guidance information and related to the guidance target different from the guidance target of the guidance information.
また、本発明に係る対話型案内装置において、応対部は、文字情報として、案内情報を詳細にした詳細情報を表示する、ことが好ましい。 Further, in the interactive guidance device according to the present invention, it is preferable that the response unit displays detailed information in detail of the guidance information as text information.
本発明に係る対話型案内装置は、キャラクタの画像を表示する表示部と、所定空間内の人物を検知する検知部と、キャラクタによる発話を音声として出力するとともに、検知された人物による発話を音声入力として受付ける音声入出力部と、音声入出力部及び表示部を制御して、キャラクタに検知された人物と対話させることにより、人物に対する応対をする応対部と、を有し、応対部は、応対において、人物による発話が継続していない場合には人物に対する案内情報をキャラクタによる発話として音声入出力部から出力し、人物による発話が継続している場合には人物に対する案内情報に対応する文字情報をテキストで表示する、ことを特徴とする。 The interactive guidance device according to the present invention has a display unit that displays an image of a character, a detection unit that detects a person in a predetermined space, and outputs utterances by the character as voice, and also outputs utterances by the detected person as voice. It has a voice input / output unit that accepts input, and a response unit that controls the voice input / output unit and the display unit to interact with the person detected by the character to respond to the person. In the response, if the utterance by the person is not continued, the guidance information for the person is output from the voice input / output unit as the utterance by the character, and if the utterance by the person is continuing, the character corresponding to the guidance information for the person is output. It is characterized by displaying information in text.
本発明に係る対話型案内装置は、利用者に対する案内を円滑にすることを可能とする。 The interactive guidance device according to the present invention makes it possible to facilitate guidance to the user.
以下、図面を参照しつつ本発明の種々の実施形態について説明する。本発明の技術的範囲はこれらの実施形態には限定されず、特許請求の範囲に記載された発明及びその均等物に及ぶ点に留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. It should be noted that the technical scope of the present invention is not limited to these embodiments but extends to the inventions described in the claims and their equivalents.
図1は、案内装置1の正面図であり、図2は、案内装置1の概略構成の一例を示す図である。案内装置1は、オフィスビル、商業施設又は病院等の施設の入口付近に配置される。案内装置1は、警備員を模したキャラクタの画像を表示して、キャラクタに目配せ等の監視動作をさせることにより施設の警備をする。また、案内装置1は、あらかじめ設定された応対シナリオに従って、キャラクタに施設に来訪した利用者と対話させることにより、利用者に対する案内をする。そのために、案内装置1は、表示部11、測距部12、撮像部13、音声入出力部14、記憶部15及び処理部16を有する。
FIG. 1 is a front view of the
表示部11は、画像を表示するための構成であり、例えば液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイ等を備える。表示部11は、処理部16から供給された画像データに基づいて画像を表示する。
The
表示部11は、案内装置1の前面に設けられ、キャラクタCの画像を表示する。キャラクタCは、例えば警備員を模したキャラクタであるが、このような例に限られず施設のマスコットキャラクタ等の任意のキャラクタでよい。
The
測距部12は、案内装置1の周囲の対象物までの距離を測定するための構成であり、例えばTOF(Time of Flight)方式のレーザ測距センサを備える。測距部12は、測定範囲内の各方向にパルス変調されたレーザ光を照射し、その反射光を検出するまでの時間に基づいて各方向の反射点までの距離を算出する。測距部12は、レーザ光が照射された方向と算出された距離とに基づいて、各画素に距離情報が関連付けられた距離画像のデータを生成し、処理部16に供給する。
The
撮像部13は、画像を撮像するための構成であり、例えばカメラを備える。撮像部13は、光学レンズ等を用いて撮像範囲内の被写体からの光線を集束することにより結像した被写体像に対応する撮像画像の画像信号を生成し、所定の形式の画像データに変換して処理部16に供給する。
The
測距部12及び撮像部13は、案内装置1の前面上部に設けられる。測距部12の測定範囲及び撮像部13の撮像範囲は、何れも案内装置1の前方を含むように設定される。また、測距部12によって生成される距離画像データの各画素と、撮像部13によって生成される画像データの各画素との対応関係は、後述する記憶部15にあらかじめデータとして記憶される。
The
音声入出力部14は、音声入力を受付けるとともに音声を出力するための構成であり、例えばマイク及びスピーカを備える。音声入出力部14は、受付けた音声入力をデジタルデータである音声信号に変換して処理部16に供給するとともに、処理部16から供給された音声信号を音声として出力する。
The voice input /
音声入出力部14は、案内装置1の前面の、キャラクタCの顔の高さに設けられることが好ましいが、このような例に限られず、案内装置1の任意の位置に設けられてよい。
The audio input /
記憶部15は、プログラム及びデータを記憶するための構成であり、例えば、半導体メモリを備える。記憶部15は、処理部16による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、CD(Compact Disc)-ROM(Read Only Memory)等のコンピュータ読み取り可能且つ非一時的な可搬型記憶媒体から、セットアッププログラム等を用いて記憶部15にインストールされる。記憶部15は、データとして応対シナリオテーブル151を記憶する。
The
処理部16は、案内装置1の動作を統括的に制御する構成であり、一又は複数個のプロセッサ及びその周辺回路を備える。処理部16は、例えば、CPU(Central Processing Unit)、LSI(Large Scale Integration)又はASIC(Application Specific Integrated Circuit)等を備える。処理部16は、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等を備えてもよい。処理部16は、記憶部15に記憶されているプログラムに基づいて案内装置1の処理が適切に実行されるように案内装置1の各構成の動作を制御するとともに、処理を実行する。
The
処理部16は、監視部161、検知部162、応対部163及び選択部164をその機能ブロックとして備える。これらの各部は、処理部16が実行するプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして処理部16に実装されてもよい。
The
図3は、応対シナリオに関する情報を管理する応対シナリオテーブル151のデータ構造の一例を示す図である。応対シナリオテーブル151は、シナリオID、説明、キーワード、案内情報及び文字情報を相互に関連付けて記憶する。 FIG. 3 is a diagram showing an example of a data structure of the response scenario table 151 that manages information regarding the response scenario. The response scenario table 151 stores scenario IDs, explanations, keywords, guidance information, and character information in association with each other.
シナリオIDは、各応対シナリオを識別する情報である。説明は、各応対シナリオの概要を示す情報である。キーワードは、各応対シナリオに関連する単語であり、利用者に対する応対シナリオを選択するために参照される。案内情報は、利用者に対する応対において、キャラクタCの発話として出力される情報である。文字情報は、利用者に対する応対において、表示部11に表示される情報である。案内情報及び文字情報は、何れも利用者に対する案内のために提示される情報である。
The scenario ID is information that identifies each response scenario. The description is information that outlines each response scenario. Keywords are words associated with each response scenario and are referenced to select a response scenario for the user. The guidance information is information that is output as the utterance of the character C in the response to the user. The character information is information displayed on the
文字情報は、案内情報を補足する情報であり、例えば、案内情報に関連し且つ案内情報の案内対象とは異なる案内対象に関する関連情報、又は、案内情報を詳細にした詳細情報である。図3に示す例では、シナリオID「001」の応対シナリオは「お手洗の案内」に関するシナリオである。この応対シナリオには、案内情報として「お手洗はドアを出て左手にあります。」が記憶されており、その案内対象は「(通常の)お手洗」である。また、文字情報として、関連情報にあたる「多機能トイレは一つ上のフロアにあります。」が記憶されているとともに、詳細情報にあたる「お手洗はドアを出て左手に20メートル進んだところにあります。」が記憶されている。関連情報の案内対象は「(通常の)お手洗」とは異なる「多機能トイレ」である。このように、案内において複数の案内対象が回答として想定される場合に、案内情報の案内対象とは異なる案内対象に関する回答を関連情報として記憶する。例えば、代表的な回答を案内情報として記憶し、他の回答を関連情報として記憶する。 The text information is information that supplements the guidance information, and is, for example, related information related to the guidance target that is related to the guidance information and different from the guidance target of the guidance information, or detailed information that details the guidance information. In the example shown in FIG. 3, the response scenario of the scenario ID "001" is a scenario related to "guidance for washing". In this response scenario, "The washroom is on your left after exiting the door" is stored as guidance information, and the guidance target is "(normal) washroom". In addition, as textual information, the related information "The multi-functional toilet is on the next floor" is memorized, and the detailed information "Otari is 20 meters to the left after leaving the door." . "Is remembered. The target of related information is "multifunctional toilets", which is different from "(normal) toilets". In this way, when a plurality of guidance targets are assumed as answers in the guidance, the answers regarding the guidance targets different from the guidance targets of the guidance information are stored as related information. For example, a representative answer is stored as guidance information, and other answers are stored as related information.
また、シナリオID「002」の応対シナリオは「打合せの取次ぎ」に関するシナリオである。この応対シナリオには、案内情報として「○階の○○会議室へお進みください。」が記憶されているとともに、文字情報として、詳細情報にあたる「○階へは左手のエレベータよりお進み頂き、○○会議室はエレベータを降りて正面にあります。」が記憶されている。このように、文字情報として、関連情報及び詳細情報の少なくとも一方が記憶される。 Further, the response scenario of the scenario ID "002" is a scenario related to "meeting agency". In this response scenario, "Please proceed to the XX meeting room on the XX floor" is stored as guidance information, and as text information, "Please proceed to the XX floor from the elevator on the left", which is detailed information. The meeting room is in front of you after getting off the elevator. " In this way, at least one of the related information and the detailed information is stored as the character information.
なお、応対シナリオにおける案内情報には、案内情報を完成させるために必要となる情報を得るための質問(予備案内情報)があわせて記憶されてもよい。例えば、「打合せの取次ぎ」に関するシナリオにおいては、利用者の氏名や訪問先の情報等が案内する内容の決定に必要となる。そこで、各シナリオIDに基づく案内を実行する際に必要となる情報についても予め記憶しておき、後述する案内処理において、案内装置1は当該情報が得られていない場合に予備案内情報を出力して、当該情報を取得すると各シナリオIDに基づく案内を実行する。このように、シナリオID「001」のように応対シナリオと案内情報とが固定されている場合と、シナリオID「002」のように状況によって案内情報が変動する場合とがある。前者ではシナリオが選択されると案内情報が決定され、後者ではシナリオが選択され、且つ、案内情報を完成させるために必要となる情報が取得されることで案内情報が決定される。
In addition, the guidance information in the response scenario may also store a question (preliminary guidance information) for obtaining the information necessary for completing the guidance information. For example, in a scenario related to "meeting agency", it is necessary to determine the content to be guided by the user's name, visited information, and the like. Therefore, the information required for executing the guidance based on each scenario ID is also stored in advance, and in the guidance processing described later, the
応対シナリオテーブル151のデータは、案内装置1の管理者によってあらかじめ設定される。応対シナリオテーブル151のデータのうち、案内情報又は文字情報は、機械学習等により生成されてもよい。
The data in the response scenario table 151 is preset by the administrator of the
図4は、案内装置1によって実行される案内処理の流れの一例である。案内処理は、表示部11にキャラクタCが表示された状態において実行される。案内処理は、記憶部15に記憶されたプログラムに基づいて処理部16が案内装置1の各構成と協働することにより実現される。
FIG. 4 is an example of the flow of guidance processing executed by the
まず、監視部161は、監視処理を実行する(S101)。監視処理は、表示部11に表示されたキャラクタCに監視動作をさせる処理である。監視動作は、キャラクタCが利用者の方向に視線を向ける動作である。
First, the monitoring unit 161 executes the monitoring process (S101). The monitoring process is a process of causing the character C displayed on the
監視部161は、撮像画像に基づいてキャラクタCに監視動作をさせる。例えば、監視部161は、撮像部13から撮像画像を取得し、撮像画像における人物領域を特定する。人物領域の特定は、撮像画像の画素値から抽出した特徴量に基づいてなされてもよく、画像と人物領域との関係をあらかじめ学習された学習済みモデルを用いてなされてもよい。特徴量は、例えばHOG(Histograms of Oriented Gradients)特徴量である。学習済みモデルは、例えばYOLO(You Only Look Once)又はSSD(Single Shot Detector)である。監視部161は、キャラクタCに、特定した人物領域に対応する方向に視線を向ける動作をさせるように表示部11を制御することにより、監視動作をさせる。
The monitoring unit 161 causes the character C to perform a monitoring operation based on the captured image. For example, the monitoring unit 161 acquires an captured image from the
監視部161は、距離画像に基づいてキャラクタCに監視動作をさせてもよい。例えば、監視部161は、測距部12から距離画像を取得し、距離画像における人物領域を特定する。人物領域の特定は、距離画像が示す対象物の3次元形状から抽出した特徴量に基づいてなされてもよく、距離画像と人物領域との関係をあらかじめ学習された学習済みモデルを用いてなされてもよい。監視部161は、キャラクタCに、特定した人物領域に対応する方向に視線を向ける動作をさせるように表示部11を制御することにより、監視動作をさせる。
The monitoring unit 161 may cause the character C to perform a monitoring operation based on the distance image. For example, the monitoring unit 161 acquires a distance image from the
監視部161は、撮像画像と距離画像との両方に基づいてキャラクタCに監視動作をさせてもよい。例えば、監視部161は、撮像画像における人物領域を特定し、距離画像において、特定した人物領域に対応する画素に関連付けられた距離情報を取得することにより、案内装置1と利用者との距離を特定する。監視部161は、特定した距離が所定距離以下である場合に、キャラクタCに、特定した人物領域に対応する方向に視線を向ける動作をさせる。
The monitoring unit 161 may cause the character C to perform a monitoring operation based on both the captured image and the distance image. For example, the monitoring unit 161 identifies a person area in the captured image, and acquires the distance information associated with the pixel corresponding to the specified person area in the distance image to obtain the distance between the
撮像画像又は距離画像において複数の人物領域が特定された場合、監視部161は、キャラクタCに、それらの人物領域に対応する方向に順次視線を向けさせてもよく、案内装置1との距離が小さい利用者の方向に優先して視線を向けさせてもよい。
When a plurality of person areas are specified in the captured image or the distance image, the monitoring unit 161 may cause the character C to sequentially direct the line of sight in the direction corresponding to those person areas, and the distance from the
監視部161は、順次取得された複数の撮像画像及び距離画像に基づいてキャラクタCに監視動作をさせてもよい。例えば、監視部161は、複数の撮像画像においてそれぞれ人物領域を特定する。監視部161は、複数の撮像画像の間で、特定した人物領域の位置及び大きさ並びに人物領域内の画素の画素値等に基づいて同一の利用者に対応する蓋然性が高い人物領域を関連付けることで、利用者をトラッキングする。監視部161は、トラッキングしている利用者が案内装置1に対して接近しているか否かを複数の距離画像に基づいて判定し、案内装置1に接近していると判定した場合に、キャラクタCに利用者の方向に視線を向ける動作をさせる。
The monitoring unit 161 may cause the character C to perform a monitoring operation based on a plurality of captured images and distance images sequentially acquired. For example, the monitoring unit 161 identifies a person area in each of a plurality of captured images. The monitoring unit 161 associates a plurality of captured images with a person area having a high probability of corresponding to the same user based on the position and size of the specified person area, the pixel value of the pixel in the person area, and the like. And track the user. The monitoring unit 161 determines whether or not the tracking user is approaching the
監視部161は、監視動作として、キャラクタCに視線だけでなく体全体を向けるような動作をさせてもよい。また、監視部161は音声入出力部14をさらに制御して、監視動作として、キャラクタCに利用者に対するあいさつをさせてもよい。監視部161は、監視動作として、キャラクタCが施設の警備をしているように見せるための他の任意の動作及び発話をさせてもよい。
As a monitoring operation, the monitoring unit 161 may cause the character C to turn not only the line of sight but also the entire body. Further, the monitoring unit 161 may further control the audio input /
続いて、検知部162は、所定空間内の利用者を検知する(S102)。所定空間は、応対すべき利用者がいる空間であり、例えば、案内装置1の前方であり且つ案内装置1との距離が所定距離(例えば、2メートル)以下の空間である。所定空間は、案内装置1と離隔した空間(例えば、案内装置1との距離が1メートル以上3メートル以下の空間)でもよい。
Subsequently, the detection unit 162 detects a user in the predetermined space (S102). The predetermined space is a space where there is a user to be treated, for example, a space in front of the
検知部162は、上述したように、撮像画像における人物領域を特定する。人物領域が特定されない場合、検知部162は、所定空間内の利用者が検知されなかったと判定する。 As described above, the detection unit 162 specifies a person region in the captured image. When the person area is not specified, the detection unit 162 determines that the user in the predetermined space has not been detected.
人物領域が特定された場合、検知部162は、上述したように、距離画像に基づいて、案内装置1と特定した人物領域に対応する利用者との距離を特定する。検知部162は、特定した人物領域の方向及び利用者との距離に基づいて、利用者の位置を特定する。検知部162は、利用者の位置が所定空間内である場合、所定空間内の利用者が検知されたと判定し、利用者の位置が所定空間外である場合、所定空間内の利用者が検知されなかったと判定する。
When the person area is specified, the detection unit 162 specifies the distance between the
利用者が検知された場合(S102-Yes)、応対部163は、音声入出力部14及び表示部11を制御して、キャラクタCに利用者と対話させることにより、利用者に対する応対をする応対処理を実行する(S103)。応対処理の詳細は後述する。利用者が検知されなかった場合(S102-No)、又は、応対処理が終了した場合、監視部161は監視処理を再開する(S101)。
When the user is detected (S102-Yes), the response unit 163 controls the audio input /
図5は、応対処理の流れの一例を示すフロー図である。 FIG. 5 is a flow chart showing an example of the flow of the response process.
まず、選択部164は、利用者による発話に基づいて、検知された利用者に対する応対シナリオを選択する(S201)。例えば、選択部164は、検知された利用者による、音声入出力部14に対する発話を音声信号として取得する。選択部164は、公知の音声認識技術を用いて取得した音声信号を文字情報に変換し、形態素解析等をすることにより利用者の発話に含まれる単語を取得する。選択部164は、応対シナリオテーブル151を参照し、取得した単語がキーワードとして関連付けられている応対シナリオを選択する。
First, the
応対シナリオの選択方法は上述した例に限られない。応対シナリオは、利用者の発話に対応する文字情報と応対シナリオとの関係をあらかじめ学習されたニューラルネットワーク等の学習済みモデルを用いて選択されてもよい。 The method of selecting a response scenario is not limited to the above example. The response scenario may be selected using a trained model such as a neural network in which the relationship between the character information corresponding to the user's utterance and the response scenario is learned in advance.
ここで、案内情報を完成させるために必要となる情報が得られていない場合、選択部164は当該情報に関する質問(予備案内情報)をキャラクタCによる発話として音声入出力部14から出力する。例えば、シナリオID「002」の応対シナリオが選択された場合において、「利用者の氏名」又は「訪問先の情報」等が得られていない場合、選択部164は、「お客様のお名前と訪問先をお知らせください。」と音声出力する。そして、選択部164は利用者から得られた情報に基づいて案内情報を決定する。例えば、案内装置1は、記憶部15に打合せの情報(利用者、打合せ場所等)に関するリストを予め記憶しておき、選択部164は、利用者から得られた情報とリストとを照合して、案内する打合せ場所を決定する。これにより、利用者ごとに案内情報が異なる場合においても、利用者に応じた案内を行える。
Here, when the information necessary for completing the guidance information is not obtained, the
続いて、応対部163は、案内情報をキャラクタCによる発話として音声入出力部14から出力するとともに、案内情報を補足する文字情報を表示部11に表示する(S202)。例えば、応対部163は、選択した応対シナリオに関連付けられた案内情報及び関連情報を取得する。応対部163は、取得した案内情報を音声信号に変換して、キャラクタCの発話として音声入出力部14から出力するとともに、取得した関連情報を表示部11に表示する。なお、応対部163は、関連情報に代えて詳細情報を表示してもよい。
Subsequently, the response unit 163 outputs the guidance information as an utterance by the character C from the voice input /
図6は、表示部11に表示される文字情報について説明するための図である。図6に示す例では、文字情報111は、表示部11の上部に表示されている。なお、文字情報111の表示態様はこのような例に限られない。例えば、文字情報111は、表示部11の任意の位置に表示されてもよく、吹出し等を用いて、キャラクタCが発話しているような態様で表示されてもよい。
FIG. 6 is a diagram for explaining the character information displayed on the
以上説明したように、案内装置1は、所定空間内の利用者に対する応対において、利用者に対する案内情報をキャラクタCによる発話として出力するとともに、案内情報を補足する文字情報を表示する。これにより、案内装置1は、利用者に対する案内を円滑にすることを可能とする。すなわち、案内情報を補足する関連情報や詳細情報をキャラクタCの発話として出力した場合、利用者はそれらすべての情報を聞き取るまで待機しなければならない。これに対し、案内装置1は、関連情報や詳細情報を文字情報として表示することにより、対話によるコミュニケーションを実現しつつ利用者が待機する時間を短縮し、円滑な案内を実現する。
As described above, the
また、案内装置1は、利用者による発話に基づいて複数の応対シナリオのうちから利用者に対する応対シナリオを選択し、選択された応対シナリオに基づいて案内情報を出力するとともに文字情報を表示する。これにより、案内装置1は、利用者が求める事項についての案内を円滑にすることができる。
Further, the
また、案内装置1は、案内情報として、文字情報を簡略化した情報を出力する。詳細な情報は発話により出力するよりも文字情報として表示した方が理解されやすいため、これにより、利用者が案内を理解しやすくなり、円滑な案内が実現する。
Further, the
上述した説明では、S201において案内装置1が応対シナリオを選択するものとしたが、このような例に限られず、案内装置1は応対シナリオを選択しなくてもよい。例えば、案内装置1は、応対処理において、所定空間内に検知された利用者に対して「受付は右手にあります。」等の一般的な案内情報を発話として出力するとともに、その案内情報を補足する関連情報又は詳細情報を文字情報として表示してもよい。
In the above description, the
また、案内装置1は、熱画像カメラ等の利用者の体温を測定する構成を有してもよい。この場合、案内装置1は、応対処理において、所定空間内に検知された利用者が所定以上の体温(例えば、37.5度以上)であると判定されると、「発熱の疑いがあります。検査エリアにお進みください」等の案内情報を発話として出力するとともに、この案内情報を詳細に補足する詳細情報、すなわち、「左手にあるパーテーションが検査エリアです」等を文字情報として表示してもよい。
Further, the
上述した説明では、一つの文字情報が表示されるものとしたが、このような例に限られず、応対部163は、S202において、選択した応対シナリオに関連付けられた関連情報又は詳細情報である複数の文字情報をそれぞれ表示部11に表示してもよい。
In the above description, one character information is displayed, but the present invention is not limited to such an example, and the response unit 163 is a plurality of related information or detailed information associated with the selected response scenario in S202. The character information of may be displayed on the
また、応対部163は、利用者の属性に基づいて、複数の文字情報のうちの何れかの文字情報を選択して表示部11に表示してもよい。この場合、応対シナリオテーブル151において、複数の文字情報に、その文字情報が対象とする利用者の属性があらかじめ関連付けられる。例えば、利用者の属性が男性、女性、子供連れ等である場合には、男性用トイレを案内する文字情報には「男性」の属性が関連付けられ、多機能トイレを案内する文字情報には「子供連れ」の属性が関連付けられる。
Further, the response unit 163 may select any character information from the plurality of character information and display it on the
応対部163は、S202において、撮像部13から取得される撮像画像に基づいて利用者の属性を特定する。属性は、例えば、撮像画像の画素値から抽出した特徴量に基づいて特定されてもよく、画像と属性との関係をあらかじめ学習された学習済みモデルを用いて特定されてもよい。また、属性は、測距部12から取得される距離画像又は音声入出力部14から取得される音声信号に基づいて特定されてもよい。
In S202, the response unit 163 identifies the attributes of the user based on the image captured from the
応対部163は、応対シナリオテーブル151を参照して、特定した属性が関連付けられた文字情報を選択する。応対部163は、選択した応対シナリオに関連付けられた案内情報を発話として出力するとともに、選択した文字情報を表示する。このようにすることで、案内装置1は、利用者の属性に適した案内を円滑にすることを可能とする。
The response unit 163 refers to the response scenario table 151 and selects the character information associated with the specified attribute. The response unit 163 outputs the guidance information associated with the selected response scenario as an utterance, and displays the selected character information. By doing so, the
上述した説明では、案内装置1は、応対処理の終了後にS101に戻り監視処理を実行するものとしたが、S102に戻り所定空間内の利用者を検知するものとしてもよい。これにより、案内装置1は、所定空間内に複数の利用者がいる場合や、特定の利用者が続けて案内を希望する場合等に案内を円滑にすることを可能とする。
In the above description, the
上述した説明では、応対部163は、S103の応対処理において案内情報をキャラクタCによる発話として出力するとともに、案内情報を補足する文字情報を表示するものとしたが、このような例に限られない。応対部163は、利用者の発話に基づいてキャラクタCが発話する内容が特定されたとき(例えば、応対シナリオを選択したときや案内情報が決定されたとき)、利用者による発話が継続していない場合には案内情報をキャラクタCによる発話として出力し、利用者による発話が継続している場合にはキャラクタCによる発話を行わずに案内情報に対応するテキストを文字情報として表示するようにしてもよい。 In the above description, the response unit 163 outputs the guidance information as an utterance by the character C in the response processing of S103, and displays the character information supplementing the guidance information, but the present invention is not limited to such an example. .. In the response unit 163, when the content to be spoken by the character C is specified based on the user's utterance (for example, when the response scenario is selected or the guidance information is determined), the user's utterance continues. If not, the guidance information is output as the utterance by the character C, and if the utterance by the user continues, the text corresponding to the guidance information is displayed as the text information without the utterance by the character C. May be good.
この場合、記憶部15は、応対シナリオテーブル151aを記憶する。また、応対部163は、S103において、後述する第2応対処理を実行する。
In this case, the
図7は、応対シナリオテーブル151aのデータ構造の一例を示す図である。応対シナリオテーブル151aは、シナリオID、説明、キーワード及び案内情報を相互に関連付けて記憶する。すなわち、応対シナリオテーブル151aは、文字情報を記憶しなくてもよい点で図3の応対シナリオテーブル151と相違する。 FIG. 7 is a diagram showing an example of the data structure of the response scenario table 151a. The response scenario table 151a stores the scenario ID, the description, the keyword, and the guidance information in association with each other. That is, the response scenario table 151a is different from the response scenario table 151 of FIG. 3 in that it is not necessary to store the character information.
図8は、第2応対処理の流れの一例を示すフロー図である。 FIG. 8 is a flow chart showing an example of the flow of the second response process.
まず、選択部164は、S201と同様にして、検知された利用者に対する応対シナリオを選択する(S301)。
First, the
続いて、応対部163は、利用者による発話が継続しているか否かを判定する(S302)。例えば、応対部163は、音声入出力部14に対する音声入力が継続している、又は、音声入力の中断が所定時間(例えば、3秒)未満である場合に、利用者による発話が継続していると判定し、中断が所定時間以上である場合に発話が継続していないと判定する。なお、音声入力が継続しているとは、音声入出力部14が供給する音声信号が示す音声入力の音量が連続して所定値以上であることをいい、音声入力が中断しているとは、音声入力の音量が所定値未満となっていることをいう。
Subsequently, the response unit 163 determines whether or not the utterance by the user continues (S302). For example, in the response unit 163, when the voice input to the voice input /
利用者による発話が継続していると判定された場合(S302-Yes)、応対部163は、選択した応対シナリオに関連付けられた案内情報に対応する文字情報をテキストで表示部11に表示し(S303)、応対処理を終了する。発話が継続していないと判定された場合(S302-No)、応対部163は、選択した応対シナリオに関連付けられた案内情報をキャラクタCによる発話として音声入出力部14から出力し(S304)、応対処理を終了する。
When it is determined that the utterance by the user is continuing (S302-Yes), the response unit 163 displays the text information corresponding to the guidance information associated with the selected response scenario on the
なお、案内情報を文字情報として表示部11に表示した段階では応対処理を終了せず、利用者の発話が継続していないと判定されると、案内情報をキャラクタCの発話として音声入出力部14から出力して、応対処理を終了してもよい。これにより、案内情報を速やかに伝えつつ、音声対話によるコミュニケーションを行える。
When it is determined that the response process is not completed at the stage where the guidance information is displayed as character information on the
このようにすることで、案内装置1は、利用者の発話を遮ることなく利用者に対し案内情報を提示することができるため、利用者に対する案内を円滑にすることを可能とする。
By doing so, the
上述した説明では、S303で表示される文字情報とS304で出力される案内情報は同一の情報であったが、このような例に限られず、両者は異なる情報でもよい。例えば、S303で表示される文字情報は、S304で表示される案内情報の関連情報又は詳細情報でもよい。 In the above description, the character information displayed in S303 and the guidance information output in S304 are the same information, but the information is not limited to such an example, and both may be different information. For example, the character information displayed in S303 may be related information or detailed information of the guidance information displayed in S304.
また、案内情報を完成させるために必要となる情報が不足している場合、案内装置1が当該情報についての回答を求める質問である予備案内情報(例えば、「お客様のお名前と訪問先をお知らせください。」)を文字情報として表示することが好適である。これにより、利用者の発話を遮ることなく、案内にあたって必要な情報を得ることができるため、利用者に対する案内を円滑にすることが可能となる。
In addition, if the information required to complete the guidance information is insufficient, the
なお、文字情報を表示部11に表示するものとして説明したが、これに限られるものではない。例えば、プロジェクター等の投影装置を設けて、選択された文字情報を壁面や床等に投影して表示してもよい。
Although the description has been made assuming that the character information is displayed on the
また、案内装置1が、利用者が案内装置1に接近したタイミングで音声の入力を受け付けている状態であることを利用者に示すようにしてもよい。例えば、監視処理から応対処理に切り替わると周囲の環境音や音声集音状態を示すアイコンや集音レベルを示す模式的な波形等を表示部11に表示する。或いは、音声認識に関するアイコンを常時表示しておき、応対処理に切り替わると音声の入力を受け付けている状態であることを示すようにアイコンの表示を変化させてもよい。これにより、利用者は自身が案内装置1に認識されたことを把握できるとともに、キャラクタCが音声の入力を受け付けていることも把握できるため、自然に話しかけることができるようになる。
Further, the
当業者は、本発明の精神および範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。例えば、上述した各部の処理は、本発明の範囲において、適宜に異なる順序で実行されてもよい。また、上述した実施形態及び変形例は、本発明の範囲において、適宜に組み合わせて実施されてもよい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made to this without departing from the spirit and scope of the invention. For example, the processes of the above-mentioned parts may be executed in different orders as appropriate within the scope of the present invention. Further, the above-described embodiments and modifications may be carried out in appropriate combinations within the scope of the present invention.
1 案内装置
11 表示部
12 測距部
13 撮像部
14 音声入出力部
15 記憶部
161 監視部
162 検知部
163 応対部
164 選択部
1
Claims (5)
所定空間内の人物を検知する検知部と、
前記キャラクタによる発話を音声として出力するとともに、前記検知された人物による発話を音声入力として受付ける音声入出力部と、
前記音声入出力部及び前記表示部を制御して、前記キャラクタに前記検知された人物と対話させることにより、前記人物に対する応対をする応対部と、を有し、
前記応対部は、前記応対において、前記人物に対する案内情報を前記キャラクタによる発話として前記音声入出力部から出力するとともに、前記案内情報を補足する文字情報を前記表示部に表示する、
ことを特徴とする対話型案内装置。 A display unit that displays a character image and
A detector that detects a person in a predetermined space,
An audio input / output unit that outputs utterances by the character as voice and receives utterances by the detected person as voice input.
It has a response unit that controls the audio input / output unit and the display unit to cause the character to interact with the detected person to respond to the person.
In the response, the response unit outputs guidance information for the person from the voice input / output unit as an utterance by the character, and displays character information supplementing the guidance information on the display unit.
An interactive guidance device characterized by this.
前記人物による発話に基づいて、前記複数の応対シナリオのうちから前記人物に対する応対シナリオを選択する選択部と、をさらに有し、
前記応対部は、前記応対において、前記選択された応対シナリオに基づいて前記案内情報を音声出力するとともに前記文字情報を表示する、
請求項1に記載の対話型案内装置。 A storage unit that stores multiple response scenarios,
Further, it has a selection unit for selecting a response scenario for the person from the plurality of response scenarios based on the utterance by the person.
In the response, the response unit outputs the guidance information by voice and displays the character information based on the selected response scenario.
The interactive guidance device according to claim 1.
請求項1又は2に記載の対話型案内装置。 The response unit displays, as the character information, related information related to the guidance information and related to a guidance target different from the guidance target of the guidance information.
The interactive guidance device according to claim 1 or 2.
請求項1又は2に記載の対話型案内装置。 The response unit displays detailed information in detail of the guidance information as the character information.
The interactive guidance device according to claim 1 or 2.
所定空間内の人物を検知する検知部と、
前記キャラクタによる発話を音声として出力するとともに、前記検知された人物による発話を音声入力として受付ける音声入出力部と、
前記音声入出力部及び前記表示部を制御して、前記キャラクタに前記検知された人物と対話させることにより、前記人物に対する応対をする応対部と、を有し、
前記応対部は、前記応対において、前記人物による発話が継続していない場合には当該人物に対する案内情報を前記キャラクタによる発話として前記音声入出力部から出力し、前記人物による発話が継続している場合には当該人物に対する前記案内情報に対応する文字情報をテキストで前記表示部に表示する、
ことを特徴とする対話型案内装置。 A display unit that displays a character image and
A detector that detects a person in a predetermined space,
An audio input / output unit that outputs utterances by the character as voice and receives utterances by the detected person as voice input.
It has a response unit that controls the audio input / output unit and the display unit to cause the character to interact with the detected person to respond to the person.
In the response, when the utterance by the person is not continued, the response unit outputs guidance information for the person as the utterance by the character from the voice input / output unit, and the utterance by the person continues. In that case, the character information corresponding to the guidance information for the person is displayed as text on the display unit.
An interactive guidance device characterized by this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020161400A JP2022054294A (en) | 2020-09-25 | 2020-09-25 | Interactive guiding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020161400A JP2022054294A (en) | 2020-09-25 | 2020-09-25 | Interactive guiding device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022054294A true JP2022054294A (en) | 2022-04-06 |
Family
ID=80996870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020161400A Pending JP2022054294A (en) | 2020-09-25 | 2020-09-25 | Interactive guiding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022054294A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220305665A1 (en) * | 2021-03-24 | 2022-09-29 | Toyota Jidosha Kabushiki Kaisha | Robot, communication system, communication method, and computer readable medium |
JP7527496B1 (en) | 2023-06-19 | 2024-08-02 | 三菱電機株式会社 | Character interaction system and character interaction method |
-
2020
- 2020-09-25 JP JP2020161400A patent/JP2022054294A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220305665A1 (en) * | 2021-03-24 | 2022-09-29 | Toyota Jidosha Kabushiki Kaisha | Robot, communication system, communication method, and computer readable medium |
JP7527496B1 (en) | 2023-06-19 | 2024-08-02 | 三菱電機株式会社 | Character interaction system and character interaction method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11145299B2 (en) | Managing voice interface devices | |
CN106647745B (en) | Diagnosis guiding robot autonomous navigation system and method based on Bluetooth positioning | |
JP2022054294A (en) | Interactive guiding device | |
JP2008254122A (en) | Robot | |
US9870521B1 (en) | Systems and methods for identifying objects | |
US20190066681A1 (en) | Spoken command interface | |
Lee et al. | Opportunities for human-AI collaboration in remote sighted assistance | |
JP7340063B2 (en) | Security system and surveillance display | |
KR102296271B1 (en) | Kiosk for visually impaired and hard of hearing person | |
JP2007272534A (en) | Apparatus, method and program for complementing ellipsis of word | |
JP2016076007A (en) | Interactive apparatus and interactive method | |
JP7481175B2 (en) | Response device | |
KR102427761B1 (en) | Did device, did system, and control method for a did device | |
US20190224850A1 (en) | Communicative Self-Guiding Automation | |
JP2022007216A (en) | Handling device | |
JP7103841B2 (en) | Guidance system and guidance robot | |
JP7481174B2 (en) | Display device | |
JP2022045276A (en) | Interactive reception device | |
US20220305665A1 (en) | Robot, communication system, communication method, and computer readable medium | |
JP7308068B2 (en) | Security system and surveillance display | |
JP2020201322A (en) | Guide robot system and conversation generation method | |
CN116698045B (en) | Walking auxiliary navigation method and system for vision disturbance people in nursing home | |
JP2019185107A (en) | Information processing apparatus, terminal apparatus, information processing system, program and information processing method | |
US11386888B2 (en) | Method of adjusting volume of audio output by a mobile robot device | |
JP7545267B2 (en) | Interactive response device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240807 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241001 |