JP2022058821A - Guiding system - Google Patents
Guiding system Download PDFInfo
- Publication number
- JP2022058821A JP2022058821A JP2022014384A JP2022014384A JP2022058821A JP 2022058821 A JP2022058821 A JP 2022058821A JP 2022014384 A JP2022014384 A JP 2022014384A JP 2022014384 A JP2022014384 A JP 2022014384A JP 2022058821 A JP2022058821 A JP 2022058821A
- Authority
- JP
- Japan
- Prior art keywords
- guidance
- robot
- voice
- terminal
- ticket issuing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006854 communication Effects 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 26
- 230000004044 response Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 5
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 2
- 101000737813 Homo sapiens Cyclin-dependent kinase 2-associated protein 1 Proteins 0.000 description 2
- 235000010724 Wisteria floribunda Nutrition 0.000 description 2
- 230000000391 smoking effect Effects 0.000 description 2
- 102100036848 C-C motif chemokine 20 Human genes 0.000 description 1
- 101000713099 Homo sapiens C-C motif chemokine 20 Proteins 0.000 description 1
- 101000760620 Homo sapiens Cell adhesion molecule 1 Proteins 0.000 description 1
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 1
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000277269 Oncorhynchus masou Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明の実施形態は、案内システムに関する。 Embodiments of the present invention relate to a guidance system.
従来、複数種類の券から利用者が選択する券を発券する発券機がある。たとえば、鉄道の駅などには、複数種類の特急券又は座席指定券などの券から利用者又は係員の操作によって選択した券を発券する発券機が設置される。しかしながら、特急券や座席指定券は多様な種類があり、利用者がどのような券が購入できるかを全て知っているわけではないことが多い。このため、利用者は、最も希望に合った券を購入できていないことがある。このような場合、鉄道会社などの発券者側にとっても、利用者の好みに合った券を販売する機会を逸してしまうこととなる。また、利用者が購入可能な種々の券などについて個々に係員が案内する運用では、係員の業務負担が増えてしまうという問題もある。 Conventionally, there is a ticket issuing machine that issues a ticket selected by a user from a plurality of types of tickets. For example, at a railway station or the like, a ticket issuing machine is installed to issue a ticket selected by the operation of a user or a staff member from a plurality of types of limited express tickets or reserved-seat tickets. However, there are various types of limited express tickets and reserved-seat tickets, and users often do not know all about what kind of tickets can be purchased. For this reason, the user may not be able to purchase the ticket that best suits his / her wishes. In such a case, the ticket issuer side such as a railway company also misses the opportunity to sell the ticket that suits the user's taste. In addition, there is a problem that the work burden of the staff increases in the operation in which the staff individually guides various tickets that can be purchased by the user.
上記の課題を解決するために、利用者に対するサービスの向上と業務の低減を実現できる案内システムを提供することを目的とする。 In order to solve the above problems, the purpose is to provide a guidance system that can improve services and reduce operations for users.
実施形態によれば、案内システムは、ロボットと案内端末とを有し、発券機が発券する券に関する案内を行う。ロボットは、第1のインターフェースと音声出力部と、第1の制御部とを有する。第1のインターフェースは、案内端末と通信する。音声出力部は、案内端末から供給される音声情報に基づく音声を出力する。第1の制御部は、案内端末から受信する音声情報に基づく音声を前記音声出力部から出力する。案内端末は、第2のインターフェースと第3のインターフェースと表示器と第2の制御部とを有する。第2のインターフェースは、ロボットと通信する。第3のインターフェースは、発券機と通信する。表示器は、発券機で発券する券の購入を希望する利用者に対する案内を表示する。第2の制御部は、第3のインターフェースを介して発券機における操作内容を示す情報を取得し、発券機から取得する情報に応じた案内画面を表示器に表示し、案内画面に応じた音声案内の出力をロボットへ指示する。 According to the embodiment, the guidance system has a robot and a guidance terminal, and guides the ticket issued by the ticket issuing machine. The robot has a first interface, a voice output unit, and a first control unit. The first interface communicates with the guidance terminal. The voice output unit outputs voice based on the voice information supplied from the guidance terminal. The first control unit outputs a voice based on the voice information received from the guidance terminal from the voice output unit. The guidance terminal has a second interface, a third interface, a display, and a second control unit. The second interface communicates with the robot. The third interface communicates with the ticketing machine. The display displays a guide for a user who wishes to purchase a ticket issued by a ticket issuing machine. The second control unit acquires information indicating the operation content of the ticket issuing machine via the third interface, displays a guidance screen according to the information acquired from the ticket issuing machine on the display, and voices according to the guidance screen. Instruct the robot to output the guidance.
以下、実施形態について図面を参照して説明する。
本実施形態に係る案内システムは、発券機で券を購入する利用者に対して案内を提供するシステムである。実施形態では、案内システムは、利用者自身が操作する自動券売機あるいは係員が操作する係員端末としての券売機などの発券機で発券可能な特急券や座席指定券などの券について利用者に案内を提供するものとする。
Hereinafter, embodiments will be described with reference to the drawings.
The guidance system according to the present embodiment is a system that provides guidance to a user who purchases a ticket with a ticket issuing machine. In the embodiment, the guidance system guides the user about tickets such as limited express tickets and reserved-seat tickets that can be issued by a ticket vending machine such as an automatic ticket vending machine operated by the user himself or a ticket vending machine as a staff terminal operated by a staff member. Shall be provided.
ただし、案内システムは、特急券や座席指定券に関する案内を提供するものに限定されるものではなく、複数種類の選択肢から利用者が選択可能なものを案内するものであれば適用できる。たとえば、実施形態に係る案内システムは、映画館、劇場、ホテルなどの施設内や航空機、船舶などの乗り物内における座席や部屋などを利用者が選択するシステムに適用可能である。また、実施形態に係る案内システムは、宿泊施設、スポーツ施設あるいはレジャー施設などを複数の候補から利用者が選択するシステムにも適用可能である。 However, the guidance system is not limited to providing guidance regarding limited express tickets and reserved-seat tickets, and can be applied as long as it guides users to select from a plurality of types of options. For example, the guidance system according to the embodiment can be applied to a system in which a user selects a seat, a room, or the like in a facility such as a movie theater, a theater, or a hotel, or in a vehicle such as an aircraft or a ship. Further, the guidance system according to the embodiment can also be applied to a system in which a user selects an accommodation facility, a sports facility, a leisure facility, or the like from a plurality of candidates.
まず、実施形態に係る案内システムの構成例について説明する。
図1および図2は、実施形態に係る案内システムの構成例を示す図である。図1は、案内システムの第1の運用例(案内装置の第1の配置例)を示す図である。図2は、実施形態に係る案内システムの第2の運用例(案内装置の第2の配置例)を示す図である。
First, a configuration example of the guidance system according to the embodiment will be described.
1 and 2 are diagrams showing a configuration example of a guidance system according to an embodiment. FIG. 1 is a diagram showing a first operation example of a guidance system (a first arrangement example of a guidance device). FIG. 2 is a diagram showing a second operation example (second arrangement example of the guidance device) of the guidance system according to the embodiment.
図1又は図2に示す案内システムは、コミュニケーションロボット(以下、単にロボットと称する)1、案内端末2、発券機3、および、サーバ4を有する。ここで、ロボット1および案内端末2は、発券機3で発券する券を選択する利用者に対して案内を行う案内装置を構成する。以下に説明するロボット1および案内端末2の各構成は、どちらの装置に具備しても良い。すなわち、ロボット1は、以下に説明する案内端末2の構成の一部または全部を具備しても良いし、案内端末2が以下に説明するロボット1の構成の一部または全部を具備しても良い。
The guidance system shown in FIG. 1 or FIG. 2 includes a communication robot (hereinafter, simply referred to as a robot) 1, a
図1に示す第1の運用例において、発券機3は、利用者自身が操作する自動券売機であることを想定する。第1の運用例では、利用者が発券機3を直接操作するため、発券機3の近傍に案内装置としてのロボット1と案内端末2とが配置される。ただし、第1の運用例において、案内システムは、複数の発券機3に対して、1つのロボット1と案内端末2とが接続される構成としても良いし、複数の発券機3に対して複数のロボット1と1つの案内端末2とが接続される構成としても良い。
In the first operation example shown in FIG. 1, it is assumed that the
また、図2に示す第2の運用例において、発券機3は、利用者の申し出に応じて係員が操作する係員対応の発券機であることを想定する。図2に示す例では、係員が駐在する窓口内に発券機3が設置され、係員が利用者に対して接客対応を行うカウンタ(窓口カウンタ)に案内装置としてのロボット1と案内端末2とが配置される。すなわち、第2の運用例では、利用者の申し出に応じて係員が発券機3を操作するため、案内装置としてのロボット1と案内端末2とは、利用者に対して案内を行える位置にあれば良く、発券機3とは物理的に離れた位置に配置しても良い。
Further, in the second operation example shown in FIG. 2, it is assumed that the
ロボット1は、音声の入出力装置(音声装置)を有する。ロボット1は、利用者が親しみやすいような人または動物などを模した外観を有する。ロボット1は、利用者に対して音声による案内を出力する。ロボット1は、音声による人との疑似的なコミュニケーション(会話)を行う機能を有するものとしても良い。たとえば、ロボット1は、人が発する声(音声)を入力し、入力した音声に対する応答としての音声を出力する。また、ロボット1は、出力する音声を文字で表示する表示部などを具備しても良い。
The
また、ロボット1は、映像(画像)を撮影する機能を有する。ロボット1は、撮影する映像から人物に有無を検出する機能を有する。さらに、ロボット1は、撮影する映像から検出される人物の位置(顔の位置あるいは視線の位置)などに応じて姿勢などの動きを制御する機能も有する。本実施形態において、ロボット1は、人型の外観を有し、音声の入出力機能、映像の撮影機能および姿勢制御機能などを有する装置であるものとする。
Further, the
案内端末2は、案内画面を表示部に表示する情報処理装置である。本実施形態において、案内端末2は、ロボット1、発券機3およびサーバ4に接続されるコンピュータである。たとえば、案内端末2は、情報を表示する表示部を有するタブレット端末などのコンピュータで実現される。案内端末2は、ロボット1と発券機3とに接続されるとともに、LANなどのネットワークを介してサーバ4と通信する。
The
案内端末2は、発券機3からの情報(利用者又は係員による操作内容を示す情報、あるいは、発券機3が表示中の操作画面を示す情報)に応じた案内画面を表示する。さらに、案内端末2は、表示する案内画面に応じた音声案内(アナウンス)をロボット1に対して指示する。案内端末2は、ロボット1による人物の検出結果(利用者の有無)を示す情報を取得する。また、案内端末2は、ロボット1に入力された音声情報(利用者が入力する音声)をロボット1から取得する機能を有するものしても良い。
The
案内端末2は、サーバ4と通信することにより、サーバ4から提供される情報を取得したり、サーバ4へ処理を要求したりする機能を有する。たとえば、案内端末2は、発券機3からの情報に応じて表示部に表示する案内画面およびロボット1に指示する音声案内を示す情報(案内データ)をサーバ4から取得する。案内データは、案内端末2内のメモリに記憶するようにしても良い。また、案内端末2は、発券機3に対して券を発券する処理を要求するコマンドを送信する機能を有するものとしても良い。なお、後述するサーバ4の処理機能は、案内端末2が具備するようにしても良く、この場合、案内システムとしてはサーバ4を省略しても良い。
The
発券機3は、利用者または係員による操作に応じて発券処理を行う。たとえば、図1に示す第1の運用例では、発券機3は、利用者自身の操作によって特急券または指定券などを発券する特急券自動券売機などの自動券売機である。また、図2に示す第2の運用例では、発券機3は、係員が常駐する窓口内に設置され、係員の操作によって特急券または指定券を発券する係員対応の発券機である。発券機3は、利用者または係員が入力する操作内容を示す情報(操作情報)を案内端末2へ出力する。また、発券機3は、案内端末2からのコマンド(操作コマンド)に応じて処理を実行する機能を有するものであっても良い。
The
サーバ4は、データ処理を行う装置である。サーバ4は、複数のサーバ装置で構成しても良い。サーバ4は、案内端末2と通信接続する。また、サーバ4は、ロボット1と通信接続したり、ロボット1を介して案内端末2と通信接続したりしても良い。サーバ4は、案内端末2が表示する案内などのデータを適宜ダウンロードする。サーバ4は、案内端末2が実行するプログラムあるいはプログラムの更新用のデータなどを必要に応じてダウンロードするようにしても良い。また、サーバ4は、案内端末2から処理要求を受けて処理を実行し、その処理結果を案内端末2へ返信するようにしても良い。
The
次に、実施形態に係る案内システムにおける各装置の構成について説明する。
図3は、実施形態に係る案内システムのロボット1、案内端末2およびサーバ4における構成例を示すブロック図である。
まず、ロボット1の構成例について説明する。
図3に示す構成例において、ロボット1は、プロセッサ11、メモリ12、インターフェース(I/F)13、スピーカ14、マイク15、カメラ16、および、駆動部17などを有する。また、ロボット1は、ディスプレイあるいはLEDなどの表示装置やタッチパネルなどの操作部を有するものでも良い。
Next, the configuration of each device in the guidance system according to the embodiment will be described.
FIG. 3 is a block diagram showing a configuration example of the
First, a configuration example of the
In the configuration example shown in FIG. 3, the
プロセッサ11は、ロボット1の制御を司る。プロセッサ11は、プログラムを実行することにより各部の制御およびデータ処理などを行う。プロセッサ11は、たとえば、CPUである。メモリ12は、RAM、ROM、及び、書換え可能な不揮発性メモリ(例えば、EEPORM、FROM等)などを含む。プロセッサ11は、メモリ12が記憶するプログラムを実行することにより種々の機能を実現する。たとえば、プロセッサ11は、ロボット1内の各部に接続され、ロボット1内の各部を制御する。また、プロセッサ11は、カメラ16が撮影する映像から人物の有無を検出する処理、スピーカ14が出力する音声の制御などを行う。また、プロセッサ11は、マイク15で入力する音声を認識する処理を行うようにしても良い。
The processor 11 controls the
I/F13は、案内端末2と通信するためのインターフェースである。I/F13は、無線通信により案内端末2と通信接続するものであっても良いし、通信ケーブルを介して案内端末2と通信接続するものであっても良い。
The I /
スピーカ14は、音を出力する音声出力器である。スピーカ14は、人物に対する音声案内を出力する。たとえば、スピーカ14は、ロボット1の正面にいる人物が聞き取れる音声を出力する。
The
マイク15は、音声を入力する音声入力器である。マイク15は、人物が発する声を集音できるように構成する。たとえば、マイク15は、ロボット1の正面にいる人物が発する声を集音できるものとする。また、マイク15は、後述する処理によってカメラ16が撮影する映像から検出される人物が発する声を限定的に入力できるように指向性が設定されるものであっても良い。なお、ロボット1では利用者による音声入力を受付けないようにする場合、マイク15は省略しても良い。
The
カメラ16は、映像を撮影する撮影装置である。カメラ16は、ロボット1(又は、案内端末2、発券機3)の正面における所定の領域を人物の検出範囲として上記所定の領域を含む撮影領域の映像を撮影する。また、カメラ16は、マイク15およびスピーカ14を用いて人物との会話(音声の入出力)ができる範囲を含む撮影領域の映像を撮影するようにしても良い。また、カメラ16は、撮影領域を広く設定し、ロボット1(又は、案内端末2、発券機3)の正面に存在する利用者と共に当該利用者の周囲に居る人物(同行者など)も撮影できるようにしても良い。
The
駆動部17は、ロボット1の一部または全部を動かす機構である。駆動部17は、ロボット1の姿勢(向きまたは動き)を変える。また、駆動部17は、ロボット1における特定の部位を移動させるものであっても良いし、カメラ16の向きを移動させるものであっても良い。たとえば、駆動部17は、カメラ16の撮影方向にいる人物の顔の正面にロボットの外観における人の顔を模した部位(ロボットの顔と称する)が位置するように、当該ロボット1の姿勢を動作させる。また、ロボット1の外観における人物の目を模した部位(ロボット1の目と称する)にカメラ16を設置する場合、駆動部17は、カメラ16の撮影方向にいる人物の視線と当該ロボットの目とが¥合うように、当該ロボット1の姿勢を動作させるようにしても良い。
The
次に、案内端末2の構成例について説明する。
図3に示す構成例において、案内端末2は、プロセッサ21、メモリ22、インターフェース(I/F)23、インターフェース(I/F)24、通信部25、表示部26、および、操作部27などを有する。案内端末2は、ロボット1に向かって話しかける人物が表示部26および操作部27を視認できるように配置される。また、案内端末2は、ロボット1と一体的に構成しても良い。たとえば、案内端末2は、ロボット1に取り付けても良いし、ロボット1が持つように配置しても良い。
Next, a configuration example of the
In the configuration example shown in FIG. 3, the
プロセッサ21は、案内端末2の制御を司る。プロセッサ21は、プログラムを実行することにより各部の制御およびデータ処理などを行う。プロセッサ21は、たとえば、CPUである。メモリ22は、RAM、ROM、及び、書換え可能な不揮発性メモリ(例えば、EEPORM、FROM等)などを含む。プロセッサ21は、メモリ22が記憶するプログラムを実行することにより後述する種々の機能を実現する。また、メモリ22は、表示部26に表示する案内画面およびロボット1に出力を指示する音声案内などを示す案内データを記憶するようにしても良い。
The
I/F23は、ロボット1と通信するためのインターフェースである。I/F23は、無線通信によりロボット1と通信接続するものであっても良いし、通信ケーブルを介してロボット1と通信接続するものであっても良い。なお、I/F23は、音声入出力装置としてのロボット1と通信するユニットであるため、音声を入力する音声入力部および音声を出力する音声出力部として機能するものでもある。
The I /
I/F24は、発券機3と通信するためのインターフェースである。I/F24は、通信ケーブルを介して発券機3と通信接続するものであっても良いし、無線通信により発券機3と通信接続するものであっても良い。
通信部25は、サーバ4と通信するための通信インターフェースである。たとえば、通信部25は、ネットワークインターフェースである。通信部25は、サーバ4と無線通信するものであっても良いし、通信ケーブルを介してサーバ4と通信するものであっても良い。
The I /
The
表示部26は、情報を表示する表示装置である。表示部26は、発券機3への操作に応じた後述する案内画面を表示する。操作部27は、利用者が情報を入力するための操作装置である。たとえば、表示部26および操作部27は、タッチパネル付きのディスプレイ装置により構成される。なお、案内端末2では利用者による操作を受付けないようにする場合、操作部27は省略しても良い。
The
次に、サーバ4の構成例について説明する。
図3に示す構成例において、サーバ4は、プロセッサ41、メモリ42、通信部43、および、記憶装置44などを有する。
プロセッサ41は、サーバ4の制御を司る。プロセッサ41は、プログラムを実行することにより各部の制御およびデータ処理などを行う。プロセッサ41は、たとえば、CPUである。メモリ42は、RAM、ROM、及び、書換え可能な不揮発性メモリ(例えば、EEPORM、FROM等)などを含む。プロセッサ41は、メモリ42が記憶するプログラムを実行することにより種々の機能を実現する。
Next, a configuration example of the
In the configuration example shown in FIG. 3, the
The processor 41 controls the
通信部43は、案内端末2と通信するための通信ユニットである。たとえば、通信部43は、ネットワークインターフェースである。通信部43は、案内端末2と無線通信するものであっても良いし、通信ケーブルを介して案内端末2と通信するものであっても良い。なお、通信部43は、ロボット1と通信するようにしても良い。
The
記憶装置44は、各種のデータを記憶する。記憶装置44は、HDDあるいはSSDなどの書換え可能な大容量のメモリにより構成される。記憶装置44は、案内端末2に表示させる案内画面、および、ロボット1に音声出力させる音声案内などを示す情報としての案内データを記憶する。たとえば、記憶装置44は、発券機3における操作内容に応じた案内内容を示す案内データを記憶する。また、記憶装置44は、案内端末2に動画で表示する案内画面としての動画データを記憶しても良い。また、記憶装置44は、多言語で音声案内を行うための多言語の音声データを記憶しても良い。
The
次に、実施形態に係る案内システムが提供する案内の例について説明する。
図4乃至7は、案内システムにおける案内装置としての案内端末2とロボット1とが提供する案内の例を示す図である。
図4は、ロボット1が利用者を検出した場合(利用者が接近してきた場合)における案内(初期案内)の例を示す図である。
図4に示す例において、ロボット1は、利用者を検出すると、初期応答メッセージとして「いらっしゃいませ。本特急券券売機では、スタンダードシートの他に、デラックスシートや観光列車の特急指定席が購入できます。」という音声を出力する。また、案内端末2は、ロボット1から利用者を検出した旨の通知を受けると、初期の案内画面として「購入可能な特急列車のご案内」というメッセージとともに、購入可能な特急列車の画像と各特急列車で指定可能な座席の画像とを表示部26に表示する。
Next, an example of guidance provided by the guidance system according to the embodiment will be described.
4 to 7 are diagrams showing an example of guidance provided by the
FIG. 4 is a diagram showing an example of guidance (initial guidance) when the
In the example shown in FIG. 4, when the
図5は、発券機3において特急列車および指定席を選択する画面(特急券の選択画面)に遷移した場合における案内の例を示す図である。
図5に示す例において、発券機3では、利用者又は係員の操作によって特急列車および指定席を選択する特急券の選択画面への遷移することが指示されたものとする。たとえば、発券機3では、待機状態でメインメニューを表示し、待機状態において特急券および指定券の購入という選択ボタンが指示されると、特急券の選択画面へ遷移する。この場合、発券機3は、特急券の選択画面への遷移が指示されたことを操作情報として案内端末2へ通知する。
FIG. 5 is a diagram showing an example of guidance when the
In the example shown in FIG. 5, it is assumed that the
案内端末2は、発券機3からの特急券の選択画面に遷移した旨の通知に応じて、表示部26に表示する案内画面を更新すると共に、音声で出力する音声案内をロボット1へ指示する。図5に示す例では、案内端末2は、発券機3からの特急券の選択画面に遷移した旨の通知を受けると、「おススメシート ※別途料金がかかる場合があります」というメッセージとともに、購入可能な特急列車の画像と各特急列車で指定可能な座席の画像とを表示部26に表示する。また、ロボット1は、図5の案内画面を表示する案内端末2からの指示に応じて、「特急○○はプレミアムシート(810円追加)がおススメです。サロンシート(1030円)や和風個室(1230円)もあります。」という音声による案内をスピーカ14から出力する。
The
図6は、発券機3において特定の指定席(座席の種類)を選択した場合における案内の例を示す図である。
図6に示す例において、発券機3では、利用者又は係員の操作によって特定の指定席として列車Aの「サロンシート」が選択されたものとする。たとえば、発券機3では、図5に示すような特急券の選択画面を表示した状態において特急列車および指定席(座席の種類)を選択するボタンが指示されると、選択された列車および座席の種類を示す情報を特急券の選択画面へ遷移するものとする。この場合、発券機3は、列車Aのサロンシートが選択されたことを示す操作情報を案内端末2へ通知する。
FIG. 6 is a diagram showing an example of guidance when a specific reserved seat (seat type) is selected in the
In the example shown in FIG. 6, in the
案内端末2は、発券機3から列車Aのサロンシートが選択された旨の通知に応じて、案内画面を更新する。図6に示す例では、案内端末2は、「サロンシート ※別途1030円いただきます。」というメッセージとともに、サロンシートの画像を表示部26に表示する。また、ロボット1は、図6の案内画面を表示する案内端末2からの指示に応じて、「サロンシートは、窓に向かってL字型ソファとテーブルを配置し、リビングのようにゆったりとお過ごしいただけます。追加料金は1030円です。」という音声による案内をスピーカ14から出力する。
The
図7は、発券機3においてシートマップから座席(座席の位置)を選択した場合における案内の例を示す図である。
図7に示す例において、発券機3では、発券機3の表示画面に表示するシートマップにおいて利用者が選択した座席の位置を利用者又は係員が指示するものとする。たとえば、発券機3では、列車と座席の種類とが選択された後に座席の位置を選択するためのシートマップを表示し、シートマップにおいて座席の位置が選択できるものとする。この場合、発券機3は、シートマップにおいて利用者の選択によって指示された座席の位置を示す操作情報を案内端末2へ通知する。
FIG. 7 is a diagram showing an example of guidance when a seat (seat position) is selected from the seat map in the
In the example shown in FIG. 7, in the
案内端末2は、発券機3から座席の位置を示す操作情報を受信すると、選択された座席の位置に応じた案内としての案内画面を表示部26に更新する。図7に示す例では、案内端末2は、「○号車:1A、1B、2Aを選択中(選択中の座席を示す情報)」、「1A/2A席は、途中、○○駅手前で右側に富士山が見えます。(選択中の座席からの景観を示す情報)」、「○号車の設備:窓側に電源コンセントあり、前方に喫煙スペースあり、後方にトイレあり(選択中の座席(車両)における設備を示す情報)」などのメッセージを表示すると共に、当該座席における車窓から見られる景観の例を示す画像を表示部26に表示する。
When the
また、ロボット1は、図7の案内画面を表示する案内端末2からの指示に応じて、「こちらのシートでは、○○駅手前にて富士山が見えます。」という車窓からの景観等に関する案内、および、「○号車は窓側に電源コンセント、前方に喫煙スペース、後方にトイレあり」というような設備に関する案内などを音声でスピーカ14から出力する。
In addition, the
なお、案内端末2が表示する案内画面とロボット1が音声出力する音声案内とは、図4乃至7に示すものに限定するものではなく、様々な案内が可能である。たとえば、発券機3で複数人での券の購入が指示された場合、案内端末2は、複数人用の案内を含む案内画面を表示するようにしても良い。また、案内端末2は、一部に広告などを含む案内画面を表示しても良いし、案内画面の一部又は全部を動画で案内を表示しても良い。さらに、案内端末2は、子供連れの利用者に対しては子供連れ向けの案内を含む案内画面を表示しても良い。また、案内端末2は、外国人旅行者などの大きな荷物を持つ利用者に対して荷物置き場を考慮した案内を含む案内画面を表示するようにしても良い。
The guidance screen displayed by the
次に、上記のように構成される案内システムの動作について説明する。
本実施形態に係る案内システムは、案内端末2およびロボット1を用いて、発券機3における操作内容に応じて案内を行う。たとえば、案内端末2は、サーバ4と連携して、発券機3への操作入力に応じて案内画面を表示し、案内画面に応じた音声案内(アナウンス)をロボット1から音声出力させる。
Next, the operation of the guidance system configured as described above will be described.
The guidance system according to the present embodiment uses the
さらに、案内端末2は、ロボット1に音声で入力された情報、あるいは、操作部27に入力される情報に基づいて、発券機3に対して操作指示(操作コマンド)を出力するようにしても良い。さらに、案内システムは、ロボット1が利用者と会話形式で音声の入出力を行い、利用者に対して各種の案内を行うようにしても良い。この場合、案内端末2は、サーバ4と連携して、ロボット1に音声入力された情報に対する音声による応答をロボット1へ返す。
Further, the
本実施形態では、上述したように構成される案内システムにおける第1の動作例と第2の動作例とについて説明する。第1の動作例は、発券機3への操作入力などに応じて案内端末2が案内画面を表示し、案内画面に応じた音声案内(アナウンス)をロボット1が音声案内を出力する。また、第2の動作例は、案内端末2での案内表示およびロボット1での音声案内に加えて、ロボット1から音声入力する情報あるいは案内端末2の操作部で入力される情報により発券機3に対して操作コマンドを出力するものとする。
In this embodiment, the first operation example and the second operation example in the guidance system configured as described above will be described. In the first operation example, the
次に、実施形態に係る案内システムにおける第1の動作例について説明する。
図8は、ロボット1における第1の動作例を説明するためのフローチャートである。 ロボット1のプロセッサ11は、カメラ16により所定の撮影範囲の映像を撮影する(ST11)。プロセッサ11は、カメラ16により所定の撮影範囲の映像を撮影するともに、所定の領域において人物を検出する(ST12)。たとえば、プロセッサ11は、所定の周期ごとにカメラ16が撮影する画像を取得し、取得した画像においてロボット1または、案内端末2、発券機3に対峙する人物の画像が含まれるかを判定する。なお、ロボット1は、所定の領域において人物を検出する人間検知センサを設け、人間検知センサの検知信号に基づいて人物を検出するようにしても良い。
Next, a first operation example in the guidance system according to the embodiment will be described.
FIG. 8 is a flowchart for explaining a first operation example in the
カメラ16が撮影した映像から所定の領域に人物が存在することを検出すると(ST12、YES)、プロセッサ11は、人物を検出したことを案内端末2に通知する(ST13)。人物を検出したことを通知した後、プロセッサ11は、案内端末2からの音声案内の出力指示(音声出力情報)を受付ける。
When it detects that a person exists in a predetermined area from the image captured by the camera 16 (ST12, YES), the processor 11 notifies the
また、所定の領域に人物が存在することを検出すると、プロセッサ11は、カメラ16が撮影する映像から検出した人物の状態に応じて姿勢を制御する(ST14)。たとえば、プロセッサ11は、カメラ16が撮影する映像において当該人物の顔の位置を検出し、検出した人物の顔の位置に応じてロボット1の姿勢を制御する。プロセッサ11は、当該人物を検出した画像から当該人物の顔画像を検出し、検出した顔画像の位置によって当該人物の顔の位置を検出する。また、プロセッサ11は、当該人物の顔の正面にロボット1の目に相当する部位(ロボット1における人物の目を模した部位)が一致するようにロボット1の姿勢を制御する。
Further, when it is detected that a person is present in a predetermined area, the processor 11 controls the posture according to the state of the person detected from the image captured by the camera 16 (ST14). For example, the processor 11 detects the position of the face of the person in the image captured by the
なお、プロセッサ11は、人物の顔の位置に代えて、人物の視線を検出するようにしても良い。たとえば、プロセッサ11は、当該人物を検出した画像から当該人物の目の画像を検出し、検出した目の画像から当該人物の視線を検出する。人物の視線を検出する場合、プロセッサ11は、人物の視線に応じてロボット1の姿勢を制御すればよい。
The processor 11 may detect the line of sight of the person instead of the position of the face of the person. For example, the processor 11 detects the image of the eyes of the person from the image of the person detected, and detects the line of sight of the person from the image of the detected eyes. When detecting the line of sight of a person, the processor 11 may control the posture of the
カメラ16が撮影する映像から検出した人物に応じて姿勢を制御すると、プロセッサ11は、予め設定してある音声による初期応答メッセージをスピーカ14から出力する(ST15)。ここで、初期応答メッセージはメモリ12に記憶しているものとし、プロセッサ11は、メモリ12に記憶している初期応答メッセージの音声案内をスピーカ14から出力する。図4に示す例では、ロボット1は、「いらっしゃいませ。本特急券券売機では、スタンダードシートの他に、デラックスシートや観光列車の特急指定席が購入できます。」という初期応答メッセージを音声で出力する。
When the posture is controlled according to the person detected from the image captured by the
なお、プロセッサ11は、初期設定されている言語で初期応答メッセージを音声で出力するが、利用者の使用言語が推定できる場合、初期応答メッセージを推定した利用者の使用言語で出力するようにしても良い。たとえば、利用者が使用する言語は、人物として検出される前後においてマイク15から入力する音声から当該ロボット1の周囲で会話する人物の声を検出し、検出した人物の声から使用されている言語を推定するようにしても良い。また、プロセッサ11は、カメラ16が撮影する映像から当該利用者が使用する言語を推定するようにしても良い。たとえば、カメラ16が撮影する映像に映った当該人物の所有物から使用する言語を推定しても良い。
The processor 11 outputs the initial response message by voice in the default language, but if the language used by the user can be estimated, the processor 11 outputs the initial response message in the estimated language used by the user. Is also good. For example, the language used by the user is a language used by detecting the voice of a person talking around the
また、案内端末2から音声出力情報を受けた場合(ST16、YES)、プロセッサ11は、受信した音声出力情報に基づく音声案内(案内端末2での案内表示に応じたアナウンス)をスピーカ14により出力する(ST17)。ここで、プロセッサ11は、音声出力情報に基づくアナウンスを初期設定の言語で音声出力する。なお、案内端末2は、入力音声から人物が話す言語を特定し、当該人物(利用者)が話す言語でアナウンスを出力するような音声出力情報をロボット1へ送信するようにしても良い。この場合、プロセッサ11は、案内端末2からの音声出力情報に基づいて指定された言語でアナウンスを音声出力する。
When voice output information is received from the guidance terminal 2 (ST16, YES), the processor 11 outputs voice guidance (announcement according to the guidance display on the guidance terminal 2) based on the received voice output information by the
また、プロセッサ11は、カメラ16が撮影した映像から検出した人物とのコミュニケーションを継続的に行うため、当該人物を追跡する(ST18)。たとえば、プロセッサ11は、ST12で特定の人物を検出した後も、継続してカメラ16が撮影する映像から当該人物を検出し、ST13-14で説明したような当該人物の状態に応じたロボット1の姿勢制御を行う。このような人物を追跡する制御によって、ロボット1は、特定の人物に対して継続的に案内を提供できる。
Further, the processor 11 continuously tracks the person in order to continuously communicate with the person detected from the image captured by the camera 16 (ST18). For example, even after the processor 11 detects a specific person in ST12, the processor 11 continuously detects the person from the image taken by the
すなわち、ロボット1のプロセッサ11は、ST12で検出した人物を追跡して継続的に当該人物に対する音声案内を提供する。当該人物が追跡中である間、つまり、利用者が所定の領域に存在する間(ST19、NO)、プロセッサ11は、ST16-18の処理によって案内端末2からの指示に応じた音声案内を行う。人物が追跡不能となった場合(人物が所定の領域から居なくなった場合)、あるいは、案内端末2から案内終了の指示を受けた場合、プロセッサ11は、当該人物に対する案内を終了する。人物に対する案内が終了すると(ST19、YES)、プロセッサ11は、ST11へ戻り、次の人物に対する対応を行う。
That is, the processor 11 of the
なお、ロボット1のプロセッサ11は、スピーカ14から音声出力するアナウンスの内容に応じてロボット1の姿勢や動きを制御するようにしても良い。たとえば、プロセッサ11は、音声案内に応じて案内端末2が表示する案内画面を指し示すような動作を行うようにしても良い。また、プロセッサ11は、音声の入出力に応じてLEDなどの表示器を点灯させるようにしても良い。
The processor 11 of the
次に、案内端末2における第1の動作例について説明する。
図9は、案内端末2における第1の動作例を説明するためのフローチャートである。 案内端末2のプロセッサ21は、通常動作状態において、I/F(第2のインターフェース)23を介してロボット1と通信可能な状態となっている。ロボット1から人物を検出した旨の通知を受信すると(ST31、YES)、プロセッサ21は、初期案内画面を表示部26に表示する(ST32)。ここで、初期案内画面はメモリ22に記憶しているものとし、プロセッサ21は、メモリ22に記憶している初期案内画面を表示部26に表示する。たとえば、図4に示す例では、案内端末2は、「購入可能な特急列車のご案内」というメッセージとともに、購入可能な特急列車の画像と各特急列車で指定可能な座席の画像とを表示部26に表示する。なお、案内端末2は、初期案内画面や待機中の画面において宣伝などを表示しても良い。
Next, a first operation example in the
FIG. 9 is a flowchart for explaining a first operation example in the
初期案内画面を表示した後、プロセッサ21は、発券機3において利用者又は係員が入力した操作内容を示す情報(操作情報)を受付ける(ST33)。発券機3から操作情報を受信した場合(ST33、YES)、プロセッサ21は、操作情報が示す操作内容に応じて表示部26が表示する案内画面などの案内内容を更新するか否かを判断する(ST34)。
After displaying the initial guidance screen, the
たとえば、発券機3に特急券の選択画面を表示させる操作を示す操作情報を受信した場合、プロセッサ21は、表示部26が表示する案内画面を発券機3が特急券の選択画面を表示した場合の案内画面(たとえば、図5に示す案内画面)に更新すると判断する。また、発券機3において特定の券類(たとえば座席の種類)が選択されたことを示す操作情報を受信した場合、プロセッサ21は、表示部26が表示する案内画面を発券機3における選択内容に応じた案内画面(たとえば、図6に示す案内画面)に更新すると判断する。また、発券機3が表示するシートマップにおいて特定の座席が選択されたことを示す操作情報を受信した場合、プロセッサ21は、表示部26が表示する案内画面を選択された座席に応じた案内画面(たとえば、図7に示す案内画面)に更新すると判断する。
For example, when the
案内内容を更新すると判断した場合(ST34、YES)、プロセッサ21は、更新する案内内容を示す案内データをサーバ4から取得するか否かを判断する(ST35)。サーバ4から案内データを取得すると判断した場合(ST35、YES)、プロセッサ21は、サーバ4に対して案内データを要求し、サーバ4から案内データを取得する(ST36)。また、更新する案内内容を示す案内データがメモリ22に保存されている場合(ST35、NO)、プロセッサは、サーバ4へアクセスすることなく、案内データをメモリ22から読み出す(ST36)。
When it is determined that the guidance content is to be updated (ST34, YES), the
案内内容を示す案内データを取得すると、プロセッサ21は、取得した案内データに基づいて表示部26に表示する案内画面を更新する(ST37)。すなわち、プロセッサ21は、取得した案内データに基づく案内画面を表示部26に表示する。さらに、プロセッサ21は、案内データに基づいてロボット1から出力すべき音声案内を決定する。ロボット1から出力すべき音声案内を決定すると、プロセッサ21は、音声案内をロボット1から出力させるために、音声案内の内容を示す出力音声情報をロボット1へ送信する(ST38)。
When the guidance data indicating the guidance content is acquired, the
また、プロセッサ21は、上述の処理によって継続的に案内を行うとともに、個々の利用者に対する一連の案内を終了するか否かを判断する(ST39)。たとえば、プロセッサ21は、発券機3から一連の発券処理が終了する旨の通知を受けた場合、あるいは、ロボット1から当該人物の追跡を終了した旨の通知を受けた場合、一連の案内を終了するものと判断する。案内終了と判断するまで(ST39、NO)、プロセッサ21は、上記ST33-38の処理を繰り返し実行することにより、各利用者に対する案内を行う。
In addition, the
以上のような第1の動作例によれば、発券機での操作に応じて案内端末とロボットとを用いて発券可能な複数種類の券などに関する案内を行う。すなわち、第1の動作例は、案内端末とロボットとが発券機における操作に応じた案内を行うものである。このため、第1の動作例としての案内システムは、発券機における操作内容を示す情報を案内装置(案内端末)が取得できるようにするだけで、既存の発券機での操作に応じた案内を利用者に提供できる。これにより、案内装置および案内システムは、利用者に発券可能な各種の券に関する分かりやすく詳細な案内を提供でき、その結果として、利用者に対するサービス向上と係員の業務負担の軽減を実現できる。 According to the first operation example as described above, guidance regarding a plurality of types of tickets that can be issued by using the guidance terminal and the robot is performed according to the operation of the ticket issuing machine. That is, in the first operation example, the guidance terminal and the robot provide guidance according to the operation in the ticket issuing machine. For this reason, the guidance system as the first operation example only enables the guidance device (guidance terminal) to acquire information indicating the operation content of the ticket issuing machine, and provides guidance according to the operation of the existing ticket issuing machine. Can be provided to users. As a result, the guidance device and the guidance system can provide the user with easy-to-understand and detailed guidance regarding various tickets that can be issued, and as a result, it is possible to improve the service for the user and reduce the work burden on the staff.
次に、実施形態に係る案内システムにおける第2の動作例について説明する。
図10は、実施形態に係るロボット1における第2の動作例を説明するためのフローチャートである。
ロボット1のプロセッサ11は、カメラ16により所定の撮影範囲の映像を撮影し(ST51)、所定の領域において人物を検出する(ST52)。所定の領域に人物が存在することを検出すると(ST52、YES)、プロセッサ11は、人物を検出したことを案内端末2に通知する(ST53)。
Next, a second operation example in the guidance system according to the embodiment will be described.
FIG. 10 is a flowchart for explaining a second operation example in the
The processor 11 of the
また、所定の領域に人物が存在することを検出すると、プロセッサ11は、カメラ16が撮影する映像から検出した人物の状態に応じて姿勢を制御し(ST54)、音声による初期応答メッセージをスピーカ14から出力する(ST55)。初期応答メッセージを出力した後、プロセッサ11は、マイク15による音声入力と案内端末2からの音声案内の出力指示(音声出力情報)とを受付ける。
Further, when it is detected that a person is present in a predetermined area, the processor 11 controls the posture according to the state of the person detected from the image captured by the camera 16 (ST54), and sends an initial response message by voice to the
マイク15によって利用者が発する音声を入力した場合(ST56、YES)、プロセッサ11は、入力した音声情報を案内端末2へ出力する(ST58)。なお、プロセッサ11は、入力した音声を認識(言語および発声内容の認識)し、認識結果を案内端末2へ出力するようにしても良い。
When the voice emitted by the user is input by the microphone 15 (ST56, YES), the processor 11 outputs the input voice information to the guidance terminal 2 (ST58). The processor 11 may recognize the input voice (recognize the language and the utterance content) and output the recognition result to the
また、案内端末2から音声出力情報を受信した場合(ST58、YES)、プロセッサ11は、取得した音声出力情報に基づく音声案内(案内端末2での案内画面に応じたアナウンス)をスピーカ14により出力する(ST59)。
When voice output information is received from the guidance terminal 2 (ST58, YES), the processor 11 outputs voice guidance (announcement according to the guidance screen on the guidance terminal 2) based on the acquired voice output information by the
ロボット1のプロセッサ11は、カメラ16が撮影した映像から検出した人物とのコミュニケーションを継続的に行うため、一旦検出した人物の追跡を行う(ST60)。これにより、プロセッサ11は、ST52で検出した人物を追跡して継続的に当該人物に対する音声案内を提供する。当該人物が追跡中である間、つまり、利用者が所定の領域に存在する間(ST61、NO)、プロセッサ11は、ST56-60の処理によって、入力音声の案内端末2への出力と案内端末2からの指示に応じた音声案内とを行う。人物が追跡不能となった場合(人物が所定の領域から居なくなった場合)、あるいは、案内端末2から案内終了の指示を受けた場合、プロセッサ11は、当該人物に対する案内を終了する。ある人物に対する案内が終了すると(ST61、YES)、プロセッサ11は、ST51へ戻り、次の人物に対する対応を行う。
The processor 11 of the
次に、案内端末2における第2の動作例について説明する。
図11は、実施形態に係る案内端末2における第2の動作例を説明するためのフローチャートである。
案内端末2のプロセッサ21は、通常動作状態において、I/F(第2のインターフェース)23を介してロボット1と通信可能な状態となっている。ロボット1からの人物を検出した旨の通知を受信すると(ST71、YES)、プロセッサ21は、初期案内画面を表示部26に表示する(ST72)。初期案内画面を表示した後、プロセッサ21は、発券機3からの操作情報、ロボット1からの入力音声情報、および、操作部27における入力指示を受付ける。
Next, a second operation example in the
FIG. 11 is a flowchart for explaining a second operation example in the
The
発券機3から利用者又は係員が入力した操作内容を示す情報(操作情報)を受信した場合(ST73、YES)、プロセッサ21は、操作情報が示す操作内容に応じて案内内容を更新するか否かを判断する(ST74)。案内内容を更新すると判断した場合(ST74、YES)、プロセッサ21は、更新する案内内容を示す案内データをサーバ4から取得するか否かを判断する(ST75)。
When receiving information (operation information) indicating the operation content input by the user or the staff from the ticket issuing machine 3 (ST73, YES), whether or not the
サーバ4から案内データを取得すると判断した場合(ST75、YES)、プロセッサ21は、サーバ4に対して案内データを要求し、サーバ4から案内データを取得する(ST76)。また、更新する案内内容を示す案内データがメモリ22に保存されている場合(ST75、NO)、プロセッサは、サーバ4へアクセスすることなく、案内データをメモリ22から読み出す(ST76)。
When it is determined that the guidance data is to be acquired from the server 4 (ST75, YES), the
案内内容を示す案内データを取得すると、プロセッサ21は、取得した案内データに基づいて表示部26に表示する案内画面を更新し(ST77)、ロボット1から出力すべき音声案内を示す出力音声情報をロボット1へ送信する(ST78)。
When the guidance data indicating the guidance content is acquired, the
また、ロボット1から入力音声情報を受信した場合(ST80、YES)、プロセッサ21は、受信した入力音声情報に対する認識処理を実行する(ST81)。たとえば、プロセッサ21は、入力音声情報から利用者が言語および発声した内容などを認識する。
Further, when the input voice information is received from the robot 1 (ST80, YES), the
第2の動作例では、利用者からの音声入力による発券機3に対する操作指示(たとえば、音声による座席の選択など)を受付けるものとする。このため、プロセッサ21は、入力音声情報に基づいて入力音声を認識し、入力音声に発券機3に対する操作指示が含まれるかを判断する(ST82)。操作指示が含まれると判断した場合(ST82、YES)、プロセッサ21は、入力音声から認識した操作指示を示す操作コマンドを発券機3へ送信する(ST83)。
In the second operation example, it is assumed that an operation instruction (for example, selection of a seat by voice) to the
たとえば、利用者がロボット1の前で選択する「列車」と「座席の種類」とを発声した場合、ロボット1が利用者の発した音を入力音声情報として案内端末2へ出力する。案内端末2は、入力音声情報に対する音声認識の結果から「列車」と「座席の種類」とを選択する操作指示を特定し、利用者が声で選択した「列車」と「座席の種類」とを示す情報を操作コマンドと共に発券機3へ供給する。これにより、発券機3は、利用者がロボット1に話しかけることで指定(選択)した操作指示も受けることができる。
For example, when the user utters a "train" and a "seat type" selected in front of the
入力音声情報に対して音声認識を実行した場合、さらに、プロセッサ21は、入力音声の認識結果に基づいて案内内容を更新するか否かも判断する(ST74)。発券機3の案内内容を更新すると判断した場合(ST74、YES)、プロセッサ21は、案内データをサーバ4またはメモリ22から取得し、案内表示の更新と音声案内の指示とを実行する(ST75-78)。
When voice recognition is executed for the input voice information, the
また、当該案内端末2の操作部27によって利用者が情報を入力した場合(ST84、YES)、プロセッサ21は、操作部27で入力された情報から操作指示の内容を特定し、発券機3へ指示すべき操作指示(たとえば、列車や座席の選択など)があるか否かを判断する(ST82)。たとえば、発券機3へ指示すべき操作指示が含まれると判断した場合(ST82、YES)、プロセッサ21は、操作指示を示す操作コマンドを発券機3へ送信する(ST83)。
Further, when the user inputs information by the
操作部27によって情報が入力された場合、さらに、プロセッサ21は、入力された情報(指示内容)に基づいて案内内容を更新するか否かも判断する(ST74)。発券機3の案内内容を更新すると判断した場合(ST74、YES)、プロセッサ21は、案内データをサーバ4またはメモリ22から取得し、案内表示の更新と音声案内の指示とを実行する(ST75-78)。
When the information is input by the
案内端末2は、上述の処理によって継続的に案内を行うとともに、個々の利用者に対する一連の案内を終了するか否かをプロセッサ21により判断する。たとえば、発券機3から一連の発券処理が終了する旨の通知を受けた場合、あるいは、ロボット1から当該人物の追跡を終了した旨の通知を受けた場合、プロセッサ21は、一連の案内を終了するものとする。案内終了と判断するまで(ST79、NO)、プロセッサ21は、上記ST73-78、80-84の処理を繰り返し実行することにより、各利用者に対する案内を行う。案内終了を判断すると(ST79、YES)、プロセッサ21は、当該利用者に対する一連の案内を終了し、ST71へ戻る。
The
以上のような第2の動作例によれば、発券機での操作に応じて案内端末とロボットとが発券可能な複数種類の券などに関する案内を行うと共に、ロボット1に入力された音声による操作指示又は案内端末2の操作部に入力された操作指示に基づく操作コマンドを発券機へ出力できる。第2の動作例は、発券機における利用者または係員による操作内容に応じた案内だけでなく、ロボットまたは案内端末に入力された操作指示を発券機に対して操作コマンドとして供給する処理を行う。このため、第2の動作例に係る案内システムでは、発券機には案内端末と双方向の通信を行う機能と案内端末からの操作コマンドに応じた処理機能とを具備するものとする。
According to the second operation example as described above, the guidance terminal and the robot provide guidance on a plurality of types of tickets that can be issued according to the operation of the ticket issuing machine, and the operation by the voice input to the
これにより、実施形態に係る案内システムは、利用者に発券可能な各種の券に関する分かりやすく詳細な案内を提供できるとともに、案内端末やロボットでの操作指示による発券処理の制御を実現できる。この結果として、案内装置および案内システムは、利用者に対するサービス向上と係員の業務負担の軽減を実現できる。 As a result, the guidance system according to the embodiment can provide the user with easy-to-understand and detailed guidance regarding various tickets that can be issued, and can also realize control of ticketing processing by an operation instruction by a guidance terminal or a robot. As a result, the guidance device and the guidance system can improve the service for the user and reduce the work load of the staff.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
1…コミュニケーションロボット(ロボット、音声装置)、2…案内端末、3…発券機、4…サーバ、11…プロセッサ(制御部、第2の制御部)、13…インターフェース(第1のインターフェース)、14…スピーカ(音声出力部)、15…マイク(音声入力部)、16…カメラ、17…駆動部、21…プロセッサ(制御部、第1の制御部)、22…メモリ、23…インターフェース(第2のインターフェース)、24…インターフェース(第3のインターフェース)、25…通信部、26…表示部、27…操作部。 1 ... Communication robot (robot, voice device), 2 ... Information terminal, 3 ... Ticket issuing machine, 4 ... Server, 11 ... Processor (control unit, second control unit), 13 ... Interface (first interface), 14 ... Speaker (audio output unit), 15 ... Microphone (audio input unit), 16 ... Camera, 17 ... Drive unit, 21 ... Processor (control unit, first control unit), 22 ... Memory, 23 ... Interface (second) Interface), 24 ... Interface (third interface), 25 ... Communication unit, 26 ... Display unit, 27 ... Operation unit.
Claims (4)
前記ロボットは、
前記案内端末と通信する第1のインターフェースと、
前記案内端末から供給される音声情報に基づく音声を出力する音声出力部と、
前記案内端末から受信する音声情報に基づく音声を前記音声出力部から出力する第1の制御部と、を有し、
前記案内端末は、
前記ロボットと通信する第2のインターフェースと、
前記発券機と通信する第3のインターフェースと、
前記発券機で発券する券の購入を希望する利用者に対する案内を表示する表示器と、 前記第3のインターフェースを介して前記発券機における操作内容を示す情報を取得し、前記発券機から取得する情報に応じた案内画面を前記表示器に表示し、前記案内画面に応じた音声案内の出力を前記ロボットへ指示する第2の制御部と、を有する、
案内システム。 In a guidance system that has a robot and a guidance terminal and provides guidance regarding tickets issued by the ticket issuing machine.
The robot
The first interface that communicates with the guidance terminal and
An audio output unit that outputs audio based on audio information supplied from the guidance terminal, and
It has a first control unit that outputs voice based on voice information received from the guidance terminal from the voice output unit.
The guidance terminal is
A second interface that communicates with the robot,
A third interface that communicates with the ticketing machine,
Information indicating the operation content of the ticket issuing machine is acquired via the display for displaying guidance to the user who wishes to purchase the ticket issued by the ticketing machine and the third interface, and is acquired from the ticketing machine. It has a second control unit that displays a guidance screen according to the information on the display and instructs the robot to output voice guidance according to the guidance screen.
Guidance system.
前記第2の制御部は、前記発券機から取得する情報に応じた案内内容を示す案内データを前記通信部を介して前記サーバから取得する、
請求項1に記載の案内システム。 The guidance terminal further has a communication unit that communicates with the server.
The second control unit acquires guidance data indicating the guidance content according to the information acquired from the ticket issuing machine from the server via the communication unit.
The guidance system according to claim 1.
前記第1の制御部は、前記音声入力部が入力した入力音声を前記第1のインターフェースを介して前記案内端末へ送信し、
前記第2の制御部は、前記ロボットの前記音声入力部が入力する入力音声の認識結果に基づいて前記入力音声に前記発券機に対する操作指示が含まれると判断した場合、前記入力音声に含まれる操作指示に応じた操作コマンドを前記発券機へ送信する、
請求項1又は2の何れか1項に記載の案内システム。 The robot further has a voice input unit for inputting voice.
The first control unit transmits the input voice input by the voice input unit to the guidance terminal via the first interface.
The second control unit is included in the input voice when it is determined that the input voice includes an operation instruction to the ticket issuing machine based on the recognition result of the input voice input by the voice input unit of the robot. Send the operation command according to the operation instruction to the ticket issuing machine,
The guidance system according to any one of claims 1 or 2.
さらに、前記利用者からの操作指示を入力する操作部を有し、
前記第2の制御部は、前記操作部に入力された操作指示に応じた操作コマンドを前記発券機へ送信する、
請求項1乃至3の何れか1項に記載の案内システム。 The guidance terminal is
Further, it has an operation unit for inputting an operation instruction from the user.
The second control unit transmits an operation command corresponding to an operation instruction input to the operation unit to the ticket issuing machine.
The guidance system according to any one of claims 1 to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022014384A JP2022058821A (en) | 2018-02-05 | 2022-02-01 | Guiding system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018018689A JP2019135629A (en) | 2018-02-05 | 2018-02-05 | Guide apparatus and guide system |
JP2022014384A JP2022058821A (en) | 2018-02-05 | 2022-02-01 | Guiding system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018018689A Division JP2019135629A (en) | 2018-02-05 | 2018-02-05 | Guide apparatus and guide system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022058821A true JP2022058821A (en) | 2022-04-12 |
Family
ID=67623731
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018018689A Pending JP2019135629A (en) | 2018-02-05 | 2018-02-05 | Guide apparatus and guide system |
JP2022014384A Pending JP2022058821A (en) | 2018-02-05 | 2022-02-01 | Guiding system |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018018689A Pending JP2019135629A (en) | 2018-02-05 | 2018-02-05 | Guide apparatus and guide system |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2019135629A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7459020B2 (en) | 2021-06-18 | 2024-04-01 | Lineヤフー株式会社 | Information processing device, information processing method, and information processing program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348219A (en) * | 1999-06-04 | 2000-12-15 | Nec Corp | Device and method for automatically both vending ticket and providing information |
JP2007011880A (en) * | 2005-07-01 | 2007-01-18 | Nippon Signal Co Ltd:The | Control system of vending machine |
JP2012086348A (en) * | 2010-10-22 | 2012-05-10 | Nippon Signal Co Ltd:The | Autonomous mobile service providing system |
JP2013140539A (en) * | 2012-01-06 | 2013-07-18 | Nippon Signal Co Ltd:The | Autonomous support robot for customer service terminal equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07242174A (en) * | 1994-03-03 | 1995-09-19 | Toshiba Corp | Passenger guiding device |
JP6604718B2 (en) * | 2014-10-24 | 2019-11-13 | 千蔵工業株式会社 | Automatic door system for toilet, voice guidance device, voice guidance method |
-
2018
- 2018-02-05 JP JP2018018689A patent/JP2019135629A/en active Pending
-
2022
- 2022-02-01 JP JP2022014384A patent/JP2022058821A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348219A (en) * | 1999-06-04 | 2000-12-15 | Nec Corp | Device and method for automatically both vending ticket and providing information |
JP2007011880A (en) * | 2005-07-01 | 2007-01-18 | Nippon Signal Co Ltd:The | Control system of vending machine |
JP2012086348A (en) * | 2010-10-22 | 2012-05-10 | Nippon Signal Co Ltd:The | Autonomous mobile service providing system |
JP2013140539A (en) * | 2012-01-06 | 2013-07-18 | Nippon Signal Co Ltd:The | Autonomous support robot for customer service terminal equipment |
Also Published As
Publication number | Publication date |
---|---|
JP2019135629A (en) | 2019-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5690113B2 (en) | Autonomous mobile service provision system | |
US10853629B2 (en) | Method for identifying a user entering an autonomous vehicle | |
JP6594646B2 (en) | Robot, robot control method, and robot system | |
JP4512830B2 (en) | Communication robot | |
JP2015535406A (en) | A system that provides integrated services at hotels using smart devices | |
JP2022058821A (en) | Guiding system | |
JPWO2018146921A1 (en) | Elevator system and information providing method in elevator system | |
JP7340063B2 (en) | Security system and surveillance display | |
JP6600596B2 (en) | Voice guide support system and program thereof | |
JP2016048301A (en) | Electronic device | |
JP7187634B1 (en) | elevator system | |
JP7273638B2 (en) | ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM | |
JP2019146118A (en) | Communication device, communication method, communication program, and communication system | |
JP2019049897A (en) | Information processing apparatus and voice response system | |
US20220305665A1 (en) | Robot, communication system, communication method, and computer readable medium | |
US11994875B2 (en) | Control device, control method, and control system | |
JP6807611B2 (en) | Systems and programs | |
JP7420047B2 (en) | robot system | |
US20220297308A1 (en) | Control device, control method, and control system | |
KR20230067765A (en) | Terminal system for unmanned learning | |
JP4595397B2 (en) | Image display method, terminal device, and interactive dialogue system | |
JP2018005308A (en) | Wandering control device, wandering control method and wandering control program | |
JP2022116625A (en) | Control device and program | |
WO2020202354A1 (en) | Communication robot, control method for same, information processing server, and information processing method | |
KR20210130540A (en) | Welfare Support Devices and Methods Using Augmented Reality Technology for the Elderly |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220201 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231010 |