JP7291476B2 - Seat guidance device, seat guidance method, and seat guidance system - Google Patents
Seat guidance device, seat guidance method, and seat guidance system Download PDFInfo
- Publication number
- JP7291476B2 JP7291476B2 JP2018233498A JP2018233498A JP7291476B2 JP 7291476 B2 JP7291476 B2 JP 7291476B2 JP 2018233498 A JP2018233498 A JP 2018233498A JP 2018233498 A JP2018233498 A JP 2018233498A JP 7291476 B2 JP7291476 B2 JP 7291476B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- seat
- head
- information device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、座席案内装置、座席案内方法、及び座席案内システムに関する。 The present invention relates to a seat guidance device, a seat guidance method, and a seat guidance system.
従来から、劇場やホールの入場者に対して座席の位置を表示する座席案内装置が知られている(特許文献1参照)。特許文献1では、入場券から座席番号を認識し、劇場の座席の見取図に対して当該座席番号に相当する座席の位置を強調表示して、劇場入口に設置されたCRTに表示することにより、画像を用いて座席を案内している。 2. Description of the Related Art Conventionally, there has been known a seat guidance device that displays the position of a seat for visitors to a theater or hall (see Patent Document 1). In Patent Document 1, the seat number is recognized from the admission ticket, the position of the seat corresponding to the seat number is highlighted on the floor plan of the theater seat, and displayed on the CRT installed at the entrance of the theater. Seats are guided using images.
しかしながら、入場者が自席に向かって移動している途中で、入場者の現在位置に対する自席の相対位置をリアルタイムに反映して案内することができない。また、画像による座席案内を苦手とする入場者にとって利用し難い、という課題があった。 However, while the visitor is moving toward his or her seat, the relative position of the visitor's seat relative to the current position of the visitor cannot be reflected in real time. In addition, there is a problem that it is difficult for visitors who are not good at seat guidance by images to use it.
本発明は、上記課題に鑑みて成されたものであり、その目的は、ユーザーに割り当てられた座席を直感的に案内することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problem, and its object is to intuitively guide the seat assigned to the user.
本発明の一態様に係わる座席案内装置は、複数の座席が設置された空間へ進入するユーザーに対して、ユーザーに割り当てられた座席を案内する座席案内装置であって、空間へのユーザーの進入を検知する進入検知センサと、空間へ進入したユーザーが保持する、スピーカを備える情報機器を検知し、ユーザーに割り当てられた座席を音声で案内する音声情報を情報機器に対して送信する制御部とを備える。 A seat guidance device according to one aspect of the present invention is a seat guidance device that guides a user entering a space having a plurality of seats to the seat assigned to the user. and a control unit that detects an information device equipped with a speaker held by a user who has entered the space and transmits voice information to the information device that guides the seat assigned to the user by voice. Prepare.
本発明によれば、ユーザーに割り当てられた座席を直感的に案内することができる。 According to the present invention, it is possible to intuitively guide the seat assigned to the user.
図面を参照して、実施形態を説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 Embodiments will be described with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.
(第1実施形態)
図1を参照して、第1実施形態に係る座席案内装置を含む座席案内システムの全体構成を説明する。第1実施形態に係る座席案内システムは、複数の座席14が設置された空間10へ進入するユーザーに対して、複数の座席14のうちの1つの座席14aであって、ユーザーに割り当てられた座席14aを案内するシステムである。座席案内システムは、情報機器12と、座席案内装置13とを有する。情報機器12は、座席14aを案内する際のユーザーインターフェースとして使用され、ユーザーが保持する通信可能な情報機器12であり、音声を出力するスピーカ27を備える。座席案内装置13は、情報機器12に対して、ユーザーに割り当てられた座席14aを音声で案内する音声情報を送信する。情報機器12は、音声情報を受信した場合、スピーカ27から座席14aを案内する音声を出力する。このようにして、第1実施形態に係わる座席案内システムは、ユーザーに対して、割り当てられた座席14aを音声で案内することができる。
(First embodiment)
An overall configuration of a seat guidance system including a seat guidance device according to the first embodiment will be described with reference to FIG. The seat guidance system according to the first embodiment guides a user entering a
「複数の座席14が設置された空間10」には、複数の座席14が設けられた移動体内の空間、及び複数の座席14が設けられた施設内の空間が含まれる。「移動体」には、タクシー、バス、自家用車を含む自動車と、自動車及び電車を含む車両と、飛行機と、船とが含まれる。「施設」には、映画館、劇場、競技場等の屋外及び屋内の施設である。「空間10」は、移動体又は施設の内部に形成されている場合に限らず、空間10の一部が移動体又は施設の外部に面していても構わない。自動車は、自動運転機能を有していてもよい。例えば、本実施形態の座席案内システムは、無人で走行可能なタクシー(ロボットタクシー車両)の車内の空間10に設けられた座席14aを、ユーザー(乗客)に対して案内する。
The “
情報機器12には、ラップトップパソコン、タブレットPC、スマートフォン22、ウェアラブル機器等、ユーザーが保持、携帯、又は装着することができる情報通信端末が含まれる。「ウェアラブル機器」とは、ユーザーが身に付ける、即ち装着することができる電子機器であり、ウェアラブルコンピュータとも呼ばれる。ウェアラブル機器の形状は問わず、例えば、腕時計型、眼鏡型、指輪型、靴型、懐中型などの様々な形状が含まれる。更に、ウェアラブル機器には、ユーザーの頭部に装着され、且つスピーカ27を有する頭部装着部を備える機器(「ヒアラブル機器21」と呼ぶ。)が含まれる。ヒアラブル機器21には、ヘッドマウント型、ヘッドフォン型、イヤフォン型などの様々な形状が含まれる。イヤフォン型には、左右の耳に装着する1対の部材が独立しており、ブルートゥース(Bluetooth)(登録商標)等の無線通信を行う完全ワイヤレスイヤホン型、及び、1対の部材がケーブルで接続されたネックバンド型が含まれる。
The
これらの情報機器12は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26を備える。更に、情報機器12は、音声案内を出力するスピーカ27と、座席案内装置13との間で通信を行う通信部29と、センサ(24、25、26)、スピーカ27、マイク28及び通信部29を制御するコントローラ23とを備える。情報機器12がヒアラブル機器21である場合、頭部装着部には、ジャイロセンサ24、加速度センサ25、磁気センサ26、及びスピーカ27が搭載されている。情報機器12は、ユーザーの音声を電気信号へ変換するマイク28を更に備えていてもよい。
These
図1には、情報機器12として、ヒアラブル機器21の他に、スマートフォン22を示す。即ち、ユーザーがヒアラブル機器21及びスマートフォン22の双方を保持、形態、又は装着している例を示す。スマートフォン22は、ヒアラブル機器21と同様な構成要素(23~29)のみならず、画像を表示する表示部30を更に備える。
FIG. 1 shows a
コントローラ23は、ジャイロセンサ24が測定した角速度を示す角速度データ、加速度センサ25が測定した加速度を示す加速度データ、及び磁気センサ26が測定した磁気を示す磁気データを取得する。コントローラ23は、座席案内装置13からのリクエストに応じて、角速度データ、加速度データ、及び磁気データを座席案内装置13へ送信する。
The
座席案内装置13は、複数の座席14の各々に設けられた着座センサ41、コントローラ42及び通信部43を備える。着座センサ41は、ユーザーの座席へ着座を検知する圧力センサである。コントローラ42は、着座センサ41から受信するセンサ信号に基づいて座席へ着座を判断し、判断結果を示す信号を通信部43へ出力する。通信部43は、判断結果を示す信号を送信する。
The
座席案内装置13は、空間10内に配置されたサーバユニット50を備える。サーバユニット50は、進入検知センサ52と、コントローラ51と、通信部53とを備える。進入検知センサ52は、空間10の入口11近傍に配置され、ユーザーの空間10への進入を検知する光センサである。例えば、入口11を跨いで光を射出する発光部と光を受光する受光部とを配置し、光が一時的に遮られたことによりユーザーの空間10への進入を検知する。
The
コントローラ51は、進入検知センサ52から受信するセンサ信号に基づいてユーザーの空間10への進入を判断する。通信部53は、情報機器12又は座席14の各々との間で様々な信号の送受信を行う。
The
コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データ(頭部装着部の向きを示す方向情報の一例)に基づいて、頭部装着部の現在の向きを推定する。
The
コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データ(情報機器12の位置を示す方向情報の一例)に基づいて、情報機器12の現在の位置を推定する。
The
具体的に、コントローラ51は、歩行者自律航法(Pedestrian Dead Reckoning)を用いることにより、角速度データ、加速度データ、及び磁気データから、ヒアラブル機器21又はスマートフォン22の移動方向及び移動量を推測する。コントローラ51は、移動方向及び移動量を時間で積算することにより、ヒアラブル機器21又はスマートフォン22の現在の位置及び頭部装着部の現在の向きを推定する。なお、コントローラ51は、建物等の構造物の鉄材から発生する屋内地磁気のパターンに基づいて、屋内における自己位置を求めることも出来る。
Specifically, the
コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データに基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。「座席14aを中心に音を発する仮想音場」とは、頭部装着部の向きや移動方向に関わりなく、任意の位置(座席14a)に音源を固定する「音響定位」を実現した音場である。3次元的な音の方向感や距離感を仮想的に再現する「立体音響技術」と、頭部装着部に内蔵されたジャイロセンサ24、加速度センサ25、及び磁気センサ26から得られるセンサ情報とを活用して、頭部装着部の向きや移動方向に関わりなく、音源を任意の位置に固定する「音響定位技術」を用いて実現される。これにより、ユーザーは、ヒアラブル機器21から聞こえてくる音声の距離感及び方向感から、音源の方向及び位置を知ることができるので、音声を頼りに座席14aを探すことができる。これにより、スマートフォン22の表示部30を見ながらの歩行を抑制することができる。
Based on the angular velocity data, acceleration data, and magnetic data transmitted from the
なお、ヒアラブル機器21及びスマートフォン22の各通信部は、座席案内装置13の各通信部(43、53)との間で、無線LAN、ブルートゥース(Bluetooth)(登録商標)の少なくとも1つの近距離無線通信規格に基づく無線通信を行う。更に、ヒアラブル機器21の通信部29とスマートフォン22の通信部の間でも同様にして無線通信を行うことができる。或いは、ヒアラブル機器21の通信部29とスマートフォン22の通信部との間をケーブル(例えば、USBケーブル)で接続して通信を行っても構わない。
Each communication unit of the
座席に設けられた通信部43とサーバユニット50の通信部53との間で、近距離無線通信規格に基づく無線通信を行うことができる。或いは、座席に設けられた通信部43とサーバユニット50の通信部53の間をケーブル(例えば、LANケーブル)で接続して通信を行っても構わない。
Wireless communication based on the short-range wireless communication standard can be performed between the
図2を参照して、図1に示す座席案内システムの動作の一例を説明する。ここでは、ロボットタクシー車両の車内の空間10に設けられた座席14aを、ユーザー(乗客)に対して案内する場合を例に取り、説明する。
An example of the operation of the seat guidance system shown in FIG. 1 will be described with reference to FIG. Here, a case where a user (passenger) is guided to a
まずステップS01において、ユーザーによる情報機器12、例えば、スマートフォン22の表示部30のタッチ操作に従い、スマートフォン22は、コントローラ51に対して座席14の予約をリクエストする。なお、ステップS01において、ユーザー及び情報機器12は、空間10の外部に居る。スマートフォン22の通信部は、通信部53に対して、座席14を予約するためのリクエスト信号を送信する。リクエスト信号には、ユーザーの個人情報を他に、希望の乗車地及び目的地を示す情報が含まれる。リクエスト信号を受信した通信部53は、リクエスト信号をコントローラ51へ転送する。コントローラ51は、リクエスト信号に基づき、座席の予約情報を確認した上で、特定の座席14aを情報機器12により識別されたユーザーに対して割り当てる。そして、コントローラ51は、割り当てた座席14aを特定する情報と共に、予約が完了したことを示す予約完了信号を、通信部53を介してスマートフォン22に送信する。予約完了信号をスマートフォン22が受信することにより、ユーザーは、座席14の予約リクエストに対して、座席14aが割り当てられたことを知ることが出来る。このように、ユーザーが配車予約を行うことにより、進入検知センサ52によりユーザーの空間10への進入を検知する前に、予め、複数の座席14のうちの1つの座席14aがユーザーに割り当てられている。
First, in step S<b>01 , the
その後、ロボットタクシー車両は希望の乗車地まで自動運転により走行し、乗車地にて停車する。ユーザーはロボットタクシー車両に乗車する際に、スマートフォン22を用いて、予約をしたユーザーであることの認証(本人認証)を行っても構わない。本人認証が完了した後に、ドアを解錠して開くように制御することが出来る。ステップS02へ進み、進入検知センサは、ロボットタクシー車両の車内の空間10へのユーザーの進入を検知する。
After that, the robot taxi vehicle automatically travels to the desired boarding point and stops at the boarding point. When the user gets on the robot taxi vehicle, the user may use the
その後、ステップS03へ進み、通信部53がスマートフォン22又はヒアラブル機器21との通信を試みることにより、コントローラ51は、ユーザーが保持、携帯、又は装着するスマートフォン22又はヒアラブル機器21を検知する。なお、コントローラ51は、ステップS01の予約操作で用いたスマートフォン22の識別情報を用いることにより、予約したユーザーが所持するスマートフォン22であることを判断することができる。或いは、後述する耳音響認証技術を用いて求めたユーザーの耳穴の形状から、コントローラ51は、検知したヒアラブル機器21が、予約したユーザーが所持する機器であることを認証してもよい。コントローラ51は、スマートフォン22又はヒアラブル機器21の通信部と通信部53との無線接続が確立することによって、スマートフォン22又はヒアラブル機器21を検知することができる。コントローラ51は、予め頭部装着部を備える情報機器12の識別番号を記憶するデータベースを備えており、検知した情報機器12の識別番号から、検知した情報機器12が、スピーカ27を有する頭部装着部を備えるか否かを判断することができる。
After that, the process proceeds to step S03, and the
ステップS04へ進み、コントローラ51は、ユーザーがスマートフォン22及びヒアラブル機器21の双方を保持、携帯、又は装着するか否かを判断する。具体的には、コントローラ51は、ステップS03でスマートフォン22及びヒアラブル機器21の双方を検知したか否かを判断する。スマートフォン22及びヒアラブル機器21の双方を保持、携帯、又は装着している場合(S04でYES)、ステップS05へ進み、スマートフォン22及びヒアラブル機器21の少なくとも一方を保持、携帯、又は装着していない場合、図2に示す座席案内の処理は終了する。なお、第1実施形態では、スマートフォン22及びヒアラブル機器21の双方を有する場合の座席案内について説明する。一方、第2実施形態で、スマートフォン22及びヒアラブル機器21のいずれか一方のみを有する場合の座席案内について説明する。
Proceeding to step S<b>04 , the
ステップS05に進み、コントローラ51は、ユーザーに割り当てられた座席14aを音声で案内する音声情報を生成し、当該音声情報をスマートフォン22及びヒアラブル機器21の少なくとも一方に送信する。スマートフォン22及びヒアラブル機器21は、音声情報を受信した場合、スピーカから座席14aを案内する音声を出力する。スマートフォン22及びヒアラブル機器21の双方から音声を出力してもよい。或いは、スマートフォン22で音声情報を受信し、スマートフォン22が当該音声情報をヒアラブル機器21へ転送し、ヒアラブル機器21がスピーカ27から音声を出力してもよい。又は、コントローラ51は、割り当てられた座席14aの通信部43を介して、当該音声情報をスマートフォン22及びヒアラブル機器21のいずれか一方にのみ送信してもよい。
Proceeding to step S<b>05 , the
ステップS05で出力する音声案内は、簡易な音声案内である。具体的には、座席14aの位置を客観的に示す情報、例えば、各座席に付された識別番号を音声で表現する。
The voice guidance output in step S05 is simple voice guidance. Specifically, the information objectively indicating the position of the
ステップS06へ進み、コントローラ51は、ステップS02でユーザーの進入を検知してから所定の時間が経過するまでの間に、割り当てられた座席14aの着座センサ41が着座を検知したか否かを判断する。着座センサ41が着座を検知していない場合(S06でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS07へ進む。
Proceeding to step S06, the
一方、着座センサ41が着座を検知した場合(S06でYES)、ユーザーは自分に割り当てられた座席14aを見つけて既に着座していると判断できる。この場合、音声案内を続ける必要がないため、図2に示す座席案内の処理は終了する。
On the other hand, if the
ステップS07へ進み、コントローラ51は、ステップS03で検知したヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。例えば、コントローラ51は、頭部装着部の一形態であるイヤフォンがユーザーの耳穴に装着されているか否かを判断する。
Proceeding to step S07, the
具体的な手法として、耳穴の形状を音で識別可能な生体認証技術(「耳音響認証技術」という)を利用することができる。耳音響認証技術を利用することにより、カナル型のイヤフォン(頭部装着部の一例)を耳に装着するだけで個人認証も行える。耳音響認証技術は、個人毎に異なる耳穴の形状によって反響音が異なるという性質を利用したものである。コントローラ51は、ヒアラブル機器21から耳穴の形状を示す情報が送信された場合、頭部装着部がユーザーの耳に装着されていると判断することができる。なお、耳音響認証技術と上記したスマートフォン22による予約操作とを関連付けることによって、ユーザーの耳穴の形状(人体)、ヒアラブル機器21、及びスマートフォン22の間で互いに関連付けることができる。
As a specific method, biometric authentication technology (referred to as “ear acoustic authentication technology”) capable of identifying the shape of the ear canal by sound can be used. By using ear acoustic authentication technology, personal authentication can be performed simply by wearing a canal-type earphone (an example of a head-mounted part) on the ear. The otoacoustic authentication technology utilizes the characteristic that echo sounds differ according to the shape of the ear canal, which differs from person to person. When information indicating the shape of the ear canal is transmitted from the
ユーザーが頭部装着部を頭部に装着していない場合(S07でNO)、ヒアラブル機器21から音声を出力しても、ユーザーに音声を伝えることができない。よって、ステップS13に進み、コントローラ51は、ユーザーに割り当てられた座席14aを画像で案内する画像情報をスマートフォン22に対して送信する。画像情報を受信したスマートフォン22は、表示部30に、ユーザーに割り当てられた座席14aを案内する画像を表示する。例えば、空間10に設置された座席14のレイアウトに対してユーザーに割り当てられた座席14aの位置をハイライトして表示する。その後、ステップS06へ戻る。
When the user does not wear the head-mounted unit on the head (NO in S07), even if the
一方、ユーザーが頭部装着部を頭部に装着している場合(S07でYES)、ステップS08に進み、コントローラ51は、ヒアラブル機器21又はスマートフォン22に対して、頭部装着部の向きを示す方向情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。当該リクエストを受信したヒアラブル機器21又はスマートフォン22は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26から、角速度データ、加速度データ、及び磁気データを含むセンサ情報を取得する。そして、ヒアラブル機器21又はスマートフォン22は、ヒアラブル機器21から直接又はスマートフォン22を介してセンサ情報を送信する。コントローラ51は、センサ情報を受信し、センサ情報から頭部装着部の現在の向きを推測する。センサ情報から頭部装着部の現在の向きを推測する具体的な方法は後述する。
On the other hand, if the user wears the head-mounted unit on the head (YES in S07), the process proceeds to step S08, and the
ステップS09へ進み、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。具体的には、頭部装着部の向きの時間変化に基づいて、ユーザーが周期的に頭を左右に振っているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。この場合、ステップS10へ進む。
Proceeding to step S09, the
一方、ユーザーの頭部の向きが周期的に変化していない場合(S09でNO)、ユーザーが周期的に頭を左右に振っていないと判断できる。ユーザーは座席14aを発見して移動している途中であると判断することが出来る。この場合、ステップS06に戻り、ユーザーの着座を判断する。
On the other hand, if the direction of the user's head does not change periodically (NO in S09), it can be determined that the user does not periodically shake the head left and right. The user can find the
ステップS10において、コントローラ51は、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。具体的には、まず、ジャイロセンサ24を用いて角速度を計測し、加速度センサ25を用いて加速度を計測し、及び磁気センサ26を用いて磁場を計測する。角速度データ、加速度データ、及び磁気データを含むセンサ情報は、コントローラ51へ送信される。
In step S10, the
このようにして、コントローラ51は、頭部装着部の向きを示す方向情報及びヒアラブル機器21又はスマートフォン22の位置を示す位置情報(センサ情報)に基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。
In this way, the
ステップS11に進み、コントローラ51は、仮想音場による音声情報をヒアラブル機器21又はスマートフォン22へ送信する。仮想音場による音声情報を受信したスマートフォン22は、当該音声情報をヒアラブル機器21へ転送する。仮想音場による音声情報を受信したヒアラブル機器21は、スピーカ27から仮想音場により音声を出力する。
Proceeding to step S<b>11 , the
ステップS12に進み、コントローラ51は、座席14aを中心に音を発する仮想音場により音声をスピーカ27から出力してから所定時間の間が経過するまでの間に、割り当てられた座席14aの着座センサ41が着座を検知したか否かを判断する。着座センサ41が着座を検知していない場合(S12でNO)、ユーザーは未だ座席14aに着座しておらず、座席14aを探していると判断できるので、ステップS13へ進む。
Proceeding to step S12, the
一方、着座センサ41が着座を検知した場合(S12でYES)、ユーザーは自分に割り当てられた座席14aを見つけて既に着座していると判断できる。この場合、音声案内を続ける必要がないため、図2に示す座席案内の処理は終了する。
On the other hand, if the
なお、ステップS11で出力される仮想音場による音声は、文言であってもよいし、文言でなくてもよい。文言である場合、頭部装着部の向きと座席14aの位置との関係を示す音声を出力してもよい。例えば、「右斜め前方に、貴方の座席14aがあります。」「左側を向いて歩いて下さい。」が挙げられる。更に、例えば、図4に示したように、頭部装着部の位置と座席14aの位置との関係を示す音声を出力してもよい。
It should be noted that the sound generated by the virtual sound field output in step S11 may be words or may not be words. In the case of text, a voice indicating the relationship between the orientation of the head mounted unit and the position of the
更に、ステップS11で出力される音声は、仮想音場による音声でなくてもよい。つまり、音響定位技術を用いずに、通常の音声を出力してもよい。この場合、音声は特定の意味を有する文言から成る。特定の意味を有する文言は、頭部装着部の向きと座席14aの位置との関係を示す文言、或いは、頭部装着部の位置と座席14aの位置との関係を示す文言である。
Furthermore, the sound output in step S11 does not have to be the sound produced by the virtual sound field. In other words, normal sound may be output without using the acoustic localization technique. In this case, speech consists of sentences with a specific meaning. Words having a specific meaning are words indicating the relationship between the orientation of the head mounted part and the position of the
以上説明したように、第1実施形態によれば、以下の作用効果が得られる。 As described above, according to the first embodiment, the following effects are obtained.
コントローラ51は、複数の座席14が設置された空間10へのユーザーの進入を検知し、ユーザーが保持する情報機器12を検知し、ユーザーに割り当てられた座席14aを音声で案内する音声情報を情報機器12に対して送信する(S10)。情報機器12からユーザーに音声で座席14aを案内することができる。よって、ユーザーはこの音声を頼りに座席14aを探すことができるので、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。
The
空間10へのユーザーの進入を検知してから所定の時間が経過するまでの間に、着座センサ41がユーザーの着座を検知していない場合に、コントローラ51は、音声情報を情報機器に対して送信する(S10)。ユーザーが車内に進入してしばらくの間、着座していない場合、ユーザーは、座席14aが見つからないため座席14aの案内を求めていると推測できる。この推定されるユーザーの要望に対して、適時に音声で案内することができる。所定の時間内に着座できたユーザーに対して、無用な音声案内を行わない。音声案内が必要なユーザーにだけ音声案内を行うことができる。
If the
スピーカ27を備えるヒアラブル機器21(第1の情報機器)と、画像を表示する表示部30を備えるスマートフォン22(第2の情報機器)との両方を検知した場合(S04でYES)、ヒアラブル機器21に対して音声情報を送信し(S05)、スピーカ27から音声情報が出力された後に、ユーザーに割り当てられた座席14aを画像で案内する画像情報をスマートフォン22に対して送信する(S13)。音声と画像とを組み合わせて座席14aを案内することにより、音声案内又は画像案内のいずれか一方を苦手とするユーザーにも対応することができる。音声と画像との組合せにより、より明確に座席14aを案内できる。
When both the hearable device 21 (first information device) equipped with the
進入検知センサ52により空間10へのユーザーの進入を検知する前に、予め、複数の座席のうちの1つの座席14aがユーザーに割り当てられている(S01)。すなわち、事前に座席14aを予約したユーザーがロボットタクシー車両に乗車する(S02)。オンライン予約で使用した情報機器(スマートフォン22)とステップS03で検知される情報機器との同一性を判断することにより、容易に、予約したユーザーであることを認証できる。なお、事前に座席14aを予約していないユーザーに対しても、本実施形態に係わる音声案内装置及び方法を適用できる。ただし、図2のステップS01は不要となる。
Before the user's entry into the
コントローラ51は、情報機器2から送信される頭部装着部の向きを示す方向情報としてセンサ情報を受信し、頭部装着部の向きの時間変化に基づいて、音声情報を情報機器12に対して送信するか否かを判断する。具体的には、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。周期的に頭を左右に振って座席14aを探しているユーザーに対して、適時に音声で案内することができる。
The
コントローラ51は、情報機器12から送信される頭部装着部の向きを示す方向情報、及び情報機器12の位置を示す位置情報としてセンサ情報を受信する。そして、コントローラ51は、センサ情報(方向情報及び位置情報)に基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成し、情報機器12に対して送信する。これより、情報機器12(ヒアラブル機器21)は、スピーカ27から仮想音場により音声を出力することができる。これにより、ユーザーは、ヒアラブル機器21から聞こえてくる音声の距離感及び方向感から、音源の方向及び位置を知ることができるので、音声を頼りに座席14aを探すことができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。更に、空間10内の他のユーザーへの音漏れも軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。
The
空間10へのユーザーの進入は、車両(ロボットタクシー車両)へのユーザーの乗車である。実施形態では、複数の座席14が設置された空間10の一例として、ロボットタクシー車両の車室内空間を例示した。ロボットタクシー車両に乗車したユーザーに対して、割り当てられた座席14aを直感的に案内することができる。
The user's entry into
第1実施形態では、座席案内装置13の制御部がコントローラ51である場合を説明した。座席案内装置13の制御部は、座席14aに設けられたコントローラ42であっても構わない。各座席に設けられたコントローラ42が、サーバユニット50及び情報機器12と通信を行い、図2に示した一連の情報処理を実施してもよい。また、座席案内装置13のコントローラ(51、42)の代わりに、情報機器12が備えるコントローラ23が、座席案内装置13と通信を行い、図2に示した一連の情報処理を実施してもよい。つまり、座席案内システムにおいて、空間10内に設置された座席案内装置13及び情報機器12の双方にコントローラを備えている場合、いずれのコントローラが、図2に示した一連の情報処理を実施してもよい。
1st Embodiment demonstrated the case where the control part of the
第1実施形態において、コントローラ(23、42、51)は、CPU(中央処理装置)、RAM及びROMなどのメモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、座席案内装置の一部分として機能させるためのコンピュータプログラム(座席案内プログラム)がインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、座席案内装置が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって座席案内装置が備える複数の情報処理回路を実現する例を示す。もちろん、各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。更に、情報処理回路は、ロボットタクシー車両にかかわる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。 In the first embodiment, the controllers (23, 42, 51) are general-purpose microcomputers having CPUs (Central Processing Units), memories such as RAM and ROM, and input/output units. A computer program (seat guidance program) is installed in the microcomputer to function as a part of the seat guidance system. By executing the computer program, the microcomputer functions as a plurality of information processing circuits included in the seat guidance system. Here, an example of realizing a plurality of information processing circuits provided in the seat guidance device by software is shown. Of course, it is also possible to configure an information processing circuit by preparing dedicated hardware for executing each information processing. Also, a plurality of information processing circuits may be configured by individual hardware. Further, the information processing circuit may also be used as an electronic control unit (ECU) used for other controls related to the robot taxi vehicle.
(第2実施形態)
第2実施形態で、ユーザーが、スマートフォン22及びヒアラブル機器21のいずれか一方のみを保持、携帯、又は装着している場合の座席案内について説明する。スマートフォン22のみを保持などし、ヒアラブル機器21を保持などしていない場合、頭部装着部からのセンサ情報を得ることが出来ない。このため、頭部の向きの周期的な変化を検知することはできない。また、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成することもできない。第2実施形態では、頭部装着部を有する情報機器をユーザーが保持などしていない場合にも適用できる実施形態である。
(Second embodiment)
In the second embodiment, seat guidance when the user holds, carries, or wears only one of the
ヒアラブル機器21及びスマートフォン22を含む情報機器12の構成、座席案内装置13の構成は、第1実施形態のそれらと同じであり、説明を省略する。第2実施形態に係わる座席案内システムは、第1実施形態に比べて情報処理動作の手順及び内容に違いがある。図3を参照して、第2実施形態に係わる座席案内方法を説明する。
The configuration of the
ステップS01~S03は、図2のステップS01~S03と同じ処理である。ステップS04において、コントローラ51は、ユーザーがスマートフォン22及びヒアラブル機器21の少なくともいずれか一方を保持、携帯、又は装着しているか否かを判断する。更に、コントローラ51は、ヒアラブル機器21を検知した場合、ヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。例えば、コントローラ51は、頭部装着部の一形態であるイヤフォンがユーザーの耳穴に装着されているか否かを判断する。
Steps S01 to S03 are the same processing as steps S01 to S03 in FIG. In step S<b>04 , the
スマートフォン22及びヒアラブル機器21の少なくともいずれか一方を保持、携帯、又は装着し、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合(S04でYES)、ステップS05へ進む。一方、スマートフォン22及びヒアラブル機器21の双方ともに保持、携帯、又は装着していない場合(S04でNO)、図3に示す座席案内の処理は終了する。第2実施形態では、スマートフォン22だけを保持などしている場合、及びヒアラブル機器21だけを保持などし、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合の各々について説明する。第2実施形態において、情報機器12としてヒアラブル機器21だけを保持などはしているが、ヒアラブル機器21の頭部装着部がユーザーの頭部に装着されていない場合、音声で座席を案内することができない。よって、この場合、ステップS04ではNOと判断して、図3の処理動作は終了する。
If at least one of the
ステップS05及び06は、図2のステップS05及びS06と同じ処理である。着座センサ41がユーザーの着座を検知していない場合(S06でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS08へ進む。ステップS08において、コントローラ51は、ヒアラブル機器21に対して、頭部装着部の向き及び位置を示す情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。或いは、コントローラ51は、スマートフォン22に対して、スマートフォン22の向き及び位置を示す情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。
Steps S05 and S06 are the same processing as steps S05 and S06 in FIG. If the
当該リクエストを受信したヒアラブル機器21又はスマートフォン22は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26から、角速度データ、加速度データ、及び磁気データを含むセンサ情報を取得する。そして、ヒアラブル機器21又はスマートフォン22は、センサ情報を直接、座席案内装置13へ送信する。コントローラ51は、センサ情報を受信し、センサ情報からヒアラブル機器21の頭部装着部の現在の向き及び位置を推測する。或いは、コントローラ51は、センサ情報を受信し、センサ情報からスマートフォン22の現在の向き及び位置を推測する。
The
ステップS07へ進み、コントローラ51は、ステップS03で検知したヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。具体的には、ユーザーがヒアラブル機器21を保持などし、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合(ステップ07でYES)、ステップS09へ進む。ユーザーがスマートフォン22を保持などしている場合(ステップ07でNO)、ステップS14へ進む。このように、第2実施形態におけるステップS07は、ステップS03で検知した情報機器12がヒアラブル機器21であるか、スマートフォン22であるかを判断することに相当する。
Proceeding to step S07, the
ステップS09へ進み、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。具体的には、ステップS08で推測したヒアラブル機器21の頭部装着部の向きの時間変化から、ユーザーが周期的に頭を左右に振っているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。この場合、ステップS10へ進む。一方、ユーザーの頭部の向きが周期的に変化していない場合(S09でNO)、ユーザーが周期的に頭を左右に振っていないと判断できる。ユーザーは座席14aを発見して移動している途中であると判断することが出来る。この場合、ステップS06に戻り、ユーザーの着座を判断する。
Proceeding to step S09, the
図3のステップS10~S12は、図2のステップS10~S12と同じ処理動作である。コントローラ51は、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成し、ヒアラブル機器21へ送信する。仮想音場による音声情報を受信したヒアラブル機器21は、スピーカ27から仮想音場により音声を出力する。仮想音場により音声をスピーカ27から出力してから所定時間の間が経過するまでの間に、着座センサ41が着座を検知していない場合(S12でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS05へ戻る。
Steps S10 to S12 in FIG. 3 are the same processing operations as steps S10 to S12 in FIG. The
一方、ユーザーがスマートフォン22を保持などしている場合(ステップ07でNO)、ステップS14に進み、コントローラ51は、ステップS08で受信したセンサ情報(スマートフォン22の位置及を示す位置情報)に基づいて、スマートフォン22の位置と座席14aの位置との関係を示す音声情報を生成する。具体的には、コントローラ51は、歩行者自律航法(Pedestrian Dead Reckoning)を用いることにより、センサ情報から空間10の入口11に進入してからのスマートフォン22の移動方向及び移動量を時間で積算することにより、スマートフォン22の現在の位置を推定する。コントローラ51は、屋内地磁気のパターンに基づいて、屋内におけるスマートフォン22の現在の位置を求めることもできる。
On the other hand, if the user is holding the smartphone 22 (NO in step 07), the process proceeds to step S14, and the
ステップS14において、コントローラ51は、スマートフォン22の現在の位置と座席14aの位置との関係を示す音声情報を生成し、スマートフォン22へ送信する。例えば、図4の例1~例4の「音声案内の文言」に示すように、スマートフォン22の現在の位置とユーザーに割り当てられた座席14aの位置との関係を示す音声情報を生成する。図4の「ユーザーと割り当てられた座席との相対位置」とは、右側の「音声案内の文言」が出力される時のユーザーと座席との位置関係を示している。
In step S<b>14 , the
ステップS13へ進み、音声情報を受信したスマートフォン22は、スピーカから音声を出力する。その後、ステップS06へ戻る。
Proceeding to step S13, the
なお、ステップS11で出力される仮想音場による音声は、文言であってもよいし、文言でなくてもよい。文言である場合、頭部装着部の向きと座席14aの位置との関係を示す音声を出力してもよい。例えば、「右斜め前方に、貴方の座席があります。」「左側を向いて歩いて下さい。」が挙げられる。更に、例えば、図4に示したように、頭部装着部の位置と座席14aの位置との関係を示す音声を出力してもよい。
It should be noted that the sound generated by the virtual sound field output in step S11 may be words or may not be words. In the case of text, a voice indicating the relationship between the orientation of the head mounted unit and the position of the
更に、ステップS11で出力される音声は、仮想音場による音声でなくてもよい。つまり、音響定位技術を用いずに、通常の音声を出力してもよい。この場合、音声は文言から成る。文言は、頭部装着部の向きと座席14aの位置との関係を示す文言、或いは、頭部装着部の位置と座席14aの位置との関係を示す文言である。
Furthermore, the sound output in step S11 does not have to be the sound produced by the virtual sound field. In other words, normal sound may be output without using the acoustic localization technique. In this case, speech consists of sentences. The wording is a wording indicating the relationship between the orientation of the head-mounted part and the position of the
以上説明したように、第2実施形態によれば、以下の作用効果を得られる。 As described above, according to the second embodiment, the following effects can be obtained.
ステップ03で、スピーカ27を有する頭部装着部を備える情報機器(ヒアラブル機器21)が検知された場合、ステップS08でセンサ情報(頭部装着部の向きを示す方向情報)を送受信する。コントローラ51は、頭部装着部の向きと座席14aの位置との関係を示す音声情報を情報機器(ヒアラブル機器21)に対して送信する。頭部装着部の向きと座席14aの位置との関係を示す音声情報として、例えば、「右斜め前方に、貴方の座席があります。」「左側を向いて歩いて下さい。」が挙げられる。これにより、ユーザーは、自分の頭部の向きとヒアラブル機器21から聞こえてくる音声とから、割り当てられた座席14aの方向を直感的に把握することができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。特に、座席14aがユーザーから遠方にある場合に、先ずは、座席14aがある方角をユーザーに適切に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。ユーザーがヒアラブル機器21の頭部装着部を装着しているため(S07でYES)、ステップS11で出力される音声の音漏れが軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。
When an information device (hearable device 21) having a head-mounted unit having a
ステップ03で、ヒアラブル機器21又はスマートフォン22のいずれかの情報機器12が検知された場合、ステップS08でセンサ情報(情報機器12の位置を示す情報)を送受信する。コントローラ51は、情報機器12の位置と座席14aの位置との関係を示す音声情報を、情報機器(ヒアラブル機器21又はスマートフォン22)に対して送信する(S10、S14)。これにより、ヒアラブル機器21又はスマートフォン22は、情報機器12の位置と座席14aの位置との関係を示す音声をスピーカから出力することができる。よって、ユーザーはこの音声を頼りに座席14aを探すことができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。ユーザーがヒアラブル機器21の頭部装着部を装着している場合(S07でYES)、ステップS11で出力される音声の音漏れが軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。
If either the
第2実施形態では、座席案内装置13の制御部がコントローラ51である場合を説明した。座席案内装置13の制御部は、座席14aに設けられたコントローラ42であっても構わない。各座席に設けられたコントローラ42が、サーバユニット50及び情報機器12と通信を行い、図3に示した一連の情報処理を実施してもよい。また、座席案内装置13のコントローラ(51、42)の代わりに、情報機器12が備えるコントローラ23が、座席案内装置13と通信を行い、図3に示した一連の情報処理を実施してもよい。つまり、座席案内システムにおいて、空間10内に設置された座席案内装置13及び情報機器12の双方にコントローラを備えている場合、いずれのコントローラが、図3に示した一連の情報処理を実施してもよい。
2nd Embodiment demonstrated the case where the control part of the
なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは言うまでもない。 Note that the above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not deviate from the technical idea according to the present invention, according to design etc. It goes without saying that various modifications are possible.
10 空間
12 情報機器
14 複数の座席
14a ユーザーに割り当てられた座席
21 ヒアラブル機器(第1の情報機器)
22 スマートフォン(第2の情報機器)
23、42、51 コントローラ(制御部)
25 加速度センサ
24 ジャイロセンサ
26 磁気センサ
27 スピーカ
30 表示部
41 着座センサ
52 進入検知センサ
10
22 Smartphone (second information device)
23, 42, 51 controller (control unit)
25
Claims (13)
前記空間への前記ユーザーの進入を検知する進入検知センサと、
前記空間へ進入した前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備える前記情報機器を検知し、前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信する制御部とを備え、
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、前記音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信する
ことを特徴とする座席案内装置。 A seat guidance device that guides a user entering a space in which a plurality of seats are installed to one of the plurality of seats, the seat assigned to the user,
an entry detection sensor that detects entry of the user into the space;
Detecting an information device capable of communication held by the user who has entered the space, the information device having a speaker for outputting voice, and providing voice information for guiding the seat assigned to the user by voice. A control unit that transmits to the information device,
The control unit
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit transmitted from the information device;
Whether the audio information is transmitted to the information device based on whether or not the orientation of the user's head is periodically changing, determined from the temporal change in the orientation of the head-mounted unit determine whether or not
A seat guidance device, wherein the voice information is transmitted to the information device when it is determined to transmit the voice information.
前記進入を検知してから所定の時間が経過するまでの間に、前記着座センサが前記着座を検知していない場合に、前記制御部は、前記音声情報を前記情報機器に対して送信することを特徴とする請求項1に記載の座席案内装置。 further comprising a seating sensor for detecting that the user is seated on the seat;
If the seating sensor does not detect the seating for a predetermined period of time after detecting the entry, the control unit transmits the audio information to the information device. The seat guide device according to claim 1, characterized by:
前記ユーザーが保持する通信可能な第1の情報機器及び第2の情報機器であって、前記スピーカを備える第1の情報機器と、画像を表示する表示部を備える第2の情報機器とを検出した場合、
前記第1の情報機器に対して前記音声情報を送信し、
前記スピーカから前記音声情報が出力された後に、前記ユーザーに割り当てられた前記座席を画像で案内する画像情報を前記第2の情報機器に対して送信する
ことを特徴とする請求項1又は2に記載の座席案内装置。 The control unit
Detecting a first information device and a second information device held by the user and capable of communication, wherein the first information device includes the speaker and the second information device includes a display section for displaying an image. if you did this,
transmitting the audio information to the first information device;
3. The apparatus according to claim 1, wherein, after the audio information is output from the speaker, image information for guiding the seat assigned to the user is transmitted to the second information device. A seat guidance device as described.
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きと前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~4の何れか一項に記載の座席案内装置。 The control unit
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit transmitted from the information device;
5. The seat guide apparatus according to claim 1, wherein the audio information indicating the relationship between the orientation of the head mounted unit and the position of the seat is transmitted to the information device. .
前記情報機器から送信される、前記情報機器の位置を示す位置情報を受信し、
前記情報機器の位置と前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~5の何れか一項に記載の座席案内装置。 The control unit
receiving position information indicating the position of the information device transmitted from the information device;
6. The seat guide apparatus according to claim 1, wherein the voice information indicating the relationship between the position of the information device and the position of the seat is transmitted to the information device.
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報、及び前記情報機器の位置を示す位置情報を受信し、
前記方向情報及び前記位置情報に基づいて、前記ユーザーに割り当てられた前記座席を中心に音を発する仮想音場による前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~6の何れか一項に記載の座席案内装置。 The control unit
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit and position information indicating the position of the information device, which are transmitted from the information device;
Based on the direction information and the position information, the voice information is transmitted to the information device in a virtual sound field that emits sound centering on the seat assigned to the user. 7. The seat guide device according to any one of 6.
前記空間への前記ユーザーの進入を検知し、
前記空間へ進入した前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備える前記情報機器を検知し、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信する
ことを特徴とする座席案内方法。 A seat guidance method for guiding a user entering a space in which a plurality of seats are installed to one of the plurality of seats assigned to the user, comprising:
detecting entry of the user into the space;
Detecting an information device capable of communication held by the user who has entered the space, the information device having a speaker for outputting sound;
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit transmitted from the information device;
The seat assigned to the user is guided by voice based on whether the orientation of the user's head is periodically changing, determined from the temporal change in the orientation of the head-mounted unit. determining whether or not to transmit voice information to the information device;
A seat guidance method , comprising transmitting the voice information to the information device when it is determined to transmit the information .
前記情報機器は、前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備え、
前記座席案内装置は、
前記空間への前記ユーザーの進入を検知する進入検知センサと、
前記空間へ進入した前記ユーザーが保持する前記情報機器を検知し、前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信する制御部と、を備え、
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、前記音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信し、
前記情報機器は、前記音声情報を受信した場合、スピーカから前記座席を案内する音声を出力する
ことを特徴とする座席案内システム。 Equipped with a seat guidance device and an information device, it guides a user entering a space in which a plurality of seats are installed to one of the plurality of seats assigned to the user. A seat guidance system ,
The information equipment is an information equipment capable of communication held by the user, and has a speaker for outputting sound,
The seat guidance device,
an entry detection sensor that detects entry of the user into the space;
a control unit that detects the information device held by the user who has entered the space and transmits voice information for guiding the seat assigned to the user by voice to the information device;
The control unit
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit transmitted from the information device;
transmitting the audio information to the information device based on a result of whether or not the orientation of the user's head is periodically changing, determined from the temporal change in the orientation of the head- mounted unit; determine whether or not
If it is determined to transmit, the audio information is transmitted to the information device ;
A seat guidance system , wherein the information device outputs a voice for guiding the seat from a speaker when receiving the voice information .
前記制御部は、
前記センサ情報から前記情報機器の移動方向及び移動量を算出することにより、前記情報機器の位置を推定し、
前記情報機器の前記位置と前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項10記載の座席案内システム。 The information equipment includes an acceleration sensor, a gyro sensor, and a magnetic sensor, and transmits sensor information obtained from the acceleration sensor, the gyro sensor, and the magnetic sensor to the control unit,
The control unit
estimating the position of the information device by calculating the direction and amount of movement of the information device from the sensor information;
11. The seat guidance system according to claim 10, wherein the voice information indicating the relationship between the position of the information device and the position of the seat is transmitted to the information device.
前記頭部装着部は、加速度センサ、ジャイロセンサ、及び磁気センサを備え、
前記情報機器は、前記加速度センサ、前記ジャイロセンサ、及び前記磁気センサから得られるセンサ情報を前記制御部に対して送信し、
前記制御部は、
前記センサ情報から前記頭部装着部の向きを推定し、
前記頭部装着部の向きと前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項10又は11記載の座席案内システム。 The information equipment includes a head-mounted unit mounted on the user's head and having the speaker,
The head mounted unit includes an acceleration sensor, a gyro sensor, and a magnetic sensor,
The information device transmits sensor information obtained from the acceleration sensor, the gyro sensor, and the magnetic sensor to the control unit,
The control unit
estimating the orientation of the head mounted part from the sensor information;
12. The seat guidance system according to claim 10, wherein the voice information indicating the relationship between the orientation of the head mounted unit and the position of the seat is transmitted to the information device.
前記頭部装着部は、加速度センサ、ジャイロセンサ、及び磁気センサを備え、
前記情報機器は、前記加速度センサ、前記ジャイロセンサ、及び前記磁気センサから得られるセンサ情報を前記制御部に対して送信し、
前記制御部は、
前記センサ情報から前記情報機器の移動方向及び移動量を算出することにより、前記情報機器の位置を推定し、
前記センサ情報から前記頭部装着部の向きを推定し、
前記情報機器の位置及び前記頭部装着部の向きに基づいて、前記ユーザーに割り当てられた前記座席を中心に音を発する仮想音場による前記音声情報を前記情報機器に対して送信し、
前記情報機器は、前記スピーカから前記仮想音場により音声を出力する
ことを特徴とする請求項10~12の何れか一項に記載の座席案内システム。 The information equipment includes a head-mounted unit mounted on the user's head and having the speaker,
The head mounted unit includes an acceleration sensor, a gyro sensor, and a magnetic sensor,
The information device transmits sensor information obtained from the acceleration sensor, the gyro sensor, and the magnetic sensor to the control unit,
The control unit
estimating the position of the information device by calculating the direction and amount of movement of the information device from the sensor information;
estimating the orientation of the head mounted part from the sensor information;
Based on the position of the information device and the orientation of the head-mounted unit, the audio information is transmitted to the information device by a virtual sound field that emits sound centering on the seat assigned to the user ;
13. The seat guidance system according to any one of claims 10 to 12 , wherein said information device outputs sound from said speaker in said virtual sound field .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018233498A JP7291476B2 (en) | 2018-12-13 | 2018-12-13 | Seat guidance device, seat guidance method, and seat guidance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018233498A JP7291476B2 (en) | 2018-12-13 | 2018-12-13 | Seat guidance device, seat guidance method, and seat guidance system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020093696A JP2020093696A (en) | 2020-06-18 |
JP7291476B2 true JP7291476B2 (en) | 2023-06-15 |
Family
ID=71084689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018233498A Active JP7291476B2 (en) | 2018-12-13 | 2018-12-13 | Seat guidance device, seat guidance method, and seat guidance system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7291476B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006059053A (en) | 2004-08-19 | 2006-03-02 | Hitachi Ltd | In-facility information providing system and method |
JP2006331290A (en) | 2005-05-30 | 2006-12-07 | Kyocera Corp | Guide system |
US20170243449A1 (en) | 2016-02-24 | 2017-08-24 | International Business Machines Corporation | Identifying a seat position with infrared light |
JP2018078398A (en) | 2016-11-07 | 2018-05-17 | 株式会社ネイン | Autonomous assistant system using multifunctional earphone |
-
2018
- 2018-12-13 JP JP2018233498A patent/JP7291476B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006059053A (en) | 2004-08-19 | 2006-03-02 | Hitachi Ltd | In-facility information providing system and method |
JP2006331290A (en) | 2005-05-30 | 2006-12-07 | Kyocera Corp | Guide system |
US20170243449A1 (en) | 2016-02-24 | 2017-08-24 | International Business Machines Corporation | Identifying a seat position with infrared light |
JP2018078398A (en) | 2016-11-07 | 2018-05-17 | 株式会社ネイン | Autonomous assistant system using multifunctional earphone |
Also Published As
Publication number | Publication date |
---|---|
JP2020093696A (en) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210339708A1 (en) | Identifying and authenticating autonomous vehicles and passengers | |
US10360907B2 (en) | Smart necklace with stereo vision and onboard processing | |
KR101711835B1 (en) | Vehicle, Vehicle operating method and wearable device operating method | |
AU2015206668B2 (en) | Smart necklace with stereo vision and onboard processing | |
US9915545B2 (en) | Smart necklace with stereo vision and onboard processing | |
US20170343375A1 (en) | Systems to dynamically guide a user to an autonomous-driving vehicle pick-up location by augmented-reality walking directions | |
KR102019124B1 (en) | Head mounted display and method for controlling the same | |
US10598506B2 (en) | Audio navigation using short range bilateral earpieces | |
JP2022546100A (en) | Vehicle Commuting Control Method and Apparatus, Electronics, Media, and Vehicles | |
CN113660611B (en) | Positioning method and device | |
JP2005332309A (en) | User support device | |
US10496887B2 (en) | Device, system and method for controlling a communication device to provide alerts | |
KR20150069124A (en) | Vision assist device and guide system for blind people using the same | |
JP7139921B2 (en) | Vehicle and notification method | |
ES2795016T3 (en) | Assistance procedure in following a conversation for a person with hearing problems | |
JPWO2018020884A1 (en) | Terminal device and device system | |
JP7291476B2 (en) | Seat guidance device, seat guidance method, and seat guidance system | |
JP2009238251A (en) | User support device | |
JP2007272906A (en) | Device for acquiring/transmitting/outputting presence information | |
JP7240865B2 (en) | Guidance information transmission device and guidance information transmission method | |
JP2018067157A (en) | Communication device and control method thereof | |
JP2018124718A (en) | Proxy device, base station, proxy method and program | |
JP6983329B6 (en) | Information processing system, information processing device, and information processing method | |
JP2002195850A (en) | Guide system, guide method and information communication terminal | |
JP2020144011A (en) | Audio information providing system, control method of information processing terminal, control program of information processing terminal, control method of audio output device, and control program of audio output device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7291476 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |