JP7291476B2 - Seat guidance device, seat guidance method, and seat guidance system - Google Patents

Seat guidance device, seat guidance method, and seat guidance system Download PDF

Info

Publication number
JP7291476B2
JP7291476B2 JP2018233498A JP2018233498A JP7291476B2 JP 7291476 B2 JP7291476 B2 JP 7291476B2 JP 2018233498 A JP2018233498 A JP 2018233498A JP 2018233498 A JP2018233498 A JP 2018233498A JP 7291476 B2 JP7291476 B2 JP 7291476B2
Authority
JP
Japan
Prior art keywords
information
user
seat
head
information device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018233498A
Other languages
Japanese (ja)
Other versions
JP2020093696A (en
Inventor
剛仁 寺口
裕史 井上
乘 西山
翔太 大久保
雄宇 志小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2018233498A priority Critical patent/JP7291476B2/en
Publication of JP2020093696A publication Critical patent/JP2020093696A/en
Application granted granted Critical
Publication of JP7291476B2 publication Critical patent/JP7291476B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、座席案内装置、座席案内方法、及び座席案内システムに関する。 The present invention relates to a seat guidance device, a seat guidance method, and a seat guidance system.

従来から、劇場やホールの入場者に対して座席の位置を表示する座席案内装置が知られている(特許文献1参照)。特許文献1では、入場券から座席番号を認識し、劇場の座席の見取図に対して当該座席番号に相当する座席の位置を強調表示して、劇場入口に設置されたCRTに表示することにより、画像を用いて座席を案内している。 2. Description of the Related Art Conventionally, there has been known a seat guidance device that displays the position of a seat for visitors to a theater or hall (see Patent Document 1). In Patent Document 1, the seat number is recognized from the admission ticket, the position of the seat corresponding to the seat number is highlighted on the floor plan of the theater seat, and displayed on the CRT installed at the entrance of the theater. Seats are guided using images.

特開平6-274767号公報JP-A-6-274767

しかしながら、入場者が自席に向かって移動している途中で、入場者の現在位置に対する自席の相対位置をリアルタイムに反映して案内することができない。また、画像による座席案内を苦手とする入場者にとって利用し難い、という課題があった。 However, while the visitor is moving toward his or her seat, the relative position of the visitor's seat relative to the current position of the visitor cannot be reflected in real time. In addition, there is a problem that it is difficult for visitors who are not good at seat guidance by images to use it.

本発明は、上記課題に鑑みて成されたものであり、その目的は、ユーザーに割り当てられた座席を直感的に案内することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problem, and its object is to intuitively guide the seat assigned to the user.

本発明の一態様に係わる座席案内装置は、複数の座席が設置された空間へ進入するユーザーに対して、ユーザーに割り当てられた座席を案内する座席案内装置であって、空間へのユーザーの進入を検知する進入検知センサと、空間へ進入したユーザーが保持する、スピーカを備える情報機器を検知し、ユーザーに割り当てられた座席を音声で案内する音声情報を情報機器に対して送信する制御部とを備える。 A seat guidance device according to one aspect of the present invention is a seat guidance device that guides a user entering a space having a plurality of seats to the seat assigned to the user. and a control unit that detects an information device equipped with a speaker held by a user who has entered the space and transmits voice information to the information device that guides the seat assigned to the user by voice. Prepare.

本発明によれば、ユーザーに割り当てられた座席を直感的に案内することができる。 According to the present invention, it is possible to intuitively guide the seat assigned to the user.

図1は、第1実施形態に係る座席案内装置を含む座席案内システムの全体構成を示すブロック図である。FIG. 1 is a block diagram showing the overall configuration of a seat guidance system including a seat guidance device according to the first embodiment. 図2は、第1実施形態に係る座席案内方法を示すフローチャートである。FIG. 2 is a flow chart showing the seat guidance method according to the first embodiment. 図3は、第2実施形態に係る座席案内方法を示すフローチャートである。FIG. 3 is a flow chart showing a seat guidance method according to the second embodiment. 図4は、音声案内の例を示す表である。FIG. 4 is a table showing an example of voice guidance.

図面を参照して、実施形態を説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 Embodiments will be described with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.

(第1実施形態)
図1を参照して、第1実施形態に係る座席案内装置を含む座席案内システムの全体構成を説明する。第1実施形態に係る座席案内システムは、複数の座席14が設置された空間10へ進入するユーザーに対して、複数の座席14のうちの1つの座席14aであって、ユーザーに割り当てられた座席14aを案内するシステムである。座席案内システムは、情報機器12と、座席案内装置13とを有する。情報機器12は、座席14aを案内する際のユーザーインターフェースとして使用され、ユーザーが保持する通信可能な情報機器12であり、音声を出力するスピーカ27を備える。座席案内装置13は、情報機器12に対して、ユーザーに割り当てられた座席14aを音声で案内する音声情報を送信する。情報機器12は、音声情報を受信した場合、スピーカ27から座席14aを案内する音声を出力する。このようにして、第1実施形態に係わる座席案内システムは、ユーザーに対して、割り当てられた座席14aを音声で案内することができる。
(First embodiment)
An overall configuration of a seat guidance system including a seat guidance device according to the first embodiment will be described with reference to FIG. The seat guidance system according to the first embodiment guides a user entering a space 10 in which a plurality of seats 14 are installed to one seat 14a among the plurality of seats 14, which is assigned to the user. It is a system that guides 14a. The seat guidance system has an information device 12 and a seat guidance device 13 . The information device 12 is used as a user interface when guiding the seat 14a, is a communicable information device 12 held by the user, and has a speaker 27 for outputting sound. The seat guidance device 13 transmits to the information device 12 voice information for voice guidance of the seat 14a assigned to the user. When the information device 12 receives the voice information, the information device 12 outputs a voice for guiding the seat 14a from the speaker 27 . In this manner, the seat guidance system according to the first embodiment can guide the user to the assigned seat 14a by voice.

「複数の座席14が設置された空間10」には、複数の座席14が設けられた移動体内の空間、及び複数の座席14が設けられた施設内の空間が含まれる。「移動体」には、タクシー、バス、自家用車を含む自動車と、自動車及び電車を含む車両と、飛行機と、船とが含まれる。「施設」には、映画館、劇場、競技場等の屋外及び屋内の施設である。「空間10」は、移動体又は施設の内部に形成されている場合に限らず、空間10の一部が移動体又は施設の外部に面していても構わない。自動車は、自動運転機能を有していてもよい。例えば、本実施形態の座席案内システムは、無人で走行可能なタクシー(ロボットタクシー車両)の車内の空間10に設けられた座席14aを、ユーザー(乗客)に対して案内する。 The “space 10 in which a plurality of seats 14 are installed” includes a space in a moving body in which a plurality of seats 14 are installed and a space in a facility in which a plurality of seats 14 are installed. "Moving objects" include automobiles including taxis, buses and private cars, vehicles including automobiles and trains, airplanes and ships. "Facilities" include outdoor and indoor facilities such as movie theaters, theaters, and stadiums. The "space 10" is not limited to being formed inside the mobile body or facility, and a part of the space 10 may face the outside of the mobile body or facility. The automobile may have an automatic driving function. For example, the seat guidance system of the present embodiment guides the user (passenger) to the seat 14a provided in the space 10 inside the taxi (robot taxi vehicle) that can run unmanned.

情報機器12には、ラップトップパソコン、タブレットPC、スマートフォン22、ウェアラブル機器等、ユーザーが保持、携帯、又は装着することができる情報通信端末が含まれる。「ウェアラブル機器」とは、ユーザーが身に付ける、即ち装着することができる電子機器であり、ウェアラブルコンピュータとも呼ばれる。ウェアラブル機器の形状は問わず、例えば、腕時計型、眼鏡型、指輪型、靴型、懐中型などの様々な形状が含まれる。更に、ウェアラブル機器には、ユーザーの頭部に装着され、且つスピーカ27を有する頭部装着部を備える機器(「ヒアラブル機器21」と呼ぶ。)が含まれる。ヒアラブル機器21には、ヘッドマウント型、ヘッドフォン型、イヤフォン型などの様々な形状が含まれる。イヤフォン型には、左右の耳に装着する1対の部材が独立しており、ブルートゥース(Bluetooth)(登録商標)等の無線通信を行う完全ワイヤレスイヤホン型、及び、1対の部材がケーブルで接続されたネックバンド型が含まれる。 The information equipment 12 includes an information communication terminal that can be held, carried, or worn by a user, such as a laptop computer, a tablet PC, a smart phone 22, or a wearable device. A "wearable device" is an electronic device that can be worn or worn by a user, also called a wearable computer. The shape of the wearable device does not matter, and includes various shapes such as a wristwatch type, eyeglass type, ring type, shoe type, and pocket type. Furthermore, the wearable device includes a device that is worn on the user's head and that includes a head-mounted part having a speaker 27 (referred to as a "hearable device 21"). The hearable device 21 includes various shapes such as a head-mounted type, a headphone type, and an earphone type. The earphone type has a pair of independent members worn on the left and right ears, and a completely wireless earphone type that performs wireless communication such as Bluetooth (registered trademark), and a pair of members are connected with a cable. Includes neckband style.

これらの情報機器12は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26を備える。更に、情報機器12は、音声案内を出力するスピーカ27と、座席案内装置13との間で通信を行う通信部29と、センサ(24、25、26)、スピーカ27、マイク28及び通信部29を制御するコントローラ23とを備える。情報機器12がヒアラブル機器21である場合、頭部装着部には、ジャイロセンサ24、加速度センサ25、磁気センサ26、及びスピーカ27が搭載されている。情報機器12は、ユーザーの音声を電気信号へ変換するマイク28を更に備えていてもよい。 These information devices 12 include a gyro sensor 24 , an acceleration sensor 25 and a magnetic sensor 26 . Further, the information equipment 12 includes a speaker 27 that outputs voice guidance, a communication unit 29 that communicates with the seat guidance device 13, sensors (24, 25, 26), a speaker 27, a microphone 28, and a communication unit 29. and a controller 23 for controlling the When the information device 12 is a hearable device 21, a gyro sensor 24, an acceleration sensor 25, a magnetic sensor 26, and a speaker 27 are mounted on the head mounted portion. The information equipment 12 may further include a microphone 28 that converts the user's voice into an electrical signal.

図1には、情報機器12として、ヒアラブル機器21の他に、スマートフォン22を示す。即ち、ユーザーがヒアラブル機器21及びスマートフォン22の双方を保持、形態、又は装着している例を示す。スマートフォン22は、ヒアラブル機器21と同様な構成要素(23~29)のみならず、画像を表示する表示部30を更に備える。 FIG. 1 shows a smart phone 22 as the information device 12 in addition to the hearable device 21 . That is, an example in which the user holds, forms, or wears both the hearable device 21 and the smart phone 22 is shown. The smartphone 22 further includes not only the same components (23 to 29) as the hearable device 21, but also a display section 30 for displaying images.

コントローラ23は、ジャイロセンサ24が測定した角速度を示す角速度データ、加速度センサ25が測定した加速度を示す加速度データ、及び磁気センサ26が測定した磁気を示す磁気データを取得する。コントローラ23は、座席案内装置13からのリクエストに応じて、角速度データ、加速度データ、及び磁気データを座席案内装置13へ送信する。 The controller 23 acquires angular velocity data indicating the angular velocity measured by the gyro sensor 24 , acceleration data indicating acceleration measured by the acceleration sensor 25 , and magnetic data indicating magnetism measured by the magnetic sensor 26 . The controller 23 transmits angular velocity data, acceleration data, and magnetic data to the seat guidance device 13 in response to a request from the seat guidance device 13 .

座席案内装置13は、複数の座席14の各々に設けられた着座センサ41、コントローラ42及び通信部43を備える。着座センサ41は、ユーザーの座席へ着座を検知する圧力センサである。コントローラ42は、着座センサ41から受信するセンサ信号に基づいて座席へ着座を判断し、判断結果を示す信号を通信部43へ出力する。通信部43は、判断結果を示す信号を送信する。 The seat guidance device 13 includes a seating sensor 41 provided for each of the plurality of seats 14, a controller 42, and a communication section 43. As shown in FIG. The seating sensor 41 is a pressure sensor that detects the seating of the user on the seat. The controller 42 determines whether or not the user is seated on the seat based on the sensor signal received from the seating sensor 41 and outputs a signal indicating the determination result to the communication section 43 . The communication unit 43 transmits a signal indicating the determination result.

座席案内装置13は、空間10内に配置されたサーバユニット50を備える。サーバユニット50は、進入検知センサ52と、コントローラ51と、通信部53とを備える。進入検知センサ52は、空間10の入口11近傍に配置され、ユーザーの空間10への進入を検知する光センサである。例えば、入口11を跨いで光を射出する発光部と光を受光する受光部とを配置し、光が一時的に遮られたことによりユーザーの空間10への進入を検知する。 The seat guidance device 13 includes a server unit 50 arranged within the space 10 . The server unit 50 includes an entry detection sensor 52 , a controller 51 and a communication section 53 . The entry detection sensor 52 is an optical sensor that is arranged near the entrance 11 of the space 10 and detects the entry of the user into the space 10 . For example, a light-emitting unit that emits light and a light-receiving unit that receives light are arranged across the entrance 11, and the entry of the user into the space 10 is detected when the light is temporarily blocked.

コントローラ51は、進入検知センサ52から受信するセンサ信号に基づいてユーザーの空間10への進入を判断する。通信部53は、情報機器12又は座席14の各々との間で様々な信号の送受信を行う。 The controller 51 determines whether the user has entered the space 10 based on the sensor signal received from the entry detection sensor 52 . The communication unit 53 transmits and receives various signals to and from the information device 12 or the seat 14 .

コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データ(頭部装着部の向きを示す方向情報の一例)に基づいて、頭部装着部の現在の向きを推定する。 The controller 51 estimates the current orientation of the head-mounted unit based on angular velocity data, acceleration data, and magnetic data (an example of direction information indicating the orientation of the head-mounted unit) transmitted from the information device 12 .

コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データ(情報機器12の位置を示す方向情報の一例)に基づいて、情報機器12の現在の位置を推定する。 The controller 51 estimates the current position of the information device 12 based on angular velocity data, acceleration data, and magnetic data (an example of direction information indicating the position of the information device 12) transmitted from the information device 12.

具体的に、コントローラ51は、歩行者自律航法(Pedestrian Dead Reckoning)を用いることにより、角速度データ、加速度データ、及び磁気データから、ヒアラブル機器21又はスマートフォン22の移動方向及び移動量を推測する。コントローラ51は、移動方向及び移動量を時間で積算することにより、ヒアラブル機器21又はスマートフォン22の現在の位置及び頭部装着部の現在の向きを推定する。なお、コントローラ51は、建物等の構造物の鉄材から発生する屋内地磁気のパターンに基づいて、屋内における自己位置を求めることも出来る。 Specifically, the controller 51 estimates the movement direction and movement amount of the hearable device 21 or the smartphone 22 from angular velocity data, acceleration data, and magnetic data by using pedestrian dead reckoning. The controller 51 estimates the current position of the hearable device 21 or the smart phone 22 and the current orientation of the head-mounted unit by integrating the movement direction and movement amount over time. The controller 51 can also determine its own position indoors based on the pattern of indoor geomagnetism generated from the iron materials of structures such as buildings.

コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データに基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。「座席14aを中心に音を発する仮想音場」とは、頭部装着部の向きや移動方向に関わりなく、任意の位置(座席14a)に音源を固定する「音響定位」を実現した音場である。3次元的な音の方向感や距離感を仮想的に再現する「立体音響技術」と、頭部装着部に内蔵されたジャイロセンサ24、加速度センサ25、及び磁気センサ26から得られるセンサ情報とを活用して、頭部装着部の向きや移動方向に関わりなく、音源を任意の位置に固定する「音響定位技術」を用いて実現される。これにより、ユーザーは、ヒアラブル機器21から聞こえてくる音声の距離感及び方向感から、音源の方向及び位置を知ることができるので、音声を頼りに座席14aを探すことができる。これにより、スマートフォン22の表示部30を見ながらの歩行を抑制することができる。 Based on the angular velocity data, acceleration data, and magnetic data transmitted from the information device 12, the controller 51 generates audio information by a virtual sound field that emits sound centering on the seat 14a assigned to the user. A "virtual sound field that emits sound centering on the seat 14a" is a sound field that achieves "acoustic localization" in which the sound source is fixed at an arbitrary position (seat 14a) regardless of the orientation or movement direction of the head-mounted part. is. "Stereophonic technology" that virtually reproduces the sense of direction and distance of three-dimensional sound, and sensor information obtained from the gyro sensor 24, acceleration sensor 25, and magnetic sensor 26 built into the head-mounted part. It is realized by using "acoustic localization technology" that fixes the sound source at an arbitrary position regardless of the orientation or movement direction of the head-mounted part. As a result, the user can know the direction and position of the sound source from the sense of distance and sense of direction of the voice heard from the hearable device 21, and can search for the seat 14a by relying on the voice. Thereby, walking while looking at the display unit 30 of the smartphone 22 can be suppressed.

なお、ヒアラブル機器21及びスマートフォン22の各通信部は、座席案内装置13の各通信部(43、53)との間で、無線LAN、ブルートゥース(Bluetooth)(登録商標)の少なくとも1つの近距離無線通信規格に基づく無線通信を行う。更に、ヒアラブル機器21の通信部29とスマートフォン22の通信部の間でも同様にして無線通信を行うことができる。或いは、ヒアラブル機器21の通信部29とスマートフォン22の通信部との間をケーブル(例えば、USBケーブル)で接続して通信を行っても構わない。 Each communication unit of the hearable device 21 and the smartphone 22 communicates with each communication unit (43, 53) of the seat guidance device 13 by at least one short-range wireless communication such as wireless LAN and Bluetooth (registered trademark). Performs wireless communication based on communication standards. Further, wireless communication can be similarly performed between the communication unit 29 of the hearable device 21 and the communication unit of the smartphone 22 . Alternatively, communication may be performed by connecting the communication unit 29 of the hearable device 21 and the communication unit of the smartphone 22 with a cable (for example, a USB cable).

座席に設けられた通信部43とサーバユニット50の通信部53との間で、近距離無線通信規格に基づく無線通信を行うことができる。或いは、座席に設けられた通信部43とサーバユニット50の通信部53の間をケーブル(例えば、LANケーブル)で接続して通信を行っても構わない。 Wireless communication based on the short-range wireless communication standard can be performed between the communication unit 43 provided in the seat and the communication unit 53 of the server unit 50 . Alternatively, communication may be performed by connecting the communication unit 43 provided in the seat and the communication unit 53 of the server unit 50 with a cable (for example, a LAN cable).

図2を参照して、図1に示す座席案内システムの動作の一例を説明する。ここでは、ロボットタクシー車両の車内の空間10に設けられた座席14aを、ユーザー(乗客)に対して案内する場合を例に取り、説明する。 An example of the operation of the seat guidance system shown in FIG. 1 will be described with reference to FIG. Here, a case where a user (passenger) is guided to a seat 14a provided in a space 10 inside a robot taxi vehicle will be described as an example.

まずステップS01において、ユーザーによる情報機器12、例えば、スマートフォン22の表示部30のタッチ操作に従い、スマートフォン22は、コントローラ51に対して座席14の予約をリクエストする。なお、ステップS01において、ユーザー及び情報機器12は、空間10の外部に居る。スマートフォン22の通信部は、通信部53に対して、座席14を予約するためのリクエスト信号を送信する。リクエスト信号には、ユーザーの個人情報を他に、希望の乗車地及び目的地を示す情報が含まれる。リクエスト信号を受信した通信部53は、リクエスト信号をコントローラ51へ転送する。コントローラ51は、リクエスト信号に基づき、座席の予約情報を確認した上で、特定の座席14aを情報機器12により識別されたユーザーに対して割り当てる。そして、コントローラ51は、割り当てた座席14aを特定する情報と共に、予約が完了したことを示す予約完了信号を、通信部53を介してスマートフォン22に送信する。予約完了信号をスマートフォン22が受信することにより、ユーザーは、座席14の予約リクエストに対して、座席14aが割り当てられたことを知ることが出来る。このように、ユーザーが配車予約を行うことにより、進入検知センサ52によりユーザーの空間10への進入を検知する前に、予め、複数の座席14のうちの1つの座席14aがユーザーに割り当てられている。 First, in step S<b>01 , the smartphone 22 requests the controller 51 to reserve the seat 14 in accordance with the user's touch operation on the information device 12 , for example, the display unit 30 of the smartphone 22 . It should be noted that the user and the information device 12 are outside the space 10 at step S01. The communication unit of smartphone 22 transmits a request signal for reserving seat 14 to communication unit 53 . The request signal includes the user's personal information as well as information indicating the desired boarding point and destination. The communication unit 53 that has received the request signal transfers the request signal to the controller 51 . Based on the request signal, the controller 51 confirms the seat reservation information and allocates a specific seat 14 a to the user identified by the information device 12 . The controller 51 then transmits to the smartphone 22 via the communication unit 53 a reservation completion signal indicating that the reservation has been completed together with information specifying the assigned seat 14a. When the smartphone 22 receives the reservation completion signal, the user can know that the seat 14a has been assigned to the seat 14 reservation request. In this manner, one seat 14a out of the plurality of seats 14 is assigned to the user in advance before the user's entry into the space 10 is detected by the entry detection sensor 52 by the user making a reservation for dispatch. there is

その後、ロボットタクシー車両は希望の乗車地まで自動運転により走行し、乗車地にて停車する。ユーザーはロボットタクシー車両に乗車する際に、スマートフォン22を用いて、予約をしたユーザーであることの認証(本人認証)を行っても構わない。本人認証が完了した後に、ドアを解錠して開くように制御することが出来る。ステップS02へ進み、進入検知センサは、ロボットタクシー車両の車内の空間10へのユーザーの進入を検知する。 After that, the robot taxi vehicle automatically travels to the desired boarding point and stops at the boarding point. When the user gets on the robot taxi vehicle, the user may use the smartphone 22 to authenticate that he/she is the user who made the reservation (personal authentication). After the personal authentication is completed, the door can be unlocked and opened. Proceeding to step S02, the entry detection sensor detects entry of the user into the space 10 inside the robot taxi vehicle.

その後、ステップS03へ進み、通信部53がスマートフォン22又はヒアラブル機器21との通信を試みることにより、コントローラ51は、ユーザーが保持、携帯、又は装着するスマートフォン22又はヒアラブル機器21を検知する。なお、コントローラ51は、ステップS01の予約操作で用いたスマートフォン22の識別情報を用いることにより、予約したユーザーが所持するスマートフォン22であることを判断することができる。或いは、後述する耳音響認証技術を用いて求めたユーザーの耳穴の形状から、コントローラ51は、検知したヒアラブル機器21が、予約したユーザーが所持する機器であることを認証してもよい。コントローラ51は、スマートフォン22又はヒアラブル機器21の通信部と通信部53との無線接続が確立することによって、スマートフォン22又はヒアラブル機器21を検知することができる。コントローラ51は、予め頭部装着部を備える情報機器12の識別番号を記憶するデータベースを備えており、検知した情報機器12の識別番号から、検知した情報機器12が、スピーカ27を有する頭部装着部を備えるか否かを判断することができる。 After that, the process proceeds to step S03, and the controller 51 detects the smartphone 22 or the hearable device 21 held, carried, or worn by the user by the communication unit 53 attempting to communicate with the smartphone 22 or the hearable device 21. FIG. Note that the controller 51 can determine that the smartphone 22 is owned by the user who made the reservation by using the identification information of the smartphone 22 used in the reservation operation in step S01. Alternatively, the controller 51 may authenticate that the detected hearable device 21 is owned by the reserved user, based on the shape of the user's ear canal obtained using ear acoustic authentication technology, which will be described later. The controller 51 can detect the smartphone 22 or the hearable device 21 by establishing a wireless connection between the communication unit of the smartphone 22 or the hearable device 21 and the communication unit 53 . The controller 51 has a database that stores the identification numbers of the information equipment 12 having the head-mounted portion in advance. It can be determined whether or not to include a part.

ステップS04へ進み、コントローラ51は、ユーザーがスマートフォン22及びヒアラブル機器21の双方を保持、携帯、又は装着するか否かを判断する。具体的には、コントローラ51は、ステップS03でスマートフォン22及びヒアラブル機器21の双方を検知したか否かを判断する。スマートフォン22及びヒアラブル機器21の双方を保持、携帯、又は装着している場合(S04でYES)、ステップS05へ進み、スマートフォン22及びヒアラブル機器21の少なくとも一方を保持、携帯、又は装着していない場合、図2に示す座席案内の処理は終了する。なお、第1実施形態では、スマートフォン22及びヒアラブル機器21の双方を有する場合の座席案内について説明する。一方、第2実施形態で、スマートフォン22及びヒアラブル機器21のいずれか一方のみを有する場合の座席案内について説明する。 Proceeding to step S<b>04 , the controller 51 determines whether the user holds, carries, or wears both the smart phone 22 and the hearable device 21 . Specifically, the controller 51 determines whether or not both the smart phone 22 and the hearable device 21 are detected in step S03. If both the smartphone 22 and the hearable device 21 are held, carried, or worn (YES in S04), the process proceeds to step S05, and if at least one of the smartphone 22 and the hearable device 21 is not held, carried, or worn. , the seat guidance processing shown in FIG. 2 ends. In addition, in the first embodiment, seat guidance when both the smartphone 22 and the hearable device 21 are provided will be described. On the other hand, in the second embodiment, seat guidance when only one of the smartphone 22 and the hearable device 21 is provided will be described.

ステップS05に進み、コントローラ51は、ユーザーに割り当てられた座席14aを音声で案内する音声情報を生成し、当該音声情報をスマートフォン22及びヒアラブル機器21の少なくとも一方に送信する。スマートフォン22及びヒアラブル機器21は、音声情報を受信した場合、スピーカから座席14aを案内する音声を出力する。スマートフォン22及びヒアラブル機器21の双方から音声を出力してもよい。或いは、スマートフォン22で音声情報を受信し、スマートフォン22が当該音声情報をヒアラブル機器21へ転送し、ヒアラブル機器21がスピーカ27から音声を出力してもよい。又は、コントローラ51は、割り当てられた座席14aの通信部43を介して、当該音声情報をスマートフォン22及びヒアラブル機器21のいずれか一方にのみ送信してもよい。 Proceeding to step S<b>05 , the controller 51 generates voice information for guiding the seat 14 a assigned to the user by voice, and transmits the voice information to at least one of the smartphone 22 and the hearable device 21 . When receiving the voice information, the smartphone 22 and the hearable device 21 output voice guidance to the seat 14a from the speaker. Audio may be output from both the smartphone 22 and the hearable device 21 . Alternatively, the smartphone 22 may receive audio information, the smartphone 22 may transfer the audio information to the hearable device 21 , and the hearable device 21 may output audio from the speaker 27 . Alternatively, the controller 51 may transmit the voice information to only one of the smartphone 22 and the hearable device 21 via the communication unit 43 of the assigned seat 14a.

ステップS05で出力する音声案内は、簡易な音声案内である。具体的には、座席14aの位置を客観的に示す情報、例えば、各座席に付された識別番号を音声で表現する。 The voice guidance output in step S05 is simple voice guidance. Specifically, the information objectively indicating the position of the seat 14a, for example, the identification number attached to each seat is expressed by voice.

ステップS06へ進み、コントローラ51は、ステップS02でユーザーの進入を検知してから所定の時間が経過するまでの間に、割り当てられた座席14aの着座センサ41が着座を検知したか否かを判断する。着座センサ41が着座を検知していない場合(S06でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS07へ進む。 Proceeding to step S06, the controller 51 determines whether or not the seating sensor 41 of the assigned seat 14a has detected that the user is seated within a predetermined period of time after detecting the entry of the user in step S02. do. If the seating sensor 41 has not detected seating (NO in S06), it can be determined that the user has not yet sat down and is searching for the seat 14a, so the process proceeds to step S07.

一方、着座センサ41が着座を検知した場合(S06でYES)、ユーザーは自分に割り当てられた座席14aを見つけて既に着座していると判断できる。この場合、音声案内を続ける必要がないため、図2に示す座席案内の処理は終了する。 On the other hand, if the seat sensor 41 detects that the user is seated (YES in S06), the user can determine that he/she has found the seat 14a assigned to him/herself and is already seated. In this case, since there is no need to continue the voice guidance, the seat guidance processing shown in FIG. 2 ends.

ステップS07へ進み、コントローラ51は、ステップS03で検知したヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。例えば、コントローラ51は、頭部装着部の一形態であるイヤフォンがユーザーの耳穴に装着されているか否かを判断する。 Proceeding to step S07, the controller 51 determines whether the head-mounted portion of the hearable device 21 detected in step S03 is worn on the user's head. For example, the controller 51 determines whether or not earphones, which are one type of head-mounted unit, are attached to the user's ear holes.

具体的な手法として、耳穴の形状を音で識別可能な生体認証技術(「耳音響認証技術」という)を利用することができる。耳音響認証技術を利用することにより、カナル型のイヤフォン(頭部装着部の一例)を耳に装着するだけで個人認証も行える。耳音響認証技術は、個人毎に異なる耳穴の形状によって反響音が異なるという性質を利用したものである。コントローラ51は、ヒアラブル機器21から耳穴の形状を示す情報が送信された場合、頭部装着部がユーザーの耳に装着されていると判断することができる。なお、耳音響認証技術と上記したスマートフォン22による予約操作とを関連付けることによって、ユーザーの耳穴の形状(人体)、ヒアラブル機器21、及びスマートフォン22の間で互いに関連付けることができる。 As a specific method, biometric authentication technology (referred to as “ear acoustic authentication technology”) capable of identifying the shape of the ear canal by sound can be used. By using ear acoustic authentication technology, personal authentication can be performed simply by wearing a canal-type earphone (an example of a head-mounted part) on the ear. The otoacoustic authentication technology utilizes the characteristic that echo sounds differ according to the shape of the ear canal, which differs from person to person. When information indicating the shape of the ear canal is transmitted from the hearable device 21, the controller 51 can determine that the head mounted unit is worn on the user's ear. By associating the ear acoustic authentication technology with the above-described reservation operation by the smartphone 22 , the user's ear canal shape (human body), the hearable device 21 , and the smartphone 22 can be associated with each other.

ユーザーが頭部装着部を頭部に装着していない場合(S07でNO)、ヒアラブル機器21から音声を出力しても、ユーザーに音声を伝えることができない。よって、ステップS13に進み、コントローラ51は、ユーザーに割り当てられた座席14aを画像で案内する画像情報をスマートフォン22に対して送信する。画像情報を受信したスマートフォン22は、表示部30に、ユーザーに割り当てられた座席14aを案内する画像を表示する。例えば、空間10に設置された座席14のレイアウトに対してユーザーに割り当てられた座席14aの位置をハイライトして表示する。その後、ステップS06へ戻る。 When the user does not wear the head-mounted unit on the head (NO in S07), even if the hearable device 21 outputs sound, the user cannot hear the sound. Therefore, the process proceeds to step S<b>13 , and the controller 51 transmits to the smartphone 22 image information that guides the seat 14 a assigned to the user by image. The smartphone 22 that has received the image information displays on the display unit 30 an image that guides the seat 14a assigned to the user. For example, the position of the seat 14a assigned to the user in the layout of the seats 14 installed in the space 10 is highlighted and displayed. After that, the process returns to step S06.

一方、ユーザーが頭部装着部を頭部に装着している場合(S07でYES)、ステップS08に進み、コントローラ51は、ヒアラブル機器21又はスマートフォン22に対して、頭部装着部の向きを示す方向情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。当該リクエストを受信したヒアラブル機器21又はスマートフォン22は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26から、角速度データ、加速度データ、及び磁気データを含むセンサ情報を取得する。そして、ヒアラブル機器21又はスマートフォン22は、ヒアラブル機器21から直接又はスマートフォン22を介してセンサ情報を送信する。コントローラ51は、センサ情報を受信し、センサ情報から頭部装着部の現在の向きを推測する。センサ情報から頭部装着部の現在の向きを推測する具体的な方法は後述する。 On the other hand, if the user wears the head-mounted unit on the head (YES in S07), the process proceeds to step S08, and the controller 51 indicates the direction of the head-mounted unit to the hearable device 21 or the smartphone 22. Request direction information (angular velocity data, acceleration data, and magnetic data). The hearable device 21 or smartphone 22 that has received the request acquires sensor information including angular velocity data, acceleration data, and magnetic data from the gyro sensor 24 , acceleration sensor 25 , and magnetic sensor 26 . Then, the hearable device 21 or the smartphone 22 transmits sensor information directly from the hearable device 21 or via the smartphone 22 . The controller 51 receives the sensor information and infers the current orientation of the head mounted unit from the sensor information. A specific method for estimating the current orientation of the head-mounted unit from sensor information will be described later.

ステップS09へ進み、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。具体的には、頭部装着部の向きの時間変化に基づいて、ユーザーが周期的に頭を左右に振っているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。この場合、ステップS10へ進む。 Proceeding to step S09, the controller 51 determines whether or not the direction of the user's head is periodically changing based on the time change of the direction of the head-mounted part. Specifically, it is determined whether or not the user periodically shakes his/her head left and right based on the time change of the orientation of the head-mounted unit. If the orientation of the user's head is periodically changing (YES in S09), the user cannot find the seat 14a assigned to him/herself, and periodically shakes his/her head left and right to search for the seat 14a. can be determined to be In this case, the process proceeds to step S10.

一方、ユーザーの頭部の向きが周期的に変化していない場合(S09でNO)、ユーザーが周期的に頭を左右に振っていないと判断できる。ユーザーは座席14aを発見して移動している途中であると判断することが出来る。この場合、ステップS06に戻り、ユーザーの着座を判断する。 On the other hand, if the direction of the user's head does not change periodically (NO in S09), it can be determined that the user does not periodically shake the head left and right. The user can find the seat 14a and determine that he/she is in the process of moving. In this case, the process returns to step S06 to determine whether the user is seated.

ステップS10において、コントローラ51は、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。具体的には、まず、ジャイロセンサ24を用いて角速度を計測し、加速度センサ25を用いて加速度を計測し、及び磁気センサ26を用いて磁場を計測する。角速度データ、加速度データ、及び磁気データを含むセンサ情報は、コントローラ51へ送信される。 In step S10, the controller 51 generates sound information by a virtual sound field that emits sound centering on the seat 14a assigned to the user. Specifically, first, the gyro sensor 24 is used to measure the angular velocity, the acceleration sensor 25 is used to measure the acceleration, and the magnetic sensor 26 is used to measure the magnetic field. Sensor information including angular velocity data, acceleration data, and magnetic data is sent to the controller 51 .

このようにして、コントローラ51は、頭部装着部の向きを示す方向情報及びヒアラブル機器21又はスマートフォン22の位置を示す位置情報(センサ情報)に基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。 In this way, the controller 51 moves around the seat 14a assigned to the user based on the direction information indicating the direction of the head-mounted part and the position information (sensor information) indicating the position of the hearable device 21 or the smartphone 22. Sound information is generated by a virtual sound field that emits sound.

ステップS11に進み、コントローラ51は、仮想音場による音声情報をヒアラブル機器21又はスマートフォン22へ送信する。仮想音場による音声情報を受信したスマートフォン22は、当該音声情報をヒアラブル機器21へ転送する。仮想音場による音声情報を受信したヒアラブル機器21は、スピーカ27から仮想音場により音声を出力する。 Proceeding to step S<b>11 , the controller 51 transmits audio information by the virtual sound field to the hearable device 21 or the smartphone 22 . The smartphone 22 that has received the audio information from the virtual sound field transfers the audio information to the hearable device 21 . The hearable device 21 that has received the audio information in the virtual sound field outputs audio from the speaker 27 in the virtual sound field.

ステップS12に進み、コントローラ51は、座席14aを中心に音を発する仮想音場により音声をスピーカ27から出力してから所定時間の間が経過するまでの間に、割り当てられた座席14aの着座センサ41が着座を検知したか否かを判断する。着座センサ41が着座を検知していない場合(S12でNO)、ユーザーは未だ座席14aに着座しておらず、座席14aを探していると判断できるので、ステップS13へ進む。 Proceeding to step S12, the controller 51 controls the seating sensor of the assigned seat 14a until a predetermined time elapses after the sound is output from the speaker 27 in a virtual sound field centering on the seat 14a. 41 determines whether or not seating has been detected. If the seating sensor 41 does not detect seating (NO in S12), it can be determined that the user has not yet sat on the seat 14a and is looking for the seat 14a, so the process proceeds to step S13.

一方、着座センサ41が着座を検知した場合(S12でYES)、ユーザーは自分に割り当てられた座席14aを見つけて既に着座していると判断できる。この場合、音声案内を続ける必要がないため、図2に示す座席案内の処理は終了する。 On the other hand, if the seating sensor 41 detects that the user is seated (YES in S12), the user can determine that he/she has already found the seat 14a assigned to him/herself and is already seated. In this case, since there is no need to continue the voice guidance, the seat guidance processing shown in FIG. 2 ends.

なお、ステップS11で出力される仮想音場による音声は、文言であってもよいし、文言でなくてもよい。文言である場合、頭部装着部の向きと座席14aの位置との関係を示す音声を出力してもよい。例えば、「右斜め前方に、貴方の座席14aがあります。」「左側を向いて歩いて下さい。」が挙げられる。更に、例えば、図4に示したように、頭部装着部の位置と座席14aの位置との関係を示す音声を出力してもよい。 It should be noted that the sound generated by the virtual sound field output in step S11 may be words or may not be words. In the case of text, a voice indicating the relationship between the orientation of the head mounted unit and the position of the seat 14a may be output. For example, "Your seat 14a is located diagonally forward on the right." "Please turn left and walk." Further, for example, as shown in FIG. 4, a sound indicating the relationship between the position of the head-mounted part and the position of the seat 14a may be output.

更に、ステップS11で出力される音声は、仮想音場による音声でなくてもよい。つまり、音響定位技術を用いずに、通常の音声を出力してもよい。この場合、音声は特定の意味を有する文言から成る。特定の意味を有する文言は、頭部装着部の向きと座席14aの位置との関係を示す文言、或いは、頭部装着部の位置と座席14aの位置との関係を示す文言である。 Furthermore, the sound output in step S11 does not have to be the sound produced by the virtual sound field. In other words, normal sound may be output without using the acoustic localization technique. In this case, speech consists of sentences with a specific meaning. Words having a specific meaning are words indicating the relationship between the orientation of the head mounted part and the position of the seat 14a, or words indicating the relationship between the position of the head mounted part and the position of the seat 14a.

以上説明したように、第1実施形態によれば、以下の作用効果が得られる。 As described above, according to the first embodiment, the following effects are obtained.

コントローラ51は、複数の座席14が設置された空間10へのユーザーの進入を検知し、ユーザーが保持する情報機器12を検知し、ユーザーに割り当てられた座席14aを音声で案内する音声情報を情報機器12に対して送信する(S10)。情報機器12からユーザーに音声で座席14aを案内することができる。よって、ユーザーはこの音声を頼りに座席14aを探すことができるので、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。 The controller 51 detects the entry of the user into the space 10 in which a plurality of seats 14 are installed, detects the information device 12 held by the user, and provides voice information for guiding the seat 14a assigned to the user by voice. It is transmitted to the device 12 (S10). The information device 12 can guide the user to the seat 14a by voice. Therefore, the user can search for the seat 14a based on this voice, so that the seat 14a assigned to the user can be guided intuitively. In addition, walking while looking at the display unit 30 of the smartphone 22 can be suppressed.

空間10へのユーザーの進入を検知してから所定の時間が経過するまでの間に、着座センサ41がユーザーの着座を検知していない場合に、コントローラ51は、音声情報を情報機器に対して送信する(S10)。ユーザーが車内に進入してしばらくの間、着座していない場合、ユーザーは、座席14aが見つからないため座席14aの案内を求めていると推測できる。この推定されるユーザーの要望に対して、適時に音声で案内することができる。所定の時間内に着座できたユーザーに対して、無用な音声案内を行わない。音声案内が必要なユーザーにだけ音声案内を行うことができる。 If the seating sensor 41 does not detect that the user is seated within a predetermined period of time after detecting the user's entry into the space 10, the controller 51 transmits audio information to the information device. Send (S10). If the user has not been seated for a while after entering the vehicle, it can be inferred that the user is requesting guidance for the seat 14a because the user cannot find the seat 14a. In response to this estimated user's desire, it is possible to timely provide voice guidance. To prevent useless voice guidance for a user who has been seated within a predetermined time. Voice guidance can be given only to users who need voice guidance.

スピーカ27を備えるヒアラブル機器21(第1の情報機器)と、画像を表示する表示部30を備えるスマートフォン22(第2の情報機器)との両方を検知した場合(S04でYES)、ヒアラブル機器21に対して音声情報を送信し(S05)、スピーカ27から音声情報が出力された後に、ユーザーに割り当てられた座席14aを画像で案内する画像情報をスマートフォン22に対して送信する(S13)。音声と画像とを組み合わせて座席14aを案内することにより、音声案内又は画像案内のいずれか一方を苦手とするユーザーにも対応することができる。音声と画像との組合せにより、より明確に座席14aを案内できる。 When both the hearable device 21 (first information device) equipped with the speaker 27 and the smart phone 22 (second information device) equipped with the display unit 30 for displaying images are detected (YES in S04), the hearable device 21 (S05), and after the audio information is output from the speaker 27, image information for guiding the seat 14a assigned to the user is transmitted to the smartphone 22 (S13). By guiding the seat 14a using a combination of voice and image, it is possible to deal with users who are not good at either voice guidance or image guidance. A combination of voice and image can guide the seat 14a more clearly.

進入検知センサ52により空間10へのユーザーの進入を検知する前に、予め、複数の座席のうちの1つの座席14aがユーザーに割り当てられている(S01)。すなわち、事前に座席14aを予約したユーザーがロボットタクシー車両に乗車する(S02)。オンライン予約で使用した情報機器(スマートフォン22)とステップS03で検知される情報機器との同一性を判断することにより、容易に、予約したユーザーであることを認証できる。なお、事前に座席14aを予約していないユーザーに対しても、本実施形態に係わる音声案内装置及び方法を適用できる。ただし、図2のステップS01は不要となる。 Before the user's entry into the space 10 is detected by the entry detection sensor 52, one seat 14a of a plurality of seats is assigned to the user in advance (S01). That is, the user who reserved the seat 14a in advance gets on the robot taxi vehicle (S02). By determining the identity of the information device (smartphone 22) used for the online reservation and the information device detected in step S03, it is possible to easily authenticate that the user has made the reservation. Note that the voice guidance device and method according to the present embodiment can also be applied to a user who has not reserved a seat 14a in advance. However, step S01 in FIG. 2 becomes unnecessary.

コントローラ51は、情報機器2から送信される頭部装着部の向きを示す方向情報としてセンサ情報を受信し、頭部装着部の向きの時間変化に基づいて、音声情報を情報機器12に対して送信するか否かを判断する。具体的には、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。周期的に頭を左右に振って座席14aを探しているユーザーに対して、適時に音声で案内することができる。 The controller 51 receives sensor information as direction information indicating the orientation of the head-mounted unit transmitted from the information device 2, and transmits audio information to the information device 12 based on the temporal change in the orientation of the head-mounted unit. Determine whether to send or not. Specifically, the controller 51 determines whether or not the orientation of the user's head is periodically changing based on the temporal change in the orientation of the head-mounted unit. If the orientation of the user's head is periodically changing (YES in S09), the user cannot find the seat 14a assigned to him/herself, and periodically shakes his/her head left and right to search for the seat 14a. can be determined to be The user who periodically shakes his head left and right to search for the seat 14a can be appropriately guided by voice.

コントローラ51は、情報機器12から送信される頭部装着部の向きを示す方向情報、及び情報機器12の位置を示す位置情報としてセンサ情報を受信する。そして、コントローラ51は、センサ情報(方向情報及び位置情報)に基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成し、情報機器12に対して送信する。これより、情報機器12(ヒアラブル機器21)は、スピーカ27から仮想音場により音声を出力することができる。これにより、ユーザーは、ヒアラブル機器21から聞こえてくる音声の距離感及び方向感から、音源の方向及び位置を知ることができるので、音声を頼りに座席14aを探すことができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。更に、空間10内の他のユーザーへの音漏れも軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。 The controller 51 receives sensor information as direction information indicating the direction of the head-mounted unit transmitted from the information device 12 and position information indicating the position of the information device 12 . Then, based on the sensor information (direction information and position information), the controller 51 generates sound information by a virtual sound field that emits sound centering on the seat 14a assigned to the user, and transmits the sound information to the information device 12. . As a result, the information device 12 (hearable device 21) can output sound from the speaker 27 in a virtual sound field. As a result, the user can know the direction and position of the sound source from the sense of distance and sense of direction of the voice heard from the hearable device 21, and can search for the seat 14a by relying on the voice. Thereby, it is possible to intuitively guide the seat 14a assigned to the user. In addition, walking while looking at the display unit 30 of the smartphone 22 can be suppressed. Furthermore, sound leakage to other users in the space 10 is also reduced. Therefore, two or more users wearing the hearable devices 21 can be simultaneously guided to seats by voice.

空間10へのユーザーの進入は、車両(ロボットタクシー車両)へのユーザーの乗車である。実施形態では、複数の座席14が設置された空間10の一例として、ロボットタクシー車両の車室内空間を例示した。ロボットタクシー車両に乗車したユーザーに対して、割り当てられた座席14aを直感的に案内することができる。 The user's entry into space 10 is the user's entry into a vehicle (robot taxi vehicle). In the embodiment, as an example of the space 10 in which the plurality of seats 14 are installed, the interior space of the robot taxi vehicle is exemplified. The assigned seat 14a can be intuitively guided to the user who got into the robot taxi vehicle.

第1実施形態では、座席案内装置13の制御部がコントローラ51である場合を説明した。座席案内装置13の制御部は、座席14aに設けられたコントローラ42であっても構わない。各座席に設けられたコントローラ42が、サーバユニット50及び情報機器12と通信を行い、図2に示した一連の情報処理を実施してもよい。また、座席案内装置13のコントローラ(51、42)の代わりに、情報機器12が備えるコントローラ23が、座席案内装置13と通信を行い、図2に示した一連の情報処理を実施してもよい。つまり、座席案内システムにおいて、空間10内に設置された座席案内装置13及び情報機器12の双方にコントローラを備えている場合、いずれのコントローラが、図2に示した一連の情報処理を実施してもよい。 1st Embodiment demonstrated the case where the control part of the seat guidance apparatus 13 was the controller 51. FIG. The controller of the seat guide device 13 may be the controller 42 provided on the seat 14a. A controller 42 provided in each seat may communicate with the server unit 50 and the information equipment 12 to carry out the series of information processing shown in FIG. Also, instead of the controllers (51, 42) of the seat guidance device 13, the controller 23 included in the information device 12 may communicate with the seat guidance device 13 and perform the series of information processing shown in FIG. . That is, in the seat guidance system, when both the seat guidance device 13 and the information device 12 installed in the space 10 are provided with controllers, either controller executes the series of information processing shown in FIG. good too.

第1実施形態において、コントローラ(23、42、51)は、CPU(中央処理装置)、RAM及びROMなどのメモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、座席案内装置の一部分として機能させるためのコンピュータプログラム(座席案内プログラム)がインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、座席案内装置が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって座席案内装置が備える複数の情報処理回路を実現する例を示す。もちろん、各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。更に、情報処理回路は、ロボットタクシー車両にかかわる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。 In the first embodiment, the controllers (23, 42, 51) are general-purpose microcomputers having CPUs (Central Processing Units), memories such as RAM and ROM, and input/output units. A computer program (seat guidance program) is installed in the microcomputer to function as a part of the seat guidance system. By executing the computer program, the microcomputer functions as a plurality of information processing circuits included in the seat guidance system. Here, an example of realizing a plurality of information processing circuits provided in the seat guidance device by software is shown. Of course, it is also possible to configure an information processing circuit by preparing dedicated hardware for executing each information processing. Also, a plurality of information processing circuits may be configured by individual hardware. Further, the information processing circuit may also be used as an electronic control unit (ECU) used for other controls related to the robot taxi vehicle.

(第2実施形態)
第2実施形態で、ユーザーが、スマートフォン22及びヒアラブル機器21のいずれか一方のみを保持、携帯、又は装着している場合の座席案内について説明する。スマートフォン22のみを保持などし、ヒアラブル機器21を保持などしていない場合、頭部装着部からのセンサ情報を得ることが出来ない。このため、頭部の向きの周期的な変化を検知することはできない。また、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成することもできない。第2実施形態では、頭部装着部を有する情報機器をユーザーが保持などしていない場合にも適用できる実施形態である。
(Second embodiment)
In the second embodiment, seat guidance when the user holds, carries, or wears only one of the smart phone 22 and the hearable device 21 will be described. When only the smartphone 22 is held and the hearable device 21 is not held, sensor information cannot be obtained from the head mounted unit. Therefore, periodic changes in the direction of the head cannot be detected. Also, it is not possible to generate voice information by a virtual sound field in which the sound is centered on the seat 14a assigned to the user. The second embodiment is an embodiment that can be applied even when the user does not hold an information device having a head-mounted portion.

ヒアラブル機器21及びスマートフォン22を含む情報機器12の構成、座席案内装置13の構成は、第1実施形態のそれらと同じであり、説明を省略する。第2実施形態に係わる座席案内システムは、第1実施形態に比べて情報処理動作の手順及び内容に違いがある。図3を参照して、第2実施形態に係わる座席案内方法を説明する。 The configuration of the information device 12 including the hearable device 21 and the smart phone 22, and the configuration of the seat guide device 13 are the same as those in the first embodiment, and the description thereof will be omitted. The seat guidance system according to the second embodiment differs from the first embodiment in the procedure and contents of the information processing operation. A seat guidance method according to the second embodiment will be described with reference to FIG.

ステップS01~S03は、図2のステップS01~S03と同じ処理である。ステップS04において、コントローラ51は、ユーザーがスマートフォン22及びヒアラブル機器21の少なくともいずれか一方を保持、携帯、又は装着しているか否かを判断する。更に、コントローラ51は、ヒアラブル機器21を検知した場合、ヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。例えば、コントローラ51は、頭部装着部の一形態であるイヤフォンがユーザーの耳穴に装着されているか否かを判断する。 Steps S01 to S03 are the same processing as steps S01 to S03 in FIG. In step S<b>04 , the controller 51 determines whether the user is holding, carrying, or wearing at least one of the smart phone 22 and the hearable device 21 . Further, when the hearable device 21 is detected, the controller 51 determines whether the head-mounted portion of the hearable device 21 is worn on the user's head. For example, the controller 51 determines whether or not earphones, which are one type of head-mounted unit, are attached to the user's ear holes.

スマートフォン22及びヒアラブル機器21の少なくともいずれか一方を保持、携帯、又は装着し、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合(S04でYES)、ステップS05へ進む。一方、スマートフォン22及びヒアラブル機器21の双方ともに保持、携帯、又は装着していない場合(S04でNO)、図3に示す座席案内の処理は終了する。第2実施形態では、スマートフォン22だけを保持などしている場合、及びヒアラブル機器21だけを保持などし、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合の各々について説明する。第2実施形態において、情報機器12としてヒアラブル機器21だけを保持などはしているが、ヒアラブル機器21の頭部装着部がユーザーの頭部に装着されていない場合、音声で座席を案内することができない。よって、この場合、ステップS04ではNOと判断して、図3の処理動作は終了する。 If at least one of the smartphone 22 and the hearable device 21 is held, carried, or worn, and the head-mounted portion of the hearable device 21 is worn on the user's head (YES in S04), the process proceeds to step S05. . On the other hand, if neither the smartphone 22 nor the hearable device 21 is held, carried, or worn (NO in S04), the seat guidance processing shown in FIG. 3 ends. In the second embodiment, when only the smartphone 22 is held, and when only the hearable device 21 is held and the head-mounted part of the hearable device 21 is worn on the user's head explain. In the second embodiment, only the hearable device 21 is held as the information device 12, but if the head-mounted part of the hearable device 21 is not worn on the user's head, the seat is guided by voice. can't Therefore, in this case, NO is determined in step S04, and the processing operation of FIG. 3 ends.

ステップS05及び06は、図2のステップS05及びS06と同じ処理である。着座センサ41がユーザーの着座を検知していない場合(S06でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS08へ進む。ステップS08において、コントローラ51は、ヒアラブル機器21に対して、頭部装着部の向き及び位置を示す情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。或いは、コントローラ51は、スマートフォン22に対して、スマートフォン22の向き及び位置を示す情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。 Steps S05 and S06 are the same processing as steps S05 and S06 in FIG. If the seating sensor 41 has not detected the user's seating (NO in S06), it can be determined that the user has not yet sat down and is looking for the seat 14a, so the process proceeds to step S08. In step S08, the controller 51 requests the hearable device 21 for information (angular velocity data, acceleration data, and magnetic data) indicating the orientation and position of the head-mounted unit. Alternatively, the controller 51 requests information (angular velocity data, acceleration data, and magnetic data) indicating the orientation and position of the smartphone 22 to the smartphone 22 .

当該リクエストを受信したヒアラブル機器21又はスマートフォン22は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26から、角速度データ、加速度データ、及び磁気データを含むセンサ情報を取得する。そして、ヒアラブル機器21又はスマートフォン22は、センサ情報を直接、座席案内装置13へ送信する。コントローラ51は、センサ情報を受信し、センサ情報からヒアラブル機器21の頭部装着部の現在の向き及び位置を推測する。或いは、コントローラ51は、センサ情報を受信し、センサ情報からスマートフォン22の現在の向き及び位置を推測する。 The hearable device 21 or smartphone 22 that has received the request acquires sensor information including angular velocity data, acceleration data, and magnetic data from the gyro sensor 24 , acceleration sensor 25 , and magnetic sensor 26 . Then, the hearable device 21 or the smartphone 22 transmits the sensor information directly to the seat guide device 13. The controller 51 receives the sensor information and infers the current orientation and position of the head-mounted portion of the hearable device 21 from the sensor information. Alternatively, the controller 51 receives sensor information and estimates the current orientation and position of the smartphone 22 from the sensor information.

ステップS07へ進み、コントローラ51は、ステップS03で検知したヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。具体的には、ユーザーがヒアラブル機器21を保持などし、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合(ステップ07でYES)、ステップS09へ進む。ユーザーがスマートフォン22を保持などしている場合(ステップ07でNO)、ステップS14へ進む。このように、第2実施形態におけるステップS07は、ステップS03で検知した情報機器12がヒアラブル機器21であるか、スマートフォン22であるかを判断することに相当する。 Proceeding to step S07, the controller 51 determines whether the head-mounted portion of the hearable device 21 detected in step S03 is worn on the user's head. Specifically, when the user holds the hearable device 21 and the head-mounted portion of the hearable device 21 is worn on the user's head (YES in step 07), the process proceeds to step S09. If the user is holding the smart phone 22 (NO in step 07), the process proceeds to step S14. Thus, step S<b>07 in the second embodiment corresponds to determining whether the information device 12 detected in step S<b>03 is the hearable device 21 or the smart phone 22 .

ステップS09へ進み、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。具体的には、ステップS08で推測したヒアラブル機器21の頭部装着部の向きの時間変化から、ユーザーが周期的に頭を左右に振っているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。この場合、ステップS10へ進む。一方、ユーザーの頭部の向きが周期的に変化していない場合(S09でNO)、ユーザーが周期的に頭を左右に振っていないと判断できる。ユーザーは座席14aを発見して移動している途中であると判断することが出来る。この場合、ステップS06に戻り、ユーザーの着座を判断する。 Proceeding to step S09, the controller 51 determines whether or not the direction of the user's head is periodically changing based on the time change of the direction of the head-mounted part. Specifically, it is determined whether or not the user periodically shakes his/her head from side to side based on the temporal change in orientation of the head-mounted portion of the hearable device 21 estimated in step S08. If the orientation of the user's head is periodically changing (YES in S09), the user cannot find the seat 14a assigned to him/herself, and periodically shakes his/her head left and right to search for the seat 14a. can be determined to be In this case, the process proceeds to step S10. On the other hand, if the direction of the user's head does not change periodically (NO in S09), it can be determined that the user does not periodically shake the head left and right. The user can find the seat 14a and determine that he/she is in the process of moving. In this case, the process returns to step S06 to determine whether the user is seated.

図3のステップS10~S12は、図2のステップS10~S12と同じ処理動作である。コントローラ51は、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成し、ヒアラブル機器21へ送信する。仮想音場による音声情報を受信したヒアラブル機器21は、スピーカ27から仮想音場により音声を出力する。仮想音場により音声をスピーカ27から出力してから所定時間の間が経過するまでの間に、着座センサ41が着座を検知していない場合(S12でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS05へ戻る。 Steps S10 to S12 in FIG. 3 are the same processing operations as steps S10 to S12 in FIG. The controller 51 generates voice information based on a virtual sound field that emits sound centering on the seat 14 a assigned to the user, and transmits the voice information to the hearable device 21 . The hearable device 21 that has received the audio information in the virtual sound field outputs audio from the speaker 27 in the virtual sound field. If the seating sensor 41 has not detected seating for a predetermined period of time after the voice is output from the speaker 27 by the virtual sound field (NO in S12), the user is not yet seated. , it can be determined that the seat 14a is being searched for, so the process returns to step S05.

一方、ユーザーがスマートフォン22を保持などしている場合(ステップ07でNO)、ステップS14に進み、コントローラ51は、ステップS08で受信したセンサ情報(スマートフォン22の位置及を示す位置情報)に基づいて、スマートフォン22の位置と座席14aの位置との関係を示す音声情報を生成する。具体的には、コントローラ51は、歩行者自律航法(Pedestrian Dead Reckoning)を用いることにより、センサ情報から空間10の入口11に進入してからのスマートフォン22の移動方向及び移動量を時間で積算することにより、スマートフォン22の現在の位置を推定する。コントローラ51は、屋内地磁気のパターンに基づいて、屋内におけるスマートフォン22の現在の位置を求めることもできる。 On the other hand, if the user is holding the smartphone 22 (NO in step 07), the process proceeds to step S14, and the controller 51 detects the position of the smartphone 22 based on the sensor information (position information indicating the position of the smartphone 22) received in step S08. , generates audio information indicating the relationship between the position of the smartphone 22 and the position of the seat 14a. Specifically, the controller 51 uses Pedestrian Dead Reckoning to integrate the movement direction and movement amount of the smartphone 22 after entering the entrance 11 of the space 10 based on the sensor information. By doing so, the current position of the smartphone 22 is estimated. The controller 51 can also obtain the current position of the smartphone 22 indoors based on the indoor geomagnetism pattern.

ステップS14において、コントローラ51は、スマートフォン22の現在の位置と座席14aの位置との関係を示す音声情報を生成し、スマートフォン22へ送信する。例えば、図4の例1~例4の「音声案内の文言」に示すように、スマートフォン22の現在の位置とユーザーに割り当てられた座席14aの位置との関係を示す音声情報を生成する。図4の「ユーザーと割り当てられた座席との相対位置」とは、右側の「音声案内の文言」が出力される時のユーザーと座席との位置関係を示している。 In step S<b>14 , the controller 51 generates audio information indicating the relationship between the current position of the smartphone 22 and the position of the seat 14 a and transmits the audio information to the smartphone 22 . For example, as shown in "words of voice guidance" in Examples 1 to 4 of FIG. 4, voice information is generated that indicates the relationship between the current position of the smartphone 22 and the position of the seat 14a assigned to the user. "Relative position between user and assigned seat" in FIG. 4 indicates the positional relationship between the user and the seat when the "text of voice guidance" on the right side is output.

ステップS13へ進み、音声情報を受信したスマートフォン22は、スピーカから音声を出力する。その後、ステップS06へ戻る。 Proceeding to step S13, the smartphone 22 that has received the audio information outputs audio from the speaker. After that, the process returns to step S06.

なお、ステップS11で出力される仮想音場による音声は、文言であってもよいし、文言でなくてもよい。文言である場合、頭部装着部の向きと座席14aの位置との関係を示す音声を出力してもよい。例えば、「右斜め前方に、貴方の座席があります。」「左側を向いて歩いて下さい。」が挙げられる。更に、例えば、図4に示したように、頭部装着部の位置と座席14aの位置との関係を示す音声を出力してもよい。 It should be noted that the sound generated by the virtual sound field output in step S11 may be words or may not be words. In the case of text, a voice indicating the relationship between the orientation of the head mounted unit and the position of the seat 14a may be output. For example, "Your seat is diagonally forward on the right." and "Please turn left and walk." Further, for example, as shown in FIG. 4, a sound indicating the relationship between the position of the head-mounted part and the position of the seat 14a may be output.

更に、ステップS11で出力される音声は、仮想音場による音声でなくてもよい。つまり、音響定位技術を用いずに、通常の音声を出力してもよい。この場合、音声は文言から成る。文言は、頭部装着部の向きと座席14aの位置との関係を示す文言、或いは、頭部装着部の位置と座席14aの位置との関係を示す文言である。 Furthermore, the sound output in step S11 does not have to be the sound produced by the virtual sound field. In other words, normal sound may be output without using the acoustic localization technique. In this case, speech consists of sentences. The wording is a wording indicating the relationship between the orientation of the head-mounted part and the position of the seat 14a, or a wording indicating the relationship between the position of the head-mounted part and the position of the seat 14a.

以上説明したように、第2実施形態によれば、以下の作用効果を得られる。 As described above, according to the second embodiment, the following effects can be obtained.

ステップ03で、スピーカ27を有する頭部装着部を備える情報機器(ヒアラブル機器21)が検知された場合、ステップS08でセンサ情報(頭部装着部の向きを示す方向情報)を送受信する。コントローラ51は、頭部装着部の向きと座席14aの位置との関係を示す音声情報を情報機器(ヒアラブル機器21)に対して送信する。頭部装着部の向きと座席14aの位置との関係を示す音声情報として、例えば、「右斜め前方に、貴方の座席があります。」「左側を向いて歩いて下さい。」が挙げられる。これにより、ユーザーは、自分の頭部の向きとヒアラブル機器21から聞こえてくる音声とから、割り当てられた座席14aの方向を直感的に把握することができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。特に、座席14aがユーザーから遠方にある場合に、先ずは、座席14aがある方角をユーザーに適切に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。ユーザーがヒアラブル機器21の頭部装着部を装着しているため(S07でYES)、ステップS11で出力される音声の音漏れが軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。 When an information device (hearable device 21) having a head-mounted unit having a speaker 27 is detected in step S03, sensor information (direction information indicating the orientation of the head-mounted unit) is transmitted and received in step S08. The controller 51 transmits audio information indicating the relationship between the orientation of the head-mounted part and the position of the seat 14a to the information device (hearable device 21). Voice information indicating the relationship between the orientation of the head-mounted part and the position of the seat 14a includes, for example, "Your seat is diagonally ahead on the right." and "Please turn left and walk." Accordingly, the user can intuitively grasp the direction of the assigned seat 14a from the orientation of his or her head and the voice heard from the hearable device 21. FIG. Thereby, it is possible to intuitively guide the seat 14a assigned to the user. In particular, when the seat 14a is far from the user, the user can be appropriately guided to the direction in which the seat 14a is located. In addition, walking while looking at the display unit 30 of the smartphone 22 can be suppressed. Since the user wears the head-mounted part of the hearable device 21 (YES in S07), sound leakage of the sound output in step S11 is reduced. Therefore, two or more users wearing the hearable devices 21 can be simultaneously guided to seats by voice.

ステップ03で、ヒアラブル機器21又はスマートフォン22のいずれかの情報機器12が検知された場合、ステップS08でセンサ情報(情報機器12の位置を示す情報)を送受信する。コントローラ51は、情報機器12の位置と座席14aの位置との関係を示す音声情報を、情報機器(ヒアラブル機器21又はスマートフォン22)に対して送信する(S10、S14)。これにより、ヒアラブル機器21又はスマートフォン22は、情報機器12の位置と座席14aの位置との関係を示す音声をスピーカから出力することができる。よって、ユーザーはこの音声を頼りに座席14aを探すことができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。ユーザーがヒアラブル機器21の頭部装着部を装着している場合(S07でYES)、ステップS11で出力される音声の音漏れが軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。 If either the hearable device 21 or the smart phone 22 is detected in step S03, sensor information (information indicating the position of the information device 12) is transmitted and received in step S08. The controller 51 transmits audio information indicating the relationship between the position of the information device 12 and the position of the seat 14a to the information device (hearable device 21 or smart phone 22) (S10, S14). As a result, the hearable device 21 or the smartphone 22 can output a sound indicating the relationship between the position of the information device 12 and the position of the seat 14a from the speaker. Therefore, the user can search for the seat 14a by relying on this voice. Thereby, it is possible to intuitively guide the seat 14a assigned to the user. In addition, walking while looking at the display unit 30 of the smartphone 22 can be suppressed. If the user wears the head-mounted part of the hearable device 21 (YES in S07), sound leakage of the sound output in step S11 is reduced. Therefore, two or more users wearing the hearable devices 21 can be simultaneously guided to seats by voice.

第2実施形態では、座席案内装置13の制御部がコントローラ51である場合を説明した。座席案内装置13の制御部は、座席14aに設けられたコントローラ42であっても構わない。各座席に設けられたコントローラ42が、サーバユニット50及び情報機器12と通信を行い、図3に示した一連の情報処理を実施してもよい。また、座席案内装置13のコントローラ(51、42)の代わりに、情報機器12が備えるコントローラ23が、座席案内装置13と通信を行い、図3に示した一連の情報処理を実施してもよい。つまり、座席案内システムにおいて、空間10内に設置された座席案内装置13及び情報機器12の双方にコントローラを備えている場合、いずれのコントローラが、図3に示した一連の情報処理を実施してもよい。 2nd Embodiment demonstrated the case where the control part of the seat guidance apparatus 13 was the controller 51. FIG. The controller of the seat guide device 13 may be the controller 42 provided on the seat 14a. A controller 42 provided at each seat may communicate with the server unit 50 and the information equipment 12 to perform the series of information processing shown in FIG. Alternatively, instead of the controllers (51, 42) of the seat guidance device 13, the controller 23 included in the information device 12 may communicate with the seat guidance device 13 and perform the series of information processing shown in FIG. . That is, in the seat guidance system, when both the seat guidance device 13 and the information device 12 installed in the space 10 are provided with controllers, either controller executes the series of information processing shown in FIG. good too.

なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは言うまでもない。 Note that the above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not deviate from the technical idea according to the present invention, according to design etc. It goes without saying that various modifications are possible.

10 空間
12 情報機器
14 複数の座席
14a ユーザーに割り当てられた座席
21 ヒアラブル機器(第1の情報機器)
22 スマートフォン(第2の情報機器)
23、42、51 コントローラ(制御部)
25 加速度センサ
24 ジャイロセンサ
26 磁気センサ
27 スピーカ
30 表示部
41 着座センサ
52 進入検知センサ
10 space 12 information device 14 multiple seats 14a seat assigned to user 21 hearable device (first information device)
22 Smartphone (second information device)
23, 42, 51 controller (control unit)
25 acceleration sensor 24 gyro sensor 26 magnetic sensor 27 speaker 30 display unit 41 seating sensor 52 entry detection sensor

Claims (13)

複数の座席が設置された空間へ進入するユーザーに対して、前記複数の座席のうちの1つの座席であって、前記ユーザーに割り当てられた前記座席を案内する座席案内装置であって、
前記空間への前記ユーザーの進入を検知する進入検知センサと、
前記空間へ進入した前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備える前記情報機器を検知し、前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信する制御部とを備え、
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、前記音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信する
ことを特徴とする座席案内装置。
A seat guidance device that guides a user entering a space in which a plurality of seats are installed to one of the plurality of seats, the seat assigned to the user,
an entry detection sensor that detects entry of the user into the space;
Detecting an information device capable of communication held by the user who has entered the space, the information device having a speaker for outputting voice, and providing voice information for guiding the seat assigned to the user by voice. A control unit that transmits to the information device,
The control unit
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit transmitted from the information device;
Whether the audio information is transmitted to the information device based on whether or not the orientation of the user's head is periodically changing, determined from the temporal change in the orientation of the head-mounted unit determine whether or not
A seat guidance device, wherein the voice information is transmitted to the information device when it is determined to transmit the voice information.
前記ユーザーの前記座席への着座を検知する着座センサを更に備え、
前記進入を検知してから所定の時間が経過するまでの間に、前記着座センサが前記着座を検知していない場合に、前記制御部は、前記音声情報を前記情報機器に対して送信することを特徴とする請求項1に記載の座席案内装置。
further comprising a seating sensor for detecting that the user is seated on the seat;
If the seating sensor does not detect the seating for a predetermined period of time after detecting the entry, the control unit transmits the audio information to the information device. The seat guide device according to claim 1, characterized by:
前記制御部は、
前記ユーザーが保持する通信可能な第1の情報機器及び第2の情報機器であって、前記スピーカを備える第1の情報機器と、画像を表示する表示部を備える第2の情報機器とを検出した場合、
前記第1の情報機器に対して前記音声情報を送信し、
前記スピーカから前記音声情報が出力された後に、前記ユーザーに割り当てられた前記座席を画像で案内する画像情報を前記第2の情報機器に対して送信する
ことを特徴とする請求項1又は2に記載の座席案内装置。
The control unit
Detecting a first information device and a second information device held by the user and capable of communication, wherein the first information device includes the speaker and the second information device includes a display section for displaying an image. if you did this,
transmitting the audio information to the first information device;
3. The apparatus according to claim 1, wherein, after the audio information is output from the speaker, image information for guiding the seat assigned to the user is transmitted to the second information device. A seat guidance device as described.
前記進入検知センサにより前記進入を検知する前に、予め、前記複数の座席のうちの1つの前記座席が前記ユーザーに割り当てられていることを特徴とする請求項1~3の何れか一項に記載の座席案内装置。 4. The seat according to any one of claims 1 to 3, wherein one of the plurality of seats is assigned to the user before the entry is detected by the entry detection sensor. A seat guidance device as described. 前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きと前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~4の何れか一項に記載の座席案内装置。
The control unit
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit transmitted from the information device;
5. The seat guide apparatus according to claim 1, wherein the audio information indicating the relationship between the orientation of the head mounted unit and the position of the seat is transmitted to the information device. .
前記制御部は、
記情報機器から送信される、前記情報機器の位置を示す位置情報を受信し、
前記情報機器の位置と前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~5の何れか一項に記載の座席案内装置。
The control unit
receiving position information indicating the position of the information device transmitted from the information device;
6. The seat guide apparatus according to claim 1, wherein the voice information indicating the relationship between the position of the information device and the position of the seat is transmitted to the information device.
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報、及び前記情報機器の位置を示す位置情報を受信し、
前記方向情報及び前記位置情報に基づいて、前記ユーザーに割り当てられた前記座席を中心に音を発する仮想音場による前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~6の何れか一項に記載の座席案内装置。
The control unit
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit and position information indicating the position of the information device, which are transmitted from the information device;
Based on the direction information and the position information, the voice information is transmitted to the information device in a virtual sound field that emits sound centering on the seat assigned to the user. 7. The seat guide device according to any one of 6.
前記空間への前記ユーザーの進入は、車両への前記ユーザーの乗車であることを特徴とする請求項1~7の何れか一項に記載の座席案内装置。 The seat guide apparatus according to any one of claims 1 to 7 , wherein the entry of the user into the space is the user's boarding of the vehicle . 複数の座席が設置された空間へ進入するユーザーに対して、前記複数の座席のうちの1つの座席であって、前記ユーザーに割り当てられた前記座席を案内する座席案内方法であって、
前記空間への前記ユーザーの進入を検知し、
前記空間へ進入した前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備える前記情報機器を検知し、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信する
ことを特徴とする席案内方法
A seat guidance method for guiding a user entering a space in which a plurality of seats are installed to one of the plurality of seats assigned to the user, comprising:
detecting entry of the user into the space;
Detecting an information device capable of communication held by the user who has entered the space, the information device having a speaker for outputting sound;
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit transmitted from the information device;
The seat assigned to the user is guided by voice based on whether the orientation of the user's head is periodically changing, determined from the temporal change in the orientation of the head-mounted unit. determining whether or not to transmit voice information to the information device;
A seat guidance method , comprising transmitting the voice information to the information device when it is determined to transmit the information .
座席案内装置及び情報機器を備え、複数の座席が設置された空間へ進入するユーザーに対して、前記複数の座席のうちの1つの座席であって、前記ユーザーに割り当てられた前記座席を案内する座席案内システムであって、
前記情報機器は、前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備え、
前記座席案内装置は、
前記空間への前記ユーザーの進入を検知する進入検知センサと、
前記空間へ進入した前記ユーザーが保持する記情報機器を検知し、前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信する制御部と、を備え、
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、記音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信し、
前記情報機器は、前記音声情報を受信した場合、スピーカから前記座席を案内する音声を出力する
ことを特徴とする座席案内システム
Equipped with a seat guidance device and an information device, it guides a user entering a space in which a plurality of seats are installed to one of the plurality of seats assigned to the user. A seat guidance system ,
The information equipment is an information equipment capable of communication held by the user, and has a speaker for outputting sound,
The seat guidance device,
an entry detection sensor that detects entry of the user into the space;
a control unit that detects the information device held by the user who has entered the space and transmits voice information for guiding the seat assigned to the user by voice to the information device;
The control unit
When detecting the information device that is mounted on the user's head and that includes a head-mounted unit having the speaker,
receiving direction information indicating the orientation of the head-mounted unit transmitted from the information device;
transmitting the audio information to the information device based on a result of whether or not the orientation of the user's head is periodically changing, determined from the temporal change in the orientation of the head- mounted unit; determine whether or not
If it is determined to transmit, the audio information is transmitted to the information device ;
A seat guidance system , wherein the information device outputs a voice for guiding the seat from a speaker when receiving the voice information .
前記情報機器は、加速度センサ、ジャイロセンサ、及び磁気センサを備え、前記加速度センサ、前記ジャイロセンサ、及び前記磁気センサから得られるセンサ情報を前記制御部に対して送信し、
前記制御部は、
前記センサ情報から前記情報機器の移動方向及び移動量を算出することにより、前記情報機器の位置を推定し、
前記情報機器の前記位置と前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項10記載の座席案内システム。
The information equipment includes an acceleration sensor, a gyro sensor, and a magnetic sensor, and transmits sensor information obtained from the acceleration sensor, the gyro sensor, and the magnetic sensor to the control unit,
The control unit
estimating the position of the information device by calculating the direction and amount of movement of the information device from the sensor information;
11. The seat guidance system according to claim 10, wherein the voice information indicating the relationship between the position of the information device and the position of the seat is transmitted to the information device.
前記情報機器は、前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備え、
前記頭部装着部は、加速度センサ、ジャイロセンサ、及び磁気センサを備え、
前記情報機器は、前記加速度センサ、前記ジャイロセンサ、及び前記磁気センサから得られるセンサ情報を前記制御部に対して送信し、
前記制御部は、
前記センサ情報から前記頭部装着部の向きを推定し、
前記頭部装着部の向きと前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項10又は11記載の座席案内システム。
The information equipment includes a head-mounted unit mounted on the user's head and having the speaker,
The head mounted unit includes an acceleration sensor, a gyro sensor, and a magnetic sensor,
The information device transmits sensor information obtained from the acceleration sensor, the gyro sensor, and the magnetic sensor to the control unit,
The control unit
estimating the orientation of the head mounted part from the sensor information;
12. The seat guidance system according to claim 10, wherein the voice information indicating the relationship between the orientation of the head mounted unit and the position of the seat is transmitted to the information device.
前記情報機器は、前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備え、
前記頭部装着部は、加速度センサ、ジャイロセンサ、及び磁気センサを備え、
前記情報機器は、前記加速度センサ、前記ジャイロセンサ、及び前記磁気センサから得られるセンサ情報を前記制御部に対して送信し、
前記制御部は、
前記センサ情報から前記情報機器の移動方向及び移動量を算出することにより、前記情報機器の位置を推定し、
前記センサ情報から前記頭部装着部の向きを推定し、
前記情報機器の位置及び前記頭部装着部の向きに基づいて、前記ユーザーに割り当てられた前記座席を中心に音を発する仮想音場による前記音声情報を前記情報機器に対して送信し、
前記情報機器は、前記スピーカから前記仮想音場により音声を出力する
ことを特徴とする請求項10~12の何れか一項に記載の座席案内システム。
The information equipment includes a head-mounted unit mounted on the user's head and having the speaker,
The head mounted unit includes an acceleration sensor, a gyro sensor, and a magnetic sensor,
The information device transmits sensor information obtained from the acceleration sensor, the gyro sensor, and the magnetic sensor to the control unit,
The control unit
estimating the position of the information device by calculating the direction and amount of movement of the information device from the sensor information;
estimating the orientation of the head mounted part from the sensor information;
Based on the position of the information device and the orientation of the head-mounted unit, the audio information is transmitted to the information device by a virtual sound field that emits sound centering on the seat assigned to the user ;
13. The seat guidance system according to any one of claims 10 to 12 , wherein said information device outputs sound from said speaker in said virtual sound field .
JP2018233498A 2018-12-13 2018-12-13 Seat guidance device, seat guidance method, and seat guidance system Active JP7291476B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018233498A JP7291476B2 (en) 2018-12-13 2018-12-13 Seat guidance device, seat guidance method, and seat guidance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018233498A JP7291476B2 (en) 2018-12-13 2018-12-13 Seat guidance device, seat guidance method, and seat guidance system

Publications (2)

Publication Number Publication Date
JP2020093696A JP2020093696A (en) 2020-06-18
JP7291476B2 true JP7291476B2 (en) 2023-06-15

Family

ID=71084689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018233498A Active JP7291476B2 (en) 2018-12-13 2018-12-13 Seat guidance device, seat guidance method, and seat guidance system

Country Status (1)

Country Link
JP (1) JP7291476B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059053A (en) 2004-08-19 2006-03-02 Hitachi Ltd In-facility information providing system and method
JP2006331290A (en) 2005-05-30 2006-12-07 Kyocera Corp Guide system
US20170243449A1 (en) 2016-02-24 2017-08-24 International Business Machines Corporation Identifying a seat position with infrared light
JP2018078398A (en) 2016-11-07 2018-05-17 株式会社ネイン Autonomous assistant system using multifunctional earphone

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059053A (en) 2004-08-19 2006-03-02 Hitachi Ltd In-facility information providing system and method
JP2006331290A (en) 2005-05-30 2006-12-07 Kyocera Corp Guide system
US20170243449A1 (en) 2016-02-24 2017-08-24 International Business Machines Corporation Identifying a seat position with infrared light
JP2018078398A (en) 2016-11-07 2018-05-17 株式会社ネイン Autonomous assistant system using multifunctional earphone

Also Published As

Publication number Publication date
JP2020093696A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
US20210339708A1 (en) Identifying and authenticating autonomous vehicles and passengers
US10360907B2 (en) Smart necklace with stereo vision and onboard processing
KR101711835B1 (en) Vehicle, Vehicle operating method and wearable device operating method
AU2015206668B2 (en) Smart necklace with stereo vision and onboard processing
US9915545B2 (en) Smart necklace with stereo vision and onboard processing
US20170343375A1 (en) Systems to dynamically guide a user to an autonomous-driving vehicle pick-up location by augmented-reality walking directions
KR102019124B1 (en) Head mounted display and method for controlling the same
US10598506B2 (en) Audio navigation using short range bilateral earpieces
JP2022546100A (en) Vehicle Commuting Control Method and Apparatus, Electronics, Media, and Vehicles
CN113660611B (en) Positioning method and device
JP2005332309A (en) User support device
US10496887B2 (en) Device, system and method for controlling a communication device to provide alerts
KR20150069124A (en) Vision assist device and guide system for blind people using the same
JP7139921B2 (en) Vehicle and notification method
ES2795016T3 (en) Assistance procedure in following a conversation for a person with hearing problems
JPWO2018020884A1 (en) Terminal device and device system
JP7291476B2 (en) Seat guidance device, seat guidance method, and seat guidance system
JP2009238251A (en) User support device
JP2007272906A (en) Device for acquiring/transmitting/outputting presence information
JP7240865B2 (en) Guidance information transmission device and guidance information transmission method
JP2018067157A (en) Communication device and control method thereof
JP2018124718A (en) Proxy device, base station, proxy method and program
JP6983329B6 (en) Information processing system, information processing device, and information processing method
JP2002195850A (en) Guide system, guide method and information communication terminal
JP2020144011A (en) Audio information providing system, control method of information processing terminal, control program of information processing terminal, control method of audio output device, and control program of audio output device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R150 Certificate of patent or registration of utility model

Ref document number: 7291476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150