WO2020255286A1 - ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法 - Google Patents

ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法 Download PDF

Info

Publication number
WO2020255286A1
WO2020255286A1 PCT/JP2019/024248 JP2019024248W WO2020255286A1 WO 2020255286 A1 WO2020255286 A1 WO 2020255286A1 JP 2019024248 W JP2019024248 W JP 2019024248W WO 2020255286 A1 WO2020255286 A1 WO 2020255286A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
unit
moving body
processing unit
pairing
Prior art date
Application number
PCT/JP2019/024248
Other languages
English (en)
French (fr)
Inventor
美紀 荒井
敬 春日
孝康 橋本
ティボ ジャンティ
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112019007321.4T priority Critical patent/DE112019007321B4/de
Priority to JP2019560777A priority patent/JP6746013B1/ja
Priority to CN201980097340.1A priority patent/CN113950711B/zh
Priority to KR1020217040054A priority patent/KR102449306B1/ko
Priority to PCT/JP2019/024248 priority patent/WO2020255286A1/ja
Publication of WO2020255286A1 publication Critical patent/WO2020255286A1/ja
Priority to US17/527,165 priority patent/US20220076598A1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller

Definitions

  • Facilities include, for example, hospitals, airports or commercial facilities.
  • the moving body either carries the user in the facility or moves following the user. Examples of the moving body include an electric wheelchair, an electric cart, and a mobile robot.
  • the user can move to the destination by the moving body by informing the moving body of the destination in the facility.
  • the server transmits the reservation status data regarding the current usage reservation status of the robot to the user terminal, and the user terminal considers the reservation status data by the user.
  • the reservation data for reserving the use of the input robot is transmitted to the server.
  • the server determines the robot usage reservation by authenticating the user based on the reservation data.
  • a user terminal can be used to make a reservation for using a robot, that is, pairing.
  • a robot that is, pairing.
  • the robot authenticates the user who went to the facility and performs pairing.
  • the user generally does not know which robot is already paired among the robots placed in the facility, and does not know which robot should be contacted for pairing. For this reason, the user has to search for an available robot by himself or ask the facility manager about the available robot, which is inconvenient.
  • the present invention solves the above problems, and obtains a pairing display device, a pairing display system, and a pairing display method capable of displaying that a moving body and a user are paired.
  • the purpose a pairing display device, a pairing display system, and a pairing display method capable of displaying that a moving body and a user are paired.
  • a detection processing unit that detects a user paired with a mobile body having a display unit and a detection unit using the detection unit, and a detection processing unit detects the user.
  • the output processing unit is provided to display information indicating that the user is paired with the moving body on the floor surface around the moving body by using the display unit.
  • a user paired with a mobile body is detected by using a detection unit, and when the user is detected, information indicating that the user is paired with the mobile body is provided. Display on the floor around the moving body using the display unit. By visually recognizing the information displayed on the floor surface, the user can recognize that the information is paired with the moving body displaying the information.
  • FIG. 4A is a block diagram showing a hardware configuration that realizes the function of the pairing display device according to the first embodiment.
  • FIG. 4B is a block diagram showing a hardware configuration for executing software that realizes the function of the pairing display device according to the first embodiment. It is a figure which shows the display example of the pairing state of a moving body and a user. It is a block diagram which shows the structure of the pairing display device which concerns on Embodiment 2.
  • FIG. 8A is a diagram showing an example of an operation image according to the second embodiment.
  • FIG. 8B is a diagram showing the progress of the operation with respect to the operation image of FIG. 8A.
  • FIG. 8C is a diagram showing the completion of the operation on the operation image of FIG. 8A.
  • FIG. 9A is a diagram showing an operation of an operation image by a user with an attendant.
  • FIG. 9B is a diagram showing an example of a display for confirming an attendant.
  • FIG. 9C is a diagram showing a display example of a pairing state between the moving body and the user and the attendant. It is a block diagram which shows the structure of the pairing display device which concerns on Embodiment 3.
  • FIG. 1 is a block diagram showing a configuration of the pairing display device 10 according to the first embodiment.
  • the mobile body 1 can move autonomously, and examples thereof include an electric wheelchair, an electric cart, and a mobile robot.
  • the moving body 1 shown in FIG. 1 includes a display unit 2, a detection unit 3, a sound output unit 4, and a pairing display device 10.
  • the display unit 2 is a display unit that displays information on the floor surface B around the moving body 1, and is, for example, a projector (projection unit) that projects information on the floor surface B. Further, the display unit 2 can display information three-dimensionally on the floor surface B around the moving body 1. For example, when the display unit 2 is a projector, the projector projects information on the floor surface B around the moving body 1 in three dimensions.
  • “displaying in three dimensions” or “projecting in three dimensions” means displaying or projecting information in an expression that looks three-dimensional to human vision.
  • the display unit 2 does not necessarily have to display the information in three dimensions, and may display the information in two dimensions.
  • the detection unit 3 is a detection unit that detects the user A around the moving body 1, and is, for example, a camera device capable of photographing the surroundings of the moving body 1.
  • the user A is a person paired with the mobile body 1, and the appearance information of the user A is registered in the pairing display device 10.
  • the camera device which is the detection unit 3, photographs the user A and outputs the video information to the pairing display device 10.
  • the detection unit 3 may be a sensor that combines any of infrared rays, light, and sound waves with a camera device.
  • the sound output unit 4 is an audio output unit that outputs audio around the moving body 1, and is, for example, a speaker.
  • the sound output unit 4 outputs sound effect information, voice guidance, and an alarm instructed by the pairing display device 10.
  • the sound effect information is sound information corresponding to the information displayed on the floor surface B around the moving body 1 by the display unit 2.
  • the pairing display device 10 displays the pairing between the mobile body 1 and the user A.
  • the pairing display device 10 shown in FIG. 1 includes an output processing unit 10a and a detection processing unit 10b.
  • the output processing unit 10a uses the display unit 2 to provide information indicating that the user A is paired with the moving body 1 of the moving body 1. Display on the surrounding floor surface B.
  • the information indicating that the user A is paired with the mobile body 1 is, for example, an image 20 of at least one of the user A's name, face image, or specific mark.
  • the output processing unit 10a displays the image 20 on the floor surface B around the moving body 1 at the timing when the user A enters the detection range of the detection unit 3.
  • the output processing unit 10a can display the image 20 in an area on the floor surface B around the moving body 1 that is an effective detection range of the detection unit 3.
  • the effective detection range is a range in which the detection unit 3 can stably detect an object.
  • the detection unit 3 is a camera device, it is defined by the viewing angle of the camera device. Also called the stable detection range. Since the image 20 is displayed in the area that is the effective detection range of the detection unit 3, the user A can be guided to the area that is stably detected by the detection unit 3.
  • the image 20 is display information for showing that the user A is paired with the moving body 1, and is composed of figures, characters, or a combination thereof.
  • the image 20 may be an animation image whose display mode changes with time.
  • the output processing unit 10a projects the image 20 on the floor surface B around the moving body 1 in three dimensions using the projector.
  • the output processing unit 10a may use the sound output unit 4 to output sound according to the information displayed on the floor surface B around the moving body 1. Since the output mode of the sound effect is defined by the frequency, rhythm, and tempo of the sound effect, the output processing unit 10a may change these.
  • the detection processing unit 10b uses the detection unit 3 to detect the user A who is operating the image 20. For example, the detection processing unit 10b analyzes an image of the periphery of the moving body 1 taken by the camera device which is the detection unit 3, and selects the user A from the image based on the appearance information of the user A and the image analysis result. Can be detected. For image analysis, for example, an image analysis method such as pattern matching is used.
  • FIG. 2 is a flowchart showing a pairing display method according to the first embodiment.
  • the detection processing unit 10b detects the user A paired with the moving body 1 (step ST1). For example, the detection processing unit 10b performs image analysis of the image around the moving body 1 taken by the camera device, and detects the user A based on the image analysis result. If user A is not detected (step ST1; NO), the detection processing unit 10b repeats the detection process in step ST1 until user A is detected.
  • the output processing unit 10a displays the image 20 on the floor surface B around the moving body 1 by using the display unit 2 (step ST1; YES).
  • the face image of the user A is displayed on the floor surface B as the image 20.
  • the user A can recognize that the image 20 is paired with the moving body 1 displayed on the floor surface B.
  • FIG. 3 is a block diagram showing a configuration of the pairing display system according to the first embodiment.
  • the pairing display system shown in FIG. 3 is a system that displays that the mobile body 1 and the user A are paired, and includes the mobile body 1 and the server 30.
  • the moving body 1 can move autonomously, and examples thereof include an electric wheelchair, an electric cart, and a moving robot.
  • the mobile body 1 shown in FIG. 3 includes a display unit 2, a detection unit 3, a sound output unit 4, and a communication unit 5.
  • the communication unit 5 communicates with the server 30.
  • the display unit 2, the detection unit 3, and the sound output unit 4 each operate based on the control signal received from the server 30 through the communication unit 5.
  • the display unit 2 is a display unit that displays information on the floor surface B around the mobile body 1 based on the control information received from the server 30 through the communication unit 5.
  • the moving body 1 is, for example, a projector that projects information on the floor surface B.
  • the detection unit 3 detects the user A around the mobile body 1 and transmits it to the server 30 through the communication unit 5.
  • the sound output unit 4 outputs voice to the surroundings of the mobile body 1 based on the control information received from the server 30 through the communication unit 5.
  • the server 30 is a device that displays the pairing of the mobile body 1 and the user A by using the display unit 2 based on the information received from the mobile body 1. As shown in FIG. 3, the server 30 includes an output processing unit 10a, a detection processing unit 10b, and a communication unit 10c. The communication unit 10c communicates with the communication unit 5 included in the mobile body 1.
  • the output processing unit 10a displays the image 20 on the floor surface B around the moving body 1 by transmitting a control signal to the moving body 1 through the communication unit 10c to control the display unit 2.
  • the detection processing unit 10b detects the user A by transmitting a control signal to the mobile body 1 through the communication unit 10c and controlling the detection unit 3.
  • the pairing display device 10 includes a processing circuit for executing the processing from step ST1 to step ST2 in FIG.
  • the processing circuit may be dedicated hardware, or may be a CPU (Central Processing Unit) that executes a program stored in the memory.
  • CPU Central Processing Unit
  • FIG. 4A is a block diagram showing a hardware configuration that realizes the functions of the pairing display device 10.
  • FIG. 4B is a block diagram showing a hardware configuration for executing software that realizes the functions of the pairing display device 10.
  • the input interface 100 is an interface for relaying information output from the detection unit 3 to the detection processing unit 10b included in the pairing display device 10.
  • the output interface 101 is an interface for relaying information output from the output processing unit 10a to the display unit 2, the sound output unit 4, or both of them.
  • the processing circuit 102 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an ASIC (Application Special Integrated Circuit). ), FPGA (Field-Programmable Gate Array), or a combination thereof.
  • the functions of the output processing unit 10a and the detection processing unit 10b in the pairing display device 10 may be realized by separate processing circuits, or these functions may be collectively realized by one processing circuit.
  • the processing circuit is the processor 103 shown in FIG. 4B
  • the functions of the output processing unit 10a and the detection processing unit 10b in the pairing display device 10 are realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 104.
  • the memory 104 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically-volatile) semiconductor, an EPROM (Electrically-volatile), or the like.
  • a part may be realized by dedicated hardware and a part may be realized by software or firmware.
  • the output processing unit 10a realizes the function by the processing circuit 102 which is the dedicated hardware
  • the detection processing unit 10b realizes the function by reading and executing the program stored in the memory 104 by the processor 103.
  • the processing circuit can realize the above functions by hardware, software, firmware, or a combination thereof.
  • FIG. 5 is a diagram showing a display example of a pairing state between the moving body 1A and the user A1 and a pairing state between the moving body 1B and the user A2.
  • the user A1 is paired with the mobile body 1A
  • the user A2 is paired with the mobile body 1B.
  • a pairing display device 10 is mounted on the moving body 1A and the moving body 1B, respectively.
  • the output processing unit 10a indicates that the mobile body 1A and the user A1 are paired by using the display unit 2 of the mobile body 1A. Display on the surrounding floor surface B. Similarly, in the pairing display device 10 mounted on the mobile body 1B, the output processing unit 10a uses the display unit 2 to move that the mobile body 1B and the user A2 are in a paired state. Display on the floor surface B around the body 1B.
  • the detection processing unit 10b detects the movement of the user A1 by using the detection unit 3.
  • the output processing unit 10a detects the image 20a below the user A1 and the dotted line image 20b extending from the display unit 2 of the moving body 1A to the image 20a. It is displayed on the floor surface B according to the movement of the user A1 detected by.
  • the output processing unit 10a detects the image 20a below the user A2 and the dotted line image 20b extending from the display unit 2 of the moving body 1B to the image 20a by the detection processing unit 10b. It is displayed on the floor surface B according to the movement of A2.
  • the detection processing unit 10b transmits to the user terminal 40 that the pairing of the mobile body 1 by the user A has been established through the communication unit 10e.
  • the user A uses the user terminal 40 to transmit the appearance information of the user A to the pairing display device 10A.
  • the communication unit 10e outputs the appearance information of the user A received from the user terminal 40 to the detection processing unit 10b.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Telephone Function (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Traffic Control Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Manipulator (AREA)

Abstract

ペアリング表示装置(10)は、表示部(2)および検出部(3)を有した移動体(1)とペアリングされた利用者(A)を、検出部(3)を用いて検出する検出処理部(10b)と、検出処理部(10b)によって利用者(A)が検出された場合、利用者(A)が移動体(1)とペアリングされていることを示す情報を、表示部(2)を用いて移動体(1)の周囲の床面(B)に表示する出力処理部(10a)を備える。

Description

ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
 本発明は、移動体と利用者とのペアリングに関する表示を行うペアリング表示装置、ペアリング表示システムおよびペアリング表示方法に関する。
 近年、移動体を利用した施設内誘導システムが注目されている。施設として、例えば、病院、空港あるいは商業施設が挙げられる。移動体は、施設内で利用者を乗せて移動するか、あるいは、利用者に追随して移動する。移動体としては、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。利用者は、移動体に施設内の目的箇所を伝えることで、移動体によって目的箇所まで移動することができる。
 施設に備えられた移動体を利用する際に、利用者は、利用したい移動体とペアリングを行う必要がある。ペアリングとは、システムに登録された利用者であるか否かを個人認証し、システムに登録された利用者であると認証された場合に、移動体を、当該利用者からの指示で動作可能に対応付ける処理である。
 例えば、特許文献1に記載されているシステムでは、サーバが、ロボットの現在の利用予約状況に関する予約状況データを利用者端末に送信し、利用者端末が、予約状況データを考慮して利用者によって入力されたロボットの利用を予約するための予約データをサーバへ送信する。サーバは、予約データに基づいて利用者を認証することによりロボットの利用予約を決定する。
特開2005-64837号公報
 特許文献1に記載された従来の技術では、利用者端末を用いて、ロボットの利用予約、すなわち、ペアリングを行うことができる。しかしながら、ロボットと接触(コンタクト)せずにペアリングを行った利用者は、ロボットが配置されている施設において、実際にロボットとペアリングされているか否かが分かり難いという課題があった。
 なお、施設に行った利用者をロボットが認証してペアリングを行うことも考えられる。しかしながら、利用者は、一般に、施設に配置されているロボットのうち、どのロボットが既にペアリングされているかが分からず、どのロボットとペアリングに関するコンタクトをとるべきかが分からない。このため、利用者は、利用可能なロボットを自ら探すか、利用可能なロボットを施設の管理者に聞く必要があり、利便性が悪かった。
 本発明は上記課題を解決するものであり、移動体と利用者がペアリングされていることを伝える表示を行うことができるペアリング表示装置、ペアリング表示システムおよびペアリング表示方法を得ることを目的とする。
 本発明に係るペアリング表示装置は、表示部および検出部を有した移動体とペアリングされた利用者を、検出部を用いて検出する検出処理部と、検出処理部によって利用者が検出された場合、利用者が移動体とペアリングされていることを示す情報を、表示部を用いて移動体の周囲の床面に表示する出力処理部を備える。
 本発明によれば、移動体とペアリングされた利用者を、検出部を用いて検出し、利用者が検出された場合、利用者が移動体とペアリングされていることを示す情報を、表示部を用いて移動体の周囲の床面に表示する。利用者は、床面に表示された情報を視認することで、この情報を表示した移動体とペアリングされていることを認識できる。
実施の形態1に係るペアリング表示装置の構成を示すブロック図である。 実施の形態1に係るペアリング表示方法を示すフローチャートである。 実施の形態1に係るペアリング表示システムの構成を示すブロック図である。 図4Aは、実施の形態1に係るペアリング表示装置の機能を実現するハードウェア構成を示すブロック図である。図4Bは、実施の形態1に係るペアリング表示装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。 移動体と利用者とのペアリング状態の表示例を示す図である。 実施の形態2に係るペアリング表示装置の構成を示すブロック図である。 実施の形態2に係るペアリング表示方法を示すフローチャートである。 図8Aは、実施の形態2における操作画像の例を示す図である。図8Bは、図8Aの操作画像に対する操作の進行状況を示す図である。図8Cは、図8Aの操作画像に対する操作の完了を示す図である。 図9Aは、付添者がある利用者による操作画像の操作を示す図である。図9Bは、付添者を確認する表示の例を示す図である。図9Cは、移動体と利用者および付添者とのペアリング状態の表示例を示す図である。 実施の形態3に係るペアリング表示装置の構成を示すブロック図である。
実施の形態1.
 図1は、実施の形態1に係るペアリング表示装置10の構成を示すブロック図である。移動体1は、自律的な移動が可能であり、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。図1に示す移動体1は、表示部2、検出部3、音出力部4、およびペアリング表示装置10を備える。
 表示部2は、移動体1の周囲の床面Bに情報を表示する表示部であり、例えば、床面Bに情報を投影するプロジェクタ(投影部)である。また、表示部2は、移動体1の周囲の床面Bに情報を、3次元に表示することが可能である。例えば、表示部2がプロジェクタである場合、当該プロジェクタは、移動体1の周囲の床面Bに情報を3次元で投影する。ここで、「3次元に表示する」または「3次元で投影する」とは、情報を、人間の視覚にとって立体的に見えるような表現で表示または投影することを表す。ただし、表示部2は必ずしも情報を3次元的に表示しなくてもよく、2次元的な表示を行っても構わない。
 検出部3は、移動体1の周囲の利用者Aを検出する検出部であり、例えば、移動体1の周囲を撮影可能なカメラ装置である。利用者Aは、移動体1とペアリングされた人物であり、ペアリング表示装置10には、利用者Aの外見情報が登録されている。検出部3であるカメラ装置は利用者Aを撮影し、その映像情報をペアリング表示装置10に出力する。なお、検出部3は、赤外線、光および音波のいずれかとカメラ装置を組み合わせたセンサであってもよい。
 音出力部4は、移動体1の周囲に音声を出力する音声出力部であり、例えば、スピーカである。例えば、音出力部4は、ペアリング表示装置10から指示された効果音情報、音声ガイダンスおよび警報を出力する。効果音情報は、表示部2によって移動体1の周囲の床面Bに表示された情報に応じた音情報である。
 ペアリング表示装置10は、移動体1と利用者Aとのペアリングに関する表示を行う。図1に示すペアリング表示装置10は、出力処理部10aおよび検出処理部10bを備えている。出力処理部10aは、検出処理部10bによって利用者Aが検出された場合に、利用者Aが移動体1とペアリングされていることを示す情報を、表示部2を用いて移動体1の周囲の床面Bに表示する。利用者Aが移動体1とペアリングされていることを示す情報は、例えば、利用者Aの名前、顔画像または特定のマークの少なくともいずれか一つの画像20である。例えば、出力処理部10aは、検出部3の検出範囲内に利用者Aが進入したタイミングで、画像20を移動体1の周囲の床面Bに表示する。
 また、出力処理部10aは、移動体1の周囲の床面Bにおける検出部3の有効検出範囲となる領域に画像20を表示することができる。有効検出範囲は、検出部3によって安定した対象物の検出が可能な範囲であり、例えば、検出部3がカメラ装置である場合、カメラ装置の視野角度などから規定される。安定検出範囲とも呼ばれる。検出部3の有効検出範囲となる領域に画像20が表示されるので、検出部3によって安定して検出される領域に利用者Aを導くことができる。
 画像20は、利用者Aが移動体1とペアリングされていることを示すための表示情報であり、図形または文字あるいはこれらの組み合わせで構成される。画像20は、表示態様が経時的に変化するアニメーション画像であってもよい。出力処理部10aは、表示部2がプロジェクタである場合、当該プロジェクタを用いて、画像20を、移動体1の周囲の床面Bに3次元で投影する。
 出力処理部10aは、音出力部4を用いて、移動体1の周囲の床面Bに表示した情報に応じた音を出力させてもよい。効果音の出力態様は、効果音の周波数、リズムおよびテンポによって規定されるので、出力処理部10aは、これらを変化させてもよい。
 検出処理部10bは、検出部3を用いて、画像20を操作している利用者Aを検出する。例えば、検出処理部10bは、検出部3であるカメラ装置によって撮影された移動体1の周辺の映像を画像解析し、利用者Aの外見情報と画像解析結果に基づいて映像から利用者Aを検出することができる。画像解析には、例えば、パターンマッチングといった画像解析方法が用いられる。
 次に、実施の形態1に係るペアリング表示方法について詳細に説明する。
 図2は、実施の形態1に係るペアリング表示方法を示すフローチャートである。
 検出処理部10bは、移動体1とペアリングされている利用者Aを検出する(ステップST1)。例えば、検出処理部10bは、カメラ装置によって撮影された移動体1の周辺の映像を画像解析し、画像解析結果に基づいて利用者Aを検出する。利用者Aが検出されなければ(ステップST1;NO)、検出処理部10bは、利用者Aが検出されるまで、ステップST1の検出処理を繰り返す。
 出力処理部10aは、検出処理部10bによって利用者Aが検出された場合(ステップST1;YES)、表示部2を用いて、画像20を移動体1の周囲の床面Bに表示する(ステップST2)。例えば、図1に示すように、画像20として、利用者Aの顔画像が床面Bに表示される。利用者Aは、画像20を視認することで、画像20を床面Bに表示している移動体1とペアリングされていることを認識することができる。
 次に、実施の形態1に係るペアリング表示システムについて説明する。
 図3は、実施の形態1に係るペアリング表示システムの構成を示すブロック図である。図3において、図1と同一の構成要素には、同一の符号を付して説明を省略する。図3に示すペアリング表示システムは、移動体1と利用者Aがペアリングされていることを表示するシステムであり、移動体1およびサーバ30を備える。
 移動体1は自律的な移動が可能であり、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。図3に示す移動体1は、表示部2、検出部3、音出力部4および通信部5を備える。通信部5は、サーバ30と通信を行う。表示部2、検出部3および音出力部4は、それぞれ通信部5を通じてサーバ30から受信された制御信号に基づいて動作する。
 表示部2は、通信部5を通じてサーバ30から受信された制御情報に基づいて、移動体1の周囲の床面Bに情報を表示する表示部である。移動体1は、例えば、床面Bに情報を投影するプロジェクタである。検出部3は、移動体1の周囲の利用者Aを検出し、通信部5を通じてサーバ30に送信する。音出力部4は、通信部5を通じてサーバ30から受信された制御情報に基づいて、移動体1の周囲に音声を出力する。
 サーバ30は、移動体1から受信した情報に基づいて、表示部2を用いて、移動体1と利用者Aのペアリングに関する表示を行う装置である。図3に示すように、サーバ30は、出力処理部10a、検出処理部10bおよび通信部10cを備える。通信部10cは、移動体1が備える通信部5と通信を行う。
 出力処理部10aは、通信部10cを通じて移動体1に制御信号を送信して表示部2を制御することにより、画像20を移動体1の周囲の床面Bに表示する。検出処理部10bは、通信部10cを通じて移動体1に制御信号を送信して検出部3を制御することにより利用者Aを検出する。
 次に、ペアリング表示装置10の機能を実現するハードウェア構成について説明する。
 ペアリング表示装置10における出力処理部10aおよび検出処理部10bの機能は、処理回路により実現される。すなわち、ペアリング表示装置10は、図2のステップST1からステップST2までの処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
 図4Aは、ペアリング表示装置10の機能を実現するハードウェア構成を示すブロック図である。図4Bは、ペアリング表示装置10の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図4Aおよび図4Bにおいて、入力インタフェース100は、検出部3からペアリング表示装置10が備える検出処理部10bへ出力される情報を中継するインタフェースである。出力インタフェース101は、出力処理部10aから、表示部2または音出力部4あるいはこれらの両方に出力される情報を中継するインタフェースである。
 処理回路が図4Aに示す専用のハードウェアの処理回路102である場合、処理回路102は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。ペアリング表示装置10における出力処理部10aおよび検出処理部10bの機能を、別々の処理回路で実現してもよく、これらの機能をまとめて1つの処理回路で実現してもよい。
 処理回路が図4Bに示すプロセッサ103である場合、ペアリング表示装置10における出力処理部10aおよび検出処理部10bの機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。なお、ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ104に記憶される。
 プロセッサ103は、メモリ104に記憶されたプログラムを読み出して実行することで、ペアリング表示装置10における出力処理部10aおよび検出処理部10bの機能を実現する。例えば、ペアリング表示装置10は、プロセッサ103によって実行されるときに、図2に示したフローチャートにおけるステップST1からステップST2の処理が結果的に実行されるプログラムを記憶するためのメモリ104を備える。これらのプログラムは、出力処理部10aおよび検出処理部10bの手順または方法を、コンピュータに実行させる。メモリ104は、コンピュータを、出力処理部10aおよび検出処理部10bとして機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
 メモリ104は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
 ペアリング表示装置10における、出力処理部10aおよび検出処理部10bの機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、出力処理部10aは専用のハードウェアである処理回路102によって機能を実現し、検出処理部10bは、プロセッサ103がメモリ104に記憶されたプログラムを読み出して実行することにより機能を実現する。このように処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせにより上記機能を実現することができる。
 次に、ペアリング表示装置10による表示のバリエーションについて説明する。
 図5は、移動体1Aと利用者A1とのペアリング状態および移動体1Bと利用者A2とのペアリング状態の表示例を示す図である。図5において、利用者A1は、移動体1Aとペアリングされ、利用者A2は、移動体1Bとペアリングされている。移動体1Aおよび移動体1Bには、ペアリング表示装置10がそれぞれ搭載されている。
 移動体1Aに搭載されたペアリング表示装置10において、出力処理部10aは、表示部2を用いて、移動体1Aと利用者A1とがペアリングされた状態であることを、移動体1Aの周囲の床面Bに表示する。同様に、移動体1Bに搭載されたペアリング表示装置10において、出力処理部10aは、表示部2を用いて、移動体1Bと利用者A2とがペアリングされた状態であることを、移動体1Bの周囲の床面Bに表示する。
 例えば、移動体1Aと利用者A1とがペアリングされた後、検出処理部10bは、検出部3を用いて、利用者A1の動きを検出する。出力処理部10aは、表示部2を制御することで、利用者A1の下方の画像20aと、移動体1Aの表示部2から画像20aに延びた点線状の画像20bとを、検出処理部10bによって検出された利用者A1の動きに合わせて床面Bに表示する。同様に、出力処理部10aは、利用者A2の下方の画像20aと、移動体1Bの表示部2から画像20aに延びた点線状の画像20bとを、検出処理部10bによって検出された利用者A2の動きに合わせて床面Bに表示する。
 利用者A1は、利用者A2の下方の画像20aと点線状の画像20bを視認することにより、利用者A2と移動体1Bとがペアリングされていることを把握できる。一方、利用者A2は、利用者A1の下方の画像20aと点線状の画像20bを視認することにより、利用者A1と移動体1Aとがペアリングされていることを把握できる。また、利用者A1および利用者A2以外の利用者は、画像20aおよび画像20bを視認することにより、移動体1Aおよび移動体1Bが、当該利用者についてのペアリング対象外であることを把握できる。
 また、移動体1Aが利用者A1に追随して移動する移動体である場合、利用者A1以外の利用者は、移動体1Aと利用者A1がペアリングされていることを示す画像20aおよび画像20bを視認することで、利用者A1と移動体1Aとの間を遮ると、移動体1Aに衝突される可能性があるという注意が喚起される。これにより、利用者A1以外の利用者は、利用者A1と移動体1Aとの間を遮らないように移動するので、移動体1Aの利用の安全性が向上する。これは、利用者A1を含む利用者A2以外の利用者においても同様である。
 以上のように、実施の形態1に係るペアリング表示装置10は、移動体1とペアリングされた利用者Aを、検出部3を用いて検出し、利用者Aが検出された場合、利用者Aが移動体1とペアリングされていることを示す画像20を、表示部2を用いて移動体1の周囲の床面Bに表示する。利用者Aは、床面Bに表示された画像20を視認することで、画像20を表示した移動体1とペアリングされていることを認識できる。
 また、実施の形態1に係るペアリング表示装置10において、出力処理部10aは、移動体1Aと利用者A1がペアリングされた状態であることを示す画像20a,20bを、移動体1Aの周囲の床面Bに表示する。利用者A1以外の人が、利用者A1の下方の画像20aと点線状の画像20bを視認することで、利用者A1と移動体1Aとがペアリングされていることを把握できる。
実施の形態2.
 実施の形態2に係るペアリング表示装置は、実施の形態1と同様に、移動体と利用者がペアリングされていることを示す画像を床面に表示した後に、利用者が操作可能な画像を床面に表示する。実施の形態1における画像の表示で移動体とペアリングされていることを実感した利用者は、実施の形態2における画像に対する自身の操作によって移動体とのペアリングを成立させたと認識できるので(この操作前にペアリング自体は成立しているので、疑似的な操作)、移動体1を安心して利用することができる。
 図6は、実施の形態2に係るペアリング表示装置10の構成を示すブロック図である。移動体1は、実施の形態1と同様に、自律的な移動が可能であり、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。図6に示す移動体1は、表示部2、検出部3、音出力部4およびペアリング表示装置10を備える。また、利用者Aは、移動体1とペアリングされている人物であり、ペアリング表示装置10には、利用者Aの識別情報が登録されている。
 実施の形態2に係るペアリング表示装置10は、移動体1と利用者Aとのペアリングに関する表示を行う装置であり、出力処理部10a、検出処理部10bおよび確認部10dを備える。出力処理部10aは、表示部2を用いて、画像20と、この画像20に対する操作の進行状況を、移動体1の周囲の床面Bに表示する。
 実施の形態2における画像20は、利用者Aにペアリングに関する操作を行わせるための操作画像であり、図形または文字あるいはこれらの組み合わせで構成される。画像20は、表示態様が経時的に変化するアニメーション画像であってもよい。出力処理部10aは、表示部2がプロジェクタである場合、当該プロジェクタを用いて、画像20および操作の進行状況を示す表示情報を、移動体1の周囲の床面Bに3次元で投影する。実施の形態1で示したように、「3次元に表示する」または「3次元で投影する」とは、情報を、人間の視覚にとって立体的に見えるような表現で表示または投影することを表す。ただし、表示部2は必ずしも情報を3次元的に表示しなくてもよく、2次元的な表示を行っても構わない。
 出力処理部10aは、移動体1の周囲の床面Bにおける検出部3の有効検出範囲となる領域に画像20を表示することができる。有効検出範囲は、検出部3によって安定した対象物の検出が可能な範囲であり、例えば、検出部3がカメラ装置である場合、カメラ装置の視野角度などから規定される。安定検出範囲とも呼ばれる。検出部3の有効検出範囲となる領域に画像20が表示されるので、検出部3によって安定して検出される領域に利用者Aを導くことができる。
 出力処理部10aは、画像20を用いた操作の進行状況に応じて画像20の表示態様を変化させてもよい。例えば、床面Bに表示された画像20を利用者Aが足を使って操作する場合、出力処理部10aは、検出処理部10bによって検出された利用者Aの足で操作された画像20の表示態様を変化させる。利用者Aは、操作の進行状況に応じて変化する画像20の表示態様を視認することで、利用者A自身が能動的に移動体1とのペアリングを成立させたと認識できる。また、利用者Aが移動体1に直接触れたり近接したりする必要がないため、不用意に移動体1の本体にぶつかる恐れが減少し、安全性が高まるという効果がある。
 出力処理部10aは、画像20に対する操作の完了を、移動体1の周囲の床面Bに表示する。例えば、出力処理部10aは、確認部10dによって、画像20を操作する人物が利用者Aであることが確認されたタイミングで、画像20の表示態様を変化させる。利用者Aは、画像20の表示態様の変化を視認することにより、画像20に対する操作の完了を容易に把握できる。
 出力処理部10aは、音出力部4を用いて、移動体1の周囲の床面Bに表示した情報に応じた音を出力させてもよい。効果音の出力態様は、効果音の周波数、リズムおよびテンポによって規定されるので、出力処理部10aは、これらを変化させてもよい。例えば、出力処理部10aは、画像20の操作が開始されたタイミングで、音出力部4に効果音を出力させ、この効果音の出力態様を、操作の進行状況に合わせて変化させる。画像20の操作をしている人物が利用者Aであると確認された場合、出力処理部10aは、利用者Aが確認されるまでの効果音の出力態様とは異なる態様に変化させる。これにより、利用者Aは、画像20の操作を、視覚的および聴覚的に実感することができる。
 検出処理部10bは、検出部3を用いて画像20を操作している利用者Aを検出する。検出処理部10bには、利用者Aの識別情報が設定されている。識別情報には、利用者Aを識別するための性別、年齢および顔情報といった個人情報が含まれており、利用者Aの外見情報が含まれてもよい。利用者Aの外見情報は、画像20を操作するときの、利用者Aの服装、髪型または杖などの所持の有無あるいはこれらの組み合わせを示す情報であってもよい。例えば、検出処理部10bは、検出部3であるカメラ装置によって撮影された移動体1の周辺の映像を画像解析し、利用者Aの外見情報と画像解析結果に基づいて、映像から利用者Aを検出する。なお、画像解析には、パターンマッチングなどの画像解析方法を用いることができる。
 確認部10dは、画像20に対する操作の進行状況を確認する。例えば、確認部10dは、検出処理部10bによって検出された利用者Aの足の映像の画像解析結果に基づいて画像20に対する操作の進行状況を判定する。確認部10dによって確認された画像20に対する操作の進行状況は、出力処理部10aに順次出力される。
 次に、実施の形態2に係るペアリング表示方法について詳細に説明する。
 図7は、実施の形態2に係るペアリング表示方法を示すフローチャートである。なお、図7に示す処理が実行される前に、実施の形態1における画像20(移動体1と利用者Aがペアリングされていることを示す画像)が床面Bに表示され、利用者Aは、移動体1とペアリングされていることを認識している。また、図8Aは、利用者Aに操作させる画像20の例を示す図であり、床面B上に3次元に表示された押しボタン形状の画像20を示している。図8Aに示す画像20は、表示部2によって床面Bに3次元で投影された映像である。図8Bは、図8Aの画像20に対する操作の進行状況を示す図である。図8Cは、図8Aの画像20に対する操作の完了を示す図である。
 出力処理部10aは、表示部2を用いて、操作用の画像20を移動体1の周囲の床面Bに表示する(ステップST1a)。例えば、図8Aに示すように、操作用の画像20として、ペアリングに関する操作を行うための画像であることを示す「ペア」という文字が記載された押しボタンが床面Bに表示される。押しボタンが床面Bに表示されているので、利用者Aは、両手が操作に使えない状態であっても、足を使って押しボタンを押下することができる。
 検出処理部10bは、操作用の画像20を操作している利用者Aを検出する(ステップST2a)。例えば、検出処理部10bは、押しボタンを操作(押下)している利用者Aの足を検出し、この検出情報を確認部10dに出力する。確認部10dは、画像20に対する操作の進行状況を確認し、出力処理部10aに出力する。出力処理部10aは、画像20に対する操作の進行状況に応じて、ステップST1aに示した画像20の表示態様を変化させる。例えば、図8Bに示すように、出力処理部10aは、表示部2を用いて押しボタンが徐々に押下される画像に変化させる。このとき、出力処理部10aは、音出力部4を用いて、押しボタンの押下に合わせて効果音の出力態様を変化させてもよい。
 確認部10dは、画像20に対する操作が完了したか否かを確認する(ステップST3a)。例えば、確認部10dは、検出処理部10bによって検出された利用者Aの足の位置が床面Bに接したか否かに基づいて操作の完了を判断する。画像20に対する操作が完了していない場合(ステップST3a;NO)、ステップST3aの処理を繰り返す。
 一方、画像20に対する操作が完了した場合(ステップST3a;YES)、出力処理部10aは、利用者Aの操作が完了したことを表示する(ステップST4a)。例えば、図8Cに示すように、押しボタンの画像を、完全に押下された状態の画像に変化させる。さらに、押しボタンに記載されていた「ペア」という文字を、利用者Aと移動体1のペアリングに成功したことを示す「成功」という文字に変更してもよい。このとき、出力処理部10aは、音出力部4から出力されていた効果音の出力態様を、操作が完了するまでとは異なる態様に変化させてもよい。利用者Aは、床面Bに表示された画像20の表示態様および音出力部4から出力された効果音によって、自身の操作で移動体1とのペアリングが成立したと認識することができる。
 なお、検出処理部10bによって検出された人物が利用者A以外の第三者であると判定された場合、出力処理部10aは、画像20である押しボタンに記載された文字を、「あなたは、この移動体の利用者ではありません」など、その人物がペアリングすべき利用者ではない旨の表示に一時的に変更してもよい。なお、出力処理部10aにより表示される文字および文章は、表示装置が使われる地域において通常使われる言語で表示してもよいし、それ以外の他の言語によって表示してもよい。また、検出処理部10bによる利用者の確認状況によって言語を切り替えて表示してもよい。
 なお、移動体とペアリングされる対象者は、利用者のみならず、当該利用者の付添者が含まれてもよい。検出処理部10bは、図9Aに示すように、検出部3を用いて、画像20を操作している利用者A1の周囲に存在する人物を検出する。利用者A1による操作が完了すると、出力処理部10aは、検出処理部10bによって検出された人物が利用者A1の付添者A3であるか否かを確認する操作を行うための確認画像を表示する。例えば、出力処理部10aによって、図9Bに示すような押しボタン20cが床面Bに表示される。押しボタン20cには、付添者であるか否かを確認する操作を行うための画像であることを示す「付添者?」という文字が記載されている。付添者A3は、足を使って押しボタン20cを押下する。
 検出処理部10bは、押しボタン20cを操作する付添者A3を検出し、その検出情報を確認部10dに出力する。確認部10dは、検出処理部10bによって検出された付添者A3の足の映像を画像解析した結果に基づいて、押しボタン20cの画像に対する付添者A3の操作の進行状況を確認する。出力処理部10aは、確認部10dによって確認された操作の進行状況に合わせて、画像20を、押しボタンが徐々に押下されていく画像に変化させる。なお、出力処理部10aは、音出力部4を用いて、押しボタン20cの押下に合わせて効果音の出力態様を変化させてもよい。
 出力処理部10aは、確認部10dによって付添者A3による押しボタン20cの操作が完了したと確認されると、移動体1と利用者A1および付添者A3とがペアリングされていることを示す画像を、床面Bに表示する。利用者A1および付添者A3が移動体1とペアリングされている場合、利用者A1だけでなく、付添者A3の行動が移動体1の動きに反映される。例えば、移動体1が利用者A1を乗せて移動する移動体であり、付添者A3が、この移動体1の後を追随して移動する場合に、付添者A3が利用者A1とは異なる行動をとっても、移動体1は、付添者A3に合わせた行動をとる。例えば、移動体1の移動中に付添者A3が急に立ち止まった場合、移動体1は、付添者A3の立ち止まりに合わせて停止する。これにより、利用者A1と付添者A3がはぐれることなく、互いに行動を共にすることができる。
 また、移動体1と利用者A1および付添者A3とがペアリングされた後に、出力処理部10aは、移動体1と利用者A1および付添者A3とがペアリングされた状態であることを示す画像を移動体1の周囲の床面Bに表示してもよい。例えば、図9Cに示すように、出力処理部10aは、利用者A1および付添者A3の下部の画像20aと、表示部2から画像20aに延びた点線状の画像20bとを、利用者A1と付添者A3の動きに合わせて床面Bに表示する。利用者A1および付添者A3以外の利用者は、画像20aおよび画像20bを視認することで、利用者A1および付添者A3が移動体1とペアリングされており、移動体1が自身とのペアリング対象外であることを把握できる。
 なお、ペアリング表示装置10における出力処理部10a、検出処理部10bおよび確認部10dの機能は、処理回路によって実現される。すなわち、ペアリング表示装置10は、図7に示したステップST1aからステップST4aまでを実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPUであってもよい。
 以上のように、実施の形態2に係るペアリング表示装置10は、利用者Aがペアリングに関する操作を行うための画像20を移動体1の周囲の床面Bに表示し、画像20を操作している利用者Aを検出する。利用者Aは、自身の操作によって移動体1とのペアリングを成立させたと認識できるので、移動体1を安心して利用することができる。
実施の形態3.
 図10は、実施の形態3に係るペアリング表示装置10Aの構成を示すブロック図である。移動体1は自律的な移動が可能であり、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。図10に示す移動体1は、表示部2、検出部3、音出力部4およびペアリング表示装置10Aを備えている。利用者Aは、移動体1を利用可能なサービスに登録している利用者であり、利用者Aの識別情報がペアリング表示装置10Aに設定されている。利用者Aは、利用者端末40を携帯している。利用者端末40は、ペアリング表示装置10Aと通信を行う端末装置であり、例えば、スマートフォン、携帯電話端末またはタブレット情報端末である。
 利用者Aは、利用者端末40を用いて、自身の外見情報をペアリング表示装置10Aに送信することができる。利用者Aの外見情報は、移動体1が存在する現場での利用者Aの服装、髪型または杖などの所持の有無あるいはこれらの組み合わせを示す情報である。
 ペアリング表示装置10Aは、移動体1と利用者Aのペアリングに関する表示を行う装置であり、例えば、移動体1に搭載されている。図10に示すように、ペアリング表示装置10Aは、出力処理部10a、検出処理部10bおよび通信部10eを備える。なお、図3に示したように、これらの構成要素はサーバ30が備えてもよい。
 利用者Aは、移動体1が存在する現場に行く前に、利用者端末40を用いて、利用予約データを、移動体1に搭載されたペアリング表示装置10Aに送信している。ペアリング表示装置10Aが備える通信部10eは、利用者端末40と通信して利用予約データを受信し、受信された利用予約データを検出処理部10bに出力する。検出処理部10bは、利用予約データを受けると、利用者Aと移動体1のペアリングが成立したと認識する。
 検出処理部10bは、通信部10eを通じて、利用者Aによる移動体1のペアリングが成立したことを、利用者端末40に送信する。利用者Aは、移動体1Dのペアリングが成立した場合、利用者端末40を用いて、利用者Aの外見情報をペアリング表示装置10Aに送信する。通信部10eは、利用者端末40から受信した利用者Aの外見情報を、検出処理部10bに出力する。
 検出処理部10bは、移動体1の周辺に存在する人物を検出し、検出した人物の外見が利用者Aの外見情報と合致するか否かを判定する。移動体1の周辺に存在する人物が利用者Aの外見情報と一致する場合、検出処理部10bは、この人物が利用者Aであると判定する。出力処理部10aは、検出処理部10bによって利用者Aが検出されると、表示部2を用いて、移動体1の周囲の床面Bに画像20を表示する。
 なお、ペアリング表示装置10Aにおける出力処理部10a、検出処理部10bおよび通信部10eの機能は、処理回路により実現される。すなわち、ペアリング表示装置10Aは、前述した処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPUであってもよい。
 以上のように、実施の形態3に係るペアリング表示装置10Aにおいて、通信部10eが、利用者端末40を用いて送信された利用者Aの外見情報を受信する。検出処理部10bは、通信部10eによって受信された外見情報を用いて利用者Aを検出する。出力処理部10aは、検出処理部10bによって利用者Aが検出されると、利用者Aが移動体1とペアリングされていることを示す画像20を、移動体1の周囲の床面Bに表示する。利用者Aは、床面Bに表示された画像20を視認することで、床面Bに画像20を表示した移動体1とペアリングされていることを認識できる。
 なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態のそれぞれの自由な組み合わせまたは実施の形態のそれぞれの任意の構成要素の変形もしくは実施の形態のそれぞれにおいて任意の構成要素の省略が可能である。
 本発明に係るペアリング表示装置は、例えば、電動車椅子、電動カートまたは移動ロボットといった移動体と利用者とのペアリングに利用可能である。
 1,1A,1B 移動体、2 表示部、3 検出部、4 音出力部、5 通信部、10,10A ペアリング表示装置、10a 出力処理部、10b 検出処理部、10c,10e 通信部、10d 確認部、20,20a,20b 画像、20c 押しボタン、30 サーバ、40 利用者端末、100 入力インタフェース、101 出力インタフェース、102 処理回路、103 プロセッサ、104 メモリ。

Claims (11)

  1.  表示部および検出部を有した移動体とペアリングされた利用者を、前記検出部を用いて検出する検出処理部と、
     前記検出処理部によって前記利用者が検出された場合、前記利用者が前記移動体とペアリングされていることを示す情報を、前記表示部を用いて前記移動体の周囲の床面に表示する出力処理部と、
     を備えたことを特徴とするペアリング表示装置。
  2.  前記出力処理部は、前記表示部を用いて、前記移動体と前記利用者とのペアリングに関する操作を行うための操作画像を前記移動体の周囲の床面に表示し、
     前記検出処理部は、前記検出部を用いて、前記操作画像を操作する前記利用者を検出すること
     を特徴とする請求項1記載のペアリング表示装置。
  3.  前記出力処理部は、前記移動体の周囲の床面における前記検出部の有効検出範囲となる領域に前記操作画像を表示すること
     を特徴とする請求項2記載のペアリング表示装置。
  4.  前記出力処理部は、前記移動体と前記利用者がペアリングされた状態であることを示す画像を当該移動体の周囲の床面に表示すること
     を特徴とする請求項1から請求項3のいずれか1項記載のペアリング表示装置。
  5.  前記表示部は、前記移動体の周囲の床面に画像を投影する投影部であり、
     前記出力処理部は、前記投影部を用いて、前記移動体と前記利用者がペアリングされた状態であることを示す画像として、線、図形または文字あるいはこれらの組み合わせから構成された画像を表示すること
     を特徴とする請求項4記載のペアリング表示装置。
  6.  前記操作画像に対する操作の進行状況を確認する確認部を備えたこと
     を特徴とする請求項2記載のペアリング表示装置。
  7.  前記検出処理部は、前記検出部を用いて前記利用者の付添者を検出し、
     前記出力処理部は、前記検出処理部によって前記付添者が検出された場合、前記利用者および前記付添者と前記移動体とがペアリングされていることを示す情報を、前記移動体の周囲の床面に表示すること
     を特徴とする請求項1記載のペアリング表示装置。
  8.  利用者端末と通信を行う通信部を備え、
     前記通信部は、前記利用者によって前記利用者端末を用いて送信された利用予約データを受信し、
     前記出力処理部は、前記利用者端末を用いて前記利用予約データを送信した前記利用者が、前記検出処理部によって検出されると、前記利用者が前記移動体とペアリングされていることを示す情報を、前記表示部を用いて前記移動体の周囲の床面に表示すること
     を特徴とする請求項1記載のペアリング表示装置。
  9.  前記移動体は、音出力部を有し、
     前記出力処理部は、前記音出力部を用いて、前記移動体の周囲の床面に表示した情報に応じた音を出力すること
     を特徴とする請求項1または請求項2記載のペアリング表示装置。
  10.  表示部および検出部を有した移動体と、
     前記移動体とペアリングされた利用者を、前記検出部を用いて検出する検出処理部と、
     前記検出処理部によって前記利用者が検出された場合、前記利用者が前記移動体とペアリングされていることを示す情報を、前記表示部を用いて前記移動体の周囲の床面に表示する出力処理部と、
     を備えたことを特徴とするペアリング表示システム。
  11.  検出処理部が、表示部および検出部を有した移動体とペアリングされた利用者を、前記検出部を用いて検出するステップと、
     出力処理部が、前記検出処理部によって前記利用者が検出された場合、前記利用者が前記移動体とペアリングされていることを示す情報を、前記表示部を用いて前記移動体の周囲の床面に表示するステップと、
     を備えたことを特徴とするペアリング表示方法。
PCT/JP2019/024248 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法 WO2020255286A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE112019007321.4T DE112019007321B4 (de) 2019-06-19 2019-06-19 Kopplungsanzeigevorrichtung, kopplungsanzeigesystem und kopplungsanzeigeverfahren
JP2019560777A JP6746013B1 (ja) 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
CN201980097340.1A CN113950711B (zh) 2019-06-19 2019-06-19 配对显示装置、配对显示系统以及配对显示方法
KR1020217040054A KR102449306B1 (ko) 2019-06-19 2019-06-19 페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법
PCT/JP2019/024248 WO2020255286A1 (ja) 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
US17/527,165 US20220076598A1 (en) 2019-06-19 2021-11-16 Pairing display device, pairing display system, and pairing display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024248 WO2020255286A1 (ja) 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/527,165 Continuation US20220076598A1 (en) 2019-06-19 2021-11-16 Pairing display device, pairing display system, and pairing display method

Publications (1)

Publication Number Publication Date
WO2020255286A1 true WO2020255286A1 (ja) 2020-12-24

Family

ID=72146122

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024248 WO2020255286A1 (ja) 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法

Country Status (6)

Country Link
US (1) US20220076598A1 (ja)
JP (1) JP6746013B1 (ja)
KR (1) KR102449306B1 (ja)
CN (1) CN113950711B (ja)
DE (1) DE112019007321B4 (ja)
WO (1) WO2020255286A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12073750B2 (en) * 2020-12-08 2024-08-27 Nec Corporation Pedestrian guidance device, pedestrian guidance method, and computer-readable recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179414A (ja) * 2014-03-19 2015-10-08 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム及び撮影情報共有方法
WO2015152304A1 (ja) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム
WO2016002527A1 (ja) * 2014-06-30 2016-01-07 みこらった株式会社 移動体呼び寄せシステム、呼び寄せ装置及び無線通信装置
WO2018230533A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 配車サービス提供装置、配車サービス提供方法、およびプログラム
WO2018230679A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 送迎管理装置、送迎管理方法、およびプログラム
WO2018230698A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 イベント配車装置、イベント配車方法、プログラム、および管理システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4214860B2 (ja) 2003-08-12 2009-01-28 沖電気工業株式会社 ロボットによる中継システム、ロボットによる中継プログラム及びその方法
JP4771147B2 (ja) * 2005-10-24 2011-09-14 清水建設株式会社 道案内システム
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
US8373657B2 (en) * 2008-08-15 2013-02-12 Qualcomm Incorporated Enhanced multi-touch detection
US9586135B1 (en) * 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US20130285919A1 (en) * 2012-04-25 2013-10-31 Sony Computer Entertainment Inc. Interactive video system
JP5942840B2 (ja) * 2012-12-21 2016-06-29 ソニー株式会社 表示制御システム及び記録媒体
JP6111706B2 (ja) * 2013-02-01 2017-04-12 セイコーエプソン株式会社 位置検出装置、調整方法、および調整プログラム
KR101917700B1 (ko) * 2013-12-23 2018-11-13 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9682477B2 (en) * 2015-03-24 2017-06-20 Toyota Jidosha Kabushiki Kaisha Robot communication of intent and functioning
CN106470236B (zh) * 2015-08-20 2019-05-10 腾讯科技(深圳)有限公司 基于移动终端的打车方法、装置和系统
EP3520684B1 (en) * 2016-09-30 2024-06-12 Asia Air Survey Co., Ltd. Moving-body information providing system, and moving-body information providing program
KR102003940B1 (ko) * 2016-11-11 2019-10-01 엘지전자 주식회사 자율 주행 차량 및 그 제어방법
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM
EP3613638A1 (en) * 2018-08-10 2020-02-26 Lg Electronics Inc. Vehicle display system for vehicle
WO2020031740A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 制御装置および制御方法、並びにプログラム
KR102619558B1 (ko) * 2018-11-16 2024-01-02 현대모비스 주식회사 자율주행차의 제어시스템 및 그 제어방법
DE102019206644B3 (de) 2019-05-08 2020-08-06 Audi Ag Verfahren zum Betrieb einer Umgebungsbeleuchtungseinrichtung eines Kraftfahrzeugs und Kraftfahrzeug
US11072277B2 (en) * 2019-09-20 2021-07-27 Adway International Inc. Method and apparatus to dynamically identify a vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179414A (ja) * 2014-03-19 2015-10-08 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム及び撮影情報共有方法
WO2015152304A1 (ja) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム
WO2016002527A1 (ja) * 2014-06-30 2016-01-07 みこらった株式会社 移動体呼び寄せシステム、呼び寄せ装置及び無線通信装置
WO2018230533A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 配車サービス提供装置、配車サービス提供方法、およびプログラム
WO2018230679A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 送迎管理装置、送迎管理方法、およびプログラム
WO2018230698A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 イベント配車装置、イベント配車方法、プログラム、および管理システム

Also Published As

Publication number Publication date
CN113950711B (zh) 2023-11-21
US20220076598A1 (en) 2022-03-10
KR20220002663A (ko) 2022-01-06
KR102449306B1 (ko) 2022-09-29
DE112019007321T5 (de) 2022-07-07
CN113950711A (zh) 2022-01-18
JPWO2020255286A1 (ja) 2021-09-13
JP6746013B1 (ja) 2020-08-26
DE112019007321B4 (de) 2024-05-29

Similar Documents

Publication Publication Date Title
CN105093526B (zh) 眼镜式终端及其控制方法
JP6401120B2 (ja) 視標追跡手順に基づくネットワーク認証方法およびシステム
JP5779641B2 (ja) 情報処理装置、方法およびプログラム
JP2020504887A (ja) 障害のあるユーザ支援のためのシステムおよび方法
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
KR102055677B1 (ko) 이동 로봇 및 그 제어방법
EP3731118B1 (en) Electronic device and method for performing biometric authentication function and intelligent agent function using user input in electronic device
CN109478288B (zh) 虚拟现实系统及信息处理系统
CN113035196A (zh) 用于自助一体机的无接触操控方法和装置
US10299982B2 (en) Systems and methods for blind and visually impaired person environment navigation assistance
WO2020255286A1 (ja) ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
KR20210029388A (ko) 시각 장애인을 위한 물건 탐지 및 안내를 위한 시스템
WO2018112688A1 (zh) 一种弱视辅助方法和装置
CN112330380A (zh) 订单创建方法、装置、计算机设备及计算机可读存储介质
US11195525B2 (en) Operation terminal, voice inputting method, and computer-readable recording medium
KR101629758B1 (ko) 글라스형 웨어러블 디바이스의 잠금해제 방법 및 프로그램
JP2018025931A (ja) 操作支援装置、操作支援方法およびプログラム
WO2018056169A1 (ja) 対話装置、処理方法、プログラム
EP4163765A1 (en) Method and apparatus for initiating an action
WO2018047932A1 (ja) 対話装置、ロボット、処理方法、プログラム
US20210049998A1 (en) Information processing apparatus, information processing method, and program
JP2024058978A (ja) サービス提供システム、サービス提供方法及びサービス提供プログラム
WO2018061871A1 (ja) 端末装置、情報処理システム、処理方法、プログラム
JP2013041012A (ja) 撮像装置および撮像方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019560777

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19933651

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217040054

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19933651

Country of ref document: EP

Kind code of ref document: A1