JP6746013B1 - ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法 - Google Patents

ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法 Download PDF

Info

Publication number
JP6746013B1
JP6746013B1 JP2019560777A JP2019560777A JP6746013B1 JP 6746013 B1 JP6746013 B1 JP 6746013B1 JP 2019560777 A JP2019560777 A JP 2019560777A JP 2019560777 A JP2019560777 A JP 2019560777A JP 6746013 B1 JP6746013 B1 JP 6746013B1
Authority
JP
Japan
Prior art keywords
user
unit
moving body
processing unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019560777A
Other languages
English (en)
Other versions
JPWO2020255286A1 (ja
Inventor
美紀 荒井
美紀 荒井
敬 春日
敬 春日
孝康 橋本
孝康 橋本
ティボ ジャンティ
ティボ ジャンティ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6746013B1 publication Critical patent/JP6746013B1/ja
Publication of JPWO2020255286A1 publication Critical patent/JPWO2020255286A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller

Abstract

ペアリング表示装置(10)は、表示部(2)および検出部(3)を有した移動体(1)とペアリングされた利用者(A)を、検出部(3)を用いて検出する検出処理部(10b)と、検出処理部(10b)によって利用者(A)が検出された場合、利用者(A)が移動体(1)とペアリングされていることを示す情報を、表示部(2)を用いて移動体(1)の周囲の床面(B)に表示する出力処理部(10a)を備える。

Description

本発明は、移動体と利用者とのペアリングに関する表示を行うペアリング表示装置、ペアリング表示システムおよびペアリング表示方法に関する。
近年、移動体を利用した施設内誘導システムが注目されている。施設として、例えば、病院、空港あるいは商業施設が挙げられる。移動体は、施設内で利用者を乗せて移動するか、あるいは、利用者に追随して移動する。移動体としては、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。利用者は、移動体に施設内の目的箇所を伝えることで、移動体によって目的箇所まで移動することができる。
施設に備えられた移動体を利用する際に、利用者は、利用したい移動体とペアリングを行う必要がある。ペアリングとは、システムに登録された利用者であるか否かを個人認証し、システムに登録された利用者であると認証された場合に、移動体を、当該利用者からの指示で動作可能に対応付ける処理である。
例えば、特許文献1に記載されているシステムでは、サーバが、ロボットの現在の利用予約状況に関する予約状況データを利用者端末に送信し、利用者端末が、予約状況データを考慮して利用者によって入力されたロボットの利用を予約するための予約データをサーバへ送信する。サーバは、予約データに基づいて利用者を認証することによりロボットの利用予約を決定する。
特開2005−64837号公報
特許文献1に記載された従来の技術では、利用者端末を用いて、ロボットの利用予約、すなわち、ペアリングを行うことができる。しかしながら、ロボットと接触(コンタクト)せずにペアリングを行った利用者は、ロボットが配置されている施設において、実際にロボットとペアリングされているか否かが分かり難いという課題があった。
なお、施設に行った利用者をロボットが認証してペアリングを行うことも考えられる。しかしながら、利用者は、一般に、施設に配置されているロボットのうち、どのロボットが既にペアリングされているかが分からず、どのロボットとペアリングに関するコンタクトをとるべきかが分からない。このため、利用者は、利用可能なロボットを自ら探すか、利用可能なロボットを施設の管理者に聞く必要があり、利便性が悪かった。
本発明は上記課題を解決するものであり、移動体と利用者がペアリングされていることを伝える表示を行うことができるペアリング表示装置、ペアリング表示システムおよびペアリング表示方法を得ることを目的とする。
本発明に係るペアリング表示装置は、表示部および検出部を有した移動体とペアリングされた利用者を、検出部を用いて検出する検出処理部と、検出処理部によって利用者が検出された場合、利用者が移動体とペアリングされていることを示す情報を、表示部を用いて移動体の周囲の床面に表示する出力処理部とを備え、出力処理部は、移動体と利用者がペアリングされた状態であることを示す画像を当該移動体の周囲の床面に表示する
本発明によれば、移動体とペアリングされた利用者を、検出部を用いて検出し、利用者が検出された場合、利用者が移動体とペアリングされていることを示す情報を、表示部を用いて移動体の周囲の床面に表示する。利用者は、床面に表示された情報を視認することで、この情報を表示した移動体とペアリングされていることを認識できる。
実施の形態1に係るペアリング表示装置の構成を示すブロック図である。 実施の形態1に係るペアリング表示方法を示すフローチャートである。 実施の形態1に係るペアリング表示システムの構成を示すブロック図である。 図4Aは、実施の形態1に係るペアリング表示装置の機能を実現するハードウェア構成を示すブロック図である。図4Bは、実施の形態1に係るペアリング表示装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。 移動体と利用者とのペアリング状態の表示例を示す図である。 実施の形態2に係るペアリング表示装置の構成を示すブロック図である。 実施の形態2に係るペアリング表示方法を示すフローチャートである。 図8Aは、実施の形態2における操作画像の例を示す図である。図8Bは、図8Aの操作画像に対する操作の進行状況を示す図である。図8Cは、図8Aの操作画像に対する操作の完了を示す図である。 図9Aは、付添者がある利用者による操作画像の操作を示す図である。図9Bは、付添者を確認する表示の例を示す図である。図9Cは、移動体と利用者および付添者とのペアリング状態の表示例を示す図である。 実施の形態3に係るペアリング表示装置の構成を示すブロック図である。
実施の形態1.
図1は、実施の形態1に係るペアリング表示装置10の構成を示すブロック図である。移動体1は、自律的な移動が可能であり、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。図1に示す移動体1は、表示部2、検出部3、音出力部4、およびペアリング表示装置10を備える。
表示部2は、移動体1の周囲の床面Bに情報を表示する表示部であり、例えば、床面Bに情報を投影するプロジェクタ(投影部)である。また、表示部2は、移動体1の周囲の床面Bに情報を、3次元に表示することが可能である。例えば、表示部2がプロジェクタである場合、当該プロジェクタは、移動体1の周囲の床面Bに情報を3次元で投影する。ここで、「3次元に表示する」または「3次元で投影する」とは、情報を、人間の視覚にとって立体的に見えるような表現で表示または投影することを表す。ただし、表示部2は必ずしも情報を3次元的に表示しなくてもよく、2次元的な表示を行っても構わない。
検出部3は、移動体1の周囲の利用者Aを検出する検出部であり、例えば、移動体1の周囲を撮影可能なカメラ装置である。利用者Aは、移動体1とペアリングされた人物であり、ペアリング表示装置10には、利用者Aの外見情報が登録されている。検出部3であるカメラ装置は利用者Aを撮影し、その映像情報をペアリング表示装置10に出力する。なお、検出部3は、赤外線、光および音波のいずれかとカメラ装置を組み合わせたセンサであってもよい。
音出力部4は、移動体1の周囲に音声を出力する音声出力部であり、例えば、スピーカである。例えば、音出力部4は、ペアリング表示装置10から指示された効果音情報、音声ガイダンスおよび警報を出力する。効果音情報は、表示部2によって移動体1の周囲の床面Bに表示された情報に応じた音情報である。
ペアリング表示装置10は、移動体1と利用者Aとのペアリングに関する表示を行う。図1に示すペアリング表示装置10は、出力処理部10aおよび検出処理部10bを備えている。出力処理部10aは、検出処理部10bによって利用者Aが検出された場合に、利用者Aが移動体1とペアリングされていることを示す情報を、表示部2を用いて移動体1の周囲の床面Bに表示する。利用者Aが移動体1とペアリングされていることを示す情報は、例えば、利用者Aの名前、顔画像または特定のマークの少なくともいずれか一つの画像20である。例えば、出力処理部10aは、検出部3の検出範囲内に利用者Aが進入したタイミングで、画像20を移動体1の周囲の床面Bに表示する。
また、出力処理部10aは、移動体1の周囲の床面Bにおける検出部3の有効検出範囲となる領域に画像20を表示することができる。有効検出範囲は、検出部3によって安定した対象物の検出が可能な範囲であり、例えば、検出部3がカメラ装置である場合、カメラ装置の視野角度などから規定される。安定検出範囲とも呼ばれる。検出部3の有効検出範囲となる領域に画像20が表示されるので、検出部3によって安定して検出される領域に利用者Aを導くことができる。
画像20は、利用者Aが移動体1とペアリングされていることを示すための表示情報であり、図形または文字あるいはこれらの組み合わせで構成される。画像20は、表示態様が経時的に変化するアニメーション画像であってもよい。出力処理部10aは、表示部2がプロジェクタである場合、当該プロジェクタを用いて、画像20を、移動体1の周囲の床面Bに3次元で投影する。
出力処理部10aは、音出力部4を用いて、移動体1の周囲の床面Bに表示した情報に応じた音を出力させてもよい。効果音の出力態様は、効果音の周波数、リズムおよびテンポによって規定されるので、出力処理部10aは、これらを変化させてもよい。
検出処理部10bは、検出部3を用いて、画像20を操作している利用者Aを検出する。例えば、検出処理部10bは、検出部3であるカメラ装置によって撮影された移動体1の周辺の映像を画像解析し、利用者Aの外見情報と画像解析結果に基づいて映像から利用者Aを検出することができる。画像解析には、例えば、パターンマッチングといった画像解析方法が用いられる。
次に、実施の形態1に係るペアリング表示方法について詳細に説明する。
図2は、実施の形態1に係るペアリング表示方法を示すフローチャートである。
検出処理部10bは、移動体1とペアリングされている利用者Aを検出する(ステップST1)。例えば、検出処理部10bは、カメラ装置によって撮影された移動体1の周辺の映像を画像解析し、画像解析結果に基づいて利用者Aを検出する。利用者Aが検出されなければ(ステップST1;NO)、検出処理部10bは、利用者Aが検出されるまで、ステップST1の検出処理を繰り返す。
出力処理部10aは、検出処理部10bによって利用者Aが検出された場合(ステップST1;YES)、表示部2を用いて、画像20を移動体1の周囲の床面Bに表示する(ステップST2)。例えば、図1に示すように、画像20として、利用者Aの顔画像が床面Bに表示される。利用者Aは、画像20を視認することで、画像20を床面Bに表示している移動体1とペアリングされていることを認識することができる。
次に、実施の形態1に係るペアリング表示システムについて説明する。
図3は、実施の形態1に係るペアリング表示システムの構成を示すブロック図である。図3において、図1と同一の構成要素には、同一の符号を付して説明を省略する。図3に示すペアリング表示システムは、移動体1と利用者Aがペアリングされていることを表示するシステムであり、移動体1およびサーバ30を備える。
移動体1は自律的な移動が可能であり、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。図3に示す移動体1は、表示部2、検出部3、音出力部4および通信部5を備える。通信部5は、サーバ30と通信を行う。表示部2、検出部3および音出力部4は、それぞれ通信部5を通じてサーバ30から受信された制御信号に基づいて動作する。
表示部2は、通信部5を通じてサーバ30から受信された制御情報に基づいて、移動体1の周囲の床面Bに情報を表示する表示部である。移動体1は、例えば、床面Bに情報を投影するプロジェクタである。検出部3は、移動体1の周囲の利用者Aを検出し、通信部5を通じてサーバ30に送信する。音出力部4は、通信部5を通じてサーバ30から受信された制御情報に基づいて、移動体1の周囲に音声を出力する。
サーバ30は、移動体1から受信した情報に基づいて、表示部2を用いて、移動体1と利用者Aのペアリングに関する表示を行う装置である。図3に示すように、サーバ30は、出力処理部10a、検出処理部10bおよび通信部10cを備える。通信部10cは、移動体1が備える通信部5と通信を行う。
出力処理部10aは、通信部10cを通じて移動体1に制御信号を送信して表示部2を制御することにより、画像20を移動体1の周囲の床面Bに表示する。検出処理部10bは、通信部10cを通じて移動体1に制御信号を送信して検出部3を制御することにより利用者Aを検出する。
次に、ペアリング表示装置10の機能を実現するハードウェア構成について説明する。
ペアリング表示装置10における出力処理部10aおよび検出処理部10bの機能は、処理回路により実現される。すなわち、ペアリング表示装置10は、図2のステップST1からステップST2までの処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
図4Aは、ペアリング表示装置10の機能を実現するハードウェア構成を示すブロック図である。図4Bは、ペアリング表示装置10の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図4Aおよび図4Bにおいて、入力インタフェース100は、検出部3からペアリング表示装置10が備える検出処理部10bへ出力される情報を中継するインタフェースである。出力インタフェース101は、出力処理部10aから、表示部2または音出力部4あるいはこれらの両方に出力される情報を中継するインタフェースである。
処理回路が図4Aに示す専用のハードウェアの処理回路102である場合、処理回路102は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。ペアリング表示装置10における出力処理部10aおよび検出処理部10bの機能を、別々の処理回路で実現してもよく、これらの機能をまとめて1つの処理回路で実現してもよい。
処理回路が図4Bに示すプロセッサ103である場合、ペアリング表示装置10における出力処理部10aおよび検出処理部10bの機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。なお、ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ104に記憶される。
プロセッサ103は、メモリ104に記憶されたプログラムを読み出して実行することで、ペアリング表示装置10における出力処理部10aおよび検出処理部10bの機能を実現する。例えば、ペアリング表示装置10は、プロセッサ103によって実行されるときに、図2に示したフローチャートにおけるステップST1からステップST2の処理が結果的に実行されるプログラムを記憶するためのメモリ104を備える。これらのプログラムは、出力処理部10aおよび検出処理部10bの手順または方法を、コンピュータに実行させる。メモリ104は、コンピュータを、出力処理部10aおよび検出処理部10bとして機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
メモリ104は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically−EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
ペアリング表示装置10における、出力処理部10aおよび検出処理部10bの機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、出力処理部10aは専用のハードウェアである処理回路102によって機能を実現し、検出処理部10bは、プロセッサ103がメモリ104に記憶されたプログラムを読み出して実行することにより機能を実現する。このように処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせにより上記機能を実現することができる。
次に、ペアリング表示装置10による表示のバリエーションについて説明する。
図5は、移動体1Aと利用者A1とのペアリング状態および移動体1Bと利用者A2とのペアリング状態の表示例を示す図である。図5において、利用者A1は、移動体1Aとペアリングされ、利用者A2は、移動体1Bとペアリングされている。移動体1Aおよび移動体1Bには、ペアリング表示装置10がそれぞれ搭載されている。
移動体1Aに搭載されたペアリング表示装置10において、出力処理部10aは、表示部2を用いて、移動体1Aと利用者A1とがペアリングされた状態であることを、移動体1Aの周囲の床面Bに表示する。同様に、移動体1Bに搭載されたペアリング表示装置10において、出力処理部10aは、表示部2を用いて、移動体1Bと利用者A2とがペアリングされた状態であることを、移動体1Bの周囲の床面Bに表示する。
例えば、移動体1Aと利用者A1とがペアリングされた後、検出処理部10bは、検出部3を用いて、利用者A1の動きを検出する。出力処理部10aは、表示部2を制御することで、利用者A1の下方の画像20aと、移動体1Aの表示部2から画像20aに延びた点線状の画像20bとを、検出処理部10bによって検出された利用者A1の動きに合わせて床面Bに表示する。同様に、出力処理部10aは、利用者A2の下方の画像20aと、移動体1Bの表示部2から画像20aに延びた点線状の画像20bとを、検出処理部10bによって検出された利用者A2の動きに合わせて床面Bに表示する。
利用者A1は、利用者A2の下方の画像20aと点線状の画像20bを視認することにより、利用者A2と移動体1Bとがペアリングされていることを把握できる。一方、利用者A2は、利用者A1の下方の画像20aと点線状の画像20bを視認することにより、利用者A1と移動体1Aとがペアリングされていることを把握できる。また、利用者A1および利用者A2以外の利用者は、画像20aおよび画像20bを視認することにより、移動体1Aおよび移動体1Bが、当該利用者についてのペアリング対象外であることを把握できる。
また、移動体1Aが利用者A1に追随して移動する移動体である場合、利用者A1以外の利用者は、移動体1Aと利用者A1がペアリングされていることを示す画像20aおよび画像20bを視認することで、利用者A1と移動体1Aとの間を遮ると、移動体1Aに衝突される可能性があるという注意が喚起される。これにより、利用者A1以外の利用者は、利用者A1と移動体1Aとの間を遮らないように移動するので、移動体1Aの利用の安全性が向上する。これは、利用者A1を含む利用者A2以外の利用者においても同様である。
以上のように、実施の形態1に係るペアリング表示装置10は、移動体1とペアリングされた利用者Aを、検出部3を用いて検出し、利用者Aが検出された場合、利用者Aが移動体1とペアリングされていることを示す画像20を、表示部2を用いて移動体1の周囲の床面Bに表示する。利用者Aは、床面Bに表示された画像20を視認することで、画像20を表示した移動体1とペアリングされていることを認識できる。
また、実施の形態1に係るペアリング表示装置10において、出力処理部10aは、移動体1Aと利用者A1がペアリングされた状態であることを示す画像20a,20bを、移動体1Aの周囲の床面Bに表示する。利用者A1以外の人が、利用者A1の下方の画像20aと点線状の画像20bを視認することで、利用者A1と移動体1Aとがペアリングされていることを把握できる。
実施の形態2.
実施の形態2に係るペアリング表示装置は、実施の形態1と同様に、移動体と利用者がペアリングされていることを示す画像を床面に表示した後に、利用者が操作可能な画像を床面に表示する。実施の形態1における画像の表示で移動体とペアリングされていることを実感した利用者は、実施の形態2における画像に対する自身の操作によって移動体とのペアリングを成立させたと認識できるので(この操作前にペアリング自体は成立しているので、疑似的な操作)、移動体1を安心して利用することができる。
図6は、実施の形態2に係るペアリング表示装置10の構成を示すブロック図である。移動体1は、実施の形態1と同様に、自律的な移動が可能であり、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。図6に示す移動体1は、表示部2、検出部3、音出力部4およびペアリング表示装置10を備える。また、利用者Aは、移動体1とペアリングされている人物であり、ペアリング表示装置10には、利用者Aの識別情報が登録されている。
実施の形態2に係るペアリング表示装置10は、移動体1と利用者Aとのペアリングに関する表示を行う装置であり、出力処理部10a、検出処理部10bおよび確認部10dを備える。出力処理部10aは、表示部2を用いて、画像20と、この画像20に対する操作の進行状況を、移動体1の周囲の床面Bに表示する。
実施の形態2における画像20は、利用者Aにペアリングに関する操作を行わせるための操作画像であり、図形または文字あるいはこれらの組み合わせで構成される。画像20は、表示態様が経時的に変化するアニメーション画像であってもよい。出力処理部10aは、表示部2がプロジェクタである場合、当該プロジェクタを用いて、画像20および操作の進行状況を示す表示情報を、移動体1の周囲の床面Bに3次元で投影する。実施の形態1で示したように、「3次元に表示する」または「3次元で投影する」とは、情報を、人間の視覚にとって立体的に見えるような表現で表示または投影することを表す。ただし、表示部2は必ずしも情報を3次元的に表示しなくてもよく、2次元的な表示を行っても構わない。
出力処理部10aは、移動体1の周囲の床面Bにおける検出部3の有効検出範囲となる領域に画像20を表示することができる。有効検出範囲は、検出部3によって安定した対象物の検出が可能な範囲であり、例えば、検出部3がカメラ装置である場合、カメラ装置の視野角度などから規定される。安定検出範囲とも呼ばれる。検出部3の有効検出範囲となる領域に画像20が表示されるので、検出部3によって安定して検出される領域に利用者Aを導くことができる。
出力処理部10aは、画像20を用いた操作の進行状況に応じて画像20の表示態様を変化させてもよい。例えば、床面Bに表示された画像20を利用者Aが足を使って操作する場合、出力処理部10aは、検出処理部10bによって検出された利用者Aの足で操作された画像20の表示態様を変化させる。利用者Aは、操作の進行状況に応じて変化する画像20の表示態様を視認することで、利用者A自身が能動的に移動体1とのペアリングを成立させたと認識できる。また、利用者Aが移動体1に直接触れたり近接したりする必要がないため、不用意に移動体1の本体にぶつかる恐れが減少し、安全性が高まるという効果がある。
出力処理部10aは、画像20に対する操作の完了を、移動体1の周囲の床面Bに表示する。例えば、出力処理部10aは、確認部10dによって、画像20を操作する人物が利用者Aであることが確認されたタイミングで、画像20の表示態様を変化させる。利用者Aは、画像20の表示態様の変化を視認することにより、画像20に対する操作の完了を容易に把握できる。
出力処理部10aは、音出力部4を用いて、移動体1の周囲の床面Bに表示した情報に応じた音を出力させてもよい。効果音の出力態様は、効果音の周波数、リズムおよびテンポによって規定されるので、出力処理部10aは、これらを変化させてもよい。例えば、出力処理部10aは、画像20の操作が開始されたタイミングで、音出力部4に効果音を出力させ、この効果音の出力態様を、操作の進行状況に合わせて変化させる。画像20の操作をしている人物が利用者Aであると確認された場合、出力処理部10aは、利用者Aが確認されるまでの効果音の出力態様とは異なる態様に変化させる。これにより、利用者Aは、画像20の操作を、視覚的および聴覚的に実感することができる。
検出処理部10bは、検出部3を用いて画像20を操作している利用者Aを検出する。検出処理部10bには、利用者Aの識別情報が設定されている。識別情報には、利用者Aを識別するための性別、年齢および顔情報といった個人情報が含まれており、利用者Aの外見情報が含まれてもよい。利用者Aの外見情報は、画像20を操作するときの、利用者Aの服装、髪型または杖などの所持の有無あるいはこれらの組み合わせを示す情報であってもよい。例えば、検出処理部10bは、検出部3であるカメラ装置によって撮影された移動体1の周辺の映像を画像解析し、利用者Aの外見情報と画像解析結果に基づいて、映像から利用者Aを検出する。なお、画像解析には、パターンマッチングなどの画像解析方法を用いることができる。
確認部10dは、画像20に対する操作の進行状況を確認する。例えば、確認部10dは、検出処理部10bによって検出された利用者Aの足の映像の画像解析結果に基づいて画像20に対する操作の進行状況を判定する。確認部10dによって確認された画像20に対する操作の進行状況は、出力処理部10aに順次出力される。
次に、実施の形態2に係るペアリング表示方法について詳細に説明する。
図7は、実施の形態2に係るペアリング表示方法を示すフローチャートである。なお、図7に示す処理が実行される前に、実施の形態1における画像20(移動体1と利用者Aがペアリングされていることを示す画像)が床面Bに表示され、利用者Aは、移動体1とペアリングされていることを認識している。また、図8Aは、利用者Aに操作させる画像20の例を示す図であり、床面B上に3次元に表示された押しボタン形状の画像20を示している。図8Aに示す画像20は、表示部2によって床面Bに3次元で投影された映像である。図8Bは、図8Aの画像20に対する操作の進行状況を示す図である。図8Cは、図8Aの画像20に対する操作の完了を示す図である。
出力処理部10aは、表示部2を用いて、操作用の画像20を移動体1の周囲の床面Bに表示する(ステップST1a)。例えば、図8Aに示すように、操作用の画像20として、ペアリングに関する操作を行うための画像であることを示す「ペア」という文字が記載された押しボタンが床面Bに表示される。押しボタンが床面Bに表示されているので、利用者Aは、両手が操作に使えない状態であっても、足を使って押しボタンを押下することができる。
検出処理部10bは、操作用の画像20を操作している利用者Aを検出する(ステップST2a)。例えば、検出処理部10bは、押しボタンを操作(押下)している利用者Aの足を検出し、この検出情報を確認部10dに出力する。確認部10dは、画像20に対する操作の進行状況を確認し、出力処理部10aに出力する。出力処理部10aは、画像20に対する操作の進行状況に応じて、ステップST1aに示した画像20の表示態様を変化させる。例えば、図8Bに示すように、出力処理部10aは、表示部2を用いて押しボタンが徐々に押下される画像に変化させる。このとき、出力処理部10aは、音出力部4を用いて、押しボタンの押下に合わせて効果音の出力態様を変化させてもよい。
確認部10dは、画像20に対する操作が完了したか否かを確認する(ステップST3a)。例えば、確認部10dは、検出処理部10bによって検出された利用者Aの足の位置が床面Bに接したか否かに基づいて操作の完了を判断する。画像20に対する操作が完了していない場合(ステップST3a;NO)、ステップST3aの処理を繰り返す。
一方、画像20に対する操作が完了した場合(ステップST3a;YES)、出力処理部10aは、利用者Aの操作が完了したことを表示する(ステップST4a)。例えば、図8Cに示すように、押しボタンの画像を、完全に押下された状態の画像に変化させる。さらに、押しボタンに記載されていた「ペア」という文字を、利用者Aと移動体1のペアリングに成功したことを示す「成功」という文字に変更してもよい。このとき、出力処理部10aは、音出力部4から出力されていた効果音の出力態様を、操作が完了するまでとは異なる態様に変化させてもよい。利用者Aは、床面Bに表示された画像20の表示態様および音出力部4から出力された効果音によって、自身の操作で移動体1とのペアリングが成立したと認識することができる。
なお、検出処理部10bによって検出された人物が利用者A以外の第三者であると判定された場合、出力処理部10aは、画像20である押しボタンに記載された文字を、「あなたは、この移動体の利用者ではありません」など、その人物がペアリングすべき利用者ではない旨の表示に一時的に変更してもよい。なお、出力処理部10aにより表示される文字および文章は、表示装置が使われる地域において通常使われる言語で表示してもよいし、それ以外の他の言語によって表示してもよい。また、検出処理部10bによる利用者の確認状況によって言語を切り替えて表示してもよい。
なお、移動体とペアリングされる対象者は、利用者のみならず、当該利用者の付添者が含まれてもよい。検出処理部10bは、図9Aに示すように、検出部3を用いて、画像20を操作している利用者A1の周囲に存在する人物を検出する。利用者A1による操作が完了すると、出力処理部10aは、検出処理部10bによって検出された人物が利用者A1の付添者A3であるか否かを確認する操作を行うための確認画像を表示する。例えば、出力処理部10aによって、図9Bに示すような押しボタン20cが床面Bに表示される。押しボタン20cには、付添者であるか否かを確認する操作を行うための画像であることを示す「付添者?」という文字が記載されている。付添者A3は、足を使って押しボタン20cを押下する。
検出処理部10bは、押しボタン20cを操作する付添者A3を検出し、その検出情報を確認部10dに出力する。確認部10dは、検出処理部10bによって検出された付添者A3の足の映像を画像解析した結果に基づいて、押しボタン20cの画像に対する付添者A3の操作の進行状況を確認する。出力処理部10aは、確認部10dによって確認された操作の進行状況に合わせて、画像20を、押しボタンが徐々に押下されていく画像に変化させる。なお、出力処理部10aは、音出力部4を用いて、押しボタン20cの押下に合わせて効果音の出力態様を変化させてもよい。
出力処理部10aは、確認部10dによって付添者A3による押しボタン20cの操作が完了したと確認されると、移動体1と利用者A1および付添者A3とがペアリングされていることを示す画像を、床面Bに表示する。利用者A1および付添者A3が移動体1とペアリングされている場合、利用者A1だけでなく、付添者A3の行動が移動体1の動きに反映される。例えば、移動体1が利用者A1を乗せて移動する移動体であり、付添者A3が、この移動体1の後を追随して移動する場合に、付添者A3が利用者A1とは異なる行動をとっても、移動体1は、付添者A3に合わせた行動をとる。例えば、移動体1の移動中に付添者A3が急に立ち止まった場合、移動体1は、付添者A3の立ち止まりに合わせて停止する。これにより、利用者A1と付添者A3がはぐれることなく、互いに行動を共にすることができる。
また、移動体1と利用者A1および付添者A3とがペアリングされた後に、出力処理部10aは、移動体1と利用者A1および付添者A3とがペアリングされた状態であることを示す画像を移動体1の周囲の床面Bに表示してもよい。例えば、図9Cに示すように、出力処理部10aは、利用者A1および付添者A3の下部の画像20aと、表示部2から画像20aに延びた点線状の画像20bとを、利用者A1と付添者A3の動きに合わせて床面Bに表示する。利用者A1および付添者A3以外の利用者は、画像20aおよび画像20bを視認することで、利用者A1および付添者A3が移動体1とペアリングされており、移動体1が自身とのペアリング対象外であることを把握できる。
なお、ペアリング表示装置10における出力処理部10a、検出処理部10bおよび確認部10dの機能は、処理回路によって実現される。すなわち、ペアリング表示装置10は、図7に示したステップST1aからステップST4aまでを実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPUであってもよい。
以上のように、実施の形態2に係るペアリング表示装置10は、利用者Aがペアリングに関する操作を行うための画像20を移動体1の周囲の床面Bに表示し、画像20を操作している利用者Aを検出する。利用者Aは、自身の操作によって移動体1とのペアリングを成立させたと認識できるので、移動体1を安心して利用することができる。
実施の形態3.
図10は、実施の形態3に係るペアリング表示装置10Aの構成を示すブロック図である。移動体1は自律的な移動が可能であり、例えば、電動車椅子、電動カートまたは移動ロボットが挙げられる。図10に示す移動体1は、表示部2、検出部3、音出力部4およびペアリング表示装置10Aを備えている。利用者Aは、移動体1を利用可能なサービスに登録している利用者であり、利用者Aの識別情報がペアリング表示装置10Aに設定されている。利用者Aは、利用者端末40を携帯している。利用者端末40は、ペアリング表示装置10Aと通信を行う端末装置であり、例えば、スマートフォン、携帯電話端末またはタブレット情報端末である。
利用者Aは、利用者端末40を用いて、自身の外見情報をペアリング表示装置10Aに送信することができる。利用者Aの外見情報は、移動体1が存在する現場での利用者Aの服装、髪型または杖などの所持の有無あるいはこれらの組み合わせを示す情報である。
ペアリング表示装置10Aは、移動体1と利用者Aのペアリングに関する表示を行う装置であり、例えば、移動体1に搭載されている。図10に示すように、ペアリング表示装置10Aは、出力処理部10a、検出処理部10bおよび通信部10eを備える。なお、図3に示したように、これらの構成要素はサーバ30が備えてもよい。
利用者Aは、移動体1が存在する現場に行く前に、利用者端末40を用いて、利用予約データを、移動体1に搭載されたペアリング表示装置10Aに送信している。ペアリング表示装置10Aが備える通信部10eは、利用者端末40と通信して利用予約データを受信し、受信された利用予約データを検出処理部10bに出力する。検出処理部10bは、利用予約データを受けると、利用者Aと移動体1のペアリングが成立したと認識する。
検出処理部10bは、通信部10eを通じて、利用者Aによる移動体1のペアリングが成立したことを、利用者端末40に送信する。利用者Aは、移動体1Dのペアリングが成立した場合、利用者端末40を用いて、利用者Aの外見情報をペアリング表示装置10Aに送信する。通信部10eは、利用者端末40から受信した利用者Aの外見情報を、検出処理部10bに出力する。
検出処理部10bは、移動体1の周辺に存在する人物を検出し、検出した人物の外見が利用者Aの外見情報と合致するか否かを判定する。移動体1の周辺に存在する人物が利用者Aの外見情報と一致する場合、検出処理部10bは、この人物が利用者Aであると判定する。出力処理部10aは、検出処理部10bによって利用者Aが検出されると、表示部2を用いて、移動体1の周囲の床面Bに画像20を表示する。
なお、ペアリング表示装置10Aにおける出力処理部10a、検出処理部10bおよび通信部10eの機能は、処理回路により実現される。すなわち、ペアリング表示装置10Aは、前述した処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPUであってもよい。
以上のように、実施の形態3に係るペアリング表示装置10Aにおいて、通信部10eが、利用者端末40を用いて送信された利用者Aの外見情報を受信する。検出処理部10bは、通信部10eによって受信された外見情報を用いて利用者Aを検出する。出力処理部10aは、検出処理部10bによって利用者Aが検出されると、利用者Aが移動体1とペアリングされていることを示す画像20を、移動体1の周囲の床面Bに表示する。利用者Aは、床面Bに表示された画像20を視認することで、床面Bに画像20を表示した移動体1とペアリングされていることを認識できる。
なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態のそれぞれの自由な組み合わせまたは実施の形態のそれぞれの任意の構成要素の変形もしくは実施の形態のそれぞれにおいて任意の構成要素の省略が可能である。
本発明に係るペアリング表示装置は、例えば、電動車椅子、電動カートまたは移動ロボットといった移動体と利用者とのペアリングに利用可能である。
1,1A,1B 移動体、2 表示部、3 検出部、4 音出力部、5 通信部、10,10A ペアリング表示装置、10a 出力処理部、10b 検出処理部、10c,10e 通信部、10d 確認部、20,20a,20b 画像、20c 押しボタン、30 サーバ、40 利用者端末、100 入力インタフェース、101 出力インタフェース、102 処理回路、103 プロセッサ、104 メモリ。

Claims (10)

  1. 表示部および検出部を有した移動体とペアリングされた利用者を、前記検出部を用いて検出する検出処理部と、
    前記検出処理部によって前記利用者が検出された場合、前記利用者が前記移動体とペアリングされていることを示す情報を、前記表示部を用いて前記移動体の周囲の床面に表示する出力処理部と、
    を備え
    前記出力処理部は、前記移動体と前記利用者がペアリングされた状態であることを示す画像を当該移動体の周囲の床面に表示すること
    を特徴とするペアリング表示装置。
  2. 前記出力処理部は、前記表示部を用いて、前記移動体と前記利用者とのペアリングに関する操作を行うための操作画像を前記移動体の周囲の床面に表示し、
    前記検出処理部は、前記検出部を用いて、前記操作画像を操作する前記利用者を検出すること
    を特徴とする請求項1記載のペアリング表示装置。
  3. 前記出力処理部は、前記移動体の周囲の床面における前記検出部の有効検出範囲となる領域に前記操作画像を表示すること
    を特徴とする請求項2記載のペアリング表示装置。
  4. 前記表示部は、前記移動体の周囲の床面に画像を投影する投影部であり、
    前記出力処理部は、前記投影部を用いて、前記移動体と前記利用者がペアリングされた状態であることを示す画像として、線、図形または文字あるいはこれらの組み合わせから構成された画像を表示すること
    を特徴とする請求項1記載のペアリング表示装置。
  5. 前記操作画像に対する操作の進行状況を確認する確認部を備えたこと
    を特徴とする請求項2記載のペアリング表示装置。
  6. 前記検出処理部は、前記検出部を用いて前記利用者の付添者を検出し、
    前記出力処理部は、前記検出処理部によって前記付添者が検出された場合、前記利用者および前記付添者と前記移動体とがペアリングされていることを示す情報を、前記移動体の周囲の床面に表示すること
    を特徴とする請求項1記載のペアリング表示装置。
  7. 利用者端末と通信を行う通信部を備え、
    前記通信部は、前記利用者によって前記利用者端末を用いて送信された利用予約データを受信し、
    前記出力処理部は、前記利用者端末を用いて前記利用予約データを送信した前記利用者が、前記検出処理部によって検出されると、前記利用者が前記移動体とペアリングされていることを示す情報を、前記表示部を用いて前記移動体の周囲の床面に表示すること
    を特徴とする請求項1記載のペアリング表示装置。
  8. 前記移動体は、音出力部を有し、
    前記出力処理部は、前記音出力部を用いて、前記移動体の周囲の床面に表示した情報に応じた音を出力すること
    を特徴とする請求項1または請求項2記載のペアリング表示装置。
  9. 表示部および検出部を有した移動体と、
    前記移動体とペアリングされた利用者を、前記検出部を用いて検出する検出処理部と、
    前記検出処理部によって前記利用者が検出された場合、前記利用者が前記移動体とペアリングされていることを示す情報を、前記表示部を用いて前記移動体の周囲の床面に表示する出力処理部と、
    を備え
    前記出力処理部は、前記移動体と前記利用者がペアリングされた状態であることを示す画像を当該移動体の周囲の床面に表示すること
    を特徴とするペアリング表示システム。
  10. 検出処理部が、表示部および検出部を有した移動体とペアリングされた利用者を、前記検出部を用いて検出するステップと、
    出力処理部が、前記検出処理部によって前記利用者が検出された場合、前記利用者が前記移動体とペアリングされていることを示す情報を、前記表示部を用いて前記移動体の周囲の床面に表示するステップと、
    を備え
    前記出力処理部は、前記移動体と前記利用者がペアリングされた状態であることを示す画像を当該移動体の周囲の床面に表示すること
    を特徴とするペアリング表示方法。
JP2019560777A 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法 Active JP6746013B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024248 WO2020255286A1 (ja) 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法

Publications (2)

Publication Number Publication Date
JP6746013B1 true JP6746013B1 (ja) 2020-08-26
JPWO2020255286A1 JPWO2020255286A1 (ja) 2021-09-13

Family

ID=72146122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019560777A Active JP6746013B1 (ja) 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法

Country Status (6)

Country Link
US (1) US20220076598A1 (ja)
JP (1) JP6746013B1 (ja)
KR (1) KR102449306B1 (ja)
CN (1) CN113950711B (ja)
DE (1) DE112019007321T5 (ja)
WO (1) WO2020255286A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法
WO2015152304A1 (ja) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム
JP2015179414A (ja) * 2014-03-19 2015-10-08 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム及び撮影情報共有方法
WO2016002527A1 (ja) * 2014-06-30 2016-01-07 みこらった株式会社 移動体呼び寄せシステム、呼び寄せ装置及び無線通信装置
WO2018230533A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 配車サービス提供装置、配車サービス提供方法、およびプログラム
WO2018230679A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 送迎管理装置、送迎管理方法、およびプログラム
WO2018230698A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 イベント配車装置、イベント配車方法、プログラム、および管理システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4214860B2 (ja) 2003-08-12 2009-01-28 沖電気工業株式会社 ロボットによる中継システム、ロボットによる中継プログラム及びその方法
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
EP2335138A4 (en) * 2008-08-15 2012-12-19 Qualcomm Inc ENHANCED MULTIPOINT DETECTION
US9586135B1 (en) * 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US20130285919A1 (en) * 2012-04-25 2013-10-31 Sony Computer Entertainment Inc. Interactive video system
JP5942840B2 (ja) * 2012-12-21 2016-06-29 ソニー株式会社 表示制御システム及び記録媒体
JP6111706B2 (ja) * 2013-02-01 2017-04-12 セイコーエプソン株式会社 位置検出装置、調整方法、および調整プログラム
KR101917700B1 (ko) * 2013-12-23 2018-11-13 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9682477B2 (en) * 2015-03-24 2017-06-20 Toyota Jidosha Kabushiki Kaisha Robot communication of intent and functioning
CN106470236B (zh) * 2015-08-20 2019-05-10 腾讯科技(深圳)有限公司 基于移动终端的打车方法、装置和系统
JP6707654B2 (ja) * 2016-09-30 2020-06-10 アジア航測株式会社 移動体情報提供システム及び移動体情報提供プログラム
KR102003940B1 (ko) * 2016-11-11 2019-10-01 엘지전자 주식회사 자율 주행 차량 및 그 제어방법
US11314399B2 (en) * 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
WO2020031740A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 制御装置および制御方法、並びにプログラム
EP3613638A1 (en) * 2018-08-10 2020-02-26 Lg Electronics Inc. Vehicle display system for vehicle
KR102619558B1 (ko) * 2018-11-16 2024-01-02 현대모비스 주식회사 자율주행차의 제어시스템 및 그 제어방법
US11072277B2 (en) * 2019-09-20 2021-07-27 Adway International Inc. Method and apparatus to dynamically identify a vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法
JP2015179414A (ja) * 2014-03-19 2015-10-08 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム及び撮影情報共有方法
WO2015152304A1 (ja) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム
WO2016002527A1 (ja) * 2014-06-30 2016-01-07 みこらった株式会社 移動体呼び寄せシステム、呼び寄せ装置及び無線通信装置
WO2018230533A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 配車サービス提供装置、配車サービス提供方法、およびプログラム
WO2018230679A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 送迎管理装置、送迎管理方法、およびプログラム
WO2018230698A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 イベント配車装置、イベント配車方法、プログラム、および管理システム

Also Published As

Publication number Publication date
DE112019007321T5 (de) 2022-07-07
JPWO2020255286A1 (ja) 2021-09-13
WO2020255286A1 (ja) 2020-12-24
US20220076598A1 (en) 2022-03-10
CN113950711B (zh) 2023-11-21
KR20220002663A (ko) 2022-01-06
CN113950711A (zh) 2022-01-18
KR102449306B1 (ko) 2022-09-29

Similar Documents

Publication Publication Date Title
CN105093526B (zh) 眼镜式终端及其控制方法
US20160112414A1 (en) Network authentication method and system based on eye tracking procedure
KR102055677B1 (ko) 이동 로봇 및 그 제어방법
CN113386129B (zh) 服务机器人及安全交互装置
US10425813B2 (en) Authentication management method, information processing apparatus, wearable device, and computer program
CN111163906A (zh) 能够移动的电子设备及其操作方法
WO2020088092A1 (zh) 关键点位置确定方法、装置及电子设备
JP2020505705A (ja) 特徴画像を習得するための方法およびデバイスならびにユーザー認証方法
JP6746013B1 (ja) ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
TWI652619B (zh) 應用於智慧型機器人的開機系統及其開機方法
CN112330380A (zh) 订单创建方法、装置、计算机设备及计算机可读存储介质
EP3435625A1 (en) Video call method, apparatus and system
CN109740490A (zh) 身份验证方法及装置
JP6382772B2 (ja) 視線誘導装置、視線誘導方法、および視線誘導プログラム
CN110544335B (zh) 目标识别系统及方法、电子设备和存储介质
KR101629758B1 (ko) 글라스형 웨어러블 디바이스의 잠금해제 방법 및 프로그램
JP6155689B2 (ja) 認証装置及び認証方法
WO2018056169A1 (ja) 対話装置、処理方法、プログラム
WO2018047932A1 (ja) 対話装置、ロボット、処理方法、プログラム
JP6365727B2 (ja) 認証判定装置及び認証判定方法
JP2013041012A (ja) 撮像装置および撮像方法
US20210049998A1 (en) Information processing apparatus, information processing method, and program
JP2015228096A (ja) 電子機器
WO2018061871A1 (ja) 端末装置、情報処理システム、処理方法、プログラム
JP2022148263A (ja) ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191105

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191105

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200804

R150 Certificate of patent or registration of utility model

Ref document number: 6746013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250