JP2014123277A - 表示制御システム及び記録媒体 - Google Patents

表示制御システム及び記録媒体 Download PDF

Info

Publication number
JP2014123277A
JP2014123277A JP2012279520A JP2012279520A JP2014123277A JP 2014123277 A JP2014123277 A JP 2014123277A JP 2012279520 A JP2012279520 A JP 2012279520A JP 2012279520 A JP2012279520 A JP 2012279520A JP 2014123277 A JP2014123277 A JP 2014123277A
Authority
JP
Japan
Prior art keywords
target person
display
display control
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012279520A
Other languages
English (en)
Other versions
JP5942840B2 (ja
JP2014123277A5 (ja
Inventor
Kazuhiro Watanabe
一弘 渡邊
Yoichiro Sako
曜一郎 佐古
Akira Tange
明 丹下
Kazuyuki Sakota
和之 迫田
Kohei Asada
宏平 浅田
Takatoshi Nakamura
隆俊 中村
Mitsuru Takehara
充 竹原
Yasunori Kamata
恭則 鎌田
Takayasu Kon
孝安 今
Kazunori Hayashi
和則 林
Hiroyuki Hanatani
博幸 花谷
Yuki Koga
有希 甲賀
Tomoya Onuma
智也 大沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012279520A priority Critical patent/JP5942840B2/ja
Priority to US14/103,032 priority patent/US9465984B2/en
Priority to CN201310684696.XA priority patent/CN103888719A/zh
Publication of JP2014123277A publication Critical patent/JP2014123277A/ja
Publication of JP2014123277A5 publication Critical patent/JP2014123277A5/ja
Application granted granted Critical
Publication of JP5942840B2 publication Critical patent/JP5942840B2/ja
Priority to US15/235,406 priority patent/US10204293B2/en
Priority to US16/239,033 priority patent/US20190138859A1/en
Priority to US16/538,267 priority patent/US10832099B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Abstract

【課題】対象人物の行動を予測して予測結果に応じた案内表示を行うことが可能な表示制御システム及び記録媒体を提案する。
【解決手段】複数の表示部と、対象人物を撮像する撮像部と、前記撮像部により撮像された撮像画像に応じて前記対象人物の行動を予測する予測部と、前記予測部による予測結果に応じて前記対象人物を案内する案内画像を生成する案内画像生成部と、前記予測部による予測結果に基づいて、前記対象人物に対応する位置に画像表示可能な表示部を前記複数の表示部から選択し、前記案内画像を前記対象人物に対応する位置に表示するよう選択した前記表示部を制御する表示制御部と、を備える表示制御システム。
【選択図】図1

Description

本開示は、表示制御システム及び記録媒体に関する。
娯楽施設や駅構内、病院、市役所などの施設内においては、地図の掲示や目的地への道順を示す誘導表示などが至る所で行われている。しかし、施設の規模が大きいほど案内表示が煩雑になることや、目的地に辿り着くまでに何度も現在位置や道順を確認する負担を強いられることなどの不便があった。このため、一人ひとりに対して、その人に応じた適切な案内表示を行う技術が開発されている。
例えば、下記文献1では、空港施設において、顧客が所有する識別タグにより顧客を特定し、その特定された顧客の位置付近に、予め取得された顧客情報または搭乗機に関する情報に基づいた案内表示を行う技術が開示されている。
また、下記特許文献2では、病院において、患者が所有する識別用カード、声紋、指紋、虹彩などにより患者を特定し、その特定された患者に対して、受付係員や診察室の医者により予め入力された行先への誘導表示を行う技術が開示されている。
特開2004−110377号公報 特開2000−149150号公報
しかし、上記特許文献に開示された技術は、いずれも対象人物について予め入力され記憶された情報に基づいた案内/誘導表示を行うものであって、対象人物の現在の様子に応じたインタラクティブな表示を行うことはなかった。
そこで、本開示では、対象人物の行動を予測して予測結果に応じた案内表示を行うことが可能な、新規且つ改良された表示制御システム及び記録媒体を提案する。
本開示によれば、複数の表示部と、対象人物を撮像する撮像部と、前記撮像部により撮像された撮像画像に応じて前記対象人物の行動を予測する予測部と、前記予測部による予測結果に応じて前記対象人物を案内する案内画像を生成する案内画像生成部と、前記予測部による予測結果に基づいて、前記対象人物に対応する位置に画像表示可能な表示部を前記複数の表示部から選択し、前記案内画像を前記対象人物に対応する位置に表示するよう選択した前記表示部を制御する表示制御部と、を備える表示制御システムが提供される。
また、本開示によれば、コンピュータに、対象人物を撮像するステップと、撮像された撮像画像に応じて前記対象人物の行動を予測するステップと、予測結果に基づいて、前記対象人物に対応する位置に画像表示可能な表示部を複数の表示部から選択するステップと、予測結果に応じて前記対象人物を案内する案内画像を生成するステップと、前記案内画像を前記対象人物に対応する位置に表示するよう選択した前記表示部を制御するステップと、を実行させるためのプログラムが記録された記録媒体が提供される。
以上説明したように本開示によれば、対象人物の行動を予測して予測結果に応じた案内表示を行うことが可能である。
本開示の一実施形態に係る表示制御システムの概要を示す説明図である。 第1の実施形態に係る表示制御システムの構成を示すブロック図である。 第1の実施形態に係る表示制御システムの動作を示すフローチャートである。 第1の実施形態に係る表示制御システムの適用例を示した説明図である。 第1の実施形態に係る表示制御システムが対象人物の反応に応じて案内画像を更新する例を説明する説明図である。 第1の実施形態に係る表示制御システムが対象人物の反応に応じて案内画像を更新する例を説明する説明図である。 第1の実施形態に係る表示制御システムが対象人物の反応に応じて案内画像を更新する例を説明する説明図である。 変形例1に係る表示制御システムの動作を説明するための説明図である。 変形例2に係る表示制御システムの動作を説明するための説明図である。 変形例3に係る表示制御システムの動作を示すフローチャートである。 第2の実施形態に係る表示制御システムの動作を示すフローチャートである。 第2の実施形態に係る表示制御システムの適用例を示した説明図である。 第2の実施形態に係る表示制御システムの適用例を示した説明図である。 第2の実施形態に係る表示制御システムの適用例を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.表示制御システムの概要
2.実施形態
2−1.第1の実施形態
2−1−1.構成
2−1−2.動作処理
2−1−3.変形例1
2−1−4.変形例2
2−1−5.変形例3
2−2.第2の実施形態
2−2−1.動作処理
2−2−2.適用例1
2−2−3.適用例2
2−2−4.その他の適用例
3.まとめ
<<1.表示制御システムの概要>>
本開示は、一例として「2−1.第1の実施形態」〜「2−2.第2の実施形態」において詳細に説明するように、多様な形態で実施され得る。また、各実施形態に係る表示制御システムは、
A.複数の表示部(表示装置2)と、
B.対象人物を撮像する撮像部(カメラ1)と、
C.前記撮像部により撮像された撮像画像に応じて前記対象人物の行動を予測する予測部(予測部42)と、
D.前記予測部による予測結果に応じて前記対象人物を案内する案内画像を生成する案内画像生成部(案内画像生成部43)と、
E.前記予測部による予測結果に基づいて、前記対象人物に対応する位置に画像表示可能な表示部を前記複数の表示部から選択し、前記案内画像を前記対象人物に対応する位置に表示するよう選択した前記表示部を制御する表示制御部(表示制御部44)と、
を備える。
本開示の一実施形態に係る表示制御システムは、以下に説明するように、対象人物の現在の状態に基づいて今後の行動を予測し、予測結果に応じて生成した案内画像を、予測結果に応じて複数の表示部から選択した表示部で表示する。
具体的には、まず、予測部が、撮像部により撮像された撮像画像に応じて、対象人物の今後の行動を予測する。例えば予測部は、対象人物が向いている方向や、曲がり角における道の選択、歩行速度、仕種、または視線の動き等を撮像した撮像画像に応じて、対象人物の目的地や、探し物、用事が途中で中断したこと等を推定し、今後の行動を予測する。
次に、案内画像生成部は、予測部による予測結果に応じて、対象人物を案内する案内画像を生成する。例えば、案内画像生成部は、目的地への道順や、探し物の位置、中断した用事を思い出させるための情報などを示す案内画像を生成する。このように、本開示の一実施形態に係る表示制御システムは、対象人物の現在の様子に応じたインタラクティブな案内画像を生成することができる。
続いて、表示制御部は、予測部による予測結果に基づいて、複数の表示部から、対象人物に対応する位置に画像表示可能な表示部を選択し、対象人物に対応する位置に案内画像を表示するよう、選択した表示部を制御する。例えば、表示制御部は、対象人物が向いている方向に配置され、対象人物の位置付近に画像を表示することが可能な表示部を選択し、対象人物の顔の向き、または視点の高さに応じた位置に案内画像を表示するよう制御する。このように、本開示の一実施形態に係る表示制御システムは、対象人物の現在の様子に応じた適切な位置、即ち対象人物が視認しやすい位置に案内画像を表示することができる。
なお、上記表示部および撮像部は、部屋や家、ビルなどの屋内に設置されていてもよいし、道や建物の壁面、街灯などの屋外に設置されていてもよい。
以上説明した本開示の一実施形態に係る表示制御システムによる案内画像の表示動作について、図1を参照して具体的に説明する。図1では、一例として、本開示の一実施形態に係る表示制御システムを病院で適用した例を示す。
図1は、本開示の一実施形態に係る表示制御システムの概要を示す説明図である。図1に示すように、病院内の通路にカメラ1A、1B、1C、および表示装置2A、2B、2Cが設置されている。なお、以下では、カメラ1A、1B、1Cを特に区別する必要が無い場合、カメラ1と総称する。同様に、表示装置2A、2B、2Cを特に区別する必要が無い場合、表示装置2と総称する。また、図1に示したように、表示装置2は、例えばプロジェクターにより実現される。
また、カメラ1および表示装置2は、図示しないサーバとネットワークを介して接続し、当該サーバは、上記説明した予測部、案内画像生成部、および表示制御部を含む。若しくは、カメラ1および表示装置2の少なくともいずれかに、上記説明した予測部、案内画像生成部、および表示制御部が含まれていてもよい。
ここで、図1に示した通路において、カメラ1AはX方向に歩行している対象人物を撮像する。次いで、予測部は、撮像画像に基づいて、対象人物が歩行を継続すること、および分岐地点に差し掛かった際には、X方向に直進するかY方向に曲がるかのいずれかの行動を取りうることを予測する。次に、表示制御部は、対象人物が歩行を継続することを示す予測結果に基づいて、複数の表示装置2A〜2Cのうち、対象人物の進行方向、かつ対象人物が視認できる距離にある表示面3に画像表示可能な表示装置2Bを選択する。また、案内画像生成部は、対象人物がX方向に直進するかY方向に曲がるかのいずれかの行動を取りうることを示す予測結果に応じて、X方向の矢印とX方向に位置する診察室の表示、およびY方向の矢印とY方向に位置するトイレの表示を含む案内画像を生成する。そして、表示制御部は、図1に示すように、対象人物が視認しやすい位置として、分岐地点上にある表示面3に案内画像9を表示するよう表示装置2Bを制御する。
このように、本開示の一実施形態に係る表示制御システムは、対象人物の行動を予測して予測結果に応じた案内表示を行うことが可能である。
以上、本開示の一実施形態に係る表示制御システムの概要について説明した。続いて、本開示の一実施形態に係る表示制御システムについて、複数の実施形態を用いて具体的に説明する。
<<2.実施形態>>
<2−1.第1の実施形態>
[2−1−1.構成]
まず、図2を参照して、第1の実施形態に係る表示制御システムの構成について説明する。図2は、第1の実施形態に係る表示制御システムの構成を示すブロック図である。図2に示すように、表示制御システムは、カメラ1A〜1C、表示装置2A〜2C、およびサーバ4を有する。なお、表示制御システムが有するカメラ1は単数であってもよいが、本明細書では一例として複数有する場合について説明する。以下、表示制御システムの各構成要素について詳細に説明する。
(カメラ1)
カメラ1は、撮像素子、撮像レンズを含む撮像光学系、および撮影画像信号処理部を含み、デジタル信号とされた撮影画像のデータを出力する。なお、撮像素子は、例えばCCD(Charge Coupled Device)イメージャやCMOS(Complementary Metal Oxide Semiconductor)イメージャにより実現される。また、本実施形態に係るカメラ1は、対象人物を撮像し、撮像画像をサーバ4に送信する。なお、カメラ1は設置される際に事前に、デバイス固有の特性を推定するためにキャリブレーションされていてもよい。他にも、マーカー等を用いた自動キャリブレーションの仕組みを利用してもよい。また、カメラ1は次に説明する表示装置2と一体的に形成されていてもよい。
(表示装置2)
表示装置2は、サーバ4による制御に基づいて、画像データ(静止画像/動画像)の表示を行う。表示装置2は、例えば図1で示したようにプロジェクターにより実現される。他にも、表示装置2は、例えばLCD(Liquid Crystal Display)またはOLED(Organic Light−Emitting Diode)、などにより実現されてもよい。また、本実施形態に係る表示装置2は、後述の案内画像生成部43により生成された案内画像の表示を行う。なお、表示装置2は設置される際に事前に、デバイス固有の特性を推定するためにキャリブレーションされてもよい。
(サーバ4)
サーバ4は、カメラ1により撮像された撮像画像に基づいて、対象人物の今後の行動を予測し、予測結果に応じて生成した案内画像を表示装置2に表示させる。また、サーバ4は、図2に示すように、行動履歴情報取得部41、予測部42、案内画像生成部43、表示制御部44、および学習部45として機能する。
・行動履歴情報取得部41
行動履歴情報取得部41は、カメラ1により撮像された撮像画像に基づいて、対象人物の行動履歴情報を取得する。行動履歴情報とは、対象人物が現在および過去において、どの位置でどのように行動したかを示す情報である。行動履歴情報が示す対象人物の行動としては、例えば、歩行や停止、手を挙げるなどの各行為、通路の分岐地点における道の選択等がある。行動履歴情報取得部41は、撮像画像に基づいて対象人物がどのように行動したかを示す情報を取得すると共に、後述の記憶部を参照して、その撮像画像を撮像したカメラ1の位置や高さを示す位置情報を得ることで、その行動が行われた位置を示す情報も取得する。
ここで、行動履歴情報取得部41は、過去の行動を示す情報に現在の行動を示す情報を追加してもよい。例えば、行動履歴情報取得部41は、過去に自身で得た対象人物の行動を示す情報に、現在の撮像画像から得られた対象人物の行動を示す情報を追加したものを、行動履歴情報として取得してもよい。他にも、行動履歴情報取得部41は、外部からネットワーク等を介して受信した対象人物の行動を示す情報に、現在の撮像画像から得られた対象人物の行動を示す情報を追加して、行動履歴情報として取得してもよい。
また、行動履歴情報取得部41は、撮像画像に写る顔に対して顔認識処理を行うことで対象人物を識別し、同一人物について過去に取得した行動履歴情報に追加して、現在の行動を示す情報を蓄積することも可能である。対象人物の識別は、顔認識処理の他にも、対象人物が持つRFID(Radio Frequency IDentification)などの識別機器により行ってもよい。
また、行動履歴情報取得部41は、行動履歴情報のひとつとして、表示装置2により表示された案内画像に対する対象人物の反応を取得してもよい。具体的には、行動履歴情報取得部41は、表示装置2により表示された案内画像に対する対象人物の反応を、カメラ1により撮像された撮像画像に基づいて認識し、認識した反応に基づいて行動履歴情報を取得してもよい。
行動履歴情報取得部41は、取得した行動履歴情報を、予測部42、および学習部45に出力する。
・予測部42
予測部42は、カメラ1により撮像された撮像画像に応じて対象人物の行動を予測する。より詳しくは、予測部42は、行動履歴情報取得部41が撮像画像から取得した行動履歴情報に基づいて対象人物の行動を予測する。他にも、予測部42は、後述の学習部45が、行動履歴情報取得部41により撮像画像から取得された行動履歴情報から学習した行動パターンに基づいて、対象人物の行動を予測してもよい。予測部42は、予測結果を案内画像生成部43、および表示制御部44に出力する。
・案内画像生成部43
案内画像生成部43は、予測部42による予測結果に応じて対象人物を案内する案内画像を生成する。具体的には、案内画像生成部43は、予測部42による予測結果が示す対象人物の目的地までの案内表示を含む案内画像を生成する。例えば、案内画像生成部43は、対象人物が通路の分岐地点に差し掛かるという予測結果に基づいて、分岐した通路のそれぞれの行先を示す案内画像を生成する。他にも、案内画像生成部43は、予測部42による行動パターンに基づく予測結果に応じて、対象人物に行動を示唆する表示を含む案内画像を生成する。また、案内画像生成部43は、対象人物の身長や性別、人種などの身体的特徴に応じて、案内画像を生成してもよい。案内画像生成部43は、生成した案内画像を表示制御部44に出力する。
・表示制御部44
表示制御部44は、まず、予測部42による予測結果に基づいて、対象人物に対応する位置に画像表示可能な表示装置2を、複数の表示装置2の中から選択する。例えば、表示制御部44は、対象人物が歩行を継続するという予測結果に基づいて、予測される歩行経路の床面に画像表示可能な表示装置2を選択する。他にも、表示制御部44は、対象人物が歩行を継続して通路の突き当りに差し掛かるという予測結果に基づいて、通路の突き当りの壁面に画像表示可能な表示装置2を選択する。このとき、表示制御部44は、対象人物が歩行をやめて停止するという予測結果に基づいて、対象人物の足元や目の前の壁面などの、対象人物の位置付近に画像表示可能な表示装置2を選択してもよい。さらに、表示制御部44は、対象人物が向く方向を示す予測結果に基づいて、対象人物が向く方向に画像表示可能な表示装置2を選択してもよい。なお、表示制御部44は、表示装置2を選択する際に、後述の記憶部に記憶された、複数の表示装置2それぞれの設置位置や高さを示す位置情報を参照することで、対象人物に対応する位置に画像表示可能な表示装置2を選択する。
そして、表示制御部44は、案内画像生成部43から出力された案内画像を、対象人物に対応する位置に表示するよう、選択した表示装置2を制御する。このとき、表示制御部44は、対象人物の移動速度に比例して離れた位置に案内画像を表示するよう、選択した表示装置2を制御してもよい。一般的に、人は移動速度が速いほど、遠くを見るため、例えば、表示制御部44は、対象人物の移動速度が速いほど、対象人物から離れた位置に案内画像を表示するよう、表示装置2を制御してもよい。一方で、表示制御部44は、対象人物の移動速度が遅いほど、対象人物から近い位置に案内画像を表示するよう、表示装置2を制御してもよい。他にも、表示制御部44は、対象人物の身長や性別、人種などの身体的特徴に応じて案内画像を表示するよう、表示装置2を制御してもよい。
・学習部45
学習部45は、行動履歴情報取得部41から出力された行動履歴情報に基づいて、対象人物の行動パターンを学習する。そして、学習部45は、学習した行動パターンを予測部42に出力する。
例えば、対象人物が、プロジェクターのある会議室内でノートPCを持って困った顔をしていて、数分後にプロジェクターとノートPCを接続するためのケーブルを探し出したことを、行動履歴情報取得部41が行動履歴情報として取得したものとする。この場合、学習部45は、対象人物が会議室内でノートPCを持って困った顔をしている場合には、ケーブルを探している、という行動パターンを学習する。その結果、対象人物が会議室でノートPCを持って困った顔をしている撮像画像がカメラ1により撮像されると、予測部42は学習された行動パターンに基づいて、対象人物はプロジェクターのケーブルを探している、と予測する。
なお、予測部42は、過去に学習した他の人物の行動パターンが、同様に対象人物に当てはまるものとして、他の人物の行動パターンに基づいて、対象人物の行動を予測してもよい。
(補足)
サーバ4は、図示しない記憶部を有していてもよい。記憶部は、上述したように、複数のカメラ1および複数の表示装置2の各設置位置や高さを示す位置情報を記憶する。
また、記憶部は、案内画像生成部43が目的地までの案内表示を含む案内画像を生成するための、道や建物、住所などの位置関係、および各施設内の通路や部屋などの位置関係を示す地図情報を記憶する。
以上、本実施形態に係る表示制御システムの構成について説明した。
[2−1−2.動作処理]
続いて、表示制御システムの動作を、図3〜7を参照して説明する。図3は、第1の実施形態に係る表示制御システムの動作を示すフローチャートである。図4は、第1の実施形態に係る表示制御システムの適用例を示した説明図である。以下では、図4に示した適用例における表示制御システムの動作を、図3に示したフローチャートに従って具体的に説明する。
図4に示すように、X方向の突き当りにT字路がある通路において、サーバ4に接続されたカメラ1A、1B、表示装置2A、2B、2Cが配置されており、対象人物5がX方向に歩行している。このとき、図3に示すように、まず、ステップS104AおよびS104Bで、カメラ1Aおよびカメラ1Bが、X方向に歩行中の対象人物5を撮像する。
次に、ステップS108で、カメラ1Aおよびカメラ1Bは、対象人物5を撮像した撮像画像をサーバ4に送信する。
次いで、ステップS112で、行動履歴情報取得部41は、カメラ1Aおよびカメラ1Bより受信した撮像画像から、行動履歴情報を取得する。より詳しくは、行動履歴情報取得部41は、対象人物5がX方向に歩行していることを行動履歴情報として取得する。
続いて、ステップS116で、予測部42は、行動履歴情報取得部41により取得された行動履歴情報に基づいて対象人物5の行動を予測する。より詳しくは、予測部42は、対象人物5がX方向に歩行していることを示す行動履歴情報に基づいて、対象人物5が今後もX方向への歩行を継続すること、および図4に示したY方向の通路とのT字路に至ることを予測する。
次に、ステップS120で、表示制御部44は、予測部42による予測結果に基づいて、対象人物5に対応する位置に画像表示可能な、表示装置2Aを選択する。より詳しくは、表示制御部44は、対象人物5がX方向への歩行を継続することを示す予測結果に基づいて、対象人物5の位置付近であり、且つ、対象人物5が向く方向であるX方向に画像表示可能な、表示装置2Aを選択する。このため、表示制御システムは、対象人物5が視認しやすい位置に、案内画像を表示することができる。例えば、対象人物5の周囲を取り囲むようにして、方向毎の案内表示を行う比較例が考えられるが、本実施形態に係る表示制御システムによると、対象人物は、周囲を見回すことなく、所望の案内表示を視認することができる。
次いで、ステップS124で、案内画像生成部43は、予測部42による予測結果に基づいて、対象人物5の目的地までの案内表示を含む目的地選択画像(案内画像)を生成する。より詳しくは、案内画像生成部43は、対象人物5がT字路に至ることを示す予測結果に基づいて、T字路において右折した場合、および左折した場合の各行先を提示して、対象人物5に目的地を選択させるための、目的地選択画像を生成する。
次に、ステップS128で、表示制御部44は、選択した表示装置2Aに、案内画像生成部43により生成された目的地選択画像を送信する。
そして、ステップS132で、表示装置2Aは、表示制御部44による制御により、受信した目的地選択画像9−1を表示面3Aに表示する。
次いで、ステップS136AおよびS136Bで、カメラ1Aおよびカメラ1Bは、表示面3Aに表示された目的地選択画像9−1に対する、対象人物5の選択行動(反応)を撮像する。このとき、対象人物5はT字路において右折した先の目的地を選択したものとする。なお、ここでの対象人物5の選択行動、および後述のステップS164BおよびS164Cにおいて表示される目的地案内画像については、後に詳しく説明する。
次に、ステップS140で、カメラ1Aおよびカメラ1Bは、対象人物5を撮像した撮像画像をサーバ4に送信する。
次いで、ステップS144で、行動履歴情報取得部41は、カメラ1Aおよびカメラ1Bより受信した撮像画像から、行動履歴情報を取得する。より詳しくは、行動履歴情報取得部41は、T字路において右折した先の目的地Aを選択したことを、対象人物5が過去(S104A、S104B)にX方向に歩行していたことを示す情報に追加して、行動履歴情報として取得する。
続いて、ステップS148で、予測部42は、行動履歴情報取得部41により取得された行動履歴情報に基づいて対象人物5の行動を予測する。より詳しくは、予測部42は、対象人物5がT字路において右折した先の目的地を選択したことを示す行動履歴情報に基づいて、対象人物5が歩行を継続してT字路で右折することを予測する。
次に、ステップS152で、表示制御部44は、予測部42による予測結果に基づいて、対象人物5に対応する位置に画像表示可能な、表示装置2Bおよび2Cを選択する。より詳しくは、表示制御部44は、対象人物5がX方向への歩行を継続することを示す予測結果に基づいて、歩行の結果移動した対象人物5が視認可能な位置に画像表示可能な、表示装置2Bおよび2Cを選択する。このように、表示制御システムは、対象人物5の歩行動作に追随して案内画像を表示する表示装置2を切り替えることができる。
次いで、ステップS156で、案内画像生成部43は、予測部42による予測結果に基づいて、対象人物5の目的地までの案内表示を含む目的地案内画像(案内画像)を生成する。より詳しくは、案内画像生成部43は、対象人物5がT字路で右折することを示す予測結果に基づいて、右折を指示する表示および右折した先の目的地Aの表示を含む目的地案内画像を生成する。
次に、ステップS160で、表示制御部44は、選択した表示装置2Bおよび2Cに、案内画像生成部43により生成された目的地案内画像を送信する。
そして、ステップS164Bで、表示装置2Bは、受信した目的地案内画像9−2を表示面3Bに表示する。また、ステップS164Cで、表示装置2Cは、受信した目的地案内画像9−3を表示面3Cに表示する。
このように、表示制御システムは、目的地案内画像を、床面の表示面3Bだけでなく、壁面の表示面3Cにも表示することができる。このため、対象人物5は床面を向いていても前方を向いていても、目的地案内画像に気付いて、目的地Aへの案内を受けることができる。
以上説明したように、表示制御システムは、ステップS132において表示した目的地選択画像への対象人物5の選択行動に基づいて、ステップS164において表示する目的地案内画像を変化させる。一例として、図5〜7を参照して、このような表示制御システムによる対象人物5の選択行動に基づく案内画像の変化について詳細に説明する。
図5〜7は、第1の実施形態に係る表示制御システムが対象人物の反応に応じて案内画像を更新する例を説明する説明図である。
図5に示すように、表示面3Aには、対象人物5の前に、右折矢印と共に右折した先の目的地Aの表示、および左折矢印と共に左折した先の目的地Bの表示を含む目的地選択画像9−11が表示されている。このとき、対象人物5は、選択行動として、右折矢印か左折矢印のいずれかの矢印を踏む。例えば、対象人物5が右折矢印を踏むと、表示面3Aの表示は、目的地選択画像9−11から目的地案内画像9−12に切り替わり、目的地Aまでの案内情報が表示される。このように、表示制御システムは、対象人物5の選択行動に応じて対象人物5に応じた情報のみを含む案内画像を表示させ、不要な表示を非表示にすることができる。このため、対象人物5は、多様な目的地までの多様な道順を列挙するような、煩雑な案内を受けることなく、自分に特化した案内を受けることができる。
他の例として、図6に示すように、表示面3Aには、対象人物5の前に、右折矢印と共に右折した先の目的地A、目的地Cの表示、および左折矢印と共に左折した先の目的地Bの表示を含む目的地選択画像9−21が表示されている。対象人物5が選択行動として右折矢印を踏むと、表示面3Aの表示は、目的地選択画像9−21からさらに目的地選択画像9−22に切り替わる。目的地選択画像9−22は、短い右折矢印と共に右折後近距離にある目的地Aの表示、および長い右折矢印と共に右折後遠距離にある目的地Bの表示を含んでいる。ここで、対象人物5が、長い右折矢印を踏むと、表示面3Aの表示は、目的地選択画像9−22から目的地案内画像9−23に切り替わり、目的地Cまでの案内情報が表示される。このように、表示制御システムは、対象人物5の目的地を段階的に絞り込むことができる。
他の例として、図7に示すように、表示制御システムは、間違った道順で進んでしまった対象人物5に対して、警告表示を行うことができる。例えば、対象人物5が、目的地Dを選択したにも関わらず逆方向へ進んでしまっている場合、表示制御システムは、図7に示すように、警告画像9−31を生成し表示装置2Cにより表示面3Cに表示させる。このとき、案内画像生成部43は、表示を強調するため、警告表示のフォントを太文字、赤色等にしてもよいし、表示制御部44は、警告画像9−31を点滅させてもよい。さらに、サーバ4は、ネットワークにより接続されたスピーカ6Aおよびスピーカ6Bを制御して、警告音を鳴らしてもよい。
(補足)
対象人物5が目的地を選択する方法としては、上記の他にも、ジェスチャー、声による指示、受付で係員に伝える、などがある。対象人物5は、表示された目的地選択画像に対する選択行動として、ジェスチャーや声による指示を行う。また、対象人物5が目的地を係員に伝えた場合には、係員が対象人物5の目的地を表示制御システムに入力することで、表示制御システムは対象人物5の目的地に応じた目的地案内画像を表示する。
また、対象人物5が進む道を誤った場合、上述した例では、警告画像を表示して引き返すよう案内したが、案内画像生成部43は、目的地までの案内画像を改めて生成し、表示制御部44は改めて生成された案内画像で表示を更新してもよい。
また、対象人物5は、目的地の選択を誤った場合には、首や手を振るなどのジェスチャーや、声による指示により自身の選択をキャンセルし、表示制御システムに再度目的地選択画像を表示させてもよい。このとき、予測部42は、対象人物5によるキャンセルの指示が写った撮像画像に基づいて、対象人物5は目的地を再度選択するものと予測し、表示制御部44は、案内画像生成部43により改めて生成された目的地選択画像を表示させる。また、対象人物5が自身の選択をキャンセルして、再度目的地選択画像を表示させる方法としては、目的地案内画像が示す案内から外れる動作が挙げられる。例えば図5で示した目的地案内画像9−12において、直進方向の矢印を踏みながら進むことが、目的地が正しいことを示すものとすると、対象人物5は、矢印を踏まずに進むことで、表示制御システムに再度目的地選択画像を表示させてもよい。
以上、第1の実施形態に係る表示制御システムの動作処理について説明した。
[2−1−3.変形例1]
続いて、第1の実施形態の変形例について説明する。本変形例に係る表示制御システムは、対象人物の身体的特徴に応じて案内画像の生成および表示を行う形態である。より具体的には、まず、案内画像生成部43は、カメラ1により撮像された撮像結果により認識された対象人物の身体的特徴に応じて案内画像を生成する。そして、表示制御部44は、対象人物の身体的特徴に応じた位置に案内画像を表示するよう、選択した表示部を制御する。以下、本変形例に係る表示制御システムの動作について、図8を参照して説明する。
図8は、変形例1に係る表示制御システムの動作を説明するための説明図である。図8に示したように、高身長の対象人物5Aおよび低身長の対象人物5Bが通路をX方向に歩行している。
ここで、床面に表示された情報を視認する場合、一般的に、高身長の人は視点が高いため、大きい表示の方が視認しやすく、低身長の人はその逆である。このため、案内画像生成部43は、対象人物5の身体的特徴である身長に比例して大きな案内画像を生成してもよい。具体的には、図8に示したように、対象人物5Aは高身長であるため、案内画像生成部43は大きなサイズの目的地選択画像9−41を生成し、表示装置2Aが表示面3Aに表示する。一方で、対象人物5Bは低身長であるため、案内画像生成部43は小さなサイズの目的地案内画像9−42を生成し、表示装置2Bが表示面3Bに表示する。
さらに、床面に表示された情報を視認する場合、一般的に、高身長の人は視点が高いため、立っている場所から離れた位置に表示された方が視認しやすく、低身長の人はその逆である。このため、表示制御部44は、対象人物5の身体的特徴である身長に比例して離れた位置に、案内画像を表示するよう選択した表示部を制御してもよい。具体的には、図8に示したように、対象人物5Aは高身長であるため、表示制御部44は、表示面3Aにおいて、対象人物5Aから離れた位置に目的地選択画像9−41を表示するよう表示装置2Aを制御する。一方で、対象人物5Bは低身長であるため、表示制御部44は、表示面3Bにおいて、対象人物5Bから近い位置に目的地案内画像9−42を表示するよう表示装置2Bを制御する。
その上、壁面に表示された情報を視認する場合、一般的に、高身長の人は視点が高いため、高い位置にある表示の方が視認しやすく、低身長の人はその逆である。このため、表示制御部44は、対象人物5の身体的特徴である身長に比例して高い位置に、案内画像を表示するよう選択した表示部を制御してもよい。具体的には、図8に示したように、表示制御部44は、低身長である対象人物5Bの視点の位置に合せて、表示面3Cの中でも低い位置に、目的地案内画像9−43を表示するよう表示装置2Cを制御する。
このように、本変形例に係る表示制御システムは、対象人物の身体的特徴に応じて、視認しやすい位置に、視認しやすい案内画像を表示することができる。
(補足)
表示制御部44は、対象人物の移動速度に比例して離れた位置に、案内画像を表示するよう表示装置2を制御してもよい。他にも、案内画像生成部43および表示制御部44は、外観から判別可能な対象人物の性別や人種、年齢等に応じて動作してもよい。例えば、対象人物が異性のトイレに誤って入ってしまうと予測部42が予測した場合には、表示装置2は警告表示を行ってもよい。
[2−1−4.変形例2]
さらに、第1の実施形態の変形例について説明する。本変形例に係る表示制御システムは、複数の人が同一の場所にいる際に、それぞれの人に対する案内画像を、他の人からは視認が難しいよう表示を行う形態である。より具体的には、表示制御部44は、対象人物の付近に他の人物が存在する場合に、他の人物に対して表示される他の案内画像とは識別可能に、対象人物に対する案内画像を選択した表示部が表示するよう制御する。以下、本変形例に係る表示制御システムの動作について、図9を参照して説明する。
図9は、変形例2に係る表示制御システムの動作を説明するための説明図である。図9に示したように、対象人物5Cおよび5DはX方向に通路を歩行しており、対象人物5EはY方向に通路を歩行している。まず、対象人物5Cの周囲には他の人がいないので、表示制御部44は、特別な処理を行うことなく、目的地選択画像9−51を表示面3Aに表示する。一方で、対象人物5Dおよび5Eは同一の地点を歩行しているため、表示制御部44は、対象人物5Dに対する目的地案内画像9−52と、対象人物5Eに対する目的地案内画像9−53とを、識別可能に表示面3Bに表示する。
より詳しくは、図9に示したように、表示制御部44は、対象人物5Dに対する目的地案内画像9−52を対象人物5Dの足元に表示し、対象人物5Eに対する目的地案内画像9−53を対象人物5Dの足元に表示する。また、図9に示したように、案内画像生成部43は、目的地案内画像9−52および目的地案内画像9−53を、互いの視界に入らないよう小さなサイズで生成してもよい。また、表示制御部44は、複数人に視認される可能性のある壁面の表示面3Cには、いずれの案内画像も表示しないよう、表示装置2Cを制御してもよい。
他にも、例えば複数の対象人物5が連なって歩行している場合には、表示制御部44は、前を歩く対象人物5の後ろに、後を歩く対象人物5に対する案内画像を表示してもよい。また、表示制御部44は、前を歩く対象人物5の背中に、後を歩く対象人物5に対する案内画像を表示してもよい。
このように、本変形例に係る表示制御システムは、対象人物の付近に他の人物が存在する場合に、他の人物に対して表示される他の案内画像とは識別可能に、対象人物に対する案内画像を表示する。従って、対象人物は、複数の人が同一の場所にいる際であっても、他の人に対する案内画像と混同することなく、案内画像の表示を受けることができる。
[2−1−5.変形例3]
さらに、第1の実施形態の他の変形例について説明する。本変形例に係る表示制御システムは、第1の実施形態におけるサーバ4の各構成を、カメラ1のそれぞれが有し、双方向の通信および制御を行う形態である。本変形例では、対象人物に最も近い位置に配置されているカメラ1が、その対象人物に関して第1の実施形態におけるサーバ4として動作するものとする。
より詳しくは、カメラ1は、他のカメラ1からの距離と比較して、最も近い距離にいる対象人物に対して、行動履歴情報の取得や、予測、案内画像の生成、および案内画像の表示を行う。このとき、対象人物が移動して、他のカメラ1が対象人物に最も近くなった場合には、それまでサーバ4として動作を行っていたカメラ1は、当該他のカメラ1に、対象人物について取得した行動履歴情報を送信する。そして、当該他のカメラ1は、受信した行動履歴情報を用いて、対象人物に関するサーバ4としての動作を引き継ぐ。なお、各カメラ1は、少なくとも近くに配置されたカメラ1および表示装置2の位置情報を記憶しており、その位置情報に基づいて引き継ぎ先のカメラ1を定めるものとする。
以下、図4に示した適用例における、本変形例に係る表示制御システムの動作について、図10を参照して説明する。
図10は、変形例3に係る表示制御システムの動作を示すフローチャートである。まず、ステップS204AおよびS204Bで、カメラ1Aおよびカメラ1Bは、X方向に歩行中の対象人物5を撮像する。
次に、ステップS208で、カメラ1Bは、より対象人物5に近い位置に配置されたカメラ1Aに、対象人物5を撮像した撮像画像を送信する。
そして、ステップS212で、カメラ1Aの有する行動履歴情報取得部41は、カメラ1Aで撮像した撮像画像、およびカメラ1Bより受信した撮像画像から、行動履歴情報を取得する。
その後、表示制御システムは、ステップS216〜S236AおよびS236Bまで、上記図3を参照して説明したステップS116〜S136AおよびS136Bまでと同様に動作する。
続いて、ステップS240で、カメラ1Bは、カメラ1Aに対象人物5を撮像した撮像画像を送信する。
次いで、ステップS244で、カメラ1Aの有する行動履歴情報取得部41は、カメラ1Aで撮像した撮像画像およびカメラ1Bから受信した撮像画像から、行動履歴情報を取得する。
対象人物5は歩行を継続しているため、このとき対象人物5に最も近いカメラ1は、カメラ1Aからカメラ1Bに変わっているものとする。この場合、上述したように、サーバ4としての機能は、カメラ1Aからカメラ1Bに引き継がれる。このため、ステップS246で、カメラ1Aは、取得した行動履歴情報をカメラ1Bに送信する。
その後、表示制御システムは、ステップS248〜S264BおよびS264Cまで、上記図3を参照して説明したステップS148〜S164BおよびS164Cまでと同様に動作する。
このように、本変形例に係る表示制御システムは、サーバ4を設置することなく、サーバ4としての動作を、各対象人物に最も近いカメラ1が分散して行うことができる。
以上、第1の実施形態に係る変形例について説明した。
<2−2.第2の実施形態>
続いて、第2の実施形態に係る表示制御システムについて説明する。本実施形態は、学習部45により学習した行動パターンに応じた案内画像の表示を行う形態である。本実施形態に係る表示制御システムの構成は、第1の実施形態において説明した通りであるので、ここでの詳細な説明は省略する。以下、図11〜12を参照して、本実施形態に係る表示制御システムの動作について説明する。
[2−2−1.動作処理]
図11は、第2の実施形態に係る表示制御システムの動作を示すフローチャートである。図12は、第2の実施形態に係る表示制御システムの適用例を示した説明図である。以下では、図12に示した適用例における表示制御システムの動作を、図11に示したフローチャートに従って具体的に説明する。
図12に示すように、会議室内には、カメラ1A、1B、表示装置2A、2B、2C、および備品が収められたキャビネット11が配置されている。まず、図11に示すように、ステップS304Aおよび304Bで、カメラ1Aおよびカメラ1Bは、表示装置2CにノートPC(Personal Computer)10を繋いで表示面3Cに画像表示させるためのケーブルを探す対象人物5Fを撮像する。
次いで、ステップS308で、カメラ1Aおよびカメラ1Bは、撮像画像をサーバ4に送信する。
次に、ステップS312で、行動履歴情報取得部41は、カメラ1Aおよびカメラ1Bより受信した撮像画像から、行動履歴情報を取得する。より詳しくは、行動履歴情報取得部41は、対象人物5FがノートPC10を持っていること、困った顔をしていること、何かを探す仕種をしていること、およびケーブルを探し出したことを、行動履歴情報として取得する。
そして、ステップS316で、学習部45は、行動履歴情報取得部41より出力された行動履歴情報から、対象人物5Fの行動パターンを学習する。より詳しくは、学習部45は、対象人物5FがノートPC10を持って困った顔をしている場合にはケーブルを探している、と学習する。
その後、ステップS320AおよびS320Bで、カメラ1Aおよびカメラ1Bは、使い終わったケーブルをキャビネット11に片づける対象人物5Fを撮像する。
次いで、ステップS324で、カメラ1Aおよびカメラ1Bは、撮像画像をサーバ4に送信する。
そして、ステップS328で、サーバ4は、ケーブルがキャビネット11に収められたこと、即ちケーブルがキャビネット11に位置することを記憶する。
後日、ステップS332AおよびS332Bで、カメラ1Aおよびカメラ1Bは、再びノートPC10を持ち困った顔をしてケーブルを探す対象人物5Fを撮像する。
次いで、ステップS336で、カメラ1Aおよびカメラ1Bは、撮像画像をサーバ4に送信する。
次に、ステップS340で、行動履歴情報取得部41は、カメラ1Aおよびカメラ1Bから受信した撮像画像から、行動履歴情報を取得する。より詳しくは、行動履歴情報取得部41は、対象人物5FがノートPC10を持っていること、困った顔をしていることを行動履歴情報として取得する。
次いで、ステップS344で、予測部42は、学習部45により学習された行動パターンに基づいて、対象人物5Fの行動を予測する。より詳しくは、予測部42は、対象人物5FがノートPC10を持っていること、困った顔をしていることを行動パターンに参照し、対象人物5Fは現在ケーブルを探しているものと予測する。
そして、ステップS348で、表示制御部44は、対象人物5Fが視認しやすい位置に画像表示可能な、表示装置2Aを選択する。次いで、ステップS352で、案内画像生成部43は、行動パターンに基づく予測結果に応じて対象人物に行動を示唆する表示を含む案内画像を生成する。より詳しくは、案内画像生成部43は、対象人物5Fは現在ケーブルを探しているという予測結果に応じて、対象人物5Fにケーブル位置を示し、ケーブルの取得を示唆する案内画像を生成する。
次に、ステップS356で、表示制御部44は、案内画像を表示装置2Aに送信して、ステップS360で表示装置2Aは、ケーブルの取得を示唆する案内画像9−61を表示面3Aに表示する。
(補足)
表示制御システムは、対象人物に対して、他の人について学習された行動パターンに基づいた案内画像を表示してもよい。例えば上記の例では、表示制御システムは、他の対象人物5が会議室内でノートPC10を持ち困った顔をしている場合に、当該他の対象人物も、対象人物5Fと同様にケーブルを探しているものとして、ケーブルの取得を示唆する案内画像を表示してもよい。他にも、複数の人が同じ場所で同じ行動を行っている場合に、対象人物が例えその場所に来たことが無くても、表示制御システムは、複数の人が行った行動と同一の行動を示唆する案内画像を表示してもよい。
このように、本実施形態に係る表示制御システムは、学習された行動パターンに基づいて、対象人物に行動を示唆する案内画像を表示することができる。このため、対象人物は、目的地の選択や探し物を表示制御システムに入力するなどの、能動的な行動を何ら行うことなく、行うべき行動の示唆を受けることができる。
以上、第2の実施形態に係る表示制御システムの動作処理について説明した。
[2−2−2.適用例1]
続いて、第2の実施形態の他の適用例について説明する。以下、適用例に係る表示制御システムの動作について、図13を参照して説明する。
図13は、第2の実施形態に係る表示制御システムの適用例を示した説明図である。図13に示すように、対象人物5は数分前にキッチンでカップ麺12に熱湯を注いだものの、現在はキッチンとは別の部屋で読書中である。表示装置2Bは、カップ麺12が出来上がるまでの残り時間を示す案内画像9−71を表示面3Bに表示しているが、対象人物5は読書中であるため、仮に出来上がりを示す案内画像を表示面3Bで表示したとしても、対象人物5はこれに気付くことが無い。
ここで、学習部45は、対象人物5がカップ麺12に熱湯を注いで、残り時間がゼロになった場合に食べることを、行動パターンとして学習済みであるものとする。予測部42は、学習部45により学習された行動パターンに基づいて、残り時間がゼロになった場合に対象人物5はカップ麺12を食べることを予測する。この場合、案内画像生成部43は、対象人物5に行動を示唆する表示を含む案内画像として、残り時間がゼロになったことを示す案内画像を生成する。そして、表示装置2Aは、残り時間がゼロになったときに、生成された案内画像9−72を読書中の対象人物5が認識可能に、表示面3Aに表示する。
[2−2−3.適用例2]
さらに、第2の実施形態の他の適用例について説明する。以下、適用例に係る表示制御システムの動作について、図14を参照して説明する。
図14は、第2の実施形態に係る表示制御システムの適用例を示した説明図である。図14に示すように、レストランにおいて対象人物5Gおよび対象人物5Hが同じテーブルで食事をしており、テーブル上にはカトラリーとして複数のナイフ、フォーク、スプーンが置かれている。一般的には、カトラリーは左右両端に置かれたものから使用するが、ときには右端のものだけを使用する場合や、奥側に置かれたものを使用する場合もある。従って、従業員に聞かなければ、どのカトラリーを使えばよいか分からない場合がる。
ここで、学習部45は、過去にレストランで出された料理と、その料理に対応するカトラリーを、行動パターンとして学習済みであるものとする。よって、対象人物5Gおよび5Hに料理が配膳されると、案内画像生成部43は、対象人物5Gおよび5Hに行動を示唆する表示を含む案内画像として、それぞれの料理に対応するカトラリーを示す案内画像を生成する。そして、表示装置2は、対象人物5Gに対する案内画像と対象人物5Hに対する案内画像とを識別可能に表示する。例えば、図14に示す例では、表示装置2Aおよび2Bは、対象人物5Gの両側に置かれたフォークおよびナイフを示す、案内画像9−81および9−82(スポットライト)を、それぞれ表示面3Aおよび3Bに表示する。また、表示装置2Cは、対象人物5Hの奥側に置かれたスプーンを示す、案内画像9−83(スポットライト)を表示面3Cに表示する。
[2−2−4.その他の適用例]
その他にも、本実施形態に係る表示制御システムは、対象人物に対して、食べる順番を示唆する案内画像を表示してもよい。例えば、表示制御システムは、バイキング形式のレストランにおいて、出来立ての料理やおすすめの料理の場所を示唆する案内画像を表示してもよい。他にも、表示制御システムは、複数の薬を服用する対象人物に対して、服用する順番や間隔などを示唆する案内画像を表示してもよい。
また、本実施形態に係る表示制御システムは、対象人物の所有物に応じて案内画像の表示を行ってもよい。例えば病院内において対象人物が内科の診察券を持って歩行していた場合、予測部42は、対象人物は内科診察室に行くものと予測し、表示制御部44は、内科診察室を目的地とする目的地案内画像を表示するよう表示装置2を制御してもよい。
また、本実施形態に係る表示制御システムは、監視システムに適用されてもよい。例えば、個人宅周辺において怪しい動作を行う人物が撮像された場合には、予測部42はその怪しい動作が学習済みの不審者の行動パターンに当てはまるため、当該人物は不審者であると判定して警告音を鳴らしてもよい。他にも、予測部42はその怪しい動作が学習済みのどの行動パターンにも当てはまらないため、当該人物の行動は予測不能であるとして、警告音を鳴らしてもよい。もちろん、本実施形態に係る表示制御システムは、警告音を鳴らすのみならず、セキュリティー会社へ連絡してもよいし、場合によっては、警察に通報してもよい。
<<3.まとめ>>
以上説明したように、本開示の一実施形態に係る表示制御システムは、対象人物の行動を予測して予測結果に応じた案内表示を行うことが可能である。その際には、表示制御システムは、対象人物の向きや移動速度、身体的特徴に応じて、視認しやすい位置、範囲に案内表示を行うことが可能である。また、表示制御システムは、複数の人物が同一の場所に集まっている場合であっても、他の人物に対する案内表示と混同させることなく、対象人物に対して案内表示を行うことができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、表示装置2は設置されるプロジェクター等により実現されるとしたが、本技術はかかる例に限定されない。例えば、表示装置2は、HMD(Head Mounted Display)により実現されてもよい。この場合、表示制御部44は、HMDを装着した対象人物の位置や向き、装着した際の高さなどの情報に応じて、目的地選択画像や目的地案内画像等の案内画像を表示する。
また、情報処理装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述したカメラ1、表示装置2、およびサーバ4の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記録させた記録媒体も提供される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
複数の表示部と、
対象人物を撮像する撮像部と、
前記撮像部により撮像された撮像画像に応じて前記対象人物の行動を予測する予測部と、
前記予測部による予測結果に応じて前記対象人物を案内する案内画像を生成する案内画像生成部と、
前記予測部による予測結果に基づいて、前記対象人物に対応する位置に画像表示可能な表示部を前記複数の表示部から選択し、前記案内画像を前記対象人物に対応する位置に表示するよう選択した前記表示部を制御する表示制御部と、
を備える表示制御システム。
(2)
前記表示制御システムは、前記撮像画像に基づいて前記対象人物の行動履歴情報を取得する行動履歴情報取得部をさらに備え、
前記予測部は、前記行動履歴情報取得部により取得された前記行動履歴情報に基づいて前記対象人物の行動を予測する、前記(1)に記載の表示制御システム。
(3)
前記行動履歴情報取得部は、前記表示部により表示された前記案内画像に対する前記対象人物の反応を前記撮像画像に基づいて認識し、認識した前記反応に基づいて前記行動履歴情報を取得する、前記(2)に記載の表示制御システム。
(4)
前記案内画像生成部は、前記対象人物の身体的特徴に応じて前記案内画像を生成する、前記(1)〜(3)のいずれか一項に記載の表示制御システム。
(5)
前記表示制御部は、前記対象人物の身体的特徴に応じた位置に前記案内画像を表示するよう選択した前記表示部を制御する、前記(1)〜(4)のいずれか一項に記載の表示制御システム。
(6)
前記案内画像生成部は、前記対象人物の身体的特徴である身長に比例して大きな案内画像を生成する、前記(4)に記載の表示制御システム。
(7)
前記表示制御部は、前記対象人物の身体的特徴である身長に比例して離れた位置に前記案内画像を表示するよう選択した前記表示部を制御する、前記(5)に記載の表示制御システム。
(8)
前記表示制御部は、前記対象人物の移動速度に比例して離れた位置に前記案内画像を表示するよう選択した前記表示部を制御する、前記(1)〜(7)のいずれか一項に記載の表示制御システム。
(9)
前記表示制御部は、前記対象人物の位置付近に画像表示可能な表示部を前記複数の表示部から選択する、前記(1)〜(8)のいずれか一項に記載の表示制御システム。
(10)
前記表示制御部は、前記対象人物が向く方向に画像表示可能な表示部を前記複数の表示部から選択する、前記(1)〜(9)のいずれか一項に記載の表示制御システム。
(11)
前記表示制御部は、前記対象人物の付近に他の人物が存在する場合に、前記他の人物に対して表示される他の案内画像とは識別可能に、前記対象人物に対する前記案内画像を選択した前記表示部が表示するよう制御する、前記(1)〜(10)のいずれか一項に記載の表示制御システム。
(12)
前記案内画像は、前記予測部による予測結果が示す前記対象人物の目的地までの案内表示を含む、前記(1)〜(11)のいずれか一項に記載の表示制御システム。
(13)
前記表示制御システムは、前記行動履歴情報から前記対象人物の行動パターンを学習する学習部をさらに備え、
前記予測部は、前記学習部により学習された前記行動パターンに基づいて前記対象人物の行動を予測する、前記(2)または(3)に記載の表示制御システム。
(14)
前記案内画像は、前記予測部による前記行動パターンに基づく予測結果に応じて前記対象人物に行動を示唆する表示を含む、前記(13)に記載の表示制御システム。
(15)
コンピュータに、
対象人物を撮像するステップと、
撮像された撮像画像に応じて前記対象人物の行動を予測するステップと、
予測結果に基づいて、前記対象人物に対応する位置に画像表示可能な表示部を複数の表示部から選択するステップと、
予測結果に応じて前記対象人物を案内する案内画像を生成するステップと、
前記案内画像を前記対象人物に対応する位置に表示するよう選択した前記表示部を制御するステップと、
を実行させるためのプログラムが記録された記録媒体。
1 カメラ
2 表示装置
3 表示面
4 サーバ
41 行動履歴情報取得部
42 予測部
43 案内画像生成部
44 表示制御部
45 学習部
5 対象人物
6 スピーカ
10 ノートPC
11 キャビネット
12 カップ麺

Claims (15)

  1. 複数の表示部と、
    対象人物を撮像する撮像部と、
    前記撮像部により撮像された撮像画像に応じて前記対象人物の行動を予測する予測部と、
    前記予測部による予測結果に応じて前記対象人物を案内する案内画像を生成する案内画像生成部と、
    前記予測部による予測結果に基づいて、前記対象人物に対応する位置に画像表示可能な表示部を前記複数の表示部から選択し、前記案内画像を前記対象人物に対応する位置に表示するよう選択した前記表示部を制御する表示制御部と、
    を備える表示制御システム。
  2. 前記表示制御システムは、前記撮像画像に基づいて前記対象人物の行動履歴情報を取得する行動履歴情報取得部をさらに備え、
    前記予測部は、前記行動履歴情報取得部により取得された前記行動履歴情報に基づいて前記対象人物の行動を予測する、請求項1に記載の表示制御システム。
  3. 前記行動履歴情報取得部は、前記表示部により表示された前記案内画像に対する前記対象人物の反応を前記撮像画像に基づいて認識し、認識した前記反応に基づいて前記行動履歴情報を取得する、請求項2に記載の表示制御システム。
  4. 前記案内画像生成部は、前記対象人物の身体的特徴に応じて前記案内画像を生成する、請求項1に記載の表示制御システム。
  5. 前記表示制御部は、前記対象人物の身体的特徴に応じた位置に前記案内画像を表示するよう選択した前記表示部を制御する、請求項1に記載の表示制御システム。
  6. 前記案内画像生成部は、前記対象人物の身体的特徴である身長に比例して大きな案内画像を生成する、請求項4に記載の表示制御システム。
  7. 前記表示制御部は、前記対象人物の身体的特徴である身長に比例して離れた位置に前記案内画像を表示するよう選択した前記表示部を制御する、請求項5に記載の表示制御システム。
  8. 前記表示制御部は、前記対象人物の移動速度に比例して離れた位置に前記案内画像を表示するよう選択した前記表示部を制御する、請求項1に記載の表示制御システム。
  9. 前記表示制御部は、前記対象人物の位置付近に画像表示可能な表示部を前記複数の表示部から選択する、請求項1に記載の表示制御システム。
  10. 前記表示制御部は、前記対象人物が向く方向に画像表示可能な表示部を前記複数の表示部から選択する、請求項1に記載の表示制御システム。
  11. 前記表示制御部は、前記対象人物の付近に他の人物が存在する場合に、前記他の人物に対して表示される他の案内画像とは識別可能に、前記対象人物に対する前記案内画像を選択した前記表示部が表示するよう制御する、請求項1に記載の表示制御システム。
  12. 前記案内画像は、前記予測部による予測結果が示す前記対象人物の目的地までの案内表示を含む、請求項1に記載の表示制御システム。
  13. 前記表示制御システムは、前記行動履歴情報から前記対象人物の行動パターンを学習する学習部をさらに備え、
    前記予測部は、前記学習部により学習された前記行動パターンに基づいて前記対象人物の行動を予測する、請求項2に記載の表示制御システム。
  14. 前記案内画像は、前記予測部による前記行動パターンに基づく予測結果に応じて前記対象人物に行動を示唆する表示を含む、請求項13に記載の表示制御システム。
  15. コンピュータに、
    対象人物を撮像するステップと、
    撮像された撮像画像に応じて前記対象人物の行動を予測するステップと、
    予測結果に基づいて、前記対象人物に対応する位置に画像表示可能な表示部を複数の表示部から選択するステップと、
    予測結果に応じて前記対象人物を案内する案内画像を生成するステップと、
    前記案内画像を前記対象人物に対応する位置に表示するよう選択した前記表示部を制御するステップと、
    を実行させるためのプログラムが記録された記録媒体。
JP2012279520A 2012-12-21 2012-12-21 表示制御システム及び記録媒体 Expired - Fee Related JP5942840B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012279520A JP5942840B2 (ja) 2012-12-21 2012-12-21 表示制御システム及び記録媒体
US14/103,032 US9465984B2 (en) 2012-12-21 2013-12-11 System to provide a guide display based on a predicted action of a subject
CN201310684696.XA CN103888719A (zh) 2012-12-21 2013-12-13 显示控制系统和记录介质
US15/235,406 US10204293B2 (en) 2012-12-21 2016-08-12 Display control system and recording medium for displaying a guide image
US16/239,033 US20190138859A1 (en) 2012-12-21 2019-01-03 Display Control System And Recording Medium
US16/538,267 US10832099B2 (en) 2012-12-21 2019-08-12 Displaying guide images on a table

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012279520A JP5942840B2 (ja) 2012-12-21 2012-12-21 表示制御システム及び記録媒体

Publications (3)

Publication Number Publication Date
JP2014123277A true JP2014123277A (ja) 2014-07-03
JP2014123277A5 JP2014123277A5 (ja) 2015-03-12
JP5942840B2 JP5942840B2 (ja) 2016-06-29

Family

ID=50957414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012279520A Expired - Fee Related JP5942840B2 (ja) 2012-12-21 2012-12-21 表示制御システム及び記録媒体

Country Status (3)

Country Link
US (4) US9465984B2 (ja)
JP (1) JP5942840B2 (ja)
CN (1) CN103888719A (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016103560A1 (ja) * 2014-12-25 2016-06-30 パナソニックIpマネジメント株式会社 投影装置
JP2016151453A (ja) * 2015-02-17 2016-08-22 株式会社Screenホールディングス 経路案内装置、及び経路案内方法
JP2016167208A (ja) * 2015-03-10 2016-09-15 成広 武田 行動サポート装置
WO2016181670A1 (ja) * 2015-05-11 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017003820A (ja) * 2015-06-11 2017-01-05 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム
JP2017016588A (ja) * 2015-07-06 2017-01-19 パラマウントベッド株式会社 対象者誘導システム、プログラム及び対象者誘導方法
JP2017062319A (ja) * 2015-09-24 2017-03-30 カシオ計算機株式会社 投影システム
JP2017078944A (ja) * 2015-10-20 2017-04-27 ヤフー株式会社 判定装置、判定方法及び判定プログラム
JP2017123120A (ja) * 2016-01-08 2017-07-13 日本ユニシス株式会社 広告評価装置、広告評価システム、広告評価方法、および、広告評価プログラム
JP2017535095A (ja) * 2014-09-23 2017-11-24 インテル・コーポレーション ウェアラブル調整現実システムおよび方法
JP2018116480A (ja) * 2017-01-18 2018-07-26 東芝ライテック株式会社 管理装置、管理システムおよび管理方法
WO2019013014A1 (ja) * 2017-07-12 2019-01-17 三菱電機株式会社 快適度表示装置
JP2019020109A (ja) * 2017-07-12 2019-02-07 三菱電機ビルテクノサービス株式会社 快適度表示装置
JP2020009107A (ja) * 2018-07-06 2020-01-16 コニカミノルタ株式会社 避難誘導装置、避難誘導システム、および制御プログラム
WO2020121439A1 (ja) * 2018-12-12 2020-06-18 三菱電機株式会社 案内支援制御装置及び案内支援システム
JP2020112749A (ja) * 2019-01-16 2020-07-27 清水建設株式会社 表示制御装置、表示システム、及び表示方法
WO2020218320A1 (ja) * 2019-04-26 2020-10-29 清水建設株式会社 受付案内システム、および受付案内方法
JP2020191665A (ja) * 2020-08-03 2020-11-26 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム
WO2021048908A1 (ja) * 2019-09-10 2021-03-18 三菱電機株式会社 案内システム及び出力装置
WO2021176592A1 (ja) * 2020-03-04 2021-09-10 三菱電機株式会社 情報処理装置、生成方法、及び生成プログラム
JP7026859B1 (ja) * 2021-03-26 2022-02-28 三菱電機株式会社 案内表示制御装置、案内表示制御方法及び経路案内システム
JP7031071B1 (ja) * 2021-04-06 2022-03-07 三菱電機株式会社 投影制御装置、投影制御システム、および投影制御方法
JP7055252B1 (ja) * 2021-04-06 2022-04-15 三菱電機株式会社 表示制御装置および表示制御方法
JP2022125029A (ja) * 2020-06-10 2022-08-26 パラマウントベッド株式会社 表示制御装置
US11544968B2 (en) 2018-05-09 2023-01-03 Sony Corporation Information processing system, information processingmethod, and recording medium

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6253127B2 (ja) * 2014-04-18 2017-12-27 Necソリューションイノベータ株式会社 情報提供装置
EP3141991A4 (en) * 2014-05-09 2018-07-04 Sony Corporation Information processing device, information processing method, and program
US9699858B2 (en) * 2014-12-08 2017-07-04 Cisco Technology, Inc. Network controlled multi-color lighting services
KR20170050028A (ko) * 2015-10-29 2017-05-11 삼성에스디에스 주식회사 객체의 위치 검색 시스템 및 방법
JP2017228957A (ja) * 2016-06-23 2017-12-28 カシオ計算機株式会社 出力制御装置、出力制御方法及びプログラム
US11308645B2 (en) * 2017-05-12 2022-04-19 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for wide-range optical tracking during medical imaging
US10623790B2 (en) * 2017-08-11 2020-04-14 Benjamin Dean Maddalena Methods and systems for cloud-based content management
WO2019139959A1 (en) * 2018-01-12 2019-07-18 Intelligent Security Systems Corporation Systems and methods for image-based light output
DE112018006792B4 (de) * 2018-02-09 2021-11-25 Mitsubishi Electric Corporation Anzeigesystem und Anzeigeverfahren
CN109000634B (zh) * 2018-06-04 2022-06-03 上海智蕙林医疗科技有限公司 一种导航对象行进路线的提醒方法和系统
JP7283037B2 (ja) * 2018-07-26 2023-05-30 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
CN109764873A (zh) * 2018-12-17 2019-05-17 北京联合大学 一种动态照明导引表示和室内导航方法、装置及系统
WO2020138348A1 (ja) * 2018-12-27 2020-07-02 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
JP6746013B1 (ja) * 2019-06-19 2020-08-26 三菱電機株式会社 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
US20210056272A1 (en) * 2019-08-23 2021-02-25 KEFI Holdings, Inc Object detection-based control of projected content
JP7334686B2 (ja) * 2020-07-03 2023-08-29 トヨタ自動車株式会社 制御装置、プログラム、及び制御システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110377A (ja) * 2002-09-18 2004-04-08 Hitachi Ltd 情報表示方法及びシステム
US20070030152A1 (en) * 2005-08-08 2007-02-08 Xerox Corporation Direction signage system
US20100153003A1 (en) * 2007-06-12 2010-06-17 Marcel Merkel Information device, method for informing and/or navigating a person, and computer program
JP2010231470A (ja) * 2009-03-27 2010-10-14 Advanced Telecommunication Research Institute International 情報提供システム
JP2012118121A (ja) * 2010-11-29 2012-06-21 Canon Inc 映像表示装置、映像表示方法及びプログラム
JP2012519922A (ja) * 2009-10-20 2012-08-30 サムスン エレクトロニクス カンパニー リミテッド 物品提供装置、ディスプレイ装置及びこれを用いたgui提供方法
JP2012226695A (ja) * 2011-04-22 2012-11-15 Saga Univ 誘導指示装置、誘導指示方法及びそのプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3750309A (en) * 1972-02-16 1973-08-07 Wallace Silversmiths Inc Display book
US4830619A (en) * 1988-01-27 1989-05-16 The Conde Nast Publications Inc. Table setting display guide
JP2000149150A (ja) 1998-11-04 2000-05-30 Toto Ltd 案内システム
US6129550A (en) * 1999-03-11 2000-10-10 Kaplan Companies, Inc. Educating special needs children about place settings
US6418372B1 (en) * 1999-12-10 2002-07-09 Siemens Technology-To-Business Center, Llc Electronic visitor guidance system
US7035650B1 (en) * 2000-06-14 2006-04-25 International Business Machines Corporation System and method for providing directions
KR100946742B1 (ko) * 2003-02-19 2010-03-11 프라포트 아게 프랑크푸르트 에어포트 서비시즈 월드와이드 안내 시스템
KR20060008977A (ko) * 2003-05-07 2006-01-27 코닌클리케 필립스 일렉트로닉스 엔.브이. 공공 서비스 시스템
GB2404466B (en) * 2003-07-31 2007-07-18 Hewlett Packard Development Co Method and apparatus for providing information about a real-world space
JP5086562B2 (ja) * 2006-04-17 2012-11-28 クラリオン株式会社 ナビゲーション装置
US20080007400A1 (en) * 2006-07-07 2008-01-10 Terry Murphy Image projection system
JP4283338B2 (ja) * 2007-05-02 2009-06-24 パナソニック株式会社 移動先予測装置、移動先予測方法、ナビゲーション装置及びプログラム
US8423431B1 (en) * 2007-12-20 2013-04-16 Amazon Technologies, Inc. Light emission guidance
RU2518079C2 (ru) * 2008-04-03 2014-06-10 Конинклейке Филипс Электроникс Н.В. Способ направления пользователя от исходного положения к месту назначения в зоне общественного пользования
US8334767B2 (en) * 2009-01-12 2012-12-18 General Electric Company Method and system for facilitating automated navigation in a healthcare environment
US8930129B2 (en) * 2009-11-18 2015-01-06 Telenav, Inc. Navigation system with multiple users and method of operation thereof
US9749823B2 (en) * 2009-12-11 2017-08-29 Mentis Services France Providing city services using mobile devices and a sensor network
US8892350B2 (en) * 2011-12-16 2014-11-18 Toyoda Jidosha Kabushiki Kaisha Journey learning system
US8688290B2 (en) * 2011-12-27 2014-04-01 Toyota Motor Enginerring & Manufacturing North America, Inc. Predictive destination entry for a navigation system
US9536449B2 (en) * 2013-05-23 2017-01-03 Medibotics Llc Smart watch and food utensil for monitoring food consumption
US9406170B1 (en) * 2012-07-16 2016-08-02 Amazon Technologies, Inc. Augmented reality system with activity templates
WO2015098189A1 (ja) * 2013-12-27 2015-07-02 ソニー株式会社 表示制御装置、表示制御方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110377A (ja) * 2002-09-18 2004-04-08 Hitachi Ltd 情報表示方法及びシステム
US20070030152A1 (en) * 2005-08-08 2007-02-08 Xerox Corporation Direction signage system
US20100153003A1 (en) * 2007-06-12 2010-06-17 Marcel Merkel Information device, method for informing and/or navigating a person, and computer program
JP2010231470A (ja) * 2009-03-27 2010-10-14 Advanced Telecommunication Research Institute International 情報提供システム
JP2012519922A (ja) * 2009-10-20 2012-08-30 サムスン エレクトロニクス カンパニー リミテッド 物品提供装置、ディスプレイ装置及びこれを用いたgui提供方法
JP2012118121A (ja) * 2010-11-29 2012-06-21 Canon Inc 映像表示装置、映像表示方法及びプログラム
JP2012226695A (ja) * 2011-04-22 2012-11-15 Saga Univ 誘導指示装置、誘導指示方法及びそのプログラム

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017535095A (ja) * 2014-09-23 2017-11-24 インテル・コーポレーション ウェアラブル調整現実システムおよび方法
JPWO2016103560A1 (ja) * 2014-12-25 2017-10-12 パナソニックIpマネジメント株式会社 投影装置
US10345686B2 (en) 2014-12-25 2019-07-09 Panasonic Intellectual Property Management Co., Ltd. Projector device
WO2016103560A1 (ja) * 2014-12-25 2016-06-30 パナソニックIpマネジメント株式会社 投影装置
JP2016151453A (ja) * 2015-02-17 2016-08-22 株式会社Screenホールディングス 経路案内装置、及び経路案内方法
JP2016167208A (ja) * 2015-03-10 2016-09-15 成広 武田 行動サポート装置
WO2016181670A1 (ja) * 2015-05-11 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2016181670A1 (ja) * 2015-05-11 2018-03-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017003820A (ja) * 2015-06-11 2017-01-05 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム
JP2017016588A (ja) * 2015-07-06 2017-01-19 パラマウントベッド株式会社 対象者誘導システム、プログラム及び対象者誘導方法
JP2017062319A (ja) * 2015-09-24 2017-03-30 カシオ計算機株式会社 投影システム
JP2017078944A (ja) * 2015-10-20 2017-04-27 ヤフー株式会社 判定装置、判定方法及び判定プログラム
JP2017123120A (ja) * 2016-01-08 2017-07-13 日本ユニシス株式会社 広告評価装置、広告評価システム、広告評価方法、および、広告評価プログラム
JP2018116480A (ja) * 2017-01-18 2018-07-26 東芝ライテック株式会社 管理装置、管理システムおよび管理方法
JP2019020109A (ja) * 2017-07-12 2019-02-07 三菱電機ビルテクノサービス株式会社 快適度表示装置
WO2019013014A1 (ja) * 2017-07-12 2019-01-17 三菱電機株式会社 快適度表示装置
JP7037432B2 (ja) 2017-07-12 2022-03-16 三菱電機ビルテクノサービス株式会社 快適度表示装置
US11315295B2 (en) 2017-07-12 2022-04-26 Mitsubishi Electric Corporation Comfort level display apparatus that generates correlation information between user comfort levels and temperature changes
US11544968B2 (en) 2018-05-09 2023-01-03 Sony Corporation Information processing system, information processingmethod, and recording medium
JP2020009107A (ja) * 2018-07-06 2020-01-16 コニカミノルタ株式会社 避難誘導装置、避難誘導システム、および制御プログラム
JP7073949B2 (ja) 2018-07-06 2022-05-24 コニカミノルタ株式会社 避難誘導装置、避難誘導システム、および制御プログラム
WO2020121439A1 (ja) * 2018-12-12 2020-06-18 三菱電機株式会社 案内支援制御装置及び案内支援システム
JPWO2020121439A1 (ja) * 2018-12-12 2021-03-11 三菱電機株式会社 案内支援制御装置及び案内支援システム
JP2020112749A (ja) * 2019-01-16 2020-07-27 清水建設株式会社 表示制御装置、表示システム、及び表示方法
JP2020181525A (ja) * 2019-04-26 2020-11-05 清水建設株式会社 受付案内システム、受付案内方法
JP7409782B2 (ja) 2019-04-26 2024-01-09 清水建設株式会社 受付案内システム、受付案内方法
WO2020218320A1 (ja) * 2019-04-26 2020-10-29 清水建設株式会社 受付案内システム、および受付案内方法
JPWO2021048908A1 (ja) * 2019-09-10 2021-09-27 三菱電機株式会社 案内システム及び出力装置
WO2021048908A1 (ja) * 2019-09-10 2021-03-18 三菱電機株式会社 案内システム及び出力装置
JPWO2021176592A1 (ja) * 2020-03-04 2021-09-10
WO2021176592A1 (ja) * 2020-03-04 2021-09-10 三菱電機株式会社 情報処理装置、生成方法、及び生成プログラム
JP7365456B2 (ja) 2020-06-10 2023-10-19 パラマウントベッド株式会社 表示制御装置
JP2022125029A (ja) * 2020-06-10 2022-08-26 パラマウントベッド株式会社 表示制御装置
JP2020191665A (ja) * 2020-08-03 2020-11-26 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム
JP7041211B2 (ja) 2020-08-03 2022-03-23 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム
WO2022201498A1 (ja) * 2021-03-26 2022-09-29 三菱電機株式会社 案内表示制御装置、案内表示制御方法及び経路案内システム
JP7026859B1 (ja) * 2021-03-26 2022-02-28 三菱電機株式会社 案内表示制御装置、案内表示制御方法及び経路案内システム
JP7055252B1 (ja) * 2021-04-06 2022-04-15 三菱電機株式会社 表示制御装置および表示制御方法
WO2022215146A1 (ja) * 2021-04-06 2022-10-13 三菱電機株式会社 表示制御装置および表示制御方法
WO2022215147A1 (ja) * 2021-04-06 2022-10-13 三菱電機株式会社 投影制御装置、投影制御システム、および投影制御方法
JP7031071B1 (ja) * 2021-04-06 2022-03-07 三菱電機株式会社 投影制御装置、投影制御システム、および投影制御方法

Also Published As

Publication number Publication date
US20160350621A1 (en) 2016-12-01
US9465984B2 (en) 2016-10-11
US20140176599A1 (en) 2014-06-26
CN103888719A (zh) 2014-06-25
JP5942840B2 (ja) 2016-06-29
US20200005099A1 (en) 2020-01-02
US10832099B2 (en) 2020-11-10
US20190138859A1 (en) 2019-05-09
US10204293B2 (en) 2019-02-12

Similar Documents

Publication Publication Date Title
JP5942840B2 (ja) 表示制御システム及び記録媒体
US11879960B2 (en) System and method for monitoring clinical activities
US11721105B2 (en) System and method for monitoring clinical activities
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US10024678B2 (en) Wearable clip for providing social and environmental awareness
US6385331B2 (en) Hand pointing device
EP1499129B1 (en) Object detection device, object detection server, and object detection method
JP4369326B2 (ja) 施設内情報提供システム及び施設内情報提供方法
US11161250B2 (en) Moving robot and control method therefor
US11514705B2 (en) Information processing apparatus and non-transitory computer readable medium to allow operation without contact
JP6728863B2 (ja) 情報処理システム
US20230162533A1 (en) Information processing device, information processing method, and program
JP2018030223A (ja) 捜し物ロボット
KR20180057839A (ko) 사람 인식이 가능한 지능형 로봇 및 그 동작방법
US20180082119A1 (en) System and method for remotely assisted user-orientation
Macik et al. Software architecture for a distributed in-hospital navigation system
US11223729B2 (en) Information processing apparatus and non-transitory computer readable medium for instructing an object to perform a specific function
JP5418938B2 (ja) グループ行動推定装置およびサービス提供システム
JP2022025230A (ja) 手洗いチェックシステム
JP2016167243A (ja) 案内装置
Tabata et al. Recognition of request through hand gesture for mobile care robots
CN116234664A (zh) 机器人的控制方法、机器人、以及程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160509

R151 Written notification of patent or utility model registration

Ref document number: 5942840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees