JP6632824B2 - 対象者誘導システム - Google Patents

対象者誘導システム Download PDF

Info

Publication number
JP6632824B2
JP6632824B2 JP2015135657A JP2015135657A JP6632824B2 JP 6632824 B2 JP6632824 B2 JP 6632824B2 JP 2015135657 A JP2015135657 A JP 2015135657A JP 2015135657 A JP2015135657 A JP 2015135657A JP 6632824 B2 JP6632824 B2 JP 6632824B2
Authority
JP
Japan
Prior art keywords
guidance
target person
subject
display
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015135657A
Other languages
English (en)
Other versions
JP2017016588A (ja
Inventor
栄太 平井
栄太 平井
良 田中
田中  良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2015135657A priority Critical patent/JP6632824B2/ja
Publication of JP2017016588A publication Critical patent/JP2017016588A/ja
Application granted granted Critical
Publication of JP6632824B2 publication Critical patent/JP6632824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、対象者誘導システム等に関する。
正しい道筋を誘導するシステムの代表例として、GPS技術を用いたカーナビゲーションシステムや、スマートフォンでの経路案内が存在する。しかし、それらは対象者自ら設定しなければならないこと、対象者自身がGPSを受信できる装置を装備している必要があった。よって本人以外の人が意図的に誘導させることは難しかった。特に、施設内の場合は、位置情報を検出することができず、適切に誘導を行うことが出来ない。
そこで、屋内に設けられた無線設備等を利用して誘導する発明が知られている。例えば、予め来場者を識別する識別情報を書き込んだ無線発信装置と、無線発信装置から発信される識別情報を読み取る少なくとも3つ以上の受信装置と、受信装置の会場内における位置を保持する受信装置位置データベースと、識別情報を受信した受信装置の位置を受信装置位置データベースから検出する手段を有するサーバからなり、無線発信装置から発信される電波を、受信した複数の受信装置の中から受信レベルの高い順に上から3つの受信装置を選択し、選択された受信装置をそれぞれ結んだ3角点内に発信装置が存在することとして来場者の位置を特定する。来場者の携帯端末からサーバへアクセスすると、来場者の携帯端末の画面上に会場案内図上に目的のブースまたは店舗が表示され、会場内に入ると、来場者の位置と目的のブースまたは店舗との位置関係がわかる発明が知られている(例えば、特許文献1参照)。
特開2006−23129号公報
上述したように、GPSを受信可能な装置や、屋内の無線発信装置の電波を受信可能な装置を持った対象者にだけ誘導をサービスすることは可能であったが、対象者本人が意図的に操作して、「誘導してもらう」という行動を取る必要があった。したがって、子供や高齢者等、それらの機能を持ち合わせていない、自ら活用しない人に対して、対象者にとって有益な情報を提供するということは難しかった。
特に、大型ショッピングモールや商店街においてさまざまな客層の顧客が訪れる。顧客のターゲット層によって本来お勧めのお店を積極的に選別し、誘導することができれば売り上げ増加が見込める可能性がある。しかし、端末装置を有していない顧客を誘導する方法は単なる看板程度であり、対象者である顧客が自らお店を選定し行動している状態であり、お店側は機会損失を招いている可能性が高かった。
上述した課題に鑑み、本発明が目的とするところは、対象者が自ら行動を起こさなくても、対象者の特性に応じて適切な誘導表示を行うことが可能な対象者誘導システム等を提供することである。
上述した課題を解決するために、本発明の対象者誘導システムは、
対象者の特性に対応づけて、誘導地点を記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導手段と、
を備えることを特徴とする。
本発明の対象者誘導システムは、
対象者の特性に対応づけて、誘導地点と、音声データとを記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、対象者に対して前記音声データを出力することにより誘導を行う音声出力手段と、
を備えることを特徴とする。
本発明の対象者誘導システムは、
対象者の特性と、動作パターンと、誘導データとを対応づけて記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性は前記対象者の動作状態であり、当該動作状態が前記動作パターンと一致するかを判定する動作状態判定手段と、
前記動作状態が、前記動作パターンと一定した場合には、対応する誘導データを出力する出力手段と、
を備えることを特徴とする。
本発明の対象者誘導システムは、
対象者をセンシングして認識する認識装置と、報知装置と、制御装置とを備えた対象者誘導システムであって、
前記制御装置は、
対象者の特性に対応づけて、誘導地点を記憶する記憶手段と、
前記認識装置により認識された対象者の特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、前記報知装置により対象者を誘導する誘導手段と、
を備えたことを特徴とする。
本発明のプログラムは、
コンピュータに、
対象者の特性に対応づけて、誘導地点を記憶する記憶機能と、
対象者をセンシングして特性を判定する特性判定機能と、
前記特性判定機能により判定された特性に基づいて、誘導地点を決定する決定機能と、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導機能と、
を実現させることを特徴とする。
本発明の対象者誘導方法は、
対象者の特性に対応づけて、誘導地点を記憶する記憶ステップと、
対象者をセンシングして特性を判定する特性判定ステップと、
前記特性判定ステップにより判定された特性に基づいて、誘導地点を決定する決定ステップと、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導ステップと、
を備えることを特徴とする。
本発明によれば、対象者をセンシングし、対象者の特性を判定する。そして、判定された対象者の特性に基づいて、誘導地点を決定し、現在地点から、決定された誘導地点まで誘導表示を行うことができる。したがって、対象者が端末装置等を持っているかいないかに関わらず、適切な誘導表示を行うことが可能となる。
第1実施形態における全体を説明するための図である。 第1実施形態における機能構成を説明するための図である。 第1実施形態における人体の認識方法について説明するための図である。 第1実施形態における誘導地点テーブルのデータ構成の一例である。 第1実施形態における処理の流れを説明する為の動作フローである。 第1実施形態における適用例を説明するための図である。 第2実施形態における記憶部の構成を説明するための図である。 第2実施形態における誘導表示情報のデータ構成の一例である。 第2実施形態における処理の流れを説明する為の動作フローである。 第3実施形態における誘導表示情報のデータ構成の一例である。 第4実施形態における誘導地点テーブルのデータ構成の一例である。 第4実施形態における処理の流れを説明する為の動作フローである。 第4実施形態における適用例を説明するための図である。 第5実施形態における機能構成を説明するための図である。 第5実施形態における動作を説明するための図である。 第5実施形態における動作を説明するための図である。 第6実施形態における記憶部の構成を説明するための図である。 第6実施形態における動作状態テーブルのデータ構成の一例である。 第6実施形態における処理の流れを説明する為の動作フローである。 第6実施形態における動作例を説明するための図である。 第6実施形態における動作例を説明するための図である。
以下、図面を参照して本発明を実施するための最良の形態について説明する。以下の実施形態は、本発明の対象者誘導システムを適用した一例であり、発明の内容が、本実施形態に限定されるものではないのは勿論である。
[1.第1実施形態]
[1.1 システム外観]
第1実施形態における対象者誘導システム1の全体について、図1を用いて説明する。図1に示すように、対象者誘導システム1は、対象者Pを認識する認識装置20と、誘導手段として対象者を誘導するための画像を表示する画像表示装置30とを有しており、これらが制御装置10(画像表示制御装置)に接続されている。
例えば、画像表示装置30は、画像表示装置(ディスプレイ)32のような装置であっても良いし、画像表示装置(プロジェクタ)34のような装置であっても良い。また、画像表示装置(プロジェクタ)34は、表示位置として領域R30(R34)に画像を投影する。
ここで、本明細書において、画像を表示するとは、ディスプレイ等の画像表示装置に画像を表示することは勿論のこと、プロジェクタのような投影装置により画像を投影すること、レーザ等を照射することも含むものとする。すなわち、プロジェクタが画像を投影することにより、画像を表示する画像表示装置として説明している。
また、本実施形態では、画像表示装置34を用いて、対象者の移動方向の床面に誘導表示を行う(プロジェクタから画像が投影される)ことを例として説明するが、壁面に設定された画像表示装置32に表示しても良い。また、画像表示装置30は、1つであっても複数であってもよい。複数の場合、両方に表示しても良いし、必要に応じて選択して表示しても良い。各装置の詳細については次の機能構成で説明する。
更に、画像表示装置30は、可動可能に構成されていてもよい。例えば、プロジェクタの場合は、プロジェクタ取付部が可動するように構成されており、プロジェクタが画像を投影する方向にレンズ方向を自在に稼動させることが可能となるように構成されても良い。また、ディスプレイの場合は、取付部が移動可能になっており、表示したい箇所に移動する構成としても良い。
なお、本実施形態では、認識装置20と、画像表示装置30と、制御装置10とが同一の構内で接続されている(例えば、同一のネットワークに接続されていたり、USB接続といったローカル接続されていたりする)こととして説明するが、外部ネットワークを介して接続されていても良い。
すなわち、制御装置10が、インターネットに接続されているサーバであり、サーバ上で処理を実行する。そして、インターネットを介して、認識装置20及び画像表示装置30が接続されることとしても良い。この場合、サーバ側の管理者は、離れた場所であっても複数の制御を行うことが可能となる。
[1.2 機能構成]
つづいて、本実施形態における対象者誘導システム1を構成する各装置の機能構成について図2を用いて説明する。
図2に示すように、制御装置10に、認識装置20と、画像表示装置30(32)とが接続されている。
また、制御装置10は、制御部110と、認識部120と、画像表示制御部130と、記憶部140とを備えて構成されている。
制御部110は、制御装置10の全体を制御するための機能部である。制御部110は、記憶部140に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Process Unit)等により構成されている。
認識部120は、認識装置20により認識された対象者の人体に基づく情報を入力・処理するための機能部である。すなわち、認識装置20における空間内における人の動きをセンシングする技術(画像処理・サーモ・位置センサ・圧センサ)を利用し、対象者の特性を認識する機能部である。
ここで、対象者(人)の特性とは、当該対象者の属性、動作を含む概念である。対象者の属性(人体属性)とは、当該対象者を認識装置20により判定可能なものであり、例えば身長、体格といったものである。さらに、人の大きさ、表情等を認識することにより、男女であったり、大人、子供であったり、車いすを利用しているか、健常者等であるかを認識することができる。また、対象者の動作とは、対象者の動きを判定するものであり、対象者が動いている方向、速度であったり、対象者が起立しているか等の姿勢であったり、対象者の動きといったものを認識することができる。
ここで、認識装置20及び認識部120が、空間内において人(人体)を認識する仕組みについて、図3を用いて説明する。ここで、認識装置20としては種々の装置が考えられるが、一例としてマイクロソフト株式会社製のKinect(キネクト)(登録商標)を利用した方法について説明する。
Kinectを利用する事により、人間の骨格をスティックピクチャとして捉えることができるようになる(図3(a))。すなわち、人体の各関節の特徴点と、当該特徴点を結んだ線とがそれぞれ検出される。
この特徴点に基づいて、人の顔の向きや、体の向きを認識することが可能となる。例えば、顔の向きや体の向きを求めるには、図3(b)に示すように、各関節の特徴点をもちいて認識する。図3(b)では、特徴点P01と、特徴点P02の(x、y、z)座標をそれぞれ検出する。そして、2つの座標を結ぶ直線と、基準面との角度を算出することにより、顔の向きを認識する。
また、特徴点P03と、特徴点P04の(x、y、z)座標をそれぞれ検出し、特徴点P03と特徴点P04とを直線で結ぶ仮想線L01の位置から、体の方向(向きと傾き)を認識する。
これにより、例えば、対象者の向いている方向から、画像を表示する領域を特定することができる。例えば、図3(c)に示すように、特徴点P01と、特徴点P02から、中心軸に対しての角度が算出され、これにより顔の角度(対象者が向いている角度)θ1が算出される。
また、人体の視点の高さL02(例えば、近似的に特徴点P02の高さ)と、顔の角度の法線方向L03とから、視線が地上線L04に到達する位置を求めることが可能となる(例えば、高さL02×arctanθ1)。そして、この位置を表示領域R01として、画像を表示することができる。
なお、人体を認識する方法としては、他の方法であっても良い。例えば、カメラを用いた画像処理技術、サーモグラフィや赤外線を用いた認識技術であっても良いし、圧力センサを床に置き、足の方向と荷重方向で人を認識しても良い。また、視線検出技術を利用して、視線を検出しても良い。
ここで、対象者P(人体)の向きの認識としては、視線の方向、顔の向き、体の向きの順に優先度が高くなっている。すなわち、視線の方向が認識できるのであれば視線の方向を、顔の向きを検出できるのであれば顔の方向を、そうで無ければ体の向きを認識する。これらを複数認識することとしても良いし、単独で方向を認識しても良い。
また、認識された特徴点に基づいて対象者の姿勢であったり、特徴点の動きを認識することにより対象者の動作を認識したりすることも可能である。例えば、対象者が座っている姿勢であることを認識できたり、対象者が転倒したといった姿勢を認識したりすることも出来る。また、動作として対象者が右手を挙げたとか、対象者が荷物を持ったといったことを認識することも可能である。これらの対象者の姿勢や動き、すなわち動作状態を認識する方法は何れかの公知の方法を利用する。
つづいて、画像表示制御部130は、接続されている画像表示装置30に対して、画像の表示を制御するための機能部である。画像表示装置30は、液晶ディスプレイや有機ELディスプレイといった表示装置や、プロジェクタといった投影装置といった画像を表示可能な装置である。なお、本実施形態における画像とは、文字や図形、写真といった静止画像は勿論のこと、動画像も含む概念である。図2では、画像表示装置34が1台接続されているが、複数台接続されていても良い。
記憶部140は、制御装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。
また、記憶部140には、誘導地点テーブル142と、地図情報144とが記憶されている。ここで、誘導地点テーブル142の一例を、図4に示す。
誘導地点テーブル142は、対象者の特性(例えば、本実施形態では人体の属性)と、対象者を認識した場所を示す現在地点(例えば、「1F北口」)と、対象者を誘導する地点の位置を示す誘導地点(例えば、「A玩具店」)とが対象づけて記憶されている。ここで、人体属性とは、認識された人体に関する情報である。例えば、本実施形態で示すように「大人」「子供」の情報や、「男性」「女性」の情報である。また、単純に身長や、体格(例えば、「細身」等)であったりしてもよい。また、「帽子を被っている」という情報で有っても良い。すなわち、制御装置10が、認識部120(認識装置20)を介して認識可能な情報であれば良い。
誘導地点については、誘導地点の位置情報が記憶されている。なお、位置情報は、絶対的な位置を示す情報であっても良いし、現在地点からの相対的な位置を示す情報であっても良い。絶対的な位置を示す情報としては、例えば屋内であればビーコンを使った位置情報であったり、地磁気測位を使った位置情報であっても良い。また、屋外であれば、緯度経度情報や、無線基地局から判定可能な位置情報で会っても良い。
なお、現在地点の情報は必ずしも記憶されている必要は無い。例えば、特定の入り口に設置された誘導システムであれば、対象者を認識する地点は同じ地点となるため、現在地点は認識システム設置場所となる。
地図情報144は、誘導する地点が含まれる地図に関する情報である。例えば、公共施設やショッピングモール等の施設の地図や、駅構内の地図、遊園地等の場内の地図等が記憶されている。また、駅や市役所周辺の地図といった広範囲の地図であっても良い。
[1.3 処理の流れ]
つづいて、本実施形態における処理の流れについて図5をもちいて説明する。まず、人体が検知されると(ステップS102;Yes)、人体認識処理が実行される(ステップS104)。本実施形態では、人体認識処理により、関節等に対応する特徴点がそれぞれ検出され、対象者(人体)の大きさや体型が認識される。
つづいて、各特徴点が認識された後は、特性判定処理を実行する(ステップS106)。本実施形態においては、特性の一つとして人体属性を判定する。なお、人体属性を判定できれば良いため、例えば赤外線センサ等によって身長だけを認識可能な装置を利用し、認識された身長から人体属性を判定しても良い。
つづいて、特性判定処理により判定された人体属性から、誘導地点決定処理が実行される(ステップS108)。すなわち、誘導地点テーブル142に基づいて、ステップS106に基づいて判定された対象者の特性である人体属性と、対象者がいる現在地点とに基づいて誘導地点を決定する。
なお、現在地点の認識方法としては、例えば認識装置20毎に位置情報を持っていれば良く、例えば、1F北口にある認識装置であったり、食品売り場入り口にある認識装置であったりと、認識装置の設置場所毎に判定することが可能である。また、対象者の位置を検出する位置検出装置を別途設けても良い。
つづいて、現在地点と、誘導地点とに基づいて、誘導表示を行う(ステップS110)。例えば、地図情報144から読み出された現在地点周辺の地図に、誘導地点への誘導表示を重畳して行う。
ここで、本実施形態では地図情報に誘導表示を重畳して行っているが、例えば別領域(別画面)に表示しても良いし、誘導表示のみを行っても良い。表示方法については、例えば誘導を希望する施設や店舗が自由に決めることとしても良い。
なお、人体認識処理(ステップS104)や、特性判定処理(ステップS106)等の処理は、対象者を検知したタイミングで1回実行される場合もあれば、所定のタイマにて割込処理(例えば、3秒毎、5秒毎)によって随時実行されても良い。
[1.4 適用例・効果]
図6を用いて本実施形態の適用例について説明する。認識装置20で対象者Pが認識されることにより、誘導表示を行う。具体的には、対象者Pが子供であることから、A玩具店に誘導表示を行っている。
このとき、画像表示装置34が投影する領域R34に、地図M102と、誘導マークM104が表示されている。
このように、本実施形態によれば、判定された対象者の特性として、人体属性に応じて、対象者をどこに誘導するかを判定し、誘導表示を行うことが可能となる。また、対象者は認識装置20で自動的に認識されるため、特別な端末装置を持つ必要も無く、予め対象者に関する情報等を入力しておく必要もない。
[2.第2実施形態]
つづいて、第2実施形態について説明する。第2実施形態は、誘導表示を予め記憶部に記憶している実施形態である。
第2実施形態の機能構成は、図2に示した第1実施形態の記憶部140を、図7の記憶部140bで置き換えた構成である。記憶部140bには、誘導表示情報146が記憶されている。
誘導表示情報146は、誘導表示する為のデータが記憶されている。例えば、図8に示すように、特性(人体特性)に対応づけて、誘導表示データが記憶されている。
誘導表示データは、画像表示装置30に表示する表示内容が記憶されている。例えば、特性(人体属性)が「大人」の場合、誘導表示データがレストラン街までを誘導表示するためのデータ(例えば、画像データや、動画データ等)が記憶されている。また、単純にテキストデータが記憶されていても良い。例えば、図8の「動物」の場合の「ペットコーナは右奥です」が記憶されており、当該メッセージが画像表示装置30に表示されることとなる。
なお、更に誘導表示情報146は、現在地点が更に対応づけて記憶されていても良い。この場合は、現在に対応した誘導表示データが表示されることとなる。
また、第2実施形態の処理の流れは、第1実施形態における図5の処理フローを、図9の処理フローに置き換えたものである。なお、第1実施形態の同一の処理については、同一の符号を付すことにより、その説明を省略する。
ステップS106により対象者の特性が判定されると、当該特性に基づいて表示メッセージ決定処理が実行され、表示メッセージが決定される(ステップS202)。具体的には、特性に対応する表示メッセージを誘導表示情報146から読み出す。そして、読み出された表示メッセージを、画像表示装置30に表示する(ステップS204)。
このように、本実施形態によれば、地図情報等を利用せずに簡易的に誘導表示を行うことが可能となる。また、直接誘導表示データが記憶されていることから、対象者の特性に適した表示を予め記憶させるといったことが可能となる。
例えば、店舗の宣伝や、イベント情報を含めた誘導表示データを記憶させることも可能である。このように付加情報も表示されることから、対象者により適切な情報を提供することが可能となり、誘導表示データを提供する側も効率良く情報を提供することが可能となる。
[3.第3実施形態]
つづいて、第3実施形態について説明する。第3実施形態は、誘導表示データを表示条件毎に記憶し、特性と表示条件に合致した誘導表示を行うものである。
第3実施形態は、第2実施形態における誘導表示情報146を、図10で置き換えたものである。図10の誘導表示情報146は、表示条件として「時間」が更に記憶されている。
例えば、対象者の特性が「子供」と判定された場合であっても、「09:00〜18:00」の間であれば「クレーンゲーム」の場所に誘導表示を行う「003.dat」を表示する。しかし、「18:00〜20:00」の間になれば、「ほごしゃのひとといっしょにはいってね」と、注意を促す「002.dat」が表示される。
このように、本実施形態によれば、特性だけに限られず、更に表示条件に適した誘導表示を行うことが可能となる。
なお、本実施形態では、表示条件として「時間」を説明したが、例えば、天候、気温、日付、祝祭日、特売情報等を利用しても良い。例えば、気温であれば、暑い日はアイスクリーム売り場に誘導表示を行ったり、雨の日は傘売り場に誘導表示を行ったりといったことが可能となる。
[4.第4実施形態]
つづいて、第4実施形態について説明する。第4実施形態は、誘導手段として、音声出力を利用した場合についての実施形態について説明する。
第4実施形態は、第1実施形態の誘導地点テーブル142を図11で置き換えたものである。図11に示すように、対象者の特性と、誘導地点と、誘導データ(音声データ)と、誘導方法とが記憶されている。
また、本実施形態の処理フローは、第1実施形態における図5で示した処理フローを図12で置き換えたものである。なお、同一の処理には同一の符号を付してその説明を省略する。
対象者の特性が判定され、誘導地点が決定したあとに(ステップS102〜ステップS108)、誘導表示を行うか否かを誘導地点テーブル142の「誘導方法」から判定する(ステップS302)。
ここで、誘導表示をする場合には(ステップS302;Yes)、誘導地点に基づいて地図情報144を利用して誘導表示を行う(ステップS304)。
また、「誘導方法」から音声出力をする場合には(ステップS306;Yes)、音声データを出力する(ステップS308)。
図13は、本実施形態における適用例を示した図である。本実施形態では、音声出力装置40(例えば、スピーカ)が更に設けられている。
本実施形態では、画像表示装置34(プロジェクタ)より、領域R34に誘導表示が投影されている。また、音声出力装置40より誘導音声が出力されている。
このように、本実施形態では、表示だけでなく音声出力等の他の出力手段によっても誘導表示を行っている。なお、本実施形態では音声出力を例に説明しているが、例えば、光を利用して誘導するといった他の方法であっても良い。
[5.第5実施形態]
つづいて、第5実施形態について説明する。第5実施形態は、画像表示装置が複数接続されている場合の実施形態について説明する。
具体的には、図14に示すように、画像表示制御部130には、画像表示装置30として、画像表示装置32と、画像表示装置34と、画像表示装置36とが接続されている。そして、図15に示すように、画像表示装置(プロジェクタ)32、34、画像表示装置(ディスプレイ)36が設けられている。更に、画像表示装置32は、表示領域R32aと、R32bとに分けて表示することが可能である。
これにより、画像表示装置32が誘導表示を投影する表示領域R32a、R32bと、画像表示装置34が誘導表示を投影する領域R34と、画像表示装置36とが本実施形態における誘導表示する場所となる。
そして、人体認識処理(ステップS104)と、対象者の特性を判定する特性判定処理(ステップS106)において、対象者の視線の向きや身長を判定する。また、この対象者の特性と、利用する画像表示装置の位置とを対応づけて記憶することにより、対象者が向いている方向に誘導表示が表示されることとなる。
また、図16に示すように、対象者が複数いる場合には、人体認識処理と、特性判定処理とを対象者毎に実行してもよい。これにより、対象者毎に適切な誘導表示を行うことが可能となる。
[6.第6実施形態]
つづいて、第6実施形態について説明する。第6実施形態は、対象者の特性として動作を記憶している。
ここで、本実施形態の機能構成は、図2に示した第1実施形態の記憶部140を、図17の記憶部140cに置き換えた構成である。
記憶部140cには、動作状態テーブル148が記憶されている。この動作状態テーブル148の構成の一例を図18にしめす。図18は、対象者の特性として、人体属性と、危険度動作状態とが記憶されている。そして、この特性に対応して、回避誘導表示データが記憶されている。
例えば、人体属性が「大人」の場合、パターン1の動作(例えば、開閉するドア付近に寄りかかったり、近すぎたりする場合)には、「ドアから離れて下さい」というメッセージが、パターン2の動作(例えば、柵から手や物等を出したり、身を乗り出したりする動作)に対応づけて、メッセージ「危険ですので手を出さないで下さい。」が記憶されている。
本実施形態の処理を図19を用いて説明する。まず、人体が検知されると(ステップS402;Yes)、人体認識処理が実行される(ステップS404)。本実施形態では、人体認識処理により、関節等に対応する特徴点がそれぞれ検出され、対象者(人体)の姿勢や、動作を判定するための特徴点の位置及び動きが認識される。
つづいて、動作状態を含めた特性判定処理が実行される(ステップS406)。具体的には、対象者の人体属性と、現在の姿勢・動きといった動作状態が認識される。そして、認識された人体属性、動作状態が危険動作状態に該当するか否かを判定する(ステップS408)。
危険動作状態は、動作状態テーブル148にパターンとして記憶されている。パターンとしては、所定の特徴点の位置範囲が記憶されていても良いし、特徴点の動きを記憶していても良い。そして、人体属性に応じて危険動作状態に該当すると判定された場合には(ステップS408;Yes)、回避誘導表示が行われる(ステップS410)。
図20及び図21は本実施形態の動作例を説明するための図である。図20は、駅のホームドアの具体例である。この場合、ホーム柵600のうち、ホームドア付近の領域M610に対象者が存在することが認識される。この場合、画像表示装置30に「ドアから離れて下さい」と表示される。
また、図21は、動物園の柵を一例として説明する図である。ここで、認識装置20は、対象者としてP1(大人)と、P2(子供)を認識している。
そして、P2の対象者の手(腕)が、柵610を超えている状態が認識される(M610)。この場合、画像表示装置30に対して、回避誘導表示として「★あぶない★手をさくのそとにださないでね!」と表示される。
ここで、P1の対象者の手が柵610を超えている状態であれば、「危険ですので手を出さないで下さい」と回避誘導表示がされる。
このように、本実施形態によれば、対象者の動作に応じた誘導表示が可能になる。また、対象者の人体属性に応じて、誘導表示を切り替えて表示するといったことも可能となるため、適切な表示がされることとなる。
[7.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
なお、上述した各実施形態は、説明の都合上処理を分けて説明しているが、可能な範囲で組み合わせて動作させても良い事は勿論である。
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。
ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバの記憶装置も本発明に含まれるのは勿論である。
また、上述した実施形態における各装置の一部又は全部を典型的には集積回路であるLSI(Large Scale Integration)として実現してもよい。各装置の各機能ブロックは個別にチップ化してもよいし、一部又は全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路又は汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能であることは勿論である。
1 :対象者誘導システム
10 :制御装置
110 :制御部
120 :認識部
130 :画像表示制御部
140 :記憶部
142 :誘導地点テーブル
144 :地図情報
20 :認識装置
30〜36 :画像表示装置

Claims (11)

  1. 対象者の特性に対応づけて、誘導地点を記憶する記憶手段と、
    対象者をセンシングして特性を判定する特性判定手段と、
    前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
    現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導手段と、
    を備え、
    前記誘導手段は、表示手段と、音声出力手段とを含み、
    前記誘導手段は、前記対象者の特性に応じて、前記表示手段で誘導表示を表示して前記対象者を誘導するか、前記音声出力手段から音声を出力することにより前記対象者を誘導するか、前記表示手段で誘導表示を表示しかつ前記音声出力手段から音声を出力することで前記対象者を誘導するかを変更することを特徴とする対象者誘導システム。
  2. 前記対象者の特性は、人の属性であることを特徴とする請求項1に記載の対象者誘導システム。
  3. 前記記憶手段は、誘導地点の位置情報を更に記憶しており、
    前記誘導手段は、前記位置情報に基づいて前記対象者に対して誘導を行うことを特徴とする請求項1又は2に記載の対象者誘導システム。
  4. 前記特性判定手段は、前記対象者の各関節の特徴点を認識し、
    前記誘導手段は、少なくとも前記対象者の顔の角度、前記対象者の向き、前記対象者の身長に基づいて、前記対象者の視線の到達する位置に前記誘導表示を表示することを特徴とする請求項1から3の何れか一項に記載の対象者誘導システム。
  5. 前記記憶手段は、地図情報を更に記憶しており、
    前記誘導手段は、前記地図情報に基づいて表示される地図に重畳して誘導表示を行うことにより、対象者を誘導することを特徴とする請求項4に記載の対象者誘導システム。
  6. 前記記憶手段は、誘導地点として画像データを記憶しており、
    前記誘導手段は、前記画像データを表示することにより対象者に対して誘導表示を行うことを特徴とする請求項4に記載の対象者誘導システム。
  7. 前記記憶手段は、更に表示条件を記憶しており、
    前記誘導手段は、前記表示条件に合致する誘導表示を行うことを特徴とする請求項4から6のいずれか一項に記載の対象者誘導システム。
  8. 対象者の特性に対応づけて、誘導地点と、音声データとを記憶する記憶手段と、
    対象者をセンシングして特性を判定する特性判定手段と、
    前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
    現在地点から、前記決定された誘導地点まで、対象者に対して前記音声データを出力することにより誘導を行う音声出力手段と、
    誘導表示を表示して前記対象者を誘導する表示手段と、
    前記対象者の特性に応じて、前記表示手段で誘導表示を表示して前記対象者を誘導するか、前記音声出力手段の音声出力で前記対象者を誘導するか、前記表示手段で誘導表示を表示しかつ前記音声出力手段の音声出力で前記対象者を誘導するかを変更する誘導手段と
    を備えることを特徴とする対象者誘導システム。
  9. 前記対象者の特性は、前記対象者が利用しているものにより区別されることを特徴とする請求項1から請求項8の何れか一項に記載の対象者誘導システム。
  10. 前記誘導手段は、前記対象者の視線の向き、前記対象者の顔の向き、前記対象者の体の向きに基づいて前記対象者の向きを認識することを特徴とする請求項4に記載の対象者誘導システム。
  11. 前記誘導手段は、前記対象者の視線の向きを前記対象者の顔の向き及び前記対象者の体の向きよりも優先し、前記対象者の顔の向きを前記対象者の体の向きよりも優先して、前記対象者の向きを認識することを特徴とする請求項10に記載の対象者誘導システム。
JP2015135657A 2015-07-06 2015-07-06 対象者誘導システム Active JP6632824B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015135657A JP6632824B2 (ja) 2015-07-06 2015-07-06 対象者誘導システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015135657A JP6632824B2 (ja) 2015-07-06 2015-07-06 対象者誘導システム

Publications (2)

Publication Number Publication Date
JP2017016588A JP2017016588A (ja) 2017-01-19
JP6632824B2 true JP6632824B2 (ja) 2020-01-22

Family

ID=57828145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015135657A Active JP6632824B2 (ja) 2015-07-06 2015-07-06 対象者誘導システム

Country Status (1)

Country Link
JP (1) JP6632824B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110383214B (zh) * 2017-03-09 2022-05-10 索尼公司 信息处理装置、信息处理方法和记录介质
WO2021048908A1 (ja) * 2019-09-10 2021-03-18 三菱電機株式会社 案内システム及び出力装置
WO2021161461A1 (ja) * 2020-02-13 2021-08-19 三菱電機株式会社 誘導システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010170229A (ja) * 2009-01-20 2010-08-05 Japan Tobacco Inc 顧客誘導システム
JP5629511B2 (ja) * 2010-07-05 2014-11-19 株式会社日立製作所 サイネージ端末とそのシステム
JP2013161145A (ja) * 2012-02-02 2013-08-19 Mitsubishi Motors Corp 歩行者誘導装置
JP5942840B2 (ja) * 2012-12-21 2016-06-29 ソニー株式会社 表示制御システム及び記録媒体
JP2014152022A (ja) * 2013-02-08 2014-08-25 Toshiba Elevator Co Ltd エレベータ装置及びエレベータシステム

Also Published As

Publication number Publication date
JP2017016588A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
US9294873B1 (en) Enhanced guidance for electronic devices using objects within in a particular area
KR102362117B1 (ko) 지도 정보를 제공하기 위한 전자 장치
Legge et al. Indoor navigation by people with visual impairment using a digital sign system
CN108293171B (zh) 信息处理设备、信息处理方法以及存储介质
CN102388406B (zh) 使用便携式电子设备记录产生三维模型
US10012505B2 (en) Wearable system for providing walking directions
US20140172640A1 (en) Augmented reality shopping game
US20160258760A1 (en) Providing directions to a location in a facility
JP7296406B2 (ja) プログラム、情報処理方法、及び情報処理端末
KR102109585B1 (ko) 건물 내 위치 기반 서비스 구현 방법, 저장 매체, 서버 및 전자 장치
US20170115749A1 (en) Systems And Methods For Presenting Map And Other Information Based On Pointing Direction
JP6632824B2 (ja) 対象者誘導システム
US20190195632A1 (en) Information processing device, information processing method, and program
US12008808B1 (en) Location tracking system using a plurality of cameras
KR20160086717A (ko) 모바일 디바이스를 구부리는 사용자 입력에 따라 기설정된 서비스를 제공하는 방법 및 모바일 디바이스
JP7287950B2 (ja) 通信方法、通信装置、およびプログラム
JP7041211B2 (ja) 画像表示制御装置、画像表示システム及びプログラム
JP2005309537A (ja) 情報提示装置
CN109565644A (zh) 用于基于位置的服务的设备
WO2017008749A1 (zh) 一种具备隐藏视像屏及多种传感器的耳机
US20150358782A1 (en) Catch the screen
JP7365456B2 (ja) 表示制御装置
EP3962118A1 (en) Interaction method employing optical communication apparatus, and electronic device
US11037332B2 (en) Systems and methods for presenting map and other information based on pointing direction
KR20200004135A (ko) 증강현실 기반의 모델하우스 가상이미지 제공방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191211

R150 Certificate of patent or registration of utility model

Ref document number: 6632824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250