JP2021036376A - 案内装置 - Google Patents

案内装置 Download PDF

Info

Publication number
JP2021036376A
JP2021036376A JP2019157884A JP2019157884A JP2021036376A JP 2021036376 A JP2021036376 A JP 2021036376A JP 2019157884 A JP2019157884 A JP 2019157884A JP 2019157884 A JP2019157884 A JP 2019157884A JP 2021036376 A JP2021036376 A JP 2021036376A
Authority
JP
Japan
Prior art keywords
unit
data
guidance
user
presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019157884A
Other languages
English (en)
Inventor
涼平 戸崎
Ryohei Tozaki
涼平 戸崎
和典 山田
Kazunori Yamada
和典 山田
祐介 丸山
Yusuke Maruyama
祐介 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba IT and Control Systems Corp
Original Assignee
Toshiba IT and Control Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba IT and Control Systems Corp filed Critical Toshiba IT and Control Systems Corp
Priority to JP2019157884A priority Critical patent/JP2021036376A/ja
Publication of JP2021036376A publication Critical patent/JP2021036376A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】電子部品により構成された部分がユーザーにより触れられにくく、容易に機能の更新を行うことができる案内装置を提供する。【解決手段】案内装置1は、ユーザーにより示された提示物Aを撮像する撮像部2と、撮像部2により撮像された提示物Aの表示内容C0を解析する画像解析部4と、画像解析部4により解析された提示物Aの表示内容C0に対応した案内データG1を選択する出力調整部5と、出力調整部5により選択された案内データG1にかかる画像G2aを投影により表示する投射部3と、を有する。【選択図】 図1

Description

本実施形態は、ユーザーを所望の方向へ案内する案内装置に関する。
表示や音声により、ユーザーを所望の方向へ案内する案内装置が知られている。
特開平9−305889号公報 特開2018−32364号公報
近年、近隣の中国、韓国、英語圏の国に加え、様々な国からの観光客が増加し、駅や施設において観光客を適切な方向へと案内するための手段が必要とされる場合が多くなった。今後も、多様な国からの観光客が増加すると想定される。特に交通網が発達していない国からの観光客は、そもそも鉄道を利用した交通手段に不慣れである場合がある。従来より鉄道会社は、紙媒体の資料や人手により交通手段の案内を行っている。しかしながら、このような人手作業による交通手段の案内は、観光客の増加にともない処理能力の限界に達するとともに、また、省力化の観点から、機械により自動で行われることが望ましい。従来から、ユーザーを所望の方向へ案内する案内装置が知られている。
しかしながら、このような案内装置は、キーボード、タッチパネルやバーコードリーダー等の入力部、液晶パネルやプリンタ等の出力部を有していた。従来技術にかかる案内装置のこれらの入力部や出力部は、電子部品により構成されており、ユーザーにより操作または触れられることにより、破壊されやすいとの問題点があった。
また、鉄道の駅における発着ホームや、観光施設における展示物等の配置は、変更される場合がある。発着ホームや展示物等の配置の変更に伴う案内先の変更や、日々の列車運行において発生する運行乱れによる案内先の変更も想定され、データの更新や機能の更新が、案内装置に必要とされる。機能の更新により、従来技術にかかる案内装置では、入力部のスイッチ類等の新たなハードウェアが必要とされる場合がある。さらに、外国からの観光客が多様化し、新たな言語により案内を行う必要性が発生する場合もある。このような場合に、案内装置のハードウェア部分に変更を加えずに、案内装置の機能を更新できることが望ましい。
本実施形態は、上記問題点を解決するために、電子部品により構成された部分がユーザーにより触れられにくく、容易に機能の更新を行うことができる案内装置を提供することを目的とする。
本実施形態の案内装置は、次のような構成を有することを特徴とする。
(1)ユーザーにより示された提示物を撮像する撮像部。
(2)前記撮像部により撮像された提示物の表示内容を解析する画像解析部。
(3)前記画像解析部により解析された前記提示物の前記表示内容に対応した案内データを選択する出力調整部。
(4)前記出力調整部により選択された案内データにかかる画像を投影により表示する投射部。
案内装置は、前記画像解析部が、予め設定された、提示物の画像にかかる学習データに基づき、機械学習により画像の類似性を判断し、前記表示内容を解析するようにしてもよい。
案内装置は、前記出力調整部により、案内にかかる言語に対応して設けられた複数の提示位置のうち、ユーザーにより前記提示物が提示されることにより選択された、前記提示位置に対応した言語により、前記案内データを出力するようにしてもよい。
案内装置は、前記投射部により、ユーザーにより前記提示物が提示される提示位置を、投射して表示するようにしてもよい。
案内装置は、前記出力調整部により、前記案内データが記憶された、インターネット上のアドレスを示すコードを、通信または表示により出力するようにしてもよい。
案内装置は、前記撮像部により、ユーザーの手の動きを撮像し、前記画像解析部により、前記撮像部により撮像されたユーザーの前記手の動きを解析し、前記出力調整部により、前記画像解析部にて解析されたユーザーの前記手の動きに基づき案内データを選択するようにしてもよい。
案内装置において、前記投射部は、キーボードにかかる映像を投影し、前記撮像部は、前記投射部により投影されたキーボードにかかる前記映像に対するユーザーによる操作を撮像し、前記画像解析部は、前記撮像部により撮像されたユーザーによる前記操作を解析し、前記出力調整部は、前記画像解析部により解析されたユーザーによる前記操作に基づき、案内データを選択するようにしてもよい。
案内装置において、前記出力調整部は、音声検出部に接続され、前記音声検出部により検出されたユーザーによる指示に基づき、案内データを選択するようにしてもよい。
案内装置は、ユーザーにより示された提示物が、紙、電子端末表示、電子データを媒体とするチケットであり、前記出力調整部により、前記チケットの前記表示内容に基づき、ユーザーを案内する方向を示す案内データを選択するようにしてもよい。
案内装置において、前記出力調整部は、運行システムとの通信を行う運行情報通信部を有し、前記運行情報通信部により前記運行システムから受信した、交通機関の発着場所の変更に関する情報、交通機関の発着時間の変更に関する情報、交通機関の事故に関する情報に基づき、前記案内データを選択するようにしてもよい。
案内装置は、前記画像解析部により、前記提示物がユーザーにより示されていないと判断されたときに、前記投射部が広告映像を投影するようにしてもよい。
第1実施形態にかかる案内装置の外観を示す斜視図 第1実施形態にかかる案内装置の構成を示す図 第1実施形態にかかる案内装置のプログラムのフローを示す図 第1実施形態にかかる案内装置の初期画面の例を示す図 第1実施形態にかかる案内装置の出力画面の例を示す図 他の実施形態にかかる案内装置の外観を示す斜視図 他の実施形態にかかる案内装置の構成を示す図
[1.第1実施形態]
[1−1.構成]
図1〜2を参照して本実施形態の一例としての案内装置1について説明する。図1に、案内装置1の外観を、図2に案内装置1の構成を示す。案内装置1は、鉄道の駅や、テーマパーク等の構内に設置され、常時、案内を希望するユーザーによる入力を受け付ける待機状態にある。本実施形態では、一例として、鉄道の駅における発着ホームを案内する案内装置1について説明する。案内装置1は、ユーザーにより示された提示物であるチケットに対応した、鉄道の駅における発着ホーム、施設、設備を、画像、音声、コードデータにより構成された案内データG1により出力し、ユ−ザーを案内する。
案内装置1において、以下の信号、データ、情報が、入力、出力、記憶される。
撮像データE1(撮像されたデータ)
表示内容C0(撮像された提示物Aの表示内容)
提示位置P0(撮像された提示物Aが提示された位置)
手の動きH0(撮像されたユーザーの手の動き)
学習データL1(提示物の画像にかかる学習データ)
表示内容データC1(提示物Aの表示内容にかかるデータ)
提示位置データP1(提示物Aの提示位置にかかるデータ)
手の動きデータH1(ユーザーの手の動きにかかるデータ)
案内データG1(案内にかかるデータ)
画像データG1a(案内にかかる画像データ)
音声データG1b(案内にかかる音声データ)
コードデータG1c(案内データG1のアドレスにかかるコードデータ)
初期画像R
提示位置R1(初期画像Rに含まれる提示位置)
提示位置R1j、R1k、R1m、R1n(提示位置R1における個別の提示位置)
ガイド部R2(初期画像Rに含まれる説明文にかかる部分)
案内出力G2(案内にかかる出力)
案内画像G2a(案内にかかる出力画像)
案内音声G2b(案内にかかる出力音声)
案内コードG2c(案内にかかるデータのアドレスコード)
提示位置P0は、ユーザーにより提示物Aが提示された提示位置である。提示位置P0は、撮像データE1に含まれる。提示位置R1は、初期画像Rにより示された提示位置である。
案内装置1は、演算部10、撮像部2、投射部3、スピーカ6、通信部7、筐体9を有する。図1に示すように演算部10、撮像部2、投射部3、スピーカ6、通信部7は筐体9に配置される。演算部10は、コンピュータ装置により構成される。筐体9は、スクリーン8を有する。演算部10は、画像解析部4、出力調整部5を有する。
画像解析部4は、処理部41、学習データ記憶部42を含む。出力調整部5は、制御部51、案内データ記憶部52を含む。画像解析部4、出力調整部5は、機能ブロックを模式的に表したものであり、演算部10の内部に、ハードウェア、またはソフトウェアモジュールにより構成される。案内装置1の機能は、演算部10に搭載されたコンピュータプログラムにより実現される。
(筐体9)
図1に示すように、筐体9は、木材等により箱状に形成された筐体である。筐体9は、6面が密閉された第1の箱状部分91、1面が開口した第2の箱状部分92により構成される。筐体9は、地表方向に配置された箱状部分91に、箱状部分92が積載されて構成される。箱状部分92は、天空方向に天板92aを、天板92aに対し垂直となる3面に側板92b、92c、92dを有する。天板92dに対し垂直となる1面は開口し、開口部92eが形成される。開口部92eに対向する面に側板92dが形成される。
箱状部分92の内部であって、天板92aに対向する箱状部分92の面92fに、テーブル状のスクリーン8が形成される。開口部92eを介し、ユーザーにより提示物Aとしてのチケットが、スクリーン8上に提示される。ユーザーは、開口部92eを介しスクリーン8上に表示された案内出力G2にかかる案内画像G2aを見て、案内先を認識する。スクリーン8に、投射部3から画像データG1aにかかる案内画像G2aが投射される。また、スクリーン8にかかる部分は、撮像部2により撮像される。
箱状部分92の天板92aに、撮像部2、投射部3が内蔵して支持される。撮像部2は、スクリーン8にかかる部分を撮像可能なように、天板92aの、箱状部分92の内側となる面に露出して配置される。投射部3は、スクリーン8に画像を投射可能なように、天板92aの、箱状部分92の内側となる面に露出して配置される。
箱状部分92の側板92bに、スピーカ6が内蔵して支持される。スピーカ6は、側板92bの箱状部分92の内側となる面に、露出して配置される。ユーザーは、スピーカ6から出力された案内出力G2にかかる案内音声G2bを聞き、案内先を認識する。
箱状部分92の側板92cに、通信部7が内蔵して支持される。通信部7は、ユーザーの所有するスマートフォン等の機器と通信可能なように、側板92cの箱状部分92の内側となる面に、露出して配置される。ユーザーは、通信部7からスマートフォン等の機器に送信された案内コードG2cにかかるコードデータG1cに基づき案内データG1にアクセスし、案内先を認識する。
箱状部分91の内部に、演算部10が配置される。
(撮像部2)
撮像部2は、CCDカメラ等により構成された撮像装置である。撮像部2は、箱状部分92の内側となる面に露出して、天板92aに内蔵して配置される。撮像部2は、画像解析部4に接続される。撮像部2は、スクリーン8にかかる部分を動画または静止画により撮像する。撮像部2は、スクリーン8上に提示された提示物Aの表示内容C0、提示位置P0を撮像する。また、撮像部2は、スクリーン8上のユーザーの手の動きH0を撮像する。撮像部2は、提示物Aの表示内容C0、提示位置P0、手の動きH0を撮像し、撮像データE1として、デジタル信号にて画像解析部4に送信する。
(投射部3)
投射部3は、光により画像を投影するプロジェクタ等により構成された装置である。投射部3は、箱状部分92の内側となる面に露出して、天板92aに内蔵して配置される。投射部3は、演算部10の出力調整部5に接続される。投射部3は、出力調整部5から出力された案内データG1にかかる画像データG1aに基づき案内画像G2aを光信号にて、スクリーン8に投射する。ユーザーは、スクリーン8上に表示された案内出力G2にかかる案内画像G2aを見て、案内先を認識する。また、投射部3は、待機時に広告映像(図中不示)を投射する。広告映像により、利用者の購買意欲が促進される。
(スピーカ6)
スピーカ6は、音声を再生する装置である。スピーカ6は、箱状部分92の内側となる面に露出して、側板92bに内蔵して配置される。スピーカ6は、出力調整部5に接続される。スピーカ6は、出力調整部5から出力された案内データG1にかかる音声データG1bに基づき、案内出力G2にかかる案内音声G2bをユーザーに対し出力する。ユーザーは、出力された案内音声G2bにより、案内先を認識する。
(通信部7)
通信部7は、無線電波または赤外線信号等による通信信号を送受信する装置である。通信部7は、箱状部分92の内側となる面に露出して、側板92cに内蔵して配置される。通信部7は、出力調整部5に接続される。通信部7は、出力調整部5から出力された案内データG1にかかるコードデータG1cに基づき、案内出力G2にかかる案内コードG2cを出力する。
コードデータG1cは、案内データG1が記憶された、インターネット上のアドレスを示すコードである。通信部7は、コードデータG1cを、無線電波または赤外線信号等による通信信号である案内コードG2cに変換し、ユーザーの所有するスマートフォン等の機器に送信する。ユーザーは、スマートフォン等の機器に送信された案内コードG2cにかかるコードデータG1cに基づき案内データG1にアクセスし、案内先を認識する。
(画像解析部4)
画像解析部4は、演算部10の内部に、ハードウェア、またはソフトウェアモジュールにより構成される。画像解析部4は、撮像部2、出力調整部5に接続される。画像解析部4は、撮像部2から撮像データE1(撮像されたデータ)を受信する。画像解析部4は、撮像データE1に基づき、提示物Aの表示内容C0および提示位置P0を解析し、表示内容データC1(提示物Aの表示内容にかかるデータ)、提示位置データP1(提示物Aの提示位置にかかるデータ)を作成し、出力調整部5に送信する。
また、画像解析部4は、撮像部2から撮像データE1を受信し、撮像データE1に基づき、ユーザーの手の動きH0を解析する。画像解析部4は、解析したユーザーの手の動きH0を手の動きデータH1(ユーザーの手の動きにかかるデータ)として出力調整部5に送信する。
画像解析部4は、処理部41、学習データ記憶部42を有する。
(学習データ記憶部42)
学習データ記憶部42は、演算部10を構成するコンピュータ装置内に、半導体メモリやハードディスクのような記憶媒体にて構成される。学習データ記憶部42は、画像解析部4の処理部41に接続される。学習データ記憶部42は、提示物Aとしてのチケットの画像を記憶する。
提示物Aとしてのチケットは、路線名称、行き先、発車ホーム、発車時刻等様々な項目が記載されており、これらの記載項目により種々のチケットが存在する。学習データ記憶部42は、種々のチケットの画像を学習データL1として記憶する。学習データL1は、提示物Aである種々のチケットの画像データである。学習データL1は、案内装置1の運転開始時等に、予め学習データ記憶部42に設定される。学習データL1は、機械学習における教師データであり、処理部41は、学習データL1に基づきを表示内容データC1の表示内容を判断する。
(処理部41)
処理部41は、演算部10の内部に、ハードウェア、またはソフトウェアモジュールにより構成される。処理部41は、個別のDSP(digital signal processor)やマイクロコンピュータ等により構成されるものであってもよい。
処理部41は、撮像部2、学習データ記憶部42、出力調整部5に接続される。処理部41の機能は、演算部10に搭載されたコンピュータプログラムにより実現される。
処理部41は、撮像部2から撮像データE1を受信する。処理部41は、学習データ記憶部42から学習データL1を受信する。処理部41は、撮像データE1に含まれたチケットの表示内容C0と、学習データL1との画像の類似性を、機械学習により判断する。処理部41は、画像の類似性により表示内容C0を解析する。処理部41は、解析された表示内容C0に基づき表示内容データC1を作成し、出力調整部5に送信する。
処理部41は、撮像データE1に含まれたチケットの提示位置P0を解析する。処理部41は、解析された提示位置P0に基づき提示位置データP1を作成し、出力調整部5に送信する。ユーザーにより提示物Aが提示された提示位置P0は、投射部3により投影された提示位置R1にかかる提示位置R1j、R1k、R1m、R1nのうちの一つである。ユーザーにより提示物Aが提示されることにより、提示位置R1j、R1k、R1m、R1nのうちの一つが選択される。提示位置R1j、R1k、R1m、R1nは、案内にかかる言語に対応して設けられる。
処理部41は、撮像データE1に含まれたユーザーの手の動きH0を解析する。処理部41は、解析されたユーザーの手の動きH0に基づき手の動きデータH1を作成し、出力調整部5に送信する。
(出力調整部5)
出力調整部5は、演算部10の内部に、ハードウェア、またはソフトウェアモジュールにより構成される。出力調整部5は、画像解析部4、投射部3、スピーカ6、通信部7に接続される。出力調整部5は、画像解析部4から表示内容データC1、提示位置データP1、手の動きデータH1を受信する。出力調整部5は、受信した表示内容データC1、提示位置データP1、手の動きデータH1に基づき、案内データG1を選択する。
提示位置R1として、案内にかかる言語に対応した複数の提示位置R1j、R1k、R1m、R1nが設けられている。出力調整部5は、提示位置データP1に基づき、複数の提示位置R1j、R1k、R1m、R1nのうち、ユーザーにより提示物Aであるチケットが提示されて選択された提示位置R1を識別し、提示位置R1に対応した言語により、案内データG1を出力する。また、出力調整部5は、処理部41から受信した手の動きデータH1に基づき案内データG1を出力する。
案内データG1は、画像データG1a(案内にかかる画像データ)、音声データG1b(案内にかかる音声データ)、コードデータG1c(案内データG1のアドレスにかかるコードデータ)により構成される。
投射部3は、画像データG1aを受信し案内画像G2a(案内にかかる出力画像)として出力する。スピーカ6は、音声データG1bを受信し案内音声G2b(案内にかかる出力音声)として出力する。通信部7は、コードデータG1cを受信し無線電波または赤外線信号等による通信信号により案内コードG2c(案内にかかるデータのアドレスコード)を出力する。また、案内コードG2cは、QRコード等のコードにより投射部3から出力される。案内画像G2a、案内音声G2b、案内コードG2cを総称して案内出力G2と呼ぶ。
出力調整部5は、制御部51、案内データ記憶部52、運行情報通信部53を有する。
(案内データ記憶部52)
案内データ記憶部52は、演算部10を構成するコンピュータ装置内に、半導体メモリやハードディスクのような記憶媒体にて構成される。案内データ記憶部52は、出力調整部5の制御部51に接続される。案内データ記憶部52は、鉄道の駅における発着ホーム、施設、設備施設、設備等へ、ユーザーを案内するデータである案内データG1(案内にかかるデータ)を記憶する。案内データG1は、案内装置1の運転開始時等に、予め案内データ記憶部52に設定される。案内データG1は、制御部51に出力される。
案内データG1は、画像データG1a(案内にかかる画像データ)、音声データG1b(案内にかかる音声データ)、コードデータG1c(案内にかかる画像データ)により構成される。
画像データG1aは、ユーザーを案内する画像のデータである。画像データG1aは、案内の対象となる経路の建造物や設備等の写真、地図等により構成される。画像データG1aには、例えば、鉄道の駅における発着ホーム等の建造物、ゲート等の施設、表示盤等の設備の画像が含まれる。複数の言語に対応した複数の画像データG1aが、予め案内データ記憶部52に記憶される。
音声データG1bは、ユーザーを案内する音声のデータである。音声データG1bは、案内の対象となる建造物や設備までの経路をガイドする音声により構成される。音声データG1bには、例えば、ユーザーを鉄道の駅における発着ホーム、施設、設備施設、設備へ案内するための音声が含まれる。複数の言語に対応した複数の音声データG1bが、予め案内データ記憶部52に記憶される。
コードデータG1cは、ユーザーを案内するためのデジタルコードが記憶されたデータである。コードデータG1cには、例えば、案内データG1のインターネット上のアドレスを示すコードが含まれる。複数の言語に対応した複数のコードデータG1cが、予め案内データ記憶部52に記憶される。
(運行情報通信部53)
運行情報通信部53は、ローカルエリア通信またはインターネット通信に対応したインターフェース回路により構成される。運行情報通信部53は、案内装置1の外部であり交通機関の管理を行う事務所等に設置された運行システムに接続される。運行情報通信部53は、運行システムから、交通機関の発着場所の変更に関する情報、交通機関の発着時間の変更に関する情報、交通機関の事故に関する情報を受信し、制御部51に送信する。
(制御部51)
制御部51は、演算部10の内部に、ハードウェア、またはソフトウェアモジュールにより構成される。制御部51は、個別のDSP(digital signal processor)やマイクロコンピュータ等により構成されるものであってもよい。
制御部51は、画像解析部4、案内データ記憶部52、運行情報通信部53、投射部3、スピーカ6、通信部7に接続される。制御部51の機能は、演算部10に搭載されたコンピュータプログラムにより実現される。
制御部51は、ユーザーにより提示物Aであるチケットが提示される提示位置R1を投射するように、投射部3を制御する。提示位置R1は、案内にかかる言語に対応して複数の提示位置R1j、R1k、R1m、R1nが設けられる。
制御部51は、画像解析部4から表示内容データC1、提示位置データP1、手の動きデータH1を受信する。制御部51は、案内データ記憶部52から案内データG1を受信する。制御部51は、表示内容データC1に基づき、画像解析部4により解析された提示物Aであるチケットの表示内容データC1に対応した案内データG1を選択する。制御部51は、案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cを選択する。
制御部51は、運行情報通信部53から運行システムにより送信された、交通機関の発着場所の変更に関する情報、交通機関の発着時間の変更に関する情報、交通機関の事故に関する情報を運行情報通信部53から受信する。制御部51は、交通機関の発着場所の変更に関する情報、交通機関の発着時間の変更に関する情報、交通機関の事故に関する情報に基づき、案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cを選択する。
制御部51は、受信した提示位置データP1に基づき、複数の提示位置R1j、R1k、R1m、R1nのうち、ユーザーにより提示物Aであるチケットが提示されて選択された提示位置R1を識別し、提示位置R1に対応した言語により、案内データG1を出力する。複数の提示位置R1j、R1k、R1m、R1nのうち、ユーザーにより提示物Aが提示された提示位置R1より、言語が選択される。
制御部51は、受信した手の動きデータH1に基づき案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cを選択する。
制御部51は、画像データG1aにかかる案内画像G2aを投射するように、投射部3を制御する。制御部51は、音声データG1bにかかる案内音声G2bを出力するように、スピーカ6を制御する。制御部51は、コードデータG1cにかかる案内コードG2cを出力するように、通信部7および投射部3を制御する。
以上が、案内装置1の構成である。
[1−2.作用]
本実施形態の案内装置1の作用を、図1〜図5に基づき説明する。一例として本実施形態では、図1に示す案内装置1が、鉄道の駅舎内に配置された場合について説明する。
(画像撮像装置1の動作概要)
案内装置1は、初期状態において図4に示す初期画像Rを投射部3からスクリーン8に投射する。初期画像Rには、図4に示すように提示物Aを提示する位置を示す提示位置R1、説明文を表示するガイド部R2が含まれる。ガイド部R2の説明文により案内装置1の取り扱い方法が示される。
提示位置R1は、案内においてユーザーが希望する言語に応じた複数の提示位置R1j、R1k、R1m、R1nを含む。提示位置R1j、R1k、R1m、R1nのいずれか一か所に、ユーザーにより提示物Aが提示される。一例として、日本語の案内を希望するユーザーにより提示位置R1jに、英語の案内を希望するユーザーにより提示位置R1kに、中国語の案内を希望するユーザーにより提示位置R1mに、韓国語の案内を希望するユーザーにより提示位置R1nに、提示物Aが提示される。提示位置R1により、提示物Aの提示される位置および方向がユーザーに対し指示され、案内装置1は画像解析を行い易くなる。
案内装置1の撮像部2は常時、スクリーン8にかかる部分を撮像する。撮像部2により撮像された撮像データE1に基づき、スクリーン8上にユーザーにより提示位置R1に提示物Aが提示されたと判断した場合、案内装置1は、提示物Aの表示内容C0を解析する。案内装置1は、提示物Aの表示内容C0に基づき、予め設定されたユーザーを案内するためのデータである案内データG1を選択する。
案内データG1は、運行情報通信部53を介し運行システムから受信した、交通機関の発着場所の変更に関する情報、交通機関の発着時間の変更に関する情報、交通機関の事故に関する情報に基づき選択される。例えば鉄道の事故等により列車の発着ホームの変更があった場合、交通機関の発着場所の変更に関する情報に含まれた列車の発着ホームに基づき案内先が判断され、判断された案内先に対応した案内データG1が選択される。
また、案内装置1は、撮像部2により撮像された撮像データE1に基づき、ユーザーにより提示物Aが提示された位置が、提示位置R1における提示位置R1j、R1k、R1m、R1nのいずれであるかを解析する。言語に対応して設けられた複数の提示位置R1j、R1k、R1m、R1nのうちの1か所に、ユーザーにより提示物Aが提示され、案内にかかる言語が選択される。案内装置1は、選択された案内言語にかかる案内データG1を選択する。
案内装置1は、選択された案内データG1にかかる画像データG1aに基づき案内画像G2aを投射部3からスクリーン8に投射して出力する。図5に案内画像G2aの一例を示す。また、案内装置1は、案内データG1にかかる音声データG1bに基づき案内音声G2bをスピーカ6から出力し、案内データG1にかかるコードデータG1cに基づき案内コードG2cを通信部7および投射部3から出力する。ユーザーにより提示物Aが提示位置R1に提示されている間、案内データG1にかかる画像データG1a、案内音声G2b、案内コードG2cは、継続して出力される。
例えば、ユーザーにより提示物Aが提示位置R1jに提示された場合、日本語により、提示位置R1kに提示された場合、英語により、提示位置R1mに提示された場合、中国語により、提示位置R1nに提示された場合、韓国語により、選択された案内データG1に基づき、案内出力G2にかかる案内画像G2a、案内音声G2b、案内コードG2cが出力される。
また、案内装置1は、撮像部2により撮像されたデータである撮像データE1に基づき、ユーザーによる手の動きH0を解析する。案内装置1は、解析した手の動きH0に基づき案内データG1を選択し、案内出力G2にかかる案内画像G2a、案内音声G2b、案内コードG2cを出力する。
例えば解析により、ユーザーによる手の動きが左から右へ動くものである場合、ユーザーを案内する経路の、次の候補となる案内データG1を選択する。案内装置1は、次の候補となる案内データG1に基づき、案内出力G2にかかる案内画像G2a、案内音声G2b、案内コードG2cを出力する。
例えば解析により、ユーザーによる手の動きが右から左へ動くものである場合、ユーザーを案内する経路の、前の候補となる案内データG1を選択する。案内装置1は、前の候補となる案内データG1に基づき、案内出力G2にかかる案内画像G2a、案内音声G2b、案内コードG2cを出力する。
案内装置1は、撮像部2により撮像されたデータである撮像データE1に基づき、ユーザーによりスクリーン8上の提示位置R1から提示物Aが除かれたと判断した場合、ユーザーを案内する案内出力G2にかかる案内画像G2a、案内音声G2b、案内コードG2cの出力を中止し、初期画像Rを投射部3からスクリーン8に投射する。
以上が、案内装置1の動作概要である。
(画像撮像装置1の動作詳細)
案内装置1の具体的な動作は、図3に示すプログラムにより実現される。図3に示すプログラムは、演算部10に内蔵され、画像解析部4、出力調整部5の動作を制御する。
案内装置1の撮像部2は常時、スクリーン8にかかる部分を撮像する。撮像部2により撮像にかかる撮像データE1は、常時、撮像部2から画像解析部4の処理部41に送信される。撮像部2は、ユーザーにより提示された提示物Aの表示内容C0、提示物Aが提示された提示位置P0、ユーザーの手の動きH0を含め、撮像する。撮像データE1には、表示内容C0、提示位置P0、手の動きH0が含まれる。
(ステップS01:初期画像Rを投射させる)
演算部10は、出力調整部5の制御部51により、投射部3から初期画像Rを投射させる。初期画像Rは、投射部3からスクリーン8に投射される。初期画像Rには、図4に示すように提示物Aを提示する位置を示す提示位置R1、説明文を表示するガイド部R2が含まれる。ガイド部R2の説明文により案内装置1の取り扱い方法が示される。提示位置R1は、初期画像Rにより示された提示位置である。
提示位置R1は、複数の提示位置R1j、R1k、R1m、R1nを含む。提示位置R1j、R1k、R1m、R1nは、案内においてユーザーが希望する言語に対応して設けられる。日本語の案内を希望する場合、提示位置R1jに、英語の案内を希望する場合、提示位置R1kに、中国語の案内を希望する場合、提示位置R1mに、韓国語の案内を希望する場合、提示位置R1nに、ユーザーにより提示物Aが提示される。提示位置R1により、提示物Aを提示する位置および方向がユーザーに対し指示され、案内装置1は画像解析を行い易くなる。
また、投射部3は、待機時に、広告映像(図中不示)を初期画像Rに含めて投射するようにしてもよい。演算部10は、画像解析部4により、提示物Aがユーザーにより示されていないと判断されたときに、投射部3に広告映像を投影させる。広告映像により、利用者の購買意欲が促進される。
(ステップS02:提示物Aが提示されているか判断する)
次に演算部10は、画像解析部4の処理部41により、スクリーン8の提示位置R1にユーザーにより提示物Aが提示されたかの判断を行う。画像解析部4の処理部41は、撮像部2から撮像データE1を受信し、スクリーン8上の提示位置R1j、R1k、R1m、R1nのいずれか1か所に、提示物Aが提示されているかの判断を行う。
スクリーン8の提示位置R1に提示物Aが提示されていると判断した場合(ステップS02のYES)、プログラムは、ステップS03に移行する。スクリーン8の提示位置R1に提示物Aが提示されていると判断しない場合(ステップS02のNO)、プログラムは、ステップS01に移行し、提示物Aが提示されることの待ち状態となる。
(ステップS03:表示内容C0の解析を行い、表示内容データC1を送信する)
次に演算部10は、画像解析部4の処理部41により、ステップS02で提示位置R1に提示されている提示物Aの表示内容C0の解析を行う。解析は、提示物Aであるチケットの特徴部分C0aについて重点的に行われる。学習データ記憶部42に、提示物の画像にかかる学習データL1が予め設定され、記憶されている。画像解析部4の処理部41は、学習データL1に基づき、機械学習により画像の類似性を判断し、表示内容C0を解析する。
学習データ記憶部42は、ユーザーにより提示物Aとして提示されるチケットの画像を複数記憶している。提示物Aとしてのチケットは、路線名称、行き先、発車ホーム、発車時刻等様々な項目が記載されており、これらの記載項目により種々のチケットが存在する。学習データ記憶部42は、種々のチケットの画像を学習データL1として記憶している。学習データL1は、提示物Aである種々のチケットの画像データである。学習データL1は、機械学習における教師データである。
画像解析部4の処理部41は、ステップS02で提示位置R1に提示されている提示物Aにかかる撮像データE1を撮像部2から受信する。画像解析部4の処理部41は、提示物Aであるチケットにおける、路線名称、行き先、発車ホーム、発車時刻等の項目が表示された撮像データE1の部分を画像として認識し、この撮像データE1の部分と最も類似する、学習データ記憶部42に記憶された学習データL1を選択する。
画像解析部4の処理部41は、選択された学習データL1に基づき、ユーザーにより提示されている提示物Aの表示内容C1を示す、表示内容データC1を作成する。具体的には、選択された学習データL1に基づき、チケットにおける、路線名称、行き先、発車ホーム、発車時刻等の項目が読み取られ、または選択された学習データL1に添付された路線名称、行き先、発車ホーム、発車時刻等の項目にかかるデータに基づき、表示内容データC1が作成される。画像解析部4の処理部41は、作成した表示内容データC1を、出力調整部5の制御部51に送信する。
(ステップS04:提示位置P0の解析を行い、提示位置データP1を送信する)
次に演算部10は、画像解析部4の処理部41により、ステップS02でユーザーにより提示物Aであるチケットが提示されている提示位置P0の解析を行う。提示物Aであるチケットが提示された提示位置P0は、投射部3によりスクリーン8に投射された提示位置R1にかかる提示位置R1j、R1k、R1m、R1nのうちのいずれか1つであるか、判断される。
提示位置R1は、案内にかかる言語に対応して複数設けられる。日本語を所望するユーザーにより提示位置R1jに、英語を所望するユーザーにより提示位置R1kに、中国語を所望するユーザーにより提示位置R1mに、韓国語を所望するユーザーにより提示位置R1nに、提示物Aが提示される。画像解析部4の処理部41は、ユーザーによりチケットが提示された提示位置P0を解析し、提示位置データP1として出力調整部5に送信する。提示位置データP1は、提示物Aであるチケットが、提示位置R1j、R1k、R1m、R1nのいずれに提示されたかを示す。
(ステップS05:手の動きH0の解析を行い、手の動きデータH1を送信する)
次に演算部10は、画像解析部4の処理部41により、撮像部2により撮像された撮像データE1に基づき、ユーザーの手の動きH0の解析を行う。画像解析部4の処理部41は、ユーザーの手の動きH0を検出した場合、手の動きH0が左から右へ動くものであるか、右から左へ動くものであるかの解析を行う。
画像解析部4の処理部41は、ユーザーの手の動きH0を解析し、手の動きデータH1として出力調整部5に送信する。手の動きデータH1は、ユーザーの手の動きH0が、左から右へ動くものであるか、右から左へ動くものであるかを示す。ユーザーの手の動きH0が、左から右へ動くもの、または右から左へ動くものでない場合、もしくはユーザーの手が検出されなかった場合、手の動きデータH1として「NULLデータ」が、出力調整部5に送信される。
(ステップS06:表示内容データC1に対応した案内データG1を選択する)
次に演算部10は、出力調整部5の制御部51により、画像解析部4の処理部41から送信された表示内容データC1に基づき案内データG1を選択する。案内データG1は、鉄道の駅における発着ホーム、施設、設備施設、設備等へ、ユーザーを案内するデータである。案内データG1は、案内装置1の運転開始時等に、予め案内データ記憶部52に設定されている。
また、案内データG1は、運行情報通信部53を介し運行システムから受信した、交通機関の発着場所の変更に関する情報、交通機関の発着時間の変更に関する情報、交通機関の事故に関する情報に基づき選択される。例えば鉄道の事故等により列車の発着ホームの変更があった場合、交通機関の発着場所の変更に関する情報に含まれた列車の発着ホームに基づき案内先が判断され、判断された案内先に対応した案内データG1が選択される。
案内データG1は、画像データG1a(案内にかかる画像データ)、音声データG1b(案内にかかる音声データ)、コードデータG1c(案内にかかる画像データ)により構成される。
画像データG1aは、画像のデータであり、案内の対象となる経路の建造物や設備等の写真、地図等により構成される。画像データG1aには、例えば、鉄道の駅における発着ホーム等の建造物、ゲート等の施設、表示盤等の設備の、複数の言語による画像が含まれる。
音声データG1bは、ユーザーを案内する音声のデータである。音声データG1bは、案内の対象となる経路の建造物や設備等をガイドする、音声により構成される。音声データG1bには、例えば、ユーザーを鉄道の駅における発着ホーム、施設、設備施設、設備へ案内するための、複数の言語による音声が含まれる。
コードデータG1cは、ユーザーを案内するためのデジタルコードが記憶されたデータである。コードデータG1cには、例えば、案内データG1のインターネット上のアドレスを示すコードが含まれる。コードデータG1cとして、予め設定された複数の言語に対応した複数のデータが含まれる。
出力調整部5の制御部51は、表示内容データC1に基づき、ユーザーを目的地に案内するために必要である案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cを選択する。案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cは複数選択されることが望ましい。出力調整部5の制御部51は、案内装置1が設置された現在地から目的地までの間に存在する中間地点までの、案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cを順序だてて選択するようにしてもよい。
(ステップS07:提示位置データP1に対応した言語の案内データG1を選択する)
次に演算部10は、出力調整部5の制御部51により、ステップS06にて選択された、複数の言語により構成された案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cのうち、画像解析部4の処理部41から送信された提示位置データP1に基づき、提示位置データP1に対応した言語による案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cを選択する。
ステップS06にて選択された案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cは、複数の言語により構成されている。ステップS04にて送信された提示位置データP1は、提示物Aであるチケットが提示位置R1j、R1k、R1m、R1nのうちのいずれに提示されたかを示す。
出力調整部5の制御部51は、提示位置データP1が提示位置R1jに提示されたことを示す場合に日本語による、提示位置R1kに提示されたことを示す場合に英語による、提示位置R1mに提示されたことを示す場合に中国語による、提示位置R1nに提示されたことを示す場合に韓国語による案内データG1にかかる画像データG1a、音声データG1b、コードデータG1cを選択する。
(ステップS08:選択した案内データG1にかかる案内出力G2を出力する)
次に演算部10は、出力調整部5の制御部51により、ステップS06にて選択された案内データG1に基づき、ステップS07にて選択された言語により案内出力G2を出力させる。
出力調整部5の制御部51は、選択された言語にかかる画像データG1aを投射部3に送信し、案内画像G2aとして出力させる。出力調整部5の制御部51は、選択された言語にかかる音声データG1bをスピーカ6に送信し、案内音声G2bとして出力させる。出力調整部5の制御部51は、選択された言語にかかるコードデータG1cを通信部7に送信し無線電波または赤外線信号等による通信信号により案内コードG2cを出力させる。また、出力調整部5の制御部51は、選択された言語にかかるコードデータG1cを、QRコード等のコードにより投射部3から出力させる。なお、出力調整部5の制御部51は、初期画像Rにおける提示位置R1を継続して出力するように、投射部3を制御する。
(ステップS09:手の動きデータH1に応じた案内出力G2を出力する)
次に演算部10は、出力調整部5の制御部51により、ステップS05にて送信された手の動きデータH1を受信し、手の動きデータH1に応じ、案内データG1にかかる画像データG1a、音声データG1b、コードデータG1c選択し、案内出力G2を出力させる。
手の動きデータH1が、ユーザーの手の動きH0が、左から右へ動くものであることを示す場合、出力調整部5の制御部51は、現在出力している案内データG1に代替し、次の候補となる案内データG1を出力し、案内出力G2にかかる案内画像G2a、案内音声G2b、案内コードG2cを出力させる。
手の動きデータH1が、ユーザーの手の動きH0が、右から左へ動くものであることを示す場合、出力調整部5の制御部51は、現在出力している案内データG1に代替し、前の候補となる案内データG1を出力し、案内出力G2にかかる案内画像G2a、案内音声G2b、案内コードG2cを出力させる。
出力調整部5の制御部51は、次の候補、または前の候補にかかる画像データG1aを投射部3に送信し、案内画像G2aとして出力させる。出力調整部5の制御部51は、次の候補、または前の候補にかかる音声データG1bをスピーカ6に送信し、案内音声G2bとして出力させる。出力調整部5の制御部51は、次の候補、または前の候補にかかるコードデータG1cを通信部7に送信し無線電波または赤外線信号等による通信信号により案内コードG2cを出力させる。また、出力調整部5の制御部51は、次の候補、または前の候補にかかるコードデータG1cを、QRコード等のコードにより投射部3から出力させる。
手の動きデータH1が、「NULLデータ」である場合、出力調整部5の制御部51は、現在出力している案内データG1に基づき、継続して案内画像G2a、案内音声G2b、案内コードG2cを出力させる。
ユーザーにより提示物Aであるチケットが、スクリーン8の提示位置R1から外された場合、繰り返し実行されるステップS02により、スクリーン8の提示位置R1に提示物Aが提示されていると判断されず(ステップS02のNO)、プログラムは、ステップS01に移行し、提示物Aが提示されることの待ち状態となる。
以上が、案内装置1の動作詳細である。
[1−3.効果]
(1)本実施形態によれば、案内装置1は、ユーザーにより示された提示物Aを撮像する撮像部2と、撮像部2により撮像された提示物Aの表示内容C0を解析する画像解析部4と、画像解析部4により解析された提示物Aの表示内容C0に対応した案内データG1を選択する出力調整部5と、出力調整部5により選択された案内データG1にかかる画像G2aを投影により表示する投射部3と、を有するので、電子部品により構成された部分がユーザーにより触れられにくく、容易に機能の更新を行うことができる案内装置1を提供することができる。
本実施形態にかかる案内装置1によれば、撮像部2により撮像されることにより、ユーザーにより示された提示物Aの内容が入力され、撮像された提示物Aの表示内容C0に対応して案内データG1にかかる画像G2aが投射部3により投影されて出力されるので、ユーザーにより電子部品等により構成された入力部、出力部を操作されることなく提示物Aの内容が入力され、案内データG1にかかる画像G2aが出力される。これにより、ユーザーにより操作されることにより案内装置1が劣化することを軽減することができる。
また、本実施形態にかかる案内装置1によれば、撮像部2により撮像されることにより、ユーザーにより示された提示物Aの内容が入力され、撮像された提示物Aの表示内容C0に対応して案内データG1にかかる画像G2aが投射部3により投影されて出力される。したがって、案内装置1に内蔵されるコンピュータプログラムを変更することにより、容易に機能の更新を行うことができる
例えば、案内先への経路中の売店の表示が必要とされる場合、経路中の売店の表示を行う機能を有するコンピュータプログラムを案内装置1に記憶させることにより、容易に機能の更新を行うことができる。
(2)本実施形態によれば、案内装置1の画像解析部4は、予め設定された、提示物の画像にかかる学習データL1に基づき、機械学習により画像の類似性を判断し、提示物Aの表示内容C0を解析するので、ユーザーにより電子部品等により構成された入力部を操作されることなく提示物Aの内容が入力され、案内データG1にかかる画像G2aが出力される。これにより、ユーザーにより操作されることにより案内装置1が劣化することを軽減することができる。
また、本実施形態にかかる案内装置1によれば、画像解析部4は、提示物の画像にかかる学習データL1に基づき、機械学習により画像の類似性を判断し、提示物の表示内容C0を解析するので、学習データL1を更新することにより、様々な提示物Aの表示内容C0を解析することができる。例えば、パンフレットや写真、またはスマートフォン等の機器に表示された画像を学習データL1として案内装置1に記憶させることにより、これらの画像にかかる提示物Aの表示内容C0を解析することができる。
(3)本実施形態によれば、案内装置1の出力調整部5は、案内にかかる言語に対応して設けられた複数の提示位置R1のうち、ユーザーにより前記提示物Aが提示されることにより選択された、提示位置R1に対応した言語により、案内データG1を出力するので、様々な言語によりユーザーを案内することができる。
また、複数の提示位置R1が言語に対応して設けられており、ユーザーにより電子部品等により構成された入力部を操作されることなく、様々な言語が選択される。これにより、ユーザーにより操作されることにより案内装置1が劣化することを軽減することができる。
(4)本実施形態によれば、案内装置1の投射部3は、ユーザーにより提示物Aが提示される提示位置R1を、投射して表示するので、ユーザーにより電子部品等により構成された入力部を操作されることなく提示物Aの内容が入力され、ユーザーにより操作されることにより案内装置1が劣化することを軽減することができる。
また、提示物Aが提示される位置および方向が、投射部3による投射によりユーザーに対し指示され、提示位置R1に提示物Aが提示されるので、案内装置1は画像解析を行い易くなる。
また、提示物Aが提示される提示位置R1が、投射により表示されるので、案内装置1のコンピュータプログラムを変更することにより、提示位置R1の変更を容易に行うことができる。
(5)本実施形態によれば、案内装置1の出力調整部5は、案内データG1が記憶された、インターネット上のアドレスを示すコードを、通信または表示により出力するので、ユーザーは案内装置1から離間した場所で、案内を確認することができる。
(6)本実施形態によれば、案内装置1の撮像部2は、ユーザーの手の動きH0を撮像し、画像解析部4は、撮像部2により撮像されたユーザーの手の動きH0を解析し、出力調整部5は、画像解析部4により解析されたユーザーの手の動きH0に基づき案内データG1を選択するので、ユーザーにより電子部品等により構成された入力部を操作されることなく案内データG1にかかる案内出力G2が選択され、ユーザーにより操作されることにより案内装置1が劣化することを軽減することができる。
また、ユーザーの手の動きH0に基づき案内データG1が選択され案内出力G2が出力されるので、案内装置1のコンピュータプログラムを変更することにより、ユーザーによる手の動きH0の種類、および手の動きH0に対応して選択される案内データG1の変更を容易に行うことができる。
[2.他の実施形態]
変形例を含めた実施形態を説明したが、これらの実施形態は例として提示したものであって、発明の範囲を限定することを意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略や置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。以下は、その一例である。
(1)上記実施形態では、学習データ記憶部42は、演算部10を構成するコンピュータ装置内に構成されるものとしたが、学習データ記憶部42は、演算部10を構成するコンピュータ装置の外部に構成され、通信線等により処理部41に接続されるものであってもよい。
(2)上記実施形態では、案内データ記憶部52は、演算部10を構成するコンピュータ装置内に構成されるものとしたが、案内データ記憶部52は、演算部10を構成するコンピュータ装置の外部に構成され、通信線等により制御部51に接続されるものであってもよい。
(3)上記実施形態では、提示物Aであるチケットの画像が撮像部2により撮像され、学習データ記憶部42は、提示物Aである種々のチケットの画像データを学習データL1として記憶し、処理部41は、学習データ記憶部42に記憶された種々のチケットの画像データである学習データL1に基づき、提示物Aの内容を判断し、表示内容を判断するものとした。
しかしながら、撮像部2により撮像される提示物Aは、チケットに限られない、撮像部2により撮像される提示物Aは、パンフレットや写真、またはスマートフォン等の機器に表示された画像であってもよい。
また、学習データ記憶部42に記憶される学習データL1は、チケットの画像データに限られず、パンフレットや写真、またはスマートフォン等の機器に表示された画像であってもよい。学習データ記憶部42は、提示物Aであるこれらの種々の画像データを学習データL1として記憶し、処理部41は、学習データ記憶部42に記憶された種々の学習データL1に基づき類似性を判断し、提示物Aの表示内容を判断するものとしてもよい。
(4)上記実施形態では、ユーザーの手の動きH0として、左から右への手の動き、右から左への手の動きを検出するものとした。しかしながら、ユーザーの手の動きH0として検出される動きはこれに限られない。左から右への手の動き、右から左への手の動き以外の、例えば上下の手の動きを手の動きH0として検出するものであってもよい。
(5)上記実施形態では、画像解析部4によりユーザーによる手の動きH0が解析され、ユーザーによる手の動きH0により、ユーザーを案内する経路の次の候補または前の候補となる案内データG1が選択されるものとしたが、選択される対象はこれに限られない。画像解析部4によりユーザーによる手の動きH0が解析され、ユーザーによる手の動きH0により、案内における行程中の各ポイントにおける詳細画像、画像の視点、案内にかかる言語が選択されるようにしてもよい。
(6)上記実施形態では、箱状部分92の内部の天板92aに対向する箱状部分92の面92fに、テーブル状のスクリーン8が形成され、スクリーン8に案内データG1にかかる画像データG1aが投射されるものとしたが、案内データG1にかかる画像データG1aが投射される部分はこれに限られない。図6の(A)に示すように、側板92dの内側にスクリーン8を設け、案内データG1にかかる画像データG1aは、側板92dの内側に設けられたスクリーン8に投射されるようにしてもよい。
また、図6の(B)に示すように、箱状部分92の面92fは斜面92gを有し、斜面92gにスクリーン8を設け、案内データG1にかかる画像データG1aは、このスクリーン8に投射されるようにしてもよい。または、案内データG1にかかる画像データG1aは、駅舎等の施設や設備の、壁面または天井面に投射されるようにしてもよい。
いずれの場合であっても、ユーザーにより提示された提示物Aが滑り落ちることを防止するために、提示位置R1を示す画像は、箱状部分92の面92fの大地と平行となる面に投射されることが望ましい。
(7)上記実施形態では、画像解析部4と出力調整部5は、個別に構成されるものとしたが、画像解析部4と出力調整部5は、一体に構成されるものであってもよい。
(8)上記実施形態では、出力調整部5の制御部51は、画像データG1aを投射部3に送信し、案内画像G2aとして出力させ、音声データG1bをスピーカ6に送信し、案内音声G2bとして出力させ、コードデータG1cを通信部7に送信し案内コードG2cを出力させるものとした。しかしながら、出力調整部5の制御部51は、案内画像G2a、案内音声G2b、案内コードG2cのうちユーザーにより選択されたものを出力させるようにしてもよい。
(9)上記実施形態に加え、案内装置1は、投射部3により投射された映像によるキーボードがユーザーにより操作され、情報が入力されるものであってもよい。ユーザーにより操作され入力される情報は、目的地、設備名称等である。案内装置1の投射部3は、キーボードにかかる映像を投影し、撮像部2は、投射部3により投影されたキーボードにかかる映像に対するユーザーによる操作を撮像する。画像解析部4は、撮像部2により撮像されたユーザーによる操作を解析し、出力調整部5は、画像解析部4により解析されたユーザーによる前記操作に基づき、案内データを選択する。
(10)上記実施形態に加え、図7に示すように出力調整部5は、音声検出部54に接続され、ユーザーにより音声にて、情報が入力されるものであってもよい。ユーザーにより入力される情報は、目的地、設備名称等である。音声検出部54はマイクおよびDSP等の音声解析演算素子により構成され、ユーザーにより入力された音声にかかる情報をデジタルデータに変換し、出力調整部5の制御部51に送信する。出力調整部5の制御部51は、音声検出部54により検出されたユーザーによる指示に基づき、案内データを選択する。
1・・・案内装置
2・・・撮像部
3・・・投射部
4・・・画像解析部
5・・・出力調整部
6・・・スピーカ
7・・・通信部
8・・・スクリーン
9・・・筐体
10・・・演算部
41・・・処理部
42・・・学習データ記憶部
51・・・制御部
52・・・案内データ記憶部
53・・・運行情報通信部
54・・・音声検出部
91・・・箱状部分
92・・・箱状部分
92a・・・天板
92b,92c,92d・・・側板
92e・・・開口部
92f・・・面
92g・・・斜面

Claims (11)

  1. ユーザーにより示された提示物を撮像する撮像部と、
    前記撮像部により撮像された前記提示物の表示内容を解析する画像解析部と、
    前記画像解析部により解析された前記提示物の前記表示内容に対応した案内データを選択する出力調整部と、
    前記出力調整部により選択された案内データにかかる画像を投影により表示する投射部と、を有する、
    案内装置。
  2. 前記画像解析部は、予め設定された、提示物の画像にかかる学習データに基づき、機械学習により画像の類似性を判断し、前記表示内容を解析する、
    請求項1に記載の案内装置。
  3. 前記出力調整部は、案内にかかる言語に対応して設けられた複数の提示位置のうち、ユーザーにより前記提示物が提示されることにより選択された、前記提示位置に対応した言語により、前記案内データを出力する、
    請求項1または2に記載の案内装置。
  4. 前記投射部は、ユーザーにより前記提示物が提示される提示位置を、投射して表示する、
    請求項1乃至3のいずれか1項に記載の案内装置。
  5. 前記出力調整部は、前記案内データが記憶された、インターネット上のアドレスを示すコードを、通信または表示により出力する、
    請求項1乃至4のいずれか1項に記載の案内装置。
  6. 前記撮像部は、ユーザーの手の動きを撮像し、
    前記画像解析部は、前記撮像部により撮像されたユーザーの前記手の動きを解析し、
    前記出力調整部は、前記画像解析部により解析されたユーザーの前記手の動きに基づき案内データを選択する、
    請求項1乃至5のいずれか1項に記載の案内装置。
  7. 前記投射部は、キーボードにかかる映像を投影し、
    前記撮像部は、前記投射部により投影されたキーボードにかかる前記映像に対するユーザーによる操作を撮像し、
    前記画像解析部は、前記撮像部により撮像されたユーザーによる前記操作を解析し、
    前記出力調整部は、前記画像解析部により解析されたユーザーによる前記操作に基づき、案内データを選択する、
    請求項1乃至6のいずれか1項に記載の案内装置。
  8. 前記出力調整部は、音声検出部に接続され、前記音声検出部により検出されたユーザーによる指示に基づき、案内データを選択する、
    請求項1乃至7のいずれか1項に記載の案内装置。
  9. ユーザーにより示された提示物は、紙、電子端末表示、電子データを媒体とするチケットであり、
    前記出力調整部は、前記チケットの前記表示内容に基づき、ユーザーを案内する方向を示す画像データを選択する、
    請求項1乃至8のいずれか1項に記載の案内装置。
  10. 前記出力調整部は、運行システムとの通信を行う運行情報通信部を有し、前記運行情報通信部により前記運行システムから受信した、交通機関の発着場所の変更に関する情報、交通機関の発着時間の変更に関する情報、交通機関の事故に関する情報に基づき、前記案内データを選択する、
    請求項1乃至9のいずれか1項に記載の案内装置。
  11. 前記画像解析部により、前記提示物がユーザーにより示されていないと判断されたときに、前記投射部は、広告映像を投影する、
    請求項1乃至10のいずれか1項に記載の案内装置。

JP2019157884A 2019-08-30 2019-08-30 案内装置 Pending JP2021036376A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019157884A JP2021036376A (ja) 2019-08-30 2019-08-30 案内装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019157884A JP2021036376A (ja) 2019-08-30 2019-08-30 案内装置

Publications (1)

Publication Number Publication Date
JP2021036376A true JP2021036376A (ja) 2021-03-04

Family

ID=74716777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019157884A Pending JP2021036376A (ja) 2019-08-30 2019-08-30 案内装置

Country Status (1)

Country Link
JP (1) JP2021036376A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511618A (ja) * 1998-04-10 2002-04-16 ミネソタ マイニング アンド マニュファクチャリング カンパニー 図書館等のための端末
JP2010015105A (ja) * 2008-07-07 2010-01-21 Mitsubishi Electric Corp 旅客案内装置
JP2016062390A (ja) * 2014-09-19 2016-04-25 カシオ計算機株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017003444A (ja) * 2015-06-11 2017-01-05 大日本印刷株式会社 案内情報表示装置、案内情報表示システム、及びプログラム
JP2017174222A (ja) * 2016-03-24 2017-09-28 カシオ計算機株式会社 案内出力装置、案内出力方法及びプログラム
JP2018169504A (ja) * 2017-03-30 2018-11-01 株式会社バカン デジタルサイネージ制御装置及びデジタルサイネージシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511618A (ja) * 1998-04-10 2002-04-16 ミネソタ マイニング アンド マニュファクチャリング カンパニー 図書館等のための端末
JP2010015105A (ja) * 2008-07-07 2010-01-21 Mitsubishi Electric Corp 旅客案内装置
JP2016062390A (ja) * 2014-09-19 2016-04-25 カシオ計算機株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017003444A (ja) * 2015-06-11 2017-01-05 大日本印刷株式会社 案内情報表示装置、案内情報表示システム、及びプログラム
JP2017174222A (ja) * 2016-03-24 2017-09-28 カシオ計算機株式会社 案内出力装置、案内出力方法及びプログラム
JP2018169504A (ja) * 2017-03-30 2018-11-01 株式会社バカン デジタルサイネージ制御装置及びデジタルサイネージシステム

Similar Documents

Publication Publication Date Title
US11257143B2 (en) Method and device for simulating a virtual out-of-box experience of a packaged product
JP5026079B2 (ja) プレゼンテーションシステム
WO2011149092A1 (ja) 携帯電子機器及び画像投影ユニット
CN101006415B (zh) 具有投影仪装置的电子设备
JP4664665B2 (ja) デジタルプラットフォーム装置
US20060020513A1 (en) System and method for providing information
CN105700803A (zh) 信息输出控制装置
CN112015836A (zh) 导航地图显示方法及装置
CN103970451A (zh) 用于控制内容播放的方法和设备
JP5657471B2 (ja) デジタルプラットフォーム装置
JP2021036376A (ja) 案内装置
JP6149825B2 (ja) 車両用操作装置
JP2016048301A (ja) 電子機器
JPWO2010018770A1 (ja) 画像表示装置
JP2011248149A (ja) 携帯電子機器及び画像投影ユニット
JP2001266218A (ja) 顧客操作端末の遠隔操作支援システム
JP2008276219A (ja) デジタルプラットフォーム装置
Jewell et al. Enabling technology
CN111757074A (zh) 一种影像共享标注系统
KR20190107251A (ko) 카트를 활용한 상품 위치 안내 시스템
JP6684141B2 (ja) 採点支援装置、採点支援方法、採点支援プログラムおよび記録媒体
JP5646885B2 (ja) 携帯電子機器及び画像投影ユニット
JP5646886B2 (ja) 携帯電子機器及び画像投影ユニット
JP5583479B2 (ja) 携帯電子機器及び画像投影ユニット
JP2005235166A (ja) 案内システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230912