JP2016081428A - 情報端末、情報処理装置、およびプログラム - Google Patents
情報端末、情報処理装置、およびプログラム Download PDFInfo
- Publication number
- JP2016081428A JP2016081428A JP2014214600A JP2014214600A JP2016081428A JP 2016081428 A JP2016081428 A JP 2016081428A JP 2014214600 A JP2014214600 A JP 2014214600A JP 2014214600 A JP2014214600 A JP 2014214600A JP 2016081428 A JP2016081428 A JP 2016081428A
- Authority
- JP
- Japan
- Prior art keywords
- information
- processing apparatus
- information terminal
- information processing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Mobile Radio Communication Systems (AREA)
- Telephone Function (AREA)
Abstract
【課題】 ユーザの意図する情報処理装置に情報端末が無線接続することを、ユーザが煩雑な操作を行うことなく実現できるようにする。
【解決手段】 タブレットPC170からプロジェクター100、130に画像情報(照合情報(顔画像))を送信する。プロジェクター100、130は、自身の周囲の人物の撮影画像を撮影し、当該撮影画像から顔画像を抽出する。プロジェクター100、130は、照合情報と、撮影画像から検出した顔画像との類似度を照合結果としてタブレットPC170に送信する。タブレットPC170は、この照合結果に応じて、表示可能なプロジェクター100を特定し、ユーザに表示許可を与える。
【選択図】 図1
【解決手段】 タブレットPC170からプロジェクター100、130に画像情報(照合情報(顔画像))を送信する。プロジェクター100、130は、自身の周囲の人物の撮影画像を撮影し、当該撮影画像から顔画像を抽出する。プロジェクター100、130は、照合情報と、撮影画像から検出した顔画像との類似度を照合結果としてタブレットPC170に送信する。タブレットPC170は、この照合結果に応じて、表示可能なプロジェクター100を特定し、ユーザに表示許可を与える。
【選択図】 図1
Description
本発明は、情報端末、情報処理装置、およびプログラムに関し、特に、無線接続を行うために用いて好適なものに関する。
PC(Personal Computer)等の情報端末に記憶されている情報(例えば資料)をプロジェクターやディスプレイ等の表示装置に表示することによるプレゼンテーションが、一般的に行われている。さらに、近年、無線LAN(Local Area Network)による無線接続が可能な表示装置を用いることにより、情報端末と表示装置との間のデータ通信をワイヤレスに行うことが可能になっている。このような表示装置は、接続ケーブルが邪魔にならない上に、表示装置の設置場所を気にすることなく表示装置と情報端末とを接続することができるため、ユーザの利便性が高い。
しかし、情報端末が表示装置と無線接続するためには、表示装置のESSID(Extended Service Set Identifier)等のネットワーク上の名前やIPアドレス等の接続情報を情報端末に記憶しておく必要がある。有線接続の場合と異なり、無線接続の場合には、そうした接続情報を情報端末に記憶しておかないと、表示装置がユーザの目の前にあっても、当該情報端末は当該表示装置に接続することができない。
また、無線接続であるがために、情報端末は、適切な接続情報を用いて表示装置に接続しないと、意図しない表示装置に誤って接続し、情報端末に記憶されている情報を当該表示装置で表示してしまう可能性がある。例えば、ユーザの情報端末が、当該ユーザがいる部屋とは別の部屋にある表示装置に無線接続することにより、当該表示装置が、当該情報端末に記憶されている機密資料を、当該機密資料とは関係のない人に対して表示してしまう可能性がある。他にも、会議とは関係のない人の情報端末が、会議室の外から、当該会議室内にある表示装置に無線接続することにより、当該表示装置が、当該情報端末に記憶されている、当該会議に関係ない資料を表示してしまうことも考えられる。このように適切な接続情報を情報端末が記憶していないと、ユーザの意図しない接続、表示が実行されてしまい、利便性が低いだけでなく、セキュリティが低下する。
通常、プレゼンテーションを行うユーザは表示装置の近くにいるため、ユーザの近くにある表示装置に簡易に無線接続することができれば利便性が高く、セキュリティも高めることができる。近年、そうした方法が開示されている。
特許文献1では、受信電波強度が所定の閾値以上の機器に接続する方法が開示されている。
また、特許文献2では、情報端末が接続するための接続情報を、二次元バーコードとして表示装置で表示し、当該二次元バーコードを情報端末の内蔵カメラを使って読み取り、読み取った接続情報を用いて、情報端末が表示装置に接続する方法が開示されている。
また、特許文献2では、情報端末が接続するための接続情報を、二次元バーコードとして表示装置で表示し、当該二次元バーコードを情報端末の内蔵カメラを使って読み取り、読み取った接続情報を用いて、情報端末が表示装置に接続する方法が開示されている。
P. Viola and M. Jones, "Robust real−time face detection", In page II: 747, 2001.
しかしながら、特許文献1に記載の方法では、閾値以上の強度の電波を発する表示装置が必ずしもユーザの近くの表示装置であるとは限らない。このため、情報端末の近くの表示装置で表示できる確実性が低い。例えば、電波の減衰が少ない薄い壁で囲われた会議室の場合、当該会議室内の壁際では、当該会議室にある表示装置よりも、むしろ隣の部屋の表示装置の方が高い受信電波強度である場合があり得る。また、壁のないオープンスペースで会議を行う場合は、電波強度の減衰がほとんどないため、電波強度だけでは、情報端末の近くの表示装置かどうかを判定することはできない。
特許文献2に記載の方法では、プレゼンテーションを開始する度に、ユーザが情報端末の内蔵カメラを使って二次元バーコードを読み取る操作を行わなければならないため、操作が煩雑である。また、既にプレゼンテーションを行っている人がいる場合に、二次元バーコードを情報端末で読み取る動作を行うと、その動作がプレゼンテーションの邪魔となる可能性がある。
本発明は、このような問題点に鑑みてなされたものであり、ユーザの意図する情報処理装置に情報端末が無線接続することを、ユーザが煩雑な操作を行うことなく実現できるようにすることを目的とする。
本発明は、このような問題点に鑑みてなされたものであり、ユーザの意図する情報処理装置に情報端末が無線接続することを、ユーザが煩雑な操作を行うことなく実現できるようにすることを目的とする。
本発明の情報端末は、情報処理装置と無線通信を行う情報端末であって、前記情報端末との無線通信が可能な少なくとも1つの前記情報処理装置で取得された情報を無線通信で受信する受信手段と、前記情報端末で取得された情報と、前記受信手段により受信された前記少なくとも1つの情報処理装置で取得された情報とをそれぞれ照合する照合手段と、前記情報端末で取得された情報と同じまたは所定の条件下で類似する情報を取得した前記情報処理装置を示す情報を表示する照合結果表示手段と、前記照合結果表示手段により表示された前記情報により示される前記情報処理装置の中からユーザにより選択された前記情報処理装置に、当該情報処理装置において出力する出力情報を無線通信で送信する出力情報送信手段と、を有することを特徴とする。
本発明の情報処理装置は、情報端末と無線通信を行う情報処理装置であって、前記情報端末で取得された情報を無線通信で受信する受信手段と、前記情報処理装置で取得された情報と、前記受信手段により受信された前記情報端末で取得された情報とを照合する照合手段と、前記照合手段による照合の結果を示す情報として、前記情報処理装置で取得された情報と、前記情報端末で取得された情報とが同じまたは所定の条件下で類似するか否かを示す情報を、前記情報端末に、無線通信で送信する送信手段と、前記照合手段による照合の結果を示す情報が前記送信手段により送信された後に前記情報端末から送信された出力情報を受信する受信手段と、前記受信手段により受信された前記出力情報を出力する出力手段と、を有することを特徴とする。
本発明の情報処理装置は、情報端末と無線通信を行う情報処理装置であって、前記情報端末で取得された情報を無線通信で受信する受信手段と、前記情報処理装置で取得された情報と、前記受信手段により受信された前記情報端末で取得された情報とを照合する照合手段と、前記照合手段による照合の結果を示す情報として、前記情報処理装置で取得された情報と、前記情報端末で取得された情報とが同じまたは所定の条件下で類似するか否かを示す情報を、前記情報端末に、無線通信で送信する送信手段と、前記照合手段による照合の結果を示す情報が前記送信手段により送信された後に前記情報端末から送信された出力情報を受信する受信手段と、前記受信手段により受信された前記出力情報を出力する出力手段と、を有することを特徴とする。
本発明によれば、ユーザの意図する情報処理装置に情報端末が無線接続することを、ユーザが煩雑な操作を行うことなく実現することができる。
以下、図面を参照しながら、本発明の実施形態について説明する。尚、以下の各実施形態では、情報処理装置が表示装置であり、情報処理システムが表示システムである場合を例に挙げて説明する。
(第1の実施形態)
第1の実施形態を説明する。
本実施形態では、情報端末から表示装置に画像情報(照合情報)を送信し、表示装置が受信した画像情報をもとに画像の照合処理を行うことで、情報端末に表示許可を与える場合を例に挙げて説明する。
(第1の実施形態)
第1の実施形態を説明する。
本実施形態では、情報端末から表示装置に画像情報(照合情報)を送信し、表示装置が受信した画像情報をもとに画像の照合処理を行うことで、情報端末に表示許可を与える場合を例に挙げて説明する。
<全体構成>
図1は、本実施形態における表示システムの構成の一例を概念的に示す図である。
図1に示すように、表示システムは、プロジェクター100、130と、スクリーン120、150と、タブレットPC(Personal Computer)170と、を有する。
図1は、本実施形態における表示システムの構成の一例を概念的に示す図である。
図1に示すように、表示システムは、プロジェクター100、130と、スクリーン120、150と、タブレットPC(Personal Computer)170と、を有する。
プロジェクター100は、表示装置の一種であり、カメラ4を内蔵する。スクリーン120は、プロジェクター100から投影された画像を表示する。タブレットPC170は、情報端末の一種であり、インカメラ180を内蔵する。
図1に示す例では、プロジェクター100、スクリーン120、およびタブレットPC170が同一の部屋内に配置されている。ユーザ190は、当該部屋内でプレゼンテーションを行うため、タブレットPC170の操作を行うものとする。
図1に示す例では、プロジェクター100、スクリーン120、およびタブレットPC170が同一の部屋内に配置されている。ユーザ190は、当該部屋内でプレゼンテーションを行うため、タブレットPC170の操作を行うものとする。
プロジェクター130は、プロジェクター100と同様にカメラ140を内蔵する。スクリーン150は、プロジェクター130から投影された画像を表示する。プロジェクター130およびスクリーン150は、プロジェクター100、スクリーン120、およびタブレットPC170が配置されている部屋とは壁160で区切られた別室に配置されている。ただし、壁160は無線電波の減衰が少ない薄い壁で構成されているため、プロジェクター130とタブレットPC170は無線接続が可能であるものとする。また、プロジェクター100に内蔵されるカメラ4からはユーザ190を撮影することが可能であるが、プロジェクター130に内蔵されるカメラ140からは、壁160に遮られるため、ユーザ190を撮影することができないものとする。
プロジェクター100および130は、タブレットPC170とアクセスポイントなしに、相互に直接無線接続し、データ通信を行うことが可能である。プロジェクター100または130は、タブレットPC170から、表示する映像(以下、表示映像と呼ぶ)を受信し、表示映像をスクリーン120または150に投影する。
本実施形態では、表示装置(プロジェクター)が2台であり、情報端末(タブレットPC)が1台である場合を例に挙げて説明する。しかしながら、表示装置の数および情報端末の数は、これに限らず、その他の数としても構わない。
また、本実施形態では、表示装置がプロジェクターである場合を例に挙げて説明する。しかしながら、表示装置は、プロジェクターに限られない。例えば、表示装置は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等であってもよい。
また、本実施形態では、情報端末がタブレットPCである場合を例に挙げて説明する。しかしながら、情報端末は、タブレットPCに限られない。例えば、情報端末は、ノートPCやスマートフォン等の携帯端末であってもよい。
また、本実施形態では、表示装置がプロジェクターである場合を例に挙げて説明する。しかしながら、表示装置は、プロジェクターに限られない。例えば、表示装置は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等であってもよい。
また、本実施形態では、情報端末がタブレットPCである場合を例に挙げて説明する。しかしながら、情報端末は、タブレットPCに限られない。例えば、情報端末は、ノートPCやスマートフォン等の携帯端末であってもよい。
<ハードウェア構成>
図2は、本実施形態における表示システムのハードウェアの概略構成の一例を示す図である。
図2に示すように、本実施形態における表示システムは、プロジェクター100、130、RC(Remote Controller)200、およびタブレットPC170を有する。
プロジェクター100は、制御部1、記憶部2、操作部3、カメラ4、通信部5、表示部6、操作信号受信部7、照合部8、および接続バス9を含む。
制御部1は、CPU(Central Processing Unit)およびRAM(Random Access Memory)を有する。制御部1は、記憶部2に格納された制御プログラムを実行することにより、接続バス9および通信部5を介してプロジェクター100ならびに表示システム全体の制御を行う。
図2は、本実施形態における表示システムのハードウェアの概略構成の一例を示す図である。
図2に示すように、本実施形態における表示システムは、プロジェクター100、130、RC(Remote Controller)200、およびタブレットPC170を有する。
プロジェクター100は、制御部1、記憶部2、操作部3、カメラ4、通信部5、表示部6、操作信号受信部7、照合部8、および接続バス9を含む。
制御部1は、CPU(Central Processing Unit)およびRAM(Random Access Memory)を有する。制御部1は、記憶部2に格納された制御プログラムを実行することにより、接続バス9および通信部5を介してプロジェクター100ならびに表示システム全体の制御を行う。
記憶部2は、ROM(Read Only Memory)やフラッシュメモリ等の不揮発性メモリにより構成される。記憶部2には、制御プログラムや各種パラメータデータ等が記憶される。
操作部3は、ハードウェアボタン等で構成されるインターフェース(I/F)である。操作部3は、ユーザの操作を受け付け、接続バス9を介して、各部へ操作内容を送信する。
操作部3は、ハードウェアボタン等で構成されるインターフェース(I/F)である。操作部3は、ユーザの操作を受け付け、接続バス9を介して、各部へ操作内容を送信する。
カメラ4は、一般的なカメラで使用されるレンズや撮像素子等で構成される。カメラ4は、プロジェクター100の周囲を撮影する。カメラ4は、撮影した画像(以下、撮影画像と呼ぶ)を、接続バス9を介して各部へ送信する。
通信部5は、無線通信ユニットであり、タブレットPC170等の外部装置との無線通信に利用される。
通信部5は、無線通信ユニットであり、タブレットPC170等の外部装置との無線通信に利用される。
表示部6は、一般的なプロジェクターで使用されるランプや投射レンズ等で構成される。表示部6は、通信部5から取得した表示映像や、制御部1から取得した制御プログラムの実行結果等をスクリーン120に投影する。
操作信号受信部7は、RC200からの赤外線信号の受信器で構成される。操作信号受信部7は、ユーザがRC200を介して操作した内容を操作信号として受信し、接続バス9を介して、各部へ送信する。尚、プロジェクター100は、ユーザの操作を、前述の操作部3または操作信号受信部7から受け取る。
照合部8は、専用回路(ASIC)を有する。照合部8は、例えば、カメラ4が撮影した顔画像と、予め記憶された照合情報の顔画像とを比較する。
接続バス9は、プロジェクター100内の各部を接続して相互にデータの入出力を行うためのデータバスである。
プロジェクター130は、プロジェクター100と同一の構成であるため、その詳細な構成の表示および説明を省略する。
操作信号受信部7は、RC200からの赤外線信号の受信器で構成される。操作信号受信部7は、ユーザがRC200を介して操作した内容を操作信号として受信し、接続バス9を介して、各部へ送信する。尚、プロジェクター100は、ユーザの操作を、前述の操作部3または操作信号受信部7から受け取る。
照合部8は、専用回路(ASIC)を有する。照合部8は、例えば、カメラ4が撮影した顔画像と、予め記憶された照合情報の顔画像とを比較する。
接続バス9は、プロジェクター100内の各部を接続して相互にデータの入出力を行うためのデータバスである。
プロジェクター130は、プロジェクター100と同一の構成であるため、その詳細な構成の表示および説明を省略する。
タブレットPC170は、制御部171、記憶部172、操作部173、通信部174、表示部175、接続バス176、およびインカメラ180を含む。
制御部171は、CPU(Central Processing Unit)およびRAM(Random Access Memory)を有する。制御部171は、記憶部172に格納された制御プログラムを実行することにより、接続バス176を介してタブレットPC170の制御を行う。
制御部171は、CPU(Central Processing Unit)およびRAM(Random Access Memory)を有する。制御部171は、記憶部172に格納された制御プログラムを実行することにより、接続バス176を介してタブレットPC170の制御を行う。
記憶部172は、ROM(Read Only Memory)やフラッシュメモリ等の不揮発性メモリにより構成される。記憶部172には、制御プログラムや各種パラメータデータ等が記憶される。
操作部173は、ハードウェアボタン等で構成されるインターフェース(I/F)である。操作部173は、ユーザの操作を受け付け、接続バス176を介して、各部へ操作内容を送信する。
操作部173は、ハードウェアボタン等で構成されるインターフェース(I/F)である。操作部173は、ユーザの操作を受け付け、接続バス176を介して、各部へ操作内容を送信する。
インカメラ180は、一般的なカメラで使用されるレンズや撮像素子等で構成される。インカメラ180は、撮影画像を、接続バス176を介して各部へ送信する。
通信部174は、無線通信ユニットであり、プロジェクター100、130等の外部装置との無線通信に利用される。
通信部174は、無線通信ユニットであり、プロジェクター100、130等の外部装置との無線通信に利用される。
表示部175は、タッチパネル機能を備えたディスプレイ等で構成される。タッチパネルは、操作部173として機能する。
接続バス176は、タブレットPC170内の各部を接続して相互にデータの入出力を行うためのデータバスである。
接続バス176は、タブレットPC170内の各部を接続して相互にデータの入出力を行うためのデータバスである。
RC200は、所定のハードウェアボタンと赤外線送信ユニットを有する。RC200は、ボタン入力によるユーザ入力を操作信号受信部7に赤外線で送信する。
本実施形態では、カメラ4およびインカメラ180は、一般的な構成のカメラとする。しかしながら、カメラ4およびインカメラ180は、例えば、パンチルトズーム機構を備えたカメラであってもよいし、ドーム型の全周囲カメラ等であってもよい。
各装置のハードウェアの構成は、前述した構成に限るものではない。後述する処理を実行することが可能であれば、前述した構成とは別の構成のハードウェアを有する装置を用いてもよい。
本実施形態では、カメラ4およびインカメラ180は、一般的な構成のカメラとする。しかしながら、カメラ4およびインカメラ180は、例えば、パンチルトズーム機構を備えたカメラであってもよいし、ドーム型の全周囲カメラ等であってもよい。
各装置のハードウェアの構成は、前述した構成に限るものではない。後述する処理を実行することが可能であれば、前述した構成とは別の構成のハードウェアを有する装置を用いてもよい。
また、特に断らない限り、後述する処理を、制御部1、171のCPUが、制御プログラム(ソフトウェア)を実現することで実現する場合を例に挙げて説明する。しかしながら、その処理の一部または全部をハードウェアで実現するようにしても構わない。ハードウェアとして専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)等を用いることができる。また、制御部1、171のCPUが、通信部5、174を介して、ネットワークに接続された各種記憶媒体からプログラム(ソフトウェア)を取得して記憶部2、172に記憶し、当該プログラムを実行することにより、後述する処理を実現してもよい。
また、タブレットPC170には、OS(Operating System)がインストールされており、OSによる制御のもと、後述する処理を実行する。
また、タブレットPC170には、OS(Operating System)がインストールされており、OSによる制御のもと、後述する処理を実行する。
<全体処理フロー>
図3は、プロジェクター100および130と、タブレットPC170とが無線で接続し、表示映像を表示する際の表示システムにおける全体処理の一例を説明するフローチャートである。
図3を参照しながら、本実施形態の表示システムにおける処理の一例を詳細に説明する。尚、図3のフローチャートを実行する前に、プロジェクター100、130およびタブレットPC170の電源はオンになっており、且つ、無線接続を行う準備が両者ともに完了した状態にあるものとする。また、プロジェクター100および130はアクセスポイントモードとして動作し、接続のためのビーコン信号を発信している状態から図3に示すフローチャートがスタートするものとする。
図3は、プロジェクター100および130と、タブレットPC170とが無線で接続し、表示映像を表示する際の表示システムにおける全体処理の一例を説明するフローチャートである。
図3を参照しながら、本実施形態の表示システムにおける処理の一例を詳細に説明する。尚、図3のフローチャートを実行する前に、プロジェクター100、130およびタブレットPC170の電源はオンになっており、且つ、無線接続を行う準備が両者ともに完了した状態にあるものとする。また、プロジェクター100および130はアクセスポイントモードとして動作し、接続のためのビーコン信号を発信している状態から図3に示すフローチャートがスタートするものとする。
始めに、タブレットPC170の通信部174は、ユーザからの操作により、ビーコン信号の受信を開始する(ステップS301)。
続いて、タブレットPC170の制御部171は、ビーコン信号を受信したか否かを判定する(ステップS302)。この判定の結果、ビーコン信号を受信できない場合(ステップS302でNoの場合)、受信できるまでステップS302の処理を繰り返す。
続いて、タブレットPC170の制御部171は、ビーコン信号を受信したか否かを判定する(ステップS302)。この判定の結果、ビーコン信号を受信できない場合(ステップS302でNoの場合)、受信できるまでステップS302の処理を繰り返す。
ビーコン信号を受信した場合(ステップS302でYesの場合)、タブレットPC170の制御部171は、通信部174を介して、プロジェクター100、130の通信部5に、接続確立のための接続要請を送信する(ステップS303)。
本実施形態では、タブレットPC170は、プロジェクター100および130からビーコン信号を受信する。ここでは、まず、プロジェクター100が発信するビーコン信号に対してタブレットPC170が接続要請する場合について説明する。
本実施形態では、タブレットPC170は、プロジェクター100および130からビーコン信号を受信する。ここでは、まず、プロジェクター100が発信するビーコン信号に対してタブレットPC170が接続要請する場合について説明する。
続いて、プロジェクター100の通信部5は、ステップS303で受信した接続要請を制御部1に送信し、制御部1が接続を確立するための接続処理を完了させる(ステップS304)。
続いて、プロジェクター100の制御部1は、通信部5を介して、接続処理が完了した旨をタブレットPC170に送信する。これにより、タブレットPC170の制御部171は、プロジェクター100との接続が確立されたことを確認する(ステップS305)。
続いて、プロジェクター100の制御部1は、通信部5を介して、接続処理が完了した旨をタブレットPC170に送信する。これにより、タブレットPC170の制御部171は、プロジェクター100との接続が確立されたことを確認する(ステップS305)。
続いて、タブレットPC170の制御部171は、通信部174を介して、照合情報をプロジェクター100の通信部5へ送信する(ステップS306)。通信部5は、受信した照合情報を記憶部2に送信し、照合情報を記憶部2に記憶しておく。
本実施形態では、照合情報が人物の顔画像である場合を例に挙げて説明する。ただし、顔画像から特定のアルゴリズムで抽出した特徴量を照合情報としてもよい。照合情報の顔画像の数は1枚であっても、複数枚であってもよい。照合情報は、タブレットPC170の記憶部172に事前に記憶しておく。ステップS306の直前に、ユーザによる操作に基づいてインカメラ180で撮影された顔画像を照合情報として、タブレットPC170からプロジェクター100に送信してもよい。
続いて、プロジェクター100のカメラ4は、プロジェクター100の周囲を撮影し、撮影画像を取得する(ステップS307)。本実施形態では、カメラ4の向きは特定の方向に固定されている。このため、カメラ4は、当該向きのみをプロジェクター100の周囲とみなして撮影する。カメラ4が、パンチルトズーム機構を備えたカメラである場合、カメラ4は、事前に設定した範囲をプロジェクター100の周囲とみなして撮影するようにしてもよい。カメラ4は、撮影画像を照合部8に送信する。
続いて、プロジェクター100の照合部8は、画像照合処理を実行する(ステップS308)。画像照合処理では、ステップS306で受信した照合情報と、ステップS307でカメラ4により撮影された撮影画像とを使って照合結果が算出される。
本実施形態では、照合結果が、前記撮影画像から検出した人物の顔が前記照合情報とどれだけ類似しているかを示すスコアである場合を例に挙げて説明する。照合結果を算出する処理の一例の詳細については後述する。照合結果は、前記スコアに限られない。例えば、本人か他人かを示すバイナリ値を照合結果として用いてもよい。すなわち、前記撮影画像から検出した人物の顔と前記照合情報とが同じであるか否か、または、所定の条件下で類似するか否かを評価する指標であれば、どのような指標を用いてもよい。その後、照合部8は、照合結果を通信部5に出力する。
続いて、プロジェクター100の通信部5は、ステップS308で受信した照合結果をタブレットPC170に送信する(ステップS309)。
続いて、タブレットPC170の制御部171は、受信した全てのビーコン信号に対応する照合結果を受信しているか否かを判定する(ステップS310)。この判定の結果、全てのビーコン信号に対応する照合結果を受信していない場合(ステップS310でNoの場合)には、ステップS303に戻る。そして、タブレットPC170の制御部171は、残りのビーコン信号に対して接続要請を行う(ステップS303)。そして、全てのビーコン信号に対応する照合結果を受信するまで、前述したステップS303〜S310の処理を繰り返し行う。本実施形態では、残りのプロジェクター130のビーコン信号に対する処理を、ステップS303に戻って実行する。タブレットPC170の制御部171は、プロジェクター130に接続要請を行う前に、プロジェクター100との接続を切断する。
続いて、タブレットPC170の制御部171は、受信した全てのビーコン信号に対応する照合結果を受信しているか否かを判定する(ステップS310)。この判定の結果、全てのビーコン信号に対応する照合結果を受信していない場合(ステップS310でNoの場合)には、ステップS303に戻る。そして、タブレットPC170の制御部171は、残りのビーコン信号に対して接続要請を行う(ステップS303)。そして、全てのビーコン信号に対応する照合結果を受信するまで、前述したステップS303〜S310の処理を繰り返し行う。本実施形態では、残りのプロジェクター130のビーコン信号に対する処理を、ステップS303に戻って実行する。タブレットPC170の制御部171は、プロジェクター130に接続要請を行う前に、プロジェクター100との接続を切断する。
以上のようにして、全てのビーコン信号に対応する照合結果を受信した場合(ステップS310でYesの場合)には、ステップS311に進む。そして、タブレットPC170の制御部171は、照合結果表示処理を行う。ここではタブレットPC170の制御部171は、表示可能な表示装置と表示不可能な表示装置とを区別してユーザに提示する(ステップS311)。具体的には、予め定めた閾値より大きいスコアの照合結果があれば、当該照合結果に対応するプロジェクターは表示可能とし、当該照合結果に対応しないプロジェクターは表示不可能とする。
続いて、タブレットPC170の制御部171は、操作部173を介して、ユーザの入力を取得する(ステップS312)。
続いて、タブレットPC170の制御部171は、操作部173を介して、ユーザの入力を取得する(ステップS312)。
本実施形態では、ステップS311において、タブレットPC170の制御部171は、表示可能な表示装置(プロジェクター)のリストと表示不可能な表示装置のリストとを含む表示画面を表示部175に表示する。ユーザは、操作部173(タッチパネル)を操作して、当該表示画面に表示されている、表示可能な表示装置(プロジェクター)のリストの中から所望の表示装置を選択したり、表示装置での表示を行わないことを選択したりする。そして、ステップS312において、タブレットPC170の制御部171は、かかるユーザの操作の内容を入力する。
図4は、表示可能な表示装置(プロジェクター)のリストを提示し、当該リストの中から表示装置を選択させるユーザ入力を促す際にタブレットPC170の表示部175に表示される表示画面の一例を模式的に示す図である。
図4に示すように、表示画面は、表示可能なプロジェクターを表示する表示可能提示領域41と、表示不可能なプロジェクターを表示する表示不可能提示領域42とを有する。このようにして表示可能なプロジェクターを提示することで、ユーザは、表示可能な近くのプロジェクターがどれであるのかを一目瞭然に判断できる。したがって、ユーザは、プロジェクターの名前等を意識することなく、タブレットPC170から近くのプロジェクターに表示映像を無線で送信して表示させることができる。
図4に示すように、表示画面は、表示可能なプロジェクターを表示する表示可能提示領域41と、表示不可能なプロジェクターを表示する表示不可能提示領域42とを有する。このようにして表示可能なプロジェクターを提示することで、ユーザは、表示可能な近くのプロジェクターがどれであるのかを一目瞭然に判断できる。したがって、ユーザは、プロジェクターの名前等を意識することなく、タブレットPC170から近くのプロジェクターに表示映像を無線で送信して表示させることができる。
本実施形態では、図1で示したように、プロジェクター130に内蔵されるカメラ140はユーザ190を撮影することができない。このため、プロジェクター130に対応する照合結果は低いスコアとなり、閾値を越えない。よって、図4に示すように、プロジェクター130は、表示不可能提示領域42に表示される。逆に、プロジェクター100に内蔵されるカメラ4は、ユーザ190を撮影することができる。このため、プロジェクター100に対応する照合結果は高いスコアとなり、閾値を越える。よって、図4に示すように、プロジェクター100は、表示可能提示領域41に表示される。図4に示す例では、プロジェクター100の名称とEDDIDとを、表示可能なプロジェクターを示す情報として表示する。また、プロジェクター130の名称とEDDIDとを、表示可能なプロジェクターを示す情報として表示する。
また、近隣のプロジェクターがあったとしても、当該プロジェクターでの表示を行わないことをユーザが選択できるように、表示可能提示領域41には、「表示しない」という選択肢も表示される。
また、近隣のプロジェクターがあったとしても、当該プロジェクターでの表示を行わないことをユーザが選択できるように、表示可能提示領域41には、「表示しない」という選択肢も表示される。
続いて、タブレットPC170の制御部171は、ステップS313におけるユーザの入力が、表示指示であるか否か(表示可能なプロジェクターの選択があったか否か)を判定する。この判定の結果、表示指示でない場合、すなわち「表示しない」の選択である場合(ステップS313でNoの場合)、図3のフローチャートによる処理を終了する。
一方、表示指示である場合、すなわち、表示可能なプロジェクター100の選択である場合(ステップS313でYesの場合)、タブレットPC170の制御部171は表示映像を生成し、プロジェクター100の通信部5に送信する(ステップS314)。通信部5は、受信した表示映像を表示部6に送信する。
続いて、表示部6は、ステップS314で受信した表示映像をスクリーン120に投影する(ステップS315)。そして、図3のフローチャートによる処理を終了する。
以上が、本実施形態の表示システムにおける全体処理のフローの一例である。
一方、表示指示である場合、すなわち、表示可能なプロジェクター100の選択である場合(ステップS313でYesの場合)、タブレットPC170の制御部171は表示映像を生成し、プロジェクター100の通信部5に送信する(ステップS314)。通信部5は、受信した表示映像を表示部6に送信する。
続いて、表示部6は、ステップS314で受信した表示映像をスクリーン120に投影する(ステップS315)。そして、図3のフローチャートによる処理を終了する。
以上が、本実施形態の表示システムにおける全体処理のフローの一例である。
<画像照合処理フロー>
図5は、図3のステップS308の画像照合処理の詳細の一例を説明するフローチャートである。図5を参照しながら、ステップS306で受信した照合情報(顔画像)と、ステップS307でカメラ4により撮影された撮影画像とを照合する処理の一例を詳細に説明する。尚、この画像照合処理は、全て照合部8で実行される。
始めに、照合部8は、カメラ4から撮影画像を取得する(ステップS501)。この撮影画像は、カメラ4で撮影したそのままの状態の画像であり、加工等がなされていない画像である。
図5は、図3のステップS308の画像照合処理の詳細の一例を説明するフローチャートである。図5を参照しながら、ステップS306で受信した照合情報(顔画像)と、ステップS307でカメラ4により撮影された撮影画像とを照合する処理の一例を詳細に説明する。尚、この画像照合処理は、全て照合部8で実行される。
始めに、照合部8は、カメラ4から撮影画像を取得する(ステップS501)。この撮影画像は、カメラ4で撮影したそのままの状態の画像であり、加工等がなされていない画像である。
続いて、照合部8は、ステップS501で取得した撮影画像から人物の顔を検出する(ステップS502)。照合部8は、検出した顔の領域を切り出して顔画像を取得する動作を、さらに行う。人物の顔を検出する方法に関しては既存の手法を用いればよい。例えば、非特許文献1に記載の手法を用いることができる。
続いて、照合部8は、ステップS502における処理で、撮影画像から一つ以上の顔画像を検出したか否かを判定する(ステップS503)。この判定の結果、撮影画像から顔画像を一つも検出しなかった場合(ステップS503でNoの場合)、照合部8は、照合する対象の顔がない旨を照合結果として制御部1に送信する(ステップS508)。そして、図5のフローチャートによる処理を終了する。
一方、撮影画像から顔画像を一つ以上検出した場合(ステップS503でYesの場合)、照合部8は、記憶部2から照合情報を取得する(ステップS504)。前述の通り、本実施形態では、この照合情報は、タブレットPC170から事前に取得した、人物の顔画像である。
一方、撮影画像から顔画像を一つ以上検出した場合(ステップS503でYesの場合)、照合部8は、記憶部2から照合情報を取得する(ステップS504)。前述の通り、本実施形態では、この照合情報は、タブレットPC170から事前に取得した、人物の顔画像である。
続いて、照合部8は、撮影画像から検出した顔画像を一つ選択し、当該顔画像の特徴量を抽出する(ステップS505)。特徴量を抽出するアルゴリズムに関しては既存の手法を用いればよい。例えば、LBP(Local Binary Pattern)特徴量や、HOG(Histogram of Oriented Gradient)特徴量などを用いることができる。照合部8は、照合情報からも、同様に特徴量を抽出する。照合情報が複数の顔画像を含む場合、照合部8は、全ての顔画像から特徴量を抽出する。
続いて、照合部8は、撮影画像(顔画像)から抽出した特徴量と、照合情報(顔画像)から抽出した特徴量とを比較し、スコアを算出する(ステップS506)。スコアとは、撮影画像から検出した顔画像と、照合情報である顔画像とが、どれだけ類似しているかを示す数値である。ここでは、スコアの値が大きいほど、両者が類似していることを示すものとする。スコアを算出する手法は既存の手法を用いればよい。例えば、コサイン類似度等をスコアとして用いることができる。照合情報が複数の顔画像である場合、照合部8は、撮影画像から検出した顔画像と、全ての照合情報との組み合わせについてスコアを算出する。
続いて、照合部8は、撮影画像から検出した顔画像のうち、スコアの算出の処理が終わっていない顔画像があるか否かを判定する(ステップS507)。この判定の結果、スコアの算出の処理が終わっていない顔画像がある場合(ステップS507でNoの場合)には、ステップS506に戻り、残りの顔画像に対して処理を行う。
撮影画像から検出した顔画像の全てに対してスコアの算出の処理が終わった場合(ステップS507でYesの場合)、照合部8は、撮影画像から検出した顔画像と、当該顔画像に対するスコアとを相互に関連付けた情報を、照合結果として通信部5に出力する。そして、図5のフローチャートによる処理を終了する。
以上が、本実施形態における画像照合処理のフローの一例である。
撮影画像から検出した顔画像の全てに対してスコアの算出の処理が終わった場合(ステップS507でYesの場合)、照合部8は、撮影画像から検出した顔画像と、当該顔画像に対するスコアとを相互に関連付けた情報を、照合結果として通信部5に出力する。そして、図5のフローチャートによる処理を終了する。
以上が、本実施形態における画像照合処理のフローの一例である。
以上のように本実施形態では、タブレットPC170からプロジェクター100、130に画像情報(照合情報(顔画像))を送信する。プロジェクター100、130は、自身の周囲の人物の撮影画像を撮影し、当該撮影画像から顔画像を抽出する。プロジェクター100、130は、照合情報と、撮影画像から検出した顔画像との類似度を照合結果としてタブレットPC170に送信する。タブレットPC170は、この照合結果に応じて、表示可能なプロジェクター100を特定し、ユーザに表示許可を与える。したがって、簡易に無線接続による表示を行うことができる。
これにより、タブレットPC170に記憶されている表示映像等の情報が、ユーザがいる部屋とは別の部屋のプロジェクター130から誤って投影されることを防止することができる。また、例えば、会議に関係のない人物の情報端末から、プロジェクター100に、表示映像等の情報が送信され投影されることを防止することができる。
これにより、タブレットPC170に記憶されている表示映像等の情報が、ユーザがいる部屋とは別の部屋のプロジェクター130から誤って投影されることを防止することができる。また、例えば、会議に関係のない人物の情報端末から、プロジェクター100に、表示映像等の情報が送信され投影されることを防止することができる。
また、ユーザは、タブレットPC170から提示されたプロジェクター100に表示するか否かの入力だけを行えばよいため、特別な操作をする必要がなく、利便性が高い。
また、プロジェクター100、130に顔情報を予め登録しておく必要がないため、例えば、初めて訪れた建物や会議室においても、簡易に無線接続によるプレゼンテーションを行うことができる。すなわち、利便性が高い。
また、プロジェクター100、130により投影される画像を利用しないため、例えば、既にプレゼンテーションを行っている人物がいたとしても、その邪魔をするような操作をすることなく、無線接続による表示ができるため、利便性が高い。
また、プロジェクター100、130に顔情報を予め登録しておく必要がないため、例えば、初めて訪れた建物や会議室においても、簡易に無線接続によるプレゼンテーションを行うことができる。すなわち、利便性が高い。
また、プロジェクター100、130により投影される画像を利用しないため、例えば、既にプレゼンテーションを行っている人物がいたとしても、その邪魔をするような操作をすることなく、無線接続による表示ができるため、利便性が高い。
本実施形態では、照合情報として人物の顔画像を用いる場合を例に挙げて説明した。しかしながら、照合情報として他の画像情報を用いてもよい。例えば、画像中の特定の表示パターンとして例えば二次元バーコードを照合情報として、タブレットPC170に記憶し、プロジェクター100、130に送信してもよい。このようにする場合、プロジェクター100、130のカメラ4、140で二次元バーコードを検出し、検出した二次元バーコードと、タブレットPC170から送信された二次元バーコードとを照合することで表示を許可するようにしてもよい。その際、二次元バーコード等の特定の表示パターンをタブレットPC170の画面に表示し、表示した特定の表示パターンをプロジェクター100、130のカメラ4、140で撮影し、検出するようにしてもよい。この他にも、ある部屋と別の部屋(または通路)とが区別できるような画像ならば、どのような画像情報を照合情報として採用してもよい。例えば、ユーザが身につけているもの(腕時計、ネクタイ等)や会議室内の特徴的な備品(壁掛け時計、壁の模様等)の画像情報を照合情報として採用してもよい。
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、情報端末(タブレットPC170)から表示装置(プロジェクター100、130)に画像情報(照合情報)を送信し、画像照合処理を表示装置で行う場合を例に挙げて説明した。これに対し本実施形態では、表示装置から情報端末に画像情報(照合情報)を送信し、情報端末で画像照合処理を行い、情報端末に表示許可を与える場合について説明する。このように本実施形態と第1の実施形態とは、画像照合処理を情報端末で行うことに基づく構成および処理の一部が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図5に付した符号と同一の符号を付す等して、詳細な説明を省略する。
次に、第2の実施形態を説明する。第1の実施形態では、情報端末(タブレットPC170)から表示装置(プロジェクター100、130)に画像情報(照合情報)を送信し、画像照合処理を表示装置で行う場合を例に挙げて説明した。これに対し本実施形態では、表示装置から情報端末に画像情報(照合情報)を送信し、情報端末で画像照合処理を行い、情報端末に表示許可を与える場合について説明する。このように本実施形態と第1の実施形態とは、画像照合処理を情報端末で行うことに基づく構成および処理の一部が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図5に付した符号と同一の符号を付す等して、詳細な説明を省略する。
<全体構成、ハードウェア構成>
本実施形態における表示システムの全体構成は、第1の実施形態における表示システムの全体構成(図1に示す構成)と同じである。したがって、以下の説明では、図1を流用して説明する。
また、プロジェクター100、130、タブレットPC170、およびRC200のハードウェアの構成は、第1の実施形態で説明した構成(図2に示す構成)と同じもので実現することができる。したがって、以下の説明では、図2を流用して説明する。また、各装置の説明は、第1の実施形態の説明と重複するため省略する。ただし、本実施形態では、プロジェクター100、130は、照合部8を有する必要はない。その代わりに、タブレットPC170に、照合部8を設けるのが好ましい。本実施形態では、タブレットPC170が照合部8を有しているものとして説明を行う。ただし、照合部8における機能を、タブレットPC170の制御部171で実現してもよい。
本実施形態における表示システムの全体構成は、第1の実施形態における表示システムの全体構成(図1に示す構成)と同じである。したがって、以下の説明では、図1を流用して説明する。
また、プロジェクター100、130、タブレットPC170、およびRC200のハードウェアの構成は、第1の実施形態で説明した構成(図2に示す構成)と同じもので実現することができる。したがって、以下の説明では、図2を流用して説明する。また、各装置の説明は、第1の実施形態の説明と重複するため省略する。ただし、本実施形態では、プロジェクター100、130は、照合部8を有する必要はない。その代わりに、タブレットPC170に、照合部8を設けるのが好ましい。本実施形態では、タブレットPC170が照合部8を有しているものとして説明を行う。ただし、照合部8における機能を、タブレットPC170の制御部171で実現してもよい。
<全体処理フロー>
図6は、プロジェクター100および130と、タブレットPC170とが無線で接続し、表示映像を表示する際の表示システムにおける全体処理の一例を示すフローチャートである。
図6を参照しながら、本実施形態の表示システムにおける処理の一例について詳細を説明する。尚、このフローチャートを開始する前の各装置の状態は、第1の実施形態の表示システムの全体処理のフローチャート(図3)を開始する前の各装置の状態と同じであるとする。
図6は、プロジェクター100および130と、タブレットPC170とが無線で接続し、表示映像を表示する際の表示システムにおける全体処理の一例を示すフローチャートである。
図6を参照しながら、本実施形態の表示システムにおける処理の一例について詳細を説明する。尚、このフローチャートを開始する前の各装置の状態は、第1の実施形態の表示システムの全体処理のフローチャート(図3)を開始する前の各装置の状態と同じであるとする。
ステップS601からステップS604までの処理は、図3のステップS301からステップS304までの処理と同じであるため、これらの処理の詳細な説明を省略する。
プロジェクター100の制御部1は、接続処理を完了させた後(ステップS604の後)、カメラ4に周囲を撮影させ、撮影画像を取得する(ステップS605)。
続いて、プロジェクター100の制御部1は、カメラ4が取得した撮影画像を使って照合情報を生成する(ステップS606)。具体的に本実施形態では、制御部1は、撮影画像から人物の顔を検出し、検出した顔の領域を切り出して顔画像を生成する。そして、制御部1は、当該生成した顔画像と、検出する対象物体が人の顔であることを示す識別子とを相互に関連付けた情報を照合情報して生成する。
プロジェクター100の制御部1は、接続処理を完了させた後(ステップS604の後)、カメラ4に周囲を撮影させ、撮影画像を取得する(ステップS605)。
続いて、プロジェクター100の制御部1は、カメラ4が取得した撮影画像を使って照合情報を生成する(ステップS606)。具体的に本実施形態では、制御部1は、撮影画像から人物の顔を検出し、検出した顔の領域を切り出して顔画像を生成する。そして、制御部1は、当該生成した顔画像と、検出する対象物体が人の顔であることを示す識別子とを相互に関連付けた情報を照合情報して生成する。
カメラ4が取得した撮影画像から検出される人物の顔は一つとは限らず、複数あってもよい。カメラ4が取得した撮影画像から顔画像を一つも検出できない場合、制御部1は、その旨を照合情報に記述する。
その後、制御部1は、生成した照合情報を通信部5へ出力する。
以上のように本実施形態では、撮影画像から人物の顔を検出して顔画像を照合情報の一部として生成する場合を例に挙げて説明する。しかしながら、撮影画像から、人物の顔ではなく、他の物体やパターンを検出するようにしてもよい。このようにする場合、前記識別子を、検出する対象を識別する識別子とする。
その後、制御部1は、生成した照合情報を通信部5へ出力する。
以上のように本実施形態では、撮影画像から人物の顔を検出して顔画像を照合情報の一部として生成する場合を例に挙げて説明する。しかしながら、撮影画像から、人物の顔ではなく、他の物体やパターンを検出するようにしてもよい。このようにする場合、前記識別子を、検出する対象を識別する識別子とする。
続いて、プロジェクター100の通信部5は、ステップS606で取得した照合情報をタブレットPC170の通信部174に送信する(ステップS607)。このとき、通信部5は画像情報送信手段(出力情報送信手段)として機能し、通信部174は画像情報受信手段(出力情報受信手段)として機能する。
続いて、タブレットPC170の照合部8は、ステップS607で受信した照合情報を用いて、画像照合処理を行う(ステップS608)。画像照合処理の詳細の一例については、図7を参照しながら後述する。
続いて、タブレットPC170の照合部8は、ステップS607で受信した照合情報を用いて、画像照合処理を行う(ステップS608)。画像照合処理の詳細の一例については、図7を参照しながら後述する。
図6において、ステップS609からステップS614までの処理は、図3のステップ310からステップS315までの処理と同じである。尚、ステップS613において、タブレットPC170の通信部174は、照合結果とともに表示映像を、プロジェクター100の通信部5に送信する。また、図6のフローチャートの説明に際し、ステップS604からステップS607までの処理が、プロジェクター100の処理であるものとした。しかしながら、ステップS609に示すように、ステップS604からステップS607までの処理は、プロジェクター100、130毎に繰り返し行われる。
以上が、本実施形態の表示システムにおける全体処理のフローの一例である。
以上が、本実施形態の表示システムにおける全体処理のフローの一例である。
<画像照合処理フロー>
図7は、図6のステップS608の画像照合処理の詳細の一例を説明するフローチャートである。尚、この画像照合処理は、全てタブレットPC170で実行される。
始めに、タブレットPC170の通信部174は、プロジェクター100、130の通信部5から照合情報を受信する(ステップS701)。
図7は、図6のステップS608の画像照合処理の詳細の一例を説明するフローチャートである。尚、この画像照合処理は、全てタブレットPC170で実行される。
始めに、タブレットPC170の通信部174は、プロジェクター100、130の通信部5から照合情報を受信する(ステップS701)。
続いて、タブレットPC170の照合部8は、ステップS701で受信した照合情報に含まれる識別子(対象物体は何かを示す情報)を参照する。そして、タブレットPC170の照合部8は、撮像案内表示処理を行う。ここではタブレットPC170の照合部8は、当該参照した識別子で識別される対象物体の画像を取得することをユーザに促すための表示画面を表示部175に表示させる(ステップS702)。
本実施形態では、対象物体は人物の顔である。したがって、タブレットPC170の照合部8は、ユーザに対し、顔画像を取得することを促す。図8は、インカメラ180を使って顔画像を撮影することをユーザに促す際のタブレットPC170の表示画面の一例を模式的に示す図である。
図8に示すように、表示画面810には、インカメラ180のライブビュー映像が表示される。さらに、表示画面810には、ライブビュー映像に重畳する形で撮影用ガイド820が表示される。ユーザは、撮影用ガイド820に顔がちょうどおさまるように顔の位置と大きさを調整した上で、撮影の指示を行う。顔画像を撮影する際に、タブレットPC170に内蔵のライトで顔の明るさを調整するようにしてもよい。このように本実施形態では、撮影画像から人物の顔を検出するのではなく、ユーザに手動で顔画像を撮影させる。このようにすることで、利便性はやや落ちるものの、撮影画像から人物の顔を検出する場合に比べ、正確な顔画像の切り出しを行うことができる。このため、後のスコアの算出処理においてスコアの正確性の向上が見込める。ただし、撮影用ガイド820を表示せずに、顔を含む領域を撮影し、当該撮影により得られた撮影画像から、顔の領域を切り出して顔画像を取得してもよい。
以降、図7のステップS703からステップS706までの処理は、図5のステップS505からステップS508までの処理と同じであるため、これらの処理の詳細な説明を省略する。尚、ステップS703における特徴量の算出の対象は、ステップS701で受信した照合情報(顔画像)と、ステップS702で取得した画像(顔画像)である。
以上が、本実施形態における画像照合処理のフローの一例である。
以上が、本実施形態における画像照合処理のフローの一例である。
以上のように本実施形態では、プロジェクター100、130からタブレットPC170に画像情報(照合情報(顔画像))を送信する。タブレットPC170は、照合情報に含まれる識別子で識別される対象物体の画像を撮影し、対象物体の画像(顔画像)を得る。タブレットPC170は、照合情報と、撮影により得た顔画像との類似度を照合結果として算出し、この照合結果に応じて、表示可能なプロジェクター100を特定し、ユーザに表示許可を与える。したがって、第1の実施形態で説明した効果と同様の効果を持つ表示システムを実現することができる。また、画像照合処理を情報端末(タブレットPC170)で行うので、表示装置(プロジェクター100、130)にかかる計算負荷を軽減することができる。
(第3の実施形態)
次に、第3の実施形態を説明する。第1の実施形態では、顔画像の照合を行う場合を例に挙げて説明した。これに対し、本実施形態では、情報端末(タブレットPC170)から表示装置(プロジェクター100、130)に、モーションセンサーで取得したモーション情報(動きを示す情報)を送信する。また、表示装置は、周囲の動画像を撮影し、撮影した動画像を解析してモーション情報を取得し、当該取得したモーション情報と、情報端末から送信されたモーション情報とを照合し、その結果に基づいて、情報端末に表示許可を与える。このように本実施形態と第1の実施形態とは、照合する対象が異なることに基づく構成および処理の一部が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図5に付した符号と同一の符号を付す等して、詳細な説明を省略する。
次に、第3の実施形態を説明する。第1の実施形態では、顔画像の照合を行う場合を例に挙げて説明した。これに対し、本実施形態では、情報端末(タブレットPC170)から表示装置(プロジェクター100、130)に、モーションセンサーで取得したモーション情報(動きを示す情報)を送信する。また、表示装置は、周囲の動画像を撮影し、撮影した動画像を解析してモーション情報を取得し、当該取得したモーション情報と、情報端末から送信されたモーション情報とを照合し、その結果に基づいて、情報端末に表示許可を与える。このように本実施形態と第1の実施形態とは、照合する対象が異なることに基づく構成および処理の一部が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図5に付した符号と同一の符号を付す等して、詳細な説明を省略する。
<全体構成>
図9は、本実施形態における表示システムの構成の一例を概念的に示す図である。
図9に示すように、表示システムは、プロジェクター900、930と、スクリーン120、150と、タブレットPC970と、を有する。
プロジェクター900、930は、それぞれ、第1の実施形態で説明したプロジェクター100、130に対応する。タブレットPC970は、第1の実施形態で説明したタブレットPC170に対応する。
図9は、本実施形態における表示システムの構成の一例を概念的に示す図である。
図9に示すように、表示システムは、プロジェクター900、930と、スクリーン120、150と、タブレットPC970と、を有する。
プロジェクター900、930は、それぞれ、第1の実施形態で説明したプロジェクター100、130に対応する。タブレットPC970は、第1の実施形態で説明したタブレットPC170に対応する。
すなわち、プロジェクター930およびスクリーン150は、プロジェクター900、スクリーン120、およびタブレットPC970が配置されている部屋とは壁160で区切られた別室に配置されている。ただし、壁160は無線電波の減衰が少ない薄い壁で構成されているため、プロジェクター930とタブレットPC970は無線接続が可能であるものとする。また、プロジェクター900に内蔵されるカメラ94からはユーザ190を撮影することが可能であるが、プロジェクター930に内蔵されるカメラ940からは、壁160に遮られるため、ユーザ190を撮影することができないものとする。
また、プロジェクター900および930は、タブレットPC970とアクセスポイントなしに、相互に直接無線接続し、データ通信を行うことが可能である。
また、プロジェクター900および930は、タブレットPC970とアクセスポイントなしに、相互に直接無線接続し、データ通信を行うことが可能である。
尚、本実施形態では、表示装置(プロジェクター)が2台であり、情報端末(タブレットPC)が1台である場合を例に挙げて説明する。しかしながら、表示装置の数および情報端末の数は、これに限らず、その他の数としても構わない。
また、本実施形態では、表示装置がプロジェクターである場合を例に挙げて説明する。しかしながら、表示装置は、プロジェクターに限られない。例えば、表示装置は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等であってもよい。
また、本実施形態では、情報端末がタブレットPCである場合を例に挙げて説明する。しかしながら、情報端末は、タブレットPCに限られない。例えば、情報端末は、ノートPCやスマートフォン等の携帯端末であってもよい。
また、本実施形態では、表示装置がプロジェクターである場合を例に挙げて説明する。しかしながら、表示装置は、プロジェクターに限られない。例えば、表示装置は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等であってもよい。
また、本実施形態では、情報端末がタブレットPCである場合を例に挙げて説明する。しかしながら、情報端末は、タブレットPCに限られない。例えば、情報端末は、ノートPCやスマートフォン等の携帯端末であってもよい。
<ハードウェア構成>
図10は、本実施形態における表示システムのハードウェアの概略構成の一例を示す図である。
図10に示すように、本実施形態における表示システムは、プロジェクター900、930、RC200、およびタブレットPC970を有する。
プロジェクター900は、制御部1、記憶部2、操作部3、カメラ94、通信部5、表示部6、操作信号受信部7、モーション取得部10、照合部11、および接続バス12を含む。
図10は、本実施形態における表示システムのハードウェアの概略構成の一例を示す図である。
図10に示すように、本実施形態における表示システムは、プロジェクター900、930、RC200、およびタブレットPC970を有する。
プロジェクター900は、制御部1、記憶部2、操作部3、カメラ94、通信部5、表示部6、操作信号受信部7、モーション取得部10、照合部11、および接続バス12を含む。
カメラ94は、一般的なカメラで構成され、動画像を撮影する機能を有する。カメラ94は、プロジェクター900周辺の動画像を撮影し、接続バス12を介して、各部へ出力する。
モーション取得部10は、カメラ94から取得した動画像を解析し、特定の物体のモーション情報を取得する。モーション情報は、特定の物体の動きを示す情報である。モーション取得部10は、当該取得したモーション情報を、接続バス12を介して、照合部11へ出力する。
モーション取得部10は、カメラ94から取得した動画像を解析し、特定の物体のモーション情報を取得する。モーション情報は、特定の物体の動きを示す情報である。モーション取得部10は、当該取得したモーション情報を、接続バス12を介して、照合部11へ出力する。
照合部11は、モーション取得部10から取得したモーション情報と、タブレットPC970から通信部5を介して取得したモーション情報との照合結果を算出する。照合部11は、当該算出した照合結果を、接続バス12を介して、通信部5へ出力する。
プロジェクター930は、プロジェクター900と同一の構成であるため、その詳細な構成の表示および説明を省略する。
プロジェクター930は、プロジェクター900と同一の構成であるため、その詳細な構成の表示および説明を省略する。
タブレットPC970は、制御部171、記憶部172、操作部173、通信部174、表示部175、モーションセンサー177、接続バス178、およびインカメラ180を含む。
モーションセンサー177は、例えば、タブレットPC970が動く際の加速度を検出する加速度センサーである。モーションセンサー177は、検出した加速度の時間変化に基づくモーション情報を、接続バス178を介して制御部171に出力する。制御部171は、モーションセンサー177から出力されたモーション情報を生成し、通信部174を介してプロジェクター900、930に送信する。ここでは、特定の物体の一例であるタブレットPC970の動きを示すモーション情報が、プロジェクター900、930に送信される。
この他のハードウェアの構成は、第1の実施形態で説明した構成と同じであるため、それらの構成の詳細な説明を省略する。
モーションセンサー177は、例えば、タブレットPC970が動く際の加速度を検出する加速度センサーである。モーションセンサー177は、検出した加速度の時間変化に基づくモーション情報を、接続バス178を介して制御部171に出力する。制御部171は、モーションセンサー177から出力されたモーション情報を生成し、通信部174を介してプロジェクター900、930に送信する。ここでは、特定の物体の一例であるタブレットPC970の動きを示すモーション情報が、プロジェクター900、930に送信される。
この他のハードウェアの構成は、第1の実施形態で説明した構成と同じであるため、それらの構成の詳細な説明を省略する。
<全体処理フロー>
図11は、プロジェクター900および930と、タブレットPC970とが無線で接続し、表示映像を表示する際の表示システムにおける全体処理の一例を説明するフローチャートである。
図11を参照しながら、本実施形態の表示システムにおける処理の一例を詳細に説明する。尚、このフローチャートを開始する前の各装置の状態は、第1の実施形態の表示システムの全体処理のフローチャート(図3)を開始する前の各装置の状態と同じであるとする。さらに、タブレットPC970は、モーションセンサー177を起動しており、タブレットPC970のモーション(動き)を常に記録しているものとする。
図11は、プロジェクター900および930と、タブレットPC970とが無線で接続し、表示映像を表示する際の表示システムにおける全体処理の一例を説明するフローチャートである。
図11を参照しながら、本実施形態の表示システムにおける処理の一例を詳細に説明する。尚、このフローチャートを開始する前の各装置の状態は、第1の実施形態の表示システムの全体処理のフローチャート(図3)を開始する前の各装置の状態と同じであるとする。さらに、タブレットPC970は、モーションセンサー177を起動しており、タブレットPC970のモーション(動き)を常に記録しているものとする。
ステップS1101からステップS1105までの処理は、図3のステップS301からステップS305までの処理と同じであるため、これらの処理の詳細な説明を省略する。
タブレットPC970の制御部171は、プロジェクター900との接続が確立されたことを確認した後(ステップS1105の後)、モーション動作を行うことをユーザに要求する(ステップS1106)。具体的に本実施形態では、タブレットPC970の制御部171は、撮像案内表示処理を行う。ここではタブレットPC970の制御部171は、モーション動作の実行を促す表示と共に、モーション動作読み取り用の二次元バーコードを表示する表示画面を表示部175に表示させる。
タブレットPC970の制御部171は、プロジェクター900との接続が確立されたことを確認した後(ステップS1105の後)、モーション動作を行うことをユーザに要求する(ステップS1106)。具体的に本実施形態では、タブレットPC970の制御部171は、撮像案内表示処理を行う。ここではタブレットPC970の制御部171は、モーション動作の実行を促す表示と共に、モーション動作読み取り用の二次元バーコードを表示する表示画面を表示部175に表示させる。
図12は、モーション動作を行うことをユーザに要求する際にタブレットPC970の表示部175に表示される表示画面の一例を模式的に示す図である。
図12に示すように、タブレットPC170の表示画面には、ユーザにモーション動作を促す表示1210と、モーション動作読み取り用の二次元バーコード1220とが表示される。二次元バーコード1220は、所定のパターンを有する。当該所定のパターンは、事前に設定される。ユーザのモーション動作とは、具体的にはタブレットPC970の表示部175の画面に表示されている二次元バーコード1220を、プロジェクター900に内蔵されるカメラ94のレンズに向けた上で、タブレットPC970を動かす動作である。
図12に示すように、タブレットPC170の表示画面には、ユーザにモーション動作を促す表示1210と、モーション動作読み取り用の二次元バーコード1220とが表示される。二次元バーコード1220は、所定のパターンを有する。当該所定のパターンは、事前に設定される。ユーザのモーション動作とは、具体的にはタブレットPC970の表示部175の画面に表示されている二次元バーコード1220を、プロジェクター900に内蔵されるカメラ94のレンズに向けた上で、タブレットPC970を動かす動作である。
図13は、ユーザのモーション動作の具体例を模式的に示す図である。尚、説明の便宜上、図13では、プロジェクター900を図示せず、プロジェクター900に内蔵されるカメラ94と、タブレットPC970のみを図示する。
図13では、タブレットPC970の表示部175の画面を、カメラ94(のレンズに向けた上で、タブレットPC970を左右に振るモーションを行う様子を例に挙げて示す。ただし、モーション動作は、このような動作に限るものではなく、これ以外の動作でもよい。タブレットPC170のモーションセンサー177は、カメラ94で撮影された画像平面中の動きをモーション情報として取得する。
図13では、タブレットPC970の表示部175の画面を、カメラ94(のレンズに向けた上で、タブレットPC970を左右に振るモーションを行う様子を例に挙げて示す。ただし、モーション動作は、このような動作に限るものではなく、これ以外の動作でもよい。タブレットPC170のモーションセンサー177は、カメラ94で撮影された画像平面中の動きをモーション情報として取得する。
カメラ94は、図12に示す表示画面が表示された後に、プロジェクター900の周囲の動画像を撮影する(ステップS1107)。図12に示す表示画面に従ってユーザがモーション動作を行った場合、カメラ94は、ユーザが当該モーション動作を行う様子を示す動画像を撮影する。カメラ94は、撮影した動画像をモーション取得部10に出力する。
続いて、モーション取得部10は、カメラ94で撮影された動画像を解析し、ユーザのモーション情報を取得する(ステップS1108)。具体的に本実施形態では、モーション取得部10は、二次元バーコード1220の撮影画像上の位置を検出し、撮影画像上の二次元バーコード1220の位置の時間変化をモーション情報として検出する。
続いて、モーション取得部10は、カメラ94で撮影された動画像を解析し、ユーザのモーション情報を取得する(ステップS1108)。具体的に本実施形態では、モーション取得部10は、二次元バーコード1220の撮影画像上の位置を検出し、撮影画像上の二次元バーコード1220の位置の時間変化をモーション情報として検出する。
続いて、タブレットPC970の通信部174は、モーションセンサー177から取得したモーション情報を、プロジェクター900の通信部5に送信する(ステップS1109)。通信部5は、受信したモーション情報を、照合部11に出力する。
続いて、プロジェクター900の照合部11は、ステップS1108でモーション取得部10から取得したモーション情報と、ステップS1109でタブレットPC970から取得したモーション情報とを照合する(ステップS1110)。具体的に本実施形態では、プロジェクター900の記憶部2は、所定のモーションパターンを予め複数記憶する。照合部11は、それぞれのモーション情報が、複数のモーションパターンのどれに分類されるかを判定する。照合部11は、それぞれのモーション情報の分類結果が一致すれば、それぞれのモージョン情報は、同一または類似のモーションを示す情報であると判定する。
図14は、モーション情報を照合する際の処理方法の一例を説明する図である。
図14において、モーション情報1410は、プロジェクター900に内蔵されるカメラ94で撮影された動画像から解析されたモーション動作を示す情報である。モーションパターン1420、1430、1440は、それぞれ円形モーション(円状に動かすモーション)、左右モーション(左右に動かすモーション)、上下モーション(上下に動かすモーション)を示す。モーション情報1450は、タブレットPC970に内蔵されるモーションセンサー177からの出力に基づくモーション動作を示す情報である。
図14において、モーション情報1410は、プロジェクター900に内蔵されるカメラ94で撮影された動画像から解析されたモーション動作を示す情報である。モーションパターン1420、1430、1440は、それぞれ円形モーション(円状に動かすモーション)、左右モーション(左右に動かすモーション)、上下モーション(上下に動かすモーション)を示す。モーション情報1450は、タブレットPC970に内蔵されるモーションセンサー177からの出力に基づくモーション動作を示す情報である。
本実施形態では、まず、プロジェクター900に内蔵されるカメラ94で撮影された動画像から解析されたモーション情報1410を、事前に用意した識別器に入力する。識別器は、モーション情報1410を、モーションパターン1420、1430、1440の何れか1つに分類する。識別器は公知の技術を用いればよい。例えば、SVM(Support Vector Machine)等を識別器として利用することができる。
図14に示す例では、モーション情報1410は、事前に定められた3種類のモーションパターン1420、1430、1440のうち、左右モーションを示すモーションパターン1430に分類される。
モーションセンサー177からの出力に基づくモーション情報1450も、同様に識別器に入力し、識別器で、モーションパターン1420、1430、1440の何れか1つに分類する。
図14に示す例では、モーション情報1450は、左右モーションを示すモーションパターン1430に分類される。
モーションセンサー177からの出力に基づくモーション情報1450も、同様に識別器に入力し、識別器で、モーションパターン1420、1430、1440の何れか1つに分類する。
図14に示す例では、モーション情報1450は、左右モーションを示すモーションパターン1430に分類される。
以上のように、図14に示す例では、カメラ94で撮影された動画像から解析されたモーション情報1410と、モーションセンサー177からの出力に基づくモーション情報1450との両者が同じモーションパターンに分類される。したがって、図14に示す例では、照合部11は、モーション情報1410、1450は同一のモーション情報であると判定する。
尚、モーションパターンへの分類を介さずに、モーション情報同士を直接比較して、それらのモーション情報が、同一または所定の条件下で類似するモーション情報であるかどうかを判定するようにしてもよい。
プロジェクター900の通信部5は、モーション情報が同一のモーション情報であるか否かを照合結果としてタブレットPC970の通信部174に送信する。
尚、モーションパターンへの分類を介さずに、モーション情報同士を直接比較して、それらのモーション情報が、同一または所定の条件下で類似するモーション情報であるかどうかを判定するようにしてもよい。
プロジェクター900の通信部5は、モーション情報が同一のモーション情報であるか否かを照合結果としてタブレットPC970の通信部174に送信する。
ステップS1111からステップS1116までの処理は、図3のステップS310からステップS315までの処理と同じであるため、これらの処理の詳細な説明を省略する。尚、ここでは、ステップS1104、S1107、S1108、S1110の処理が、プロジェクター900の処理であるものとして説明した。しかしながら、ステップS1111に示すように、ステップS1104、S1107、S1108、S1110の処理は、プロジェクター900、930毎に繰り返し行われる。
また、ステップS1112では、タブレットPC970の制御部171は、各モーション情報が同一のモーション情報であることを示す照合結果の送信元のプロジェクター900を、表示可能な表示装置として処理を行う。また、タブレットPC970の制御部171は、各モーション情報が同一のモーション情報であることを示さない照合結果の送信元のプロジェクター930を表示不可能な表示装置として処理を行う。
以上が、本実施形態の表示システムにおける全体処理のフローの一例である。
以上が、本実施形態の表示システムにおける全体処理のフローの一例である。
以上のように本実施形態では、タブレットPC970のモーションセンサー177の検出結果に基づくモーション情報をプロジェクター900、930に送信する。プロジェクター900、930は、自身に内蔵されるカメラ94、940で撮影された動画像に基づくモーション情報と、タブレットPC170から送信されたモーション情報とを照合する。したがって、第1の実施形態で説明した効果と同様の効果を持つ表示システムを実現することができる。
本実施形態では、プロジェクター900に内蔵されるカメラ94で撮影された動画像からモーション情報を取得する際、タブレットPC970の画面にモーション動作読み取り用の二次元バーコード1220を表示する方法を例に挙げて説明した。しかしながら、プロジェクター900、930は、その他の方法で、カメラ94、940で撮影された動画像からモーション情報を取得してもよい。例えば、カメラ94、940で撮影された動画像から、タブレットPC970自体の動きを検出したり、タブレットPC970を掴む手の動きを検出したりことで、当該動画像からモーション情報を取得してもよい。
(第4の実施形態)
次に、第4の実施形態を説明する。第3の実施形態では、情報端末(タブレットPC970)から表示装置(プロジェクター900、930)にモーション情報を送信し、モーション情報の照合を表示装置で行う場合を例に挙げて説明した。これに対し本実施形態では、表示装置は、カメラで撮影した動画像を解析して取得したモーション情報を情報端末に送信する。情報端末は、モーションセンサーから取得したモーション情報と、表示装置から送信されたモーション情報を照合することで、ユーザに表示許可を与える場合について説明する。このように本実施形態と第3の実施形態とは、モーション情報の照合を情報端末で行うことに基づく構成および処理の一部が主として異なる。したがって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して、詳細な説明を省略する。
次に、第4の実施形態を説明する。第3の実施形態では、情報端末(タブレットPC970)から表示装置(プロジェクター900、930)にモーション情報を送信し、モーション情報の照合を表示装置で行う場合を例に挙げて説明した。これに対し本実施形態では、表示装置は、カメラで撮影した動画像を解析して取得したモーション情報を情報端末に送信する。情報端末は、モーションセンサーから取得したモーション情報と、表示装置から送信されたモーション情報を照合することで、ユーザに表示許可を与える場合について説明する。このように本実施形態と第3の実施形態とは、モーション情報の照合を情報端末で行うことに基づく構成および処理の一部が主として異なる。したがって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して、詳細な説明を省略する。
<全体構成、ハードウェア構成>
本実施形態における表示システムの全体構成は、第3の実施形態における表示システムの全体構成(図9に示す構成)と同じである。したがって、以下の説明では、図9を流用して説明する。
また、プロジェクター900、930、タブレットPC970、およびRC200のハードウェアの構成は、第3の実施形態で説明した構成(図10に示す構成)と同じもので実現することができる。したがって、以下の説明では、図10を流用して説明する。また、各装置の説明は、第1の実施形態の説明と重複するため省略する。ただし、本実施形態では、プロジェクター900、930は、照合部11を有する必要はない。その代わりに、タブレットPC970に、照合部11を設けるのが好ましい。本実施形態では、タブレットPC970が照合部11を有しているものとして説明を行う。ただし、照合部11における機能を、タブレットPC970の制御部171で実現してもよい。
本実施形態における表示システムの全体構成は、第3の実施形態における表示システムの全体構成(図9に示す構成)と同じである。したがって、以下の説明では、図9を流用して説明する。
また、プロジェクター900、930、タブレットPC970、およびRC200のハードウェアの構成は、第3の実施形態で説明した構成(図10に示す構成)と同じもので実現することができる。したがって、以下の説明では、図10を流用して説明する。また、各装置の説明は、第1の実施形態の説明と重複するため省略する。ただし、本実施形態では、プロジェクター900、930は、照合部11を有する必要はない。その代わりに、タブレットPC970に、照合部11を設けるのが好ましい。本実施形態では、タブレットPC970が照合部11を有しているものとして説明を行う。ただし、照合部11における機能を、タブレットPC970の制御部171で実現してもよい。
<全体処理フロー>
図15は、プロジェクター900および930と、タブレットPC970とが無線で接続し、表示映像を表示する際の表示システムにおける全体処理の一例を説明するフローチャートである。
図15を参照しながら、本実施形態の表示システムにおける処理の一例を詳細に説明する。尚、このフローチャートを開始する前の各装置の状態は、第3の実施形態の表示システムの全体処理のフローチャート(図11)を開始する前の各装置の状態と同じであるとする。
図15は、プロジェクター900および930と、タブレットPC970とが無線で接続し、表示映像を表示する際の表示システムにおける全体処理の一例を説明するフローチャートである。
図15を参照しながら、本実施形態の表示システムにおける処理の一例を詳細に説明する。尚、このフローチャートを開始する前の各装置の状態は、第3の実施形態の表示システムの全体処理のフローチャート(図11)を開始する前の各装置の状態と同じであるとする。
ステップS1501からステップS1508までの処理は、図11のステップS1101からステップS1108までの処理と同じであるため、これらの処理の詳細な説明を省略する。
モーション取得部10が、カメラ94で撮影された動画像を解析してモーション情報を取得した後(ステップS1508の後)、プロジェクター900の通信部5は、当該モーション情報をタブレットPC970に送信する。
続いて、タブレットPC970の制御部171は、モーションセンサー177からモーション情報を取得する(ステップS1510)。
モーション取得部10が、カメラ94で撮影された動画像を解析してモーション情報を取得した後(ステップS1508の後)、プロジェクター900の通信部5は、当該モーション情報をタブレットPC970に送信する。
続いて、タブレットPC970の制御部171は、モーションセンサー177からモーション情報を取得する(ステップS1510)。
続いて、タブレットPC170の照合部11は、プロジェクター900が動画像を解析して取得したモーション情報と、モーションセンサー177から取得したモーション情報とを照合する(ステップS1511)。モーション情報の照合の方法は、第3の実施形態で説明した方法と同じであるため、当該方法の詳細な説明を省略する(図11のステップS1110の説明を参照)。
ステップS1512からステップ1517までの処理は、図11のステップS1111からステップS1116までの処理(図3のステップS310からステップS315までの処理)と同じであるため、これらの処理の詳細な説明を省略する。
以上が、本実施形態の表示システムにおける全体処理のフローの一例である。
以上が、本実施形態の表示システムにおける全体処理のフローの一例である。
以上のように本実施形態では、プロジェクター900、930に内蔵されるカメラ94、940で撮影された動画像に基づくモーション情報をタブレットPC970に送信する。タブレットPC970は、タブレットPC170のモーションセンサー177の検出結果に基づくモーション情報と、プロジェクター900、930から送信されたモーション情報とを照合する。したがって、第1の実施形態で説明した効果と同様の効果を持つ表示システムを実現することができる。また、モーション情報の照合を情報端末(タブレットPC970)で行うので、表示装置(プロジェクター900、930)にかかる計算負荷を軽減することができる。
(その他の実施形態)
第1〜第4の実施形態で説明した表示装置(プロジェクター)に替えて、当該表示装置以外の情報処理装置を採用することができる。例えば、デジタルカメラ、プリンター、複写機などの情報処理装置を表示装置に替えて採用することができる。第1〜第4の実施形態で説明した処理を、これらの情報処理装置に適用することで、表示装置と同様に、ユーザは、室内の情報処理装置に簡易に無線接続することができ、利便性を向上させることができる。
第1〜第4の実施形態で説明した表示装置(プロジェクター)に替えて、当該表示装置以外の情報処理装置を採用することができる。例えば、デジタルカメラ、プリンター、複写機などの情報処理装置を表示装置に替えて採用することができる。第1〜第4の実施形態で説明した処理を、これらの情報処理装置に適用することで、表示装置と同様に、ユーザは、室内の情報処理装置に簡易に無線接続することができ、利便性を向上させることができる。
第1〜第4の実施形態で説明した処理を、デジタルカメラに適用した場合、デジタルカメラの背面液晶パネルや、電子ビューファインダ等において本実施形態に係る画像が表示される。
プリンターや複写機に適用した場合、用紙に印刷を行う印刷部によって本実施形態に係る画像が出力される。また、この場合、印刷用紙を室外の機器に出力してしまうことで、部外者に印刷物を見られてしまうリスクを軽減することができる。
プリンターや複写機に適用した場合、用紙に印刷を行う印刷部によって本実施形態に係る画像が出力される。また、この場合、印刷用紙を室外の機器に出力してしまうことで、部外者に印刷物を見られてしまうリスクを軽減することができる。
また、第1〜第4の実施形態では、表示装置(プロジェクター等)から画像情報を出力する場合を例に挙げて説明した。しかしながら、出力する情報は、画像情報に限定されない。例えば、音声情報を出力情報としてもよい。したがって、情報処理装置は、必ずしも画像情報を出力する装置である必要はない。
また、第1〜第4の実施形態では、タブレットPC170、970が、インカメラ180を内蔵する場合を例に挙げて説明した。しかしながら、タブレットPC170は、必ずしもインカメラ180を内蔵していなくてもよい。例えば、タブレットPC170とは別の撮像装置で撮影された画像を、有線または無線で、タブレットPC170に送信するようにしてもよい。ただし、このようにした場合でも、前記撮像装置は、タブレットPC170の周囲の少なくとも一部の領域(図1に示す例では、タブレットPC170がある部屋と同じ部屋内)の画像を撮像する必要がある。
また、本実施形態では、プロジェクター100、130、900、930が、カメラ4、94、140、940を内蔵する場合を例に挙げて説明した。しかしながら、プロジェクター100、130、900、930は、必ずしもカメラ4、94、140、940を内蔵していなくてもよい。例えば、プロジェクター100、130、900、930とは別の撮像装置で撮影された画像を、有線または無線で、プロジェクター100、130、900、930に送信するようにしてもよい。ただし、このようにした場合でも、前記撮像装置は、プロジェクター100、130、900、930の周囲の少なくとも一部の領域の画像を撮像する必要がある。
また、本実施形態では、プロジェクター100、130、900、930が、カメラ4、94、140、940を内蔵する場合を例に挙げて説明した。しかしながら、プロジェクター100、130、900、930は、必ずしもカメラ4、94、140、940を内蔵していなくてもよい。例えば、プロジェクター100、130、900、930とは別の撮像装置で撮影された画像を、有線または無線で、プロジェクター100、130、900、930に送信するようにしてもよい。ただし、このようにした場合でも、前記撮像装置は、プロジェクター100、130、900、930の周囲の少なくとも一部の領域の画像を撮像する必要がある。
(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100、130:プロジェクター、120、150:スクリーン、160:壁、170:タブレットPC
Claims (20)
- 情報処理装置と無線通信を行う情報端末であって、
前記情報端末との無線通信が可能な少なくとも1つの前記情報処理装置で取得された情報を無線通信で受信する受信手段と、
前記情報端末で取得された情報と、前記受信手段により受信された前記少なくとも1つの情報処理装置で取得された情報とをそれぞれ照合する照合手段と、
前記情報端末で取得された情報と同じまたは所定の条件下で類似する情報を取得した前記情報処理装置を示す情報を表示する照合結果表示手段と、
前記照合結果表示手段により表示された前記情報により示される前記情報処理装置の中からユーザにより選択された前記情報処理装置に、当該情報処理装置において出力する出力情報を無線通信で送信する出力情報送信手段と、を有することを特徴とする情報端末。 - 前記出力情報は、画像情報を含むことを特徴とする請求項1に記載の情報端末。
- 前記情報端末で取得される情報は、前記情報端末の周囲の少なくとも一部の領域を撮像した画像を含み、
前記情報処理装置で取得される情報は、前記情報処理装置の周囲の少なくとも一部の領域を撮像した画像を含むことを特徴とする請求項1または2に記載の情報端末。 - 特定の物体の画像が撮像されるようにすることを促す情報を表示する撮像案内表示手段をさらに有し、
前記情報処理装置で取得される情報は、前記情報処理装置で撮像した画像に含まれる特定の物体を識別する情報をさらに含み、
前記撮像案内表示手段は、前記特定の物体を識別する情報に基づいて、当該特定の物体の画像が撮像されるようにすることを促す情報を表示し、
前記特定の物体の画像が撮像されるようにすることを促す情報が表示された後に、前記情報処理装置の周囲の少なくとも一部の領域の画像が撮像されるようにしたことを特徴とする請求項3に記載の情報端末。 - 前記特定の物体は、人物の顔、または、特定の表示パターンであることを特徴とする請求項4に記載の情報端末。
- 撮像手段をさらに有し、
前記撮像手段は、前記情報端末の周囲の少なくとも一部の領域を撮像することを特徴とする請求項3〜5の何れか1項に記載の情報端末。 - 前記情報端末の動きを検出するセンサーをさらに有し、
前記情報端末で取得される情報は、前記センサーにより検出された前記情報端末の動きを示す情報を含み、
前記情報処理装置で取得される情報は、前記情報処理装置の周囲の少なくとも一部の領域を撮像した動画像を含むことを特徴とする請求項1または2に記載の情報端末。 - 前記動画像として、前記情報端末を動かす様子を示す動画像が撮像されるようにすることを促す情報を表示する撮像案内表示手段をさらに有し、
前記情報端末を動かす様子を示す動画像が撮像されるようにすることを促す情報が表示された後に、前記情報処理装置において前記動画像が取得されるようにしたことを特徴とする請求項7に記載の情報端末。 - 情報端末と無線通信を行う情報処理装置であって、
前記情報端末で取得された情報を無線通信で受信する受信手段と、
前記情報処理装置で取得された情報と、前記受信手段により受信された前記情報端末で取得された情報とを照合する照合手段と、
前記照合手段による照合の結果を示す情報として、前記情報処理装置で取得された情報と、前記情報端末で取得された情報とが同じまたは所定の条件下で類似するか否かを示す情報を、前記情報端末に、無線通信で送信する送信手段と、
前記照合手段による照合の結果を示す情報が前記送信手段により送信された後に前記情報端末から送信された出力情報を受信する受信手段と、
前記受信手段により受信された前記出力情報を出力する出力手段と、を有することを特徴とする情報処理装置。 - 前記出力情報は、画像情報を含むことを特徴とする請求項9に記載の情報処理装置。
- 前記情報端末で取得される情報は、前記情報端末の周囲の少なくとも一部の領域を撮像した画像を含み、
前記情報処理装置で取得される情報は、前記情報処理装置の周囲の少なくとも一部の領域を撮像した画像を含み、
前記照合手段は、前記情報処理装置の周囲の少なくとも一部の領域を撮像した画像から、前記情報端末の周囲の少なくとも一部の領域を撮像した画像に含まれる特定の物体の画像を検出することを特徴とする請求項9または10に記載の情報処理装置。 - 前記特定の物体は、人物の顔、または、特定の表示パターンであることを特徴とする請求項11に記載の情報処理装置。
- 撮像手段を有し、
前記撮像手段は、前記情報処理装置の周囲の少なくとも一部の領域を撮像することを特徴とする請求項11または12に記載の情報処理装置。 - 前記情報端末で取得される情報は、前記情報端末に備わるセンサーにより検出された前記情報端末の動きを示す情報を含み、
前記情報処理装置で取得される情報は、前記情報処理装置の周囲の少なくとも一部の領域を撮像した動画像を含むことを特徴とする請求項11または12に記載の情報処理装置。 - 前記動画像として前記情報端末を動かす様子を示す動画像が撮像されるようにすることを促す情報が前記情報端末で表示された後に、前記動画像が撮像されることを特徴とする請求項14に記載の情報処理装置。
- 撮像手段を有し、
前記撮像手段は、前記動画像を撮像することを特徴とする請求項14または15に記載の情報処理装置。 - 情報端末から情報処理装置に無線通信で出力情報を送信する送信方法であって、
前記情報端末との無線通信が可能な少なくとも1つの前記情報処理装置で取得された情報を無線通信で受信する受信工程と、
前記情報端末で取得された情報と、前記受信工程により受信された前記少なくとも1つの情報処理装置で取得された情報とをそれぞれ照合する照合工程と、
前記情報端末で取得された情報と同じまたは所定の条件下で類似する情報を取得した前記情報処理装置を示す情報を表示する表示工程と、
前記表示工程により表示された前記情報により示される前記情報処理装置の中からユーザにより選択された前記情報処理装置に、当該情報処理装置において出力する出力情報を無線通信で送信する送信工程と、を有することを特徴とする送信方法。 - 情報端末から情報処理装置に無線通信で送信された出力情報を出力する出力方法であって、
前記情報端末で取得された情報を無線通信で受信する受信工程と、
前記情報処理装置で取得された情報と、前記受信工程により受信された前記情報端末で取得された情報とを照合する照合工程と、
前記照合工程による照合の結果を示す情報として、前記情報処理装置で取得された情報と、前記情報端末で取得された情報とが同じまたは所定の条件下で類似するか否かを示す情報を、前記情報端末に、無線通信で送信する送信工程と、
前記照合工程による照合の結果を示す情報が前記送信工程により送信された後に前記情報端末から送信された出力情報を受信する受信工程と、
前記受信工程により受信された前記出力情報を出力する出力工程と、を有することを特徴とする出力方法。 - 請求項1〜8の何れか1項に記載の情報端末の各手段としてコンピュータを機能させることを特徴とするプログラム。
- 請求項9〜16の何れか1項に記載の情報処理装置の各手段としてコンピュータを機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014214600A JP2016081428A (ja) | 2014-10-21 | 2014-10-21 | 情報端末、情報処理装置、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014214600A JP2016081428A (ja) | 2014-10-21 | 2014-10-21 | 情報端末、情報処理装置、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016081428A true JP2016081428A (ja) | 2016-05-16 |
Family
ID=55958818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014214600A Pending JP2016081428A (ja) | 2014-10-21 | 2014-10-21 | 情報端末、情報処理装置、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016081428A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036292A (ja) * | 2016-08-29 | 2018-03-08 | セイコーエプソン株式会社 | 表示装置、制御装置、表示方法およびプログラム |
JP2019176234A (ja) * | 2018-03-27 | 2019-10-10 | 日本電気株式会社 | 通信システム、通信端末、通信プログラム及び通信方法 |
JP2019193120A (ja) * | 2018-04-25 | 2019-10-31 | キヤノン株式会社 | 通信装置、制御方法、及びプログラム |
JP2022140375A (ja) * | 2021-03-10 | 2022-09-26 | 深▲セン▼市絵王動漫科技有限公司 | クラウドに接続されるデジタルタブレット装置 |
-
2014
- 2014-10-21 JP JP2014214600A patent/JP2016081428A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036292A (ja) * | 2016-08-29 | 2018-03-08 | セイコーエプソン株式会社 | 表示装置、制御装置、表示方法およびプログラム |
JP2019176234A (ja) * | 2018-03-27 | 2019-10-10 | 日本電気株式会社 | 通信システム、通信端末、通信プログラム及び通信方法 |
JP7069933B2 (ja) | 2018-03-27 | 2022-05-18 | 日本電気株式会社 | 通信システム、通信端末、通信プログラム及び通信方法 |
JP2019193120A (ja) * | 2018-04-25 | 2019-10-31 | キヤノン株式会社 | 通信装置、制御方法、及びプログラム |
KR20190124141A (ko) * | 2018-04-25 | 2019-11-04 | 캐논 가부시끼가이샤 | 통신장치, 제어방법, 및 컴퓨터 판독가능한 기억매체 |
JP7257744B2 (ja) | 2018-04-25 | 2023-04-14 | キヤノン株式会社 | 通信装置、制御方法、及びプログラム |
KR102527424B1 (ko) * | 2018-04-25 | 2023-05-03 | 캐논 가부시끼가이샤 | 통신장치, 제어방법, 및 컴퓨터 판독가능한 기억매체 |
US11838116B2 (en) | 2018-04-25 | 2023-12-05 | Canon Kabushiki Kaisha | Communication apparatus, control method, and computer-readable storage medium |
JP2022140375A (ja) * | 2021-03-10 | 2022-09-26 | 深▲セン▼市絵王動漫科技有限公司 | クラウドに接続されるデジタルタブレット装置 |
JP7371153B2 (ja) | 2021-03-10 | 2023-10-30 | 深▲セン▼市絵王動漫科技有限公司 | クラウドに接続されるデジタルタブレット装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3885986B1 (en) | User terminal apparatus and iris recognition method thereof | |
JP5562154B2 (ja) | 撮像装置、撮影補助システム、撮影補助方法、画像データ解析方法およびプログラム | |
JP2013076924A5 (ja) | ||
JP2015115839A5 (ja) | ||
JP2010086336A (ja) | 画像制御装置、画像制御プログラムおよび画像制御方法 | |
CN108965656B (zh) | 显示控制设备、显示控制方法和存储介质 | |
KR102655625B1 (ko) | 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치. | |
EP3989118A1 (en) | Target tracking method and system, readable storage medium and moving platform | |
JP2017168882A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2012079167A (ja) | 情報処理装置、情報処理システムおよび情報処理方法 | |
JP2016081428A (ja) | 情報端末、情報処理装置、およびプログラム | |
US20160328201A1 (en) | Display control system, display control apparatus, display control method, and storage medium | |
JP2014042160A (ja) | 表示端末、動体検知の対象領域の設定方法及びプログラム | |
US9773143B2 (en) | Image processing apparatus, image processing method, and image processing system | |
US11252387B2 (en) | Projection apparatus, projection method and storage medium | |
JP2015198300A (ja) | 情報処理装置、撮像装置、画像管理システム | |
JP2017085204A (ja) | メタデータの登録制御 | |
JP2013021551A (ja) | 検知装置、検知方法及びプログラム | |
KR20140061226A (ko) | 영상을 표시하는 방법 및 이를 위한 장치 | |
JP6642316B2 (ja) | 情報処理システム、電子機器、情報処理装置、情報処理方法、電子機器処理方法、及びプログラム | |
JP2013149034A (ja) | 画像表示装置、画像表示方法及びプログラム | |
JP2014170367A (ja) | 物体検出装置、物体検出方法、物体検出システム及びプログラム | |
US9049382B2 (en) | Image processing apparatus and image processing method | |
JP6460510B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6537459B2 (ja) | 防犯カメラ設置支援装置及びプログラム |