JP2013025488A - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP2013025488A JP2013025488A JP2011158329A JP2011158329A JP2013025488A JP 2013025488 A JP2013025488 A JP 2013025488A JP 2011158329 A JP2011158329 A JP 2011158329A JP 2011158329 A JP2011158329 A JP 2011158329A JP 2013025488 A JP2013025488 A JP 2013025488A
- Authority
- JP
- Japan
- Prior art keywords
- switching request
- unit
- user
- information terminal
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、複数の情報端末と無線通信を行う情報処理装置および情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method for performing wireless communication with a plurality of information terminals.
従来から、パーソナルコンピュータといった情報端末の画面の画像を、ケーブルを介してプロジェクタに送り、スクリーンなどに投影させることが行われている。また、近年では、情報端末の画面の画像を、ケーブルを用いずに、無線ネットワーク(無線LAN(Local Area Network))を介してプロジェクタに送信して、当該画像をスクリーンに投影させる無線ネットワークプロジェクタシステムが開発され、既に知られている。 Conventionally, an image of a screen of an information terminal such as a personal computer is sent to a projector via a cable and projected onto a screen or the like. Also, in recent years, a wireless network projector system that transmits an image of an information terminal screen to a projector via a wireless network (wireless LAN (Local Area Network)) without using a cable, and projects the image on a screen. Has been developed and is already known.
また、IEEE802.11シリーズ、BlueTooth(登録商標)やWireless USB(登録商標)、といった規格が複数、策定され、利用できるようになってきている。このような、装置同士で直接的に無線通信が可能な通信方式を用いた無線ネットワークプロジェクタシステムも提案されている。 In addition, a plurality of standards such as IEEE 802.11 series, BlueTooth (registered trademark), and Wireless USB (registered trademark) have been formulated and can be used. There has also been proposed a wireless network projector system using a communication method that enables direct wireless communication between devices.
特許文献1には、異なる複数の接続情報をスクリーンを分割した各小領域にそれぞれ表示させることで、プロジェクタは、複数の情報端末装置との間で通信を確立し、複数の情報端末装置から送信された画像を、スクリーン上の各小領域にそれぞれ表示させることを可能とした技術が開示されている。 In Patent Document 1, a plurality of different connection information is displayed in each small area obtained by dividing a screen, so that the projector establishes communication with a plurality of information terminal devices and transmits from the plurality of information terminal devices. A technique is disclosed that makes it possible to display each of the images on each small area on the screen.
ここで、無線ネットワークプロジェクタシステムにおいて、複数のユーザがそれぞれ情報端末を持ち、この複数の情報端末からユーザの指示により1を選択して、選択された情報端末から出力される画像をプロジェクタにより投影する場合について考える。 Here, in the wireless network projector system, a plurality of users each have an information terminal, 1 is selected from the plurality of information terminals according to a user instruction, and an image output from the selected information terminal is projected by the projector. Think about the case.
この場合、従来では、プロジェクタに画像を投影させる情報端末を切り替える際には、例えばユーザがプロジェクタまたは情報端末に対して切り替え操作を行う必要があり、手間がかかっていた。したがって、プロジェクタにより投影させる画像を出力する情報端末を、複数の情報端末から簡易な方法で選択可能とすることが求められていた。 In this case, conventionally, when switching an information terminal for projecting an image on a projector, for example, a user needs to perform a switching operation on the projector or the information terminal, which is troublesome. Therefore, it has been demanded that an information terminal that outputs an image to be projected by a projector can be selected from a plurality of information terminals by a simple method.
上述した特許文献1では、プロジェクタが複数の情報端末装置から送信された画像のそれぞれをスクリーンを分割した各小領域に同時に表示可能とされている。しかしながら、特許文献1は、複数の情報端末装置から送信される画像のうち1を選択し、選択された画像をスクリーンの全面に表示するようにはなっていないという問題点があった。 In Patent Document 1 described above, the projector can simultaneously display each of images transmitted from a plurality of information terminal devices in each small area obtained by dividing the screen. However, Patent Document 1 has a problem in that one of images transmitted from a plurality of information terminal devices is selected and the selected image is not displayed on the entire screen.
本発明は、上記に鑑みてなされたものであって、データの送信元の情報端末を簡易な方法で切り替え可能とすることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to enable switching of an information terminal that is a data transmission source by a simple method.
上述した課題を解決し、目的を達成するために、本発明は、無線通信を行う通信手段と、撮像を行い撮像画像を出力する撮像手段と、予め、撮像画像でのユーザの位置を示す位置情報と、通信手段と通信を行うためのユーザが用いる情報端末の識別情報とを関連付けて記憶する記憶手段と、撮像手段で撮像された撮像画像から、ユーザによる、通信手段が通信を行う通信相手の切り替え要求を示す切り替え要求動作を検出する第1の動作検出手段と、第1の動作検出手段で切り替え要求動作が検出された場合に、切り替え要求動作が検出された撮像画像中の位置に対応する位置情報と関連付けられて記憶手段に記憶される識別情報に示される情報端末と通信を行うように通信手段を制御する制御手段とを有することを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a communication unit that performs wireless communication, an imaging unit that performs imaging and outputs a captured image, and a position that indicates a position of the user in the captured image in advance. A storage unit for storing information and identification information of an information terminal used by the user for communicating with the communication unit, and a communication partner with which the communication unit communicates by the user from the captured image captured by the imaging unit Corresponding to a position in the captured image where the switching request operation is detected when the switching request operation is detected by the first operation detecting unit and the first operation detecting unit detecting the switching request operation indicating the switching request Control means for controlling the communication means so as to communicate with the information terminal indicated by the identification information stored in the storage means in association with the position information.
また、本発明は、通信手段が、無線通信を行う通信ステップと、撮像手段が、撮像を行い撮像画像を出力する撮像ステップと、予め、撮像画像でのユーザの位置を示す位置情報と、通信ステップによる通信を行うためのユーザが用いる情報端末の識別情報とを関連付けて記憶手段に記憶する記憶ステップと、動作検出手段が、撮像ステップで撮像された撮像画像から、ユーザによる、通信ステップが通信を行う通信相手の切り替え要求を示す切り替え要求動作を検出する動作検出ステップと、制御手段が、動作検出ステップで切り替え要求動作が検出された場合に、切り替え要求動作が検出された撮像画像中の位置に対応する位置情報と関連付けられて記憶手段に記憶される識別情報に示される情報端末と通信を行うように通信ステップを制御する制御ステップとを有することを特徴とする。 In addition, the present invention provides a communication step in which the communication unit performs wireless communication, an imaging step in which the imaging unit performs imaging and outputs a captured image, position information indicating the position of the user in the captured image, and communication in advance. The storage step for storing the identification information of the information terminal used by the user for performing the communication in the step in association with the storage unit, and the operation detecting unit communicating the communication step by the user from the captured image captured in the imaging step. An operation detecting step for detecting a switching request operation indicating a switching request of a communication partner to be performed, and a position in the captured image where the switching request operation is detected when the control means detects the switching request operation in the operation detecting step. The communication step is controlled so as to communicate with the information terminal indicated by the identification information stored in the storage means in association with the position information corresponding to Characterized by a control step for.
本発明によれば、データの送信元の情報端末を簡易な方法で切り替え可能となるという効果を奏する。 According to the present invention, there is an effect that it is possible to switch the data transmission source information terminal by a simple method.
(発明の概略)
以下に添付図面を参照して、本発明に係る情報処理装置の実施形態を詳細に説明する。図1は、本発明の各実施形態に適用可能な無線プロジェクタシステムの一例の構成を示す。本発明の各実施形態における情報処理装置としてのプロジェクタ10は、無線通信によるデータ通信に対応し、無線通信を介して複数の情報端末20a、20b、20cおよび20dと通信を行うことができる。この無線通信により、プロジェクタ10は、情報端末20a〜20dから1を選択し、選択された例えば情報端末20aから送信される画像データによる画像をスクリーン30に投影させることができる。
(Outline of the Invention)
Embodiments of an information processing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 shows a configuration of an example of a wireless projector system applicable to each embodiment of the present invention. The
例えば、情報端末20a〜20dおよびプロジェクタ10は、無線通信として無線LAN(Local Area Network)に対応し、例えば情報端末20aおよびプロジェクタ10は、それぞれアンテナ21aおよびアンテナ11を用いた電波22の送受信により、無線LANの通信プロトコルに従いデータ通信を行う。情報端末20b〜20dも、同様にして、アンテナ21b〜21dを用いて、プロジェクタ10との間で電波22の送受信を行い、データ通信を行う。
For example, the
なお、以下では、特に記載のない限り、情報端末20a〜20dを、情報端末20で代表させて説明を行う。同様に、アンテナ21a〜21dをアンテナ21で代表させて説明を行う。
In the following description, the
図2は、無線LANによるデータ通信を行う際の一例のデータフレームのフォーマットを示す。ここでは、無線LANにおいて一般的に用いられる、イーサネット(登録商標)におけるMAC(Media Access Control)フレームの例を示す。MACフレームは、先頭から、MACヘッダ、フレームボディおよびFCS(Frame Check Sequence)からなる。MACヘッダは、フレーム制御情報や、送信側のMACアドレスなどが含まれる。フレームボディは、送信したいデータの本体が格納される。また、FCSは、MACヘッダおよびフレームボディについての誤り訂正符号が含まれる。 FIG. 2 shows an example of a data frame format when performing data communication by wireless LAN. Here, an example of a MAC (Media Access Control) frame in Ethernet (registered trademark) generally used in a wireless LAN is shown. The MAC frame includes a MAC header, a frame body, and an FCS (Frame Check Sequence) from the top. The MAC header includes frame control information, a MAC address on the transmission side, and the like. The frame body stores the main body of the data to be transmitted. The FCS includes an error correction code for the MAC header and the frame body.
本発明の各実施形態においては、プロジェクタ10が撮像手段を有し、撮像手段により撮像された撮像画像に基づき、ユーザによる切り替え要求を示す動作を検出する。プロジェクタ10は、当該動作が検出されると、スクリーン30に投影される画像を、当該動作を行ったユーザが使用する情報端末20から送信される画像データによる画像に切り替える。ユーザは、一々プロジェクタ10の設置場所まで赴かなくとも、プロジェクタ10に対して自分が使用する情報端末20による画像を、スクリーン30に投影させることができる。またそのために、リモートコントロールコマンダなどの遠隔操作による切り替え手段を用意する必要が無い。
In each embodiment of the present invention, the
(第1の実施形態)
次に、本発明の第1の実施形態について説明する。図3は、本第1の実施形態に適用可能なプロジェクタ10の機能を説明するための一例の機能ブロック図を示す。プロジェクタ10は、制御部100、撮像部110、動作検出部111、無線通信部112、表示情報生成部113、表示部114および記憶部115を有する。
(First embodiment)
Next, a first embodiment of the present invention will be described. FIG. 3 is a functional block diagram illustrating an example of functions of the
制御部100は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などを有し、ROMに予め記憶されたプログラムに従い、RAMをワークメモリとして用いて動作するCPUにより、このプロジェクタ10の全体の動作を制御する。なお、制御部100に関する接続経路は、煩雑さを避けるために図示を省略する。
The
撮像部110は、動画像の撮像を行い撮像画像データを出力する。動作検出部111は、撮像部110から出力された撮像画像データを解析し、撮像画像データから、切り替え要求動作と、当該撮像画像データのフレーム内における、切り替え要求動作が発生した位置とを検出する。動作検出部111は、例えば、MPEG(Moving Pictures Experts Group)による動画像の圧縮符号化技術における動き検出技術を用いて、動画像データから切り替え要求動作を検出することができる。
The
無線通信部112は、アンテナ11を介して、各情報端末20との間で電波22による通信を行う。例えば、無線通信部112は、TCP/IP(Transmission Control Protocol/Internet Protocol)を通信プロトコルとして用い、IEEE(Institute of Electrical and Electronics Engineers)802.11シリーズに規定される無線LANによる無線通信を行う。以下、特に記載のない限り、IEEE802.11に規定される無線LANを、単に無線LANと呼ぶ。
The
無線通信部112が対応する通信方式は、無線LANに限らず、BlueTooth(登録商標)やWireless USBといった、装置同士で直接的に無線通信を行うことが可能な方式であってもよい。
The communication method supported by the
無線通信部112は、動作検出部111による切り替え要求動作の検出結果に基づき、各情報端末20のうち通信を行う相手を選択する。そして、選択された情報端末20から受信した電波22を復調して画像データを抽出し、表示情報生成部113に供給する。
The
表示情報生成部113は、後述する表示部114によりスクリーン30などの表示媒体に投影するための表示画像データを生成する。例えば、表示情報生成部113は、無線通信部112から供給された画像データに基づき表示画像データを生成し、表示部114に供給する。また、表示情報生成部113に対して、動作検出部111による切り替え要求動作の検出結果が供給される。表示情報生成部113は、供給された切り替え要求動作の検出結果に基づき、少なくとも、切り替え要求動作を行ったユーザが使用する情報端末20を示す情報を表示するための表示データを生成する。この表示データは、上述の表示画像データに対して合成されて、表示部114に供給される。
The display
表示部114は、例えば、光源と、RGB各色のカラーフィルタを組み込んだ液晶パネルと、RGB各色の液晶パネルから出射される光を合成するプリズムと、レンズなど光学部品とを組み合わせた光学系と、表示画像データに基づき液晶パネルを駆動する駆動回路とを備える。表示部114は、光源から出射される光は、ダイクロイックミラーなどによりRGB各色の光に分離され、各色のカラーフィルタを組み込んだ液晶パネルに入射される。RGB各色の光は、駆動回路により駆動される液晶パネルに制御され、プリズムによりRGB各色の光が合成されレンズなどを介して光学系から出射される。光学系から出射された光は、例えばスクリーン30といった表示媒体に投影される。
The
なお、表示部114の投影方式は、光源と液晶パネルとを組み合わせた方式に限定されない。また、画像の投影対象は、スクリーン30に限定されず、壁などでもよい。さらに、上述した撮像部110は、プロジェクタ10を、表示部114から出射された光がスクリーン30に投影されるように設置した場合に、ユーザ側を撮像するように構成すると好ましい。さらにまた、撮像部110は、プロジェクタ10に内蔵せずに、プロジェクタ10に対して外付けで用いてもよい。
Note that the projection method of the
また、撮像部110は、一般的な可視光の範囲を撮像するカメラを用いてもよいし、赤外線を撮像可能な赤外線カメラであってもよい。これに限らず、可視光撮像用のカメラと、赤外線カメラとを組み合わせて用いてもよい。さらに、撮像部110が、同種のカメラを複数台含んでいてもよい。例えば、撮像部110が同一の被写体を撮像するように配置された2台の可視光カメラを有し、当該被写体を立体的に撮像することが考えられる。
The
記憶部115は、後述するように、プロジェクタ10の使用開始時のキャリブレーションにより取得する、各情報端末の使用者による切り替え要求動作の特徴量や、当該切り替え要求動作が検出される動画像内での位置を示す情報とが、各情報端末20を識別する識別情報と関連付けられて記憶される。動作検出部111は、この記憶部115に記憶される情報に基づき、切り替え要求動作を行ったユーザの情報端末20を特定することができる。
As will be described later, the
図4は、情報端末20の機能を説明するための一例の機能ブロック図を示す。情報端末20は、制御部120、画像情報生成部131および無線通信部132を有する。制御部120は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などを有し、ROMに予め記憶されたプログラムに従い、RAMをワークメモリとして用いて動作するCPUにより、この情報端末20の全体の動作を制御する。
FIG. 4 is a functional block diagram illustrating an example of the function of the
画像情報生成部131は、例えばプログラムに従い画像データを生成する。生成された画像データは、無線通信部132に供給される。無線通信部132は、アンテナ21を介して、プロジェクタ10の無線通信部112が対応可能な通信方式に従い、電波22による通信を行う。例えば、無線通信部132は、TCP/IPをプロトコルとして用いて、プロジェクタ10の無線通信部112と、無線LANによる無線通信を行う。画像データは、例えばMACフレームのフレームボディに詰め込まれて送信される。
The image information generation unit 131 generates image data according to a program, for example. The generated image data is supplied to the
勿論、無線通信部132は、BlueTooth(登録商標)やWireless USBなどの通信方式でプロジェクタ10の無線通信部112と無線通信を行うようにしてもよい。
Of course, the
なお、情報端末20としては、例えば一般的なパーソナルコンピュータを用いることができる。
For example, a general personal computer can be used as the
(キャリブレーション)
次に、本発明の各実施形態に適用可能なキャリブレーション処理について説明する。キャリブレーション処理は、プロジェクタ10を使用するユーザによる切り替え要求動作と、当該ユーザが使用する情報端末20の情報とを関連付けて登録する処理である。キャリブレーション処理は、例えば、プロジェクタ10において、各情報端末20から送信した画像データによる画像の投影を開始する前に、予め実行される。
(Calibration)
Next, calibration processing applicable to each embodiment of the present invention will be described. The calibration process is a process of registering the switching request operation by the user who uses the
図5は、各実施形態に適用可能なキャリブレーション処理を示す一例のフローチャートである。このフローチャートによる各処理は、プロジェクタ10において、制御部100の制御に従ったプロジェクタ10の各部によって実行される。
FIG. 5 is a flowchart illustrating an example of calibration processing applicable to each embodiment. Each process according to this flowchart is executed by each unit of the
ステップS10で、各情報端末20がプロジェクタ10と無線LANによる無線通信で接続される。接続の際に、各情報端末20の無線通信部132と、プロジェクタ10の無線通信部112との間でプロトコルに従った情報のやりとりが行われ、無線通信部112は、各情報端末20を無線通信ネットワーク上で識別できる識別情報を取得する。例えば、プロトコルとしてTCP/IPを用いる場合、各情報端末20のMACアドレスと、IP(Internet Protocol)アドレスとが、各情報端末20を識別するための識別情報として用いられる。また、プロジェクタ10は、ステップS10での通信において、各情報端末20が画像出力モードであるか否かを示す動作モード情報を取得する。
In step S10, each
プロジェクタ10において、無線通信部112は、ステップS10で各情報端末20の接続処理が終了すると、各情報端末20から1を選択して次のステップS11に移行する。ここでは、ユーザAが使用する情報端末20aが選択されたものとする。ステップS11で、無線通信部112は、情報端末20aから送信された動作モード情報に基づき、情報端末20aの動作モードが画像出力モードであるか否かを判定する。若し、ステップS11で、情報端末20aの動作モードが画像出力モードであると判定した場合、処理がステップS12に移行され、プロジェクタ10は、情報端末20aによる画像をスクリーン30に投影させる。
In the
一方、情報端末20aの動作モードが画像出力モードではないと判定された場合、処理をステップS13に移行させ、プロジェクタ10は、情報端末20aの接続情報をスクリーン30に投影させる。例えば、プロジェクタ10において、無線通信部112は、MACフレームから当該情報端末20aのMACアドレスやIPアドレスを抽出し、当該情報端末20aの接続情報として表示情報生成部113に供給する。表示情報生成部113は、供給された接続情報を表示させるための表示画像データを生成して表示部114に供給し、当該表示画像データによる画像をスクリーン30に投影させる。これに限らず、当該情報端末20aに設定されたコンピュータ名を接続情報としてスクリーン30に投影させてもよい。
On the other hand, when it is determined that the operation mode of the
ステップS12またはステップS13の処理が終了すると、処理はステップS14に移行される。ステップS14で、プロジェクタ10は、スクリーン30に対して、ユーザに対して切り替え要求動作を行うように促す画像を表示させる。それと共に、撮像部110では、動画像の撮像が開始される。なお、撮像部110での撮像は、上述のステップS10の時点で既に開始されていてもよい。
When the process of step S12 or step S13 ends, the process proceeds to step S14. In step S14, the
なお、撮像部110は、撮像範囲にユーザA〜D全員の姿が含まれるように設定されているものとする。撮像部110で撮像された撮像画像データは、動作検出部111に供給され後述するようにして解析される。また、当該撮像画像データが動作検出部111を介して表示情報生成部113に供給され、当該撮像画像データによる画像がスクリーン30に投影される。
Note that the
このステップS14の表示に応じて、ユーザAにより切り替え要求の動作が行われる。この切り替え要求の動作は、特に限定されないが、手を所定の形状にする動作、両腕で頭上に丸印を作る動作、腕を大きく振る動作などが考えられる。切り替え要求の動作は、所定以上の大きさの動作であると、解析が容易となり望ましい。 In response to the display in step S14, the user A performs a switching request operation. The operation of the switching request is not particularly limited, but an operation of making the hand a predetermined shape, an operation of making a circle on the head with both arms, an operation of shaking the arm greatly, and the like are conceivable. It is desirable that the switching request operation is an operation of a predetermined size or larger because analysis is easy.
次のステップS15で、ユーザAによる切り替え要求の動作が検出されると共に、当該動作が検出された、撮像部110に撮像された撮像画像内での位置が検出される。記憶部115に対して、この位置を示す情報であるユーザ認識領域と、検出された切り替え要求の動作を示す特徴値とが、情報端末20aを識別する識別情報に関連付けられて記憶される。なお、ステップS15において、所定時間以内に切り替え要求動作が検出されなかった場合、タイムアウトとして、処理が次のステップS16に移行される。
In the next step S15, the switching request operation by the user A is detected, and the position in the captured image captured by the
切り替え要求の動作検出処理の例について、より具体的に説明する。切り替え要求の動作が、撮像部110に動画像として撮像される。撮像部110は、切り替え要求動作を撮像した撮像画像データを、1フレーム毎に動作検出部111に供給する。動作検出部111は、例えば、MPEG方式で用いられる動き検出により、ユーザAの切り替え要求動作を検出する。
An example of the switching request operation detection process will be described more specifically. The switching request operation is captured by the
一例として、動作検出部111は、動画像データの1フレームの画像を所定サイズ(例えば8画素×8画素)のマクロブロックに分割し、1フレーム前の画像とマクロブロック単位で比較を行い、動きベクトルを求める。動作検出部111は、所定以上の動きベクトルが求められたマクロブロックが、切り替え要求動作が検出されたマクロブロックであると判定し、記憶部115に対し、当該マクロブロックのフレーム内の位置を記憶すると共に、動きベクトルを特徴値として記憶する。この処理を所定フレーム数に亘って実行する。
As an example, the
次のステップS16で、プロジェクタ10は、スクリーン30に対して切り替え要求動作の確認画像を投影させる。例えば、プロジェクタ10は、スクリーン30に投影されるユーザAの画像を含む撮像画像に対して、ステップS15で検出されたユーザ認識領域を表示させる。それと共に、プロジェクタ10は、検出された切り替え要求動作を取り消すための取り消し要求動作を促すメッセージをスクリーン30に投影させる。また、取り消し要求動作に対するタイムアウトの時間も投影させる。
In the next step S <b> 16, the
図6は、このステップS16でスクリーン30に投影される確認画像の一例を示す。この例では、既にユーザAの切り替え要求動作が登録されており、次のユーザBの切り替え要求動作の登録の確認を行う確認画像が示されている。スクリーン30に投影される、撮像部110の撮像画像データに基づく撮像画像に対して、登録済みのユーザAと、登録処理中のユーザBとが表示されている。この例では、ユーザAおよびBの情報端末20aおよび20bが、それぞれのユーザ近傍に設置されているため、これら情報端末20aおよび20bも、撮像画像内に表示されている。
FIG. 6 shows an example of a confirmation image projected on the
確認画像において、ユーザBの上部に、ユーザBの使用する情報端末20bの接続情報(IPアドレス)51が表示されると共に、ユーザBの認識領域を示す枠52が表示されている。この枠52により、ユーザBの向かって右の腕のある動きが切り替え要求動作として検出されたことが示される。また、枠52の確認画像内での位置が、ユーザBおよび情報端末20bに対応することが分かる。
In the confirmation image, connection information (IP address) 51 of the
次のステップS17およびステップS18で、プロジェクタ10は、ユーザAによる取り消し要求動作をタイムアウトまで待機する。すなわち、ステップS17で取り消し動作が行われたと判定した場合、処理がステップS14に戻され、再びユーザAによる切り替え要求動作が検出される。一方、ステップS17で取り消し要求動作が行われていないと判定された場合、処理がステップS18に移行され、タイムアウトしたか否かが判定され、タイムアウトしていないと判定された場合に、処理がステップS17に戻される。タイムアウトしたと判定された場合、処理がステップS19に移行される。
In the next step S17 and step S18, the
なお、取り消し要求動作は、プロジェクタ10の図示されない操作部に対する操作により行うことができる。これに限らず、予め定められた取り消し動作をユーザAが行い、この動作を撮像部110で撮像し撮像画像データを上述のようにして動作検出部111で検出するようにもできる。
The cancel request operation can be performed by operating the operation unit (not shown) of the
ステップS19で、プロジェクタ10は、ユーザAが切り替え要求動作を了承したと判断し、スクリーン30に対してその旨示す表示(「OK」など)を投影する。そして、プロジェクタ10は、ステップS20で、通信を行う情報端末を現在の情報端末(例えば情報端末20a)から次の情報端末(例えば情報端末20b)に切り替え、次のステップS21で今回使用する全ての情報端末20a〜20dに対する登録処理が全て終了したか否かを判定する。若し、終了していないと判定した場合、処理をステップS11に戻し、次の情報端末20bに対する登録処理を行う。
In step S <b> 19, the
一方、ステップS21で、今回使用する全ての情報端末20a〜20dに対する登録処理が全て終了したと判定した場合、一連のキャリブレーション処理を終了する。一連のキャリブレーション処理が終了すると、記憶部115には、切り替え要求動作を示す特徴値と、認識領域とが、それぞれ情報端末20a〜20dを識別する識別情報と関連付けられて記憶されていることになる。
On the other hand, if it is determined in step S21 that all the registration processes for all the
次に、本第1の実施形態による情報端末20の切り替え処理について説明する。図7は、本第1の実施形態による情報端末20の切り替え処理を示す一例のフローチャートである。以下では、プロジェクタ10により投影される画像を、ユーザAが使用する情報端末20aから送信された画像データによる画像から、ユーザBが使用する情報端末20bから送信された画像データによる画像に切り替えるものとして説明する。なお、図7において、便宜上、情報端末20aを情報端末A、情報端末20bを情報端末Bとして記載している。
Next, switching processing of the
先ず、ステップS30で、上述の図5のフローチャートに従いキャリブレーションを行い、情報端末20aおよび20bにそれぞれ対応する切り替え要求動作が検出され、検出された切り替え要求動作を示す特徴値と認識領域とが、記憶部115にそれぞれ記憶される。
First, in step S30, calibration is performed according to the flowchart of FIG. 5 described above, switching request operations corresponding to the
次のステップS31で、プロジェクタ10は、ユーザAが使用する情報端末20aから送信された画像データによる画像を、スクリーン30に投影させる。それと共に、撮像部110で撮像された撮像画像データの動作検出部111での解析処理を開始させ、ユーザAまたはユーザBによる切り替え要求動作の検出を行う。なお、以下において、ユーザAおよびユーザBは、ステップS30のキャリブレーション処理時のそれぞれの位置と大きく変わらない、所定領域内に居るものとする。
In the next step S31, the
次のステップS32で、プロジェクタ10は、現在画像の投影を行っていない情報端末20bのユーザBによる切り替え要求動作が検出されたか否かを判定する。この判定は、例えば次のように行う。
In the next step S32, the
動作検出部111は、図5を用いて説明したキャリブレーション処理におけるステップS15の処理と同様にして、撮像部110から供給される撮像画像データから動きベクトルを求め、所定以上の大きさの動きベクトルが存在するか否かを判定する。若し、所定以上の大きさの動きベクトルが存在すると判定した場合、その動きベクトルによる特徴値と、当該動きベクトルが求められた撮像画像データのフレーム内の位置(認識領域)とを、ステップS30のキャリブレーション処理で記憶部115に記憶されたユーザAおよびユーザBの切り替え要求動作を示す特徴値および認識領域と比較する。
The
比較の結果、若し、検出された切り替え要求動作の特徴値および認識領域と、記憶部115に記憶されたユーザBの切り替え要求動作の特徴値および認識領域とが一致しているとされた場合、情報端末20bのユーザBによる切り替え要求動作が検出されたと判定して、処理がステップS33に移行される。このとき、プロジェクタ10は、図8に例示されるように、切り替え要求動作を行ったユーザBが使用する情報端末20bを示す識別情報60を記憶部115から読み出し、スクリーン30の一部に投影させ、割り込みが入ったことを示す。
As a result of the comparison, if the feature value and recognition area of the detected switching request action match the feature value and recognition area of the user B switching request action stored in the
一方、ステップS32での比較の結果、検出された切り替え要求動作の特徴値および認識領域と、記憶部115に記憶されたユーザBの切り替え要求動作の特徴値および認識領域とが一致していないとされた場合、ユーザBによる切り替え要求が出されていないと判定する。この場合、処理をステップS31に戻して、情報端末20aからの画像データによる画像の投影を継続させる。
On the other hand, as a result of the comparison in step S32, if the detected feature value and recognition area of the switching request action do not match the feature value and recognition area of the user B switching request action stored in the
なお、ステップS32において、例えば、記憶部115に記憶されたユーザBの切り替え要求動作の特徴値および認識領域に対して、検出された切り替え要求動作の特徴値および認識領域が所定の範囲内に収まっている場合に、一致したと見做す。
In step S32, for example, the detected feature value and recognition area of the switching request operation within the predetermined range with respect to the feature value and recognition area of the switching request operation of user B stored in the
ステップS33で、プロジェクタ10は、記憶部115に記憶される情報端末20bの情報に基づき、通信相手を情報端末20aから情報端末20bに切り替える。そして、ステップS34で、プロジェクタ10は、情報端末20bとの間で通信を行い、情報端末20bから送信された画像データによる画像を、スクリーン30に投影させる。
In step S33, the
このように、本第1の実施形態によれば、各ユーザは、当初の位置から移動することなく、スクリーン30に投影する画像を各ユーザが使用する情報端末20による画像に切り替えることができる。
Thus, according to the first embodiment, each user can switch the image projected on the
なお、記憶部115を不揮発性メモリやハードディスクドライブといった、不揮発性の記憶媒体で構成し、各ユーザの切り替え要求動作の特徴値および認識領域や、各情報端末20の識別情報を、記憶部115に蓄積しておくことができる。そして、次回プロジェクタを使用する際に、各情報が記憶部115に蓄積されているユーザについては、キャリブレーションなどの際に、キャリブレーションで新たに得られる情報と共に、記憶部115に蓄積されている情報を用いることで、切り替え要求動作の検出精度を高めることが可能である。
The
(第1の実施形態の変形例)
次に、本第1の実施形態の変形例について説明する。上述の第1の実施形態では、各情報端末20からプロジェクタ10に対して、画像データのみを送信するように説明したが、これはこの例に限定されない。本変形例では、情報端末20から画像データと共に音声データを送信し、プロジェクタ10側において、画像データによる画像をスクリーン30に投影すると共に、音声データによる音声を出力できるようにしている。
(Modification of the first embodiment)
Next, a modification of the first embodiment will be described. In the first embodiment described above, only the image data is transmitted from each
図9は、本変形例による無線プロジェクタシステムの機能を説明するための一例の機能ブロック図である。なお、図9において、上述した図3および図4と共通する部分には同一の符号を付して、詳細な説明を省略する。 FIG. 9 is a functional block diagram of an example for explaining the functions of the wireless projector system according to the present modification. In FIG. 9, the same reference numerals are given to the same parts as those in FIGS. 3 and 4 described above, and detailed description thereof is omitted.
図9において、本変形例による情報端末20’は、図4で説明した情報端末20に対して、例えばプログラムに従い音声データを生成する音声情報生成部210が追加されている。音声データは、これに限らず、図示されない記憶媒体に記憶される音声データを用いてもよい。音声情報生成部210で生成された音声データは、無線通信部132に供給され、画像情報生成部131から出力される画像データと同様にして変調処理などを施され、例えばMACフレームのフレームボディに詰め込まれてアンテナ21を介して電波22として送信される。
In FIG. 9, the
本変形例によるプロジェクタ10’は、図3で説明したプロジェクタ10に対して、音声情報生成部200および音声出力部201が追加されている。プロジェクタ10’は、音声データが変調されて情報端末20’から送信された電波22をアンテナ11で受信し、復調など所定の信号処理を施して音声データを復元する。復元された音声データは、音声出力部201に供給され、増幅処理など所定の音声信号処理を施され、スピーカなどにより音声として出力される。
In the
情報端末20’は、音声データおよび画像データを並列的に送信することができる。プロジェクタ10’は、送信された音声データおよび画像データを、同時に出力および投影することができる。 The information terminal 20 'can transmit audio data and image data in parallel. The projector 10 'can output and project the transmitted audio data and image data at the same time.
なお、本変形例においても、プロジェクタ10’は、通信を行う情報端末20’を、上述の第1の実施形態と同様にして、ユーザによる切り替え要求動作によって切り替えることができる。したがって、本変形例によれば、各ユーザは、当初の位置から移動することなく、スクリーン30に投影する画像と共に、音声出力部201から出力される音声を、各ユーザが使用する情報端末20’による画像および音声に切り替えることができる。
Also in this modification, the
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本第2の実施形態では、プロジェクタ10が、各ユーザによる切り替え要求動作を認識すると共に、各ユーザによる、プロジェクタ10の投影対象に対する操作を認識できるようにしている。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the second embodiment, the
例えば、プロジェクタ10は、各ユーザによる切り替え要求動作を認識することで切り替え要求を受け付け、さらに、プロジェクタ10の投影対象に対するユーザの指示操作を認識することで、切り替え要求に従った画像切り替え動作を行う。プロジェクタ10の投影対象に対する指示操作は、例えば、レーザポインタでスクリーン30に軌跡を描く動作である。
For example, the
図10は、本第2の実施形態によるプロジェクタ10”の機能を説明するための一例の機能ブロック図である。なお、図10において、上述した図3と共通する部分には同一の符号を付して、詳細な説明を省略する。本第2の実施形態において、情報端末20の構成は、図4を用いて説明した構成をそのまま適用することができるので、ここでの説明を省略する。
FIG. 10 is a functional block diagram of an example for explaining the function of the
図10において、本第2の実施形態によるプロジェクタ10”は、図3で説明したプロジェクタ10に対して、画像が投影されるスクリーン30を撮像するための撮像部116が追加されている。撮像部116でスクリーン30を撮像した動画像による撮像画像データは、動作検出部111’に供給される。動作検出部111’は、この撮像画像データから、ユーザによる指示操作を検出する。
10, in the
なお、動作検出部111’は、撮像部110から供給された撮像画像データから各ユーザによる切り替え要求動作を検出する処理と、撮像部116から供給された撮像画像データからユーザによる指示操作を検出する処理とを、同時に実行することができる。動作検出部111’による切り替え要求動作の検出処理は、上述した第1の実施形態における動作検出部111による処理と同様なので、ここでの説明を省略する。
The
動作検出部111’による、撮像部116から供給された撮像画像データからの、指示操作検出処理について説明する。以下では、指示操作が、レーザポインタを用いてスクリーン30に対して軌跡を描く操作であるものとする。例えば、図11に例示されるように、情報端末20bからの画像データによる画像が投影されるスクリーン30上に、ユーザがレーザポインタを用いて軌跡70を描くことで、投影画像上の位置や領域を示す操作が行われる。
An instruction operation detection process from the captured image data supplied from the
動作検出部111’は、撮像部116がこの軌跡70が描かれているスクリーン30を撮像した撮像画像データに対し、第1の実施形態で説明したようにして、フレームを所定サイズのマクロブロックに分割して、マクロブロック毎に動きベクトルを求める。そして、動作検出部111’は、連続する複数のフレームから求められた動きベクトルに基づき、連続して移動する光点を検出する。これにより、レーザポインタにより描かれた軌跡70を認識することができる。
As described in the first embodiment, the
なお、一方、スクリーン30に投影される、情報端末20から送信された画像データによる画像は、ユーザの情報端末20に対する操作により変化することが起こり得る。また、当該画像が動画像であることも考えられる。この場合、動作検出部111’は、例えば、閾値以上の輝度を有する画素を対象として動きベクトルを求めることで、レーザポインタによる光点のみを検出することが考えられる。
On the other hand, the image based on the image data transmitted from the
次に、本第2の実施形態による情報端末20の切り替え処理について説明する。図12は、本第2の実施形態による情報端末20の切り替え処理を示す一例のフローチャートである。以下では、プロジェクタ10”により投影される画像を、ユーザAが使用する情報端末20aから送信された画像データによる画像から、ユーザBが使用する情報端末20bから送信された画像データによる画像に切り替えるものとして説明する。なお、図12において、便宜上、情報端末20aを情報端末A、情報端末20bを情報端末Bとして記載している。
Next, switching processing of the
先ず、ステップS40で、上述の図5のフローチャートに従いキャリブレーションを行い、情報端末20aおよび20bにそれぞれ対応する切り替え要求動作が検出され、検出された切り替え要求動作を示す特徴値と認識領域とが、記憶部115にそれぞれ記憶される。
First, in step S40, calibration is performed according to the flowchart of FIG. 5 described above, switching request operations corresponding to the
次のステップS41で、プロジェクタ10”は、ユーザAが使用する情報端末20aから送信された画像データによる画像を、スクリーン30に投影させる。それと共に、撮像部110で撮像された撮像画像データの動作検出部111’での解析処理を開始させ、ユーザAまたはユーザBによる切り替え要求動作の検出を行う。また、動作検出部111’は、撮像部116でスクリーン30を撮像した撮像画像データの解析処理も同時に開始し、レーザポインタの軌跡の検出を行う。
In the next step S41, the
なお、以下において、ユーザAおよびユーザBは、ステップS40のキャリブレーション処理時のそれぞれの位置と大きく変わらない、所定領域内に居るものとする。 In the following, it is assumed that the user A and the user B are in a predetermined area that is not greatly different from the respective positions at the time of the calibration process in step S40.
次のステップS42で、プロジェクタ10”は、撮像部110で撮像された撮像画像データに基づき、現在画像の投影を行っていない情報端末20bのユーザBによる切り替え要求動作が検出されたか否かを判定する。ここでの動作検出部111’による判定処理は、上述した図7のフローチャートにおけるステップS32における処理と同様なので、説明を省略する。
In the next step S42, the
ステップS42で、若し、ユーザBによる切り替え要求動作が検出されていないと判定された場合、処理をステップS41に戻して、情報端末20aからの画像データによる画像の投影を継続させる。一方、ユーザBによる切り替え要求動作が検出されたと判定された場合、処理がステップS43に移行される。そして、切り替え要求動作を行ったユーザBが使用する情報端末20bを示す識別情報60を記憶部115から読み出し、スクリーン30の一部に投影させ、割り込みが入ったことを示す(図8参照)。
If it is determined in step S42 that the switching request operation by the user B is not detected, the process returns to step S41, and the projection of the image by the image data from the
次のステップS44で、プロジェクタ10”は、撮像部116でスクリーン30を撮像した撮像画像データに基づき、レーザポインタの軌跡による投影画像の切り替え了承動作の検出が待機される。図13を用いて、レーザポインタの軌跡による切り替え了承動作について説明する。レーザポインタによる軌跡は、一般的には、一筆書きの軌跡となる。そこで、この一筆書きを前提とし、さらに、他の動作によるレーザポインタの軌跡との誤認識を防ぐために、より複雑な軌跡により切り替え了承動作を示すものとする。
In the next step S44, the
図13の例では、レーザポインタの光点が、スクリーン30に対して縦方向の中央部付近を略水平に描いた軌跡71と、スクリーン30に対して横方向の中央部付近を略垂直に描いた軌跡72との組み合わせにより、切り替え了承動作を認識している。このとき、さらに、軌跡71が描かれてから軌跡72が描かれるまでの時間が所定時間内である場合に、切り替え了承動作とすることが考えられる。
In the example of FIG. 13, the light spot of the laser pointer draws a
ステップS44において、若し、レーザポインタの軌跡による投影画像の切り替え了承動作が検出されたと判定された場合、処理がステップS45に移行される。ステップS45で、プロジェクタ10”は、記憶部115に記憶される情報端末20bの情報に基づき、通信相手を情報端末20aから情報端末20bに切り替え、情報端末20bとの間で通信を行い、情報端末20bから送信された画像データによる画像を、スクリーン30に投影させる。
If it is determined in step S44 that the projection image switching approval operation based on the locus of the laser pointer has been detected, the process proceeds to step S45. In step S45, the
なお、上述では、切り替え了承動作をレーザポインタを用いて行うように説明したが、これはこの例に限定されない。スクリーン30上の画像を指し示すために用いる他の指示具による所定の動作を、切り替え了承動作として検出してもよい。この場合、指示具の先端などの形状を予め登録しておき、動作検出部111’においてこの形状を追跡することで、切り替え了承動作を検出することも考えられる。
In the above description, the switching approval operation is performed using the laser pointer, but this is not limited to this example. A predetermined operation by another pointing tool used for pointing to an image on the
このように、本第2の実施形態によれば、各ユーザは、当初の位置から移動することなく、スクリーン30に投影する画像を各ユーザが使用する情報端末20による画像に切り替えることができる。
Thus, according to the second embodiment, each user can switch the image projected on the
また、本第2の実施形態によれば、現在画像が投影されていない情報端末20を使用するユーザからの切り替え要求動作が検出された場合に、その旨をスクリーン30に表示させる。その後、さらにスクリーン30に対する切り替え了承動作が検出された場合に、画像を投影する情報端末20を切り替えるようにしている。そのため、現在画像が投影されている情報端末20のユーザが予期しないタイミングで画像が切り替えられてしまう事態を防ぐことができる。また、切り替え要求動作と、切り替え了承動作とを異なる種類の動作としているため、ユーザが混乱することが防がれる。
Further, according to the second embodiment, when a switching request operation from a user who uses the
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。上述の第2の実施形態では、ユーザによる切り替え要求動作に対する切り替え了承動作を、スクリーン30を撮像した撮像画像データに基づき検出した。これに対して、本第3の実施形態では、ユーザが発した音声に基づき切り替え了承動作を検出する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the second embodiment described above, the switching approval operation for the switching request operation by the user is detected based on the captured image data obtained by capturing the
例えば、プロジェクタ10は、各ユーザによる切り替え要求動作を認識することで切り替え要求を受け付け、さらに、ユーザが発した所定の音声を認識することで切り替え了承動作を受け付け、切り替え要求に従った画像切り替え動作を行う。
For example, the
図14は、本第3の実施形態によるプロジェクタ10Aの機能を説明するための一例の機能ブロック図である。なお、図14において、上述した図3と共通する部分には同一の符号を付して、詳細な説明を省略する。本第3の実施形態において、情報端末20の構成は、図4を用いて説明した構成をそのまま適用することができるので、ここでの説明を省略する。
FIG. 14 is a functional block diagram illustrating an example of functions of the
図14において、本第3の実施形態によるプロジェクタ10Aは、図3で説明したプロジェクタ10に対して、音声を取得する音声取得部220と、音声取得部220で取得した音声を認識する音声認識部221とが追加されている。
In FIG. 14, the
音声取得部220は、マイクロホンを有し、マイクロホンで収音された音声を音声データとして出力し、音声認識部221に供給する。音声認識部221は、音声取得部220から供給された音声データを解析して、切り替え了承動作を示す音声を認識する。音声の認識手法としては、統計的手法や、隠れマルコフモデルを適用することが考えられる。音声認識部221は、切り替え了承動作を示す音声の認識結果に応じて、無線通信部112が画像データの通信を行う情報端末20を選択する。
The voice acquisition unit 220 includes a microphone, outputs the voice collected by the microphone as voice data, and supplies the voice data to the voice recognition unit 221. The voice recognition unit 221 analyzes the voice data supplied from the voice acquisition unit 220 and recognizes a voice indicating a switching approval operation. As a speech recognition method, a statistical method or a hidden Markov model may be applied. The voice recognition unit 221 selects the
切り替え了承動作を示す音声としては、例えば、手を2回叩いた際の音、「2番接続要求します」などの発声による音が想定される。切り替え了承動作を示す音声として、「オーケー」などの短く単純な発声による音を用いると、解析がより容易になることが期待できる。 As the voice indicating the switching approval operation, for example, a sound when the hand is struck twice or a sound generated by uttering “No. 2 connection request” is assumed. It is expected that the analysis can be facilitated by using a simple and simple utterance such as “OK” as the voice indicating the switching approval operation.
なお、切り替え了承動作を示す音声は、例えばキャリブレーション処理の際にユーザ毎に収音した音声を用いることが考えられる。ユーザ毎に収音した音声による、切り替え了承動作を示す音声を表す特徴量は、例えば記憶部115に記憶しておく。これに限らず、切り替え了承動作を示す固定的な音声を予め記憶部115に記憶しておくことも考えられる。
Note that the sound indicating the switching approval operation may be, for example, the sound collected for each user during the calibration process. For example, the feature amount representing the voice indicating the switching approval operation by the voice collected for each user is stored in the
次に、本第3の実施形態による情報端末20の切り替え処理について説明する。図15は、本第3の実施形態による情報端末20の切り替え処理を示す一例のフローチャートである。以下では、プロジェクタ10Aにより投影される画像を、ユーザAが使用する情報端末20aから送信された画像データによる画像から、ユーザBが使用する情報端末20bから送信された画像データによる画像に切り替えるものとして説明する。なお、図15において、便宜上、情報端末20aを情報端末A、情報端末20bを情報端末Bとして記載している。
Next, switching processing of the
図15のフローチャートにおいて、ステップS50〜ステップS53の処理は、上述した第2の実施形態におけるステップS40〜ステップS43の処理と略同一である。すなわち、ステップS50で、上述の図5のフローチャートに従いキャリブレーションを行い、情報端末20aおよび20bにそれぞれ対応する切り替え要求動作の特徴値と認識領域とが、記憶部115にそれぞれ記憶される。また、このキャリブレーションにおいて、ユーザ毎に収音した、切り替え了承動作を示す音声を示す特徴量を記憶部115に記憶させることができる。
In the flowchart of FIG. 15, the processes of step S50 to step S53 are substantially the same as the processes of step S40 to step S43 in the second embodiment described above. That is, in step S50, calibration is performed according to the flowchart of FIG. 5 described above, and the feature value and recognition area of the switching request operation respectively corresponding to the
次のステップS51で、プロジェクタ10Aは、情報端末20aによる画像をスクリーン30に投影させると共に、撮像部110で撮像された撮像画像データの動作検出部111での解析処理を開始させ、ユーザAまたはユーザBによる切り替え要求動作の検出を行う。また、音声認識部221は、音声取得部220で取得された音声による音声データの解析を開始し、切り替え了承動作を示す音声データの検出を行う。
In the next step S51, the
なお、以下において、ユーザAおよびユーザBは、ステップS50のキャリブレーション処理時のそれぞれの位置と大きく変わらない、所定領域内に居るものとする。 In the following, it is assumed that the user A and the user B are in a predetermined area that is not greatly different from the respective positions at the time of the calibration process in step S50.
次のステップS52で、プロジェクタ10Aは、撮像部110で撮像された撮像画像データに基づき、ユーザBによる切り替え要求動作が検出されたか否かを判定し、検出されていないと判定した場合、処理をステップS51に戻して、情報端末20aからの画像データによる画像の投影を継続させる。一方、ユーザBによる切り替え要求動作が検出されたと判定した場合、処理がステップS53に移行され、情報端末20bを示す識別情報60を記憶部115から読み出し、スクリーン30の一部に投影させ、割り込みが入ったことを示す(図8参照)。
In the next step S52, the
次のステップS54で、プロジェクタ10Aは、音声取得部220で取得した音声による音声データに基づき、音声認識部221による切り替え了承動作を示す音声の検出が待機される。若し、音声認識部221により、切り替え了承動作を示す音声が検出されたと判定された場合、処理がステップS55に移行される。ステップS55で、プロジェクタ10Aは、記憶部115に記憶される情報端末20bの情報に基づき、通信相手を情報端末20aから情報端末20bに切り替え、情報端末20bとの間で通信を行い、情報端末20bから送信された画像データによる画像を、スクリーン30に投影させる。
In the next step S54, the
このように、本第3の実施形態によれば、各ユーザは、当初の位置から移動することなく、スクリーン30に投影する画像を各ユーザが使用する情報端末20による画像に切り替えることができる。
Thus, according to the third embodiment, each user can switch an image projected on the
また、本第3の実施形態によれば、現在画像が投影されていない情報端末20を使用するユーザからの切り替え要求動作が検出された場合に、その旨をスクリーン30に表示させる。その後、さらにユーザによる切り替え了承動作を示す音声が検出された場合に、画像を投影する情報端末20を切り替えるようにしている。そのため、現在画像が投影されている情報端末20のユーザが予期しないタイミングで画像が切り替えられてしまう事態を防ぐことができる。また、所定パターンの音声を切り替え了承動作としているので、スクリーン30に投影する画像の切り替えをより容易に実行することができる。
Further, according to the third embodiment, when a switching request operation from a user who uses the
(各実施形態に適用可能なプロジェクタの構成例)
図16は、上述した各実施形態に適用可能なプロジェクタ300の一例の構成を示す。プロジェクタ300において、バス301に対して、CPU310、ROM311、RAM312、表示制御部313、通信部314、入力I/F(インターフェイス)315、操作部316、撮像I/F317および音声I/F318が互いに通信可能に接続される。
(Example of projector configuration applicable to each embodiment)
FIG. 16 shows an exemplary configuration of a
CPU310は、ROM311に予め記憶されるプログラムに従い、RAM312をワークメモリとして用いて、このプロジェクタ300の全体の動作を制御する。すなわち、CPU310、ROM311およびRAM312は、例えば図3における制御部100に対応する。CPU310上で動作するプログラムにより、動作検出部111および111’、表示情報生成部113、音声情報生成部200、ならびに、音声認識部221などが構成される。また、RAM312は、記憶部115に対応させることができる。不揮発性の半導体メモリや、ハードディスクドライブをさらに設けてもよい。
The CPU 310 controls the overall operation of the
表示制御部313は、CPU310により生成された表示制御信号を、表示部320が表示可能な表示信号に変換する。表示部320は、図3における表示部114に対応し、例えば、光源と、RGB各色のカラーフィルタを組み込んだ液晶パネルと、RGB各色の液晶パネルから出射される光を合成するプリズムと、レンズなど光学部品とを組み合わせた光学系と、表示画像データに基づき液晶パネルを駆動する駆動回路とを備える。通信部314は、図3における無線通信部112に対応し、CPU310の制御により、無線LANなど、所定の通信方式で無線通信を行う。通信部314には、ユニークなMACアドレスが予め割り当てられている。
The
入力I/F315は、USB(Universal Serial Bus)など汎用のデータ通信インターフェイスである。プロジェクタ300で投影する画像データを、この入力I/F315から供給することもできる。操作部316は、このプロジェクタ300を操作するための操作子や表示素子などが設けられ、操作子に対するユーザ操作に応じた制御信号をCPU310に対して出力する。図5のステップS17における取り消し動作を、この操作部316に対する操作により実行してもよい。
The input I / F 315 is a general-purpose data communication interface such as a USB (Universal Serial Bus). Image data projected by the
撮像I/F317は、複数のカメラ321aおよび321bを接続することができ、カメラ321aおよび321bから出力された撮像画像データを、CPU310による処理に適した形式に変換して出力する。撮像I/F317と、カメラ321aおよびカメラ321bとで、撮像部110および撮像部116を構成する。なお、上述した第1の実施形態および第3の実施形態においては、1台のカメラ321aのみを接続することになる。
The imaging I / F 317 can connect a plurality of cameras 321a and 321b, and converts captured image data output from the cameras 321a and 321b into a format suitable for processing by the CPU 310 and outputs the converted data. The imaging I / F 317, the camera 321a, and the camera 321b constitute the
音声I/F318は、音声信号の入出力を行うもので、マイクロホン(MIC)323で音声を収音したアナログ音声信号をデジタル変換し、音声データとして出力する。また、バス301を介して供給された音声データをアナログ音声信号に変換し、スピーカ(SP)322により音声として出力する。すなわち、図9の音声情報生成部200および音声出力部201が音声I/F318およびスピーカ322に対応する。また、図14の音声取得部220が音声I/F318およびマイクロホン323に対応する。
The audio I /
なお、上述した第1の実施形態では、この音声I/F318、スピーカ322およびマイクロホン323を省略することができる。同様に、第2の実施形態では、マイクロホン323を省略することができ、第3の実施形態では、スピーカ322を省略可能である。
In the above-described first embodiment, the audio I /
10,10’,10”,10A,300 プロジェクタ
20,20a,20b,20c,20d 情報端末
30 スクリーン
110,116 撮像部
111,111’ 動作検出部
112,132 無線通信部
113 表示情報生成部
114 表示部
115 記憶部
221 音声認識部
10, 10 ′, 10 ″, 10A, 300
Claims (8)
撮像を行い撮像画像を出力する撮像手段と、
予め、前記撮像画像でのユーザの位置を示す位置情報と、前記通信手段と通信を行うための該ユーザが用いる情報端末の識別情報とを関連付けて記憶する記憶手段と、
前記撮像手段で撮像された前記撮像画像から、ユーザによる、前記通信手段が通信を行う通信相手の切り替え要求を示す切り替え要求動作を検出する第1の動作検出手段と、
前記第1の動作検出手段で前記切り替え要求動作が検出された場合に、該切り替え要求動作が検出された前記撮像画像中の位置に対応する前記位置情報と関連付けられて前記記憶手段に記憶される前記識別情報に示される前記情報端末と通信を行うように前記通信手段を制御する制御手段と
を有する
ことを特徴とする情報処理装置。 A communication means for performing wireless communication;
Imaging means for imaging and outputting a captured image;
Storage means for previously storing position information indicating the position of the user in the captured image and identification information of an information terminal used by the user for communicating with the communication means;
A first operation detection unit that detects a switching request operation indicating a switching request of a communication partner with which the communication unit communicates, from the captured image captured by the imaging unit;
When the switching request operation is detected by the first operation detection unit, the switching request operation is stored in the storage unit in association with the position information corresponding to the position in the captured image where the switching request operation is detected. An information processing apparatus comprising control means for controlling the communication means so as to communicate with the information terminal indicated by the identification information.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the switching request operation is a movement of the user's body.
前記制御手段は、
前記第1の動作検出手段で前記切り替え要求動作が検出された後に、前記第2の動作検出手段で前記切り替え了承動作が検出された場合に、該切り替え要求動作に対応する動きが検出された位置に対応する前記位置情報と関連付けられて前記記憶手段に記憶される前記識別情報に示される前記情報端末と通信を行うように前記通信手段を制御する
ことを特徴とする請求項1または請求項2に記載の情報処理装置。 A second operation detecting means for detecting a switching approval operation that is an operation of approving the switching request by the switching request operation by the user;
The control means includes
The position where the motion corresponding to the switching request operation is detected when the switching approval operation is detected by the second operation detecting unit after the switching request operation is detected by the first operation detecting unit. 3. The communication unit is controlled to communicate with the information terminal indicated by the identification information stored in the storage unit in association with the position information corresponding to the position information. The information processing apparatus described in 1.
前記第2の動作検出手段は、
前記他の撮像画像から前記切り替え了承動作を検出する
ことを特徴とする請求項3に記載の情報処理装置。 It further includes other imaging means for imaging in a direction different from the imaging means and outputting other captured images,
The second motion detection means includes
The information processing apparatus according to claim 3, wherein the switching approval operation is detected from the other captured image.
ことを特徴とする請求項3または請求項4に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the switching approval operation is an operation of a pointing device used by a user.
前記第2の動作検出手段は、
前記音声取得手段から出力される前記音声信号に基づき前記切り替え了承動作を検出する
ことを特徴とする請求項3に記載の情報処理装置。 It further has voice acquisition means for acquiring voice and outputting a voice signal,
The second motion detection means includes
The information processing apparatus according to claim 3, wherein the switching approval operation is detected based on the audio signal output from the audio acquisition unit.
前記制御手段は、
前記動作検出手段で前記切り替え要求動作が検出された場合に、該切り替え要求動作が検出された前記撮像画像中の位置に対応する前記位置情報と関連付けられて前記記憶手段に記憶された前記識別情報を示す表示を行うように前記表示手段を制御する
ことを特徴とする請求項1乃至請求項6の何れか1項に記載の情報処理装置。 A display means for displaying information on a display medium;
The control means includes
The identification information stored in the storage unit in association with the position information corresponding to the position in the captured image where the switching request operation is detected when the switching request operation is detected by the operation detecting unit. The information processing apparatus according to claim 1, wherein the display unit is controlled so as to perform display.
撮像手段が、撮像を行い撮像画像を出力する撮像ステップと、
予め、前記撮像画像でのユーザの位置を示す位置情報と、前記通信ステップによる通信を行うための該ユーザが用いる情報端末の識別情報とを関連付けて記憶手段に記憶する記憶ステップと、
動作検出手段が、前記撮像ステップで撮像された前記撮像画像から、ユーザによる、前記通信ステップが通信を行う通信相手の切り替え要求を示す切り替え要求動作を検出する動作検出ステップと、
制御手段が、前記動作検出ステップで前記切り替え要求動作が検出された場合に、該切り替え要求動作が検出された前記撮像画像中の位置に対応する前記位置情報と関連付けられて前記記憶手段に記憶される前記識別情報に示される前記情報端末と通信を行うように前記通信ステップを制御する制御ステップと
を有する
ことを特徴とする情報処理方法。 A communication step in which the communication means performs wireless communication;
An imaging step in which the imaging means captures an image and outputs a captured image;
A storage step of previously storing in the storage means the positional information indicating the position of the user in the captured image and the identification information of the information terminal used by the user for performing communication in the communication step in association with each other;
An operation detecting step for detecting a switching request operation indicating a switching request of a communication partner with which the communication step performs communication by the user from the captured image captured in the imaging step;
When the switching request operation is detected in the operation detection step, the control unit is associated with the position information corresponding to the position in the captured image where the switching request operation is detected and stored in the storage unit. And a control step for controlling the communication step so as to communicate with the information terminal indicated by the identification information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011158329A JP5790229B2 (en) | 2011-07-19 | 2011-07-19 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011158329A JP5790229B2 (en) | 2011-07-19 | 2011-07-19 | Information processing apparatus and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013025488A true JP2013025488A (en) | 2013-02-04 |
JP5790229B2 JP5790229B2 (en) | 2015-10-07 |
Family
ID=47783786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011158329A Expired - Fee Related JP5790229B2 (en) | 2011-07-19 | 2011-07-19 | Information processing apparatus and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5790229B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015053020A (en) * | 2013-09-09 | 2015-03-19 | 株式会社リコー | Information display device, information display method, and program |
JP2017173927A (en) * | 2016-03-18 | 2017-09-28 | 株式会社リコー | Information processing device, information processing system, service processing execution control method, and program |
CN111506214A (en) * | 2020-03-23 | 2020-08-07 | 上海博泰悦臻电子设备制造有限公司 | Vehicle-mounted projection implementation method and device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001125738A (en) * | 1999-09-21 | 2001-05-11 | Seiko Epson Corp | Presentation control system and method |
JP2008077380A (en) * | 2006-09-21 | 2008-04-03 | Seiko Epson Corp | Image display device, image display system, and network connection method |
JP2008294661A (en) * | 2007-05-23 | 2008-12-04 | Toshiba Corp | Video output apparatus and display device |
JP2009217687A (en) * | 2008-03-12 | 2009-09-24 | Alpine Electronics Inc | Touch panel input device and processing execution method |
JP2010286930A (en) * | 2009-06-10 | 2010-12-24 | Net-Clay Co Ltd | Content display device, content display method, and program |
JP2010541398A (en) * | 2007-09-24 | 2010-12-24 | ジェスチャー テック,インコーポレイテッド | Enhanced interface for voice and video communication |
-
2011
- 2011-07-19 JP JP2011158329A patent/JP5790229B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001125738A (en) * | 1999-09-21 | 2001-05-11 | Seiko Epson Corp | Presentation control system and method |
JP2008077380A (en) * | 2006-09-21 | 2008-04-03 | Seiko Epson Corp | Image display device, image display system, and network connection method |
JP2008294661A (en) * | 2007-05-23 | 2008-12-04 | Toshiba Corp | Video output apparatus and display device |
JP2010541398A (en) * | 2007-09-24 | 2010-12-24 | ジェスチャー テック,インコーポレイテッド | Enhanced interface for voice and video communication |
JP2009217687A (en) * | 2008-03-12 | 2009-09-24 | Alpine Electronics Inc | Touch panel input device and processing execution method |
JP2010286930A (en) * | 2009-06-10 | 2010-12-24 | Net-Clay Co Ltd | Content display device, content display method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015053020A (en) * | 2013-09-09 | 2015-03-19 | 株式会社リコー | Information display device, information display method, and program |
JP2017173927A (en) * | 2016-03-18 | 2017-09-28 | 株式会社リコー | Information processing device, information processing system, service processing execution control method, and program |
CN111506214A (en) * | 2020-03-23 | 2020-08-07 | 上海博泰悦臻电子设备制造有限公司 | Vehicle-mounted projection implementation method and device |
Also Published As
Publication number | Publication date |
---|---|
JP5790229B2 (en) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4770178B2 (en) | Camera control apparatus, camera system, electronic conference system, and camera control method | |
US10459190B2 (en) | Imaging apparatus, imaging method, and computer-readable recording medium | |
US8937667B2 (en) | Image communication apparatus and imaging apparatus | |
JP5515472B2 (en) | Imaging apparatus, imaging method, and program | |
JP4274217B2 (en) | Image display device, image display system, and network connection method | |
US8619120B2 (en) | Imaging apparatus, imaging method and recording medium with program recorded therein | |
JP6103948B2 (en) | IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM | |
JP2017092795A (en) | Image projection system, projector and control method for image projection system | |
US20180352205A1 (en) | Projection apparatus, method for controlling projection apparatus, and non-transitory storage medium | |
US20110043663A1 (en) | Imaging terminal, display terminal, display method, and imaging system | |
WO2016103962A1 (en) | Focus control device, imaging device, focus control method, and focus control program | |
JP2005176301A (en) | Image processing apparatus, network camera system, image processing method, and program | |
CN108965656B (en) | Display control apparatus, display control method, and storage medium | |
US9743048B2 (en) | Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon | |
JP2015037279A (en) | Image processing system, image processing method, and image communication system | |
JP5790229B2 (en) | Information processing apparatus and information processing method | |
KR20120050345A (en) | System for adjusting image of beam projetor using camera attached remote controller and method thereof | |
CN105376478A (en) | Imaging device, shooting system and shooting method | |
JP2013162287A (en) | Image processing apparatus, image processing method, and program | |
US9513697B2 (en) | Communication apparatus, communication method, and computer readable recording medium | |
JP5200800B2 (en) | Imaging apparatus and imaging system | |
US11843846B2 (en) | Information processing apparatus and control method therefor | |
JP2021132299A (en) | Control device, projection system, control method of projection device, program, and storage medium | |
JP6700955B2 (en) | Projection apparatus and projection method | |
JP2020150481A (en) | Information processing device, projection system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150720 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5790229 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |