JP2013025488A - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP2013025488A
JP2013025488A JP2011158329A JP2011158329A JP2013025488A JP 2013025488 A JP2013025488 A JP 2013025488A JP 2011158329 A JP2011158329 A JP 2011158329A JP 2011158329 A JP2011158329 A JP 2011158329A JP 2013025488 A JP2013025488 A JP 2013025488A
Authority
JP
Japan
Prior art keywords
switching request
unit
user
information terminal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011158329A
Other languages
Japanese (ja)
Other versions
JP5790229B2 (en
Inventor
Kiwamu Watanabe
究 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011158329A priority Critical patent/JP5790229B2/en
Publication of JP2013025488A publication Critical patent/JP2013025488A/en
Application granted granted Critical
Publication of JP5790229B2 publication Critical patent/JP5790229B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable switching an information terminal that is a transmission source of data in a simple way.SOLUTION: A projector is designed to be capable of communicating with a plurality of information terminals through wireless communication. The projector selects one of the plurality of information terminals and projects an image by image data transmitted from the selected information terminal A on a screen. The projector includes imaging means for imaging a user side and, on the basis of the picked-up image that has been imaged, detects switching request operation by the user. When detecting the switching request operation by the user, the projector switches an image projected on the screen to an image by image data transmitted from an information terminal B that is used by the user who has performed the switching request operation.

Description

本発明は、複数の情報端末と無線通信を行う情報処理装置および情報処理方法に関する。   The present invention relates to an information processing apparatus and an information processing method for performing wireless communication with a plurality of information terminals.

従来から、パーソナルコンピュータといった情報端末の画面の画像を、ケーブルを介してプロジェクタに送り、スクリーンなどに投影させることが行われている。また、近年では、情報端末の画面の画像を、ケーブルを用いずに、無線ネットワーク(無線LAN(Local Area Network))を介してプロジェクタに送信して、当該画像をスクリーンに投影させる無線ネットワークプロジェクタシステムが開発され、既に知られている。   Conventionally, an image of a screen of an information terminal such as a personal computer is sent to a projector via a cable and projected onto a screen or the like. Also, in recent years, a wireless network projector system that transmits an image of an information terminal screen to a projector via a wireless network (wireless LAN (Local Area Network)) without using a cable, and projects the image on a screen. Has been developed and is already known.

また、IEEE802.11シリーズ、BlueTooth(登録商標)やWireless USB(登録商標)、といった規格が複数、策定され、利用できるようになってきている。このような、装置同士で直接的に無線通信が可能な通信方式を用いた無線ネットワークプロジェクタシステムも提案されている。   In addition, a plurality of standards such as IEEE 802.11 series, BlueTooth (registered trademark), and Wireless USB (registered trademark) have been formulated and can be used. There has also been proposed a wireless network projector system using a communication method that enables direct wireless communication between devices.

特許文献1には、異なる複数の接続情報をスクリーンを分割した各小領域にそれぞれ表示させることで、プロジェクタは、複数の情報端末装置との間で通信を確立し、複数の情報端末装置から送信された画像を、スクリーン上の各小領域にそれぞれ表示させることを可能とした技術が開示されている。   In Patent Document 1, a plurality of different connection information is displayed in each small area obtained by dividing a screen, so that the projector establishes communication with a plurality of information terminal devices and transmits from the plurality of information terminal devices. A technique is disclosed that makes it possible to display each of the images on each small area on the screen.

ここで、無線ネットワークプロジェクタシステムにおいて、複数のユーザがそれぞれ情報端末を持ち、この複数の情報端末からユーザの指示により1を選択して、選択された情報端末から出力される画像をプロジェクタにより投影する場合について考える。   Here, in the wireless network projector system, a plurality of users each have an information terminal, 1 is selected from the plurality of information terminals according to a user instruction, and an image output from the selected information terminal is projected by the projector. Think about the case.

この場合、従来では、プロジェクタに画像を投影させる情報端末を切り替える際には、例えばユーザがプロジェクタまたは情報端末に対して切り替え操作を行う必要があり、手間がかかっていた。したがって、プロジェクタにより投影させる画像を出力する情報端末を、複数の情報端末から簡易な方法で選択可能とすることが求められていた。   In this case, conventionally, when switching an information terminal for projecting an image on a projector, for example, a user needs to perform a switching operation on the projector or the information terminal, which is troublesome. Therefore, it has been demanded that an information terminal that outputs an image to be projected by a projector can be selected from a plurality of information terminals by a simple method.

上述した特許文献1では、プロジェクタが複数の情報端末装置から送信された画像のそれぞれをスクリーンを分割した各小領域に同時に表示可能とされている。しかしながら、特許文献1は、複数の情報端末装置から送信される画像のうち1を選択し、選択された画像をスクリーンの全面に表示するようにはなっていないという問題点があった。   In Patent Document 1 described above, the projector can simultaneously display each of images transmitted from a plurality of information terminal devices in each small area obtained by dividing the screen. However, Patent Document 1 has a problem in that one of images transmitted from a plurality of information terminal devices is selected and the selected image is not displayed on the entire screen.

本発明は、上記に鑑みてなされたものであって、データの送信元の情報端末を簡易な方法で切り替え可能とすることを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to enable switching of an information terminal that is a data transmission source by a simple method.

上述した課題を解決し、目的を達成するために、本発明は、無線通信を行う通信手段と、撮像を行い撮像画像を出力する撮像手段と、予め、撮像画像でのユーザの位置を示す位置情報と、通信手段と通信を行うためのユーザが用いる情報端末の識別情報とを関連付けて記憶する記憶手段と、撮像手段で撮像された撮像画像から、ユーザによる、通信手段が通信を行う通信相手の切り替え要求を示す切り替え要求動作を検出する第1の動作検出手段と、第1の動作検出手段で切り替え要求動作が検出された場合に、切り替え要求動作が検出された撮像画像中の位置に対応する位置情報と関連付けられて記憶手段に記憶される識別情報に示される情報端末と通信を行うように通信手段を制御する制御手段とを有することを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a communication unit that performs wireless communication, an imaging unit that performs imaging and outputs a captured image, and a position that indicates a position of the user in the captured image in advance. A storage unit for storing information and identification information of an information terminal used by the user for communicating with the communication unit, and a communication partner with which the communication unit communicates by the user from the captured image captured by the imaging unit Corresponding to a position in the captured image where the switching request operation is detected when the switching request operation is detected by the first operation detecting unit and the first operation detecting unit detecting the switching request operation indicating the switching request Control means for controlling the communication means so as to communicate with the information terminal indicated by the identification information stored in the storage means in association with the position information.

また、本発明は、通信手段が、無線通信を行う通信ステップと、撮像手段が、撮像を行い撮像画像を出力する撮像ステップと、予め、撮像画像でのユーザの位置を示す位置情報と、通信ステップによる通信を行うためのユーザが用いる情報端末の識別情報とを関連付けて記憶手段に記憶する記憶ステップと、動作検出手段が、撮像ステップで撮像された撮像画像から、ユーザによる、通信ステップが通信を行う通信相手の切り替え要求を示す切り替え要求動作を検出する動作検出ステップと、制御手段が、動作検出ステップで切り替え要求動作が検出された場合に、切り替え要求動作が検出された撮像画像中の位置に対応する位置情報と関連付けられて記憶手段に記憶される識別情報に示される情報端末と通信を行うように通信ステップを制御する制御ステップとを有することを特徴とする。   In addition, the present invention provides a communication step in which the communication unit performs wireless communication, an imaging step in which the imaging unit performs imaging and outputs a captured image, position information indicating the position of the user in the captured image, and communication in advance. The storage step for storing the identification information of the information terminal used by the user for performing the communication in the step in association with the storage unit, and the operation detecting unit communicating the communication step by the user from the captured image captured in the imaging step. An operation detecting step for detecting a switching request operation indicating a switching request of a communication partner to be performed, and a position in the captured image where the switching request operation is detected when the control means detects the switching request operation in the operation detecting step. The communication step is controlled so as to communicate with the information terminal indicated by the identification information stored in the storage means in association with the position information corresponding to Characterized by a control step for.

本発明によれば、データの送信元の情報端末を簡易な方法で切り替え可能となるという効果を奏する。   According to the present invention, there is an effect that it is possible to switch the data transmission source information terminal by a simple method.

図1は、本発明の各実施形態に適用可能な無線プロジェクタシステムの一例の構成を示す略線図である。FIG. 1 is a schematic diagram showing a configuration of an example of a wireless projector system applicable to each embodiment of the present invention. 図2は、無線LANによるデータ通信を行う際の一例のデータフレームのフォーマットを示す略線図である。FIG. 2 is a schematic diagram illustrating an exemplary data frame format when data communication is performed using a wireless LAN. 図3は、本発明の第1の実施形態に適用可能なプロジェクタの機能を説明するための一例の機能ブロック図である。FIG. 3 is a functional block diagram illustrating an example of functions of the projector applicable to the first embodiment of the present invention. 図4は、情報端末の機能を説明するための一例の機能ブロック図である。FIG. 4 is a functional block diagram illustrating an example of functions of the information terminal. 図5は、本発明の各実施形態に適用可能なキャリブレーション処理を示す一例のフローチャートである。FIG. 5 is a flowchart illustrating an example of calibration processing applicable to each embodiment of the present invention. 図6は、スクリーンに投影される確認画像の一例を示す略線図である。FIG. 6 is a schematic diagram illustrating an example of a confirmation image projected on the screen. 図7は、本発明の第1の実施形態による情報端末の切り替え処理を示す一例のフローチャートである。FIG. 7 is a flowchart illustrating an example of the information terminal switching process according to the first embodiment of the present invention. 図8は、割り込みが入ったことを示す表示の例を示す略線図である。FIG. 8 is a schematic diagram illustrating an example of a display indicating that an interrupt has occurred. 図9は、本発明の第1の実施形態の変形例による無線プロジェクタシステムの機能を説明するための一例の機能ブロック図である。FIG. 9 is a functional block diagram of an example for explaining the functions of the wireless projector system according to the modification of the first embodiment of the present invention. 図10は、本発明の第2の実施形態によるプロジェクタの機能を説明するための一例の機能ブロック図である。FIG. 10 is a functional block diagram illustrating an example of functions of the projector according to the second embodiment of the present invention. 図11は、レーザポインタを用いてスクリーンに対して軌跡を描く操作を説明するための略線図である。FIG. 11 is a schematic diagram for explaining an operation of drawing a locus on a screen using a laser pointer. 図12は、本発明の第2の実施形態による情報端末の切り替え処理を示す一例のフローチャートである。FIG. 12 is a flowchart illustrating an example of information terminal switching processing according to the second embodiment of the present invention. 図13は、レーザポインタの軌跡による切り替え了承動作について説明するための略線図である。FIG. 13 is a schematic diagram for explaining the switching approval operation based on the locus of the laser pointer. 図14は、本発明の第3の実施形態によるプロジェクタの機能を説明するための一例の機能ブロック図である。FIG. 14 is a functional block diagram illustrating an example of functions of the projector according to the third embodiment of the invention. 図15は、本発明の第3の実施形態による情報端末の切り替え処理を示す一例のフローチャートである。FIG. 15 is a flowchart illustrating an example of switching processing of an information terminal according to the third embodiment of the present invention. 図16は、本発明の各実施形態に適用可能なプロジェクタの一例の構成を示すブロック図である。FIG. 16 is a block diagram showing a configuration of an example of a projector that can be applied to each embodiment of the present invention.

(発明の概略)
以下に添付図面を参照して、本発明に係る情報処理装置の実施形態を詳細に説明する。図1は、本発明の各実施形態に適用可能な無線プロジェクタシステムの一例の構成を示す。本発明の各実施形態における情報処理装置としてのプロジェクタ10は、無線通信によるデータ通信に対応し、無線通信を介して複数の情報端末20a、20b、20cおよび20dと通信を行うことができる。この無線通信により、プロジェクタ10は、情報端末20a〜20dから1を選択し、選択された例えば情報端末20aから送信される画像データによる画像をスクリーン30に投影させることができる。
(Outline of the Invention)
Embodiments of an information processing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 shows a configuration of an example of a wireless projector system applicable to each embodiment of the present invention. The projector 10 as an information processing apparatus in each embodiment of the present invention supports data communication by wireless communication, and can communicate with a plurality of information terminals 20a, 20b, 20c, and 20d via wireless communication. Through this wireless communication, the projector 10 can select 1 from the information terminals 20a to 20d and project an image based on the selected image data transmitted from, for example, the information terminal 20a on the screen 30.

例えば、情報端末20a〜20dおよびプロジェクタ10は、無線通信として無線LAN(Local Area Network)に対応し、例えば情報端末20aおよびプロジェクタ10は、それぞれアンテナ21aおよびアンテナ11を用いた電波22の送受信により、無線LANの通信プロトコルに従いデータ通信を行う。情報端末20b〜20dも、同様にして、アンテナ21b〜21dを用いて、プロジェクタ10との間で電波22の送受信を行い、データ通信を行う。   For example, the information terminals 20a to 20d and the projector 10 correspond to a wireless LAN (Local Area Network) as wireless communication. For example, the information terminal 20a and the projector 10 transmit and receive radio waves 22 using the antenna 21a and the antenna 11, respectively. Data communication is performed in accordance with a wireless LAN communication protocol. Similarly, the information terminals 20b to 20d transmit and receive the radio wave 22 to and from the projector 10 using the antennas 21b to 21d and perform data communication.

なお、以下では、特に記載のない限り、情報端末20a〜20dを、情報端末20で代表させて説明を行う。同様に、アンテナ21a〜21dをアンテナ21で代表させて説明を行う。   In the following description, the information terminals 20a to 20d are represented by the information terminal 20 unless otherwise specified. Similarly, antennas 21a to 21d will be described as antenna 21.

図2は、無線LANによるデータ通信を行う際の一例のデータフレームのフォーマットを示す。ここでは、無線LANにおいて一般的に用いられる、イーサネット(登録商標)におけるMAC(Media Access Control)フレームの例を示す。MACフレームは、先頭から、MACヘッダ、フレームボディおよびFCS(Frame Check Sequence)からなる。MACヘッダは、フレーム制御情報や、送信側のMACアドレスなどが含まれる。フレームボディは、送信したいデータの本体が格納される。また、FCSは、MACヘッダおよびフレームボディについての誤り訂正符号が含まれる。   FIG. 2 shows an example of a data frame format when performing data communication by wireless LAN. Here, an example of a MAC (Media Access Control) frame in Ethernet (registered trademark) generally used in a wireless LAN is shown. The MAC frame includes a MAC header, a frame body, and an FCS (Frame Check Sequence) from the top. The MAC header includes frame control information, a MAC address on the transmission side, and the like. The frame body stores the main body of the data to be transmitted. The FCS includes an error correction code for the MAC header and the frame body.

本発明の各実施形態においては、プロジェクタ10が撮像手段を有し、撮像手段により撮像された撮像画像に基づき、ユーザによる切り替え要求を示す動作を検出する。プロジェクタ10は、当該動作が検出されると、スクリーン30に投影される画像を、当該動作を行ったユーザが使用する情報端末20から送信される画像データによる画像に切り替える。ユーザは、一々プロジェクタ10の設置場所まで赴かなくとも、プロジェクタ10に対して自分が使用する情報端末20による画像を、スクリーン30に投影させることができる。またそのために、リモートコントロールコマンダなどの遠隔操作による切り替え手段を用意する必要が無い。   In each embodiment of the present invention, the projector 10 includes an imaging unit, and detects an operation indicating a switching request by the user based on a captured image captured by the imaging unit. When the operation is detected, the projector 10 switches the image projected on the screen 30 to an image based on image data transmitted from the information terminal 20 used by the user who has performed the operation. The user can project an image of the information terminal 20 used by the user onto the screen 30 without going to the place where the projector 10 is installed. For this reason, it is not necessary to prepare a switching means by remote operation such as a remote control commander.

(第1の実施形態)
次に、本発明の第1の実施形態について説明する。図3は、本第1の実施形態に適用可能なプロジェクタ10の機能を説明するための一例の機能ブロック図を示す。プロジェクタ10は、制御部100、撮像部110、動作検出部111、無線通信部112、表示情報生成部113、表示部114および記憶部115を有する。
(First embodiment)
Next, a first embodiment of the present invention will be described. FIG. 3 is a functional block diagram illustrating an example of functions of the projector 10 that can be applied to the first embodiment. The projector 10 includes a control unit 100, an imaging unit 110, an operation detection unit 111, a wireless communication unit 112, a display information generation unit 113, a display unit 114, and a storage unit 115.

制御部100は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などを有し、ROMに予め記憶されたプログラムに従い、RAMをワークメモリとして用いて動作するCPUにより、このプロジェクタ10の全体の動作を制御する。なお、制御部100に関する接続経路は、煩雑さを避けるために図示を省略する。   The control unit 100 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and operates using the RAM as a work memory according to a program stored in advance in the ROM. Thus, the overall operation of the projector 10 is controlled. In addition, in order to avoid a complexity, the connection path | route regarding the control part 100 is abbreviate | omitted illustration.

撮像部110は、動画像の撮像を行い撮像画像データを出力する。動作検出部111は、撮像部110から出力された撮像画像データを解析し、撮像画像データから、切り替え要求動作と、当該撮像画像データのフレーム内における、切り替え要求動作が発生した位置とを検出する。動作検出部111は、例えば、MPEG(Moving Pictures Experts Group)による動画像の圧縮符号化技術における動き検出技術を用いて、動画像データから切り替え要求動作を検出することができる。   The imaging unit 110 captures a moving image and outputs captured image data. The motion detection unit 111 analyzes the captured image data output from the imaging unit 110, and detects, from the captured image data, a switching request operation and a position where the switching request operation has occurred in the frame of the captured image data. . The motion detection unit 111 can detect a switching request operation from moving image data using, for example, a motion detection technology in a moving image compression coding technology based on MPEG (Moving Pictures Experts Group).

無線通信部112は、アンテナ11を介して、各情報端末20との間で電波22による通信を行う。例えば、無線通信部112は、TCP/IP(Transmission Control Protocol/Internet Protocol)を通信プロトコルとして用い、IEEE(Institute of Electrical and Electronics Engineers)802.11シリーズに規定される無線LANによる無線通信を行う。以下、特に記載のない限り、IEEE802.11に規定される無線LANを、単に無線LANと呼ぶ。   The wireless communication unit 112 performs communication using the radio wave 22 with each information terminal 20 via the antenna 11. For example, the wireless communication unit 112 uses TCP / IP (Transmission Control Protocol / Internet Protocol) as a communication protocol, and performs wireless communication by a wireless LAN defined in the Institute of Electrical and Electronics Engineers (IEEE) 802.11 series. Hereinafter, unless otherwise specified, a wireless LAN defined in IEEE 802.11 is simply referred to as a wireless LAN.

無線通信部112が対応する通信方式は、無線LANに限らず、BlueTooth(登録商標)やWireless USBといった、装置同士で直接的に無線通信を行うことが可能な方式であってもよい。   The communication method supported by the wireless communication unit 112 is not limited to a wireless LAN, and may be a method capable of directly performing wireless communication between devices, such as BlueTooth (registered trademark) or Wireless USB.

無線通信部112は、動作検出部111による切り替え要求動作の検出結果に基づき、各情報端末20のうち通信を行う相手を選択する。そして、選択された情報端末20から受信した電波22を復調して画像データを抽出し、表示情報生成部113に供給する。   The wireless communication unit 112 selects a communication partner of the information terminals 20 based on the detection result of the switching request operation by the operation detection unit 111. Then, the radio wave 22 received from the selected information terminal 20 is demodulated to extract image data and supplied to the display information generation unit 113.

表示情報生成部113は、後述する表示部114によりスクリーン30などの表示媒体に投影するための表示画像データを生成する。例えば、表示情報生成部113は、無線通信部112から供給された画像データに基づき表示画像データを生成し、表示部114に供給する。また、表示情報生成部113に対して、動作検出部111による切り替え要求動作の検出結果が供給される。表示情報生成部113は、供給された切り替え要求動作の検出結果に基づき、少なくとも、切り替え要求動作を行ったユーザが使用する情報端末20を示す情報を表示するための表示データを生成する。この表示データは、上述の表示画像データに対して合成されて、表示部114に供給される。   The display information generation unit 113 generates display image data to be projected onto a display medium such as the screen 30 by the display unit 114 described later. For example, the display information generation unit 113 generates display image data based on the image data supplied from the wireless communication unit 112 and supplies the display image data to the display unit 114. In addition, the detection result of the switching request operation by the operation detection unit 111 is supplied to the display information generation unit 113. The display information generating unit 113 generates display data for displaying at least information indicating the information terminal 20 used by the user who has performed the switching request operation based on the supplied detection result of the switching request operation. This display data is combined with the above-described display image data and supplied to the display unit 114.

表示部114は、例えば、光源と、RGB各色のカラーフィルタを組み込んだ液晶パネルと、RGB各色の液晶パネルから出射される光を合成するプリズムと、レンズなど光学部品とを組み合わせた光学系と、表示画像データに基づき液晶パネルを駆動する駆動回路とを備える。表示部114は、光源から出射される光は、ダイクロイックミラーなどによりRGB各色の光に分離され、各色のカラーフィルタを組み込んだ液晶パネルに入射される。RGB各色の光は、駆動回路により駆動される液晶パネルに制御され、プリズムによりRGB各色の光が合成されレンズなどを介して光学系から出射される。光学系から出射された光は、例えばスクリーン30といった表示媒体に投影される。   The display unit 114 includes, for example, an optical system that combines a light source, a liquid crystal panel incorporating RGB color filters, a prism that combines light emitted from the RGB liquid crystal panels, and an optical component such as a lens, And a drive circuit for driving the liquid crystal panel based on the display image data. In the display unit 114, the light emitted from the light source is separated into light of each RGB color by a dichroic mirror or the like, and is incident on a liquid crystal panel incorporating a color filter of each color. The light of each RGB color is controlled by a liquid crystal panel driven by a drive circuit, and the light of each RGB color is synthesized by a prism and emitted from the optical system via a lens or the like. The light emitted from the optical system is projected onto a display medium such as the screen 30.

なお、表示部114の投影方式は、光源と液晶パネルとを組み合わせた方式に限定されない。また、画像の投影対象は、スクリーン30に限定されず、壁などでもよい。さらに、上述した撮像部110は、プロジェクタ10を、表示部114から出射された光がスクリーン30に投影されるように設置した場合に、ユーザ側を撮像するように構成すると好ましい。さらにまた、撮像部110は、プロジェクタ10に内蔵せずに、プロジェクタ10に対して外付けで用いてもよい。   Note that the projection method of the display unit 114 is not limited to a method in which a light source and a liquid crystal panel are combined. The image projection target is not limited to the screen 30 and may be a wall or the like. Furthermore, it is preferable that the above-described imaging unit 110 is configured to capture the user side when the projector 10 is installed so that the light emitted from the display unit 114 is projected onto the screen 30. Furthermore, the imaging unit 110 may be used externally to the projector 10 without being incorporated in the projector 10.

また、撮像部110は、一般的な可視光の範囲を撮像するカメラを用いてもよいし、赤外線を撮像可能な赤外線カメラであってもよい。これに限らず、可視光撮像用のカメラと、赤外線カメラとを組み合わせて用いてもよい。さらに、撮像部110が、同種のカメラを複数台含んでいてもよい。例えば、撮像部110が同一の被写体を撮像するように配置された2台の可視光カメラを有し、当該被写体を立体的に撮像することが考えられる。   The imaging unit 110 may be a camera that captures a general visible light range, or may be an infrared camera that can capture infrared rays. However, the present invention is not limited to this, and a visible light imaging camera and an infrared camera may be used in combination. Furthermore, the imaging unit 110 may include a plurality of cameras of the same type. For example, it is conceivable that the imaging unit 110 has two visible light cameras arranged so as to capture the same subject and images the subject in a three-dimensional manner.

記憶部115は、後述するように、プロジェクタ10の使用開始時のキャリブレーションにより取得する、各情報端末の使用者による切り替え要求動作の特徴量や、当該切り替え要求動作が検出される動画像内での位置を示す情報とが、各情報端末20を識別する識別情報と関連付けられて記憶される。動作検出部111は、この記憶部115に記憶される情報に基づき、切り替え要求動作を行ったユーザの情報端末20を特定することができる。   As will be described later, the storage unit 115 acquires the feature amount of the switching request operation by the user of each information terminal acquired by calibration at the start of use of the projector 10 and the moving image in which the switching request operation is detected. Is stored in association with the identification information for identifying each information terminal 20. The operation detection unit 111 can specify the information terminal 20 of the user who has performed the switching request operation based on the information stored in the storage unit 115.

図4は、情報端末20の機能を説明するための一例の機能ブロック図を示す。情報端末20は、制御部120、画像情報生成部131および無線通信部132を有する。制御部120は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などを有し、ROMに予め記憶されたプログラムに従い、RAMをワークメモリとして用いて動作するCPUにより、この情報端末20の全体の動作を制御する。   FIG. 4 is a functional block diagram illustrating an example of the function of the information terminal 20. The information terminal 20 includes a control unit 120, an image information generation unit 131, and a wireless communication unit 132. The control unit 120 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and a CPU that operates using the RAM as a work memory according to a program stored in advance in the ROM. Thus, the overall operation of the information terminal 20 is controlled.

画像情報生成部131は、例えばプログラムに従い画像データを生成する。生成された画像データは、無線通信部132に供給される。無線通信部132は、アンテナ21を介して、プロジェクタ10の無線通信部112が対応可能な通信方式に従い、電波22による通信を行う。例えば、無線通信部132は、TCP/IPをプロトコルとして用いて、プロジェクタ10の無線通信部112と、無線LANによる無線通信を行う。画像データは、例えばMACフレームのフレームボディに詰め込まれて送信される。   The image information generation unit 131 generates image data according to a program, for example. The generated image data is supplied to the wireless communication unit 132. The wireless communication unit 132 performs communication using the radio wave 22 via the antenna 21 in accordance with a communication method that can be supported by the wireless communication unit 112 of the projector 10. For example, the wireless communication unit 132 performs wireless communication using the wireless LAN with the wireless communication unit 112 of the projector 10 using TCP / IP as a protocol. The image data is transmitted, for example, packed in a frame body of a MAC frame.

勿論、無線通信部132は、BlueTooth(登録商標)やWireless USBなどの通信方式でプロジェクタ10の無線通信部112と無線通信を行うようにしてもよい。   Of course, the wireless communication unit 132 may perform wireless communication with the wireless communication unit 112 of the projector 10 using a communication method such as BlueTooth (registered trademark) or Wireless USB.

なお、情報端末20としては、例えば一般的なパーソナルコンピュータを用いることができる。   For example, a general personal computer can be used as the information terminal 20.

(キャリブレーション)
次に、本発明の各実施形態に適用可能なキャリブレーション処理について説明する。キャリブレーション処理は、プロジェクタ10を使用するユーザによる切り替え要求動作と、当該ユーザが使用する情報端末20の情報とを関連付けて登録する処理である。キャリブレーション処理は、例えば、プロジェクタ10において、各情報端末20から送信した画像データによる画像の投影を開始する前に、予め実行される。
(Calibration)
Next, calibration processing applicable to each embodiment of the present invention will be described. The calibration process is a process of registering the switching request operation by the user who uses the projector 10 and the information of the information terminal 20 used by the user in association with each other. For example, the calibration process is executed in advance before the projector 10 starts projecting an image using the image data transmitted from each information terminal 20.

図5は、各実施形態に適用可能なキャリブレーション処理を示す一例のフローチャートである。このフローチャートによる各処理は、プロジェクタ10において、制御部100の制御に従ったプロジェクタ10の各部によって実行される。   FIG. 5 is a flowchart illustrating an example of calibration processing applicable to each embodiment. Each process according to this flowchart is executed by each unit of the projector 10 according to the control of the control unit 100 in the projector 10.

ステップS10で、各情報端末20がプロジェクタ10と無線LANによる無線通信で接続される。接続の際に、各情報端末20の無線通信部132と、プロジェクタ10の無線通信部112との間でプロトコルに従った情報のやりとりが行われ、無線通信部112は、各情報端末20を無線通信ネットワーク上で識別できる識別情報を取得する。例えば、プロトコルとしてTCP/IPを用いる場合、各情報端末20のMACアドレスと、IP(Internet Protocol)アドレスとが、各情報端末20を識別するための識別情報として用いられる。また、プロジェクタ10は、ステップS10での通信において、各情報端末20が画像出力モードであるか否かを示す動作モード情報を取得する。   In step S10, each information terminal 20 is connected to the projector 10 by wireless communication using a wireless LAN. At the time of connection, information is exchanged according to the protocol between the wireless communication unit 132 of each information terminal 20 and the wireless communication unit 112 of the projector 10, and the wireless communication unit 112 transmits each information terminal 20 wirelessly. Acquire identification information that can be identified on the communication network. For example, when TCP / IP is used as a protocol, the MAC address and IP (Internet Protocol) address of each information terminal 20 are used as identification information for identifying each information terminal 20. Further, the projector 10 acquires operation mode information indicating whether or not each information terminal 20 is in the image output mode in the communication in step S10.

プロジェクタ10において、無線通信部112は、ステップS10で各情報端末20の接続処理が終了すると、各情報端末20から1を選択して次のステップS11に移行する。ここでは、ユーザAが使用する情報端末20aが選択されたものとする。ステップS11で、無線通信部112は、情報端末20aから送信された動作モード情報に基づき、情報端末20aの動作モードが画像出力モードであるか否かを判定する。若し、ステップS11で、情報端末20aの動作モードが画像出力モードであると判定した場合、処理がステップS12に移行され、プロジェクタ10は、情報端末20aによる画像をスクリーン30に投影させる。   In the projector 10, when the connection process of each information terminal 20 is completed in step S10, the wireless communication unit 112 selects 1 from each information terminal 20, and proceeds to the next step S11. Here, it is assumed that the information terminal 20a used by the user A is selected. In step S11, the wireless communication unit 112 determines whether the operation mode of the information terminal 20a is the image output mode based on the operation mode information transmitted from the information terminal 20a. If it is determined in step S11 that the operation mode of the information terminal 20a is the image output mode, the process proceeds to step S12, and the projector 10 projects an image from the information terminal 20a on the screen 30.

一方、情報端末20aの動作モードが画像出力モードではないと判定された場合、処理をステップS13に移行させ、プロジェクタ10は、情報端末20aの接続情報をスクリーン30に投影させる。例えば、プロジェクタ10において、無線通信部112は、MACフレームから当該情報端末20aのMACアドレスやIPアドレスを抽出し、当該情報端末20aの接続情報として表示情報生成部113に供給する。表示情報生成部113は、供給された接続情報を表示させるための表示画像データを生成して表示部114に供給し、当該表示画像データによる画像をスクリーン30に投影させる。これに限らず、当該情報端末20aに設定されたコンピュータ名を接続情報としてスクリーン30に投影させてもよい。   On the other hand, when it is determined that the operation mode of the information terminal 20a is not the image output mode, the process proceeds to step S13, and the projector 10 projects the connection information of the information terminal 20a on the screen 30. For example, in the projector 10, the wireless communication unit 112 extracts the MAC address or IP address of the information terminal 20 a from the MAC frame, and supplies it to the display information generation unit 113 as connection information of the information terminal 20 a. The display information generation unit 113 generates display image data for displaying the supplied connection information, supplies the display image data to the display unit 114, and causes the screen 30 to project an image based on the display image data. Not limited to this, the computer name set in the information terminal 20a may be projected on the screen 30 as connection information.

ステップS12またはステップS13の処理が終了すると、処理はステップS14に移行される。ステップS14で、プロジェクタ10は、スクリーン30に対して、ユーザに対して切り替え要求動作を行うように促す画像を表示させる。それと共に、撮像部110では、動画像の撮像が開始される。なお、撮像部110での撮像は、上述のステップS10の時点で既に開始されていてもよい。   When the process of step S12 or step S13 ends, the process proceeds to step S14. In step S14, the projector 10 causes the screen 30 to display an image prompting the user to perform a switching request operation. At the same time, the imaging unit 110 starts capturing a moving image. Note that imaging by the imaging unit 110 may already be started at the time of step S10 described above.

なお、撮像部110は、撮像範囲にユーザA〜D全員の姿が含まれるように設定されているものとする。撮像部110で撮像された撮像画像データは、動作検出部111に供給され後述するようにして解析される。また、当該撮像画像データが動作検出部111を介して表示情報生成部113に供給され、当該撮像画像データによる画像がスクリーン30に投影される。   Note that the imaging unit 110 is set to include all the users A to D in the imaging range. The captured image data captured by the imaging unit 110 is supplied to the motion detection unit 111 and analyzed as described later. In addition, the captured image data is supplied to the display information generation unit 113 via the motion detection unit 111, and an image based on the captured image data is projected on the screen 30.

このステップS14の表示に応じて、ユーザAにより切り替え要求の動作が行われる。この切り替え要求の動作は、特に限定されないが、手を所定の形状にする動作、両腕で頭上に丸印を作る動作、腕を大きく振る動作などが考えられる。切り替え要求の動作は、所定以上の大きさの動作であると、解析が容易となり望ましい。   In response to the display in step S14, the user A performs a switching request operation. The operation of the switching request is not particularly limited, but an operation of making the hand a predetermined shape, an operation of making a circle on the head with both arms, an operation of shaking the arm greatly, and the like are conceivable. It is desirable that the switching request operation is an operation of a predetermined size or larger because analysis is easy.

次のステップS15で、ユーザAによる切り替え要求の動作が検出されると共に、当該動作が検出された、撮像部110に撮像された撮像画像内での位置が検出される。記憶部115に対して、この位置を示す情報であるユーザ認識領域と、検出された切り替え要求の動作を示す特徴値とが、情報端末20aを識別する識別情報に関連付けられて記憶される。なお、ステップS15において、所定時間以内に切り替え要求動作が検出されなかった場合、タイムアウトとして、処理が次のステップS16に移行される。   In the next step S15, the switching request operation by the user A is detected, and the position in the captured image captured by the imaging unit 110 where the operation is detected is detected. The storage unit 115 stores a user recognition area, which is information indicating the position, and a feature value indicating the operation of the detected switching request, in association with identification information for identifying the information terminal 20a. In step S15, when the switching request operation is not detected within the predetermined time, the process proceeds to the next step S16 as a timeout.

切り替え要求の動作検出処理の例について、より具体的に説明する。切り替え要求の動作が、撮像部110に動画像として撮像される。撮像部110は、切り替え要求動作を撮像した撮像画像データを、1フレーム毎に動作検出部111に供給する。動作検出部111は、例えば、MPEG方式で用いられる動き検出により、ユーザAの切り替え要求動作を検出する。   An example of the switching request operation detection process will be described more specifically. The switching request operation is captured by the image capturing unit 110 as a moving image. The imaging unit 110 supplies captured image data obtained by imaging the switching request operation to the operation detection unit 111 for each frame. The operation detection unit 111 detects the switching request operation of the user A by, for example, motion detection used in the MPEG method.

一例として、動作検出部111は、動画像データの1フレームの画像を所定サイズ(例えば8画素×8画素)のマクロブロックに分割し、1フレーム前の画像とマクロブロック単位で比較を行い、動きベクトルを求める。動作検出部111は、所定以上の動きベクトルが求められたマクロブロックが、切り替え要求動作が検出されたマクロブロックであると判定し、記憶部115に対し、当該マクロブロックのフレーム内の位置を記憶すると共に、動きベクトルを特徴値として記憶する。この処理を所定フレーム数に亘って実行する。   As an example, the motion detection unit 111 divides an image of one frame of moving image data into macroblocks of a predetermined size (for example, 8 pixels × 8 pixels), compares the image of the previous frame with the macroblock unit, Find a vector. The motion detection unit 111 determines that the macroblock for which a motion vector greater than or equal to the predetermined value is obtained is the macroblock for which the switching request operation has been detected, and stores the position of the macroblock in the frame in the storage unit 115. In addition, the motion vector is stored as a feature value. This process is executed over a predetermined number of frames.

次のステップS16で、プロジェクタ10は、スクリーン30に対して切り替え要求動作の確認画像を投影させる。例えば、プロジェクタ10は、スクリーン30に投影されるユーザAの画像を含む撮像画像に対して、ステップS15で検出されたユーザ認識領域を表示させる。それと共に、プロジェクタ10は、検出された切り替え要求動作を取り消すための取り消し要求動作を促すメッセージをスクリーン30に投影させる。また、取り消し要求動作に対するタイムアウトの時間も投影させる。   In the next step S <b> 16, the projector 10 projects a confirmation image of the switching request operation on the screen 30. For example, the projector 10 displays the user recognition area detected in step S15 on the captured image including the image of the user A projected on the screen 30. At the same time, the projector 10 projects a message prompting the cancel request operation for canceling the detected switching request operation on the screen 30. Also, the timeout time for the cancel request operation is projected.

図6は、このステップS16でスクリーン30に投影される確認画像の一例を示す。この例では、既にユーザAの切り替え要求動作が登録されており、次のユーザBの切り替え要求動作の登録の確認を行う確認画像が示されている。スクリーン30に投影される、撮像部110の撮像画像データに基づく撮像画像に対して、登録済みのユーザAと、登録処理中のユーザBとが表示されている。この例では、ユーザAおよびBの情報端末20aおよび20bが、それぞれのユーザ近傍に設置されているため、これら情報端末20aおよび20bも、撮像画像内に表示されている。   FIG. 6 shows an example of a confirmation image projected on the screen 30 in step S16. In this example, the switching request operation of the user A is already registered, and a confirmation image for confirming registration of the switching request operation of the next user B is shown. For the captured image based on the captured image data of the image capturing unit 110 projected on the screen 30, the registered user A and the user B during the registration process are displayed. In this example, since the information terminals 20a and 20b of the users A and B are installed in the vicinity of each user, the information terminals 20a and 20b are also displayed in the captured image.

確認画像において、ユーザBの上部に、ユーザBの使用する情報端末20bの接続情報(IPアドレス)51が表示されると共に、ユーザBの認識領域を示す枠52が表示されている。この枠52により、ユーザBの向かって右の腕のある動きが切り替え要求動作として検出されたことが示される。また、枠52の確認画像内での位置が、ユーザBおよび情報端末20bに対応することが分かる。   In the confirmation image, connection information (IP address) 51 of the information terminal 20b used by the user B is displayed above the user B, and a frame 52 indicating the recognition area of the user B is displayed. The frame 52 indicates that the movement with the right arm toward the user B is detected as the switching request action. It can also be seen that the position of the frame 52 in the confirmation image corresponds to the user B and the information terminal 20b.

次のステップS17およびステップS18で、プロジェクタ10は、ユーザAによる取り消し要求動作をタイムアウトまで待機する。すなわち、ステップS17で取り消し動作が行われたと判定した場合、処理がステップS14に戻され、再びユーザAによる切り替え要求動作が検出される。一方、ステップS17で取り消し要求動作が行われていないと判定された場合、処理がステップS18に移行され、タイムアウトしたか否かが判定され、タイムアウトしていないと判定された場合に、処理がステップS17に戻される。タイムアウトしたと判定された場合、処理がステップS19に移行される。   In the next step S17 and step S18, the projector 10 waits for a cancel request operation by the user A until timeout. That is, if it is determined in step S17 that the cancel operation has been performed, the process returns to step S14, and the switching request operation by the user A is detected again. On the other hand, if it is determined in step S17 that the cancel request operation has not been performed, the process proceeds to step S18, where it is determined whether or not a time-out has occurred. It returns to S17. If it is determined that a timeout has occurred, the process proceeds to step S19.

なお、取り消し要求動作は、プロジェクタ10の図示されない操作部に対する操作により行うことができる。これに限らず、予め定められた取り消し動作をユーザAが行い、この動作を撮像部110で撮像し撮像画像データを上述のようにして動作検出部111で検出するようにもできる。   The cancel request operation can be performed by operating the operation unit (not shown) of the projector 10. However, the present invention is not limited to this, and the user A may perform a predetermined canceling operation, and this operation may be captured by the imaging unit 110 and the captured image data may be detected by the operation detecting unit 111 as described above.

ステップS19で、プロジェクタ10は、ユーザAが切り替え要求動作を了承したと判断し、スクリーン30に対してその旨示す表示(「OK」など)を投影する。そして、プロジェクタ10は、ステップS20で、通信を行う情報端末を現在の情報端末(例えば情報端末20a)から次の情報端末(例えば情報端末20b)に切り替え、次のステップS21で今回使用する全ての情報端末20a〜20dに対する登録処理が全て終了したか否かを判定する。若し、終了していないと判定した場合、処理をステップS11に戻し、次の情報端末20bに対する登録処理を行う。   In step S <b> 19, the projector 10 determines that the user A has accepted the switching request operation, and projects a display (“OK” or the like) indicating that to the screen 30. In step S20, the projector 10 switches the information terminal that performs communication from the current information terminal (for example, the information terminal 20a) to the next information terminal (for example, the information terminal 20b), and in the next step S21, all projectors that are used this time. It is determined whether or not all the registration processes for the information terminals 20a to 20d have been completed. If it is determined that the process has not ended, the process returns to step S11, and a registration process for the next information terminal 20b is performed.

一方、ステップS21で、今回使用する全ての情報端末20a〜20dに対する登録処理が全て終了したと判定した場合、一連のキャリブレーション処理を終了する。一連のキャリブレーション処理が終了すると、記憶部115には、切り替え要求動作を示す特徴値と、認識領域とが、それぞれ情報端末20a〜20dを識別する識別情報と関連付けられて記憶されていることになる。   On the other hand, if it is determined in step S21 that all the registration processes for all the information terminals 20a to 20d used this time have been completed, a series of calibration processes is terminated. When a series of calibration processes is completed, the storage unit 115 stores the feature value indicating the switching request operation and the recognition area in association with the identification information for identifying each of the information terminals 20a to 20d. Become.

次に、本第1の実施形態による情報端末20の切り替え処理について説明する。図7は、本第1の実施形態による情報端末20の切り替え処理を示す一例のフローチャートである。以下では、プロジェクタ10により投影される画像を、ユーザAが使用する情報端末20aから送信された画像データによる画像から、ユーザBが使用する情報端末20bから送信された画像データによる画像に切り替えるものとして説明する。なお、図7において、便宜上、情報端末20aを情報端末A、情報端末20bを情報端末Bとして記載している。   Next, switching processing of the information terminal 20 according to the first embodiment will be described. FIG. 7 is a flowchart illustrating an example of the switching process of the information terminal 20 according to the first embodiment. In the following, the image projected by the projector 10 is switched from the image based on the image data transmitted from the information terminal 20a used by the user A to the image based on the image data transmitted from the information terminal 20b used by the user B. explain. In FIG. 7, for convenience, the information terminal 20a is described as the information terminal A, and the information terminal 20b is described as the information terminal B.

先ず、ステップS30で、上述の図5のフローチャートに従いキャリブレーションを行い、情報端末20aおよび20bにそれぞれ対応する切り替え要求動作が検出され、検出された切り替え要求動作を示す特徴値と認識領域とが、記憶部115にそれぞれ記憶される。   First, in step S30, calibration is performed according to the flowchart of FIG. 5 described above, switching request operations corresponding to the information terminals 20a and 20b are detected, and a feature value indicating the detected switching request operation and a recognition region are detected. Each is stored in the storage unit 115.

次のステップS31で、プロジェクタ10は、ユーザAが使用する情報端末20aから送信された画像データによる画像を、スクリーン30に投影させる。それと共に、撮像部110で撮像された撮像画像データの動作検出部111での解析処理を開始させ、ユーザAまたはユーザBによる切り替え要求動作の検出を行う。なお、以下において、ユーザAおよびユーザBは、ステップS30のキャリブレーション処理時のそれぞれの位置と大きく変わらない、所定領域内に居るものとする。   In the next step S31, the projector 10 projects an image based on the image data transmitted from the information terminal 20a used by the user A onto the screen 30. At the same time, the analysis processing in the motion detection unit 111 of the captured image data captured by the imaging unit 110 is started, and the switching request operation by the user A or the user B is detected. In the following, it is assumed that the user A and the user B are in a predetermined area that is not greatly different from the respective positions at the time of the calibration process in step S30.

次のステップS32で、プロジェクタ10は、現在画像の投影を行っていない情報端末20bのユーザBによる切り替え要求動作が検出されたか否かを判定する。この判定は、例えば次のように行う。   In the next step S32, the projector 10 determines whether or not a switching request operation by the user B of the information terminal 20b that is not currently projecting an image has been detected. This determination is performed as follows, for example.

動作検出部111は、図5を用いて説明したキャリブレーション処理におけるステップS15の処理と同様にして、撮像部110から供給される撮像画像データから動きベクトルを求め、所定以上の大きさの動きベクトルが存在するか否かを判定する。若し、所定以上の大きさの動きベクトルが存在すると判定した場合、その動きベクトルによる特徴値と、当該動きベクトルが求められた撮像画像データのフレーム内の位置(認識領域)とを、ステップS30のキャリブレーション処理で記憶部115に記憶されたユーザAおよびユーザBの切り替え要求動作を示す特徴値および認識領域と比較する。   The motion detection unit 111 obtains a motion vector from the captured image data supplied from the imaging unit 110 in the same manner as the process of step S15 in the calibration process described with reference to FIG. It is determined whether or not exists. If it is determined that there is a motion vector having a predetermined size or larger, the feature value based on the motion vector and the position (recognition region) in the frame of the captured image data from which the motion vector is obtained are obtained in step S30. Are compared with the feature value and the recognition area indicating the switching request operation of the user A and the user B stored in the storage unit 115 in the calibration process.

比較の結果、若し、検出された切り替え要求動作の特徴値および認識領域と、記憶部115に記憶されたユーザBの切り替え要求動作の特徴値および認識領域とが一致しているとされた場合、情報端末20bのユーザBによる切り替え要求動作が検出されたと判定して、処理がステップS33に移行される。このとき、プロジェクタ10は、図8に例示されるように、切り替え要求動作を行ったユーザBが使用する情報端末20bを示す識別情報60を記憶部115から読み出し、スクリーン30の一部に投影させ、割り込みが入ったことを示す。   As a result of the comparison, if the feature value and recognition area of the detected switching request action match the feature value and recognition area of the user B switching request action stored in the storage unit 115 Then, it is determined that the switching request operation by the user B of the information terminal 20b has been detected, and the process proceeds to step S33. At this time, as illustrated in FIG. 8, the projector 10 reads the identification information 60 indicating the information terminal 20 b used by the user B who has performed the switching request operation from the storage unit 115 and projects the identification information 60 onto a part of the screen 30. Indicates that an interrupt has occurred.

一方、ステップS32での比較の結果、検出された切り替え要求動作の特徴値および認識領域と、記憶部115に記憶されたユーザBの切り替え要求動作の特徴値および認識領域とが一致していないとされた場合、ユーザBによる切り替え要求が出されていないと判定する。この場合、処理をステップS31に戻して、情報端末20aからの画像データによる画像の投影を継続させる。   On the other hand, as a result of the comparison in step S32, if the detected feature value and recognition area of the switching request action do not match the feature value and recognition area of the user B switching request action stored in the storage unit 115. If it is determined, it is determined that the switching request by the user B has not been issued. In this case, the process returns to step S31, and the projection of the image by the image data from the information terminal 20a is continued.

なお、ステップS32において、例えば、記憶部115に記憶されたユーザBの切り替え要求動作の特徴値および認識領域に対して、検出された切り替え要求動作の特徴値および認識領域が所定の範囲内に収まっている場合に、一致したと見做す。   In step S32, for example, the detected feature value and recognition area of the switching request operation within the predetermined range with respect to the feature value and recognition area of the switching request operation of user B stored in the storage unit 115. If so, it is considered a match.

ステップS33で、プロジェクタ10は、記憶部115に記憶される情報端末20bの情報に基づき、通信相手を情報端末20aから情報端末20bに切り替える。そして、ステップS34で、プロジェクタ10は、情報端末20bとの間で通信を行い、情報端末20bから送信された画像データによる画像を、スクリーン30に投影させる。   In step S33, the projector 10 switches the communication partner from the information terminal 20a to the information terminal 20b based on the information of the information terminal 20b stored in the storage unit 115. In step S34, the projector 10 communicates with the information terminal 20b, and projects an image based on the image data transmitted from the information terminal 20b on the screen 30.

このように、本第1の実施形態によれば、各ユーザは、当初の位置から移動することなく、スクリーン30に投影する画像を各ユーザが使用する情報端末20による画像に切り替えることができる。   Thus, according to the first embodiment, each user can switch the image projected on the screen 30 to the image by the information terminal 20 used by each user without moving from the initial position.

なお、記憶部115を不揮発性メモリやハードディスクドライブといった、不揮発性の記憶媒体で構成し、各ユーザの切り替え要求動作の特徴値および認識領域や、各情報端末20の識別情報を、記憶部115に蓄積しておくことができる。そして、次回プロジェクタを使用する際に、各情報が記憶部115に蓄積されているユーザについては、キャリブレーションなどの際に、キャリブレーションで新たに得られる情報と共に、記憶部115に蓄積されている情報を用いることで、切り替え要求動作の検出精度を高めることが可能である。   The storage unit 115 is configured by a non-volatile storage medium such as a nonvolatile memory or a hard disk drive, and the feature value and recognition area of each user's switching request operation and the identification information of each information terminal 20 are stored in the storage unit 115. Can be accumulated. When the projector is used next time, a user whose information is stored in the storage unit 115 is stored in the storage unit 115 together with information newly obtained by calibration at the time of calibration or the like. By using the information, it is possible to improve the detection accuracy of the switching request operation.

(第1の実施形態の変形例)
次に、本第1の実施形態の変形例について説明する。上述の第1の実施形態では、各情報端末20からプロジェクタ10に対して、画像データのみを送信するように説明したが、これはこの例に限定されない。本変形例では、情報端末20から画像データと共に音声データを送信し、プロジェクタ10側において、画像データによる画像をスクリーン30に投影すると共に、音声データによる音声を出力できるようにしている。
(Modification of the first embodiment)
Next, a modification of the first embodiment will be described. In the first embodiment described above, only the image data is transmitted from each information terminal 20 to the projector 10, but this is not limited to this example. In this modification, audio data is transmitted together with image data from the information terminal 20, and an image based on the image data is projected on the screen 30 on the projector 10 side, and sound based on the audio data can be output.

図9は、本変形例による無線プロジェクタシステムの機能を説明するための一例の機能ブロック図である。なお、図9において、上述した図3および図4と共通する部分には同一の符号を付して、詳細な説明を省略する。   FIG. 9 is a functional block diagram of an example for explaining the functions of the wireless projector system according to the present modification. In FIG. 9, the same reference numerals are given to the same parts as those in FIGS. 3 and 4 described above, and detailed description thereof is omitted.

図9において、本変形例による情報端末20’は、図4で説明した情報端末20に対して、例えばプログラムに従い音声データを生成する音声情報生成部210が追加されている。音声データは、これに限らず、図示されない記憶媒体に記憶される音声データを用いてもよい。音声情報生成部210で生成された音声データは、無線通信部132に供給され、画像情報生成部131から出力される画像データと同様にして変調処理などを施され、例えばMACフレームのフレームボディに詰め込まれてアンテナ21を介して電波22として送信される。   In FIG. 9, the information terminal 20 ′ according to the present modification has an audio information generation unit 210 that generates audio data according to a program, for example, added to the information terminal 20 described with reference to FIG. The audio data is not limited to this, and audio data stored in a storage medium (not shown) may be used. The audio data generated by the audio information generation unit 210 is supplied to the wireless communication unit 132 and subjected to modulation processing or the like in the same manner as the image data output from the image information generation unit 131. For example, the audio data is generated in the frame body of the MAC frame. It is packed and transmitted as a radio wave 22 via the antenna 21.

本変形例によるプロジェクタ10’は、図3で説明したプロジェクタ10に対して、音声情報生成部200および音声出力部201が追加されている。プロジェクタ10’は、音声データが変調されて情報端末20’から送信された電波22をアンテナ11で受信し、復調など所定の信号処理を施して音声データを復元する。復元された音声データは、音声出力部201に供給され、増幅処理など所定の音声信号処理を施され、スピーカなどにより音声として出力される。   In the projector 10 ′ according to this modification, an audio information generation unit 200 and an audio output unit 201 are added to the projector 10 described in FIG. 3. The projector 10 'receives the radio wave 22 transmitted from the information terminal 20' after the audio data is modulated, and receives the radio wave 22 by the antenna 11, and performs predetermined signal processing such as demodulation to restore the audio data. The restored audio data is supplied to the audio output unit 201, subjected to predetermined audio signal processing such as amplification processing, and output as audio through a speaker or the like.

情報端末20’は、音声データおよび画像データを並列的に送信することができる。プロジェクタ10’は、送信された音声データおよび画像データを、同時に出力および投影することができる。   The information terminal 20 'can transmit audio data and image data in parallel. The projector 10 'can output and project the transmitted audio data and image data at the same time.

なお、本変形例においても、プロジェクタ10’は、通信を行う情報端末20’を、上述の第1の実施形態と同様にして、ユーザによる切り替え要求動作によって切り替えることができる。したがって、本変形例によれば、各ユーザは、当初の位置から移動することなく、スクリーン30に投影する画像と共に、音声出力部201から出力される音声を、各ユーザが使用する情報端末20’による画像および音声に切り替えることができる。   Also in this modification, the projector 10 ′ can switch the information terminal 20 ′ that performs communication by a switching request operation by the user in the same manner as in the first embodiment described above. Therefore, according to the present modification, each user does not move from the initial position, and the sound output from the sound output unit 201 together with the image projected on the screen 30 is the information terminal 20 ′ used by each user. You can switch to image and sound.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本第2の実施形態では、プロジェクタ10が、各ユーザによる切り替え要求動作を認識すると共に、各ユーザによる、プロジェクタ10の投影対象に対する操作を認識できるようにしている。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the second embodiment, the projector 10 recognizes the switching request operation by each user and recognizes the operation of each user on the projection target of the projector 10.

例えば、プロジェクタ10は、各ユーザによる切り替え要求動作を認識することで切り替え要求を受け付け、さらに、プロジェクタ10の投影対象に対するユーザの指示操作を認識することで、切り替え要求に従った画像切り替え動作を行う。プロジェクタ10の投影対象に対する指示操作は、例えば、レーザポインタでスクリーン30に軌跡を描く動作である。   For example, the projector 10 receives a switching request by recognizing a switching request operation by each user, and further performs an image switching operation in accordance with the switching request by recognizing a user instruction operation on the projection target of the projector 10. . The instruction operation for the projection target of the projector 10 is, for example, an operation of drawing a locus on the screen 30 with a laser pointer.

図10は、本第2の実施形態によるプロジェクタ10”の機能を説明するための一例の機能ブロック図である。なお、図10において、上述した図3と共通する部分には同一の符号を付して、詳細な説明を省略する。本第2の実施形態において、情報端末20の構成は、図4を用いて説明した構成をそのまま適用することができるので、ここでの説明を省略する。   FIG. 10 is a functional block diagram of an example for explaining the function of the projector 10 ″ according to the second embodiment. In FIG. 10, the same reference numerals are given to the same parts as those in FIG. In the second embodiment, the configuration of the information terminal 20 can be applied as it is with the configuration described with reference to FIG.

図10において、本第2の実施形態によるプロジェクタ10”は、図3で説明したプロジェクタ10に対して、画像が投影されるスクリーン30を撮像するための撮像部116が追加されている。撮像部116でスクリーン30を撮像した動画像による撮像画像データは、動作検出部111’に供給される。動作検出部111’は、この撮像画像データから、ユーザによる指示操作を検出する。   10, in the projector 10 ″ according to the second embodiment, an imaging unit 116 for imaging the screen 30 on which an image is projected is added to the projector 10 described in FIG. The captured image data based on the moving image obtained by capturing the screen 30 at 116 is supplied to the motion detection unit 111 ′, which detects an instruction operation by the user from the captured image data.

なお、動作検出部111’は、撮像部110から供給された撮像画像データから各ユーザによる切り替え要求動作を検出する処理と、撮像部116から供給された撮像画像データからユーザによる指示操作を検出する処理とを、同時に実行することができる。動作検出部111’による切り替え要求動作の検出処理は、上述した第1の実施形態における動作検出部111による処理と同様なので、ここでの説明を省略する。   The operation detection unit 111 ′ detects a switching request operation by each user from the captured image data supplied from the imaging unit 110 and detects an instruction operation by the user from the captured image data supplied from the imaging unit 116. Processing can be executed simultaneously. Since the detection process of the switching request operation by the operation detection unit 111 ′ is the same as the process by the operation detection unit 111 in the first embodiment described above, description thereof is omitted here.

動作検出部111’による、撮像部116から供給された撮像画像データからの、指示操作検出処理について説明する。以下では、指示操作が、レーザポインタを用いてスクリーン30に対して軌跡を描く操作であるものとする。例えば、図11に例示されるように、情報端末20bからの画像データによる画像が投影されるスクリーン30上に、ユーザがレーザポインタを用いて軌跡70を描くことで、投影画像上の位置や領域を示す操作が行われる。   An instruction operation detection process from the captured image data supplied from the imaging unit 116 by the motion detection unit 111 ′ will be described. In the following, it is assumed that the instruction operation is an operation of drawing a locus on the screen 30 using a laser pointer. For example, as illustrated in FIG. 11, the user draws a locus 70 using a laser pointer on the screen 30 on which an image based on image data from the information terminal 20 b is projected. An operation indicating is performed.

動作検出部111’は、撮像部116がこの軌跡70が描かれているスクリーン30を撮像した撮像画像データに対し、第1の実施形態で説明したようにして、フレームを所定サイズのマクロブロックに分割して、マクロブロック毎に動きベクトルを求める。そして、動作検出部111’は、連続する複数のフレームから求められた動きベクトルに基づき、連続して移動する光点を検出する。これにより、レーザポインタにより描かれた軌跡70を認識することができる。   As described in the first embodiment, the motion detection unit 111 ′ converts the frame into a macroblock of a predetermined size for the captured image data obtained by capturing the screen 30 on which the locus 70 is drawn by the imaging unit 116. Dividing and obtaining a motion vector for each macroblock. Then, the motion detection unit 111 ′ detects a light spot that moves continuously based on a motion vector obtained from a plurality of consecutive frames. Thereby, the locus 70 drawn by the laser pointer can be recognized.

なお、一方、スクリーン30に投影される、情報端末20から送信された画像データによる画像は、ユーザの情報端末20に対する操作により変化することが起こり得る。また、当該画像が動画像であることも考えられる。この場合、動作検出部111’は、例えば、閾値以上の輝度を有する画素を対象として動きベクトルを求めることで、レーザポインタによる光点のみを検出することが考えられる。   On the other hand, the image based on the image data transmitted from the information terminal 20 projected on the screen 30 may change due to the user's operation on the information terminal 20. It is also conceivable that the image is a moving image. In this case, for example, the motion detection unit 111 ′ may detect only the light spot by the laser pointer by obtaining a motion vector for a pixel having a luminance equal to or higher than a threshold value.

次に、本第2の実施形態による情報端末20の切り替え処理について説明する。図12は、本第2の実施形態による情報端末20の切り替え処理を示す一例のフローチャートである。以下では、プロジェクタ10”により投影される画像を、ユーザAが使用する情報端末20aから送信された画像データによる画像から、ユーザBが使用する情報端末20bから送信された画像データによる画像に切り替えるものとして説明する。なお、図12において、便宜上、情報端末20aを情報端末A、情報端末20bを情報端末Bとして記載している。   Next, switching processing of the information terminal 20 according to the second embodiment will be described. FIG. 12 is a flowchart of an example showing the switching process of the information terminal 20 according to the second embodiment. In the following, the image projected by the projector 10 ″ is switched from the image based on the image data transmitted from the information terminal 20a used by the user A to the image based on the image data transmitted from the information terminal 20b used by the user B. 12, for convenience, the information terminal 20a is described as the information terminal A, and the information terminal 20b is described as the information terminal B.

先ず、ステップS40で、上述の図5のフローチャートに従いキャリブレーションを行い、情報端末20aおよび20bにそれぞれ対応する切り替え要求動作が検出され、検出された切り替え要求動作を示す特徴値と認識領域とが、記憶部115にそれぞれ記憶される。   First, in step S40, calibration is performed according to the flowchart of FIG. 5 described above, switching request operations corresponding to the information terminals 20a and 20b are detected, and a feature value indicating the detected switching request operation and a recognition area are detected. Each is stored in the storage unit 115.

次のステップS41で、プロジェクタ10”は、ユーザAが使用する情報端末20aから送信された画像データによる画像を、スクリーン30に投影させる。それと共に、撮像部110で撮像された撮像画像データの動作検出部111’での解析処理を開始させ、ユーザAまたはユーザBによる切り替え要求動作の検出を行う。また、動作検出部111’は、撮像部116でスクリーン30を撮像した撮像画像データの解析処理も同時に開始し、レーザポインタの軌跡の検出を行う。   In the next step S41, the projector 10 ″ projects an image based on the image data transmitted from the information terminal 20a used by the user A onto the screen 30. At the same time, the operation of the captured image data captured by the imaging unit 110 is performed. Analysis processing in the detection unit 111 ′ is started, and a switching request operation is detected by the user A or the user B. The operation detection unit 111 ′ also performs analysis processing of captured image data obtained by imaging the screen 30 by the imaging unit 116. At the same time, the locus of the laser pointer is detected.

なお、以下において、ユーザAおよびユーザBは、ステップS40のキャリブレーション処理時のそれぞれの位置と大きく変わらない、所定領域内に居るものとする。   In the following, it is assumed that the user A and the user B are in a predetermined area that is not greatly different from the respective positions at the time of the calibration process in step S40.

次のステップS42で、プロジェクタ10”は、撮像部110で撮像された撮像画像データに基づき、現在画像の投影を行っていない情報端末20bのユーザBによる切り替え要求動作が検出されたか否かを判定する。ここでの動作検出部111’による判定処理は、上述した図7のフローチャートにおけるステップS32における処理と同様なので、説明を省略する。   In the next step S42, the projector 10 ″ determines whether or not a switching request operation by the user B of the information terminal 20b that is not currently projecting an image is detected based on the captured image data captured by the imaging unit 110. The determination process by the motion detection unit 111 ′ here is the same as the process in step S32 in the flowchart of FIG.

ステップS42で、若し、ユーザBによる切り替え要求動作が検出されていないと判定された場合、処理をステップS41に戻して、情報端末20aからの画像データによる画像の投影を継続させる。一方、ユーザBによる切り替え要求動作が検出されたと判定された場合、処理がステップS43に移行される。そして、切り替え要求動作を行ったユーザBが使用する情報端末20bを示す識別情報60を記憶部115から読み出し、スクリーン30の一部に投影させ、割り込みが入ったことを示す(図8参照)。   If it is determined in step S42 that the switching request operation by the user B is not detected, the process returns to step S41, and the projection of the image by the image data from the information terminal 20a is continued. On the other hand, when it is determined that the switching request operation by the user B is detected, the process proceeds to step S43. Then, the identification information 60 indicating the information terminal 20b used by the user B who has performed the switching request operation is read from the storage unit 115 and projected onto a part of the screen 30 to indicate that an interruption has occurred (see FIG. 8).

次のステップS44で、プロジェクタ10”は、撮像部116でスクリーン30を撮像した撮像画像データに基づき、レーザポインタの軌跡による投影画像の切り替え了承動作の検出が待機される。図13を用いて、レーザポインタの軌跡による切り替え了承動作について説明する。レーザポインタによる軌跡は、一般的には、一筆書きの軌跡となる。そこで、この一筆書きを前提とし、さらに、他の動作によるレーザポインタの軌跡との誤認識を防ぐために、より複雑な軌跡により切り替え了承動作を示すものとする。   In the next step S44, the projector 10 ″ stands by for detection of the projection image switching approval operation based on the locus of the laser pointer based on the captured image data obtained by imaging the screen 30 by the imaging unit 116. With reference to FIG. A description will be given of the switching approval operation based on the laser pointer trajectory, which is generally a one-stroke trajectory, and is premised on this one-stroke trajectory. In order to prevent misrecognition, the switching approval operation is indicated by a more complicated trajectory.

図13の例では、レーザポインタの光点が、スクリーン30に対して縦方向の中央部付近を略水平に描いた軌跡71と、スクリーン30に対して横方向の中央部付近を略垂直に描いた軌跡72との組み合わせにより、切り替え了承動作を認識している。このとき、さらに、軌跡71が描かれてから軌跡72が描かれるまでの時間が所定時間内である場合に、切り替え了承動作とすることが考えられる。   In the example of FIG. 13, the light spot of the laser pointer draws a trajectory 71 in which the vicinity of the central portion in the vertical direction with respect to the screen 30 is drawn substantially horizontally and a portion in the vicinity of the central portion in the horizontal direction with respect to the screen 30 The switching approval operation is recognized by the combination with the locus 72. At this time, if the time from when the trajectory 71 is drawn to when the trajectory 72 is drawn is within a predetermined time, it is conceivable that the switching approval operation is performed.

ステップS44において、若し、レーザポインタの軌跡による投影画像の切り替え了承動作が検出されたと判定された場合、処理がステップS45に移行される。ステップS45で、プロジェクタ10”は、記憶部115に記憶される情報端末20bの情報に基づき、通信相手を情報端末20aから情報端末20bに切り替え、情報端末20bとの間で通信を行い、情報端末20bから送信された画像データによる画像を、スクリーン30に投影させる。   If it is determined in step S44 that the projection image switching approval operation based on the locus of the laser pointer has been detected, the process proceeds to step S45. In step S45, the projector 10 ″ switches the communication partner from the information terminal 20a to the information terminal 20b based on the information of the information terminal 20b stored in the storage unit 115, and performs communication with the information terminal 20b. An image based on the image data transmitted from 20b is projected onto the screen 30.

なお、上述では、切り替え了承動作をレーザポインタを用いて行うように説明したが、これはこの例に限定されない。スクリーン30上の画像を指し示すために用いる他の指示具による所定の動作を、切り替え了承動作として検出してもよい。この場合、指示具の先端などの形状を予め登録しておき、動作検出部111’においてこの形状を追跡することで、切り替え了承動作を検出することも考えられる。   In the above description, the switching approval operation is performed using the laser pointer, but this is not limited to this example. A predetermined operation by another pointing tool used for pointing to an image on the screen 30 may be detected as a switching approval operation. In this case, it is also conceivable to detect the switching approval operation by registering the shape of the tip of the pointing tool in advance and tracking the shape in the motion detection unit 111 ′.

このように、本第2の実施形態によれば、各ユーザは、当初の位置から移動することなく、スクリーン30に投影する画像を各ユーザが使用する情報端末20による画像に切り替えることができる。   Thus, according to the second embodiment, each user can switch the image projected on the screen 30 to the image by the information terminal 20 used by each user without moving from the initial position.

また、本第2の実施形態によれば、現在画像が投影されていない情報端末20を使用するユーザからの切り替え要求動作が検出された場合に、その旨をスクリーン30に表示させる。その後、さらにスクリーン30に対する切り替え了承動作が検出された場合に、画像を投影する情報端末20を切り替えるようにしている。そのため、現在画像が投影されている情報端末20のユーザが予期しないタイミングで画像が切り替えられてしまう事態を防ぐことができる。また、切り替え要求動作と、切り替え了承動作とを異なる種類の動作としているため、ユーザが混乱することが防がれる。   Further, according to the second embodiment, when a switching request operation from a user who uses the information terminal 20 on which an image is not currently projected is detected, that effect is displayed on the screen 30. Thereafter, when a switching approval operation for the screen 30 is further detected, the information terminal 20 that projects the image is switched. Therefore, it is possible to prevent a situation in which an image is switched at an unexpected timing by the user of the information terminal 20 on which the image is currently projected. In addition, since the switching request operation and the switching approval operation are different types of operations, the user can be prevented from being confused.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。上述の第2の実施形態では、ユーザによる切り替え要求動作に対する切り替え了承動作を、スクリーン30を撮像した撮像画像データに基づき検出した。これに対して、本第3の実施形態では、ユーザが発した音声に基づき切り替え了承動作を検出する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the second embodiment described above, the switching approval operation for the switching request operation by the user is detected based on the captured image data obtained by capturing the screen 30. On the other hand, in the third embodiment, the switching approval operation is detected based on the voice uttered by the user.

例えば、プロジェクタ10は、各ユーザによる切り替え要求動作を認識することで切り替え要求を受け付け、さらに、ユーザが発した所定の音声を認識することで切り替え了承動作を受け付け、切り替え要求に従った画像切り替え動作を行う。   For example, the projector 10 accepts a switching request by recognizing a switching request operation by each user, further accepts a switching approval operation by recognizing a predetermined sound uttered by the user, and performs an image switching operation according to the switching request. I do.

図14は、本第3の実施形態によるプロジェクタ10Aの機能を説明するための一例の機能ブロック図である。なお、図14において、上述した図3と共通する部分には同一の符号を付して、詳細な説明を省略する。本第3の実施形態において、情報端末20の構成は、図4を用いて説明した構成をそのまま適用することができるので、ここでの説明を省略する。   FIG. 14 is a functional block diagram illustrating an example of functions of the projector 10A according to the third embodiment. In FIG. 14, the same reference numerals are given to the portions common to FIG. 3 described above, and detailed description thereof is omitted. In the third embodiment, the configuration of the information terminal 20 can be applied as it is with the configuration described with reference to FIG.

図14において、本第3の実施形態によるプロジェクタ10Aは、図3で説明したプロジェクタ10に対して、音声を取得する音声取得部220と、音声取得部220で取得した音声を認識する音声認識部221とが追加されている。   In FIG. 14, the projector 10 </ b> A according to the third embodiment includes a sound acquisition unit 220 that acquires sound and a sound recognition unit that recognizes the sound acquired by the sound acquisition unit 220 with respect to the projector 10 described in FIG. 3. 221 is added.

音声取得部220は、マイクロホンを有し、マイクロホンで収音された音声を音声データとして出力し、音声認識部221に供給する。音声認識部221は、音声取得部220から供給された音声データを解析して、切り替え了承動作を示す音声を認識する。音声の認識手法としては、統計的手法や、隠れマルコフモデルを適用することが考えられる。音声認識部221は、切り替え了承動作を示す音声の認識結果に応じて、無線通信部112が画像データの通信を行う情報端末20を選択する。   The voice acquisition unit 220 includes a microphone, outputs the voice collected by the microphone as voice data, and supplies the voice data to the voice recognition unit 221. The voice recognition unit 221 analyzes the voice data supplied from the voice acquisition unit 220 and recognizes a voice indicating a switching approval operation. As a speech recognition method, a statistical method or a hidden Markov model may be applied. The voice recognition unit 221 selects the information terminal 20 with which the wireless communication unit 112 communicates image data in accordance with the voice recognition result indicating the switching approval operation.

切り替え了承動作を示す音声としては、例えば、手を2回叩いた際の音、「2番接続要求します」などの発声による音が想定される。切り替え了承動作を示す音声として、「オーケー」などの短く単純な発声による音を用いると、解析がより容易になることが期待できる。   As the voice indicating the switching approval operation, for example, a sound when the hand is struck twice or a sound generated by uttering “No. 2 connection request” is assumed. It is expected that the analysis can be facilitated by using a simple and simple utterance such as “OK” as the voice indicating the switching approval operation.

なお、切り替え了承動作を示す音声は、例えばキャリブレーション処理の際にユーザ毎に収音した音声を用いることが考えられる。ユーザ毎に収音した音声による、切り替え了承動作を示す音声を表す特徴量は、例えば記憶部115に記憶しておく。これに限らず、切り替え了承動作を示す固定的な音声を予め記憶部115に記憶しておくことも考えられる。   Note that the sound indicating the switching approval operation may be, for example, the sound collected for each user during the calibration process. For example, the feature amount representing the voice indicating the switching approval operation by the voice collected for each user is stored in the storage unit 115, for example. Not limited to this, it is also conceivable to store in the storage unit 115 a fixed voice indicating the switching approval operation.

次に、本第3の実施形態による情報端末20の切り替え処理について説明する。図15は、本第3の実施形態による情報端末20の切り替え処理を示す一例のフローチャートである。以下では、プロジェクタ10Aにより投影される画像を、ユーザAが使用する情報端末20aから送信された画像データによる画像から、ユーザBが使用する情報端末20bから送信された画像データによる画像に切り替えるものとして説明する。なお、図15において、便宜上、情報端末20aを情報端末A、情報端末20bを情報端末Bとして記載している。   Next, switching processing of the information terminal 20 according to the third embodiment will be described. FIG. 15 is a flowchart illustrating an example of the switching process of the information terminal 20 according to the third embodiment. In the following, it is assumed that the image projected by the projector 10A is switched from the image based on the image data transmitted from the information terminal 20a used by the user A to the image based on the image data transmitted from the information terminal 20b used by the user B. explain. In FIG. 15, for convenience, the information terminal 20 a is described as the information terminal A, and the information terminal 20 b is illustrated as the information terminal B.

図15のフローチャートにおいて、ステップS50〜ステップS53の処理は、上述した第2の実施形態におけるステップS40〜ステップS43の処理と略同一である。すなわち、ステップS50で、上述の図5のフローチャートに従いキャリブレーションを行い、情報端末20aおよび20bにそれぞれ対応する切り替え要求動作の特徴値と認識領域とが、記憶部115にそれぞれ記憶される。また、このキャリブレーションにおいて、ユーザ毎に収音した、切り替え了承動作を示す音声を示す特徴量を記憶部115に記憶させることができる。   In the flowchart of FIG. 15, the processes of step S50 to step S53 are substantially the same as the processes of step S40 to step S43 in the second embodiment described above. That is, in step S50, calibration is performed according to the flowchart of FIG. 5 described above, and the feature value and recognition area of the switching request operation respectively corresponding to the information terminals 20a and 20b are stored in the storage unit 115. Further, in this calibration, the feature quantity indicating the voice indicating the switching approval operation collected for each user can be stored in the storage unit 115.

次のステップS51で、プロジェクタ10Aは、情報端末20aによる画像をスクリーン30に投影させると共に、撮像部110で撮像された撮像画像データの動作検出部111での解析処理を開始させ、ユーザAまたはユーザBによる切り替え要求動作の検出を行う。また、音声認識部221は、音声取得部220で取得された音声による音声データの解析を開始し、切り替え了承動作を示す音声データの検出を行う。   In the next step S51, the projector 10A projects an image from the information terminal 20a onto the screen 30 and starts an analysis process in the operation detection unit 111 of the captured image data captured by the imaging unit 110, so that the user A or the user The switching request operation by B is detected. In addition, the voice recognition unit 221 starts analysis of voice data using the voice acquired by the voice acquisition unit 220, and detects voice data indicating a switching approval operation.

なお、以下において、ユーザAおよびユーザBは、ステップS50のキャリブレーション処理時のそれぞれの位置と大きく変わらない、所定領域内に居るものとする。   In the following, it is assumed that the user A and the user B are in a predetermined area that is not greatly different from the respective positions at the time of the calibration process in step S50.

次のステップS52で、プロジェクタ10Aは、撮像部110で撮像された撮像画像データに基づき、ユーザBによる切り替え要求動作が検出されたか否かを判定し、検出されていないと判定した場合、処理をステップS51に戻して、情報端末20aからの画像データによる画像の投影を継続させる。一方、ユーザBによる切り替え要求動作が検出されたと判定した場合、処理がステップS53に移行され、情報端末20bを示す識別情報60を記憶部115から読み出し、スクリーン30の一部に投影させ、割り込みが入ったことを示す(図8参照)。   In the next step S52, the projector 10A determines whether or not the switching request operation by the user B has been detected based on the captured image data captured by the imaging unit 110. Returning to step S51, the projection of the image by the image data from the information terminal 20a is continued. On the other hand, if it is determined that the switching request operation by the user B has been detected, the process proceeds to step S53, the identification information 60 indicating the information terminal 20b is read from the storage unit 115, projected onto a part of the screen 30, and an interrupt is generated. Indicates that it has entered (see FIG. 8).

次のステップS54で、プロジェクタ10Aは、音声取得部220で取得した音声による音声データに基づき、音声認識部221による切り替え了承動作を示す音声の検出が待機される。若し、音声認識部221により、切り替え了承動作を示す音声が検出されたと判定された場合、処理がステップS55に移行される。ステップS55で、プロジェクタ10Aは、記憶部115に記憶される情報端末20bの情報に基づき、通信相手を情報端末20aから情報端末20bに切り替え、情報端末20bとの間で通信を行い、情報端末20bから送信された画像データによる画像を、スクリーン30に投影させる。   In the next step S54, the projector 10A waits for the voice recognition indicating the switching approval operation by the voice recognition unit 221 based on the voice data by the voice acquired by the voice acquisition unit 220. If the voice recognition unit 221 determines that the voice indicating the switching approval operation is detected, the process proceeds to step S55. In step S55, the projector 10A switches the communication partner from the information terminal 20a to the information terminal 20b based on the information of the information terminal 20b stored in the storage unit 115, communicates with the information terminal 20b, and communicates with the information terminal 20b. The image based on the image data transmitted from is projected onto the screen 30.

このように、本第3の実施形態によれば、各ユーザは、当初の位置から移動することなく、スクリーン30に投影する画像を各ユーザが使用する情報端末20による画像に切り替えることができる。   Thus, according to the third embodiment, each user can switch an image projected on the screen 30 to an image by the information terminal 20 used by each user without moving from the initial position.

また、本第3の実施形態によれば、現在画像が投影されていない情報端末20を使用するユーザからの切り替え要求動作が検出された場合に、その旨をスクリーン30に表示させる。その後、さらにユーザによる切り替え了承動作を示す音声が検出された場合に、画像を投影する情報端末20を切り替えるようにしている。そのため、現在画像が投影されている情報端末20のユーザが予期しないタイミングで画像が切り替えられてしまう事態を防ぐことができる。また、所定パターンの音声を切り替え了承動作としているので、スクリーン30に投影する画像の切り替えをより容易に実行することができる。   Further, according to the third embodiment, when a switching request operation from a user who uses the information terminal 20 on which an image is not currently projected is detected, that effect is displayed on the screen 30. After that, when the voice indicating the switching approval operation by the user is further detected, the information terminal 20 that projects the image is switched. Therefore, it is possible to prevent a situation in which an image is switched at an unexpected timing by the user of the information terminal 20 on which the image is currently projected. In addition, since the sound of a predetermined pattern is used as a switching approval operation, switching of an image projected on the screen 30 can be performed more easily.

(各実施形態に適用可能なプロジェクタの構成例)
図16は、上述した各実施形態に適用可能なプロジェクタ300の一例の構成を示す。プロジェクタ300において、バス301に対して、CPU310、ROM311、RAM312、表示制御部313、通信部314、入力I/F(インターフェイス)315、操作部316、撮像I/F317および音声I/F318が互いに通信可能に接続される。
(Example of projector configuration applicable to each embodiment)
FIG. 16 shows an exemplary configuration of a projector 300 that can be applied to each of the above-described embodiments. In the projector 300, the CPU 310, ROM 311, RAM 312, display control unit 313, communication unit 314, input I / F (interface) 315, operation unit 316, imaging I / F 317, and audio I / F 318 communicate with each other over the bus 301. Connected as possible.

CPU310は、ROM311に予め記憶されるプログラムに従い、RAM312をワークメモリとして用いて、このプロジェクタ300の全体の動作を制御する。すなわち、CPU310、ROM311およびRAM312は、例えば図3における制御部100に対応する。CPU310上で動作するプログラムにより、動作検出部111および111’、表示情報生成部113、音声情報生成部200、ならびに、音声認識部221などが構成される。また、RAM312は、記憶部115に対応させることができる。不揮発性の半導体メモリや、ハードディスクドライブをさらに設けてもよい。   The CPU 310 controls the overall operation of the projector 300 using the RAM 312 as a work memory according to a program stored in advance in the ROM 311. That is, the CPU 310, the ROM 311 and the RAM 312 correspond to, for example, the control unit 100 in FIG. Operation detection units 111 and 111 ', a display information generation unit 113, a voice information generation unit 200, a voice recognition unit 221 and the like are configured by a program operating on the CPU 310. The RAM 312 can correspond to the storage unit 115. A nonvolatile semiconductor memory or a hard disk drive may be further provided.

表示制御部313は、CPU310により生成された表示制御信号を、表示部320が表示可能な表示信号に変換する。表示部320は、図3における表示部114に対応し、例えば、光源と、RGB各色のカラーフィルタを組み込んだ液晶パネルと、RGB各色の液晶パネルから出射される光を合成するプリズムと、レンズなど光学部品とを組み合わせた光学系と、表示画像データに基づき液晶パネルを駆動する駆動回路とを備える。通信部314は、図3における無線通信部112に対応し、CPU310の制御により、無線LANなど、所定の通信方式で無線通信を行う。通信部314には、ユニークなMACアドレスが予め割り当てられている。   The display control unit 313 converts the display control signal generated by the CPU 310 into a display signal that can be displayed by the display unit 320. The display unit 320 corresponds to the display unit 114 in FIG. 3. For example, the display unit 320 includes a light source, a liquid crystal panel in which color filters for RGB colors are incorporated, a prism that combines light emitted from the liquid crystal panels for RGB colors, a lens, and the like. An optical system combined with optical components and a drive circuit for driving a liquid crystal panel based on display image data are provided. The communication unit 314 corresponds to the wireless communication unit 112 in FIG. 3 and performs wireless communication by a predetermined communication method such as a wireless LAN under the control of the CPU 310. A unique MAC address is assigned to the communication unit 314 in advance.

入力I/F315は、USB(Universal Serial Bus)など汎用のデータ通信インターフェイスである。プロジェクタ300で投影する画像データを、この入力I/F315から供給することもできる。操作部316は、このプロジェクタ300を操作するための操作子や表示素子などが設けられ、操作子に対するユーザ操作に応じた制御信号をCPU310に対して出力する。図5のステップS17における取り消し動作を、この操作部316に対する操作により実行してもよい。   The input I / F 315 is a general-purpose data communication interface such as a USB (Universal Serial Bus). Image data projected by the projector 300 can also be supplied from this input I / F 315. The operation unit 316 is provided with an operation element, a display element, and the like for operating the projector 300, and outputs a control signal corresponding to a user operation on the operation element to the CPU 310. The canceling operation in step S17 of FIG. 5 may be executed by an operation on the operation unit 316.

撮像I/F317は、複数のカメラ321aおよび321bを接続することができ、カメラ321aおよび321bから出力された撮像画像データを、CPU310による処理に適した形式に変換して出力する。撮像I/F317と、カメラ321aおよびカメラ321bとで、撮像部110および撮像部116を構成する。なお、上述した第1の実施形態および第3の実施形態においては、1台のカメラ321aのみを接続することになる。   The imaging I / F 317 can connect a plurality of cameras 321a and 321b, and converts captured image data output from the cameras 321a and 321b into a format suitable for processing by the CPU 310 and outputs the converted data. The imaging I / F 317, the camera 321a, and the camera 321b constitute the imaging unit 110 and the imaging unit 116. In the first embodiment and the third embodiment described above, only one camera 321a is connected.

音声I/F318は、音声信号の入出力を行うもので、マイクロホン(MIC)323で音声を収音したアナログ音声信号をデジタル変換し、音声データとして出力する。また、バス301を介して供給された音声データをアナログ音声信号に変換し、スピーカ(SP)322により音声として出力する。すなわち、図9の音声情報生成部200および音声出力部201が音声I/F318およびスピーカ322に対応する。また、図14の音声取得部220が音声I/F318およびマイクロホン323に対応する。   The audio I / F 318 inputs and outputs audio signals. The audio I / F 318 digitally converts an analog audio signal picked up by a microphone (MIC) 323 and outputs it as audio data. Also, the audio data supplied via the bus 301 is converted into an analog audio signal and output as audio by the speaker (SP) 322. That is, the audio information generation unit 200 and the audio output unit 201 in FIG. 9 correspond to the audio I / F 318 and the speaker 322. 14 corresponds to the audio I / F 318 and the microphone 323.

なお、上述した第1の実施形態では、この音声I/F318、スピーカ322およびマイクロホン323を省略することができる。同様に、第2の実施形態では、マイクロホン323を省略することができ、第3の実施形態では、スピーカ322を省略可能である。   In the above-described first embodiment, the audio I / F 318, the speaker 322, and the microphone 323 can be omitted. Similarly, the microphone 323 can be omitted in the second embodiment, and the speaker 322 can be omitted in the third embodiment.

10,10’,10”,10A,300 プロジェクタ
20,20a,20b,20c,20d 情報端末
30 スクリーン
110,116 撮像部
111,111’ 動作検出部
112,132 無線通信部
113 表示情報生成部
114 表示部
115 記憶部
221 音声認識部
10, 10 ′, 10 ″, 10A, 300 Projector 20, 20a, 20b, 20c, 20d Information terminal 30 Screen 110, 116 Imaging unit 111, 111 ′ Operation detection unit 112, 132 Wireless communication unit 113 Display information generation unit 114 Display Unit 115 storage unit 221 voice recognition unit

特許第4274217号公報Japanese Patent No. 4274217

Claims (8)

無線通信を行う通信手段と、
撮像を行い撮像画像を出力する撮像手段と、
予め、前記撮像画像でのユーザの位置を示す位置情報と、前記通信手段と通信を行うための該ユーザが用いる情報端末の識別情報とを関連付けて記憶する記憶手段と、
前記撮像手段で撮像された前記撮像画像から、ユーザによる、前記通信手段が通信を行う通信相手の切り替え要求を示す切り替え要求動作を検出する第1の動作検出手段と、
前記第1の動作検出手段で前記切り替え要求動作が検出された場合に、該切り替え要求動作が検出された前記撮像画像中の位置に対応する前記位置情報と関連付けられて前記記憶手段に記憶される前記識別情報に示される前記情報端末と通信を行うように前記通信手段を制御する制御手段と
を有する
ことを特徴とする情報処理装置。
A communication means for performing wireless communication;
Imaging means for imaging and outputting a captured image;
Storage means for previously storing position information indicating the position of the user in the captured image and identification information of an information terminal used by the user for communicating with the communication means;
A first operation detection unit that detects a switching request operation indicating a switching request of a communication partner with which the communication unit communicates, from the captured image captured by the imaging unit;
When the switching request operation is detected by the first operation detection unit, the switching request operation is stored in the storage unit in association with the position information corresponding to the position in the captured image where the switching request operation is detected. An information processing apparatus comprising control means for controlling the communication means so as to communicate with the information terminal indicated by the identification information.
前記切り替え要求動作は、前記ユーザの体の動きである
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the switching request operation is a movement of the user's body.
ユーザによる、前記切り替え要求動作による前記切り替え要求を了承する動作である切り替え了承動作を検出する第2の動作検出手段をさらに有し、
前記制御手段は、
前記第1の動作検出手段で前記切り替え要求動作が検出された後に、前記第2の動作検出手段で前記切り替え了承動作が検出された場合に、該切り替え要求動作に対応する動きが検出された位置に対応する前記位置情報と関連付けられて前記記憶手段に記憶される前記識別情報に示される前記情報端末と通信を行うように前記通信手段を制御する
ことを特徴とする請求項1または請求項2に記載の情報処理装置。
A second operation detecting means for detecting a switching approval operation that is an operation of approving the switching request by the switching request operation by the user;
The control means includes
The position where the motion corresponding to the switching request operation is detected when the switching approval operation is detected by the second operation detecting unit after the switching request operation is detected by the first operation detecting unit. 3. The communication unit is controlled to communicate with the information terminal indicated by the identification information stored in the storage unit in association with the position information corresponding to the position information. The information processing apparatus described in 1.
前記撮像手段とは異なる方向に向けて撮像を行い他の撮像画像を出力する他の撮像手段をさらに有し、
前記第2の動作検出手段は、
前記他の撮像画像から前記切り替え了承動作を検出する
ことを特徴とする請求項3に記載の情報処理装置。
It further includes other imaging means for imaging in a direction different from the imaging means and outputting other captured images,
The second motion detection means includes
The information processing apparatus according to claim 3, wherein the switching approval operation is detected from the other captured image.
前記切り替え了承動作は、ユーザにより用いられる指示器具の動作である
ことを特徴とする請求項3または請求項4に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the switching approval operation is an operation of a pointing device used by a user.
音声を取得し音声信号を出力する音声取得手段をさらに有し、
前記第2の動作検出手段は、
前記音声取得手段から出力される前記音声信号に基づき前記切り替え了承動作を検出する
ことを特徴とする請求項3に記載の情報処理装置。
It further has voice acquisition means for acquiring voice and outputting a voice signal,
The second motion detection means includes
The information processing apparatus according to claim 3, wherein the switching approval operation is detected based on the audio signal output from the audio acquisition unit.
情報を表示媒体に表示させる表示手段をさらに有し、
前記制御手段は、
前記動作検出手段で前記切り替え要求動作が検出された場合に、該切り替え要求動作が検出された前記撮像画像中の位置に対応する前記位置情報と関連付けられて前記記憶手段に記憶された前記識別情報を示す表示を行うように前記表示手段を制御する
ことを特徴とする請求項1乃至請求項6の何れか1項に記載の情報処理装置。
A display means for displaying information on a display medium;
The control means includes
The identification information stored in the storage unit in association with the position information corresponding to the position in the captured image where the switching request operation is detected when the switching request operation is detected by the operation detecting unit. The information processing apparatus according to claim 1, wherein the display unit is controlled so as to perform display.
通信手段が、無線通信を行う通信ステップと、
撮像手段が、撮像を行い撮像画像を出力する撮像ステップと、
予め、前記撮像画像でのユーザの位置を示す位置情報と、前記通信ステップによる通信を行うための該ユーザが用いる情報端末の識別情報とを関連付けて記憶手段に記憶する記憶ステップと、
動作検出手段が、前記撮像ステップで撮像された前記撮像画像から、ユーザによる、前記通信ステップが通信を行う通信相手の切り替え要求を示す切り替え要求動作を検出する動作検出ステップと、
制御手段が、前記動作検出ステップで前記切り替え要求動作が検出された場合に、該切り替え要求動作が検出された前記撮像画像中の位置に対応する前記位置情報と関連付けられて前記記憶手段に記憶される前記識別情報に示される前記情報端末と通信を行うように前記通信ステップを制御する制御ステップと
を有する
ことを特徴とする情報処理方法。
A communication step in which the communication means performs wireless communication;
An imaging step in which the imaging means captures an image and outputs a captured image;
A storage step of previously storing in the storage means the positional information indicating the position of the user in the captured image and the identification information of the information terminal used by the user for performing communication in the communication step in association with each other;
An operation detecting step for detecting a switching request operation indicating a switching request of a communication partner with which the communication step performs communication by the user from the captured image captured in the imaging step;
When the switching request operation is detected in the operation detection step, the control unit is associated with the position information corresponding to the position in the captured image where the switching request operation is detected and stored in the storage unit. And a control step for controlling the communication step so as to communicate with the information terminal indicated by the identification information.
JP2011158329A 2011-07-19 2011-07-19 Information processing apparatus and information processing method Expired - Fee Related JP5790229B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011158329A JP5790229B2 (en) 2011-07-19 2011-07-19 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011158329A JP5790229B2 (en) 2011-07-19 2011-07-19 Information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2013025488A true JP2013025488A (en) 2013-02-04
JP5790229B2 JP5790229B2 (en) 2015-10-07

Family

ID=47783786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011158329A Expired - Fee Related JP5790229B2 (en) 2011-07-19 2011-07-19 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP5790229B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015053020A (en) * 2013-09-09 2015-03-19 株式会社リコー Information display device, information display method, and program
JP2017173927A (en) * 2016-03-18 2017-09-28 株式会社リコー Information processing device, information processing system, service processing execution control method, and program
CN111506214A (en) * 2020-03-23 2020-08-07 上海博泰悦臻电子设备制造有限公司 Vehicle-mounted projection implementation method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125738A (en) * 1999-09-21 2001-05-11 Seiko Epson Corp Presentation control system and method
JP2008077380A (en) * 2006-09-21 2008-04-03 Seiko Epson Corp Image display device, image display system, and network connection method
JP2008294661A (en) * 2007-05-23 2008-12-04 Toshiba Corp Video output apparatus and display device
JP2009217687A (en) * 2008-03-12 2009-09-24 Alpine Electronics Inc Touch panel input device and processing execution method
JP2010286930A (en) * 2009-06-10 2010-12-24 Net-Clay Co Ltd Content display device, content display method, and program
JP2010541398A (en) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド Enhanced interface for voice and video communication

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125738A (en) * 1999-09-21 2001-05-11 Seiko Epson Corp Presentation control system and method
JP2008077380A (en) * 2006-09-21 2008-04-03 Seiko Epson Corp Image display device, image display system, and network connection method
JP2008294661A (en) * 2007-05-23 2008-12-04 Toshiba Corp Video output apparatus and display device
JP2010541398A (en) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド Enhanced interface for voice and video communication
JP2009217687A (en) * 2008-03-12 2009-09-24 Alpine Electronics Inc Touch panel input device and processing execution method
JP2010286930A (en) * 2009-06-10 2010-12-24 Net-Clay Co Ltd Content display device, content display method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015053020A (en) * 2013-09-09 2015-03-19 株式会社リコー Information display device, information display method, and program
JP2017173927A (en) * 2016-03-18 2017-09-28 株式会社リコー Information processing device, information processing system, service processing execution control method, and program
CN111506214A (en) * 2020-03-23 2020-08-07 上海博泰悦臻电子设备制造有限公司 Vehicle-mounted projection implementation method and device

Also Published As

Publication number Publication date
JP5790229B2 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
JP4770178B2 (en) Camera control apparatus, camera system, electronic conference system, and camera control method
US10459190B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
US8937667B2 (en) Image communication apparatus and imaging apparatus
JP5515472B2 (en) Imaging apparatus, imaging method, and program
JP4274217B2 (en) Image display device, image display system, and network connection method
US8619120B2 (en) Imaging apparatus, imaging method and recording medium with program recorded therein
JP6103948B2 (en) IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM
JP2017092795A (en) Image projection system, projector and control method for image projection system
US20180352205A1 (en) Projection apparatus, method for controlling projection apparatus, and non-transitory storage medium
US20110043663A1 (en) Imaging terminal, display terminal, display method, and imaging system
WO2016103962A1 (en) Focus control device, imaging device, focus control method, and focus control program
JP2005176301A (en) Image processing apparatus, network camera system, image processing method, and program
CN108965656B (en) Display control apparatus, display control method, and storage medium
US9743048B2 (en) Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon
JP2015037279A (en) Image processing system, image processing method, and image communication system
JP5790229B2 (en) Information processing apparatus and information processing method
KR20120050345A (en) System for adjusting image of beam projetor using camera attached remote controller and method thereof
CN105376478A (en) Imaging device, shooting system and shooting method
JP2013162287A (en) Image processing apparatus, image processing method, and program
US9513697B2 (en) Communication apparatus, communication method, and computer readable recording medium
JP5200800B2 (en) Imaging apparatus and imaging system
US11843846B2 (en) Information processing apparatus and control method therefor
JP2021132299A (en) Control device, projection system, control method of projection device, program, and storage medium
JP6700955B2 (en) Projection apparatus and projection method
JP2020150481A (en) Information processing device, projection system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150720

R151 Written notification of patent or utility model registration

Ref document number: 5790229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees