JP2017032679A - Projector, image processing device, image projection system, program and image projection method - Google Patents

Projector, image processing device, image projection system, program and image projection method Download PDF

Info

Publication number
JP2017032679A
JP2017032679A JP2015150425A JP2015150425A JP2017032679A JP 2017032679 A JP2017032679 A JP 2017032679A JP 2015150425 A JP2015150425 A JP 2015150425A JP 2015150425 A JP2015150425 A JP 2015150425A JP 2017032679 A JP2017032679 A JP 2017032679A
Authority
JP
Japan
Prior art keywords
unit
correction parameter
correction
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015150425A
Other languages
Japanese (ja)
Inventor
和義 氣賀澤
Kazuyoshi Kikazawa
和義 氣賀澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015150425A priority Critical patent/JP2017032679A/en
Publication of JP2017032679A publication Critical patent/JP2017032679A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce time until projection of an image corresponding to a projection object.SOLUTION: A projector comprises: a storage section 335 storing a first correction parameter and a second correction parameter different from the first correction parameter; a shape correction section 343 correcting image data on the basis of the first correction parameter or the second correction parameter; a radio communication section 355 receiving a notification signal instructing to switch a correction parameter; a control section 330 switching the correction parameter used for correction of the image data by the shape correction section 343 from the first correction parameter to the second correction parameter on the basis of the notification signal received by the radio communication section 355; and a display section 310 projecting an image on the basis of the image data corrected by the shape correction section 343 to a projection object.SELECTED DRAWING: Figure 3

Description

本発明は、プロジェクター、画像処理装置、画像投射システム、プログラム、及び、画像投射方法に関する。   The present invention relates to a projector, an image processing device, an image projection system, a program, and an image projection method.

従来、投射対象の表面に画像を投射するプロジェクションマッピングが知られている(例えば、特許文献1参照)。特許文献1は、撮像手段によって撮像された被投影物を含む画像を取得する画像取得手段と、画像取得手段により取得された画像から被投影物の投影領域を抽出する領域抽出手段と、投影領域に対応したオブジェクトを投影領域にマッピングするマッピング手段とを備えた画像処理装置を開示する。この画像処理装置では、領域抽出手段が、被投影物の投影領域の変化を抽出し、マッピング手段が、領域抽出手段によって抽出された投影領域の変化に対応したオブジェクトをマッピングする。   Conventionally, projection mapping for projecting an image onto the surface of a projection target is known (see, for example, Patent Document 1). Patent Document 1 discloses an image acquisition unit that acquires an image including a projection object captured by an imaging unit, an area extraction unit that extracts a projection area of the projection object from the image acquired by the image acquisition unit, and a projection area An image processing apparatus including mapping means for mapping an object corresponding to the above to a projection area is disclosed. In this image processing apparatus, the region extraction unit extracts a change in the projection region of the projection object, and the mapping unit maps an object corresponding to the change in the projection region extracted by the region extraction unit.

特開2013−192189号公報JP 2013-192189 A

しかしながら、特許文献1に開示の画像処理装置は、被投影物の投影領域の変化を撮像手段の撮影画像により検出して、検出した投影領域の変化に対応したオブジェクトをマッピングする。このため、被投影物の投影領域の変化を検出してから対応するオブジェクトがマッピングされるまでに時間がかかり、被投影物を見ているユーザーに違和感を与える場合がある。
本発明は、上記事情に鑑みてなされたものであり、投射対象に対応した画像が投射されるまでの時間を短縮させたプロジェクター、画像処理装置、画像投射システム、プログラム、及び、画像投射方法を提供することを目的とする。
However, the image processing apparatus disclosed in Patent Document 1 detects a change in the projection area of the projection object from the captured image of the imaging unit, and maps an object corresponding to the detected change in the projection area. For this reason, it takes time until the corresponding object is mapped after the change in the projection area of the projection object is detected, which may give a user a sense of discomfort.
The present invention has been made in view of the above circumstances, and provides a projector, an image processing device, an image projection system, a program, and an image projection method that shorten the time until an image corresponding to a projection target is projected. The purpose is to provide.

かかる目的を達成するために、本発明のプロジェクターは、第1の補正パラメーターと、前記第1の補正パラメーターとは異なる第2の補正パラメーターとを記憶する記憶部と、前記第1の補正パラメーター又は前記第2の補正パラメーターに基づいて画像データを補正する補正部と、補正パラメーターの切り替えを指示する切替信号を受信する受信部と、前記受信部が受信した前記切替信号に基づいて、前記補正部が前記画像データの補正に用いる補正パラメーターを前記第1の補正パラメーターから前記第2の補正パラメーターに切り替える制御部と、前記補正部によって補正された前記画像データに基づく画像を投射対象に投射する投射部と、を備えることを特徴とする。
本発明によれば、投射対象に対応して補正された画像が投射されるまでの時間を短縮させることができる。
In order to achieve such an object, a projector according to the present invention includes a storage unit that stores a first correction parameter and a second correction parameter different from the first correction parameter, and the first correction parameter or A correction unit that corrects image data based on the second correction parameter, a reception unit that receives a switching signal that instructs switching of the correction parameter, and the correction unit that is based on the switching signal received by the reception unit A control unit that switches a correction parameter used for correcting the image data from the first correction parameter to the second correction parameter, and a projection that projects an image based on the image data corrected by the correction unit onto a projection target And a section.
ADVANTAGE OF THE INVENTION According to this invention, time until the image correct | amended corresponding to the projection object is projected can be shortened.

また、本発明は、上記プロジェクターにおいて、前記補正部は、前記第1の補正パラメーター又は前記第2の補正パラメーターを用いて、前記画像データに基づく画像の形状を補正する、ことを特徴とする。
本発明によれば、投射対象に投射される画像の形状を、投射対象に対応した形状に補正することができる。
According to the present invention, in the projector described above, the correction unit corrects the shape of the image based on the image data using the first correction parameter or the second correction parameter.
According to the present invention, the shape of an image projected on a projection target can be corrected to a shape corresponding to the projection target.

また、本発明は、上記プロジェクターにおいて、前記補正部は、前記制御部により切り替えられた前記補正パラメーターを用いて、前記画像データに基づく画像の形状を、前記投射対象の動きに対応した形状に補正する、ことを特徴とする。
本発明によれば、投射対象に動きがある場合であっても、画像データの形状を、動きに対応した形状に補正して、投射対象に投射することができる。
In the projector according to the aspect of the invention, the correction unit may correct the shape of the image based on the image data to a shape corresponding to the movement of the projection target, using the correction parameter switched by the control unit. It is characterized by.
According to the present invention, even when there is a motion in the projection target, the shape of the image data can be corrected to a shape corresponding to the motion and projected onto the projection target.

また、本発明は、上記プロジェクターにおいて、前記補正部は、前記投射対象の動作する動作部が第1の位置にある場合、前記第1の補正パラメーターに基づいて、前記画像データに基づく画像の形状を、前記動作部が前記第1の位置にある前記投射対象の形状に対応した形状に補正し、前記投射対象の前記動作部が第2の位置にある場合、前記第2の補正パラメーターに基づいて、前記画像データに基づく画像の形状を、前記動作部が前記第2の位置にある前記投射対象の形状に対応した形状に補正する、ことを特徴とする。
本発明によれば、動作部の各位置に対応した補正パラメーターを用意して、各位置に対応した補正パラメーターを用いて画像データを補正するので、画像データの形状を、投射対象の形状に対応するように補正することができ、さらに、投射対象に対応した画像が投射されるまでの時間を短縮させることができる。
In the projector according to the aspect of the invention, the correction unit may be configured such that the shape of the image based on the image data is based on the first correction parameter when the operation unit on which the projection target operates is in the first position. Is corrected to a shape corresponding to the shape of the projection target at the first position, and the operation target of the projection target is at the second position, based on the second correction parameter. Then, the shape of the image based on the image data is corrected to a shape corresponding to the shape of the projection target at which the operating unit is at the second position.
According to the present invention, a correction parameter corresponding to each position of the operation unit is prepared, and the image data is corrected using the correction parameter corresponding to each position. Therefore, the shape of the image data corresponds to the shape of the projection target. In addition, the time until the image corresponding to the projection target is projected can be shortened.

また、本発明は、上記プロジェクターにおいて、前記制御部は、前記第1の補正パラメーターと、前記第1の補正パラメーターとは異なる前記第2の補正パラメーターとを用いた補間演算により補正パラメーターを生成し、前記補正部は、前記投射対象の前記動作部が前記第1の位置と前記第2の位置との中間に位置する場合、前記制御部が生成した前記補正パラメーターに基づいて、前記画像データに基づく画像の形状を、前記動作部が前記第1の位置と前記第2の位置との中間の位置にある前記投射対象の形状に対応した形状に補正する、ことを特徴とする。
本発明によれば、動作部が第1の位置と第2の位置との中間の位置に位置する場合であっても投射対象の形状に対応した画像を投射することができる。
In the projector according to the aspect of the invention, the control unit may generate a correction parameter by an interpolation calculation using the first correction parameter and the second correction parameter different from the first correction parameter. When the operation unit to be projected is located between the first position and the second position, the correction unit adds the image data to the image data based on the correction parameter generated by the control unit. The shape of the image based is corrected to a shape corresponding to the shape of the projection target at which the operation unit is at an intermediate position between the first position and the second position.
According to the present invention, it is possible to project an image corresponding to the shape of the projection target even when the operation unit is located at an intermediate position between the first position and the second position.

また、本発明は、上記プロジェクターにおいて、前記補正部は、前記投射対象の前記動作部が前記第1の位置にある場合、前記動作部が前記第1の位置にある前記投射対象の形状に対応した前記第1の画像データの形状を、前記第1の補正パラメーターに基づいて補正し、前記投射対象の前記動作部が前記第2の位置にある場合、前記動作部が前記第2の位置にある前記投射対象の形状に対応した前記第2の画像データの形状を、前記第2の補正パラメーターに基づいて補正する、ことを特徴とする。
本発明によれば、動作部の各位置に対応した補正パラメーター及び画像データを用意して、動作部の各位置に対応した補正パラメーターを用いて、対応する画像データを補正するので、画像データの形状を、投射対象の形状に対応するように補正することができ、さらに、投射対象に対応した画像が投射されるまでの時間を短縮させることができる。
In the projector according to the aspect of the invention, the correction unit may correspond to the shape of the projection target in which the operation unit is in the first position when the operation unit to be projected is in the first position. The shape of the first image data is corrected based on the first correction parameter, and when the operation unit to be projected is in the second position, the operation unit is in the second position. A shape of the second image data corresponding to a certain shape of the projection target is corrected based on the second correction parameter.
According to the present invention, the correction parameter and image data corresponding to each position of the operation unit are prepared, and the corresponding image data is corrected using the correction parameter corresponding to each position of the operation unit. The shape can be corrected so as to correspond to the shape of the projection target, and the time until the image corresponding to the projection target is projected can be shortened.

本発明の画像処理装置は、第1の補正パラメーターと、前記第1の補正パラメーターとは異なる第2の補正パラメーターとを記憶する記憶部と、前記第1の補正パラメーター又は前記第2の補正パラメーターに基づいて画像データを補正する補正部と、補正パラメーターの切り替えを指示する切替信号を受信する受信部と、前記受信部が受信した前記切替信号に基づいて、前記補正部が前記画像データの補正に用いる補正パラメーターを前記第1の補正パラメーターから前記第2の補正パラメーターに切り替える制御部と、を備えることを特徴とする。
本発明によれば、投射対象に対応して補正された画像が投射されるまでの時間を短縮させることができる。
The image processing apparatus of the present invention includes a storage unit that stores a first correction parameter and a second correction parameter that is different from the first correction parameter, and the first correction parameter or the second correction parameter. A correction unit that corrects the image data based on the receiving unit, a receiving unit that receives a switching signal instructing switching of correction parameters, and the correction unit that corrects the image data based on the switching signal received by the receiving unit. And a control unit that switches the correction parameter used in the above operation from the first correction parameter to the second correction parameter.
ADVANTAGE OF THE INVENTION According to this invention, time until the image correct | amended corresponding to the projection object is projected can be shortened.

本発明の画像投射システムは、被写体の動きを制御する被写体制御装置と、前記被写体に画像を投射するプロジェクターとを備える画像投射システムであって、前記被写体制御装置は、前記被写体が動作するタイミングを通知する通知信号を前記プロジェクターに送信する送信部を備え、前記プロジェクターは、第1の補正パラメーターと、前記第1の補正パラメーターとは異なる第2の補正パラメーターとを記憶する記憶部と、前記第1の補正パラメーター又は前記第2の補正パラメーターに基づいて画像データを補正する補正部と、前記通知信号を受信する受信部と、前記受信部が受信した前記通知信号に基づいて、前記補正部が前記画像データの補正に用いる補正パラメーターを前記第1の補正パラメーターから前記第2の補正パラメーターに切り替える制御部と、前記補正部によって補正された前記画像データに基づく画像を前記被写体に投射する投射部と、を備えることを特徴とする。
本発明によれば、投射対象に対応して補正された画像が投射されるまでの時間を短縮させることができる。
The image projection system of the present invention is an image projection system including a subject control device that controls the movement of a subject and a projector that projects an image onto the subject, wherein the subject control device determines the timing at which the subject operates. A transmission unit that transmits a notification signal to be notified to the projector, the projector storing a first correction parameter and a second correction parameter different from the first correction parameter; A correction unit that corrects image data based on one correction parameter or the second correction parameter, a reception unit that receives the notification signal, and the correction unit that is based on the notification signal received by the reception unit. The correction parameters used for correcting the image data are changed from the first correction parameter to the second correction parameter. A control unit for switching the coater, characterized in that it comprises a projection section which projects in the subject image based on the image data corrected by the correcting unit.
ADVANTAGE OF THE INVENTION According to this invention, time until the image correct | amended corresponding to the projection object is projected can be shortened.

また、上記画像投射システムにおいて、前記送信部は、前記被写体の動作する動作部の位置を示す前記通知信号を前記プロジェクターに送信し、前記制御部は、前記通知信号に基づいて、前記動作部の位置に対応した補正パラメーターに切り替える、ことを特徴とする。
本発明によれば、被写体制御装置から通知信号により通知される動作部の位置に対応した形状に画像データの形状を補正して、補正した画像データを被写体に投射することができる。
In the image projection system, the transmission unit transmits the notification signal indicating the position of the operation unit on which the subject operates, to the projector, and the control unit is configured to control the operation unit based on the notification signal. It is characterized by switching to a correction parameter corresponding to the position.
According to the present invention, it is possible to correct the shape of the image data to a shape corresponding to the position of the operation unit notified by the notification signal from the subject control device, and project the corrected image data onto the subject.

本発明のプログラムは、コンピューターに、補正パラメーターの切り替えを指示する切替信号を受信する手順と、受信した前記切替信号に従って、前記画像データの補正に用いる補正パラメーターを第1の補正パラメーターから、前記第1の補正パラメーターとは異なる第2の補正パラメーターに切り替える手順と、切り替えられた前記第2の補正パラメーターを用いて前記画像データを補正する手順と、補正された前記画像データに基づく画像を投射対象に投射する手順と、を実行させることを特徴とする。
本発明によれば、投射対象に対応して補正された画像が投射されるまでの時間を短縮させることができる。
The program according to the present invention includes a procedure for receiving a switching signal instructing a computer to switch a correction parameter, and a correction parameter used for correcting the image data from the first correction parameter according to the received switching signal. A procedure for switching to a second correction parameter different from the one correction parameter, a procedure for correcting the image data using the switched second correction parameter, and an image based on the corrected image data And a procedure of projecting to the screen.
ADVANTAGE OF THE INVENTION According to this invention, time until the image correct | amended corresponding to the projection object is projected can be shortened.

本発明の画像投射方法は、補正パラメーターの切り替えを指示する切替信号を受信するステップと、受信した前記切替信号に従って、前記画像データの補正に用いる補正パラメーターを第1の補正パラメーターから、前記第1の補正パラメーターとは異なる第2の補正パラメーターに切り替えるステップと、切り替えられた前記第2の補正パラメーターを用いて前記画像データを補正するステップと、補正された前記画像データに基づく画像を投射対象に投射するステップと、を有することを特徴とする。
本発明によれば、投射対象に対応して補正された画像が投射されるまでの時間を短縮させることができる。
In the image projection method of the present invention, a step of receiving a switching signal instructing switching of a correction parameter, and a correction parameter used for correcting the image data in accordance with the received switching signal, from the first correction parameter, the first correction parameter is used. A step of switching to a second correction parameter different from the correction parameter of the step, a step of correcting the image data using the switched second correction parameter, and an image based on the corrected image data as a projection target Projecting.
ADVANTAGE OF THE INVENTION According to this invention, time until the image correct | amended corresponding to the projection object is projected can be shortened.

第1実施形態の画像投射システムの概略を示す構成図。1 is a configuration diagram showing an outline of an image projection system of a first embodiment. 被写体装置及び被写体制御装置の構成を示すブロック図。FIG. 3 is a block diagram illustrating a configuration of a subject device and a subject control device. プロジェクターの構成図。The block diagram of a projector. パラメーター生成モードでのプロジェクター300の動作を示すフローチャート。6 is a flowchart showing the operation of the projector 300 in the parameter generation mode. 画像生成部が生成するパターン画像を示す図。The figure which shows the pattern image which an image generation part produces | generates. (A)は形状補正前の格子パターンの一部を示す図、(B)は形状補正後の格子パターンの一部を示す図。(A) is a figure which shows a part of lattice pattern before shape correction, (B) is a figure which shows a part of lattice pattern after shape correction. 画像投射モードにおけるプロジェクターの動作を示すフローチャート。6 is a flowchart showing the operation of the projector in an image projection mode. 第2実施形態の画像投射システムの概略を示す構成図。The block diagram which shows the outline of the image projection system of 2nd Embodiment.

[第1実施形態]
図1は、画像投射システム1の概略を示す構成図である。
画像投射システム1は、被写体装置(投射対象、被写体)100と、被写体制御装置200と、プロジェクター300とを備え、被写体制御装置200によって制御される被写体装置100の動きに合わせた画像をプロジェクター300により投射するシステムである。
[First Embodiment]
FIG. 1 is a configuration diagram showing an outline of the image projection system 1.
The image projection system 1 includes a subject device (projection target, subject) 100, a subject control device 200, and a projector 300. The projector 300 displays an image that matches the movement of the subject device 100 controlled by the subject control device 200. Projecting system.

被写体装置100は、モーター等の駆動部(図2参照)の駆動力によって動作する動作部103(図2参照)を備える。本実施形態では、被写体装置100をロボットとし、動作部103をロボットの右腕として説明する。ロボットの動作部103は、右腕に限定されるものではなく、左腕であってもよいし、左右の両腕であってもよい。また、ロボットの動作部103は、右足と左足との少なくとも一方であってもよいし、ロボットの頭部であってもよい。
また、本実施形態の被写体装置100は、右腕を、横方向に伸ばした状態で上下に動かすことができる構成とするが、右腕を、前方向に伸ばした状態で上下に動かすことができるように構成してもよい。
また、本実施形態では、被写体装置100の動作として、右腕を動かす場合を例に説明するが、被写体装置100としてのロボットが歩行する場合や、ロボットが変形する場合等も被写体装置100の動作に含めることができる。また、被写体装置100は、動く装置であればよく、例えば、走行する車両であってもよい。
The subject device 100 includes an operation unit 103 (see FIG. 2) that operates by a driving force of a drive unit (see FIG. 2) such as a motor. In the present embodiment, the subject device 100 will be described as a robot, and the operation unit 103 will be described as the right arm of the robot. The robot operation unit 103 is not limited to the right arm, and may be the left arm or both the left and right arms. Also, the robot motion unit 103 may be at least one of the right foot and the left foot, or may be the head of the robot.
In addition, the subject device 100 of the present embodiment has a configuration in which the right arm can be moved up and down in the lateral direction, but the right arm can be moved up and down in the forward direction. It may be configured.
In this embodiment, the case where the right arm is moved will be described as an example of the operation of the subject device 100. However, the operation of the subject device 100 is also performed when the robot as the subject device 100 walks or the robot deforms. Can be included. The subject device 100 may be a moving device, and may be a traveling vehicle, for example.

被写体制御装置200は、被写体装置100と有線接続され、被写体装置100に制御信号を出力して、被写体装置100を動作させる。また、被写体制御装置200は、プロジェクター300に、被写体装置100を動作させることを通知する通知信号(切替信号)を送信する。   The subject control device 200 is wired to the subject device 100 and outputs a control signal to the subject device 100 to operate the subject device 100. In addition, the subject control device 200 transmits a notification signal (switching signal) for notifying the projector 300 to operate the subject device 100.

プロジェクター300は、被写体制御装置200と無線接続され、被写体制御装置200から受信した通知信号に基づいて、被写体装置100に投射する画像を切り替える。プロジェクター300と被写体制御装置200とは、有線により接続した構成であってもよい。   The projector 300 is wirelessly connected to the subject control device 200 and switches an image to be projected on the subject device 100 based on a notification signal received from the subject control device 200. The projector 300 and the subject control device 200 may be configured to be connected by wire.

図2は、被写体装置100及び被写体制御装置200の構成を示すブロック図である。
被写体装置100は、通信部101と、駆動部102と、動作部103と、被写体制御部104とを備える。
FIG. 2 is a block diagram illustrating configurations of the subject device 100 and the subject control device 200.
The subject device 100 includes a communication unit 101, a drive unit 102, an operation unit 103, and a subject control unit 104.

通信部101は、データ通信を行うインターフェースであり、被写体制御装置200の通信部201に接続された通信回線3に接続する。通信部101は、通信回線3を構成するケーブル(図示略)を接続する有線インターフェースである。
通信部101は、通信回線3を介して被写体制御装置200から送信される制御信号を受信する。通信部101は、受信した制御信号を被写体制御部104に出力する。
本実施形態では、通信部101が有線通信を実行する有線通信インターフェースである場合を示すが、通信部101は、無線LANやBluetooth(登録商標)等の無線通信を実行する無線通信インターフェースであってもよい。通信部101が無線通信インターフェースである場合、被写体装置100と被写体制御装置200は無線接続される。この場合、通信回線3は、一部又は全部が無線通信回線で構成される。
The communication unit 101 is an interface for performing data communication, and is connected to the communication line 3 connected to the communication unit 201 of the subject control apparatus 200. The communication unit 101 is a wired interface that connects cables (not shown) constituting the communication line 3.
The communication unit 101 receives a control signal transmitted from the subject control device 200 via the communication line 3. The communication unit 101 outputs the received control signal to the subject control unit 104.
In the present embodiment, a case where the communication unit 101 is a wired communication interface that performs wired communication is shown. However, the communication unit 101 is a wireless communication interface that performs wireless communication such as a wireless LAN or Bluetooth (registered trademark). Also good. When the communication unit 101 is a wireless communication interface, the subject device 100 and the subject control device 200 are wirelessly connected. In this case, part or all of the communication line 3 is constituted by a wireless communication line.

駆動部102は、例えば、ステッピングモーターや、ステッピングモーターの回転軸に取り付けられたギアー等(いずれも図示略)を備える。被写体制御部104から供給されるパルス信号によってステッピングモーターが回転して、被写体装置100の動作部103である右腕が上下に動く。以下の説明では、動作部103を右腕103として説明する。
駆動部102は、被写体制御部104から供給されるパルス信号に応じて、駆動部102のステッピングモーターを予め設定された角度ずつ回転させて、被写体装置100の右腕103の位置を、位置A、位置B、位置C、・・・と段階的に変化させる。位置Aは、右腕103の位置が最も下がった位置である。位置Bは位置Aの次に低い位置であり、位置Cは位置Bの次に低い位置である。駆動部102のステッピングモーターを事前に設定された角度ずつ回転させることで、右腕103が所定角度ずつ持ち上がり、位置Aにあった右腕103の位置が位置B、位置C、・・・、と変化する。また、ステッピングモーターを逆回転することで、右腕103の位置を、位置C、位置B、位置Aと段階的に下げることができる。
The drive unit 102 includes, for example, a stepping motor, a gear attached to the rotation shaft of the stepping motor, and the like (both not shown). The stepping motor is rotated by the pulse signal supplied from the subject control unit 104, and the right arm, which is the operation unit 103 of the subject device 100, moves up and down. In the following description, the operation unit 103 is described as the right arm 103.
The drive unit 102 rotates the stepping motor of the drive unit 102 by a preset angle in accordance with the pulse signal supplied from the subject control unit 104 to change the position of the right arm 103 of the subject device 100 to the position A and the position. B, position C,... The position A is a position where the position of the right arm 103 is lowered most. Position B is the next lowest position after position A, and position C is the next lowest position after position B. By rotating the stepping motor of the driving unit 102 by a preset angle, the right arm 103 is lifted by a predetermined angle, and the position of the right arm 103 at the position A is changed to a position B, a position C,. . Further, by rotating the stepping motor in the reverse direction, the position of the right arm 103 can be lowered step by step to position C, position B, and position A.

被写体制御部104は、CPU、ROMやEEPROMなどの不揮発性記録媒体、RAMなどの揮発性記録媒体、I/O(Input/Output)、及びこれらの構成を接続するバスライン(何れも図示略)などを備えた、周知のコンピューター装置として構成される。不揮発性記録媒体には、種々の処理を実行するためのプログラムが格納され、被写体制御部104は、不揮発性記録媒体に格納されたプログラムに基づいて処理を実行する。被写体制御部104は、通信部101が受信した制御信号に対応したパルス信号を生成して、駆動部102に出力する。   The subject control unit 104 includes a CPU, a non-volatile recording medium such as a ROM and an EEPROM, a volatile recording medium such as a RAM, an I / O (Input / Output), and a bus line that connects these components (all not shown). It is comprised as a well-known computer apparatus provided with these. The nonvolatile recording medium stores a program for executing various processes, and the subject control unit 104 executes the process based on the program stored in the nonvolatile recording medium. The subject control unit 104 generates a pulse signal corresponding to the control signal received by the communication unit 101 and outputs the pulse signal to the drive unit 102.

被写体制御装置200は、通信部201と、制御装置側制御部202と、操作部203と、無線通信部(送信部)204とを備える。   The subject control device 200 includes a communication unit 201, a control device side control unit 202, an operation unit 203, and a wireless communication unit (transmission unit) 204.

通信部201は、データ通信を行うインターフェースであり、被写体装置100の通信部101に接続された通信回線3に接続する。通信部201は、通信回線3を構成するケーブル(図示略)を接続する有線インターフェースである。通信部201は、制御装置側制御部202から入力された制御信号を、通信回線3を介して被写体装置100に送信する。
通信部201は、無線LANやBluetooth等の無線通信を実行する無線通信インターフェースであってもよい。通信部201が無線通信インターフェースである場合、被写体装置100と被写体制御装置200は無線接続される。この場合、通信回線3は、一部又は全部が無線通信回線で構成される。
The communication unit 201 is an interface for performing data communication, and is connected to the communication line 3 connected to the communication unit 101 of the subject device 100. The communication unit 201 is a wired interface that connects a cable (not shown) constituting the communication line 3. The communication unit 201 transmits a control signal input from the control device side control unit 202 to the subject device 100 via the communication line 3.
The communication unit 201 may be a wireless communication interface that performs wireless communication such as a wireless LAN and Bluetooth. When the communication unit 201 is a wireless communication interface, the subject device 100 and the subject control device 200 are wirelessly connected. In this case, part or all of the communication line 3 is constituted by a wireless communication line.

制御装置側制御部202は、CPU、ROMやEEPROMなどの不揮発性記録媒体、RAMなどの揮発性記録媒体、I/O、及びこれらの構成を接続するバスライン(何れも図示略)などを備えた、周知のコンピューター装置として構成される。不揮発性記録媒体には、種々の処理を実行するためのプログラムが格納され、制御装置側制御部202は、不揮発性記録媒体に格納されたプログラムに基づいて処理を実行する。   The control device side control unit 202 includes a CPU, a nonvolatile recording medium such as a ROM and an EEPROM, a volatile recording medium such as a RAM, an I / O, and a bus line (all not shown) for connecting these configurations. Further, it is configured as a well-known computer device. A program for executing various processes is stored in the non-volatile recording medium, and the control device-side control unit 202 executes processes based on the program stored in the non-volatile recording medium.

制御装置側制御部202は、被写体装置100を動作させる制御信号を生成して、被写体装置100に送信する。この制御信号は、被写体装置100に、右腕103を動作させるトリガとなるトリガ信号であってもよいし、右腕103の位置を指示する情報を含む信号であってもよい。
制御信号がトリガ信号である場合、被写体制御部104は、被写体制御装置200から制御信号が入力されるごとに、駆動部102のステッピングモーターを所定角度回転させるパルス信号を生成して、駆動部102に供給する。被写体制御部104から供給されるパルス信号によりステッピングモーターが所定角度、正回転して、被写体装置100の右腕103が、位置A、位置B、位置C、・・・と段階的に持ち上げられる。右腕103が最も高い位置まで持ち上がると、被写体制御部104は、制御信号が入力されるごとに、ステッピングモーターを所定角度、逆回転させるパルス信号を生成して駆動部102に供給する。これにより、被写体装置100の右腕103が、最も高い位置から段階的に下げられる。被写体制御部104は、被写体制御装置200から入力される制御信号により、被写体装置100の右腕103を上下方向に往復運動させる。
また、制御信号に、右腕103の位置を指示する情報が含まれる場合、被写体制御部104は、制御信号から、右腕103の位置を指定する情報を取り出して、現在の右腕103の位置と、指定された位置とを比較して、ステッピングモーターを回転させる回転角度(回転数)と、回転方向(正回転、逆回転)とを決定する。被写体制御部104は、ステッピングモーターを、決定した回転方向に、決定した回転角度(回転数)回転させるパルス信号を生成して、駆動部102に供給する。
The control device side control unit 202 generates a control signal for operating the subject device 100 and transmits the control signal to the subject device 100. This control signal may be a trigger signal that triggers the subject device 100 to operate the right arm 103, or may be a signal that includes information indicating the position of the right arm 103.
When the control signal is a trigger signal, the subject control unit 104 generates a pulse signal that rotates the stepping motor of the drive unit 102 by a predetermined angle each time the control signal is input from the subject control device 200, and the drive unit 102. To supply. The stepping motor rotates positively by a predetermined angle by the pulse signal supplied from the subject control unit 104, and the right arm 103 of the subject device 100 is lifted up step by step as position A, position B, position C,. When the right arm 103 is lifted to the highest position, the subject control unit 104 generates a pulse signal that reversely rotates the stepping motor by a predetermined angle and supplies the pulse signal to the drive unit 102 every time a control signal is input. Thereby, the right arm 103 of the subject apparatus 100 is lowered stepwise from the highest position. The subject control unit 104 reciprocates the right arm 103 of the subject device 100 in the vertical direction in accordance with a control signal input from the subject control device 200.
When the control signal includes information indicating the position of the right arm 103, the subject control unit 104 extracts information specifying the position of the right arm 103 from the control signal, and specifies the current position of the right arm 103 and the specified position. The rotation position (number of rotations) for rotating the stepping motor and the rotation direction (forward rotation, reverse rotation) are determined by comparing with the determined positions. The subject control unit 104 generates a pulse signal that rotates the stepping motor in the determined rotation direction in the determined rotation angle (number of rotations), and supplies the pulse signal to the drive unit 102.

また、制御装置側制御部202は、被写体装置100の右腕103を動かす際に、被写体装置100の右腕103を動作させることを通知する通知信号を生成して、無線通信部204を介してプロジェクター300に送信する。
この通知信号は、プロジェクター300が、被写体装置100に投射させる画像データを切り替えるトリガとなるトリガ信号であってもよいし、次に動かす被写体装置100の右腕103の位置を示す情報を含む信号であってもよい。
通知信号がトリガ信号である場合、プロジェクター300は、被写体制御装置200から通知信号が入力されるごとに、被写体装置100に投射する画像を変更する。プロジェクター300は、被写体装置100の右腕103の事前に設定された位置A、位置B、位置C、・・・、に対応して、右腕103が各位置にある場合に投射する画像データA、画像データB、画像データC、・・・、を記憶する。そして、プロジェクター300は、被写体制御装置200から通知信号が入力されるごとに、被写体装置100に投射する画像データを、画像データA、画像データB、画像データC、・・・、と変更していく。
また、通知信号に、次の右腕103の位置を示す情報が含まれる場合、プロジェクター300は、制御信号から、右腕103の位置を示す情報を取り出して、取り出した右腕103の位置に対応する画像データを被写体装置100に投射する。
Further, the control device side control unit 202 generates a notification signal for notifying that the right arm 103 of the subject device 100 is operated when moving the right arm 103 of the subject device 100, and the projector 300 via the wireless communication unit 204. Send to.
This notification signal may be a trigger signal that triggers the projector 300 to switch image data to be projected on the subject device 100, or a signal that includes information indicating the position of the right arm 103 of the subject device 100 to be moved next. May be.
When the notification signal is a trigger signal, the projector 300 changes the image projected on the subject device 100 each time the notification signal is input from the subject control device 200. The projector 300 corresponds to the preset position A, position B, position C,... Of the right arm 103 of the subject device 100, and the image data A and image to be projected when the right arm 103 is at each position. Data B, image data C,... Are stored. Then, every time a notification signal is input from the subject control device 200, the projector 300 changes the image data projected on the subject device 100 to image data A, image data B, image data C,. Go.
When the notification signal includes information indicating the position of the next right arm 103, the projector 300 extracts information indicating the position of the right arm 103 from the control signal, and the image data corresponding to the extracted position of the right arm 103. Is projected onto the subject apparatus 100.

操作部203は、操作ボタン等を備え、ユーザーの操作を受け付ける。
操作部203は、被写体制御装置200の動作モードを、パラメーター生成モード又は画像投射モードに切り替える操作ボタンを備える。
パラメーター生成モードとは、被写体装置100の右腕103を事前に設定された各位置(位置A、位置B、位置C、・・・、)で停止させ、各位置に対応した画像データ(画像データA、画像データB、画像データC、・・・、)を投射して、各画像データの形状を補正する補正パラメーターを生成するモードである。
また、画像投射モードは、パラメーター生成モードで生成した補正パラメーターを用いて画像データを補正しながら、被写体装置100の動きに合わせた画像を投射するモードである。
The operation unit 203 includes operation buttons and receives user operations.
The operation unit 203 includes an operation button for switching the operation mode of the subject control apparatus 200 to the parameter generation mode or the image projection mode.
In the parameter generation mode, the right arm 103 of the subject device 100 is stopped at each preset position (position A, position B, position C,...), And image data corresponding to each position (image data A). , Image data B, image data C,...) To generate correction parameters for correcting the shape of each image data.
The image projection mode is a mode for projecting an image in accordance with the movement of the subject device 100 while correcting the image data using the correction parameter generated in the parameter generation mode.

無線通信部204は、図示しないアンテナやRF(Radio Frequency)回路等を備え、制御装置側制御部202の制御の下、プロジェクター300との間で無線通信を実行する。無線通信部204の無線通信方式は、例えば無線LAN(Local Area Network)、Bluetooth、UWB(Ultra Wide Band)、赤外線通信等の近距離無線通信方式、或いは携帯電話回線を利用した無線通信方式を採用できる。   The wireless communication unit 204 includes an antenna (not shown), an RF (Radio Frequency) circuit, and the like, and performs wireless communication with the projector 300 under the control of the control device side control unit 202. As a wireless communication method of the wireless communication unit 204, for example, a short-range wireless communication method such as a wireless local area network (LAN), Bluetooth, UWB (Ultra Wide Band), infrared communication, or a wireless communication method using a mobile phone line is adopted. it can.

図3は、プロジェクター300の構成図である。
プロジェクター300は、光学的な画像の形成を行い、被写体装置100に画像を表示(投射)する表示部(投射部)310を備える。
表示部310は、光源部311、光変調装置312及び投射光学系313を備える。光源部311は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等からなる光源を備える。また、光源部311は、光源が発した光を光変調装置312に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、投射光の光学特性を高めるためのレンズ群、偏光板、又は光源が発した光の光量を光変調装置312に至る経路上で低減させる調光素子等(いずれも図示略)を備えてもよい。
FIG. 3 is a configuration diagram of the projector 300.
The projector 300 includes a display unit (projection unit) 310 that forms an optical image and displays (projects) the image on the subject device 100.
The display unit 310 includes a light source unit 311, a light modulation device 312, and a projection optical system 313. The light source unit 311 includes a light source including a xenon lamp, an ultra high pressure mercury lamp, an LED (Light Emitting Diode), a laser light source, or the like. The light source unit 311 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 312. Furthermore, a lens group for enhancing the optical characteristics of the projection light, a polarizing plate, or a light control element for reducing the amount of light emitted from the light source on the path to the light modulation device 312 (all not shown) are provided. Also good.

光変調装置312は、例えばRGBの三原色に対応した、3枚の透過型の液晶パネルを備え、光源部311から入射する光を変調して画像光を生成する。光源部311が発する光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系313に射出される。   The light modulation device 312 includes, for example, three transmissive liquid crystal panels corresponding to the three primary colors of RGB, and modulates light incident from the light source unit 311 to generate image light. The light emitted from the light source unit 311 is separated into three color lights of RGB, and each color light is incident on each corresponding liquid crystal panel. The color light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 313.

投射光学系313は、光変調装置312により変調された画像光を被写体装置100上に結像させるレンズ群を備える。また、投射光学系313は、被写体装置100に投射する投射画像の拡大・縮小及び焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。   The projection optical system 313 includes a lens group that forms an image of the image light modulated by the light modulation device 312 on the subject device 100. Further, the projection optical system 313 may include a zoom mechanism that performs enlargement / reduction of a projected image projected on the subject device 100 and a focus adjustment, and a focus adjustment mechanism that performs focus adjustment.

光源部311の光源は、光源駆動部321により駆動される。光源駆動部321は、後述する制御部330の制御に従って、光源部311の光源を駆動する。光源駆動部321は、光源部311の光量を調整する機能を備えてもよい。
光変調装置312は、光変調装置駆動部322により駆動される。光変調装置駆動部322は、画像処理部342から入力される表示画像データに基づきR,G,Bの画像信号を生成し、生成した画像信号に基づいて光変調装置312の備える液晶パネルに画像を描画する。
投射光学系313は、投射光学系駆動部323により駆動される。投射光学系駆動部323は、制御部330の制御に従って、投射光学系313が備える各モーターを駆動する。
The light source of the light source unit 311 is driven by the light source driving unit 321. The light source driving unit 321 drives the light source of the light source unit 311 according to the control of the control unit 330 described later. The light source driving unit 321 may have a function of adjusting the light amount of the light source unit 311.
The light modulation device 312 is driven by the light modulation device driving unit 322. The light modulation device driving unit 322 generates R, G, and B image signals based on the display image data input from the image processing unit 342, and an image is displayed on the liquid crystal panel included in the light modulation device 312 based on the generated image signals. Draw.
The projection optical system 313 is driven by the projection optical system drive unit 323. The projection optical system drive unit 323 drives each motor included in the projection optical system 313 according to the control of the control unit 330.

プロジェクター300の本体には、操作表示部351が配置される。
操作表示部351は、各種の設定や指示の入力、及び情報の表示に用いられる、いわゆるインターフェースに相当するもので、具体的には、表示パネル352、各種操作ボタン(図示略)、表示パネル352に重ねて配設されたタッチパネル(図示略)等を組み合わせて構成される。
An operation display unit 351 is disposed on the main body of the projector 300.
The operation display unit 351 corresponds to a so-called interface used for inputting various settings and instructions and displaying information. Specifically, the operation display unit 351 includes a display panel 352, various operation buttons (not shown), and a display panel 352. It is configured by combining a touch panel (not shown) or the like disposed on top of each other.

操作表示部351には、処理部354が接続される。処理部354は、内部バス305に接続される。処理部354は、制御部330の制御に従い、表示パネル352の表示を制御する。また、処理部354は、操作表示部351の操作ボタンが操作されると、操作された操作ボタンに対応する操作信号を制御部330に出力する。また、処理部354は、操作表示部351の表示パネル352に重ねて配設されたタッチパネルが操作されると、操作された表示パネル352の位置を示す位置信号を制御部330に出力する。   A processing unit 354 is connected to the operation display unit 351. The processing unit 354 is connected to the internal bus 305. The processing unit 354 controls display on the display panel 352 according to the control of the control unit 330. Further, when the operation button of the operation display unit 351 is operated, the processing unit 354 outputs an operation signal corresponding to the operated operation button to the control unit 330. In addition, when the touch panel disposed on the display panel 352 of the operation display unit 351 is operated, the processing unit 354 outputs a position signal indicating the position of the operated display panel 352 to the control unit 330.

また、プロジェクター300は、ユーザーが使用するリモコン5を有する。リモコン5は各種のボタンを備えており、これらのボタンの操作に対応して赤外線信号を送信する。プロジェクター300の本体には、リモコン5が発する赤外線信号を受光するリモコン受光部353が配置されている。リモコン受光部353は、リモコン5から送信される赤外線信号を受光する。処理部354は、リモコン受光部353が受光した赤外線信号をデコードして、リモコン5における操作内容を示す操作信号を生成して制御部330に出力する。   Further, the projector 300 has a remote controller 5 used by the user. The remote controller 5 includes various buttons, and transmits an infrared signal corresponding to the operation of these buttons. In the main body of the projector 300, a remote control light receiving unit 353 that receives an infrared signal emitted from the remote controller 5 is disposed. The remote control light receiving unit 353 receives an infrared signal transmitted from the remote control 5. The processing unit 354 decodes the infrared signal received by the remote control light receiving unit 353, generates an operation signal indicating the operation content in the remote controller 5, and outputs the operation signal to the control unit 330.

プロジェクター300は、無線通信部(受信部)355を備える。無線通信部355は、図示しないアンテナやRF(Radio Frequency)回路等を備え、制御部330の制御の下、外部の装置との間で無線通信を実行する。無線通信部355は、内部バス305を介して制御部330に接続される。無線通信部355の無線通信方式は、例えば無線LAN(Local Area Network)、Bluetooth、UWB、赤外線通信等の近距離無線通信方式、或いは携帯電話回線を利用した無線通信方式を採用できる。   The projector 300 includes a wireless communication unit (reception unit) 355. The wireless communication unit 355 includes an antenna (not shown), an RF (Radio Frequency) circuit, and the like, and performs wireless communication with an external device under the control of the control unit 330. The wireless communication unit 355 is connected to the control unit 330 via the internal bus 305. As a wireless communication method of the wireless communication unit 355, for example, a short-range wireless communication method such as a wireless local area network (LAN), Bluetooth, UWB, infrared communication, or a wireless communication method using a mobile phone line can be adopted.

撮影部356は、被写体装置100を撮影するデジタルカメラであり、撮影画像データを生成する。撮影部356の撮影範囲すなわち画角は、被写体装置100の全体又は一部を含む範囲であることが好ましい。   The photographing unit 356 is a digital camera that photographs the subject device 100 and generates photographed image data. The shooting range, that is, the angle of view of the shooting unit 356 is preferably a range including the whole or a part of the subject device 100.

プロジェクター300の画像処理系は、プロジェクター300の全体を統合的に制御する制御部330を中心に構成され、この他に、記憶部335、画像生成部341、画像処理部342を備える。画像処理系を構成する各部は、内部バス305によりデータ通信可能に相互に接続される。制御部330と、無線通信部355と、記憶部335と、画像処理部342と、フレームメモリー345とにより本発明における画像処理装置360が実現される。   The image processing system of the projector 300 is configured around a control unit 330 that controls the entire projector 300 in an integrated manner, and additionally includes a storage unit 335, an image generation unit 341, and an image processing unit 342. Each unit constituting the image processing system is connected to each other via an internal bus 305 so that data communication is possible. The control unit 330, the wireless communication unit 355, the storage unit 335, the image processing unit 342, and the frame memory 345 implement the image processing apparatus 360 according to the present invention.

制御部330は、CPU、ROMやEEPROMなどの不揮発性記録媒体、RAMなどの揮発性記録媒体、I/O、及びこれらの構成を接続するバスライン(何れも図示略)などを備えた、周知のコンピューター装置として構成される。
制御部330は、CPUが不揮発性記録媒体に記憶した基本制御プログラム、及び記憶部335が記憶する制御プログラムを実行することにより、投射制御部331、撮影制御部332及び補正制御部(制御部)333として機能する。投射制御部331、撮影制御部332及び補正制御部333の詳細については後述する。
The control unit 330 includes a CPU, a non-volatile recording medium such as a ROM and an EEPROM, a volatile recording medium such as a RAM, an I / O, and a bus line (all not shown) for connecting these configurations. It is configured as a computer device.
The control unit 330 executes a basic control program stored in a non-volatile recording medium by the CPU and a control program stored in the storage unit 335, whereby a projection control unit 331, a photographing control unit 332, and a correction control unit (control unit). It functions as 333. Details of the projection control unit 331, the imaging control unit 332, and the correction control unit 333 will be described later.

記憶部335は、フラッシュメモリー、EEPROM等の書き換え可能な不揮発性のメモリーである。記憶部335は、プロジェクター300の動作を制御するための制御プログラムや、プロジェクター300の動作条件等を規定する各種設定データ等を記憶する。
また、記憶部335は、表示部310により被写体装置100に投射する画像データ、及びこの画像データを補正する補正パラメーターを記憶する。記憶部335は、被写体装置100の事前に設定された右腕103の各位置に対応して、複数の画像データ及びこれらの画像データを補正する補正パラメーターを記憶する。例えば、被写体装置100の右腕103が、上述のように位置A、位置B、位置C、・・・、と変化する場合、右腕103の各位置に対応した画像データA、画像データB、画像データC、・・・、が用意され、これらの画像データを補正する補正パラメーターが制御部330によりそれぞれ生成される。
また、記憶部335は、撮影部356により撮影された画像データ(以下、撮影画像データという)を記憶する。
The storage unit 335 is a rewritable nonvolatile memory such as a flash memory or an EEPROM. The storage unit 335 stores a control program for controlling the operation of the projector 300, various setting data for defining operation conditions of the projector 300, and the like.
In addition, the storage unit 335 stores image data projected on the subject device 100 by the display unit 310 and correction parameters for correcting the image data. The storage unit 335 stores a plurality of image data and correction parameters for correcting these image data corresponding to each position of the right arm 103 set in advance of the subject device 100. For example, when the right arm 103 of the subject device 100 changes to position A, position B, position C,... As described above, image data A, image data B, and image data corresponding to each position of the right arm 103. C,... Are prepared, and correction parameters for correcting these image data are generated by the control unit 330, respectively.
In addition, the storage unit 335 stores image data captured by the imaging unit 356 (hereinafter, referred to as captured image data).

投射制御部331は、光源駆動部321、光変調装置駆動部322、投射光学系駆動部323及び画像処理部342を制御して、被写体装置100に画像を投射させる。   The projection control unit 331 controls the light source driving unit 321, the light modulation device driving unit 322, the projection optical system driving unit 323, and the image processing unit 342 to cause the subject device 100 to project an image.

撮影制御部332は、撮影部356を制御して、画像データが投射された被写体装置100を撮影する。撮影制御部332は、撮影部356が撮影した撮影画像データを記憶部335に記憶させる。   The imaging control unit 332 controls the imaging unit 356 to image the subject device 100 on which the image data is projected. The imaging control unit 332 stores the captured image data captured by the imaging unit 356 in the storage unit 335.

補正制御部333は、撮影部356の撮影画像データに基づいて、画像データの形状を補正する補正パラメーター(第1の補正パラメーター及び第2の補正パラメーターに相当する)を生成する。補正制御部333は、生成した補正パラメーターを記憶部335に記憶させる。
また、補正制御部333は、被写体装置100に投射する画像データ、及びこの画像データの補正に使用する補正パラメーターを記憶部335から読み出して、画像処理部342に画像データの形状補正を指示する。
The correction control unit 333 generates correction parameters (corresponding to the first correction parameter and the second correction parameter) for correcting the shape of the image data based on the captured image data of the imaging unit 356. The correction control unit 333 stores the generated correction parameter in the storage unit 335.
Further, the correction control unit 333 reads out image data to be projected on the subject device 100 and correction parameters used for correcting the image data from the storage unit 335 and instructs the image processing unit 342 to correct the shape of the image data.

画像生成部341には、制御部330により記憶部335から読み出された画像データが入力される。画像データは、被写体装置100に投射される画像を表す画像データである。
画像生成部341は、格子パターンを生成して、入力された画像データに重畳する。格子パターンは、複数の格子点が格子パターンの垂直方向及び水平方向に等間隔で配置されたパターンである。画像生成部341は、画像データに、格子パターンを重畳した重畳画像データを生成し、生成した重畳画像データを光変調装置駆動部322に出力する。重畳画像データの具体例については、図5を参照しながら後述する。この後、重畳画像データに対応した画像信号が光変調装置駆動部322で生成され、生成された画像信号に基づく画像が、光変調装置312の液晶パネルに描画され、重畳画像データに対応する画像が被写体装置100に投射される。
また、画像生成部341は、生成した格子パターンを画像処理部342に出力する。
The image data read from the storage unit 335 by the control unit 330 is input to the image generation unit 341. The image data is image data representing an image projected on the subject device 100.
The image generation unit 341 generates a lattice pattern and superimposes it on the input image data. The lattice pattern is a pattern in which a plurality of lattice points are arranged at equal intervals in the vertical direction and the horizontal direction of the lattice pattern. The image generation unit 341 generates superimposed image data in which a lattice pattern is superimposed on the image data, and outputs the generated superimposed image data to the light modulation device driving unit 322. A specific example of the superimposed image data will be described later with reference to FIG. Thereafter, an image signal corresponding to the superimposed image data is generated by the light modulation device driving unit 322, and an image based on the generated image signal is drawn on the liquid crystal panel of the light modulation device 312 and the image corresponding to the superimposed image data. Is projected onto the subject apparatus 100.
Further, the image generation unit 341 outputs the generated lattice pattern to the image processing unit 342.

画像処理部342は、制御部330によって記憶部335から読み出された画像データをフレームメモリー345に展開して、展開した画像データに画像処理を施す。画像処理部342が実行する画像処理には、デジタルズーム処理、色合い補正処理、明るさ補正処理、シャープネス調整処理等が含まれる。
また、画像処理部342は、画像データの形状を補正する形状補正部(補正部)343を備える。形状補正部343は、制御部330から指定された補正パラメーターを用いて、フレームメモリー345に展開した画像データに対し、例えば、解像度変換(スケーリング)処理又はリサイズ処理、歪み補正等の形状補正処理を行う。
画像処理部342は、制御部330により指定された処理を実行し、必要に応じて、制御部330から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。画像処理部342は、画像処理した画像データをフレームメモリー345から読み出し、表示画像データとして光変調装置駆動部322に出力する。
The image processing unit 342 develops the image data read from the storage unit 335 by the control unit 330 in the frame memory 345 and performs image processing on the developed image data. Image processing executed by the image processing unit 342 includes digital zoom processing, hue correction processing, brightness correction processing, sharpness adjustment processing, and the like.
The image processing unit 342 includes a shape correction unit (correction unit) 343 that corrects the shape of the image data. The shape correction unit 343 performs shape correction processing such as resolution conversion (scaling) processing, resizing processing, distortion correction, or the like on the image data developed in the frame memory 345 using the correction parameter specified by the control unit 330. Do.
The image processing unit 342 executes processing specified by the control unit 330 and performs processing using parameters input from the control unit 330 as necessary. Of course, it is also possible to execute a combination of a plurality of processes. The image processing unit 342 reads out the image data subjected to the image processing from the frame memory 345, and outputs it as display image data to the light modulation device driving unit 322.

図4は、パラメーター生成モードでのプロジェクター300の動作を示すフローチャートである。
パラメーター生成モードにおいて、被写体制御装置200は、プロジェクター300から送信される信号(後述する位置変更信号)を受信して、被写体装置100の右腕103を、位置Aから、位置B、位置C、・・・、と順に持ち上げていく。プロジェクター300は、動かされた右腕103の各位置で画像データを被写体装置100に投射して、被写体装置100の右腕103が各位置にある場合に対応した補正パラメーター(第1の補正パラメーターと、第2の補正パラメーターとに相当する)を生成していく。
FIG. 4 is a flowchart showing the operation of the projector 300 in the parameter generation mode.
In the parameter generation mode, the subject control device 200 receives a signal (a position change signal described later) transmitted from the projector 300, and moves the right arm 103 of the subject device 100 from the position A to the position B, the position C,.・ We lift in order. The projector 300 projects image data on the subject device 100 at each position of the moved right arm 103, and correction parameters (first correction parameter and first correction parameter) corresponding to the case where the right arm 103 of the subject device 100 is at each position. Corresponding to the correction parameter of 2).

被写体制御装置200の操作部203は、パラメーター生成モードの開始操作を受け付けると、受け付けた開始操作に対応する信号を制御装置側制御部202に出力する。
制御装置側制御部202は、パラメーター生成モードの開始を示す信号が操作部203から入力されると、プロジェクター300をパラメーター生成モードに移行させる制御信号を生成して、無線通信部204によりプロジェクター300に送信する。
When receiving the parameter generation mode start operation, the operation unit 203 of the subject control device 200 outputs a signal corresponding to the received start operation to the control device side control unit 202.
When a signal indicating the start of the parameter generation mode is input from the operation unit 203, the control device side control unit 202 generates a control signal that causes the projector 300 to shift to the parameter generation mode, and the wireless communication unit 204 transmits the control signal to the projector 300. Send.

次に、被写体制御装置200は、被写体装置100に制御信号を出力して、被写体装置100の右腕103が事前に設定された位置となるように被写体装置100を制御する。
この説明では、事前に設定された位置は、被写体装置100の右腕103を一番下に下げた位置Aであるとして説明するが、右腕103の位置は、右腕103を一番上に上げた状態であってもよいし、一番下と一番上との中間の位置であってもよい。制御装置側制御部202は、被写体装置100に制御信号を出力して、被写体装置100の右腕103が位置Aになるように制御すると、プロジェクター300に、補正パラメーターの生成を指示する指示信号を送信する。
Next, the subject control device 200 outputs a control signal to the subject device 100, and controls the subject device 100 so that the right arm 103 of the subject device 100 is in a preset position.
In this description, it is assumed that the preset position is the position A where the right arm 103 of the subject device 100 is lowered to the bottom. However, the position of the right arm 103 is a state where the right arm 103 is raised to the top. It may be a middle position between the bottom and top. When the control device-side control unit 202 outputs a control signal to the subject device 100 and controls the right arm 103 of the subject device 100 to be in the position A, the control device-side control unit 202 transmits an instruction signal instructing the projector 300 to generate a correction parameter. To do.

プロジェクター300の無線通信部355は、被写体制御装置200から制御信号を受信して、受信した制御信号を制御部330に出力する。
プロジェクター300の制御部330は、無線通信部355から制御信号が入力されると(ステップS1/YES)、動作モードを画像投射モードからパラメーター生成モードに移行させる(ステップS2)。また、制御部330は、無線通信部355からの制御信号の入力がない場合(ステップS1/NO)、図7に示す画像投射モードの処理フローに従って動作する。
The wireless communication unit 355 of the projector 300 receives a control signal from the subject control device 200 and outputs the received control signal to the control unit 330.
When the control signal is input from the wireless communication unit 355 (step S1 / YES), the control unit 330 of the projector 300 shifts the operation mode from the image projection mode to the parameter generation mode (step S2). Further, when there is no input of a control signal from the wireless communication unit 355 (step S1 / NO), the control unit 330 operates according to the processing flow of the image projection mode shown in FIG.

動作モードをパラメーター生成モードに移行させると、制御部330は、無線通信部355から指示信号が入力されたか否かを判定する(ステップS3)。無線通信部355は、被写体制御装置200から送信される指示信号を受信すると、受信した指示信号を制御部330に出力する。
制御部330は、指示信号の入力がない場合(ステップS3/NO)、指示信号が入力されるまで待機する。また、制御部330は、指示信号が入力された場合(ステップS3/YES)、右腕103が位置Aの位置にある被写体装置100に投射する画像として用意された画像データAを記憶部335から読み出して画像生成部341に出力し、画像生成部341に、重畳画像データの生成を指示する。
画像データAが、被写体装置100の右腕103が位置Aの位置にある被写体装置100に投射する画像として用意された画像データであっても、プロジェクター300が被写体装置100に画像データAを投射する角度や距離が異なると、被写体装置100に投射される画像が、被写体装置100の右腕103からはみ出したり、画像が投射される位置にずれが生じたりする場合がある。このため、画像データAを補正する補正パラメーターが必要になる。
画像生成部341は、入力された画像データAに、格子パターンを重畳して重畳画像データを生成し(ステップS4)、表示部310に出力する。
When the operation mode is shifted to the parameter generation mode, the control unit 330 determines whether or not an instruction signal is input from the wireless communication unit 355 (step S3). Upon receiving the instruction signal transmitted from the subject control device 200, the wireless communication unit 355 outputs the received instruction signal to the control unit 330.
If no instruction signal is input (step S3 / NO), control unit 330 waits until the instruction signal is input. In addition, when an instruction signal is input (step S3 / YES), the control unit 330 reads out from the storage unit 335 image data A prepared as an image to be projected onto the subject device 100 in which the right arm 103 is at the position A. Is output to the image generation unit 341, and the image generation unit 341 is instructed to generate superimposed image data.
Even if the image data A is image data prepared as an image to be projected onto the subject device 100 in which the right arm 103 of the subject device 100 is at the position A, the angle at which the projector 300 projects the image data A onto the subject device 100 If the distance is different, the image projected on the subject device 100 may protrude from the right arm 103 of the subject device 100, or the position where the image is projected may be displaced. For this reason, a correction parameter for correcting the image data A is required.
The image generation unit 341 generates superimposed image data by superimposing a lattice pattern on the input image data A (step S4), and outputs it to the display unit 310.

図5は、画像生成部341が生成する重畳画像データを示す図である。
重畳画像データは、被写体装置100に投射される画像を表す画像データに、格子パターンを重畳したデータである。被写体装置100に投射される画像は、動画であってもよいし、静止画であってもよい。また、画像データの画像については、特に限定はないが、例えば、記号や、図形、模様、色彩、建物、人の顔等、プロジェクションマッピングにおいて使用可能な画像データであればよい。
図5に示す重畳画像データは、複数の星形の模様をロボットの形状に合わせて配置した画像データAに、画像データAの垂直方向及び水平方向に等間隔に格子点を配置した格子パターンを合成したパターン画像を表す。なお、図5には、画像データAの星の画像の配置が理解しやすいように、重畳画像データによって表される画像(以下の説明では「重畳画像」ともいう)が投射されるロボット(被写体装置100)の形状を破線で示す。また、図5に示す重畳画像データは、図示を簡略化するため、格子点の間隔を広く描いているが、格子点の間隔をより狭くすることで、形状補正の精度を高めることができる。
また、図5には示していないが、重畳画像データに、各格子点の重畳画像データ上での位置を特定可能な情報を含めてもよい。重畳画像データ上での位置を特定可能な情報には、例えば、格子パターンの各格子点に連番を付して、重畳画像データの各格子点の近傍に、各格子点に付された番号を表示してもよい。また、重畳画像データの各格子点の近傍に、各格子点の重畳画像データ上での座標を示す座標値を表示させてもよい。
FIG. 5 is a diagram illustrating superimposed image data generated by the image generation unit 341.
The superimposed image data is data obtained by superimposing a lattice pattern on image data representing an image projected on the subject device 100. The image projected on the subject device 100 may be a moving image or a still image. The image of the image data is not particularly limited, but may be image data that can be used in projection mapping, such as symbols, figures, patterns, colors, buildings, human faces, and the like.
The superimposed image data shown in FIG. 5 includes a lattice pattern in which lattice points are arranged at equal intervals in the vertical and horizontal directions of the image data A on the image data A in which a plurality of star patterns are arranged in accordance with the shape of the robot. Represents a synthesized pattern image. In FIG. 5, a robot (subject) on which an image represented by superimposed image data (also referred to as “superimposed image” in the following description) is projected so that the arrangement of the star image of the image data A is easy to understand. The shape of the device 100) is indicated by a broken line. Further, in the superimposed image data shown in FIG. 5, the lattice point intervals are drawn wide in order to simplify the illustration, but the shape correction accuracy can be improved by narrowing the lattice point intervals.
Although not shown in FIG. 5, information that can specify the position of each grid point on the superimposed image data may be included in the superimposed image data. Information that can specify the position on the superimposed image data includes, for example, a serial number assigned to each grid point of the grid pattern, and a number assigned to each grid point in the vicinity of each grid point of the superimposed image data. May be displayed. Also, coordinate values indicating coordinates on the superimposed image data of each grid point may be displayed in the vicinity of each grid point of the superimposed image data.

表示部310は、投射制御部331の制御により、画像生成部341から入力された重畳画像データを被写体装置100に投射する(ステップS5)。画像データAに基づいて生成された重畳画像データによって表される重畳画像が被写体装置100に投射されると、撮影制御部332は、撮影部356を制御して、重畳画像が投射された被写体装置100を撮影する(ステップS6)。ここでは、撮影部356の撮影範囲は、被写体装置100の全体を含む範囲であるとして説明する。しかし、前述のように、重畳画像データに、各格子点の重畳画像データ上での位置を特定可能な情報が表示されている場合、撮影部356の撮影範囲は、被写体装置100の動作する部分である右腕103を少なくとも含む範囲であればよい。撮影部356の撮影範囲が、重畳画像データの一部であっても、撮影画像データに写った格子点の重畳画像データ上での位置を特定することができるからである。
撮影制御部332は、重畳画像を撮影した撮影画像データを記憶部335に記憶させる。
The display unit 310 projects the superimposed image data input from the image generation unit 341 onto the subject device 100 under the control of the projection control unit 331 (step S5). When the superimposed image represented by the superimposed image data generated based on the image data A is projected onto the subject device 100, the photographing control unit 332 controls the photographing unit 356 so that the subject device on which the superimposed image is projected. 100 is photographed (step S6). Here, a description will be given assuming that the shooting range of the shooting unit 356 includes the entire subject device 100. However, as described above, when information that can specify the position of each grid point on the superimposed image data is displayed in the superimposed image data, the imaging range of the imaging unit 356 is a portion where the subject device 100 operates. As long as the right arm 103 is at least included in the range. This is because even if the shooting range of the shooting unit 356 is a part of the superimposed image data, the position of the lattice points in the captured image data on the superimposed image data can be specified.
The imaging control unit 332 stores the captured image data obtained by imaging the superimposed image in the storage unit 335.

補正制御部333は、記憶部335に記憶された撮影画像データを解析して、各格子点に対応した撮影画像データの画素範囲と、この画素範囲のデータを記憶する記憶領域のアドレスの範囲とをそれぞれに特定する。例えば、補正制御部333は、撮影画像データのうち、色成分が黒色の一定サイズの固まりを格子点に対応した撮影画像データの画素範囲として特定する。
また、被写体装置100の形状が平面である場合、基準となる格子点を検出して、検出した基準となる格子点の位置に基づいて他の格子点の位置を特定してもよい。例えば、格子パターンには、各格子点が垂直方向及び水平方向のそれぞれに等間隔で配置されている。このため、補正制御部333は、撮影画像データの左上に位置する格子点を、基準となる格子点として検出して、検出した左上の格子点の一つ隣りの格子点を、撮影画像データの垂直方向及び水平方向のそれぞれで検出する。基準となる格子点と、この格子点の垂直方向において1つ隣りの格子点との画素間隔を特定できれば、基準となる格子点の位置に基づいて、垂直方向の各格子点の位置を特定することができる。同様に、基準となる格子点と、この格子点の水平方向において1つ隣りの格子点との画素間隔を特定できれば、基準となる格子点の位置に基づいて、水平方向の各格子点の位置を特定することができる。
The correction control unit 333 analyzes the captured image data stored in the storage unit 335, and the pixel range of the captured image data corresponding to each grid point and the address range of the storage area that stores the data of the pixel range To each. For example, the correction control unit 333 specifies a fixed-size cluster whose color component is black in the photographed image data as a pixel range of the photographed image data corresponding to the grid points.
Further, when the shape of the subject device 100 is a plane, a reference lattice point may be detected, and the position of another lattice point may be specified based on the detected position of the reference lattice point. For example, in the lattice pattern, the lattice points are arranged at equal intervals in the vertical direction and the horizontal direction. For this reason, the correction control unit 333 detects the lattice point located at the upper left of the captured image data as a reference lattice point, and determines the lattice point adjacent to the detected upper left lattice point as the reference of the captured image data. Detect in each of the vertical and horizontal directions. If the pixel interval between the reference lattice point and the adjacent lattice point in the vertical direction of the lattice point can be specified, the position of each lattice point in the vertical direction is specified based on the position of the reference lattice point. be able to. Similarly, if the pixel interval between the reference lattice point and the lattice point adjacent to this lattice point in the horizontal direction can be specified, the position of each lattice point in the horizontal direction is determined based on the position of the reference lattice point. Can be specified.

次に、補正制御部333は、特定した各アドレス範囲の記憶領域に記憶された格子点が、格子パターン上のどの格子点に該当するのかを特定する。画像生成部341が画像データAに重畳した格子パターンの格子点の数と、撮影画像データの格子点の数とは一致する。このため、補正制御部333は、格子パターンの各格子点に連番を付して、撮影画像データの各格子点に、対応する格子パターンの格子点に付した番号を付す。
補正制御部333は、撮影画像データの各格子点について、この格子点の撮影画像データ上での画素範囲と、この画素範囲の撮影画像データを記憶した記憶部335のアドレス範囲と、この格子点に付された番号とを対応付けて、制御部330内のメモリー又は記憶部335に記憶させる。
Next, the correction control unit 333 identifies which lattice point on the lattice pattern corresponds to the lattice point stored in the storage area of each identified address range. The number of lattice points of the lattice pattern superimposed on the image data A by the image generation unit 341 coincides with the number of lattice points of the captured image data. Therefore, the correction control unit 333 attaches a serial number to each lattice point of the lattice pattern, and attaches a number assigned to each lattice point of the corresponding lattice pattern to each lattice point of the captured image data.
For each grid point of the captured image data, the correction control unit 333 includes a pixel range of the grid point on the captured image data, an address range of the storage unit 335 that stores the captured image data of the pixel range, and the grid point The number assigned to is stored in the memory in the control unit 330 or the storage unit 335 in association with the number.

次に、補正制御部333は、記憶部335に記憶させた撮影画像データに基づく画像を、表示パネル352に表示させる(ステップS7)。撮影画像データを表示パネル352に表示させる際、補正制御部333は、撮影画像データの画素と、この撮影画像データを表示させた表示パネル352の表示画素とを対応付ける。すなわち、補正制御部333は、撮影画像データを構成する各画素のデータが、表示パネル352のどの表示画素に表示されたのかを対応付けた情報を生成する。   Next, the correction control unit 333 causes the display panel 352 to display an image based on the captured image data stored in the storage unit 335 (step S7). When the captured image data is displayed on the display panel 352, the correction control unit 333 associates the pixel of the captured image data with the display pixel of the display panel 352 on which the captured image data is displayed. That is, the correction control unit 333 generates information that associates with which display pixel of the display panel 352 the data of each pixel constituting the captured image data is displayed.

ユーザーは、表示パネル352に表示された撮影画像データに基づく画像を目視しながら、操作表示部351やリモコン5を操作して、形状補正を行いたい位置の指定と、指定した位置を形状補正により移動させる移動方向及び移動距離とを入力する。
例えば、表示パネル352に、リモコン5や、操作表示部351に設けられた十字キー等の操作により位置を変更することができるカーソルを、補正制御部333の制御により表示させる。ユーザーは、リモコン5や十字キーを操作して、形状補正を行いたい格子点の位置にカーソルを移動させ、リモコン5や操作表示部351に設けられた確定(Enter)キーを押下する。処理部354は、確定キーが押下された表示パネル352の位置を示す位置信号Q1を生成して制御部330に出力する。
また、ユーザーは、リモコン5や十字キーを操作して、選択した格子点を移動させたい位置にカーソルを移動させ、確定キーを押下する。処理部354は、確定キーが押下された表示パネル352の位置を示す位置信号Q2を生成して制御部330に出力する。
The user operates the operation display unit 351 and the remote controller 5 while visually observing an image based on the captured image data displayed on the display panel 352, and designates the position where the shape correction is to be performed and the designated position by the shape correction. Enter the direction and distance to move.
For example, a cursor whose position can be changed by operating the remote controller 5 or a cross key provided on the operation display unit 351 is displayed on the display panel 352 under the control of the correction control unit 333. The user operates the remote controller 5 or the cross key to move the cursor to the position of the grid point where shape correction is desired, and presses the enter key provided on the remote controller 5 or the operation display unit 351. The processing unit 354 generates a position signal Q1 indicating the position of the display panel 352 where the confirmation key is pressed and outputs the position signal Q1 to the control unit 330.
In addition, the user operates the remote controller 5 or the cross key to move the cursor to a position where the selected grid point is to be moved, and presses the enter key. The processing unit 354 generates a position signal Q2 indicating the position of the display panel 352 where the confirmation key is pressed, and outputs the position signal Q2 to the control unit 330.

また、ドラッグ・アンド・ドロップの操作により、形状補正を行いたい位置の指定と、形状補正により移動させる移動方向及び移動距離とを入力することもできる。
例えば、リモコン5やプロジェクター300の操作表示部351に、トラックボールやジョイスティック等のポインティングデバイスが搭載されている場合、このポインティングデバイスの操作により、形状補正を行いたい位置の指定と、移動させる移動方向及び移動距離とを処理部354に入力することができる。
具体的には、ユーザーは、ポインティングデバイスを操作して、カーソルを、形状補正を行いたい格子点の位置に移動させ、ポインティングデバイスを押下操作したまま、ポインティングデバイスを操作して、形状補正を行いたい格子点を移動させたい位置までカーソルを移動させる。カーソルの移動が完了すると、ユーザーは、押下操作していたポインティングデバイスの押下操作を終了させる。
処理部354は、ポインティングデバイスの入力に基づいて、押下操作が開始された表示パネル352の位置を示す位置信号Q1と、押下操作が終了された表示パネル352の位置を示す位置信号Q2とを生成して制御部330に出力する。
また、表示パネル352を、タッチセンサ(図示略)と組み合わされてタッチパネルとして構成した場合、ユーザーの指の操作により、形状補正を行いたい位置の指定と、形状補正により移動させる移動方向及び移動距離とを入力することもできる。具体的には、ユーザーは、ユーザーの指を、形状補正を行いたい格子点にタッチし、タッチした指を、表示パネル352にタッチさせたまま、形状補正を行いたい格子点を移動させたい位置まで移動させる。ユーザーは、移動させたい位置まで指を移動させると、表示パネル352にタッチさせていた指を表示パネル352から離す。
処理部354は、タッチセンサからの入力に基づいて、指を表示パネル352に最初に接触させた表示パネル352の位置を示す位置信号Q1と、指を表示パネル352から離した表示パネル352の位置を示す位置信号Q2とを生成して制御部330に出力する。
なお、ユーザーは、形状補正を行いたい位置の指定と、指定した位置を移動させる移動方向及び移動距離との入力を複数回繰り返し行ってもよい。この場合、処理部354から制御部330に、位置信号Q1及びQ2のセットが複数セット入力される。
In addition, by a drag-and-drop operation, it is possible to input a designation of a position where shape correction is to be performed and a movement direction and a movement distance to be moved by shape correction.
For example, when a pointing device such as a trackball or a joystick is mounted on the operation display unit 351 of the remote controller 5 or the projector 300, the position to be corrected by the operation of the pointing device and the moving direction to be moved are specified. And the movement distance can be input to the processing unit 354.
Specifically, the user operates the pointing device to move the cursor to the position of the grid point where the shape correction is to be performed, and operates the pointing device while pressing the pointing device to perform shape correction. Move the cursor to the position you want to move the desired grid point. When the movement of the cursor is completed, the user ends the pressing operation of the pointing device that has been pressed.
Based on the input of the pointing device, the processing unit 354 generates a position signal Q1 indicating the position of the display panel 352 where the pressing operation is started, and a position signal Q2 indicating the position of the display panel 352 where the pressing operation is ended. And output to the control unit 330.
In addition, when the display panel 352 is configured as a touch panel in combination with a touch sensor (not shown), the position of the position where shape correction is to be performed by the operation of the user's finger and the movement direction and distance moved by the shape correction are displayed. Can also be entered. Specifically, the user touches the user's finger to the lattice point where the shape correction is to be performed, and the position where the user wants to move the lattice point whose shape is to be corrected while the touched finger is touching the display panel 352. To move. When the user moves the finger to the position to be moved, the user releases the finger that has been touched on the display panel 352 from the display panel 352.
Based on the input from the touch sensor, the processing unit 354 includes a position signal Q1 indicating the position of the display panel 352 where the finger is first brought into contact with the display panel 352, and the position of the display panel 352 where the finger is separated from the display panel 352. Is generated and output to the controller 330.
Note that the user may repeatedly input a designation of a position where shape correction is desired and a movement direction and a movement distance for moving the designated position a plurality of times. In this case, a plurality of sets of position signals Q1 and Q2 are input from the processing unit 354 to the control unit 330.

補正制御部333は、処理部354から位置信号Q1及びQ2が入力されたか否かを判定する(ステップS8)。補正制御部333は、位置信号Q1及びQ2の入力がない場合には(ステップS8/NO)、位置信号Q1及びQ2が入力されるまで待機する。また、補正制御部333は、位置信号Q1及びQ2が入力されると(ステップS8/YES)、まず、入力された位置信号Q1が示す表示パネル352の位置に表示された格子点の番号を特定する(ステップS9)。
補正制御部333は、撮影画像データを表示パネル352に表示させる際に、撮影画像データの画素と、この撮影画像データを表示させた表示パネル352の表示画素とを対応付けた情報を生成している。また、補正制御部333は、撮影画像データの各格子点について、格子点の撮影画像データ上での画素範囲と、この画素範囲の撮影画像データを記憶した記憶部335のアドレス範囲と、この格子点に付された番号とを対応付けた情報を生成している。補正制御部333は、これらの情報に基づいて、ユーザーにより選択された格子点の格子パターン上での番号を特定する。
The correction control unit 333 determines whether or not the position signals Q1 and Q2 are input from the processing unit 354 (step S8). When the position signals Q1 and Q2 are not input (step S8 / NO), the correction control unit 333 stands by until the position signals Q1 and Q2 are input. Further, when the position signals Q1 and Q2 are input (step S8 / YES), the correction control unit 333 first specifies the number of the grid point displayed at the position of the display panel 352 indicated by the input position signal Q1. (Step S9).
When displaying the captured image data on the display panel 352, the correction control unit 333 generates information that associates the pixels of the captured image data with the display pixels of the display panel 352 that displays the captured image data. Yes. Further, the correction control unit 333, for each lattice point of the captured image data, the pixel range of the lattice point on the captured image data, the address range of the storage unit 335 storing the captured image data of the pixel range, and the grid Information in which numbers assigned to points are associated with each other is generated. Based on these pieces of information, the correction control unit 333 identifies the number on the lattice pattern of the lattice point selected by the user.

次に、補正制御部333は、入力された移動方向及び移動距離を特定する(ステップS10)。補正制御部333は、位置信号Q2が示す撮影画像データ上の画素を特定し、特定した画素の撮影画像データ上での位置と、S9で特定した格子点の撮影画像データ上での位置とに基づいて、移動距離及び移動方向を特定する。   Next, the correction control unit 333 identifies the input movement direction and movement distance (step S10). The correction control unit 333 identifies the pixel on the captured image data indicated by the position signal Q2, and determines the position of the identified pixel on the captured image data and the position of the lattice point specified in S9 on the captured image data. Based on this, the moving distance and moving direction are specified.

次に、補正制御部333は、画像処理部342に、画像データの形状補正を指示する(ステップS11)。補正制御部333は、特定した格子点の番号と、移動距離及び移動方向とを画像処理部342に出力して、画像データの形状補正を指示する。   Next, the correction control unit 333 instructs the image processing unit 342 to correct the shape of the image data (step S11). The correction control unit 333 outputs the identified grid point number, movement distance, and movement direction to the image processing unit 342, and instructs the image data shape correction.

形状補正部343には、画像生成部341により生成された格子パターンが入力される。形状補正部343は、制御部330から入力された格子点の番号により、格子パターン上の格子点を特定し、特定した格子点の位置を、制御部330から入力された移動距離及び移動方向に基づいて移動させる。   The lattice pattern generated by the image generation unit 341 is input to the shape correction unit 343. The shape correcting unit 343 specifies the grid point on the grid pattern based on the grid point number input from the control unit 330, and sets the position of the specified grid point in the movement distance and the movement direction input from the control unit 330. Move based on.

図6は、形状補正部343の動作の説明図である。図6(A)は、形状補正前の格子パターンの一部を示し、図6(B)は、形状補正後の格子パターンの一部を示す。
例えば、補正制御部333から入力された格子点の番号が、図6(A)に示す格子点P2であり、移動距離及び移動方向が、図6(A)に矢印で示す距離及び方向であったとする。形状補正部343は、入力された移動距離及び移動方向に従って、格子点P2の位置を、図6(B)に示す位置に移動させる。移動後の格子点を格子点P2’と表記する。
次に形状補正部343は、移動前の格子点P1、P2、P3、P4により特定される四辺形の領域に表示していた画像データAの形状が、移動後の格子点P1、P2’、P3、P4により特定される四辺形の領域に対応するように画像データAの形状補正を行う。また、形状補正部343は、移動前の格子点P2、P3、P6、P7により特定される四辺形の領域に表示していた画像データAの形状が、移動後の格子点P2’、P3、P6、P7により特定される四辺形の領域に対応するように画像データAの形状補正を行う。なお、画像データの形状補正については、特開2013−78001号公報に開示がある。
FIG. 6 is an explanatory diagram of the operation of the shape correction unit 343. FIG. 6A shows a part of the lattice pattern before the shape correction, and FIG. 6B shows a part of the lattice pattern after the shape correction.
For example, the grid point number input from the correction control unit 333 is the grid point P2 shown in FIG. 6A, and the movement distance and the movement direction are the distance and direction indicated by the arrows in FIG. Suppose. The shape correcting unit 343 moves the position of the lattice point P2 to the position shown in FIG. 6B according to the input moving distance and moving direction. The moved grid point is denoted as grid point P2 ′.
Next, the shape correcting unit 343 determines that the shape of the image data A displayed in the quadrilateral area specified by the grid points P1, P2, P3, and P4 before the movement is the grid points P1, P2 ′, The shape correction of the image data A is performed so as to correspond to the quadrilateral area specified by P3 and P4. In addition, the shape correction unit 343 determines that the shape of the image data A displayed in the quadrilateral area specified by the grid points P2, P3, P6, and P7 before the movement is the grid points P2 ′, P3, The shape correction of the image data A is performed so as to correspond to the quadrilateral area specified by P6 and P7. Note that the shape correction of image data is disclosed in Japanese Patent Application Laid-Open No. 2013-78001.

次に、補正制御部333は、形状補正部343により形状補正された重畳画像データ(形状補正された画像データAに、形状補正された格子パターンが重畳された画像データ)を、表示パネル352に表示させる(ステップS12)。   Next, the correction control unit 333 causes the superimposed image data (image data obtained by superimposing the shape-corrected grid pattern on the shape-corrected image data A) to be displayed on the display panel 352 by the shape correction unit 343. It is displayed (step S12).

次に、補正制御部333は、リモコン5又は操作表示部351に設けられた確定キーが押下された場合に処理部354から入力される確定信号が入力されたか否かを判定する(ステップS13)。補正制御部333は、確定信号が入力されることで、画像データAに対する形状補正を終了と判定する。また、確定信号が入力されない場合(ステップS13/NO)、補正制御部333は、処理部354から位置信号Q1及びQ2が入力されたか否かを判定する(ステップS14)。補正制御部333は、位置信号Q1及びQ2の入力がない場合(ステップS14/NO)、ステップS13の判定に戻る。また、補正制御部333は、位置Q1及びQ2が入力された場合(ステップS14/YES)、処理をステップS9に移行させ、ステップS9以降の処理を実行する。   Next, the correction control unit 333 determines whether or not a confirmation signal input from the processing unit 354 when a confirmation key provided on the remote controller 5 or the operation display unit 351 is pressed is input (step S13). . The correction control unit 333 determines that the shape correction for the image data A is finished when the confirmation signal is input. When the determination signal is not input (step S13 / NO), the correction control unit 333 determines whether or not the position signals Q1 and Q2 are input from the processing unit 354 (step S14). If the position signals Q1 and Q2 are not input (step S14 / NO), the correction control unit 333 returns to the determination in step S13. Further, when the positions Q1 and Q2 are input (step S14 / YES), the correction control unit 333 shifts the process to step S9, and executes the processes after step S9.

また、補正制御部333は、ステップS13の判定において、確定信号が入力されたと判定した場合(ステップS13/YES)、画像データAに対する補正パラメーター(第1の補正パラメーターと、第2の補正パラメーターとに相当する)として、移動させた格子点の番号、格子点の移動前の位置(格子パターン上の位置)、移動距離及び移動方向を記憶部335に記憶させる。
次に、補正制御部333は、事前に設定されたすべての右腕103の位置で、補正パラメーターを生成したか否かを判定する(ステップS15)。補正制御部333は、被写体装置100の右腕103が、位置A、位置B、位置C、・・・、のすべての位置に位置する場合の補正パラメーター(第1の補正パラメーターと、第2の補正パラメーターとに相当する)を生成したか否かを判定する。肯定判定の場合(ステップS15/YES)、補正制御部333は、このパラメーター生成モードを終了させる。また、否定判定の場合(ステップS15/NO)、補正制御部333は、被写体制御装置200に、被写体装置100の右腕103の位置変更を要求する位置変更信号を送信する(ステップS16)。その後、補正制御部333は、被写体装置100の右腕103の位置の変更が完了した旨を通知する変更完了信号を無線通信部355から入力したか否かを判定する(ステップS17)。無線通信部355は、被写体制御装置200から変更完了信号を受信すると、受信した変更完了信号を補正制御部333に出力する。補正制御部333は、変更完了信号が入力されない場合(ステップS17/NO)、変更完了信号が入力されるまで待機する。また、補正制御部333は、被写体制御装置200から変更完了信号が入力された場合(ステップS17/YES)、記憶部335から次の画像データ、例えば、右腕103が位置Bに位置する場合の画像データBを取り出して、画像生成部341に出力する。この後、画像生成部341により、画像データBに格子パターンを重畳した重畳画像データが生成され(ステップS4)、投射制御部331により重畳画像が被写体装置100に投射される(ステップS5)。そして、プロジェクター300は、ステップS6以降の処理を繰り返す。
When the correction control unit 333 determines in step S13 that a confirmation signal has been input (step S13 / YES), the correction parameters for the image data A (first correction parameter, second correction parameter, and The storage unit 335 stores the number of the moved grid point, the position before moving the grid point (position on the grid pattern), the moving distance, and the moving direction.
Next, the correction control unit 333 determines whether correction parameters have been generated at all the positions of the right arm 103 set in advance (step S15). The correction control unit 333 corrects correction parameters (first correction parameter and second correction parameter) when the right arm 103 of the subject device 100 is positioned at all positions A, B, C,. (Corresponding to the parameter) is generated. In the case of an affirmative determination (step S15 / YES), the correction control unit 333 ends this parameter generation mode. If the determination is negative (step S15 / NO), the correction control unit 333 transmits a position change signal for requesting the position change of the right arm 103 of the subject device 100 to the subject control device 200 (step S16). Thereafter, the correction control unit 333 determines whether or not a change completion signal notifying that the change of the position of the right arm 103 of the subject device 100 has been completed is input from the wireless communication unit 355 (step S17). Upon receiving the change completion signal from the subject control device 200, the wireless communication unit 355 outputs the received change completion signal to the correction control unit 333. When the change completion signal is not input (step S17 / NO), the correction control unit 333 waits until the change completion signal is input. In addition, when a change completion signal is input from the subject control device 200 (step S17 / YES), the correction control unit 333 receives the next image data from the storage unit 335, for example, an image when the right arm 103 is positioned at the position B. Data B is extracted and output to the image generation unit 341. Thereafter, the image generation unit 341 generates superimposed image data in which a lattice pattern is superimposed on the image data B (step S4), and the projection control unit 331 projects the superimposed image onto the subject device 100 (step S5). Then, the projector 300 repeats the processes after step S6.

プロジェクター300は、上記の処理を、位置A、位置B、位置C、・・・、のそれぞれの位置で繰り返し行い、各位置に対応する補正パラメーターを生成して、各位置での補正パラメーターとして記憶部335に記憶させる。   The projector 300 repeats the above processing at each of the positions A, B, C,..., Generates correction parameters corresponding to each position, and stores them as correction parameters at each position. Stored in the unit 335.

プロジェクター300の制御部330は、補正パラメーターの生成が終了すると、補正パラメーターの生成が終了した旨を表示パネル352に表示させてもよい。また、制御部330は、補正パラメーターの生成が終了した旨を被写体制御装置200に通知して、プロジェクター300の動作モードを画像投射モードに切り替えてもよい。
表示パネル352に、補正パラメーターの生成が終了した旨が表示されることで、ユーザーは、被写体制御装置200及びプロジェクター300を、次の画像投射モードに移行させる操作を行うことができる。また、補正パラメーターの生成が終了した旨の通知をプロジェクター300から受信した被写体制御装置200は、動作モードを画像投射モードに変更させることができる。
When the generation of the correction parameter is completed, the control unit 330 of the projector 300 may display on the display panel 352 that the generation of the correction parameter is completed. In addition, the control unit 330 may notify the subject control device 200 that the generation of the correction parameter has ended, and switch the operation mode of the projector 300 to the image projection mode.
By displaying on the display panel 352 that the generation of the correction parameters has been completed, the user can perform an operation of shifting the subject control device 200 and the projector 300 to the next image projection mode. In addition, the subject control apparatus 200 that has received the notification that the generation of the correction parameter has been completed from the projector 300 can change the operation mode to the image projection mode.

図7は、画像投射モードにおけるプロジェクター300の動作を示すフローチャートである。
画像投射モードに移行すると、被写体制御装置200の制御装置側制御部202は、被写体装置100に制御信号を送信して(ステップS21)、パラメーター生成モードにより上に持ち上げた被写体装置100の右腕103を下に下ろさせる。すなわち、制御装置側制御部202は、被写体装置100の右腕103が位置Aに位置するように被写体装置100を制御する。次に、制御装置側制御部202は、プロジェクター300に通知信号を送信する(ステップS22)。
FIG. 7 is a flowchart showing the operation of the projector 300 in the image projection mode.
When shifting to the image projection mode, the control device-side control unit 202 of the subject control device 200 transmits a control signal to the subject device 100 (step S21), and moves the right arm 103 of the subject device 100 lifted upward in the parameter generation mode. Let it go down. That is, the control device-side control unit 202 controls the subject device 100 so that the right arm 103 of the subject device 100 is positioned at the position A. Next, the control device side control unit 202 transmits a notification signal to the projector 300 (step S22).

画像投射モードでは、補正制御部333は、無線通信部355から通知信号が入力されたか否かを判定する(ステップS31)。無線通信部355は、被写体制御装置200から送信される通知信号を受信すると、受信した通知信号を補正制御部333に出力する。
補正制御部333は、通知信号が入力されていない場合(ステップS31/NO)、処理部354から、画像投射モードを終了させる操作を受け付けたことを示す信号(以下、第1終了信号という)が入力されたか否かを判定する(ステップS34)。処理部354は、操作表示部351の操作ボタン又はリモコン5により、画像投射モードを終了させる操作を受け付けた場合、第1終了信号を生成して制御部330に出力する。補正制御部333は、処理部354から第1終了信号が入力されると(ステップS34/YES)、画像投射モードを終了させて、この処理フローを終了させる。また、補正制御部333は、第1終了信号が入力されていない場合(ステップS34/NO)、ステップS31に戻り、通知信号が入力されたか否かを判定する。
In the image projection mode, the correction control unit 333 determines whether a notification signal is input from the wireless communication unit 355 (step S31). Upon receiving the notification signal transmitted from the subject control device 200, the wireless communication unit 355 outputs the received notification signal to the correction control unit 333.
When the notification signal is not input (step S31 / NO), the correction control unit 333 receives a signal (hereinafter referred to as a first end signal) indicating that an operation for ending the image projection mode has been received from the processing unit 354. It is determined whether or not an input has been made (step S34). When the operation button of the operation display unit 351 or the remote controller 5 receives an operation for ending the image projection mode, the processing unit 354 generates a first end signal and outputs it to the control unit 330. When the first end signal is input from the processing unit 354 (step S34 / YES), the correction control unit 333 ends the image projection mode and ends this processing flow. Further, when the first end signal is not input (step S34 / NO), the correction control unit 333 returns to step S31 and determines whether or not the notification signal is input.

また、補正制御部333は、通知信号が入力された場合(ステップS31/YES)、位置Aに対応した画像データA及び位置Aに対応した補正パラメーターを記憶部335から読み出して、画像処理部342に出力する。画像処理部342の形状補正部343は、入力された画像データAを、入力された補正パラメーターを用いて形状補正する(ステップS32)。形状補正された画像データAは、フレームメモリー345から読み出されて、表示画像データとして光変調装置駆動部322に出力される。この後、光変調装置駆動部322が、入力された表示画像データに基づきR,G,Bの画像信号を生成し、生成した画像信号に基づいて光変調装置312の液晶パネルを駆動して液晶パネルに画像を描画する。これにより、形状補正部343により形状補正された画像データAが被写体装置100に投射される(ステップS33)。この後、補正制御部333は、通知信号が入力されたか否かを引き続き判定する(ステップS31)。通知信号が入力されると、位置Bに対応した画像データB及び位置Bに対応した補正パラメーターを記憶部335から読み出して、形状補正部343に形状補正を実行させる。形状補正された画像データは、表示画像データとして表示部310に出力され、表示部310により被写体装置100に投射される。   Further, when the notification signal is input (step S31 / YES), the correction control unit 333 reads the image data A corresponding to the position A and the correction parameter corresponding to the position A from the storage unit 335, and the image processing unit 342. Output to. The shape correcting unit 343 of the image processing unit 342 corrects the shape of the input image data A using the input correction parameter (step S32). The shape-corrected image data A is read from the frame memory 345 and output to the light modulator driving unit 322 as display image data. Thereafter, the light modulation device driving unit 322 generates R, G, B image signals based on the input display image data, and drives the liquid crystal panel of the light modulation device 312 based on the generated image signals. Draw an image on the panel. As a result, the image data A whose shape has been corrected by the shape correcting unit 343 is projected onto the subject device 100 (step S33). Thereafter, the correction control unit 333 continues to determine whether or not a notification signal has been input (step S31). When the notification signal is input, the image data B corresponding to the position B and the correction parameter corresponding to the position B are read from the storage unit 335, and the shape correction unit 343 performs shape correction. The shape-corrected image data is output to the display unit 310 as display image data, and is projected onto the subject device 100 by the display unit 310.

このように、補正制御部333は、通知信号が入力されるたびに、予め設定された順に、補正パラメーター及び画像データを記憶部335から読み出し、形状補正部343に形状補正させる。また、補正制御部333は、記憶部335に記憶された補正パラメーター及び画像データを予め設定された順番で全て読み出すと、今度は読み出す順番を逆にして、最後に記憶部335から読み出した補正パラメーター及び画像データから順に読み出して、形状補正部343に形状補正を指示していく。
なお、右腕103の位置を位置Aから位置Bに変化させる場合、位置Aの補正パラメーター及び画像データAが本発明の第1の補正パラメーター及び第1の画像データに相当し、位置Bの補正パラメーター及び画像データBが本発明の第2の補正パラメーター及び第2の画像データに相当する。また、右腕103の位置を位置Bから位置Aに変化させる場合、位置Bの補正パラメーター及び画像データBが本発明の第1の補正パラメーター及び第1の画像データに相当し、位置Aの補正パラメーター及び画像データAが本発明の第2の補正パラメーター及び第2の画像データに相当する。
Thus, every time a notification signal is input, the correction control unit 333 reads the correction parameters and the image data from the storage unit 335 in the preset order, and causes the shape correction unit 343 to correct the shape. When the correction control unit 333 reads all the correction parameters and image data stored in the storage unit 335 in a preset order, the correction control unit 333 reverses the reading order, and finally reads the correction parameters read from the storage unit 335. And the image data are sequentially read out and the shape correction unit 343 is instructed to correct the shape.
When the position of the right arm 103 is changed from the position A to the position B, the correction parameter of the position A and the image data A correspond to the first correction parameter and the first image data of the present invention, and the correction parameter of the position B And the image data B correspond to the second correction parameter and the second image data of the present invention. When the position of the right arm 103 is changed from the position B to the position A, the correction parameter for the position B and the image data B correspond to the first correction parameter and the first image data of the present invention, and the correction parameter for the position A. The image data A corresponds to the second correction parameter and the second image data of the present invention.

また、制御装置側制御部202は、プロジェクター300に通知信号を送信すると(ステップS22)、通知信号の送信から予め設定されたタイミングで被写体装置100に制御信号を送信し(ステップS23)、被写体装置100の右腕103を動作させる。制御装置側制御部202が、制御信号を被写体装置100に送信するタイミングは、プロジェクター300への通知信号の送信と同時であってもよいし、プロジェクター300が画像データを補正パラメーターにより補正する時間を考慮して、通知信号の送信から予め設定された時間を経過した後であってもよい。すなわち、被写体装置100の右腕103の移動が完了するタイミングと、プロジェクター300が形状補正した画像を被写体装置100に投射するタイミングとが合うように、制御信号を被写体装置100に送信する。従って、被写体装置100の右腕103の動きに合わせた画像を、プロジェクター300により投射することができる。   Further, when the control device side control unit 202 transmits a notification signal to the projector 300 (step S22), the control device side control unit 202 transmits a control signal to the subject device 100 at a preset timing from the transmission of the notification signal (step S23). 100 right arms 103 are operated. The timing at which the control device-side control unit 202 transmits the control signal to the subject device 100 may be simultaneous with the transmission of the notification signal to the projector 300, or the time when the projector 300 corrects the image data with the correction parameter. In consideration, it may be after a preset time has elapsed since the transmission of the notification signal. That is, the control signal is transmitted to the subject apparatus 100 so that the timing at which the movement of the right arm 103 of the subject apparatus 100 is completed matches the timing at which the projector 300 projects the image whose shape has been corrected. Therefore, an image that matches the movement of the right arm 103 of the subject device 100 can be projected by the projector 300.

次に、制御装置側制御部202は、制御信号を被写体装置100に送信すると、通知信号をプロジェクター300に送信してからの経過時間が、予め設定された設定時間を経過するまで通知信号の送信を待機する(ステップS24)。制御装置側制御部202は、設定時間が経過していない場合(ステップS24/NO)、操作部203から、画像投射モードを終了させる操作を受け付けたことを示す信号(以下、第2終了信号という)を入力したか否かを判定する(ステップS25)。操作部203は、画像投射モードを終了させる操作を受け付けた場合、第2終了信号を生成して制御装置側制御部202に出力する。制御装置側制御部202は、操作部203から第2終了信号が入力されると(ステップS25/YES)、画像投射モードを終了させて、この処理フローを終了させる。また、制御装置側制御部202は、第2終了信号の入力が検出されない場合(ステップS25/NO)、ステップS24に戻り、設定時間を経過したか否かを判定する。
また、制御装置側制御部202は、設定時間を経過したと判定すると(ステップS24/YES)、ステップS22に戻り、通知信号をプロジェクター300に送信して(ステップS22)、予め設定されたタイミングで被写体装置100に制御信号を送信する(ステップS23)。
Next, when the control device side control unit 202 transmits the control signal to the subject device 100, the control device side control unit 202 transmits the notification signal until the elapsed time after transmitting the notification signal to the projector 300 has passed a preset set time. (Step S24). When the set time has not elapsed (step S24 / NO), the control device side control unit 202 receives a signal indicating that an operation for ending the image projection mode has been received from the operation unit 203 (hereinafter referred to as a second end signal). ) Is input (step S25). When the operation unit 203 receives an operation for ending the image projection mode, the operation unit 203 generates a second end signal and outputs the second end signal to the control device side control unit 202. When the second end signal is input from the operation unit 203 (step S25 / YES), the control device side control unit 202 ends the image projection mode and ends this processing flow. Further, when the input of the second end signal is not detected (step S25 / NO), the control device side control unit 202 returns to step S24 and determines whether or not the set time has elapsed.
If the control device side control unit 202 determines that the set time has elapsed (step S24 / YES), it returns to step S22, transmits a notification signal to the projector 300 (step S22), and at a preset timing. A control signal is transmitted to the subject apparatus 100 (step S23).

上述した実施形態では、事前に設定された右腕103の位置(位置A、位置B、位置C、・・・)で、各位置で被写体装置100に投射する画像データAの形状を補正する補正パラメーターを生成した。
さらに、被写体装置100の右腕103を、事前に設定された位置と位置との間の位置(以下、中間位置という)でも停止させて、停止させた被写体装置100に画像を投射する場合、画像データの形状を、右腕103が中間位置に位置する被写体装置100の形状に対応させる補正パラーターを生成するとよい。この場合、中間位置での補正パラメーターは、事前に設定された位置で生成した補正パラメーターを補間演算して生成するとよい。
例えば、位置Aと位置Bとの間の中間位置の補正パラメーターを生成する場合、補正制御部333は、位置Aに対応した補正パラメーターと、位置Bに対応した補正パラメーターとを補間演算して、中間位置での補正パラメーターを生成する。補正制御部333は、補間演算により算出した補正パラメーターを、記憶部335に記憶させる。また、位置Aと位置Bとの間の中間位置で被写体装置100の右腕103に投射する画像データは、画像データAを用いてもよいし、画像データBを用いてもよい。また、事前に設定された位置(例えば、位置A、位置B、位置C、・・・)の画像データとは別に、画像データを用意してもよい。
In the embodiment described above, the correction parameter for correcting the shape of the image data A projected on the subject device 100 at each position at the position (position A, position B, position C,...) Of the right arm 103 set in advance. Was generated.
Further, when the right arm 103 of the subject device 100 is stopped at a position between the preset positions (hereinafter referred to as an intermediate position) and an image is projected onto the stopped subject device 100, image data It is preferable to generate a correction parameter that corresponds to the shape of the subject device 100 in which the right arm 103 is positioned at the intermediate position. In this case, the correction parameter at the intermediate position may be generated by performing an interpolation operation on the correction parameter generated at a preset position.
For example, when generating a correction parameter for an intermediate position between the position A and the position B, the correction control unit 333 interpolates a correction parameter corresponding to the position A and a correction parameter corresponding to the position B, and Generate correction parameters at intermediate positions. The correction control unit 333 causes the storage unit 335 to store the correction parameter calculated by the interpolation calculation. Further, image data A or image data B may be used as the image data projected onto the right arm 103 of the subject apparatus 100 at an intermediate position between the position A and the position B. In addition, image data may be prepared separately from image data of positions set in advance (for example, position A, position B, position C,...).

[第2実施形態]
図8は、本実施形態のシステム構成を示すブロック図である。
本実施形態は、プロジェクター300に画像データを供給する画像供給装置400を新たに設けた構成である。本実施形態は、プロジェクター300と画像供給装置400とを、有線接続した構成を示すが、無線であってもよい。画像供給装置400は、無線通信部(図示略)を備え、被写体制御装置200から送信される通知信号を受信する。
[Second Embodiment]
FIG. 8 is a block diagram showing the system configuration of this embodiment.
In this embodiment, an image supply device 400 that supplies image data to the projector 300 is newly provided. The present embodiment shows a configuration in which the projector 300 and the image supply device 400 are connected by wire, but may be wireless. The image supply device 400 includes a wireless communication unit (not shown) and receives a notification signal transmitted from the subject control device 200.

パラメーター生成モードにおいては、プロジェクター300は、画像供給装置400から補正パラメーターを生成する対象となる画像データを取得して、取得した画像データに、上述した格子パターンを重畳した重畳画像データを生成して、被写体装置100に投射する。   In the parameter generation mode, the projector 300 acquires image data that is a target for generating correction parameters from the image supply device 400, and generates superimposed image data in which the lattice pattern described above is superimposed on the acquired image data. And projected onto the subject device 100.

また、画像投射システム1の動作モードが画像投射モードに移行し、被写体制御装置200から通知信号を受信した場合、画像供給装置400は、通知信号を受信するごとに、画像データA、画像データB、画像データC、・・・、と事前に設定された順番で、画像データをプロジェクター300に出力する。プロジェクター300は、画像供給装置400から入力される画像データを、対応する補正パラメーターにより形状補正して、被写体装置100に投射する。
また、被写体制御装置200から送信される通知信号に、被写体装置100の右腕103の位置を示す情報が重畳されている場合、通知信号に重畳された情報に基づいて、被写体装置100の右腕103の位置に対応した画像データを取り出してプロジェクター300に送信する。プロジェクター300は、受信した通知信号に重畳された情報に基づいて、被写体装置100の右腕103の位置に対応した補正パラメーターを取り出し、画像供給装置400から入力される画像データを、取り出した補正パラメーターにより形状補正する。プロジェクター300は、形状補正した画像データを被写体装置100に投射する。
Further, when the operation mode of the image projection system 1 shifts to the image projection mode and a notification signal is received from the subject control device 200, the image supply device 400 receives the image data A and the image data B every time the notification signal is received. , Image data C,... Are output to the projector 300 in the order set in advance. The projector 300 corrects the shape of the image data input from the image supply device 400 using a corresponding correction parameter, and projects the image data onto the subject device 100.
When information indicating the position of the right arm 103 of the subject device 100 is superimposed on the notification signal transmitted from the subject control device 200, the right arm 103 of the subject device 100 is based on the information superimposed on the notification signal. Image data corresponding to the position is extracted and transmitted to the projector 300. Based on the information superimposed on the received notification signal, the projector 300 extracts a correction parameter corresponding to the position of the right arm 103 of the subject device 100, and converts the image data input from the image supply device 400 according to the extracted correction parameter. Correct the shape. The projector 300 projects the shape-corrected image data on the subject device 100.

上述した第1及び第2実施形態では、被写体制御装置200が、被写体装置100の右腕103を動作させることを通知する通知信号を生成して、プロジェクター300に送信していたが、プロジェクター300が、画像供給装置400から画像データが入力されると、通知信号を生成して被写体制御装置200に送信するようにしてもよい。通知信号を受信した被写体制御装置200は、制御信号を被写体装置100に送信して、受信した通知信号に同期するように被写体装置100を動作させる。   In the first and second embodiments described above, the subject control device 200 generates a notification signal for notifying that the right arm 103 of the subject device 100 is operated and transmits the notification signal to the projector 300. When image data is input from the image supply device 400, a notification signal may be generated and transmitted to the subject control device 200. The subject control device 200 that has received the notification signal transmits the control signal to the subject device 100 and causes the subject device 100 to operate in synchronization with the received notification signal.

以上詳細に説明したように各実施形態のプロジェクター300は、記憶部335と、形状補正部343と、無線通信部355と、制御部330と、表示部310とを備える。
記憶部335は、第1の補正パラメーターと、第1の補正パラメーターとは異なる第2の補正パラメーターとを記憶する。形状補正部343は、第1の補正パラメーター又は第2の補正パラメーターに基づいて画像データを補正する。無線通信部355は、補正パラメーターの切り替えを指示する通知信号を受信する。制御部330は、無線通信部355が受信した通知信号に基づいて、形状補正部343が画像データの補正に用いる補正パラメーターを第1の補正パラメーターから第2の補正パラメーターに切り替える。表示部310は、形状補正部343によって補正された画像データに基づく画像を被写体装置100に投射する。従って、被写体装置100に対応して補正した画像が投射されるまでの時間を短縮させることができる。
As described above in detail, the projector 300 according to each embodiment includes the storage unit 335, the shape correction unit 343, the wireless communication unit 355, the control unit 330, and the display unit 310.
The storage unit 335 stores a first correction parameter and a second correction parameter that is different from the first correction parameter. The shape correction unit 343 corrects the image data based on the first correction parameter or the second correction parameter. The wireless communication unit 355 receives a notification signal instructing switching of correction parameters. Based on the notification signal received by the wireless communication unit 355, the control unit 330 switches the correction parameter used by the shape correction unit 343 to correct the image data from the first correction parameter to the second correction parameter. The display unit 310 projects an image based on the image data corrected by the shape correction unit 343 onto the subject device 100. Accordingly, it is possible to shorten the time until the image corrected corresponding to the subject device 100 is projected.

また、形状補正部343は、第1の補正パラメーター又は第2の補正パラメーターを用いて、画像データに基づく画像の形状を補正する。従って、被写体装置100に投射される画像の形状を、被写体装置100に対応した形状に補正することができる。   The shape correction unit 343 corrects the shape of the image based on the image data using the first correction parameter or the second correction parameter. Accordingly, the shape of the image projected on the subject device 100 can be corrected to a shape corresponding to the subject device 100.

また、形状補正部343は、制御部330により切り替えられた補正パラメーターを用いて、画像データに基づく画像の形状を、被写体装置100の動きに対応した形状に補正する。従って、被写体装置100に動きがある場合であっても、画像データの形状を、動きに対応した形状に補正して、被写体装置100に投射することができる。   Further, the shape correction unit 343 corrects the shape of the image based on the image data to a shape corresponding to the movement of the subject device 100 using the correction parameter switched by the control unit 330. Therefore, even when the subject apparatus 100 has a motion, the shape of the image data can be corrected to a shape corresponding to the motion and projected onto the subject device 100.

また、形状補正部343は、被写体装置100の動作する右腕103が第1の位置にある場合、第1の補正パラメーターに基づいて、画像データに基づく画像の形状を、右腕103が第1の位置にある被写体装置100の形状に対応した形状に補正する。また、形状補正部343は、被写体装置100の右腕103が第2の位置にある場合、第2の補正パラメーターに基づいて、画像データに基づく画像の形状を、右腕103が第2の位置にある被写体装置100の形状に対応した形状に補正する。
従って、右腕103の各位置に対応した補正パラメーターを用意して、各位置に対応した補正パラメーターを用いて画像データを補正するので、画像データの形状を、被写体装置100の形状に対応するように補正することができる。また、被写体装置100に対応した画像が投射されるまでの時間を短縮させることができる。
In addition, when the right arm 103 on which the subject apparatus 100 operates is in the first position, the shape correction unit 343 determines the shape of the image based on the image data based on the first correction parameter, and the right arm 103 has the first position. Is corrected to a shape corresponding to the shape of the subject device 100. Further, when the right arm 103 of the subject device 100 is in the second position, the shape correcting unit 343 determines the shape of the image based on the image data based on the second correction parameter, and the right arm 103 is in the second position. A shape corresponding to the shape of the subject device 100 is corrected.
Accordingly, correction parameters corresponding to each position of the right arm 103 are prepared, and the image data is corrected using the correction parameters corresponding to each position, so that the shape of the image data corresponds to the shape of the subject device 100. It can be corrected. Further, the time until an image corresponding to the subject device 100 is projected can be shortened.

また、制御部330は、第1の補正パラメーターと、第1の補正パラメーターとは異なる第2の補正パラメーターとを用いた補間演算により補正パラメーターを生成する。形状補正部343は、被写体装置100の右腕103が第1の位置と第2の位置との中間に位置する場合、制御部330が生成した補正パラメーターに基づいて、画像データに基づく画像の形状を、右腕103が第1の位置と第2の位置との中間の位置にある被写体装置100の形状に対応した形状に補正する。従って、右腕103が第1の位置と第2の位置との中間の位置に位置する場合であっても被写体装置100の形状に対応した画像を投射することができる。   In addition, the control unit 330 generates a correction parameter by an interpolation calculation using the first correction parameter and a second correction parameter different from the first correction parameter. When the right arm 103 of the subject device 100 is positioned between the first position and the second position, the shape correction unit 343 changes the shape of the image based on the image data based on the correction parameter generated by the control unit 330. The right arm 103 is corrected to a shape corresponding to the shape of the subject device 100 in the middle position between the first position and the second position. Therefore, an image corresponding to the shape of the subject device 100 can be projected even when the right arm 103 is located at an intermediate position between the first position and the second position.

また、形状補正部343は、被写体装置100の右腕103が第1の位置にある場合、右腕103が第1の位置にある被写体装置100の形状に対応した第1の画像データの形状を、第1の補正パラメーターに基づいて補正する。また、形状補正部343は、被写体装置100の右腕103が第2の位置にある場合、右腕103が第2の位置にある被写体装置100の形状に対応した第2の画像データの形状を、第2の補正パラメーターに基づいて補正する。
従って、被写体装置100の右腕103の各位置に対応した補正パラメーター及び画像データを用意して、右腕103の各位置に対応した補正パラメーターを用いて、対応する画像データを補正する。このため、画像データの形状を、被写体装置100の形状に対応するように補正することができ、さらに、被写体装置100に対応した画像が投射されるまでの時間を短縮させることができる。
In addition, when the right arm 103 of the subject device 100 is in the first position, the shape correction unit 343 determines the shape of the first image data corresponding to the shape of the subject device 100 in which the right arm 103 is in the first position. Correction is performed based on the correction parameter of 1. In addition, when the right arm 103 of the subject device 100 is in the second position, the shape correcting unit 343 determines the shape of the second image data corresponding to the shape of the subject device 100 in which the right arm 103 is in the second position. Correction based on the correction parameter of 2.
Accordingly, correction parameters and image data corresponding to each position of the right arm 103 of the subject device 100 are prepared, and the corresponding image data is corrected using the correction parameters corresponding to each position of the right arm 103. Therefore, the shape of the image data can be corrected so as to correspond to the shape of the subject device 100, and the time until an image corresponding to the subject device 100 is projected can be shortened.

上述した各実施形態は、本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々の変形実施が可能である。
例えば、上述した各実施形態では、プロジェクター300の撮影部356が撮影した撮影画像により形状補正を指示していたが、スマートフォン等の携帯端末を用いて形状補正を指示する情報を生成してプロジェクター300に送信してもよい。
ユーザーは、携帯端末のカメラを用いて、重畳画像データによって表される画像が投射された被写体装置100を撮影する。また、携帯端末に表示された、被写体装置100を撮影した撮影画像を目視しながら、形状補正を行う格子点と、格子点の移動方向及び移動距離とを指示する入力を携帯端末により行う。携帯端末は、ユーザーにより入力された格子点を特定する情報と、格子点の移動方向及び移動距離とを指定する情報を生成してプロジェクター300に送信する。プロジェクター300は、携帯端末から送信される情報を受信して、受信した情報により画像データの形状補正を行う。
Each embodiment mentioned above is a suitable embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
For example, in each of the above-described embodiments, shape correction is instructed by a captured image captured by the imaging unit 356 of the projector 300. However, the projector 300 generates information instructing shape correction using a mobile terminal such as a smartphone. May be sent to.
The user uses the camera of the mobile terminal to photograph the subject device 100 on which the image represented by the superimposed image data is projected. In addition, while viewing the captured image of the subject device 100 displayed on the mobile terminal, the mobile terminal performs an input for instructing the grid point for shape correction, the moving direction and the moving distance of the grid point. The mobile terminal generates information specifying the grid point input by the user, and information specifying the moving direction and moving distance of the grid point, and transmits the information to the projector 300. The projector 300 receives information transmitted from the mobile terminal and corrects the shape of the image data based on the received information.

また、上述した各実施形態では、被写体制御装置200がプロジェクター300に通知信号を送信する回数と、被写体制御装置200が被写体装置100に制御信号を送信する回数とは同数であったが、被写体制御装置200がプロジェクター300に通知信号を送信する回数は、制御信号を送信する回数よりも少なくてもよい。
例えば、被写体装置100の右腕103を、予め設定された時間間隔で、予め設定された位置(例えば、位置A、位置B、位置C、・・・、)に、予め設定された順番で動かし、右腕103を上下動させるとする。
この場合、被写体制御装置200は、例えば、被写体装置100の右腕103を一番上まで持ち上げて、持ち上げた右腕103を一番下まで下ろす動作を1周期とし、1周期に1回、通知信号をプロジェクター300に送信するようにしてもよい。また、被写体制御装置200は、半周期に1回、通信信号をプロジェクター300に送信するようにしてもよい。すなわち、被写体制御装置200は、被写体装置100の右腕103を、一番低い位置Aから次の位置Bに動かす際に、プロジェクター300に通知信号を送信し、被写体装置100の右腕103を、一番高い位置から次の位置に動かす際に、プロジェクター300に通知信号を送信するようにしてもよい。
プロジェクター300の制御部330は、被写体装置100の右腕103が、予め設定された時間間隔で、予め設定された位置に、予め設定された順番で動くため、予め設定された順番で、画像データ及び対応する補正パラメーターを記憶部355から読み出して、被写体装置100に投射する。
In each of the above-described embodiments, the number of times that the subject control device 200 transmits a notification signal to the projector 300 is the same as the number of times that the subject control device 200 transmits a control signal to the subject device 100. The number of times that the apparatus 200 transmits the notification signal to the projector 300 may be less than the number of times that the control signal is transmitted.
For example, the right arm 103 of the subject device 100 is moved to a preset position (for example, position A, position B, position C,...) At a preset time interval in a preset order. Assume that the right arm 103 is moved up and down.
In this case, for example, the subject control device 200 raises the right arm 103 of the subject device 100 to the top and lowers the lifted right arm 103 to the bottom for one cycle, and sends a notification signal once per cycle. You may make it transmit to the projector 300. FIG. Further, the subject control apparatus 200 may transmit a communication signal to the projector 300 once every half cycle. In other words, the subject control device 200 transmits a notification signal to the projector 300 when moving the right arm 103 of the subject device 100 from the lowest position A to the next position B, so that the right arm 103 of the subject device 100 is A notification signal may be transmitted to the projector 300 when moving from a higher position to the next position.
The control unit 330 of the projector 300 moves the right arm 103 of the subject device 100 to a preset position at a preset time interval in a preset order. Corresponding correction parameters are read from the storage unit 355 and projected onto the subject device 100.

また、上述した各実施形態では、被写体装置100の右腕103が動作している間、例えば、位置Aから位置Bに移動している間は、位置Aに対応した画像データAを投射していたが、被写体装置100の右腕103が動作している間は、黒色の画像データを被写体装置100に投射してもよい。   Further, in each of the above-described embodiments, the image data A corresponding to the position A is projected while the right arm 103 of the subject device 100 is operating, for example, while the subject apparatus 100 is moving from the position A to the position B. However, black image data may be projected onto the subject device 100 while the right arm 103 of the subject device 100 is operating.

また、上述した各実施形態では、プロジェクター300により形状補正を行っているが、プロジェクター300の代わりに形状補正を別途行う、パーソナルコンピューター等の処理装置を設けた構成であってもよい。この構成の場合、プロジェクター300は、処理装置から送信される、処理装置によって形状補正された画像データを受信して、被写体装置100に受信した画像データに基づく投射画像を投射する。   In each of the above-described embodiments, the shape correction is performed by the projector 300. However, instead of the projector 300, a configuration in which a processing device such as a personal computer that performs shape correction is provided may be used. In the case of this configuration, the projector 300 receives image data transmitted from the processing device and subjected to shape correction by the processing device, and projects a projection image based on the received image data on the subject device 100.

また、上述した各実施形態では、被写体装置100に投射する画像データの形状を補正する場合を例に説明したが、被写体装置100に投射する画像データのシャープネス、色合い及び明るさのいずれか少なくとも1つを補正する構成とすることもできる。
例えば、ユーザーは、プロジェクター300の表示パネル352に表示された重畳画像の撮影画像(すなわち、格子パターンが表示された撮影画像)から4つの格子点を選択してシャープネス、色合い及び明るさのいずれかを補正する補正領域を選択する。
例えば、表示パネル352に、図6(A)に示す格子パターンが表示されている場合、ユーザーは、格子パターンの中からシャープネス等を補正したい領域を格子パターンの中から選択する。ここでは、P1、P2、P5、P6の4つの格子点で囲まれた領域が補正領域として選択されたとする。プロジェクター300は、この補正領域P1、P2、P5、P6に表示させた画像データのシャープネス、色合い及び明るさの少なくとも1つを補正して、補正した画像データを表示パネル352に再度表示させる。
In each of the above-described embodiments, the case where the shape of the image data projected onto the subject device 100 is corrected has been described as an example. However, at least one of sharpness, hue, and brightness of the image data projected onto the subject device 100 is described. It is also possible to correct one.
For example, the user selects four grid points from the captured image of the superimposed image displayed on the display panel 352 of the projector 300 (that is, the captured image on which the grid pattern is displayed), and selects one of sharpness, hue, and brightness. Select the correction area to correct.
For example, when the grid pattern shown in FIG. 6A is displayed on the display panel 352, the user selects an area from which the sharpness or the like is to be corrected from the grid pattern. Here, it is assumed that an area surrounded by four lattice points P1, P2, P5, and P6 is selected as a correction area. The projector 300 corrects at least one of the sharpness, hue, and brightness of the image data displayed in the correction areas P1, P2, P5, and P6, and displays the corrected image data on the display panel 352 again.

また、上述した各実施形態では、事前に設定された被写体装置100の右腕103の位置ごとに、画像データを用意し、この画像データの形状を、被写体装置100の形状に合うように形状補正する補正パラメーターを生成したが、補正対象となる画像データは1つとし、この画像データに基づく画像の形状を、動く被写体装置100の形状に合わせて補正する補正パラメーターを複数用意することもできる。
例えば、被写体装置100が車両であり、プロジェクター300が画像を投射可能な範囲内で、例えば、右から左に走行する(位置を変える)とする。この場合、プロジェクター300は、画像データの形状補正を行って、位置を変える車両に画像データが投射されるようにする。
In each of the above-described embodiments, image data is prepared for each position of the right arm 103 of the subject device 100 set in advance, and the shape of the image data is corrected so as to match the shape of the subject device 100. Although the correction parameter is generated, there is one image data to be corrected, and a plurality of correction parameters for correcting the shape of the image based on this image data in accordance with the shape of the moving subject device 100 may be prepared.
For example, it is assumed that the subject device 100 is a vehicle and the projector 300 travels (changes position) from right to left within a range in which an image can be projected. In this case, the projector 300 corrects the shape of the image data so that the image data is projected onto the vehicle whose position is changed.

また、上記各実施形態では、光源が発した光を変調する光変調装置312として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。また、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調装置312として1枚のみの液晶パネル又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。   In each of the above embodiments, the light modulation device 312 that modulates the light emitted from the light source has been described by taking as an example a configuration using three transmissive liquid crystal panels corresponding to each color of RGB. The invention is not limited to this. For example, a configuration using three reflective liquid crystal panels may be used, or a method in which one liquid crystal panel and a color wheel are combined may be used. Alternatively, a system using three digital mirror devices (DMD), a DMD system combining one digital mirror device and a color wheel, or the like may be used. When only one liquid crystal panel or DMD is used as the light modulation device 312, a member corresponding to a synthetic optical system such as a cross dichroic prism is unnecessary. In addition to the liquid crystal panel and DMD, any light modulation device capable of modulating light emitted from the light source can be employed without any problem.

また、図2及び図3に示した画像投射システム1の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他、画像投射システム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   Each functional unit of the image projection system 1 shown in FIG. 2 and FIG. 3 shows a functional configuration realized by cooperation of hardware and software, and a specific mounting form is particularly limited. Not. Therefore, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to realize a function of a plurality of function units by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, specific detailed configurations of other parts of the image projection system 1 can be arbitrarily changed without departing from the gist of the present invention.

1…画像投射システム、100…被写体装置(投射対象、被写体)、200…被写体制御装置、204…無線通信部(送信部)、300…プロジェクター、310…表示部(投射部)330…制御部、331…投射制御部、332…撮影制御部、333…補正制御部、335…記憶部、342…画像処理部、343…形状補正部(補正部)、355…無線通信部(受信部)、360…画像処理装置。
DESCRIPTION OF SYMBOLS 1 ... Image projection system, 100 ... Subject apparatus (projection object, object), 200 ... Subject control apparatus, 204 ... Wireless communication part (transmission part), 300 ... Projector, 310 ... Display part (projection part) 330 ... Control part, 331 ... Projection control unit, 332 ... Shooting control unit, 333 ... Correction control unit, 335 ... Storage unit, 342 ... Image processing unit, 343 ... Shape correction unit (correction unit), 355 ... Wireless communication unit (reception unit), 360 ... Image processing device.

Claims (11)

第1の補正パラメーターと、前記第1の補正パラメーターとは異なる第2の補正パラメーターとを記憶する記憶部と、
前記第1の補正パラメーター又は前記第2の補正パラメーターに基づいて画像データを補正する補正部と、
補正パラメーターの切り替えを指示する切替信号を受信する受信部と、
前記受信部が受信した前記切替信号に基づいて、前記補正部が前記画像データの補正に用いる補正パラメーターを前記第1の補正パラメーターから前記第2の補正パラメーターに切り替える制御部と、
前記補正部によって補正された前記画像データに基づく画像を投射対象に投射する投射部と、
を備えることを特徴とするプロジェクター。
A storage unit for storing a first correction parameter and a second correction parameter different from the first correction parameter;
A correction unit that corrects image data based on the first correction parameter or the second correction parameter;
A receiving unit for receiving a switching signal instructing switching of the correction parameter;
A control unit that switches a correction parameter used by the correction unit to correct the image data from the first correction parameter to the second correction parameter based on the switching signal received by the reception unit;
A projection unit that projects an image based on the image data corrected by the correction unit onto a projection target;
A projector comprising:
前記補正部は、前記第1の補正パラメーター又は前記第2の補正パラメーターを用いて、前記画像データに基づく画像の形状を補正する、ことを特徴とする請求項1記載のプロジェクター。   The projector according to claim 1, wherein the correction unit corrects the shape of the image based on the image data using the first correction parameter or the second correction parameter. 前記補正部は、前記制御部により切り替えられた前記補正パラメーターを用いて、前記画像データに基づく画像の形状を、前記投射対象の動きに対応した形状に補正する、ことを特徴とする請求項1又は2記載のプロジェクター。   The correction unit corrects the shape of the image based on the image data into a shape corresponding to the movement of the projection target, using the correction parameter switched by the control unit. Or the projector of 2. 前記補正部は、前記投射対象の動作する動作部が第1の位置にある場合、前記第1の補正パラメーターに基づいて、前記画像データに基づく画像の形状を、前記動作部が前記第1の位置にある前記投射対象の形状に対応した形状に補正し、
前記投射対象の前記動作部が第2の位置にある場合、前記第2の補正パラメーターに基づいて、前記画像データに基づく画像の形状を、前記動作部が前記第2の位置にある前記投射対象の形状に対応した形状に補正する、ことを特徴とする請求項3記載のプロジェクター。
When the operation unit that operates the projection target is in the first position, the correction unit determines the shape of the image based on the image data based on the first correction parameter, and the operation unit performs the first operation. Correct to the shape corresponding to the shape of the projection target at the position,
When the operation unit to be projected is in the second position, the projection target has the shape of the image based on the image data based on the second correction parameter, and the projection target in which the operation unit is in the second position. The projector according to claim 3, wherein the projector is corrected to a shape corresponding to the shape of the projector.
前記制御部は、前記第1の補正パラメーターと、前記第1の補正パラメーターとは異なる前記第2の補正パラメーターとを用いた補間演算により補正パラメーターを生成し、
前記補正部は、前記投射対象の前記動作部が前記第1の位置と前記第2の位置との中間に位置する場合、前記制御部が生成した前記補正パラメーターに基づいて、前記画像データに基づく画像の形状を、前記動作部が前記第1の位置と前記第2の位置との中間の位置にある前記投射対象の形状に対応した形状に補正する、ことを特徴とする請求項4記載のプロジェクター。
The control unit generates a correction parameter by an interpolation operation using the first correction parameter and the second correction parameter different from the first correction parameter,
The correction unit is based on the image data based on the correction parameter generated by the control unit when the operation unit to be projected is located between the first position and the second position. The shape of the image is corrected to a shape corresponding to the shape of the projection target at which the operation unit is at an intermediate position between the first position and the second position. projector.
前記補正部は、前記投射対象の前記動作部が前記第1の位置にある場合、前記動作部が前記第1の位置にある前記投射対象の形状に対応した第1の画像データの形状を、前記第1の補正パラメーターに基づいて補正し、前記投射対象の前記動作部が前記第2の位置にある場合、前記動作部が前記第2の位置にある前記投射対象の形状に対応した第2の画像データの形状を、前記第2の補正パラメーターに基づいて補正する、ことを特徴とする請求項4記載のプロジェクター。   When the operation unit to be projected is in the first position, the correction unit has a shape of first image data corresponding to the shape of the projection target in which the operation unit is in the first position. When correction is performed based on the first correction parameter and the operation unit of the projection target is at the second position, the second operation unit corresponds to the shape of the projection target at the second position. The projector according to claim 4, wherein the shape of the image data is corrected based on the second correction parameter. 第1の補正パラメーターと、前記第1の補正パラメーターとは異なる第2の補正パラメーターとを記憶する記憶部と、
前記第1の補正パラメーター又は前記第2の補正パラメーターに基づいて画像データを補正する補正部と、
補正パラメーターの切り替えを指示する切替信号を受信する受信部と、
前記受信部が受信した前記切替信号に基づいて、前記補正部が前記画像データの補正に用いる補正パラメーターを前記第1の補正パラメーターから前記第2の補正パラメーターに切り替える制御部と、
を備えることを特徴とする画像処理装置。
A storage unit for storing a first correction parameter and a second correction parameter different from the first correction parameter;
A correction unit that corrects image data based on the first correction parameter or the second correction parameter;
A receiving unit for receiving a switching signal instructing switching of the correction parameter;
A control unit that switches a correction parameter used by the correction unit to correct the image data from the first correction parameter to the second correction parameter based on the switching signal received by the reception unit;
An image processing apparatus comprising:
被写体の動きを制御する被写体制御装置と、前記被写体に画像を投射するプロジェクターとを備える画像投射システムであって、
前記被写体制御装置は、
前記被写体が動作するタイミングを通知する通知信号を前記プロジェクターに送信する送信部を備え、
前記プロジェクターは、
第1の補正パラメーターと、前記第1の補正パラメーターとは異なる第2の補正パラメーターとを記憶する記憶部と、
前記第1の補正パラメーター又は前記第2の補正パラメーターに基づいて画像データを補正する補正部と、
前記通知信号を受信する受信部と、
前記受信部が受信した前記通知信号に基づいて、前記補正部が前記画像データの補正に用いる補正パラメーターを前記第1の補正パラメーターから前記第2の補正パラメーターに切り替える制御部と、
前記補正部によって補正された前記画像データに基づく画像を前記被写体に投射する投射部と、
を備えることを特徴とする画像投射システム。
An image projection system comprising: a subject control device that controls movement of a subject; and a projector that projects an image onto the subject.
The subject control device includes:
A transmission unit for transmitting a notification signal for notifying the timing of movement of the subject to the projector;
The projector is
A storage unit for storing a first correction parameter and a second correction parameter different from the first correction parameter;
A correction unit that corrects image data based on the first correction parameter or the second correction parameter;
A receiving unit for receiving the notification signal;
Based on the notification signal received by the receiving unit, a control unit that switches the correction parameter used by the correction unit to correct the image data from the first correction parameter to the second correction parameter;
A projection unit that projects an image based on the image data corrected by the correction unit onto the subject;
An image projection system comprising:
前記送信部は、前記被写体の動作する動作部の位置を示す前記通知信号を前記プロジェクターに送信し、
前記制御部は、前記通知信号に基づいて、前記動作部の位置に対応した補正パラメーターに切り替える、ことを特徴とする請求項8記載の画像投射システム。
The transmission unit transmits the notification signal indicating the position of the operation unit in which the subject operates, to the projector,
The image projection system according to claim 8, wherein the control unit switches to a correction parameter corresponding to a position of the operation unit based on the notification signal.
コンピューターに、
補正パラメーターの切り替えを指示する切替信号を受信する手順と、
受信した前記切替信号に従って、画像データの補正に用いる補正パラメーターを、第1の補正パラメーターから、前記第1の補正パラメーターとは異なる第2の補正パラメーターに切り替える手順と、
切り替えられた前記第2の補正パラメーターを用いて前記画像データを補正する手順と、
補正された前記画像データに基づく画像を投射対象に投射する手順と、
を実行させるためのプログラム。
On the computer,
A procedure for receiving a switching signal instructing switching of a correction parameter;
According to the received switching signal, a procedure for switching a correction parameter used for correcting image data from a first correction parameter to a second correction parameter different from the first correction parameter;
A procedure for correcting the image data using the switched second correction parameter;
Projecting an image based on the corrected image data onto a projection target;
A program for running
補正パラメーターの切り替えを指示する切替信号を受信するステップと、
受信した前記切替信号に従って、画像データの補正に用いる補正パラメーターを、第1の補正パラメーターから、前記第1の補正パラメーターとは異なる第2の補正パラメーターに切り替えるステップと、
切り替えられた前記第2の補正パラメーターを用いて前記画像データを補正するステップと、
補正された前記画像データに基づく画像を投射対象に投射するステップと、
を有することを特徴とする画像投射方法。
Receiving a switching signal instructing switching of correction parameters;
Switching a correction parameter used for correction of image data from the first correction parameter to a second correction parameter different from the first correction parameter according to the received switching signal;
Correcting the image data using the switched second correction parameter;
Projecting an image based on the corrected image data onto a projection target;
The image projection method characterized by having.
JP2015150425A 2015-07-30 2015-07-30 Projector, image processing device, image projection system, program and image projection method Pending JP2017032679A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015150425A JP2017032679A (en) 2015-07-30 2015-07-30 Projector, image processing device, image projection system, program and image projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015150425A JP2017032679A (en) 2015-07-30 2015-07-30 Projector, image processing device, image projection system, program and image projection method

Publications (1)

Publication Number Publication Date
JP2017032679A true JP2017032679A (en) 2017-02-09

Family

ID=57987936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015150425A Pending JP2017032679A (en) 2015-07-30 2015-07-30 Projector, image processing device, image projection system, program and image projection method

Country Status (1)

Country Link
JP (1) JP2017032679A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018129764A (en) * 2017-02-10 2018-08-16 学校法人近畿大学 Funeral content image projection system, funeral content image projection method, and program for use therein
JP2019215811A (en) * 2018-06-14 2019-12-19 パナソニックIpマネジメント株式会社 Projection system, image processing apparatus, and projection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018129764A (en) * 2017-02-10 2018-08-16 学校法人近畿大学 Funeral content image projection system, funeral content image projection method, and program for use therein
JP2019215811A (en) * 2018-06-14 2019-12-19 パナソニックIpマネジメント株式会社 Projection system, image processing apparatus, and projection method
JP7145432B2 (en) 2018-06-14 2022-10-03 パナソニックIpマネジメント株式会社 Projection system, image processing device and projection method

Similar Documents

Publication Publication Date Title
US9292945B2 (en) Projector, image display system, and method of controlling projector
US20170142379A1 (en) Image projection system, projector, and control method for image projection system
JP5924042B2 (en) Projector and projector control method
JP6127366B2 (en) Projector and projector control method
JP2012108479A (en) Projection type display device and control method thereof
JP6307852B2 (en) Image display device and method for controlling image display device
JP6624807B2 (en) Image projection device and program
JP6322993B2 (en) Geometric correction adjustment method
JP6343910B2 (en) Projector and projector control method
JP6753049B2 (en) Projector and projector control method.
US9280809B2 (en) Image display apparatus and image adjustment method of image display apparatus
JP6365079B2 (en) Projector and projector adjustment method
JP6330292B2 (en) Projector and projector control method
US10769974B2 (en) Display device, and method of controlling display device
JP2015031817A (en) Projector, and control method of projector
JP2017129728A (en) Image quality correcting method and image projecting system
JP2019117989A (en) Projector, multi-projection system, and projector control method
JP6766716B2 (en) Information processing equipment, image display program, image display method and display system
JP2017032679A (en) Projector, image processing device, image projection system, program and image projection method
JP2018132769A (en) Image display device, and control method of image display device
JP6700955B2 (en) Projection apparatus and projection method
JP2019041250A (en) Display device and control method of display device
JP6347126B2 (en) Projector and projector control method
JP6652116B2 (en) Control device, control method, and control program
JP2021064848A (en) Control device, projection device, projection system, control method of the projection device, program, and storage medium