JPWO2018173183A1 - Optical apparatus control apparatus, optical apparatus control method, and optical apparatus control program - Google Patents

Optical apparatus control apparatus, optical apparatus control method, and optical apparatus control program Download PDF

Info

Publication number
JPWO2018173183A1
JPWO2018173183A1 JP2019506820A JP2019506820A JPWO2018173183A1 JP WO2018173183 A1 JPWO2018173183 A1 JP WO2018173183A1 JP 2019506820 A JP2019506820 A JP 2019506820A JP 2019506820 A JP2019506820 A JP 2019506820A JP WO2018173183 A1 JPWO2018173183 A1 JP WO2018173183A1
Authority
JP
Japan
Prior art keywords
optical devices
arrangement
optical
shadow
device control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019506820A
Other languages
Japanese (ja)
Other versions
JP6641525B2 (en
Inventor
賢人 山▲崎▼
賢人 山▲崎▼
浩平 岡原
浩平 岡原
司 深澤
司 深澤
古木 一朗
一朗 古木
博信 阿倍
博信 阿倍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018173183A1 publication Critical patent/JPWO2018173183A1/en
Application granted granted Critical
Publication of JP6641525B2 publication Critical patent/JP6641525B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Studio Devices (AREA)

Abstract

光学機器制御装置(1)は、対象物(51)上に複数の画像を投影する複数の光学機器(3)とこれらの配置を変更する複数の移動機構(4)とを制御する装置であって、複数の光学機器(3)が対象物上に画像を投影しているときに現実空間情報取得部(5)によって取得された現実空間情報に基づいて、複数の光学機器(3)から投影された画像が対象物上に到達しない領域である影(53)が形成されているか否かを判断し、影が検出されたときに影を形成する物体(52)の配置を示す情報を取得する物体推定部(11)と、物体(52)の配置を示す情報に基づいて、影が形成されない複数の光学機器(3)の配置を計算する配置計算部(12)と、配置計算部(12)によって計算された複数の光学機器(3)の配置に基づいて、影が形成されない位置に複数の光学機器(3)が配置されるように複数の移動機構(4)を制御する移動機構制御部(13)とを有する。The optical device control apparatus (1) is an apparatus for controlling a plurality of optical devices (3) for projecting a plurality of images on an object (51) and a plurality of movement mechanisms (4) for changing the arrangement of these Projection from the plurality of optical devices (3) based on the physical space information acquired by the physical space information acquisition unit (5) when the plurality of optical devices (3) are projecting the image onto the object It is judged whether a shadow (53) is formed, which is an area where the captured image does not reach the object, and information indicating the arrangement of the object (52) forming a shadow when the shadow is detected is obtained An arrangement calculation unit (12) for calculating the arrangement of a plurality of optical devices (3) in which no shadow is formed based on information indicating the arrangement of the object (52) and the object estimation unit (11) 12) based on the arrangement of the plurality of optical devices (3) calculated by A moving mechanism controller which controls a plurality of moving mechanism (4) as a plurality of optical devices to a position where the shadow is not formed (3) is arranged and (13).

Description

本発明は、画像を投影する又は画像を撮影する光学機器と光学機器の配置を変更する移動機構とを制御する光学機器制御装置、光学機器制御方法、及び光学機器制御プログラムに関する。   The present invention relates to an optical device control apparatus, an optical device control method, and an optical device control program for controlling an optical device for projecting an image or capturing an image and a moving mechanism for changing the arrangement of the optical device.

プロジェクタ(画像投影装置)は、投影光学系から出射された投影光を対象物に当てることで、対象物上に画像を表示する光学機器であり、カメラ(撮像装置)は、対象物からカメラに向かう光を撮像面で受光して対象物に基づく画像データを取得する光学機器である。言い換えれば、プロジェクタは、画像データに基づく2次元の画像を3次元の現実空間に投影することで画像を表示し、カメラは、3次元の現実空間の画像を2次元の撮像面に投影することで画像データを生成する。このように、プロジェクタとカメラは、扱う光の進行方向が逆である点を除いて、基本的に類似する光学モデルである。   A projector (image projection apparatus) is an optical apparatus that displays an image on an object by applying projection light emitted from a projection optical system to the object, and a camera (imaging apparatus) changes the object to the camera It is an optical device that receives light traveling by an imaging surface and acquires image data based on an object. In other words, the projector displays an image by projecting a two-dimensional image based on the image data into the three-dimensional real space, and the camera projects the three-dimensional real space image onto the two-dimensional imaging surface To generate image data. Thus, the projector and the camera are basically similar optical models except that the traveling direction of the light to be handled is opposite.

このような光学モデルでは、光学機器と対象物との間の空間に物体(光遮蔽物)が存在する場合に、対象物上に投影された画像内に物体の影が形成され、投影画像の一部が欠落する、又は、撮像面上に投影される画像内に物体が含まれ、対象物の画像の一部が欠落する。   In such an optical model, when an object (light shield) is present in the space between the optical device and the object, the shadow of the object is formed in the image projected on the object, and A part is missing or an object is included in the image projected onto the imaging plane, and a part of the image of the object is missing.

特許文献1は、観視者(ユーザ)に投影画像を提供するために、空中飛行機構部と、プロジェクタ部と、カメラと、カメラの撮影画像から観視者の人数を検出する人数検出部と、観視者の人数に応じて投影画像を表示する場所を決定し、決定した場所に投影画像を表示させるようにプロジェクタ部を制御する制御部とを備えるプロジェクション装置を提案している。   In order to provide a viewer (user) with a projection image, Patent Document 1 discloses an air flight mechanism unit, a projector unit, a camera, and a number detection unit that detects the number of viewers from a photographed image of the camera. According to the present invention, there is proposed a projection apparatus including: a control unit that determines a place to display a projection image according to the number of viewers and controls a projector unit to display the projection image at the determined place.

また、特許文献2は、複数のプロジェクタに対しそれぞれ指示された照度で光学像を投影させる光学投影制御装置を提案している。この装置は、スクリーンとプロジェクタとの間に物体(光遮蔽物)が存在しない状態で光学像をスクリーンに投影して予め撮影した撮像画像データ(光遮蔽物なし時)と、カメラで取得した撮影画像データとの、光量の差に応じた差分画像データを取得し、差分画像データに基づいて、投影画像の一部が遮蔽されているプロジェクタを検出し、投影像が遮蔽されていないプロジェクタの投影像の照度を補正する。   Further, Patent Document 2 proposes an optical projection control device that causes an optical image to be projected at illuminances respectively instructed to a plurality of projectors. In this apparatus, captured image data (in the absence of a light shield) obtained by projecting an optical image on the screen in the absence of an object (light shield) between the screen and the projector (when the light shield is not present) The differential image data corresponding to the difference of the light amount with the image data is acquired, and the projector in which a part of the projection image is shielded is detected based on the difference image data, and the projection of the projector whose projection image is not shielded Correct the illumination of the image.

特開2016−208255号公報(例えば、請求項1)JP, 2016-208255, A (For example, claim 1) 特許第5596427号公報(例えば、請求項3)Patent No. 5596427 (For example, claim 3)

しかしながら、特許文献1に記載の装置は、投影位置を変更する機能を説明しているが、投影画像内に物体の影が形成されないようにする技術を記載していない。   However, although the device described in Patent Document 1 describes the function of changing the projection position, it does not describe the technique of preventing the shadow of the object from being formed in the projection image.

また、特許文献2に記載の装置は、投影画像の画素値の制御を行うことで光遮蔽物の影の除去がある程度可能であるが、影の除去が可能な範囲が狭いという課題がある。特に、光遮蔽物(例えば、ユーザの手)が光学機器と対象物との間で移動する場合には、影を除去することが困難になる場合がある。   Further, the device described in Patent Document 2 can remove the shadow of the light shield to some extent by controlling the pixel values of the projected image, but has a problem that the range in which the shadow can be removed is narrow. In particular, when the light shield (eg, the user's hand) moves between the optics and the object, it may be difficult to remove the shadow.

本発明は、上記課題を解決するためになされたものであり、光学機器と対象物との間に物体が存在する場合であっても、投影画像に光遮蔽物の影が形成されないように又は撮影画像に光遮蔽物が含まれないように、光学機器及び移動機構を制御することができる光学機器制御装置、光学機器制御方法、及び光学機器制御プログラムを提供することを目的とする。   The present invention has been made to solve the above-mentioned problems, so that even if there is an object between the optical device and the object, the shadow of the light shield is not formed in the projected image, or An optical device control apparatus, an optical device control method, and an optical device control program capable of controlling an optical device and a moving mechanism so that a light shield is not included in a captured image.

本発明の一態様に係る光学機器制御装置は、対象物上に複数の画像を投影する複数の光学機器と前記複数の光学機器の配置を変更する複数の移動機構とを制御する装置であって、前記複数の光学機器が前記対象物上に画像を投影しているときに現実空間情報取得部によって取得された現実空間情報に基づいて、前記複数の光学機器から投影された画像が前記対象物上に到達しない領域である影が形成されているか否かを判断し、前記影が検出されたときに前記影を形成する物体の配置を示す情報を取得する物体推定部と、前記物体の配置を示す情報に基づいて、前記影が形成されない前記複数の光学機器の配置を計算する配置計算部と、前記配置計算部によって計算された前記複数の光学機器の配置に基づいて、前記影が形成されない位置に前記複数の光学機器が配置されるように前記複数の移動機構を制御する移動機構制御部とを有することを特徴とする。   An optical device control device according to an aspect of the present invention is a device that controls a plurality of optical devices that project a plurality of images on an object and a plurality of movement mechanisms that change the arrangement of the plurality of optical devices. The object projected from the plurality of optical devices is based on the physical space information acquired by the physical space information acquiring unit when the plurality of optical devices are projecting an image onto the object. It is determined whether or not a shadow is formed which is an area that does not reach above, and an object estimation unit that acquires information indicating the arrangement of the object that forms the shadow when the shadow is detected; the arrangement of the object And the shadow is formed based on the arrangement of the plurality of optical devices calculated by the arrangement calculation unit, the arrangement calculation unit calculating the arrangement of the plurality of optical devices in which the shadow is not formed based on the information indicating Not in a position Serial and having a moving mechanism controller which a plurality of optical devices for controlling said plurality of moving mechanisms to be disposed.

本発明の他の態様に係る光学機器制御装置は、対象物を撮影することで前記対象物の複数の画像を取得する複数の光学機器と前記複数の光学機器の配置を変更する複数の移動機構とを制御する装置であって、前記複数の光学機器により取得された前記複数の画像に基づいて、前記複数の光学機器が前記対象物上に非撮影領域を形成する物体が存在するか否かを判断し、前記物体が検出されたときに前記物体の配置を示す情報を取得する物体推定部と、前記物体の配置を示す情報に基づいて、前記非撮影領域が形成されない前記複数の光学機器の配置を計算する配置計算部と、前記配置計算部によって計算された前記複数の光学機器の配置に基づいて、前記非撮影領域が形成されない位置に前記複数の光学機器が配置されるように前記複数の移動機構を制御する移動機構制御部とを有することを特徴とする。   An optical device control apparatus according to another aspect of the present invention is a plurality of optical devices for acquiring a plurality of images of the object by capturing an object, and a plurality of moving mechanisms for changing the arrangement of the plurality of optical devices. And, based on the plurality of images acquired by the plurality of optical devices, whether or not there are objects for which the plurality of optical devices form a non-imaging area on the object. , And the plurality of optical devices in which the non-imaging area is not formed based on the information indicating the arrangement of the object and an object estimation unit that acquires information indicating the arrangement of the object when the object is detected. And the plurality of optical devices are arranged at positions where the non-photographing area is not formed based on the arrangement calculation unit which calculates the arrangement of the plurality of optical devices and the arrangement of the plurality of optical devices calculated by the arrangement calculation unit. Multiple transfers And having a moving mechanism controller which controls the mechanism.

本発明によれば、光学機器と対象物との間に光遮蔽物が存在する場合であっても、複数の光学機器の配置を制御することによって、光学機器の投影画像に物体の影が形成されないように又は光学機器の撮影画像に物体が含まれないようにすることができる。   According to the present invention, even when there is a light shield between the optical device and the object, the shadow of the object is formed on the projected image of the optical device by controlling the arrangement of the plurality of optical devices. It is possible to prevent the object from being included in the captured image of the optical device or not.

本発明の実施の形態1に係る光学機器制御装置の構成を概略的に示す機能ブロック図である。FIG. 1 is a functional block diagram schematically showing a configuration of an optical device control apparatus according to Embodiment 1 of the present invention. (a)から(c)は、実施の形態1に係る光学機器制御装置により制御される光学機器としてのプロジェクタと移動機構を概略的に示す斜視図である。(A) to (c) are perspective views schematically showing a projector and a moving mechanism as an optical device controlled by the optical device control apparatus according to the first embodiment. 実施の形態1に係る光学機器制御装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of a hardware configuration of an optical device control apparatus according to Embodiment 1. 実施の形態1に係る光学機器制御装置の動作を示すフローチャートである。5 is a flowchart showing the operation of the optical device control apparatus according to Embodiment 1. 本発明の実施の形態2に係る光学機器制御装置の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the optical instrument control apparatus based on Embodiment 2 of this invention. (a)から(c)は、実施の形態2に係る光学機器制御装置により制御される光学機器としてのカメラと移動機構を概略的に示す斜視図である。(A) to (c) are perspective views schematically showing a camera and a moving mechanism as an optical device controlled by the optical device control apparatus according to the second embodiment. 実施の形態2に係る光学機器制御装置のハードウェア構成の一例を示す図である。FIG. 7 is a diagram showing an example of a hardware configuration of an optical device control apparatus according to Embodiment 2. 実施の形態2に係る光学機器制御装置の動作を示すフローチャートである。FIG. 10 is a flowchart showing the operation of the optical device control apparatus according to Embodiment 2. FIG.

以下に、本発明の実施の形態に係る光学機器制御装置、光学機器制御方法、及び光学機器制御プログラムを、添付図面を参照しながら説明する。実施の形態1においては、光学機器が、対象物上に画像を投影するプロジェクタ(画像投影装置)であり、投影画像に影が形成させない装置、方法、プログラムを説明する。実施の形態2においては、光学機器が、対象物を撮影して現実空間の画像データを取得するカメラ(撮像装置)であり、撮影画像に基づく合成画像に欠落(非撮影領域)を生じさせない装置、方法、プログラムを説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。   Hereinafter, an optical device control apparatus, an optical device control method, and an optical device control program according to an embodiment of the present invention will be described with reference to the attached drawings. In the first embodiment, an optical apparatus is a projector (image projection apparatus) that projects an image on an object, and an apparatus, a method, and a program that do not cause a shadow to be formed on a projection image will be described. In the second embodiment, the optical device is a camera (imaging device) for imaging an object and acquiring image data in a physical space, and an apparatus that does not cause a dropout (non-imaging area) in a composite image based on the imaged image. Explain how, programs. The following embodiments are merely examples, and various modifications are possible within the scope of the present invention.

《1》実施の形態1.
《1−1》構成
図1は、実施の形態1に係る光学機器制御装置1の構成を概略的に示す機能ブロック図である。光学機器制御装置1は、実施の形態1に係る光学機器制御方法を実施することができる装置である。また、光学機器制御装置1は、実施の形態1に係る光学機器制御プログラムを実行することができる装置である。
<< 1 >> First Embodiment
<< 1-1 >> Configuration FIG. 1 is a functional block diagram schematically showing a configuration of the optical device control apparatus 1 according to the first embodiment. The optical device control device 1 is a device capable of implementing the optical device control method according to the first embodiment. The optical device control apparatus 1 is an apparatus capable of executing the optical device control program according to the first embodiment.

図2(a)から(c)は、実施の形態1に係る光学機器制御装置1により制御される光学機器としての複数のプロジェクタ3(3a,3b)と複数の移動機構4(4a,4b)を概略的に示す斜視図である。   2 (a) to 2 (c) show a plurality of projectors 3 (3a, 3b) as optical devices controlled by the optical device control apparatus 1 according to the first embodiment and a plurality of moving mechanisms 4 (4a, 4b) Is a schematic perspective view.

光学機器制御装置1は、複数のプロジェクタ3(3a,3b)と、複数のプロジェクタ3(3a,3b)の配置をそれぞれ変更する複数の移動機構(例えば、ロボットアーム)4と、現実空間情報取得部(例えば、カメラ又はセンサ)5とに接続され、複数のプロジェクタ3(3a,3b)の動作と複数の移動機構4(4a,4b)の動作とを制御する。現実空間情報取得部5は、プロジェクタ3(3a,3b)と別個の装置であってもよく、また、複数のプロジェクタ3(3a,3b)のいずれかと一体型の装置であってもよい。光学機器制御装置1と、複数のプロジェクタ3(3a,3b)と、複数の移動機構4(4a,4b)と、現実空間情報取得部5とは、現実空間における対象物51上に物体(光遮蔽物)52が存在する場合であって、対象物51上に影53のない画像(合成投影画像)54を投影することができる画像投影システムを構成する。物体52は、例えば、対象物51上で作業をするユーザ50の動いている手であり、この場合には、影53は、ユーザ50の手の動きによって対象物51上で動く。   The optical device control apparatus 1 includes a plurality of moving mechanisms (for example, robot arms) 4 for changing the arrangement of the plurality of projectors 3 (3a and 3b) and the plurality of projectors 3 (3a and 3b), and acquisition of real space information It is connected to a unit (for example, a camera or a sensor) 5 and controls the operation of the plurality of projectors 3 (3a, 3b) and the operation of the plurality of moving mechanisms 4 (4a, 4b). The physical space information acquisition unit 5 may be an apparatus separate from the projector 3 (3a, 3b), or may be an apparatus integrated with any of the plurality of projectors 3 (3a, 3b). The optical device control apparatus 1, the plurality of projectors 3 (3a, 3b), the plurality of moving mechanisms 4 (4a, 4b), and the real space information acquisition unit 5 are objects (lights on the object 51 in the real space An image projection system capable of projecting an image (synthetic projection image) 54 without the shadow 53 on the object 51 is configured in the case where the shielding object 52 is present. The object 52 is, for example, the moving hand of the user 50 working on the object 51, and in this case, the shadow 53 moves on the object 51 by the movement of the hand of the user 50.

光学機器制御装置1は、物体推定部11と、配置計算部12と、移動機構制御部13と、パラメータ計算部14と、画像データ生成部15と、記憶部16とを備えている。   The optical device control device 1 includes an object estimation unit 11, an arrangement calculation unit 12, a movement mechanism control unit 13, a parameter calculation unit 14, an image data generation unit 15, and a storage unit 16.

物体推定部11は、現実空間情報取得部5から現実空間情報を受け取り、対象物51に生成された影53を検出し、影53の原因となる物体52を推定する。例えば、物体推定部11は、複数の光学機器3が対象物51上に投影画像54を投影しているときに現実空間情報取得部5によって取得された現実空間情報に基づいて、複数のプロジェクタ3(3a,3b)から投影された複数の投影画像54が対象物51上に到達しない領域である影53が形成されているか否かを判断し、影53が検出されたときに影53を形成する物体52の配置(位置及び形状)を示す情報を取得する。   The object estimation unit 11 receives the physical space information from the physical space information acquisition unit 5, detects the shadow 53 generated on the target object 51, and estimates the object 52 causing the shadow 53. For example, the object estimation unit 11 selects the plurality of projectors 3 based on the physical space information acquired by the physical space information acquisition unit 5 when the plurality of optical devices 3 are projecting the projection image 54 onto the object 51. It is determined whether or not the shadow 53 which is an area where the plurality of projection images 54 projected from (3a, 3b) do not reach the object 51 is formed, and the shadow 53 is formed when the shadow 53 is detected. The information which shows the arrangement | positioning (position and shape) of the object 52 to carry out is acquired.

配置計算部12は、記憶部16から複数のプロジェクタ3(3a,3b)の配置(位置及び姿勢)に必要な情報を取得し、対象物51に対して影53を形成しない複数のプロジェクタ3(3a,3b)の配置(位置及び姿勢)を計算する。例えば、配置計算部12は、物体52の配置を示す情報に基づいて、影53が形成されない複数のプロジェクタ3(3a,3b)の配置(例えば、位置及び姿勢)を計算する。ここで、位置は、図2(a)から(c)に示すxyz直交座標系で示される複数のプロジェクタ3(3a,3b)の座標であり、姿勢とは、複数のプロジェクタ3(3a,3b)の光軸(一点鎖線)AXの方向である。   The arrangement calculation unit 12 acquires information necessary for the arrangement (position and posture) of the plurality of projectors 3 (3a, 3b) from the storage unit 16 and does not form the shadow 53 on the object 51 Calculate the arrangement (position and posture) of 3a, 3b). For example, based on the information indicating the arrangement of the object 52, the arrangement calculation unit 12 calculates the arrangement (for example, the position and orientation) of the plurality of projectors 3 (3a, 3b) in which the shadow 53 is not formed. Here, the position is the coordinates of the plurality of projectors 3 (3a, 3b) shown in the xyz orthogonal coordinate system shown in FIGS. 2A to 2C, and the posture is the plurality of projectors 3 (3a, 3b) ) In the direction of the optical axis (one-dot chain line) AX.

移動機構制御部13は、配置計算部12で計算した結果を基に、複数のプロジェクタ3(3a,3b)を移動させる複数の移動機構4(4a,4b)の動作を制御する。移動機構制御部13は、配置計算部12によって計算された複数のプロジェクタ3(3a,3b)の配置に基づいて、影53が形成されない位置に複数のプロジェクタ3(3a,3b)が配置されるように複数の移動機構4(4a,4b)を制御する。複数の移動機構4(4a,4b)は、複数のプロジェクタ3(3a,3b)の位置及び姿勢を変更可能な機構である。複数の移動機構4(4a,4b)は、ロボットアームである。ただし、複数の移動機構4(4a,4b)は、自走式ロボット、ドローンなどのような空中移動型機器、その他の機構であってもよい。   The movement mechanism control unit 13 controls the operation of the plurality of movement mechanisms 4 (4a, 4b) for moving the plurality of projectors 3 (3a, 3b) based on the result calculated by the arrangement calculation unit 12. The moving mechanism control unit 13 arranges the plurality of projectors 3 (3a, 3b) at positions where the shadow 53 is not formed based on the arrangement of the plurality of projectors 3 (3a, 3b) calculated by the arrangement calculation unit 12 Thus, the plurality of moving mechanisms 4 (4a, 4b) are controlled. The plurality of moving mechanisms 4 (4a, 4b) are mechanisms capable of changing the position and orientation of the plurality of projectors 3 (3a, 3b). The plurality of moving mechanisms 4 (4a, 4b) are robot arms. However, the plurality of moving mechanisms 4 (4 a, 4 b) may be a self-propelled robot, an air moving device such as a drone, or other mechanisms.

記憶部16は、制御対象である、複数のプロジェクタ3(3a,3b)の各々の焦点距離161、明るさ162、画像生成に使用される各種の画像生成パラメータ163などのような、プロジェクタの特性に関する情報を記録する。   The storage unit 16 is a characteristic of the projector such as the focal length 161 of each of the plurality of projectors 3 (3a, 3b) to be controlled, the brightness 162, and various image generation parameters 163 used for image generation. Record information about

パラメータ計算部14は、移動機構制御部13によって移動した複数のプロジェクタ3(3a,3b)の位置と記憶部16から取得した複数のプロジェクタ3(3a,3b)に関する情報とから、複数のプロジェクタ3(3a,3b)の各々が投影画像を生成するために必要な画像のパラメータを計算し、これを記憶部16に画像生成パラメータ163として記憶する。複数のプロジェクタ3(3a,3b)におけるパラメータとしては、例えば、プロジェクタにおける焦点距離、画像中心、レンズ歪などの機器に固有の内部パラメータと、プロジェクタの位置及び姿勢を表す外部パラメータとがある。   The parameter calculation unit 14 uses the positions of the plurality of projectors 3 (3a, 3b) moved by the moving mechanism control unit 13 and the information regarding the plurality of projectors 3 (3a, 3b) acquired from the storage unit 16 Each of (3a, 3b) calculates parameters of an image necessary for generating a projection image, and stores them in the storage unit 16 as an image generation parameter 163. As parameters in the plurality of projectors 3 (3a, 3b), for example, there are internal parameters unique to the device such as focal length in the projector, image center, lens distortion, etc., and external parameters representing position and attitude of the projector.

画像データ生成部15は、画像生成パラメータ163から取得した情報を基に画像を生成する。複数のプロジェクタ3(3a,3b)は、画像データ生成部15で生成した画像、又は、初期状態の投影画像などを現実空間に投影する。   The image data generation unit 15 generates an image based on the information acquired from the image generation parameter 163. The plurality of projectors 3 (3a, 3b) project the image generated by the image data generation unit 15, the projection image in the initial state, and the like on the physical space.

図3は、実施の形態1における光学機器制御装置1のハードウェア構成の一例を示す図である。光学機器制御装置1は、コンピュータであってもよい。光学機器制御装置1は、情報処理部としてのプロセッサであるCPU(Centaral Processing Unit)31と、GPU(Graphics Processing Unit)32と、メインメモリ33と、ストレージ34と、データ交換用のデータ転送路であるバス35とを備えている。光学機器制御装置1には、現実空間情報取得部としてのカメラ5aと、複数のプロジェクタ3(3a,3b)と、複数のプロジェクタ3(3a,3b)を移動可能にそれぞれ支持する複数の移動機構4(4a,4b)が接続されている。なお、光学機器制御装置1には、現実空間情報取得部として、カメラ5aに加えて又はカメラ5aの代わりに、センサ5bが接続されてもよい。   FIG. 3 is a diagram showing an example of the hardware configuration of the optical device control apparatus 1 according to the first embodiment. The optical device control device 1 may be a computer. The optical device control apparatus 1 includes a central processing unit (CPU) 31 as a processor as an information processing unit, a graphics processing unit (GPU) 32, a main memory 33, a storage 34, and a data transfer path for data exchange. A certain bus 35 is provided. The optical device control device 1 includes a plurality of moving mechanisms that respectively movably support the camera 5a as the physical space information acquisition unit, the plurality of projectors 3 (3a, 3b), and the plurality of projectors 3 (3a, 3b) 4 (4a, 4b) are connected. A sensor 5b may be connected to the optical device control device 1 as a physical space information acquisition unit, in addition to or instead of the camera 5a.

CPU31は、光学機器制御装置1の動作の全体を実行するための演算装置である。   The CPU 31 is an arithmetic device for executing the entire operation of the optical device control device 1.

メインメモリ33は、光学機器制御装置1のハードウェアがデータの消去及び書き換えが可能な記憶装置である。メインメモリ33は、揮発性であるが、ストレージ34より高速に動作することから、使用中のデータ又は直ぐに使用する必要が生じるデータを保存するために使用される。例えば、後述の図4に示される影除去処理を行う光学機器制御プログラムをメインメモリ33に格納する。光学機器制御プログラムは、CPU31で実行される。CPU31が光学機器制御プログラムを実行することにより、図1に示される物体推定部11、配置計算部12、移動機構制御部13、パラメータ計算部14、及び画像データ生成部15の全体又は一部を実現することができる。   The main memory 33 is a storage device in which the hardware of the optical device control device 1 can erase and rewrite data. The main memory 33 is volatile, but operates faster than the storage 34, and is used to store data in use or data that needs to be used immediately. For example, an optical device control program for performing a shadow removal process shown in FIG. 4 described later is stored in the main memory 33. The optical device control program is executed by the CPU 31. When the CPU 31 executes the optical device control program, all or part of the object estimation unit 11, the arrangement calculation unit 12, the movement mechanism control unit 13, the parameter calculation unit 14, and the image data generation unit 15 shown in FIG. It can be realized.

ストレージ34は、光学機器制御装置1のハードウェアによって、データの消去及び書き換えが可能な記憶装置であり、図1における記憶部16に対応する。このストレージに記憶してある情報は、プログラム実行時に、必要な情報をメインメモリ33において展開する。   The storage 34 is a storage device capable of erasing and rewriting data by the hardware of the optical device control device 1 and corresponds to the storage unit 16 in FIG. 1. The information stored in the storage develops necessary information in the main memory 33 when the program is executed.

カメラ5aは、現実空間情報を取得するために必要な画像を撮影する装置である。   The camera 5a is a device that captures an image necessary to obtain real space information.

センサ5bは、現実空間情報を取得するために必要な値を取得する装置である。センサ5は、例えば、位置を計測するGPS(Global Positioning System)、加速度を検出する加速度センサ、方位を計測する地磁気センサ、物体までの距離を計測する深度センサである。   The sensor 5 b is a device that acquires a value necessary to acquire real space information. The sensor 5 is, for example, a GPS (Global Positioning System) which measures a position, an acceleration sensor which detects an acceleration, a geomagnetic sensor which measures an azimuth, and a depth sensor which measures a distance to an object.

複数のプロジェクタ3(3a,3b)は、画像を現実空間に投影するために必要な画像投影装置である。複数の移動機構4(4a,4b)は、複数のプロジェクタ3(3a,3b)を移動するための装置である。   The plurality of projectors 3 (3a, 3b) are image projection devices required to project an image on the physical space. The plurality of moving mechanisms 4 (4a, 4b) are devices for moving the plurality of projectors 3 (3a, 3b).

《1−2》動作
図4は、実施の形態1に係る光学機器制御装置1の動作(影除去処理)を示すフローチャートである。図4に示される処理は、現実空間情報取得部5(5a,5b)が現実空間情報を取得するごとに(例えば、一定の周期で)実行される。
<< 1-2 >> Operation FIG. 4 is a flowchart showing an operation (shadow removal processing) of the optical device control apparatus 1 according to the first embodiment. The process shown in FIG. 4 is executed each time the physical space information acquisition unit 5 (5a, 5b) acquires physical space information (for example, in a fixed cycle).

ステップS11において、光学機器制御装置1の画像データ生成部15は、複数のプロジェクタ3(3a,3b)に画像データを提供して、対象物51に向けて所望の画像(物体52が存在しない場合、ユーザ50が見ることのできる投影画像)を投影する(図2(a)参照)。   In step S11, the image data generation unit 15 of the optical device control device 1 provides the image data to the plurality of projectors 3 (3a, 3b), and a desired image is generated toward the object 51 (if the object 52 does not exist , And project the projection image that can be viewed by the user 50 (see FIG. 2A).

次のステップS12において、光学機器制御装置1は、現実空間情報取得部5に、対象物51を含む現実空間情報を取得させる。現実空間情報取得部5がカメラである場合、現実空間情報取得部5は、現実空間情報として画像データを取得し、現実空間情報取得部5がセンサである場合、現実空間情報取得部5は、現実空間情報として検出値(例えば、深度センサの場合には距離情報)を取得する。   In the next step S12, the optical device control apparatus 1 causes the physical space information acquisition unit 5 to acquire physical space information including the object 51. When the physical space information acquisition unit 5 is a camera, the physical space information acquisition unit 5 acquires image data as physical space information, and when the physical space information acquisition unit 5 is a sensor, the physical space information acquisition unit 5 A detection value (for example, distance information in the case of a depth sensor) is acquired as real space information.

次のステップS13においては、物体推定部11は、ステップS12で取得した情報を基に、対象物51に物体52によって暗い領域である影53が形成されているかを検出し、影53を検出しない場合(ステップS13においてNO)、対象物51上に所望画像が投影されていると判断できるため、影除去処理(画像補間処理)を終了する。なお、複数のプロジェクタ3(3a,3b)のいずれのプロジェクタからの投影画像が物体52によって遮光されているのかを検出する処理は、公知の画像処理であるが、例えば、特許文献2に記載の方法を採用してもよい。なお、影53を検出した場合(ステップS13においてYES)、処理はステップS14に進み、物体推定部11は、物体52の位置及び形状を推定(算出)し、処理をステップS15に進める。ステップS15において、配置計算部12は、複数のプロジェクタ3(3a,3b)の配置(位置及び姿勢)を計算する。   In the next step S13, the object estimation unit 11 detects whether the shadow 53 which is a dark area is formed by the object 52 on the object 51 based on the information acquired in step S12, and does not detect the shadow 53. In the case (NO in step S13), it can be determined that the desired image is projected on the object 51, so the shadow removal process (image interpolation process) is ended. The process of detecting which of the plurality of projectors 3 (3a, 3b) the projected image from the object 52 is blocked by the object 52 is known image processing. For example, the process described in Patent Document 2 A method may be adopted. When shadow 53 is detected (YES in step S13), the process proceeds to step S14, object estimating unit 11 estimates (calculates) the position and shape of object 52, and the process proceeds to step S15. In step S15, the placement calculation unit 12 calculates the placement (position and orientation) of the plurality of projectors 3 (3a, 3b).

次のステップS16では、移動機構制御部13は、複数の移動機構4(4a,4b)を制御することで、ステップS15で計算した配置(位置及び姿勢)で、ステップS16で計算した位置まで複数のプロジェクタ3(3a,3b)を移動する(図2(b)参照)。   In the next step S16, the moving mechanism control unit 13 controls the plurality of moving mechanisms 4 (4a, 4b) to obtain a plurality of positions (position and attitude) calculated in step S15 up to the positions calculated in step S16. The projector 3 (3a, 3b) is moved (see FIG. 2 (b)).

次のステップS17では、パラメータ計算部14は、複数のプロジェクタ3(3a,3b)の各々の投影画像の画素値をどのようにすれば影が除去された画像になるかを示すパラメータを計算し、画像生成パラメータ163に記憶する。   In the next step S17, the parameter calculation unit 14 calculates a parameter indicating how to make the pixel value of the projection image of each of the plurality of projectors 3 (3a, 3b) become an image from which the shadow is removed. , And stored in the image generation parameter 163.

次のステップS18においては、画像データ生成部15は、複数のプロジェクタ3(3a,3b)の各々が画像生成パラメータ163を基に投影する画像を生成する。   In the next step S18, the image data generation unit 15 generates an image to be projected based on the image generation parameter 163 by each of the plurality of projectors 3 (3a, 3b).

次のステップS19においては、複数のプロジェクタ3(3a,3b)で、ステップS17で生成された投影画像を投影する(図2(c)参照)。   In the next step S19, the projection images generated in step S17 are projected by the plurality of projectors 3 (3a, 3b) (see FIG. 2C).

《1−3》効果
以上に説明したように、実施の形態1に係る光学機器制御装置1、光学機器制御方法、及び光学機器制御プログラムによれば、図2(a)に示されるように、投影画像の影53が検出された場合に、物体52の位置及び形状を推定し、図2(b)に示されるように、推定結果に基づいて複数のプロジェクタ3(3a,3b)を移動させ、プロジェクタの配置(位置及び姿勢)とパラメータを設定する。このため、対象物51上に物体52が存在する場合であっても、図2(c)に示されるように、影のない所望の画像(合成投影画像)を対象物51に投影することができる。
<< 1-3 >> Effects As described above, according to the optical device control device 1, the optical device control method, and the optical device control program of the first embodiment, as shown in FIG. When the shadow 53 of the projection image is detected, the position and shape of the object 52 are estimated, and as shown in FIG. 2B, the plurality of projectors 3 (3a, 3b) are moved based on the estimation result. , Setting of projectors (position and attitude) and parameters. For this reason, even when the object 52 is present on the object 51, as shown in FIG. 2C, it is possible to project a desired image (composite projection image) without shadow on the object 51. it can.

《2》実施の形態2.
《2−1》構成
上記実施の形態1では、複数台のプロジェクタ3(3a,3b)の配置を計算し、複数台のプロジェクタ3(3a,3b)を移動し、複数台のプロジェクタ3(3a,3b)の配置(位置及び姿勢)に応じた投影画像を生成することで、影のない合成投影画像(図2(c)の54)を対象物(図2(c)の51)上に投影するための制御を行う光学機器制御装置1を説明した。
これに対し、実施の形態2では、複数台の光学機器(カメラ)の配置を計算し、複数台の光学機器(カメラ)を移動し、複数台の光学機器(カメラ)の配置(位置及び姿勢)に応じた画像を取得することで、対象物を隠すように配置された任意の物体を、表示画像から除去するための制御を行う光学機器制御装置2を説明する。ただし、光学機器は、深度センサなどのような、カメラ以外の空間情報取得手段であってもよい。
なお、プロジェクタとカメラは、類似した光学モデルであり、任意の物体を除去した撮影画像を取得したい場合、実施の形態1における処理と類似の処理によって物体を除去した表示画像を生成することが可能である。
<< 2 >> Second Embodiment
<< 2-1 >> Configuration In the first embodiment, the arrangement of the plurality of projectors 3 (3a, 3b) is calculated, the plurality of projectors 3 (3a, 3b) are moved, and the plurality of projectors 3 (3a) are moved. , 3b) by generating a projection image according to the arrangement (position and posture), a shadowless composite projection image (54 in FIG. 2C) can be displayed on the object (51 in FIG. 2C). The optical device control device 1 that performs control for projection has been described.
On the other hand, in the second embodiment, the arrangement of a plurality of optical devices (cameras) is calculated, the plurality of optical devices (cameras) are moved, and the arrangement (position and posture of a plurality of optical devices (cameras) The optical device control apparatus 2 will be described which performs control for removing an arbitrary object arranged to hide an object from a display image by acquiring an image according to. However, the optical device may be spatial information acquisition means other than a camera, such as a depth sensor.
The projector and the camera are similar optical models, and when it is desired to obtain a photographed image from which an arbitrary object has been removed, it is possible to generate a display image from which the object is removed by processing similar to the processing in the first embodiment. It is.

図5は、実施の形態2に係る光学機器制御装置2の構成を概略的に示す機能ブロック図である。光学機器制御装置2は、実施の形態2に係る光学機器制御方法を実施することができる装置である。また、光学機器制御装置2は、実施の形態2に係る光学機器制御プログラムを実行することができる装置である。   FIG. 5 is a functional block diagram schematically showing the configuration of the optical device control apparatus 2 according to the second embodiment. The optical device control device 2 is a device capable of implementing the optical device control method according to the second embodiment. The optical device control apparatus 2 is an apparatus capable of executing the optical device control program according to the second embodiment.

図6(a)から(c)は、実施の形態2に係る光学機器制御装置2により制御される光学機器としての複数のカメラ6(6a,6b)と複数の移動機構7(7a,7b)を概略的に示す斜視図である。   6 (a) to 6 (c) show a plurality of cameras 6 (6a, 6b) and a plurality of moving mechanisms 7 (7a, 7b) as optical devices controlled by the optical device control apparatus 2 according to the second embodiment. Is a schematic perspective view.

光学機器制御装置2は、複数のカメラ6(6a,6b)と、複数のカメラ6(6a,6b)の配置をそれぞれ変更する複数の移動機構(例えば、ロボットアーム)7(7a,7b)と、表示装置8とに接続され、複数のカメラ6(6a,6b)の動作と複数の移動機構7(7a,7b)の動作とを制御する。光学機器制御装置2と、複数のカメラ6(6a,6b)と、複数の移動機構7(7a,7b)と、表示装置8とは、現実空間における対象物61上に物体(光遮蔽物)62が存在する場合であっても、表示装置8の表示画像において、欠落箇所(図6(a)における物体62の画像62a)のない合成画像61aを表示装置8に表示することができる撮影システムを構成する。物体62は、例えば、対象物61上、すなわち、対象物61と複数のカメラ6(6a,6b)との間に存在し、動いている物体であってもよい。   The optical device control device 2 includes a plurality of cameras 6 (6a, 6b) and a plurality of moving mechanisms (for example, robot arms) 7 (7a, 7b) for changing the arrangement of the plurality of cameras 6 (6a, 6b), respectively. And the display device 8 to control the operation of the plurality of cameras 6 (6a, 6b) and the operation of the plurality of moving mechanisms 7 (7a, 7b). The optical device control device 2, the plurality of cameras 6 (6a, 6b), the plurality of moving mechanisms 7 (7a, 7b), and the display device 8 are objects (light shields) on the object 61 in real space An imaging system capable of displaying on the display device 8 the composite image 61a without the missing part (the image 62a of the object 62 in FIG. 6A) in the display image of the display device 8 even when 62 exists. Configure The object 62 may be, for example, an object that exists on the object 61, that is, between the object 61 and the plurality of cameras 6 (6a, 6b) and is moving.

光学機器制御装置2は、物体推定部21と、配置計算部22と、移動機構制御部23と、パラメータ計算部24と、画像合成部26と、記憶部27とを備えている。   The optical device control device 2 includes an object estimation unit 21, an arrangement calculation unit 22, a movement mechanism control unit 23, a parameter calculation unit 24, an image combining unit 26, and a storage unit 27.

物体推定部21は、複数のカメラ6(6a,6b)から現実空間情報を受け取り、任意の画像を取得するために、不必要な物体62の領域を推定する。例えば、物体推定部21は、複数のカメラ6(6a,6b)が対象物61を撮影し、複数のカメラ6(6a,6b)により取得された複数の画像に基づいて、複数のカメラ6(6a,6b)が対象物61上に非撮影領域を形成する物体(光遮蔽物)62が存在するか否かを判断し、このような物体62が検出されたときに物体62の配置(位置及び形状)を示す情報を取得する(図6(a)参照)。図6(a)に示されるように、対象物61の非撮影領域は、表示装置8の表示画像において、物体62の画像62aになる。なお、現実空間情報取得部がセンサである場合、現実空間情報取得部5は、現実空間情報として検出値(例えば、深度センサの場合には距離情報)を取得する。   The object estimation unit 21 receives physical space information from a plurality of cameras 6 (6a, 6b), and estimates an unnecessary area of the object 62 in order to obtain an arbitrary image. For example, in the object estimation unit 21, a plurality of cameras 6 (6a, 6b) shoot an object 61, and a plurality of cameras 6 (6a, 6b) are captured based on a plurality of images acquired by the plurality of cameras 6 (6a, 6b). 6a, 6b) determine whether or not an object (light shield) 62 forming a non-imaging area exists on the object 61, and when such an object 62 is detected, the arrangement (position of the object 62) And information indicating the shape) is obtained (see FIG. 6A). As shown in FIG. 6A, the non-shooting area of the object 61 becomes an image 62a of the object 62 in the display image of the display device 8. When the physical space information acquisition unit is a sensor, the physical space information acquisition unit 5 acquires a detection value (for example, distance information in the case of a depth sensor) as physical space information.

配置計算部22は、記憶部27から複数のカメラ6(6a,6b)の配置(位置及び姿勢)に必要な情報を取得し、物体62を除去した画像が取得できる配置(位置及び姿勢)を計算する。複数のカメラ6(6a,6b)に関する情報は、予め記憶部16に記憶される。例えば、配置計算部22は、記憶部16から複数のカメラ6(6a,6b)の配置(位置及び姿勢)に必要な情報を取得し、物体62の配置を示す情報に基づいて、対象物61上に非撮影領域が形成されないようにするための複数のカメラ6(6a,6b)の配置(例えば、位置及び姿勢)を計算する。ここで、位置は、図6(a)から(c)に示すxyz直交座標系で示される複数のカメラ6(6a,6b)の座標であり、姿勢は、複数のカメラ6(6a,6b)の光軸(一点鎖線)AXの方向である。   The arrangement calculation unit 22 acquires information necessary for the arrangement (position and posture) of the plurality of cameras 6 (6a, 6b) from the storage unit 27 and can obtain an arrangement (position and posture) from which the image from which the object 62 is removed can be acquired. calculate. Information on the plurality of cameras 6 (6a, 6b) is stored in advance in the storage unit 16. For example, the arrangement calculation unit 22 acquires information necessary for the arrangement (position and orientation) of the plurality of cameras 6 (6a, 6b) from the storage unit 16 and, based on the information indicating the arrangement of the object 62, the target 61 The arrangement (e.g., position and orientation) of the plurality of cameras 6 (6a, 6b) for preventing formation of a non-photographing area on the top is calculated. Here, the position is the coordinates of a plurality of cameras 6 (6a, 6b) shown in the xyz orthogonal coordinate system shown in FIGS. 6A to 6C, and the posture is a plurality of cameras 6 (6a, 6b) In the direction of the optical axis (one-dot chain line) AX.

移動機構制御部23は、配置計算部22によって計算された複数のカメラ6(6a,6b)の配置に基づいて、対象物61上に非撮影領域が形成されないようにする位置に複数のカメラ6(6a,6b)が配置されるように複数の移動機構7(7a,7b)を制御する(図6(b)参照)。複数の移動機構7(7a,7b)は、複数のカメラ6(6a,6b)の位置及び姿勢を変更可能な機構である。複数の移動機構7(7a,7b)は、ロボットアームであるが、自走式ロボット、空中移動型機器、その他の機構であってもよい。   The movement mechanism control unit 23 sets the plurality of cameras 6 at positions where the non-photographing area is not formed on the target object 61 based on the arrangement of the plurality of cameras 6 (6a, 6b) calculated by the arrangement calculation unit 22. The plurality of moving mechanisms 7 (7a, 7b) are controlled such that (6a, 6b) are arranged (see FIG. 6 (b)). The plurality of moving mechanisms 7 (7a, 7b) are mechanisms capable of changing the position and attitude of the plurality of cameras 6 (6a, 6b). The plurality of moving mechanisms 7 (7a, 7b) are robot arms, but may be self-propelled robots, airborne devices, or other mechanisms.

記憶部27は、制御対象である、複数のカメラ6(6a,6b)の各々の焦点距離271と画像生成に使用される各種の画像生成パラメータ272などのような、カメラの特性に関する情報を記録する。   The storage unit 27 records information on camera characteristics, such as focal lengths 271 of each of the plurality of cameras 6 (6a, 6b) to be controlled and various image generation parameters 272 used for image generation. Do.

パラメータ計算部24は、複数の移動機構7(7a,7b)によって移動した複数のカメラ6(6a,6b)の位置と、記憶部27から取得したカメラ6(6a、6b)の各々に関する情報から、カメラ6(6a,6b)の各々が取得した画像を補間し合うために必要な画像のパラメータを計算し、記憶部27の画像生成パラメータ272として記憶する。複数のカメラ6(6a,6b)におけるパラメータとしては、例えば、カメラにおける焦点距離、画像中心、レンズ歪などの機器に固有の内部パラメータと、カメラの位置及び姿勢を表す外部パラメータとがある。   The parameter calculation unit 24 uses the positions of the plurality of cameras 6 (6a, 6b) moved by the plurality of moving mechanisms 7 (7a, 7b) and information about each of the cameras 6 (6a, 6b) acquired from the storage unit 27. The parameters of the image necessary to interpolate the images acquired by the cameras 6 (6a, 6b) are calculated and stored as the image generation parameters 272 of the storage unit 27. Parameters in the plurality of cameras 6 (6a, 6b) include, for example, internal parameters specific to the device such as focal length in the camera, image center, lens distortion, etc., and external parameters representing the position and attitude of the camera.

画像データ生成部25は、画像生成パラメータ272から取得した情報を基に、複数のカメラ6(6a,6b)で取得された画像データに処理を施し、複数の画像データの1つにおいて欠落している画像部分を、他の画像データで補間するための補間画像生成処理を行う。   The image data generation unit 25 processes the image data acquired by the plurality of cameras 6 (6a, 6b) based on the information acquired from the image generation parameter 272, and is missing in one of the plurality of image data. Interpolated image generation processing is performed to interpolate an existing image portion with other image data.

画像合成部26は、画像データ生成部25で生成された画像を合成し、物体62を除去した合成画像を生成する(図6(c)参照)。   The image synthesizing unit 26 synthesizes the image generated by the image data generating unit 25 and generates a synthesized image from which the object 62 is removed (see FIG. 6C).

図7は、実施の形態2における光学機器制御装置2のハードウェア構成の一例を示す図である。光学機器制御装置2は、コンピュータであってもよい。光学機器制御装置2は、情報処理部としてのプロセッサであるCPU41と、GPU42と、メインメモリ43と、ストレージ44と、データ交換用のデータ転送路であるバス45とを備えている。光学機器制御装置2には、複数のカメラ6(6a,6b)と、複数のカメラ6(6a,6b)を移動可能にそれぞれ支持する複数の移動機構7(7a,7b)が接続されている。CPU41、GPU42、メインメモリ43、及びストレージ44は、図3におけるCPU31、GPU32、メインメモリ33、及びストレージ34と同様である。CPU41は、後述の図8に示される物体除去処理を行う光学機器制御プログラムをメインメモリ43に格納する。光学機器制御プログラムは、CPU41で実行される。CPU41が光学機器制御プログラムを実行することにより、図5に示される物体推定部21、配置計算部22、移動機構制御部23、パラメータ計算部24、画像データ生成部25、及び画像合成部26の全体又は一部を実現することができる。   FIG. 7 is a diagram showing an example of a hardware configuration of the optical device control apparatus 2 according to the second embodiment. The optical device control device 2 may be a computer. The optical device control device 2 includes a CPU 41 which is a processor as an information processing unit, a GPU 42, a main memory 43, a storage 44, and a bus 45 which is a data transfer path for data exchange. The optical device control device 2 is connected with a plurality of cameras 6 (6a, 6b) and a plurality of moving mechanisms 7 (7a, 7b) for supporting the plurality of cameras 6 (6a, 6b) movably. . The CPU 41, the GPU 42, the main memory 43, and the storage 44 are the same as the CPU 31, the GPU 32, the main memory 33, and the storage 34 in FIG. The CPU 41 stores, in the main memory 43, an optical device control program for performing an object removal process shown in FIG. The optical device control program is executed by the CPU 41. When the CPU 41 executes the optical device control program, the object estimation unit 21, the arrangement calculation unit 22, the movement mechanism control unit 23, the parameter calculation unit 24, the image data generation unit 25, and the image combination unit 26 shown in FIG. All or part can be realized.

《2−2》動作
図8は、実施の形態2に係る光学機器制御装置2の動作(物体除去処理)を示すフローチャートである。図8に示される処理は、カメラ6(6a,6b)が現実空間情報を取得するごとに(例えば、一定の周期で)実行される。
<< 2-2 >> Operation FIG. 8 is a flowchart showing an operation (object removal processing) of the optical device control apparatus 2 according to the second embodiment. The process shown in FIG. 8 is executed each time the camera 6 (6a, 6b) acquires physical space information (for example, at a constant cycle).

ステップS21において、光学機器制御装置2は、現実空間情報取得部としてのカメラ6(6a,6b)に、対象物61を含む現実空間情報を取得させる(図6(a)参照)。   In step S21, the optical device control apparatus 2 causes the camera 6 (6a, 6b) as a physical space information acquisition unit to acquire physical space information including the object 61 (see FIG. 6A).

次のステップS22においては、物体推定部21は、ステップS21で取得した情報を基に、対象物61に非撮影領域を形成する物体62が存在するかを検出し、物体62を検出しない場合(ステップS22においてNO)、対象物61を撮影できると判断できるため、物体除去処理(画像補間処理)を終了する。なお、複数のカメラ6(6a,6b)のいずれのカメラの画像に物体62が映っているか(すなわち、対象物61が物体62によって隠れているか)を検出する処理は、公知の画像処理であるが、例えば、特許文献2に記載の方法を採用してもよい。なお、物体62を検出した場合(ステップS22においてYES)、処理はステップS23に進み、物体推定部21は、物体62の位置及び形状を推定(算出)し、処理をステップS24に進める。ステップS24において、配置計算部22は、複数のカメラ6(6a,6b)の配置(位置及び姿勢)を計算する。   In the next step S22, based on the information acquired in step S21, the object estimation unit 21 detects whether or not the object 62 forming a non-imaging area exists in the object 61, and does not detect the object 62 ( Since it can be determined in step S22 that the object 61 can be photographed, the object removal process (image interpolation process) is ended. The process of detecting which camera of the plurality of cameras 6 (6a, 6b) the object 62 appears (that is, whether the object 61 is hidden by the object 62) is known image processing However, for example, the method described in Patent Document 2 may be adopted. When object 62 is detected (YES in step S22), the process proceeds to step S23, object estimating unit 21 estimates (calculates) the position and shape of object 62, and the process proceeds to step S24. In step S24, the placement calculation unit 22 calculates the placement (position and posture) of the plurality of cameras 6 (6a, 6b).

次のステップS25では、移動機構制御部23は、複数の移動機構7(7a,7b)を制御することで、ステップS24で計算した配置(位置及び姿勢)で、ステップS25で計算した位置まで複数のカメラ6(6a,6b)を移動する(図6(b)参照)。   In the next step S25, the moving mechanism control unit 23 controls the plurality of moving mechanisms 7 (7a, 7b) to obtain a plurality of positions (position and attitude) calculated in step S24 up to the positions calculated in step S25. The camera 6 (6a, 6b) is moved (see FIG. 6 (b)).

次のステップS26では、パラメータ計算部24は、複数のカメラ6(6a,6b)の各々の投影画像の画素値をどのようにすれば物体62が除去された画像になるかを示すパラメータを計算し、画像生成パラメータ272に記憶する。   In the next step S26, the parameter calculation unit 24 calculates a parameter indicating how to make the pixel value of the projection image of each of the plurality of cameras 6 (6a, 6b) become an image from which the object 62 is removed. And stored in the image generation parameter 272.

次のステップS27においては、画像データ生成部25は、複数のカメラ6(6a,6b)の各々が画像生成パラメータ272を基に取得された画像データを変更する。つまり、画像データ生成部25は、カメラ6(6a,6b)の各々は、画像生成パラメータ272を用いて、撮影画像から補間画像を生成する。   In the next step S27, the image data generation unit 25 changes the image data acquired by each of the plurality of cameras 6 (6a, 6b) based on the image generation parameter 272. That is, the image data generation unit 25 generates an interpolation image from the captured image using each of the cameras 6 (6a, 6b) using the image generation parameter 272.

次のステップS28においては、画像合成部26は、ステップS27で生成された複数の画像(補間画像)を合成して1つの合成画像として表示装置8に表示させる(図6(c)参照)。   In the next step S28, the image combining unit 26 combines the plurality of images (interpolated images) generated in step S27 and causes the display device 8 to display the combined image (see FIG. 6C).

《2−3》効果
以上に説明したように、実施の形態2に係る光学機器制御装置2、光学機器制御方法、及び光学機器制御プログラムによれば、図6(a)に示されるように、非撮影領域を形成する物体62が検出された場合に、物体62の位置及び形状を推定し、図6(b)に示されるように、推定結果に基づいて複数のカメラ6(6a,6b)を移動させ、複数のカメラ6(6a,6b)の配置(位置及び姿勢)とパラメータを設定する。このため、対象物61上に物体62が存在する場合であっても、図6(c)に示されるように、物体62のない所望の合成画像を表示装置8に表示させることができる。
<< 2-3 >> Effects As described above, according to the optical device control apparatus 2, the optical device control method, and the optical device control program of the second embodiment, as shown in FIG. When an object 62 forming a non-imaging area is detected, the position and shape of the object 62 are estimated, and as shown in FIG. 6B, a plurality of cameras 6 (6a, 6b) are based on the estimation result. To set the arrangement (position and attitude) and parameters of the plurality of cameras 6 (6a, 6b). Therefore, even when the object 62 is present on the target object 61, as shown in FIG. 6C, a desired composite image without the object 62 can be displayed on the display device 8.

1,2 光学機器制御装置、 3,3a,3b プロジェクタ(光学機器)、 4,4a,4b 移動機構、 5 現実空間情報取得部、 5a 現実空間情報取得部(カメラ)、 5b 現実空間情報取得部(センサ)、 6,6a,6b カメラ(光学機器)、 7,7a,7b 移動機構、 8 表示装置、 11 物体推定部、 12 配置計算部、 13 移動機構制御部、 14 パラメータ計算部、 15 画像データ生成部、 16 記憶部、 21 物体推定部、 22 配置計算部、 23 移動機構制御部、 24 パラメータ計算部、 25 画像データ生成部、 26 画像合成部、 27 記憶部、 51 対象物、 52 物体(光遮蔽物)、 53 影、 54 画像(合成投影画像)、 61 対象物、 61a 表示された対象物、 62 物体(光遮蔽物)、 62a 表示された物体、 64 画像(合成画像)、 AX 光軸。   1, 2 optical device control device, 3, 3a, 3b projector (optical device), 4, 4a, 4b moving mechanism, 5 real space information acquisition unit, 5a real space information acquisition unit (camera), 5b real space information acquisition unit (Sensors) 6, 6a, 6b Cameras (Optical Instruments) 7, 7a, 7b Moving Mechanisms, 8 Displays, 11 Object Estimator, 12 Placement Calculator, 13 Moving Mechanism Controller, 14 Parameter Calculator, 15 Images Data generation unit, 16 storage units, 21 object estimation unit, 22 arrangement calculation unit, 23 movement mechanism control unit, 24 parameter calculation unit, 25 image data generation unit, 26 image combination unit, 27 storage unit, 51 object, 52 object (Light shield), 53 shadows, 54 images (composite projection image), 61 objects, 61a displayed objects, 62 objects (Light shield), 62a displayed object 64 image (composite image), AX optical axis.

Claims (10)

対象物上に複数の画像を投影する複数の光学機器と前記複数の光学機器の配置を変更する複数の移動機構とを制御する光学機器制御装置であって、
前記複数の光学機器が前記対象物上に画像を投影しているときに現実空間情報取得部によって取得された現実空間情報に基づいて、前記複数の光学機器から投影された画像が前記対象物上に到達しない領域である影が形成されているか否かを判断し、前記影が検出されたときに前記影を形成する物体の配置を示す情報を取得する物体推定部と、
前記物体の配置を示す情報に基づいて、前記影が形成されない前記複数の光学機器の配置を計算する配置計算部と、
前記配置計算部によって計算された前記複数の光学機器の配置に基づいて、前記影が形成されない位置に前記複数の光学機器が配置されるように前記複数の移動機構を制御する移動機構制御部と、
を有することを特徴とする光学機器制御装置。
An optical device control apparatus for controlling a plurality of optical devices for projecting a plurality of images on a target object and a plurality of moving mechanisms for changing the arrangement of the plurality of optical devices.
Images projected from the plurality of optical devices are placed on the object based on the physical space information acquired by the physical space information acquisition unit when the plurality of optical devices are projecting an image onto the object. An object estimation unit that determines whether or not a shadow is formed that is an area that does not reach f, and acquires information indicating an arrangement of an object that forms the shadow when the shadow is detected;
An arrangement calculation unit configured to calculate an arrangement of the plurality of optical devices in which the shadow is not formed based on the information indicating the arrangement of the object;
A moving mechanism control unit that controls the plurality of moving mechanisms such that the plurality of optical devices are arranged at a position where the shadow is not formed based on the arrangement of the plurality of optical devices calculated by the arrangement calculation unit; ,
An optical device control apparatus characterized by having.
前記移動機構制御部は、前記複数の移動機構を制御することで、前記複数の光学機器の各々の位置と姿勢を変更することを特徴とする請求項1に記載の光学機器制御装置。   The optical device control apparatus according to claim 1, wherein the movement mechanism control unit changes the position and the attitude of each of the plurality of optical devices by controlling the plurality of movement mechanisms. 前記複数の光学機器の各々の位置及び姿勢に応じて、前記複数の光学機器が投影する前記複数の画像が連結された1つの合成画像が生成されるようにする、前記複数の光学機器の投影条件を示すパラメータを計算することを特徴とする請求項2に記載の光学機器制御装置。   Projection of the plurality of optical devices is configured to generate one combined image in which the plurality of images projected by the plurality of optical devices are connected according to the position and orientation of each of the plurality of optical devices. The optical instrument controller according to claim 2, wherein a parameter indicating a condition is calculated. 対象物を撮影することで前記対象物の複数の画像を取得する複数の光学機器と前記複数の光学機器の配置を変更する複数の移動機構とを制御する光学機器制御装置であって、
前記複数の光学機器により取得された前記複数の画像に基づいて、前記複数の光学機器が前記対象物上に非撮影領域を形成する物体が存在するか否かを判断し、前記物体が検出されたときに前記物体の配置を示す情報を取得する物体推定部と、
前記物体の配置を示す情報に基づいて、前記非撮影領域が形成されない前記複数の光学機器の配置を計算する配置計算部と、
前記配置計算部によって計算された前記複数の光学機器の配置に基づいて、前記非撮影領域が形成されない位置に前記複数の光学機器が配置されるように前記複数の移動機構を制御する移動機構制御部と、
を有することを特徴とする光学機器制御装置。
An optical device control apparatus for controlling a plurality of optical devices for acquiring a plurality of images of the object by photographing an object and a plurality of moving mechanisms for changing the arrangement of the plurality of optical devices,
Based on the plurality of images acquired by the plurality of optical devices, the plurality of optical devices determine whether or not an object forming a non-imaging area exists on the object, and the object is detected. An object estimation unit that acquires information indicating the arrangement of the object when the
An arrangement calculation unit configured to calculate an arrangement of the plurality of optical devices in which the non-shooting area is not formed based on the information indicating the arrangement of the object;
Movement mechanism control for controlling the plurality of movement mechanisms such that the plurality of optical devices are arranged at a position where the non-shooting area is not formed based on the arrangement of the plurality of optical devices calculated by the arrangement calculation unit Department,
An optical device control apparatus characterized by having.
前記移動機構制御部は、前記複数の移動機構を制御することで、前記複数の光学機器の各々の位置と姿勢を変更することを特徴とする請求項4に記載の光学機器制御装置。   The optical device control apparatus according to claim 4, wherein the movement mechanism control unit changes the position and the attitude of each of the plurality of optical devices by controlling the plurality of movement mechanisms. 前記複数の光学機器の各々の位置及び姿勢に応じて、前記複数の光学機器が撮影する前記複数の画像が連結された1つの合成画像が生成されるようにする、前記複数の光学機器の撮影条件を示すパラメータを計算することを特徴とする請求項5に記載の光学機器制御装置。   Photographing of the plurality of optical devices, wherein one composite image in which the plurality of images photographed by the plurality of optical devices are connected is generated according to the position and posture of each of the plurality of optical devices The optical instrument control apparatus according to claim 5, wherein a parameter indicating a condition is calculated. 対象物上に複数の画像を投影する複数の光学機器と前記複数の光学機器の配置を変更する複数の移動機構とを制御するための光学機器制御方法であって、
前記複数の光学機器が前記対象物上に画像を投影しているときに現実空間情報取得部によって取得された現実空間情報に基づいて、前記複数の光学機器から投影された画像が前記対象物上に到達しない領域である影が形成されているか否かを判断し、前記影が検出されたときに前記影を形成する物体の配置を示す情報を取得するステップと、
前記物体の配置を示す情報に基づいて、前記影が形成されない前記複数の光学機器の配置を計算するステップと、
計算された前記複数の光学機器の配置に基づいて、前記影が形成されない位置に前記複数の光学機器が配置されるように前記複数の移動機構を制御するステップと、
を有することを特徴とする光学機器制御方法。
An optical device control method for controlling a plurality of optical devices for projecting a plurality of images on an object and a plurality of moving mechanisms for changing the arrangement of the plurality of optical devices.
Images projected from the plurality of optical devices are placed on the object based on the physical space information acquired by the physical space information acquisition unit when the plurality of optical devices are projecting an image onto the object. Determining whether or not a shadow is formed which is an area which does not arrive at the area, and obtaining information indicating the arrangement of the object forming the shadow when the shadow is detected;
Calculating the arrangement of the plurality of optical devices in which the shadow is not formed based on the information indicating the arrangement of the object;
Controlling the plurality of moving mechanisms such that the plurality of optical devices are arranged at a position where the shadow is not formed based on the calculated arrangement of the plurality of optical devices;
An optical instrument control method comprising:
対象物を撮影することで前記対象物の複数の画像を取得する複数の光学機器と前記複数の光学機器の配置を変更する複数の移動機構とを制御するための光学機器制御方法であって、
前記複数の光学機器により取得された前記複数の画像に基づいて、前記複数の光学機器が前記対象物上に非撮影領域を形成する物体が存在するか否かを判断し、前記物体が検出されたときに前記物体の配置を示す情報を取得するステップと、
前記物体の配置を示す情報に基づいて、前記非撮影領域が形成されない前記複数の光学機器の配置を計算するステップと、
計算された前記複数の光学機器の配置に基づいて、前記非撮影領域が形成されない位置に前記複数の光学機器が配置されるように前記複数の移動機構を制御するステップと、
を有することを特徴とする光学機器制御方法。
An optical device control method for controlling a plurality of optical devices for acquiring a plurality of images of the object by photographing an object and a plurality of moving mechanisms for changing the arrangement of the plurality of optical devices,
Based on the plurality of images acquired by the plurality of optical devices, the plurality of optical devices determine whether or not an object forming a non-imaging area exists on the object, and the object is detected. Obtaining information indicating the placement of the object when the
Calculating the arrangement of the plurality of optical devices in which the non-shooting area is not formed based on the information indicating the arrangement of the object;
Controlling the plurality of moving mechanisms such that the plurality of optical devices are arranged at a position where the non-shooting area is not formed based on the calculated arrangement of the plurality of optical devices.
An optical instrument control method comprising:
対象物上に複数の画像を投影する複数の光学機器と前記複数の光学機器の配置を変更する複数の移動機構とを制御するための光学機器制御プログラムであって、
コンピュータに、
前記複数の光学機器が前記対象物上に画像を投影しているときに現実空間情報取得部によって取得された現実空間情報に基づいて、前記複数の光学機器から投影された画像が前記対象物上に到達しない領域である影が形成されているか否かを判断し、前記影が検出されたときに前記影を形成する物体の配置を示す情報を取得する処理と、
前記物体の配置を示す情報に基づいて、前記影が形成されない前記複数の光学機器の配置を計算する処理と、
計算された前記複数の光学機器の配置に基づいて、前記影が形成されない位置に前記複数の光学機器が配置されるように前記複数の移動機構を制御する処理と、
を実行させることを特徴とする光学機器制御プログラム。
An optical device control program for controlling a plurality of optical devices for projecting a plurality of images on a target object and a plurality of moving mechanisms for changing the arrangement of the plurality of optical devices.
On the computer
Images projected from the plurality of optical devices are placed on the object based on the physical space information acquired by the physical space information acquisition unit when the plurality of optical devices are projecting an image onto the object. Determining whether or not a shadow is formed that is an area that does not reach f, and acquiring information indicating an arrangement of an object that forms the shadow when the shadow is detected;
A process of calculating the arrangement of the plurality of optical devices in which the shadow is not formed based on the information indicating the arrangement of the object;
A process of controlling the plurality of movement mechanisms such that the plurality of optical devices are arranged at a position where the shadow is not formed based on the calculated arrangement of the plurality of optical devices;
An optical device control program characterized by performing:
対象物を撮影することで前記対象物の複数の画像を取得する複数の光学機器と前記複数の光学機器の配置を変更する複数の移動機構とを制御するための光学機器制御プログラムであって、
コンピュータに、
前記複数の光学機器により取得された前記複数の画像に基づいて、前記複数の光学機器が前記対象物上に非撮影領域を形成する物体が存在するか否かを判断し、前記物体が検出されたときに前記物体の配置を示す情報を取得する処理と、
前記物体の配置を示す情報に基づいて、前記非撮影領域が形成されない前記複数の光学機器の配置を計算する処理と、
計算された前記複数の光学機器の配置に基づいて、前記非撮影領域が形成されない位置に前記複数の光学機器が配置されるように前記複数の移動機構を制御する処理と、
を実行させることを特徴とする光学機器制御プログラム。
An optical device control program for controlling a plurality of optical devices for acquiring a plurality of images of the object by photographing an object and a plurality of movement mechanisms for changing the arrangement of the plurality of optical devices,
On the computer
Based on the plurality of images acquired by the plurality of optical devices, the plurality of optical devices determine whether or not an object forming a non-imaging area exists on the object, and the object is detected. Acquiring information indicating the arrangement of the object when the
A process of calculating the arrangement of the plurality of optical devices in which the non-shooting area is not formed based on the information indicating the arrangement of the object;
A process of controlling the plurality of moving mechanisms such that the plurality of optical devices are arranged at a position where the non-shooting area is not formed based on the calculated arrangement of the plurality of optical devices;
An optical device control program characterized by performing:
JP2019506820A 2017-03-23 2017-03-23 Optical device control device, optical device control method, and optical device control program Expired - Fee Related JP6641525B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011651 WO2018173183A1 (en) 2017-03-23 2017-03-23 Optical device control apparatus, optical device control method, and optical device control program

Publications (2)

Publication Number Publication Date
JPWO2018173183A1 true JPWO2018173183A1 (en) 2019-06-27
JP6641525B2 JP6641525B2 (en) 2020-02-05

Family

ID=63585099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019506820A Expired - Fee Related JP6641525B2 (en) 2017-03-23 2017-03-23 Optical device control device, optical device control method, and optical device control program

Country Status (2)

Country Link
JP (1) JP6641525B2 (en)
WO (1) WO2018173183A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116290A1 (en) * 2018-12-06 2020-06-11 株式会社アーティフィス Table projection device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297675A (en) * 2003-03-28 2004-10-21 Toshiba Corp Moving photographic apparatus
JP2007053621A (en) * 2005-08-18 2007-03-01 Mitsubishi Electric Corp Image generating apparatus
JP2007256506A (en) * 2006-03-22 2007-10-04 Victor Co Of Japan Ltd Image projector
JP2015125188A (en) * 2013-12-25 2015-07-06 公立大学法人広島市立大学 Autonomous moving type projector device, and method of moving the same
JP2015149522A (en) * 2014-02-04 2015-08-20 シャープ株式会社 Projection control apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104513A (en) * 2002-09-10 2004-04-02 Nippon Hoso Kyokai <Nhk> Method, device and program for remotely operating camera equipped with moving mechanism
JP2009193058A (en) * 2008-01-18 2009-08-27 Seiko Epson Corp Projection system and projector
JP5418072B2 (en) * 2009-08-28 2014-02-19 富士通株式会社 Monitoring control device and monitoring system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297675A (en) * 2003-03-28 2004-10-21 Toshiba Corp Moving photographic apparatus
JP2007053621A (en) * 2005-08-18 2007-03-01 Mitsubishi Electric Corp Image generating apparatus
JP2007256506A (en) * 2006-03-22 2007-10-04 Victor Co Of Japan Ltd Image projector
JP2015125188A (en) * 2013-12-25 2015-07-06 公立大学法人広島市立大学 Autonomous moving type projector device, and method of moving the same
JP2015149522A (en) * 2014-02-04 2015-08-20 シャープ株式会社 Projection control apparatus

Also Published As

Publication number Publication date
WO2018173183A1 (en) 2018-09-27
JP6641525B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
US10848745B2 (en) Head-mounted display tracking system
JP6860488B2 (en) Mixed reality system
US10504243B2 (en) Calibration system for a head-mounted display tracking system
JP5680196B2 (en) Optical measuring method and measuring system for obtaining three-dimensional coordinates on the surface of a measuring object
JP6377863B2 (en) Enhancement of depth map representation by reflection map representation
US9628779B2 (en) Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface
JP4532856B2 (en) Position and orientation measurement method and apparatus
TW201902212A (en) a near-eye display with an extended eye movement range that is tracked by the eye
US20140267427A1 (en) Projector, method of controlling projector, and program thereof
CN110771145A (en) Event camera
JP2019533918A (en) Array detector for depth mapping
TWI501193B (en) Computer graphics using AR technology. Image processing systems and methods
JPWO2020146785A5 (en)
CN110895433A (en) Method and apparatus for user interaction in augmented reality
JP6641525B2 (en) Optical device control device, optical device control method, and optical device control program
JP6456551B1 (en) OPTICAL DEVICE CONTROL DEVICE, OPTICAL DEVICE CONTROL METHOD, AND OPTICAL DEVICE CONTROL PROGRAM
JP5506371B2 (en) Image processing apparatus, image processing method, and program
JP7288792B2 (en) Information processing device and device information derivation method
JP6969739B2 (en) Location information acquisition system, location information acquisition method and program
KR101741150B1 (en) An imaging photographing device and an imaging photographing method using an video editing
JP6929037B2 (en) Information processing equipment, information processing methods, programs
KR101725932B1 (en) An imaging photographing device and an imaging photographing method using an video editing
JP2005098927A (en) Mobile unit detecting apparatus, mobile unit detecting method, and mobile unit detecting program
JP2016006654A (en) Visual field video information generation device
JP2012043345A (en) Image processing device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190322

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190322

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191227

R150 Certificate of patent or registration of utility model

Ref document number: 6641525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees