WO2016027524A1 - Information processing apparatus, information processing method, program, and electronic optical device - Google Patents

Information processing apparatus, information processing method, program, and electronic optical device Download PDF

Info

Publication number
WO2016027524A1
WO2016027524A1 PCT/JP2015/063387 JP2015063387W WO2016027524A1 WO 2016027524 A1 WO2016027524 A1 WO 2016027524A1 JP 2015063387 W JP2015063387 W JP 2015063387W WO 2016027524 A1 WO2016027524 A1 WO 2016027524A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical system
optical
image
feature amount
information processing
Prior art date
Application number
PCT/JP2015/063387
Other languages
French (fr)
Japanese (ja)
Inventor
暢彦 向井
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2016027524A1 publication Critical patent/WO2016027524A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details

Abstract

[Problem] To quantitatively and quickly measure a change of optical status that may occur in an optical system formed in an optical device. [Solution] An information processing apparatus of the present disclosure comprises: an image capture unit that captures a plurality of random pattern images, which are outputted from an optical device having a given optical system, in respective situations where the optical system exhibits respective different states, thereby generating a plurality of pieces of image capture data corresponding to the respective states of the optical system; a corresponding position determination unit that calculates, by use of the plurality of pieces of image capture data generated by the image capture unit, an optical flow among the plurality of captured images with respect to at least three arbitrary points in the captured images corresponding to the plurality of pieces of image capture data, thereby determining positions corresponding to each other among the plurality of captured images; and a feature quantity calculation unit that calculates, on the basis of a determination result obtained by the corresponding position determination unit, a feature quantity representative of the difference of the optical system among the plurality of captured images of interest.

Description

情報処理装置、情報処理方法、プログラム及び電子光学機器Information processing apparatus, information processing method, program, and electro-optical device
 本開示は、情報処理装置、情報処理方法、プログラム及び電子光学機器に関する。 The present disclosure relates to an information processing apparatus, an information processing method, a program, and an electro-optical device.
 近年、情報処理技術の発達に伴い、左眼用画像と右眼用画像とを別個にユーザへと出力することで立体画像をユーザに視認させる、いわゆるヘッドマウントディスプレイのような立体表示装置が普及するようになってきた。立体表示装置では、ユーザが左眼用画像と右眼用画像とをそれぞれ認識することで、画像を立体的に知覚する装置であるため、立体表示装置により提供される立体画像が、安全性や快適性という観点から適切であるか否かを評価することが重要となる。 In recent years, with the development of information processing technology, stereoscopic display devices such as so-called head-mounted displays that allow a user to visually recognize a stereoscopic image by separately outputting a left-eye image and a right-eye image to the user have become widespread. Has come to do. Since the stereoscopic display device is a device that perceives the image stereoscopically by the user recognizing the left-eye image and the right-eye image, the stereoscopic image provided by the stereoscopic display device is It is important to evaluate whether it is appropriate from the viewpoint of comfort.
 そこで、以下の特許文献1では、オプティカルフローを求める画像処理を利用して、左眼用画像と右眼用画像とを融像させて得られる立体映像を評価する技術が開示されている。 Therefore, Patent Document 1 below discloses a technique for evaluating a stereoscopic video obtained by fusing a left-eye image and a right-eye image using image processing for obtaining an optical flow.
特開2005-142819号公報JP 2005-142819 A
 ここで、上記特許文献1に開示の技術では、オプティカルフローを算出することで、立体映像の評価を行っている。しかしながら、オプティカルフローは、評価対象とする画像中に存在する特徴的な点に着目して算出を行うことが好ましく、評価対象とする画像によっては、十分な精度を有するオプティカルフローを算出できない可能性がある。 Here, in the technique disclosed in Patent Document 1, the stereoscopic image is evaluated by calculating the optical flow. However, it is preferable to calculate the optical flow by paying attention to characteristic points existing in the image to be evaluated, and depending on the image to be evaluated, there is a possibility that the optical flow having sufficient accuracy cannot be calculated. There is.
 また、立体表示装置では、装置内に設けられた光学系の変化に起因し、ユーザの左右の眼に投影される画像について、原理的に上下左右にズレが生じたり、大きさが異なったり、左右で傾きが生じたりする可能性がある。しかしながら、上記特許文献1に開示の技術では、画像そのものを評価することは可能であるが、立体表示装置の内部に設けられた光学系に生じうる変化を定量的かつ高速に計測することはできない。そのため、立体表示装置に設けられた光学系を評価する場合には、立体表示装置の生産ラインにおいて、検査者が自己の感覚と経験に基づいて主観的に判断するしかなかった。 In addition, in the stereoscopic display device, due to the change of the optical system provided in the device, the image projected on the left and right eyes of the user is theoretically shifted in the vertical and horizontal directions, the size is different, There is a possibility of tilting from side to side. However, although the technique disclosed in Patent Document 1 can evaluate the image itself, it cannot quantitatively and rapidly measure a change that can occur in the optical system provided in the stereoscopic display device. . Therefore, when evaluating an optical system provided in a stereoscopic display device, an inspector has to make subjective judgments based on his sense and experience in the production line of the stereoscopic display device.
 また、上記のような状況は、ズーム光学系を有する光学機器において広角側の画像と望遠側の画像を比較したい場合や、標準となる光学系と検査品の光学系とを比較したい場合においても同様であり、光学系に生じうる状態変化を定量的かつ高速に計測する技術が希求されていた。 In addition, the situation as described above is also necessary in the case where it is desired to compare the wide-angle side image and the telephoto side image in an optical apparatus having a zoom optical system, or in the case where it is desired to compare the standard optical system and the optical system of the inspection product Similarly, there has been a demand for a technique for quantitatively and rapidly measuring a state change that can occur in an optical system.
 そこで、本開示では、上記事情に鑑みて、光学機器に設けられた光学系に生じうる光学状態の変化を、定量的かつ高速に計測することが可能な情報処理装置、情報処理方法及びプログラムを提案する。 Therefore, in the present disclosure, in view of the above circumstances, an information processing apparatus, an information processing method, and a program capable of quantitatively and rapidly measuring a change in an optical state that may occur in an optical system provided in an optical apparatus. suggest.
 また、本開示では、光学系に生じうる光学状態の変化を定量的に表わした特徴量に基づいて、光学機器に設けられた光学系が調整される電子光学機器を提案する。 Also, the present disclosure proposes an electro-optical device in which an optical system provided in the optical device is adjusted based on a feature amount that quantitatively represents a change in an optical state that can occur in the optical system.
 本開示によれば、所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部と、前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定部と、前記対応位置特定部で得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出部と、を備える情報処理装置が提供される。 According to the present disclosure, a plurality of random pattern images output from an optical device having a predetermined optical system are captured in a situation where the state of the optical system is different, and a plurality of imaging data corresponding to the state of the optical system, respectively. And an optical flow between the plurality of captured images at an arbitrary point of at least three or more points in the captured image corresponding to the captured image data. By calculating, a corresponding position specifying unit that specifies positions corresponding to each other between the plurality of captured images, and between the plurality of captured images being focused on based on a specifying result obtained by the corresponding position specifying unit An information processing apparatus is provided that includes a feature amount calculation unit that calculates a feature amount that represents a difference in the optical system.
 また、本開示によれば、所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成することと、撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定することと、前記互いに対応する位置の特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出することと、を含む情報処理方法が提供される。 In addition, according to the present disclosure, a plurality of random pattern images output from an optical apparatus having a predetermined optical system are captured in a situation where the state of the optical system is different, and a plurality of images corresponding to the state of the optical system are respectively obtained. Generating imaging data, and using the plurality of captured image data, calculating an optical flow between the plurality of captured images at an arbitrary point of at least three points in the captured image corresponding to the captured data. Thus, specifying the positions corresponding to each other among the plurality of captured images and representing the difference in the optical system between the plurality of captured images of interest based on the identification result of the positions corresponding to each other Calculating an amount, and an information processing method is provided.
 また、本開示によれば、所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部を有するコンピュータに、前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定機能と、前記対応位置特定機能により得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出機能と、を実現させるためのプログラムが提供される。 In addition, according to the present disclosure, a plurality of random pattern images output from an optical apparatus having a predetermined optical system are captured in a situation where the state of the optical system is different, and a plurality of images corresponding to the state of the optical system are respectively obtained. A computer having an imaging unit that generates imaging data uses a plurality of imaging data captured by the imaging unit, and a plurality of captured images at arbitrary points of at least three points in a captured image corresponding to the imaging data. Based on the corresponding position specifying function for specifying positions corresponding to each other among the plurality of captured images and the specifying result obtained by the corresponding position specifying function by calculating the optical flow between There is provided a program for realizing a feature amount calculation function for calculating a feature amount representing a difference in the optical system between a plurality of captured images.
 また、本開示によれば、所定の画像を所定の表示画面に対して表示させる光学系と、所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部と、前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定部と、前記対応位置特定部で得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出部と、を備える情報処理装置により算出された前記特徴量に基づく特徴量情報を取得し、当該特徴量情報に基づいて前記光学系の調整を行う調整部と、を備える電子光学機器が提供される。 Further, according to the present disclosure, an optical system that displays a predetermined image on a predetermined display screen and a random pattern image output from an optical device having the predetermined optical system are in a state where the state of the optical system is different. An imaging unit that captures a plurality of images and generates a plurality of imaging data respectively corresponding to the state of the optical system, and a captured image corresponding to the imaging data using the plurality of imaging data captured by the imaging unit A corresponding position specifying unit that specifies positions corresponding to each other among the plurality of captured images by calculating an optical flow between the plurality of captured images at an arbitrary point of at least three points, and the corresponding position specifying unit A feature amount calculation unit that calculates a feature amount representing a difference in the optical system between the plurality of captured images of interest based on the obtained specific result. It acquires feature amount information based on the feature amount calculated by the electronic optical apparatus and an adjustment unit for adjusting the optical system based on the feature amount information is provided.
 本開示によれば、光学系の状態が異なる状況で撮像した複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間の互いに対応する位置が特定される。また、得られた特定結果に基づいて、着目している前記複数の撮像画像間における光学系の相違を表わす特徴量が算出される。 According to the present disclosure, optical data between a plurality of captured images is used at any point of at least three or more points in a captured image corresponding to the captured image data using a plurality of captured image data captured in different situations of the optical system. By calculating the flow, positions corresponding to each other between the plurality of captured images are specified. Further, based on the obtained specific result, a feature amount representing a difference in the optical system between the plurality of captured images of interest is calculated.
 以上説明したように本開示によれば、光学機器に設けられた光学系に生じうる光学状態の変化を、定量的かつ高速に計測することが可能となる。 As described above, according to the present disclosure, it is possible to quantitatively and rapidly measure a change in an optical state that may occur in an optical system provided in an optical apparatus.
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は、上記の効果に代えて、本明細書に示されたいずれかの効果、又は、本明細書から把握され得る他の効果が奏されてもよい。 Note that the above effects are not necessarily limited, and any of the effects shown in the present specification or other things that can be grasped from the present specification together with the above effects or instead of the above effects. The effect of may be produced.
本開示の第1の実施形態に係る情報処理装置の構成の一例を示したブロック図である。3 is a block diagram illustrating an example of a configuration of an information processing device according to a first embodiment of the present disclosure. FIG. 同実施形態に係る情報処理装置が有する演算処理部の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the arithmetic processing part which the information processing apparatus which concerns on the embodiment has. 同実施形態に係るランダムパターン画像の生成処理の一例を示した説明図である。It is explanatory drawing which showed an example of the production | generation process of the random pattern image which concerns on the embodiment. 同実施形態に係るランダムパターン画像の生成処理の一例を示した説明図である。It is explanatory drawing which showed an example of the production | generation process of the random pattern image which concerns on the embodiment. 同実施形態に係るランダムパターン画像の生成処理の一例を示した説明図である。It is explanatory drawing which showed an example of the production | generation process of the random pattern image which concerns on the embodiment. 同実施形態に係るオプティカルフローの算出処理の一例を示した説明図である。It is explanatory drawing which showed an example of the calculation process of the optical flow which concerns on the embodiment. 同実施形態に係るオプティカルフローの算出処理の一例を示した説明図である。It is explanatory drawing which showed an example of the calculation process of the optical flow which concerns on the embodiment. 同実施形態に係る特徴量の算出処理の一例を示した説明図である。It is explanatory drawing which showed an example of the feature-value calculation process which concerns on the embodiment. 同実施形態に係る特徴量の算出処理の一例を示した説明図である。It is explanatory drawing which showed an example of the feature-value calculation process which concerns on the embodiment. 同実施形態に係る特徴量の算出処理の一例を示した説明図である。It is explanatory drawing which showed an example of the feature-value calculation process which concerns on the embodiment. 同実施形態に係る光学系の状態判定処理の一例を示した説明図である。It is explanatory drawing which showed an example of the state determination process of the optical system which concerns on the same embodiment. 同実施形態に係る情報処理方法の流れの一例を示した流れ図である。It is the flowchart which showed an example of the flow of the information processing method which concerns on the embodiment. 同実施形態に係る電子光学機器の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the electro-optical apparatus which concerns on the same embodiment. 同実施形態に係る電子光学機器の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the electro-optical apparatus which concerns on the same embodiment. 本開示の実施形態に係る情報処理装置及び電子光学機器のハードウェア構成の一例を示したブロック図である。FIG. 3 is a block diagram illustrating an example of a hardware configuration of an information processing apparatus and an electro-optical device according to an embodiment of the present disclosure.
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
 なお、説明は以下の順序で行うものとする。
 1.第1の実施の形態
  1.1.情報処理装置の構成について
  1.2.情報処理方法の流れについて
  1.3.電子光学機器
 2.ハードウェア構成について
The description will be made in the following order.
1. 1. First embodiment 1.1. Configuration of information processing apparatus 1.2. Flow of information processing method 1.3. Electro-optical equipment About hardware configuration
(第1の実施形態)
<情報処理装置の構成について>
 まず、図1~図10を参照しながら、本開示の第1の実施形態に係る情報処理装置の構成について、詳細に説明する。
 図1は、本実施形態に係る情報処理装置の構成の一例を示したブロック図である。図2は、本実施形態に係る情報処理装置が有する演算処理部の構成の一例を示したブロック図である。図3~図4Bは、本実施形態に係るランダムパターン画像の生成処理の一例を示した説明図である。図5~図6は、本実施形態に係るオプティカルフローの算出処理の一例を示した説明図である。図7~図9は、本実施形態に係る特徴量の算出処理の一例を示した説明図である。図10は、本実施形態に係る光学系の状態判定処理の一例を示した説明図である。
(First embodiment)
<Configuration of information processing device>
First, the configuration of the information processing apparatus according to the first embodiment of the present disclosure will be described in detail with reference to FIGS. 1 to 10.
FIG. 1 is a block diagram illustrating an example of the configuration of the information processing apparatus according to the present embodiment. FIG. 2 is a block diagram illustrating an example of a configuration of an arithmetic processing unit included in the information processing apparatus according to the present embodiment. 3 to 4B are explanatory diagrams showing an example of the random pattern image generation process according to the present embodiment. 5 to 6 are explanatory diagrams showing an example of the optical flow calculation process according to the present embodiment. 7 to 9 are explanatory diagrams showing an example of the feature amount calculation processing according to the present embodiment. FIG. 10 is an explanatory diagram showing an example of the state determination process of the optical system according to the present embodiment.
[全体構成について]
 まず、図1を参照しながら、本実施形態に係る情報処理装置の全体構成を説明する。
 本実施形態に係る情報処理装置10は、光学機器1に設けられた光学系3から出力されるランダムパターン画像を撮像して、光学系3の光学的な状態を特徴づける特徴量を算出する装置であり、光学系3の光学的な状態を計測する計測装置として機能する。
[Overall configuration]
First, the overall configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG.
The information processing apparatus 10 according to the present embodiment captures a random pattern image output from the optical system 3 provided in the optical apparatus 1 and calculates a feature amount that characterizes the optical state of the optical system 3. And functions as a measuring device for measuring the optical state of the optical system 3.
 ここで、本実施形態に係る情報処理装置10が計測対象とする光学機器1については、特に限定されるものではなく、互いに相違する複数の光学的な状態を実現可能な公知の光学系3を有するものであればよい。光学機器1では、かかる光学系3を経て、各種の画像が外部へと出力される。 Here, the optical apparatus 1 to be measured by the information processing apparatus 10 according to the present embodiment is not particularly limited, and a known optical system 3 capable of realizing a plurality of different optical states is provided. What is necessary is just to have. In the optical apparatus 1, various images are output to the outside through the optical system 3.
 かかる光学機器1として、例えば、ズーム光学系を有する光学機器、ステレオ光学系を有する光学機器、又は、ステレオ画像を生成する光学機器等を挙げることができる。ズーム光学系を有する光学機器としては、例えば、カメラや、カムコーダや、望遠鏡等がある。ステレオ光学系を有する光学機器としては、例えば、顕微鏡や双眼鏡等がある。ステレオ画像を生成する光学機器は、ヘッドマウントディスプレイ等の立体表示装置等がある。 Examples of the optical device 1 include an optical device having a zoom optical system, an optical device having a stereo optical system, or an optical device that generates a stereo image. Examples of the optical apparatus having the zoom optical system include a camera, a camcorder, and a telescope. Examples of the optical apparatus having a stereo optical system include a microscope and binoculars. Optical devices that generate stereo images include stereoscopic display devices such as head-mounted displays.
 本実施形態に係る情報処理装置10は、図1に示したように、撮像部101と、演算処理部103と、記憶部105と、を主に備える。 The information processing apparatus 10 according to the present embodiment mainly includes an imaging unit 101, an arithmetic processing unit 103, and a storage unit 105, as illustrated in FIG.
 撮像部101は、各種のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等といった各種の撮像素子と、から構成されている。ここで、撮像部101を構成するレンズや撮像素子は、特に限定されるものではなく、光学機器1から出力される画像を適切に撮像可能なものであれば、公知のものを使用することができる。 The imaging unit 101 includes various lenses and various imaging elements such as a charge coupled device (CCD) and a complementary metal oxide semiconductor (CMOS). Here, the lens and the image sensor constituting the imaging unit 101 are not particularly limited, and any known one can be used as long as it can appropriately capture an image output from the optical device 1. it can.
 また、撮像部101は、レンズや撮像素子以外にも、これらレンズや撮像素子の設置位置を光学機器1に対して相対的に変化させるために、各種のモータやアクチュエータ等といった公知の駆動機構を有していても良い。 In addition to the lens and the image sensor, the imaging unit 101 uses a known drive mechanism such as various motors and actuators in order to change the installation position of the lens and the image sensor relative to the optical device 1. You may have.
 本実施形態に係る撮像部101は、所定の光学系3を有する光学機器1から出力されるランダムパターン画像を、光学系3の状態が異なる状況で複数撮像して、光学系3の状態にそれぞれ対応する複数の撮像データを生成する。 The imaging unit 101 according to the present embodiment captures a plurality of random pattern images output from the optical device 1 having the predetermined optical system 3 under different conditions of the optical system 3, and changes the state to the state of the optical system 3. A plurality of corresponding imaging data is generated.
 ここで、ランダムパターン画像とは、パターン配置のランダム性が数学的に保証されたパターン画像であって、あるパターン画像の内部において、同じパターンとなる部分が存在していない画像である。従って、かかるランダムパターン画像では、着目している位置での自己相関係数の値は1となり、着目している位置とそれ以外の位置との相互相関係数の値は0となる。このようなランダムパターン画像は、テクスチャの細かい画像を重ね合わせ合成するなどして作成可能であるが、0と1とからなる乱数で構成されたM系列信号を用いることで、作成することも可能である。 Here, the random pattern image is a pattern image in which the randomness of the pattern arrangement is mathematically guaranteed, and there is no portion having the same pattern in a certain pattern image. Therefore, in such a random pattern image, the value of the autocorrelation coefficient at the position of interest is 1, and the value of the cross-correlation coefficient between the position of interest and other positions is 0. Such a random pattern image can be created by overlaying and synthesizing images with fine textures, but can also be created by using an M-sequence signal composed of random numbers consisting of 0 and 1. It is.
 撮像部101が撮像するランダムパターン画像は、上記のようにして作成されたランダムパターン画像であっても良いが、後述する演算処理部103で生成された合成ランダムパターン画像を用いることがより好ましい。 The random pattern image captured by the imaging unit 101 may be a random pattern image created as described above, but it is more preferable to use a synthetic random pattern image generated by the arithmetic processing unit 103 described later.
 光学機器1から出力させる画像として、上記のようなランダムパターン画像を用い、かかるランダムパターン画像を撮像した撮像画像を演算処理することで、撮像画像を構成する画素の全てを、後述するオプティカルフローを算出する際の特徴点として利用できる。そのため、かかる撮像画像についてのオプティカルフローを算出する際には、画像を構成する任意の点でオプティカルフローを算出することができる。 Using the random pattern image as described above as an image to be output from the optical device 1 and performing an arithmetic process on the captured image obtained by capturing the random pattern image, all the pixels constituting the captured image are subjected to an optical flow described later. It can be used as a feature point when calculating. Therefore, when calculating the optical flow for such a captured image, the optical flow can be calculated at an arbitrary point constituting the image.
 また、「光学系3の状態が異なる状況」は、例えば、ヘッドマウントディスプレイ(HMD)における左眼用画像が出力される光学系と右眼用画像が出力される光学系のように、1つの光学機器1の内部に互いに状態の異なる複数の光学系3が存在することで、実現されていてもよい。また、「光学系3の状態が異なる状況」は、ズーム光学系を有する光学機器のように光学機器1内に1種類の光学系3が存在し、広角画像が出力される際の光学系と望遠画像が出力される際の光学系のように、光学系3の内部における各種光学素子の状態が変化することで、実現されていてもよい。また、「光学系3の状態が異なる状況」は、標準となる光学機器1が有している光学系3と検査対象となる光学機器1が有している光学系3のように、複数の光学機器1間で互いに異なる状態となりうる複数の光学系3により実現されていてもよい。 In addition, the “situation in which the state of the optical system 3 is different” refers to, for example, one optical system that outputs a left-eye image and one optical system that outputs a right-eye image in a head-mounted display (HMD). The optical device 1 may be realized by the presence of a plurality of optical systems 3 having different states. Further, “the situation in which the state of the optical system 3 is different” refers to an optical system in which one type of optical system 3 exists in the optical device 1 like an optical device having a zoom optical system and a wide-angle image is output. It may be realized by changing the state of various optical elements in the optical system 3 like an optical system when a telephoto image is output. In addition, “the situation where the state of the optical system 3 is different” means that the optical system 3 included in the standard optical device 1 and the optical system 3 included in the optical device 1 to be inspected have a plurality of It may be realized by a plurality of optical systems 3 that may be in different states between the optical devices 1.
 撮像部101により生成された、光学系3の状態にそれぞれ対応する複数の撮像データは、演算処理部103へと出力される。 A plurality of pieces of imaging data generated by the imaging unit 101 and corresponding to the state of the optical system 3 are output to the arithmetic processing unit 103.
 演算処理部103は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入力装置、出力装置、通信装置等により実現されている。演算処理部103は、撮像部101による撮像処理を制御するとともに、撮像部101により生成された複数の撮像データに対して各種の演算処理を実施することで、光学機器1に設けられた光学系3の状態を特徴づける特徴量を算出する。また、演算処理部103は、算出した特徴量に基づいて、光学機器1に設けられた光学系3の状態を判定することも可能である。更に、演算処理部103は、光学機器1で利用されるランダムパターン画像を生成して、光学機器1へと出力することも可能である。 The arithmetic processing unit 103 is implemented by, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input device, an output device, a communication device, and the like. The arithmetic processing unit 103 controls the imaging process performed by the imaging unit 101 and performs various arithmetic processes on a plurality of imaging data generated by the imaging unit 101, thereby providing an optical system provided in the optical apparatus 1. The feature quantity characterizing the state 3 is calculated. The arithmetic processing unit 103 can also determine the state of the optical system 3 provided in the optical device 1 based on the calculated feature amount. Further, the arithmetic processing unit 103 can generate a random pattern image used in the optical device 1 and output it to the optical device 1.
 かかる演算処理部103の詳細な構成については、以下で改めて詳細に説明する。 The detailed configuration of the arithmetic processing unit 103 will be described in detail later.
 記憶部105は、例えば本実施形態に係る情報処理装置10が備えるRAMやストレージ装置等により実現される。記憶部105には、撮像部101及び演算処理部103における処理に利用される各種のデータベースや、これら処理部が実行する各種の演算処理に用いられるアプリケーションを含む各種のプログラムや、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過などが、適宜記録されてもよい。 The storage unit 105 is realized by, for example, a RAM or a storage device included in the information processing apparatus 10 according to the present embodiment. The storage unit 105 performs various programs including various databases used for processing in the imaging unit 101 and the arithmetic processing unit 103, various programs including applications used for various arithmetic processes executed by these processing units, and some processing. Various parameters that need to be saved at the time, the progress of the process, and the like may be recorded as appropriate.
 この記憶部105は、撮像部101や、演算処理部103などの各処理部が、自由にアクセスし、データを書き込んだり読み出したりすることができる。 The storage unit 105 can be freely accessed by each processing unit such as the imaging unit 101 and the arithmetic processing unit 103 to write and read data.
 以上、図1を参照しながら、本実施形態に係る情報処理装置10の全体構成について、詳細に説明した。 The overall configuration of the information processing apparatus 10 according to the present embodiment has been described in detail above with reference to FIG.
[演算処理部103の構成について]
 次に、図2~図10を参照しながら、本実施形態に係る情報処理装置10が有する演算処理部103の構成について、詳細に説明する。
[Configuration of arithmetic processing unit 103]
Next, the configuration of the arithmetic processing unit 103 included in the information processing apparatus 10 according to the present embodiment will be described in detail with reference to FIGS.
 本実施形態に係る演算処理部103は、図2に示したように、撮像制御部111と、ランダムパターン画像生成部113と、データ出力部115と、データ取得部117と、対応位置特定部119と、特徴量算出部121と、光学系状態判定部123と、を有する。 As illustrated in FIG. 2, the arithmetic processing unit 103 according to the present embodiment includes an imaging control unit 111, a random pattern image generation unit 113, a data output unit 115, a data acquisition unit 117, and a corresponding position specifying unit 119. And a feature amount calculation unit 121 and an optical system state determination unit 123.
 撮像制御部111は、例えば、CPU、ROM、RAM、通信装置等により実現される。撮像制御部111は、撮像部101における撮像処理を統括的に制御する。また、撮像制御部111は、後述するデータ出力部115と互いに連携して、後述するランダムパターン画像生成部113により生成された合成ランダムパターン画像を、撮像対象とする光学機器1へと出力させることも可能である。これにより、本実施形態に係る情報処理装置10が備える撮像部101は、所定の光学系3を備える光学機器1から出力されたランダムパターン画像を、適切なタイミングで撮像することが可能となる。 The imaging control unit 111 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like. The imaging control unit 111 comprehensively controls imaging processing in the imaging unit 101. In addition, the imaging control unit 111 cooperates with a data output unit 115 described later to output a composite random pattern image generated by a random pattern image generation unit 113 described later to the optical device 1 to be imaged. Is also possible. Accordingly, the imaging unit 101 included in the information processing apparatus 10 according to the present embodiment can capture a random pattern image output from the optical device 1 including the predetermined optical system 3 at an appropriate timing.
 ランダムパターン画像生成部113は、例えば、CPU、ROM、RAM等により実現される。ランダムパターン画像生成部113は、光学機器1で用いられるランダムパターン画像を、M系列信号に基づき生成する。例えば、ランダムパターン画像生成部113は、図3に模式的に示したように、少なくとも2種類のM系列信号に基づくランダムパターン画像を合成することで、合成ランダムパターン画像を生成してもよい。 The random pattern image generation unit 113 is realized by a CPU, a ROM, a RAM, and the like, for example. The random pattern image generation unit 113 generates a random pattern image used in the optical device 1 based on the M-sequence signal. For example, as schematically illustrated in FIG. 3, the random pattern image generation unit 113 may generate a combined random pattern image by combining random pattern images based on at least two types of M-sequence signals.
 M系列信号(Maximum sequence code)は、次数mの素な既約多項式h(m)を用いて生成される、長さn=2-1のランダム信号系列であり、系列を構成する数字は0と1のみから構成されている。かかるM系列信号を、画像を構成する画素に対して割り当てることで、ランダムパターン画像を得ることができる。例えば、M系列信号を1画素ごとに割り当てることで生成されたランダムパターン画像を、以下では便宜的に「M1画像」と称することとする。また、M系列信号を、p×p(p≧2)画素で規定される画素領域ごとに割り当てることで生成されたランダムパターン画像を、以下では便宜的に「Mp画像」と称することとする。 An M-sequence signal (Maximum sequence code) is a random signal sequence of length n = 2 m −1 generated using a prime irreducible polynomial h (m) of degree m, and the numbers constituting the sequence are It consists only of 0 and 1. A random pattern image can be obtained by assigning such M-sequence signals to the pixels constituting the image. For example, a random pattern image generated by assigning an M-sequence signal for each pixel is hereinafter referred to as an “M1 image” for convenience. A random pattern image generated by assigning an M-sequence signal to each pixel region defined by p × p (p ≧ 2) pixels will be referred to as an “Mp image” for convenience.
 ランダムパターン画像を生成する際に利用する既約多項式h(m)の次数mは、撮像部101により生成される画像(撮像データに対応する画像)の画素数に応じて決定することが好ましい。具体的には、撮像データに対応する画像(撮像画像)がP画素から構成されている場合、m≧log(P)を満たすような整数mが選択されることが好ましい。このような整数mを選択することで、画像内に繰り返しパターンが存在しないようにすることが可能となる。 The degree m of the irreducible polynomial h (m) used when generating the random pattern image is preferably determined according to the number of pixels of the image (image corresponding to the imaging data) generated by the imaging unit 101. Specifically, when an image (captured image) corresponding to the captured data is composed of P pixels, it is preferable to select an integer m that satisfies m ≧ log 2 (P). By selecting such an integer m, it is possible to prevent a repeated pattern from being present in the image.
 ここで、合成ランダムパターン画像を生成するために用いられるランダムパターン画像は、後述する対応位置特定部119で実施されるオプティカルフローの算出処理における処理単位であるウィンドウサイズに応じて選択されることが好ましい。すなわち、ランダムパターン画像生成部113は、ランダムパターン画像を構成するドットの大きさが、かかるウィンドウサイズよりも小さい第1のランダムパターン画像と、ドットの大きさがウィンドウサイズよりも大きい第2のランダムパターン画像と、を少なくとも選択することが好ましい。 Here, the random pattern image used for generating the synthesized random pattern image may be selected according to the window size that is a processing unit in the optical flow calculation process performed by the corresponding position specifying unit 119 described later. preferable. That is, the random pattern image generation unit 113 includes a first random pattern image in which the size of the dots constituting the random pattern image is smaller than the window size, and a second random size in which the size of the dots is larger than the window size. It is preferable to select at least a pattern image.
 上記第2のランダムパターン画像を用いることで、撮像対象とした光学系3にボケが生じていた場合であっても、ランダムパターン画像を構成するパターンが完全に潰れることはなく、後段の対応位置特定部119において、より正確な演算処理を行うことが可能となる。また、上記第1のランダムパターン画像を用いることで、オプティカルフロー演算の際のウィンドウサイズが比較的小さい場合であっても、オプティカルフローを算出することができる。従って、計算量の増加を抑えながら、精度の高いオプティカルフローの算出処理を実現することができる。 By using the second random pattern image, the pattern constituting the random pattern image is not completely crushed even if the optical system 3 as the imaging target is blurred, and the corresponding position in the subsequent stage The specifying unit 119 can perform more accurate calculation processing. Further, by using the first random pattern image, the optical flow can be calculated even when the window size in the optical flow calculation is relatively small. Accordingly, it is possible to realize a highly accurate optical flow calculation process while suppressing an increase in the calculation amount.
 上記のような知見を踏まえ、ランダムパターン画像生成部113は、例えば図4Aに示したように、M1画像、M3画像、M5画像、M7画像、M9画像・・・のように、ドットサイズが奇数のランダムパターン画像のみを利用して、合成ランダムパターン画像を生成してもよい。また、ランダムパターン画像生成部113は、例えば図4Bに示したように、M2画像、M4画像、M6画像、M8画像、M10画像・・・のように、ドットサイズが偶数のランダムパターン画像のみを利用して、合成ランダムパターン画像を生成してもよい。 Based on the knowledge as described above, the random pattern image generation unit 113 has an odd dot size such as M1, M3, M5, M7, M9,..., As shown in FIG. A synthetic random pattern image may be generated using only the random pattern image. Further, the random pattern image generation unit 113, for example, as shown in FIG. 4B, only random pattern images with an even dot size such as M2, M4, M6, M8, M10, and so on. Utilizing this, a synthetic random pattern image may be generated.
 ここで、ランダムパターン画像が、撮像部101の周波数特性によって決まる制限を超えるような高周波成分を有している場合、撮像画像中に折り返し雑音が生じてしまい、元の信号を完全に復元することが出来なくなってしまう。そこで、かかる高周波成分を有するランダムパターン画像については、ローパスフィルタ(LPF)を作用させることで、高周波成分を除去することが好ましい。このようにして得られるランダムパターン画像(図4A及び図4Bでは、「M#F画像」と表記している。)を用いることで、撮像部101のボケやモアレ干渉の影響を抑制することが可能となる。なお、用いるローパスフィルタは特に限定されるものではなく、公知のものを利用することが可能であるが、例えば、高速フーリエ変換(FFT)等のフーリエ変換及び逆フーリエ変換と周波数フィルタとを組み合わせたり、平均化フィルタを用いたりすればよい。 Here, when the random pattern image has a high frequency component exceeding the limit determined by the frequency characteristics of the imaging unit 101, aliasing noise is generated in the captured image, and the original signal is completely restored. Will not be able to. Therefore, it is preferable to remove a high frequency component by applying a low pass filter (LPF) to a random pattern image having such a high frequency component. By using the random pattern image obtained in this way (indicated as “M # F image” in FIGS. 4A and 4B), the influence of blur and moire interference of the imaging unit 101 can be suppressed. It becomes possible. Note that the low-pass filter to be used is not particularly limited, and a known filter can be used. For example, a Fourier transform such as a fast Fourier transform (FFT) or an inverse Fourier transform and a frequency filter may be combined. An averaging filter may be used.
 また、本発明者による更なる検討の結果、ランダムパターン画像を撮像した撮像画像のほぼ全面においてより確実にオプティカルフローを算出するためには、オプティカルフロー算出の際のウィンドウサイズを、ランダムパターン画像のドットサイズの2~3倍とすることが更に好ましいことが明らかとなった。そのため、ランダムパターン画像生成部113は、合成ランダムパターン画像を生成する際に、図3に示したような処理に代えて、ドットサイズがウィンドウサイズの1/2以下である複数のランダムパターン画像を利用することが好ましい。また、ランダムパターン画像生成部113は、合成ランダムパターン画像を生成する際に、ドットサイズがウィンドウサイズの1/3以下である複数のランダムパターン画像を利用することが更に好ましい。 Further, as a result of further studies by the present inventors, in order to calculate the optical flow more reliably over almost the entire captured image obtained by capturing the random pattern image, the window size at the time of optical flow calculation is set to It has become clear that it is more preferable to set the dot size to 2 to 3 times. Therefore, when generating a composite random pattern image, the random pattern image generation unit 113 replaces the processing shown in FIG. 3 with a plurality of random pattern images whose dot size is ½ or less of the window size. It is preferable to use it. In addition, it is more preferable that the random pattern image generation unit 113 uses a plurality of random pattern images whose dot size is 1/3 or less of the window size when generating the composite random pattern image.
 ランダムパターン画像生成部113は、このようにして生成した合成ランダムパターン画像を、データ出力部115へと出力する。 The random pattern image generation unit 113 outputs the composite random pattern image generated in this way to the data output unit 115.
 データ出力部115は、例えば、CPU、ROM、RAM、通信装置等により実現される。データ出力部115は、ランダムパターン画像生成部113によって生成された合成ランダムパターン画像を、撮像部101が撮像対象としている光学機器1へと出力する。これにより、光学機器1では、かかる合成ランダムパターン画像が光学系3を経て出力されることとなる。 The data output unit 115 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like. The data output unit 115 outputs the combined random pattern image generated by the random pattern image generation unit 113 to the optical device 1 that is the imaging target of the imaging unit 101. As a result, in the optical apparatus 1, the composite random pattern image is output through the optical system 3.
 データ取得部117は、例えば、CPU、ROM、RAM、通信装置等により実現される。データ取得部117は、撮像部101で生成された複数の撮像データをそれぞれ取得して、後述する対応位置特定部119へと出力する。 The data acquisition unit 117 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like. The data acquisition unit 117 acquires a plurality of pieces of imaging data generated by the imaging unit 101 and outputs them to a corresponding position specifying unit 119 described later.
 対応位置特定部119は、例えば、CPU、ROM、RAM等により実現される。対応位置特定部119は、撮像部101により撮像された複数の撮像データを利用し、撮像データに対応する撮像画像での少なくとも3点以上の任意の点(好ましくは、一直線上にない3点以上の点)で、複数の撮像画像間のオプティカルフローを算出する。その後、対応位置特定部119は、算出したオプティカルフローに基づき、複数の撮像画像間において互いに対応する位置を特定する。ここで、オプティカルフローを算出する点は、撮像画像中における任意の点であればよく、撮像画像における格子点であっても良いし、格子点でなくても良い。 The corresponding position specifying unit 119 is realized by, for example, a CPU, a ROM, a RAM, and the like. The corresponding position specifying unit 119 uses a plurality of imaging data captured by the imaging unit 101, and at least three or more arbitrary points (preferably, three or more points not on a straight line) in the captured image corresponding to the imaging data. ), The optical flow between the plurality of captured images is calculated. Thereafter, the corresponding position specifying unit 119 specifies positions corresponding to each other among the plurality of captured images based on the calculated optical flow. Here, the point for calculating the optical flow may be any point in the captured image, and may be a lattice point in the captured image or may not be a lattice point.
 撮像部101により生成された撮像画像では、図5に模式的に示したように、複数の点を考えることができる。いま、撮像部101により生成された複数の撮像画像のうちの1つを画像Aと称することとし、他の1つを画像Bと称することとする。また、画像Aの点を(M,M)と表記することとし、画像Bの点を(P,P)と表記することとする。 In the captured image generated by the imaging unit 101, a plurality of points can be considered as schematically illustrated in FIG. Now, one of the plurality of captured images generated by the imaging unit 101 will be referred to as an image A, and the other one will be referred to as an image B. Further, and be expressed points of the image A and (M x, M y), a point image B (P x, P y) will be denoted as.
 対応位置特定部119は、オプティカルフローの算出に先立って、ランダムパターン画像生成部113と互いに連携しながら、適切なウィンドウサイズを設定する。設定するウィンドウサイズの具体的な大きさについては、特に限定されるものではなく、求めるオプティカルフローの算出精度に応じて、適宜設定すればよい。 The corresponding position specifying unit 119 sets an appropriate window size in cooperation with the random pattern image generation unit 113 prior to the calculation of the optical flow. The specific size of the window size to be set is not particularly limited, and may be set as appropriate according to the required optical flow calculation accuracy.
 対応位置特定部119は、オプティカルフローを算出する点の数を、少なくとも3点以上に設定する。後述する特徴量算出部121では、着目している画像Aと画像Bとを関連付ける幾何学変換行列を特定する処理が実施されるが、2つの画像間で生じうる幾何学変換は、後述するようにアフィン変換と射影変換の2種類となる。ここで、以下で詳述するように、2つの画像を特徴づける幾何学変換をアフィン変換とするモデルを採用する場合、3行×3列のアフィン変換行列における未知数の数は6つとなる。従って、後述する特徴量算出部121において、アフィン変換モデルが採用される場合には、対応位置特定部119は、少なくとも3点(処理に適用される値は6つとなる。)とすればよい。また、2つの画像を特徴づける幾何学変換を射影変換とするモデルを採用する場合、3行×3列の射影変換行列における未知数の数は8つとなる。従って、後述する特徴量算出部121において、射影変換モデルが採用される場合には、対応位置特定部119は、少なくとも4点(処理に適用される値は8つとなる。)とすればよい。 The corresponding position specifying unit 119 sets the number of points for calculating the optical flow to at least 3 points. The feature amount calculation unit 121 described later performs a process of specifying a geometric conversion matrix that associates the image A and the image B of interest. The geometric conversion that can occur between the two images will be described later. There are two types: affine transformation and projective transformation. Here, as described in detail below, in the case of adopting a model in which the geometric transformation characterizing two images is an affine transformation, the number of unknowns in the affine transformation matrix of 3 rows × 3 columns is six. Therefore, when the affine transformation model is adopted in the feature amount calculation unit 121 described later, the corresponding position specifying unit 119 may be at least three points (the number of values applied to the process is six). Further, when adopting a model in which the geometric transformation characterizing two images is a projective transformation, the number of unknowns in the projection transformation matrix of 3 rows × 3 columns is eight. Therefore, when the projective transformation model is adopted in the feature amount calculation unit 121 described later, the corresponding position specifying unit 119 may be at least 4 points (the number of values applied to the process is 8).
 本発明者は、事前検証として、ランダムパターン画像と、このランダムパターン画像を回転・平行移動・拡大縮小のみをさせた画像と、を用いて、4点~8000点の点について、オプティカルフローの算出処理を試みた。その結果、歪みが殆どない変換画像を検証に用いた場合には、オプティカルフローの算出精度に有意な差は認められなかった。従って、実際の光学系3の計測においても、比較する2つの画像間で正確なアフィン変換又は射影変換が考えられるのであれば、オプティカルフローを算出する点の個数が3点(アフィン変換の場合)又は4点(射影変換の場合)であっても、オプティカルフローの算出結果は、十分な精度を有していると考えられる。また、2つの画像間で、アフィン変換又は射影変換だけでは表せられない光学歪みやボケ等が存在する場合も生じうる。この場合には、オプティカルフローを算出する点の個数を1000点以下(例えば、数十~数百点程度)とし、かかる点を画像全体に均等に配置することで、十分な精度のオプティカルフローを算出することが可能であることが分かった。 As a prior verification, the present inventor calculated an optical flow for 4 to 8000 points using a random pattern image and an image obtained by rotating, translating, and enlarging / reducing the random pattern image. Tried to process. As a result, when a converted image with almost no distortion was used for verification, no significant difference was found in the accuracy of optical flow calculation. Accordingly, in the actual measurement of the optical system 3, if accurate affine transformation or projective transformation is considered between two images to be compared, the number of points for calculating the optical flow is three (in the case of affine transformation). Alternatively, even if there are four points (in the case of projective transformation), the optical flow calculation result is considered to have sufficient accuracy. In addition, there may be a case where optical distortion or blur that cannot be expressed only by affine transformation or projective transformation exists between two images. In this case, the number of points for calculating the optical flow is set to 1000 points or less (for example, about several tens to several hundred points), and the optical flow with sufficient accuracy can be obtained by arranging the points uniformly over the entire image. It was found that it was possible to calculate.
 対応位置特定部119は、このようにして着目する2つの画像間でオプティカルフローを算出することで、図6に模式的に示したように、画像Aにおける点A(M,M)に対応する点を、画像Bを構成する点の中から特定する。これにより、対応位置特定部119は、画像Aにおける点A(M,M)に対応する画像Bの点が、点B(P,P)であることを特定することができる。対応位置特定部119は、このような対応位置の特定処理を、オプティカルフローを算出した点に対して実施する。なお、対応位置特定部119は、十分に多くの点についてオプティカルフローを算出している場合、後述する特徴量算出部121における特徴量算出処理において、十分な精度が得られる程度の点の個数についてのみ、対応位置の特定処理を行ってもよいし、オプティカルフローを算出した全ての点について、対応位置の特定処理を行ってもよい。 The corresponding position specifying unit 119 calculates the optical flow between the two images of interest in this manner, and thereby, at the point A (M x , M y ) in the image A as schematically shown in FIG. Corresponding points are identified from the points constituting the image B. Thereby, the corresponding position specifying unit 119 can specify that the point of the image B corresponding to the point A (M x , M y ) in the image A is the point B (P x , P y ). The corresponding position specifying unit 119 performs such a corresponding position specifying process on the point where the optical flow is calculated. In addition, when the corresponding position specifying unit 119 calculates the optical flow for a sufficiently large number of points, the number of points for which sufficient accuracy can be obtained in the feature amount calculation processing in the feature amount calculation unit 121 described later. However, the corresponding position specifying process may be performed, or the corresponding position specifying process may be performed for all points for which optical flows have been calculated.
 対応位置特定部119は、オプティカルフローの算出結果に基づいて、着目している2つの画像間の点の対応関係を特定すると、得られた特定結果を、特徴量算出部121に出力する。 Corresponding position specifying unit 119, when specifying the correspondence between the two points of interest based on the optical flow calculation result, outputs the obtained specifying result to feature amount calculating unit 121.
 特徴量算出部121は、例えば、CPU、ROM、RAM等により実現される。特徴量算出部121は、対応位置特定部119で得られた特定結果に基づいて、着目している複数の撮像画像間における光学系の相違を表わす特徴量を算出する。 The feature amount calculation unit 121 is realized by, for example, a CPU, a ROM, a RAM, and the like. The feature amount calculation unit 121 calculates a feature amount representing a difference in the optical system between a plurality of focused images based on the specification result obtained by the corresponding position specification unit 119.
 より詳細には、特徴量算出部121は、対応位置特定部119により得られた点の対応関係の特定結果を利用して、第1の撮像データに対応する第1の画像(画像A)と、第2の撮像データに対応する第2の画像(画像B)と、の幾何学的な対応関係を表わす変換行列を算出する。その上で、特徴量算出部121は、算出した変換行列を利用して、光学系のズレ、光学系に起因する画像サイズの変化、光学系の傾き及び光学系の歪みを表わす特徴量(以下、「光学系特徴量」とも称する。)を算出する。 In more detail, the feature quantity calculation unit 121 uses the identification result of the point correspondence obtained by the corresponding position identification unit 119 and the first image (image A) corresponding to the first imaging data. Then, a transformation matrix representing the geometric correspondence between the second image (image B) corresponding to the second image data is calculated. In addition, the feature quantity calculation unit 121 uses the calculated transformation matrix to calculate a feature quantity (hereinafter referred to as an optical system shift, an image size change caused by the optical system, an optical system tilt, and an optical system distortion). , Also referred to as “optical system feature amount”).
 本実施形態に係る特徴量算出部121では、図7に模式的に示したように、画像Aと画像Bとの幾何学的な対応関係を表わす幾何学変換として、アフィン変換と射影変換の2種類を考慮している。以下では、アフィン変換モデルと射影変換モデルの双方について、特徴量算出部121で実施される演算処理を具体的に説明する。 In the feature quantity calculation unit 121 according to the present embodiment, as schematically shown in FIG. 7, as the geometric transformation representing the geometric correspondence between the image A and the image B, two of affine transformation and projective transformation are used. Consider the type. Hereinafter, the arithmetic processing performed by the feature amount calculation unit 121 for both the affine transformation model and the projective transformation model will be specifically described.
[アフィン変換モデル]
 まず、アフィン変換モデルを採用した場合の特徴量算出部121における特徴量算出処理について、具体的に説明する。
 点A(M,M)と点B(P,P)とがアフィン変換で関連付けられる場合、その関係は、以下の式101のように表わすことができる。ここで、以下の式101において、行列Aは、以下の式103で表わされるような、アフィン変換を表わす変換行列である。式103から明らかなように、アフィン変換行列Aは、その行列要素中に6つの未知数a11~a23を有している。
[Affine transformation model]
First, the feature amount calculation processing in the feature amount calculation unit 121 when the affine transformation model is adopted will be specifically described.
When the point A (M x , M y ) and the point B (P x , P y ) are related by affine transformation, the relationship can be expressed as in the following expression 101. Here, in the following equation 101, the matrix A is a transformation matrix representing an affine transformation as represented by the following equation 103. As is apparent from Equation 103, the affine transformation matrix A has six unknowns a 11 to a 23 in its matrix elements.
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001
 ここで、アフィン変換は、以下の式105で表わされる平行移動操作と、式107で表わされる回転操作と、式109で表わされるスキュー(剪断)操作と、式111で表わされる拡大・縮小操作と、の組み合わせとして規定される。なお、以下の式105において、行列要素T,Tは、それぞれx軸方向及びy軸方向の位置シフト量に対応し、式107における角度θは、回転角度に対応し、式109における角度φは、スキュー角度に対応し、式111における行列要素S,Sは、それぞれx軸方向及びy軸方向のサイズ変化量に対応している。 Here, the affine transformation includes a translation operation represented by the following equation 105, a rotation operation represented by equation 107, a skew (shearing) operation represented by equation 109, and an enlargement / reduction operation represented by equation 111. , Is defined as a combination. In the following equation 105, matrix elements T x and T y correspond to the position shift amounts in the x-axis direction and the y-axis direction, respectively, the angle θ in equation 107 corresponds to the rotation angle, and the angle in equation 109 φ corresponds to the skew angle, and the matrix elements S x and S y in Equation 111 correspond to the size change amounts in the x-axis direction and the y-axis direction, respectively.
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000002
 具体的には、特徴量算出部121は、拡大・縮小操作、スキュー操作、回転操作及び平行移動操作が順に行われた場合の変換行列である、以下の式103’で表わされるアフィン変換行列Aを想定し、特徴量の算出処理を行う。 Specifically, the feature amount calculation unit 121 is an affine transformation matrix A represented by the following Expression 103 ′, which is a transformation matrix when an enlargement / reduction operation, a skew operation, a rotation operation, and a translation operation are performed in order. As a result, feature amount calculation processing is performed.
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000003
 特徴量算出部121は、式103’で表わされるアフィン変換行列Aを、対応位置特定部119により得られた点の対応関係の特定結果を利用して、以下の式113a、113bに基づき算出する。ここで、以下の式113a,113bでは、3行×3列の行列の逆行列を算出する処理が存在するが、かかる逆行列は、3行×3列の逆行列の一般解を用いて算出することができる。 The feature amount calculation unit 121 calculates the affine transformation matrix A represented by the equation 103 ′ based on the following equations 113a and 113b using the identification result of the point correspondence obtained by the corresponding position identification unit 119. . Here, in the following formulas 113a and 113b, there is a process of calculating an inverse matrix of a matrix of 3 rows × 3 columns, and the inverse matrix is calculated using a general solution of an inverse matrix of 3 rows × 3 columns. can do.
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000004
 ここで、上記式113a,113bにおいて、シグマ記号は、利用する点の全てについて、各要素で表わされる値の和を算出することを表わし、Nは、演算に利用する点の個数を表わしている。 Here, in the above formulas 113a and 113b, the sigma symbol represents that the sum of the values represented by the respective elements is calculated for all the points to be used, and N represents the number of points to be used for the calculation. .
 特徴量算出部121は、オプティカルフローの算出結果に基づいて上記式113a,113bで表わされる演算を行うことで、式103,103’で表わされるアフィン変換行列Aの各行列要素a11~a23を特定することができる。 The feature quantity calculation unit 121 performs the operations represented by the above formulas 113a and 113b based on the calculation result of the optical flow, whereby the matrix elements a 11 to a 23 of the affine transformation matrix A represented by the formulas 103 and 103 ′. Can be specified.
 式103及び式103’の比較から明らかなように、アフィン変換行列Aの行列要素の値が特定できると、式103及び式103’を連立することで、サイズ変化量S,S、位置シフト量T,T、回転角度θ及びスキュー角度φを算出することができる。そこで、特徴量算出部121は、得られたアフィン変換行列Aの値を利用し、以下の式115~式125に基づいて、上記の光学系特徴量を算出する。 As is clear from the comparison between Expression 103 and Expression 103 ′, when the values of the matrix elements of the affine transformation matrix A can be specified, the size change amounts S x , S y , and position are obtained by combining Expression 103 and Expression 103 ′. The shift amounts T x , T y , the rotation angle θ, and the skew angle φ can be calculated. Therefore, the feature quantity calculation unit 121 uses the value of the obtained affine transformation matrix A to calculate the optical system feature quantity based on the following formulas 115 to 125.
 また、特徴量算出部121は、アフィン変換で表現できない歪みや画像の倒れ具合の大きさを表わす特徴量として、以下の式127で表わされる変換誤差の標準偏差σを算出する。ここで、以下の式127において、(P,P)は、対応位置特定部119によって特定された点の値であり、ハット記号のついた(P,P)は、得られたアフィン変換行列Aを用いて(M,M)をアフィン変換した際の推定値である。かかる標準偏差σの値が小さい場合には、歪みや倒れの量が小さいことを表わし、標準偏差σの値が大きい場合には、歪みや倒れの量が大きいことを表わす。 Further, the feature quantity calculation unit 121 calculates a standard deviation σ of a conversion error represented by the following expression 127 as a feature quantity that represents a distortion that cannot be expressed by affine transformation or a degree of image collapse. Here, in the following expression 127, (P x , P y ) is the value of the point specified by the corresponding position specifying unit 119, and (P x , P y ) with a hat symbol is obtained. It is an estimated value when (M x , M y ) is affine transformed using the affine transformation matrix A. When the value of the standard deviation σ is small, it indicates that the amount of distortion or collapse is small, and when the value of the standard deviation σ is large, it indicates that the amount of distortion or collapse is large.
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000005
 特徴量算出部121は、以上のような演算処理を行うことで、上記式115~式127で表わされるような、光学系3の状態(光学状態)の相違を表わす光学系特徴量を算出する。 The feature amount calculation unit 121 calculates an optical system feature amount that represents a difference in the state (optical state) of the optical system 3 as expressed by the above formulas 115 to 127 by performing the above arithmetic processing. .
 なお、アフィン変換モデルにおける変換行列Aは、上記式105~式111で表わされる4つの変換行列の組み合わせとして規定されるため、4つの変換行列の順列は、以下の24通り(=)が考えられる。 Since the transformation matrix A in the affine transformation model is defined as a combination of the four transformation matrices represented by the above formulas 105 to 111, the following 24 permutations of the four transformation matrices (= 4 P 4 ) Can be considered.
 TRKS,TSRK,TSKR,TRSK,TKSR,TKRS,
 RTKS,RSTK,RSKT,RTSK,RKST,RKTS,
 KRTS,KSRT,KSTR,KRST,KTSR,KTRS,
 SRKT,STRK,STKR,SRTK,SKTR,SKRT
TRKS, TSRK, TSKR, TRSK, TKSR, TKRS,
RTKS, RSTK, RSKT, RTSK, RKST, RKTS,
KRTS, KSRT, KSTR, KRST, KTSR, KTRS,
SRKT, STRK, STKR, SRTK, SKTR, SKRT
 上記24通りの順列のうち、最後に平行移動操作を行う「TRKS」、「TSRK」、「TSKR」、「TRSK」、「TKSR」、「TKRS」以外のアフィン変換モデルについては、実際に上記4つの行列演算を実施すると明らかであるが、アフィン変換モデルの平行移動量(位置シフト量)を示す要素(a13,a23)がT,Tとならない。そのため、上記の演算結果として得られたT,Tを縦シフト量及び横シフト量として扱うことができない。 Of the 24 permutations, affine transformation models other than “TRKS”, “TSRK”, “TSKR”, “TRSK”, “TKSR”, and “TKRS” that perform the translation operation last are actually the above 4 It is clear that two matrix operations are performed, but the elements (a 13 , a 23 ) indicating the parallel movement amount (position shift amount) of the affine transformation model do not become T x , T y . For this reason, T x and T y obtained as a result of the above calculation cannot be handled as the vertical shift amount and the horizontal shift amount.
 上記6種類のアフィン変換モデルのうち、「TSRK」、「TRSK」、「TKRS」の3種類については、連立方程式を解くことでS,S,θ,φ,T,Tを求める演算が比較的複雑であり、扱いが困難となる。 Of the above six types of affine transformation models, for three types of “TSRK”, “TRSK”, and “TKRS”, S x , S y , θ, φ, T x , T y are obtained by solving simultaneous equations. The operation is relatively complicated and difficult to handle.
 また、上記6種類のアフィン変換モデルのうち、「TRKS」、「TSKR」、「TKSR」については、比較的容易にS,S,θ,φ,T,Tを求解することができる。しかしながら、「TSKR」及び「TKSR」のモデルについては、先に回転変換Rを行うモデルであるため、拡大・縮小のパラメータであるS,Sについて、拡大・縮小方向が、それぞれX軸方向及びY軸方向と一致しなくなってしまう。従って、かかるモデルでは、演算結果として得られたS,Sを、X軸方向のサイズ変化量、Y軸方向のサイズ変化量として扱うことができない。 In addition, among “TRKS”, “TSKR”, and “TKSR” among the above six types of affine transformation models, S x , S y , θ, φ, T x , and T y can be found relatively easily. it can. However, since the “TSKR” and “TKSR” models are the models that perform the rotation transformation R first, the enlargement / reduction directions of the enlargement / reduction parameters S x and S y are respectively in the X-axis direction. And it will not coincide with the Y-axis direction. Therefore, in such a model, S x and S y obtained as a calculation result cannot be handled as a size change amount in the X-axis direction and a size change amount in the Y-axis direction.
 上記から、アフィン変換モデルとして有用なものは「TRKS」の1モデルとなる。従って、本実施形態に係る特徴量算出部121では、「TRKS」のアフィン変換モデルである式103’を、アフィン変換モデルの変換行列Aとして取り扱うのである。 From the above, what is useful as an affine transformation model is one model of “TRKS”. Therefore, the feature amount calculation unit 121 according to the present embodiment handles the expression 103 ', which is an affine transformation model of "TRKS", as the transformation matrix A of the affine transformation model.
[射影変換モデル]
 次に、射影変換モデルを採用した場合の特徴量算出部121における特徴量算出処理について、具体的に説明する。
 点A(M,M)と点B(P,P)とが射影変換で関連付けられる場合、その関係は、以下の式131のように表わすことができる。ここで、以下の式131において、λは、スカラー係数であり、行列Hは、以下の式133で表わされるような、射影変換を表わす変換行列である。式133から明らかなように、射影変換行列Hは、その行列要素中に8つの未知数h11~h32を有している。
[Projective transformation model]
Next, the feature amount calculation processing in the feature amount calculation unit 121 when the projective transformation model is employed will be specifically described.
When the point A (M x , M y ) and the point B (P x , P y ) are related by projective transformation, the relationship can be expressed as in the following Expression 131. Here, in Equation 131 below, λ is a scalar coefficient, and the matrix H is a transformation matrix representing projective transformation as represented by Equation 133 below. As is clear from Expression 133, the projective transformation matrix H has eight unknowns h 11 to h 32 in its matrix elements.
 ここで、射影変換は、上記式105で表わされる平行移動操作、式107で表わされる回転操作、式109で表わされるスキュー(剪断)操作、及び、式111で表わされる拡大・縮小操作に加えて、以下の式135で表わされる投影操作の組み合わせとして規定される。なお、以下の式135において、行列要素α,βは、それぞれx軸方向及びy軸方向の投影係数に対応している。 Here, the projective transformation is performed in addition to the translation operation represented by the above equation 105, the rotation operation represented by the equation 107, the skew (shearing) operation represented by the equation 109, and the enlargement / reduction operation represented by the equation 111. , Defined as a combination of projection operations represented by the following Expression 135. In Expression 135 below, matrix elements α and β correspond to projection coefficients in the x-axis direction and the y-axis direction, respectively.
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000006
 具体的には、特徴量算出部121は、拡大・縮小操作、スキュー操作、回転操作、平行移動操作及び投影操作が順に行われた場合の変換行列である、以下の式133’で表わされる射影変換行列Hを想定し、特徴量の算出処理を行う。なお、射影変換行列Hは、全ての要素を定数倍しても全く同じ変換を表わすため、特徴量算出部121は、以下の式133”で表わされる射影変換行列H’を想定して、特徴量の算出処理を行う。 Specifically, the feature quantity calculation unit 121 is a projection matrix represented by the following expression 133 ′, which is a transformation matrix when an enlargement / reduction operation, a skew operation, a rotation operation, a parallel movement operation, and a projection operation are performed in order. Assuming the transformation matrix H, a feature amount calculation process is performed. Note that the projective transformation matrix H represents exactly the same transformation even if all elements are multiplied by a constant, and thus the feature quantity calculation unit 121 assumes a projective transformation matrix H ′ represented by the following expression 133 ″, and features An amount calculation process is performed.
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000007
 特徴量算出部121は、式133”で表わされる射影変換行列H’を、対応位置特定部119により得られた点の対応関係の特定結果を利用して、以下の式135に基づき算出する。ここで、以下の式135では、8行×8列の行列の逆行列を算出する処理が存在するが、かかる逆行列は、公知の数値演算プログラムを利用して算出することができる。 The feature quantity calculation unit 121 calculates the projective transformation matrix H ′ represented by the expression 133 ″ based on the following expression 135 using the identification result of the point correspondence obtained by the corresponding position specifying unit 119. Here, in the following Expression 135, there is a process of calculating an inverse matrix of a matrix of 8 rows × 8 columns. Such an inverse matrix can be calculated using a known numerical operation program.
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000008
 ここで、上記式135において、シグマ記号は、利用する点の全てについて、各要素で表わされる値の和を算出することを表わし、Nは、演算に利用する点の個数を表わしている。 Here, in the above equation 135, the sigma symbol indicates that the sum of the values represented by each element is calculated for all of the points to be used, and N indicates the number of points to be used for the calculation.
 特徴量算出部121は、オプティカルフローの算出結果に基づいて上記式135で表わされる演算を行うことで、式133,133”で表わされる射影変換行列Hの各行列要素h11~h32を特定することができる。 The feature quantity calculation unit 121 identifies each matrix element h 11 to h 32 of the projective transformation matrix H expressed by Expression 133, 133 ″ by performing the calculation expressed by Expression 135 based on the calculation result of the optical flow. can do.
 式133及び式133”の比較から明らかなように、射影変換行列Hの行列要素の値が特定できると、式133及び式133”を連立することで、サイズ変化量S,S、位置シフト量T,T、回転角度θ、スキュー角度φ及び投影係数α,βを算出することができる。そこで、特徴量算出部121は、得られた射影変換行列Hの値を利用し、以下の式137~式151に基づいて、上記の光学系特徴量を算出する。 As is clear from the comparison between the expression 133 and the expression 133 ″, when the values of the matrix elements of the projective transformation matrix H can be specified, the size change amounts S x , S y , The shift amounts T x and T y , the rotation angle θ, the skew angle φ, and the projection coefficients α and β can be calculated. Therefore, the feature quantity calculation unit 121 calculates the optical system feature quantity based on the following formulas 137 to 151 using the value of the obtained projective transformation matrix H.
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000009
 なお、射影変換モデルを採用する場合、特徴量算出部121は、上記式133’のような、拡大・縮小操作、スキュー操作、回転操作、平行移動操作及び投影操作が順に行われた場合の変換行列ではなく、以下の式153で表わされる射影変換行列Hを想定し、特徴量の算出処理を行ってもよい。以下の式153で表わされる射影変換行列Hは、拡大・縮小操作、スキュー操作、回転操作、投影操作及び平行移動操作が順に行われた場合の変換行列である。 When the projective transformation model is adopted, the feature amount calculation unit 121 performs conversion when the enlargement / reduction operation, the skew operation, the rotation operation, the translation operation, and the projection operation are sequentially performed as in the above-described equation 133 ′. Instead of the matrix, a projection transformation matrix H represented by the following expression 153 may be assumed to perform the feature amount calculation process. A projective transformation matrix H represented by the following Expression 153 is a transformation matrix when an enlargement / reduction operation, a skew operation, a rotation operation, a projection operation, and a parallel movement operation are sequentially performed.
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000010
 この場合においても、特徴量算出部121は、オプティカルフローの算出結果に基づいて上記式135で表わされる演算を行い、式133、式153で表わされる射影変換行列Hの各行列要素h11~h32を特定する。その後、特徴量算出部121は、式133と式153を連立させることで、式133”を用いる場合と同様にして、上記の光学系特徴量を算出することができる。 Also in this case, the feature amount calculation unit 121 performs the calculation represented by the above equation 135 based on the calculation result of the optical flow, and each matrix element h 11 to h of the projective transformation matrix H represented by the equations 133 and 153. 32 is specified. After that, the feature quantity calculation unit 121 can calculate the optical system feature quantity in the same manner as in the case of using the expression 133 ″ by combining the expression 133 and the expression 153.
 なお、射影変換モデルにおける変換行列Hは、上記式105~式111及び式135で表わされる5つの変換行列の組み合わせとして規定されるため、5つの変換行列の順列は、120通り(=)が考えられる。 Since the transformation matrix H in the projective transformation model is defined as a combination of the five transformation matrices represented by the above formulas 105 to 111 and 135, there are 120 permutations of the five transformation matrices (= 5 P 5 ) Is considered.
 しかしながら、アフィン変換モデルと同様に、平行移動操作や投影操作は、なるべく最後に行う(すなわち、どちらか一方の操作を最後に行い、もう一方の操作を最後から2番目に行う)ことが好ましいと考えられる。そのため、本実施形態に係る射影変換モデルとしては、上記式133’,式133”で表わされる「BTRKS」モデルか、上記式153で表わされる「TBRKS」モデルを用いることが好ましい。 However, as with the affine transformation model, it is preferable that the translation operation and the projection operation are performed as much as possible (that is, one of the operations is performed last and the other operation is performed second from the last). Conceivable. Therefore, as the projective transformation model according to the present embodiment, it is preferable to use the “BTRKS” model represented by the above-described equations 133 ′ and 133 ″ or the “TBRKS” model represented by the above-described equation 153.
 以上、本実施形態に係る特徴量算出部121で採用されるアフィン変換モデル及び射影変換モデルについて、具体的に説明した。 As described above, the affine transformation model and the projective transformation model employed in the feature amount calculation unit 121 according to the present embodiment have been specifically described.
 以上説明したような特徴量の算出処理が行われることで、本実施形態に係る特徴量算出部121では、例えば図8に示したような光学系特徴量が算出されることとなる。かかる光学系特徴量は、光学系3の状態を定量化したものであり、かかる特徴量を参照することで、光学系3の状態を客観的に判断することが可能となる。 By performing the feature amount calculation process as described above, the feature amount calculation unit 121 according to the present embodiment calculates, for example, an optical system feature amount as illustrated in FIG. The optical system feature amount is a quantification of the state of the optical system 3, and the state of the optical system 3 can be objectively determined by referring to the feature amount.
[幾何学変換モデルの選択について]
 次に、図9を参照しながら、アフィン変換モデルと射影変換モデルという2種類の幾何学変換モデルの選択方針について、簡単に説明する。
[Selection of geometric transformation model]
Next, with reference to FIG. 9, the selection policy of two types of geometric transformation models, an affine transformation model and a projective transformation model, will be briefly described.
 本実施形態に係る特徴量算出部121では、アフィン変換モデルと射影変換モデルという2種類の幾何学変換モデルを用いることが可能であるが、これら2種類のモデルは、図9に示したような観点で使い分けることが好ましい。 The feature quantity calculation unit 121 according to the present embodiment can use two types of geometric transformation models, an affine transformation model and a projective transformation model. These two types of models are as shown in FIG. It is preferable to use properly from the viewpoint.
 すなわち、撮像部101の撮像対象とする光学系3が、表示画像の倒れが存在しない、又は、表示画像の倒れがごくわずかな光学系である場合には、光学系特徴量の算出に際して、アフィン変換モデルを採用することが好ましい。上記のように、アフィン変換モデルは未知数の数が少なく、演算コストを抑制しつつ高精度な特徴量の算出結果を得ることが可能となる。 In other words, when the optical system 3 to be imaged by the imaging unit 101 is an optical system in which there is no tilt of the display image or the tilt of the display image is negligible, when calculating the optical system feature quantity, It is preferable to adopt a conversion model. As described above, the affine transformation model has a small number of unknowns, and it is possible to obtain a highly accurate feature amount calculation result while suppressing the calculation cost.
 一方、撮像部101の撮像対象とする光学系3が、無視できない量の倒れが存在する光学系である場合には、光学系特徴量の算出に際して、射影変換モデルを採用することが好ましい。射影変換モデルは投影操作をも考慮したモデルであるため、倒れ量を正確に見積もることが可能であるが、未知数の数がアフィン変換モデルよりも多いことから、演算コストはアフィン変換モデルよりも高くなる。 On the other hand, when the optical system 3 to be imaged by the imaging unit 101 is an optical system in which there is a negligible amount of tilting, it is preferable to employ a projective transformation model when calculating the optical system feature amount. Since the projective transformation model is a model that also takes into account the projection operation, it is possible to accurately estimate the amount of collapse, but since the number of unknowns is larger than the affine transformation model, the computational cost is higher than that of the affine transformation model. Become.
 ここで、表示画像の倒れとは、表示画像が撮像部101に対して正対していない状況である。具体的には、表示画像の倒れとは、撮像部101と光学系3とを結ぶ光軸に沿って、表示画像の上端部が下端部に対して奥側に位置する(又は手前側に位置する)場合や、表示画像の右端部が左端部に対して奥側に位置する(又は手前側に位置する)場合に対応する。 Here, the fall of the display image is a situation where the display image is not directly facing the imaging unit 101. Specifically, the tilt of the display image means that the upper end of the display image is located on the back side with respect to the lower end along the optical axis connecting the imaging unit 101 and the optical system 3 (or located on the near side). And the case where the right end portion of the display image is located on the back side (or located on the near side) with respect to the left end portion.
 アフィン変換モデルが有利な場合の具体例としては、例えば図9に示したように、(a)ズーム光学系でのズーム量(倍率)を計測する場合や、(b)倒れを除く特徴量のみを計測する場合や、(c)単一ディスプレイからステレオ画像を生成する光学系を有するHMDを計測する場合や、(d)顕微鏡や双眼鏡等のステレオ光学系を計測する場合、等が挙げられる。 As specific examples when the affine transformation model is advantageous, for example, as shown in FIG. 9, (a) when measuring the zoom amount (magnification) in the zoom optical system, or (b) only the feature amount excluding the tilt And (c) when measuring an HMD having an optical system that generates a stereo image from a single display, and (d) when measuring a stereo optical system such as a microscope and binoculars.
 また、射影変換モデルが有利な場合の具体例としては、例えば図9に示したように、(a)撮像面が光学系に対して斜めとなりうる光学系を計測する場合や、(b)2つのディスプレイからステレオ画像を生成する光学系を有するHMDを計測する場合、等が挙げられる。 Further, as a specific example when the projective transformation model is advantageous, for example, as shown in FIG. 9, (a) when measuring an optical system whose imaging surface can be inclined with respect to the optical system, or (b) 2 When measuring HMD which has an optical system which generates a stereo picture from two displays, etc. are mentioned.
 特徴量算出部121において、どちらのモデルを採用するかについては、光学系3の計測に先立ち、計測対象とする光学系3の特性等に応じて、上記の方針に則して予め設定しておけばよい。 In the feature amount calculation unit 121, which model is to be adopted is set in advance according to the above policy according to the characteristics of the optical system 3 to be measured, etc., prior to the measurement of the optical system 3. Just keep it.
 特徴量算出部121は、以上のようにして算出した、図8に示したような光学系特徴量に関する情報を、光学系状態判定部123に出力する。また、特徴量算出部121は、以上のようにして算出した光学系特徴量に関する情報を、情報処理装置10の外部に存在する各種コンピュータや各種サーバ等といった各種の情報処理装置に出力してもよい。 The feature amount calculation unit 121 outputs information regarding the optical system feature amount calculated as described above as shown in FIG. 8 to the optical system state determination unit 123. Further, the feature amount calculation unit 121 may output information about the optical system feature amount calculated as described above to various information processing apparatuses such as various computers and various servers existing outside the information processing apparatus 10. Good.
 光学系状態判定部123は、例えば、CPU、ROM、RAM等により実現される。光学系状態判定部123は、特徴量算出部121により算出された光学系特徴量に基づいて、光学系3の状態を判定する。具体的には、光学系状態判定部123では、図8に示したような各光学系特徴量について予め判定用閾値が設定されており、算出された光学系特徴量と判定用閾値との大小比較によって、光学系3の状態が判断される。 The optical system state determination unit 123 is realized by, for example, a CPU, a ROM, a RAM, and the like. The optical system state determination unit 123 determines the state of the optical system 3 based on the optical system feature amount calculated by the feature amount calculation unit 121. Specifically, in the optical system state determination unit 123, a determination threshold is set in advance for each optical system feature amount as shown in FIG. 8, and the magnitude of the calculated optical system feature amount and the determination threshold value is small. The state of the optical system 3 is determined by comparison.
 光学系状態判定部123によって判断された光学系の状態の判定結果は、情報処理装置10のユーザに対して各種の方法により出力されてもよいし、光学機器1に対して直接フィードバックされてもよい。かかる判定結果を利用することにより、光学機器1に設けられた光学系3の状態を具体的に把握することができ、光学系3の調整をより容易に行うことが可能となる。 The determination result of the state of the optical system determined by the optical system state determination unit 123 may be output to the user of the information processing apparatus 10 by various methods, or may be directly fed back to the optical device 1. Good. By using such a determination result, the state of the optical system 3 provided in the optical apparatus 1 can be specifically grasped, and the optical system 3 can be adjusted more easily.
 図10に、ステレオ光学系を有するヘッドマウントディスプレイを処理対象とした場合の光学系の状態判定処理の一例について、簡単に示した。 FIG. 10 simply shows an example of an optical system state determination process when a head-mounted display having a stereo optical system is a processing target.
 例えば図10に示したように、光学系状態判定部123は、算出されたサイズ(S,S)に関する特徴量を参照して、かかる特徴量がほぼ1とならない場合(すなわち、特徴量が所定の下限値未満、又は、上限値超過である場合)に、左右の光学系で倍率が異なると判定することができる。 For example, as illustrated in FIG. 10, the optical system state determination unit 123 refers to the feature amount related to the calculated size (S x , S y ) and the feature amount is not approximately 1 (that is, the feature amount). Can be determined that the magnification is different between the right and left optical systems.
 また、光学系状態判定部123は、回転角度(θ)に着目し、かかる特徴量がほぼ0とならない場合(すなわち、特徴量が所定の閾値超過である場合)に、光学系が傾いている(すなわち、光学系が回転している)と判定することができる。 Further, the optical system state determination unit 123 pays attention to the rotation angle (θ), and the optical system is tilted when the feature amount is not almost 0 (that is, when the feature amount exceeds a predetermined threshold). (That is, it can be determined that the optical system is rotating).
 同様に、光学系状態判定部123は、スキュー角度(φ)に着目し、かかる特徴量がほぼ0とならない場合(すなわち、特徴量が所定の閾値超過である場合)に、光学系に歪みがあると判定することができる。 Similarly, the optical system state determination unit 123 pays attention to the skew angle (φ), and when the feature amount is not almost zero (that is, when the feature amount exceeds a predetermined threshold), the optical system is distorted. It can be determined that there is.
 また、光学系状態判定部123は、シフト量(T,T)に着目し、かかる特徴量がほぼ0とならない場合(すなわち、特徴量が所定の閾値超過である場合)に、光学系の取り付け位置や角度が正しくない場合や、左右の光学系が逆に取り付けられている場合があると判定することができる。特に、ステレオ光学系の場合、シフト量Tは、光学系3における視差を表わす特徴量であるため、かかる判定結果は、ステレオ光学系を評価する場合には、重要な指針となる。 The optical system state determination unit 123 focuses on the shift amount (T x , T y ), and when the feature amount does not become almost zero (that is, when the feature amount exceeds a predetermined threshold), the optical system state determination unit 123 focuses on the shift amount (T x , T y ). It can be determined that there are cases where the mounting position and angle are not correct or the left and right optical systems are mounted in reverse. In particular, in the case of a stereo optical system, the shift amount T y is a feature amount representing the parallax in the optical system 3, and thus the determination result is an important guideline when evaluating the stereo optical system.
 更に、光学系状態判定部123は、投影係数(α,β)に着目し、かかる特徴量がほぼ0とならない場合(すなわち、特徴量が所定の閾値超過である場合)に、光学系が傾いたり倒れたりしている場合や、表示ディスプレイが倒れている場合があると判定することができる。 Further, the optical system state determination unit 123 pays attention to the projection coefficients (α, β), and the optical system is tilted when the feature amount is not almost zero (that is, when the feature amount exceeds a predetermined threshold). It can be determined that the display has fallen or the display has fallen.
 また、光学系状態判定部123は、変換誤差の標準偏差(σ)に着目し、かかる特徴量がほぼ0とならない場合(すなわち、特徴量が所定の閾値超過である場合)に、光学系に歪みがあると判定することができる。 In addition, the optical system state determination unit 123 focuses on the standard deviation (σ) of the conversion error, and when the feature amount is not almost zero (that is, when the feature amount exceeds a predetermined threshold), It can be determined that there is distortion.
 このように、光学系3の状態によって、光学系特徴量がどのような挙動を示すかを事前に把握しておくことで、光学系状態判定部123は、逐次算出される光学系特徴量に基づいて、光学系3の状態を判定することが可能となる。 As described above, by knowing in advance how the optical system feature amount behaves depending on the state of the optical system 3, the optical system state determination unit 123 can calculate the optical system feature amount that is sequentially calculated. Based on this, the state of the optical system 3 can be determined.
 以上、図2~図10を参照しながら、本実施形態に係る情報処理装置10が備える演算処理部103の構成について、詳細に説明した。 The configuration of the arithmetic processing unit 103 included in the information processing apparatus 10 according to the present embodiment has been described in detail above with reference to FIGS.
 以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。 Heretofore, an example of the function of the information processing apparatus 10 according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. In addition, the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.
 なお、上述のような本実施形態に係る情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。 It should be noted that a computer program for realizing each function of the information processing apparatus according to the present embodiment as described above can be produced and installed in a personal computer or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.
<情報処理方法の流れについて>
 次に、図11を参照しながら、本実施形態に係る情報処理装置10で実施される情報処理方法の流れの一例について、簡単に説明する。図11は、本実施形態に係る情報処理方法の流れの一例を示した流れ図である。
<Flow of information processing method>
Next, an example of a flow of an information processing method performed by the information processing apparatus 10 according to the present embodiment will be briefly described with reference to FIG. FIG. 11 is a flowchart illustrating an example of the flow of the information processing method according to the present embodiment.
 本実施形態に係る情報処理方法では、まず、ランダムパターン画像生成部113により先だって説明したような方法でランダムパターン画像が生成される(ステップS101)。その後、生成されたランダムパターン画像は、データ出力部115を介して、光学機器1へと出力される(ステップS103)。 In the information processing method according to the present embodiment, first, a random pattern image is generated by the random pattern image generation unit 113 by the method described above (step S101). Thereafter, the generated random pattern image is output to the optical device 1 via the data output unit 115 (step S103).
 光学機器1の光学系3を介してランダムパターン画像が出力されると、撮像部101は、撮像制御部111の制御の下で光学機器1から出力されたランダムパターン画像を撮像して(ステップS105)、撮像データを生成する。撮像部101によって生成された撮像データは、データ取得部117を介して、対応位置特定部119へと伝送される。 When the random pattern image is output via the optical system 3 of the optical device 1, the imaging unit 101 captures the random pattern image output from the optical device 1 under the control of the imaging control unit 111 (step S105). ) To generate imaging data. The imaging data generated by the imaging unit 101 is transmitted to the corresponding position specifying unit 119 via the data acquisition unit 117.
 対応位置特定部119は、伝送された撮像データを参照し、先だって説明したようなオプティカルフローを利用した方法により、2つの撮像画像を利用して、着目した点の対応位置を特定する(ステップS107)。その後、対応位置特定部119は、点の対応位置の特定結果を表わす情報を、特徴量算出部121に出力する。 The corresponding position specifying unit 119 specifies the corresponding position of the point of interest by using the two captured images by referring to the transmitted imaging data and using the method using the optical flow as described above (step S107). ). Thereafter, the corresponding position specifying unit 119 outputs information representing the result of specifying the corresponding position of the point to the feature amount calculating unit 121.
 特徴量算出部121は、上記で説明したアフィン変換モデル又は射影変換モデルに基づき、対応位置特定部119による点の対応位置に関する情報を利用して、2つの撮像画像間の変換行列を特定する(ステップS109)。その後、特徴量算出部121は、特定した変換行列に基づき、図8に示したような各種の光学系特徴量を算出する(ステップS111)。特徴量算出部121は、光学系特徴量を算出すると、算出した光学系特徴量に関する情報を、光学系状態判定部123へと出力する。 Based on the affine transformation model or projective transformation model described above, the feature amount calculation unit 121 uses the information on the corresponding positions of the points by the corresponding position specifying unit 119 to specify a conversion matrix between two captured images ( Step S109). After that, the feature quantity calculation unit 121 calculates various optical system feature quantities as shown in FIG. 8 based on the identified conversion matrix (step S111). When the feature amount calculation unit 121 calculates the optical system feature amount, the feature amount calculation unit 121 outputs information regarding the calculated optical system feature amount to the optical system state determination unit 123.
 光学系状態判定部123は、特徴量算出部121により算出された光学系特徴量に基づいて、着目している光学系3の状態を判定する(ステップS113)。これにより、本実施形態に係る情報処理方法では、光学系3の相違を表わす特徴量を算出するとともに、かかる特徴量に基づいて光学系3の状態を判定することが可能となる。 The optical system state determination unit 123 determines the state of the focused optical system 3 based on the optical system feature amount calculated by the feature amount calculation unit 121 (step S113). As a result, in the information processing method according to the present embodiment, it is possible to calculate a feature amount representing a difference in the optical system 3 and to determine the state of the optical system 3 based on the feature amount.
 以上、図11を参照しながら、本実施形態に係る情報処理方法の流れについて、簡単に説明した。 The flow of the information processing method according to the present embodiment has been briefly described above with reference to FIG.
<電子光学機器について>
 次に、図12及び図13を参照しながら、本実施形態に係る電子光学機器について、簡単に説明する。図12及び図13は、本実施形態に係る電子光学機器の構成の一例を示したブロック図である。
<About electro-optical equipment>
Next, the electro-optical device according to the present embodiment will be briefly described with reference to FIGS. 12 and 13. 12 and 13 are block diagrams illustrating an example of the configuration of the electro-optical device according to the present embodiment.
 本実施形態に係る情報処理装置10が算出する光学系特徴量や光学系の判定結果等を利用することで、以下のような電子光学機器を実現することが可能である。 By using the optical system characteristic amount calculated by the information processing apparatus 10 according to the present embodiment, the optical system determination result, and the like, it is possible to realize the following electro-optical device.
 すなわち、図12に模式的に示したように、本実施形態に係る電子光学機器20は、所定の光学系201と、調整部203と、記憶部205と、を主に備える。 That is, as schematically shown in FIG. 12, the electro-optical device 20 according to the present embodiment mainly includes a predetermined optical system 201, an adjustment unit 203, and a storage unit 205.
 光学系201は、電子光学機器20が保持又は取得した、静止画像や動画像といった各種の画像を、電子光学機器20の外部へと出力するための機構である。この光学系201は、レンズ、ミラー、フィルタ等といった各種の光学素子を用いて構成されている。 The optical system 201 is a mechanism for outputting various images, such as still images and moving images, held or acquired by the electro-optical device 20 to the outside of the electro-optical device 20. The optical system 201 is configured using various optical elements such as a lens, a mirror, and a filter.
 電子光学機器20が有している光学系201の種類は、特に限定するものではないが、例えば、ズーム光学系、ステレオ光学系、ステレオ画像を生成する光学系等の公知の光学系を挙げることができる。このような光学系201を有することで、電子光学機器20は、例えば、カメラ、カムコーダ、望遠鏡、顕微鏡、双眼鏡、ヘッドマウントディスプレイのような立体表示装置等として機能することとなる。 The type of the optical system 201 included in the electro-optical device 20 is not particularly limited, and examples thereof include known optical systems such as a zoom optical system, a stereo optical system, and an optical system that generates a stereo image. Can do. By having such an optical system 201, the electro-optical device 20 functions as, for example, a stereoscopic display device such as a camera, a camcorder, a telescope, a microscope, binoculars, and a head-mounted display.
 また、本実施形態に係る光学系201には、光学系201を構成する各種の光学素子の設置位置や設置角度等を変化させて、光学系201の状態(光学状態)を変化させるために、各種の駆動機構(図示せず。)が設けられている。このような駆動機構については、特に限定されるものではないが、例えば、ボイスコイルモータやピエゾ素子等を挙げることができる。 In addition, in the optical system 201 according to the present embodiment, in order to change the state (optical state) of the optical system 201 by changing the installation position, the installation angle, and the like of various optical elements constituting the optical system 201, Various drive mechanisms (not shown) are provided. Such a drive mechanism is not particularly limited, and examples thereof include a voice coil motor and a piezo element.
 調整部203は、CPU、ROM、RAM、通信装置等により実現される。調整部203は、本実施形態に係る情報処理装置10が光学系201から出力されたランダムパターン画像を撮像することで生成する光学系特徴量に基づく特徴量情報を取得し、取得した特徴量情報に基づいて、光学系201の調整を行う。ここで、調整部203が情報処理装置10から取得する特徴量情報は、情報処理装置10によって生成された光学系特徴量だけでなく、光学系特徴量に基づいて得られる光学系201の状態の判定結果を示した情報も含まれる。 The adjustment unit 203 is realized by a CPU, a ROM, a RAM, a communication device, and the like. The adjustment unit 203 acquires feature amount information based on the optical system feature amount generated by the information processing apparatus 10 according to the present embodiment capturing a random pattern image output from the optical system 201, and the acquired feature amount information. The optical system 201 is adjusted based on the above. Here, the feature amount information acquired by the adjustment unit 203 from the information processing device 10 is not only the optical system feature amount generated by the information processing device 10 but also the state of the optical system 201 obtained based on the optical system feature amount. Information indicating the determination result is also included.
 調整部203は、情報処理装置10から取得した特徴量情報に基づいて、光学系201に設けられた駆動機構を制御することにより、光学系201の状態を適切な状態へと調整する。駆動機構の制御方法については、特に限定されるものではなく、取得した特徴量情報に応じたフィードバック制御を行ってもよいし、後述する記憶部205等に格納されている、光学系特徴量と駆動機構の制御方法とを関連付けたデータベース等を参照することで、駆動機構を制御してもよい。 The adjustment unit 203 adjusts the state of the optical system 201 to an appropriate state by controlling the drive mechanism provided in the optical system 201 based on the feature amount information acquired from the information processing apparatus 10. The control method of the drive mechanism is not particularly limited, and feedback control according to the acquired feature amount information may be performed, or the optical system feature amount stored in the storage unit 205 or the like described later. The drive mechanism may be controlled by referring to a database associated with the drive mechanism control method.
 調整部203が、情報処理装置10から取得した特徴量情報に基づいて光学系201の調整を自動的に行うことで、電子光学機器20における光学系201の状態は、常に適切な状態を維持することが可能となる。 The adjustment unit 203 automatically adjusts the optical system 201 based on the feature amount information acquired from the information processing apparatus 10, so that the state of the optical system 201 in the electro-optical device 20 always maintains an appropriate state. It becomes possible.
 記憶部205は、例えば本実施形態に係る電子光学機器20が備えるRAMやストレージ装置等により実現される。記憶部205には、光学系201から出力される各種の画像の実体データや、調整部203における処理に利用される各種のデータベースや各種のプログラムや、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等が、適宜記録されてもよい。 The storage unit 205 is realized by, for example, a RAM or a storage device provided in the electro-optical device 20 according to the present embodiment. The storage unit 205 needs to store entity data of various images output from the optical system 201, various databases and various programs used for processing in the adjustment unit 203, and some processing. Various parameters, progress of processing, and the like may be recorded as appropriate.
 この記憶部205は、光学系201や、調整部203などの各処理部が、自由にアクセスし、データを書き込んだり読み出したりすることができる。 The storage unit 205 can be freely accessed by each processing unit such as the optical system 201 and the adjustment unit 203 to write and read data.
 以上、図12を参照しながら、本実施形態に係る電子光学機器20の全体構成について、詳細に説明した。 The overall configuration of the electro-optical device 20 according to the present embodiment has been described in detail above with reference to FIG.
 なお、図12では、電子光学機器20の外部に設けられた情報処理装置10から特徴量情報を取得して、調整部203が光学系201の調整を行う態様について説明したが、電子光学機器20自体が、情報処理装置10の機能を有していても良い。 In FIG. 12, the aspect in which the feature amount information is acquired from the information processing apparatus 10 provided outside the electro-optical device 20 and the adjustment unit 203 adjusts the optical system 201 has been described. The device itself may have the function of the information processing apparatus 10.
 例えば図13に示したように、情報処理装置10の機能を有する電子光学機器20は、光学系201と、調整部203と、記憶部205と、撮像部207と、演算処理部209と、を主に備える。 For example, as illustrated in FIG. 13, the electro-optical device 20 having the function of the information processing apparatus 10 includes an optical system 201, an adjustment unit 203, a storage unit 205, an imaging unit 207, and an arithmetic processing unit 209. Prepare mainly.
 ここで、光学系201及び調整部203については、図12を参照しながら説明した電子光学機器20が有する光学系201及び調整部203と同様の機能を有し、同様の効果を奏するものであるため、以下では詳細な説明は省略する。 Here, the optical system 201 and the adjustment unit 203 have the same functions as the optical system 201 and the adjustment unit 203 included in the electro-optical device 20 described with reference to FIG. Therefore, detailed description is omitted below.
 また、記憶部205は、図12を参照しながら説明した電子光学機器20における記憶部205の機能と、情報処理装置10における記憶部105の機能と、の双方を有するものであり、以下では詳細な説明は省略する。 Further, the storage unit 205 has both the function of the storage unit 205 in the electro-optical device 20 described with reference to FIG. 12 and the function of the storage unit 105 in the information processing apparatus 10, and will be described in detail below. The detailed explanation is omitted.
 更に、撮像部207及び演算処理部209は、それぞれ本実施形態に係る情報処理装置10が備える撮像部101及び演算処理部103と同様の機能を有し、同様の効果を奏するものであるため、以下では詳細な説明は省略する。 Furthermore, the imaging unit 207 and the arithmetic processing unit 209 have the same functions as the imaging unit 101 and the arithmetic processing unit 103 included in the information processing apparatus 10 according to the present embodiment, respectively, and have the same effects. Detailed description is omitted below.
 本例における電子光学機器20では、演算処理部209により生成されたランダムパターン画像が光学系201から出力され、出力されたランダムパターン画像を撮像部207が撮像することで、ランダムパターン画像に対応する撮像データが生成される。演算処理部209は、生成された撮像データに基づき上記のような演算処理を実施することで、光学系特徴量や光学系の状態の判定結果を表わす情報を生成する。調整部203は、演算処理部209により生成された特徴量情報に基づいて光学系201を調整することで、光学系201の状態を適切に維持することが可能となる。 In the electro-optical device 20 in this example, the random pattern image generated by the arithmetic processing unit 209 is output from the optical system 201, and the output random pattern image is captured by the imaging unit 207, thereby corresponding to the random pattern image. Imaging data is generated. The arithmetic processing unit 209 performs the arithmetic processing as described above based on the generated imaging data, thereby generating information representing the optical system feature amount and the optical system state determination result. The adjustment unit 203 can appropriately maintain the state of the optical system 201 by adjusting the optical system 201 based on the feature amount information generated by the arithmetic processing unit 209.
 以上、本実施形態に係る電子光学機器20の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。 Heretofore, an example of the function of the electro-optical device 20 according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. In addition, the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.
 なお、上述のような本実施形態に係る電子光学機器の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。 It should be noted that a computer program for realizing each function of the electro-optical device according to the present embodiment as described above can be produced and mounted on a personal computer or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.
(ハードウェア構成について)
 次に、図14を参照しながら、本開示の実施形態に係る情報処理装置10及び電子光学機器20のハードウェア構成について、詳細に説明する。図14は、本開示の実施形態に係る情報処理装置10及び電子光学機器20のハードウェア構成を説明するためのブロック図である。なお、図14では、情報処理装置10が有する撮像部101及び電子光学機器20が有しうる撮像部207については、図示を省略している。
(About hardware configuration)
Next, the hardware configurations of the information processing apparatus 10 and the electro-optical device 20 according to the embodiment of the present disclosure will be described in detail with reference to FIG. FIG. 14 is a block diagram for explaining a hardware configuration of the information processing apparatus 10 and the electro-optical device 20 according to the embodiment of the present disclosure. In FIG. 14, the imaging unit 101 included in the information processing apparatus 10 and the imaging unit 207 that can be included in the electro-optical device 20 are not illustrated.
 情報処理装置10及び電子光学機器20は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置10及び電子光学機器20は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インターフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。 The information processing apparatus 10 and the electro-optical device 20 mainly include a CPU 901, a ROM 903, and a RAM 905. The information processing apparatus 10 and the electro-optical device 20 further include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, and a drive 921. A connection port 923, and a communication device 925.
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10及び電子光学機器20内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。 The CPU 901 functions as an arithmetic processing device and a control device, and in accordance with various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927, the entire operation in the information processing device 10 and the electro-optical device 20 or one of them. Control part. The ROM 903 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 905 primarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a host bus 907 constituted by an internal bus such as a CPU bus.
 ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。 The host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10及び電子光学機器20の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置10及び電子光学機器20のユーザは、この入力装置915を操作することにより、情報処理装置10及び電子光学機器20に対して各種のデータを入力したり処理動作を指示したりすることができる。 The input device 915 is an operation means operated by the user such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. Further, the input device 915 may be, for example, remote control means (so-called remote control) using infrared rays or other radio waves, or a mobile phone or PDA corresponding to the operation of the information processing device 10 and the electro-optical device 20. The external connection device 929 such as the above may be used. Furthermore, the input device 915 includes an input control circuit that generates an input signal based on information input by a user using the above-described operation means and outputs the input signal to the CPU 901, for example. A user of the information processing apparatus 10 and the electro-optical device 20 operates the input device 915 to input various data or instruct a processing operation to the information processing apparatus 10 and the electro-optical device 20. Can do.
 出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、情報処理装置10及び電子光学機器20が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10及び電子光学機器20が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。 The output device 917 is a device that can notify the user of the acquired information visually or audibly. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and display devices such as lamps, audio output devices such as speakers and headphones, printer devices, mobile phones, and facsimiles. The output device 917 outputs results obtained by various processes performed by the information processing device 10 and the electro-optical device 20, for example. Specifically, the display device displays results obtained by various processes performed by the information processing apparatus 10 and the electro-optical device 20 as text or images. On the other hand, the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.
 ストレージ装置919は、情報処理装置10及び電子光学機器20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。 The storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 10 and the electro-optical device 20. The storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device. The storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
 ドライブ921は、記録媒体用リーダライタであり、情報処理装置10及び電子光学機器20に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア、Blu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、または、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)または電子機器等であってもよい。 The drive 921 is a reader / writer for a recording medium, and is built in or externally attached to the information processing apparatus 10 and the electro-optical device 20. The drive 921 reads information recorded on a removable recording medium 927 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905. In addition, the drive 921 can write a record on a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory. The removable recording medium 927 is, for example, a DVD medium, an HD-DVD medium, a Blu-ray (registered trademark) medium, or the like. The removable recording medium 927 may be a compact flash (registered trademark) (CompactFlash: CF), a flash memory, or an SD memory card (Secure Digital memory card). Further, the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.
 接続ポート923は、機器を情報処理装置10及び電子光学機器20に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置10及び電子光学機器20は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。 The connection port 923 is a port for directly connecting a device to the information processing apparatus 10 and the electro-optical device 20. Examples of the connection port 923 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, and the like. As another example of the connection port 923, there are an RS-232C port, an optical audio terminal, an HDMI (High-Definition Multimedia Interface) port, and the like. By connecting the external connection device 929 to the connection port 923, the information processing apparatus 10 and the electro-optical device 20 directly acquire various data from the external connection device 929 or provide various data to the external connection device 929. To do.
 通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線または無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信等であってもよい。 The communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931. The communication device 925 is, for example, a communication card for a wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB). The communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication. The communication device 925 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices. The communication network 931 connected to the communication device 925 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. .
 以上、本開示の実施形態に係る情報処理装置10及び電子光学機器20の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。 Heretofore, an example of a hardware configuration capable of realizing the functions of the information processing apparatus 10 and the electro-optical device 20 according to the embodiment of the present disclosure has been shown. Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level at the time of carrying out this embodiment.
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、又は、上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described in this specification are merely illustrative or illustrative, and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部と、
 前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定部と、
 前記対応位置特定部で得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出部と、
を備える、情報処理装置。
(2)
 前記光学機器で用いられる前記ランダムパターン画像をM系列信号に基づき生成するランダムパターン画像生成部を更に備え、
 前記ランダムパターン画像生成部は、ランダムパターン画像を構成するドットの大きさが、前記オプティカルフローの算出処理における処理単位であるウィンドウサイズの1/2以下である複数のランダムパターン画像を合成した、合成ランダムパターン画像を生成する、(1)に記載の情報処理装置。
(3)
 前記特徴量算出部は、前記特定結果を利用して、第1の前記撮像データに対応する第1の画像と、第2の前記撮像データに対応する第2の画像と、の幾何学的な対応関係を表わす変換行列を算出し、
 算出した前記変換行列を利用して、前記光学系のズレ、前記光学系に起因する画像サイズの変化、前記光学系の傾き及び前記光学系の歪みを表わす前記特徴量を算出する、(1)又は(2)に記載の情報処理装置。
(4)
 前記特徴量算出部は、
 前記変換行列として、前記第1の画像と前記第2の画像との間のアフィン変換行列を算出し、
 算出した前記アフィン変換行列を利用し、前記特徴量として、前記第1の画像と前記第2の画像との間の、サイズ変化量、位置シフト量、回転角度及びスキュー角度を少なくとも算出する、(3)に記載の情報処理装置。
(5)
 前記特徴量算出部は、前記変換行列として、前記第1の画像と前記第2の画像との間の射影変換行列を算出し、
 算出した前記射影変換行列を利用し、前記特徴量として、前記第1の画像と前記第2の画像との間の、サイズ変化量、位置シフト量、回転角度、スキュー角度及び射影変換係数を少なくとも算出する、(3)に記載の情報処理装置。
(6)
 前記アフィン変換行列は、拡大・縮小操作、スキュー操作、回転操作及び平行移動操作が順に行われた場合の変換行列である、(4)に記載の情報処理装置。
(7)
 前記射影変換行列は、拡大・縮小操作、スキュー操作、回転操作、平行移動操作及び投影操作が順に行われた場合の変換行列、又は、拡大・縮小操作、スキュー操作、回転操作、投影操作及び平行移動操作が順に行われた場合の変換行列である、(5)に記載の情報処理装置。
(8)
 前記特徴量算出部により算出された前記特徴量に基づいて前記光学系の状態を判定する光学系状態判定部を更に備える、(1)~(7)の何れか1つに記載の情報処理装置。
(9)
 前記光学機器は、ズーム光学系を有する光学機器、ステレオ光学系を有する光学機器、又は、ステレオ画像を生成する光学機器である、(1)~(8)の何れか1つに記載の情報処理装置。
(10)
 前記ズーム光学系を有する光学機器は、カメラ、カムコーダ又は望遠鏡である、(9)に記載の情報処理装置。
(11)
 前記ステレオ光学系を有する光学機器は、顕微鏡又は双眼鏡である、(9)に記載の情報処理装置。
(12)
 前記ステレオ画像を生成する光学機器は、ヘッドマウントディスプレイである、(9)に記載の情報処理装置。
(13)
 所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成することと、
 撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定することと、
 前記互いに対応する位置の特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出することと、
を含む、情報処理方法。
(14)
 所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部を有するコンピュータに、
 前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定機能と、
 前記対応位置特定機能により得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出機能と、
を実現させるためのプログラム。
(15)
 所定の画像を所定の表示画面に対して表示させる光学系と、
 所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部と、前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定部と、前記対応位置特定部で得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出部と、を備える情報処理装置により算出された前記特徴量に基づく特徴量情報を取得し、当該特徴量情報に基づいて前記光学系の調整を行う調整部と、
を備える電子光学機器。
The following configurations also belong to the technical scope of the present disclosure.
(1)
An imaging unit that captures a plurality of random pattern images output from an optical device having a predetermined optical system in a situation where the state of the optical system is different, and generates a plurality of imaging data respectively corresponding to the state of the optical system; ,
By using the plurality of imaging data captured by the imaging unit and calculating the optical flow between the plurality of captured images at any point of at least three or more points in the captured image corresponding to the imaging data, A corresponding position specifying unit for specifying positions corresponding to each other between the captured images;
A feature amount calculation unit that calculates a feature amount representing a difference in the optical system between the plurality of captured images of interest based on the specification result obtained by the corresponding position specification unit;
An information processing apparatus comprising:
(2)
A random pattern image generation unit that generates the random pattern image used in the optical device based on an M-sequence signal;
The random pattern image generation unit combines a plurality of random pattern images in which the size of dots constituting the random pattern image is equal to or less than ½ of the window size that is a processing unit in the optical flow calculation process The information processing apparatus according to (1), which generates a random pattern image.
(3)
The feature amount calculation unit uses the identification result to obtain a geometrical relationship between a first image corresponding to the first imaging data and a second image corresponding to the second imaging data. Calculate a transformation matrix representing the correspondence,
Using the calculated transformation matrix, the feature amount representing a deviation of the optical system, a change in image size caused by the optical system, a tilt of the optical system, and a distortion of the optical system is calculated. (1) Or the information processing apparatus according to (2).
(4)
The feature amount calculation unit includes:
As the transformation matrix, calculate an affine transformation matrix between the first image and the second image,
Using the calculated affine transformation matrix, at least a size change amount, a position shift amount, a rotation angle, and a skew angle between the first image and the second image are calculated as the feature amount. The information processing apparatus according to 3).
(5)
The feature amount calculation unit calculates a projective transformation matrix between the first image and the second image as the transformation matrix,
Using the calculated projective transformation matrix, at least a size change amount, a position shift amount, a rotation angle, a skew angle, and a projective transformation coefficient between the first image and the second image are used as the feature amount. The information processing apparatus according to (3), which calculates.
(6)
The information processing apparatus according to (4), wherein the affine transformation matrix is a transformation matrix when an enlargement / reduction operation, a skew operation, a rotation operation, and a translation operation are sequentially performed.
(7)
The projective transformation matrix is a transformation matrix obtained when an enlargement / reduction operation, a skew operation, a rotation operation, a translation operation, and a projection operation are sequentially performed, or an enlargement / reduction operation, a skew operation, a rotation operation, a projection operation, and a parallel operation. The information processing apparatus according to (5), which is a conversion matrix when movement operations are performed in order.
(8)
The information processing apparatus according to any one of (1) to (7), further comprising: an optical system state determination unit that determines the state of the optical system based on the feature amount calculated by the feature amount calculation unit. .
(9)
The information processing apparatus according to any one of (1) to (8), wherein the optical apparatus is an optical apparatus having a zoom optical system, an optical apparatus having a stereo optical system, or an optical apparatus that generates a stereo image. apparatus.
(10)
The information processing apparatus according to (9), wherein the optical device having the zoom optical system is a camera, a camcorder, or a telescope.
(11)
The information processing apparatus according to (9), wherein the optical apparatus having the stereo optical system is a microscope or binoculars.
(12)
The information processing apparatus according to (9), wherein the optical device that generates the stereo image is a head-mounted display.
(13)
Taking a plurality of random pattern images output from an optical device having a predetermined optical system in a situation where the state of the optical system is different, and generating a plurality of imaging data corresponding to the state of the optical system,
By using the plurality of captured image data and calculating an optical flow between the plurality of captured images at an arbitrary point of at least three or more points in the captured image corresponding to the captured data, between the plurality of captured images Identifying positions corresponding to each other in
Calculating a feature amount representing a difference in the optical system between the plurality of captured images of interest based on the identification results of the positions corresponding to each other;
Including an information processing method.
(14)
An imaging unit that captures a plurality of random pattern images output from an optical device having a predetermined optical system in a situation where the state of the optical system is different, and generates a plurality of imaging data respectively corresponding to the state of the optical system Computer
By using the plurality of imaging data captured by the imaging unit and calculating the optical flow between the plurality of captured images at any point of at least three or more points in the captured image corresponding to the imaging data, A corresponding position specifying function for specifying positions corresponding to each other between the captured images;
A feature amount calculation function for calculating a feature amount representing a difference in the optical system between the plurality of captured images of interest based on the specification result obtained by the corresponding position specifying function;
A program to realize
(15)
An optical system for displaying a predetermined image on a predetermined display screen;
An imaging unit that captures a plurality of random pattern images output from an optical device having a predetermined optical system in a situation where the state of the optical system is different, and generates a plurality of imaging data respectively corresponding to the state of the optical system; , By using the plurality of imaging data captured by the imaging unit and calculating an optical flow between the plurality of captured images at any point of at least three or more points in the captured image corresponding to the imaging data, Differences in the optical system between the plurality of captured images of interest based on a corresponding position specifying unit that specifies positions corresponding to each other between the plurality of captured images and a specifying result obtained by the corresponding position specifying unit. A feature amount calculation unit that calculates a feature amount that represents the feature amount information based on the feature amount calculated by the information processing apparatus, and based on the feature amount information An adjustment unit for adjusting the optical system,
An electro-optical device comprising:
  10  情報処理装置
  20  電子光学機器
 101,207  撮像部
 103,209  演算処理部
 105,205  記憶部
 111  撮像制御部
 113  ランダムパターン画像生成部
 115  データ出力部
 117  データ取得部
 119  対応位置特定部
 121  特徴量算出部
 123  光学系状態判定部
 201  光学系
 203  調整部
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 20 Electro-optical apparatus 101,207 Imaging part 103,209 Arithmetic processing part 105,205 Storage part 111 Imaging control part 113 Random pattern image generation part 115 Data output part 117 Data acquisition part 119 Corresponding position specific | specification part 121 Feature-value Calculation unit 123 Optical system state determination unit 201 Optical system 203 Adjustment unit

Claims (15)

  1.  所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部と、
     前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定部と、
     前記対応位置特定部で得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出部と、
    を備える、情報処理装置。
    An imaging unit that captures a plurality of random pattern images output from an optical device having a predetermined optical system in a situation where the state of the optical system is different, and generates a plurality of imaging data respectively corresponding to the state of the optical system; ,
    By using the plurality of imaging data captured by the imaging unit and calculating the optical flow between the plurality of captured images at any point of at least three or more points in the captured image corresponding to the imaging data, A corresponding position specifying unit for specifying positions corresponding to each other between the captured images;
    A feature amount calculation unit that calculates a feature amount representing a difference in the optical system between the plurality of captured images of interest based on the specification result obtained by the corresponding position specification unit;
    An information processing apparatus comprising:
  2.  前記光学機器で用いられる前記ランダムパターン画像をM系列信号に基づき生成するランダムパターン画像生成部を更に備え、
     前記ランダムパターン画像生成部は、ランダムパターン画像を構成するドットの大きさが、前記オプティカルフローの算出処理における処理単位であるウィンドウサイズの1/2以下である複数のランダムパターン画像を合成した、合成ランダムパターン画像を生成する、請求項1に記載の情報処理装置。
    A random pattern image generation unit that generates the random pattern image used in the optical device based on an M-sequence signal;
    The random pattern image generation unit combines a plurality of random pattern images in which the size of dots constituting the random pattern image is equal to or less than ½ of the window size that is a processing unit in the optical flow calculation process The information processing apparatus according to claim 1, wherein the information processing apparatus generates a random pattern image.
  3.  前記特徴量算出部は、前記特定結果を利用して、第1の前記撮像データに対応する第1の画像と、第2の前記撮像データに対応する第2の画像と、の幾何学的な対応関係を表わす変換行列を算出し、
     算出した前記変換行列を利用して、前記光学系のズレ、前記光学系に起因する画像サイズの変化、前記光学系の傾き及び前記光学系の歪みを表わす前記特徴量を算出する、請求項1に記載の情報処理装置。
    The feature amount calculation unit uses the identification result to obtain a geometrical relationship between a first image corresponding to the first imaging data and a second image corresponding to the second imaging data. Calculate a transformation matrix representing the correspondence,
    2. The feature amount representing a deviation of the optical system, a change in image size caused by the optical system, a tilt of the optical system, and a distortion of the optical system is calculated using the calculated conversion matrix. The information processing apparatus described in 1.
  4.  前記特徴量算出部は、
     前記変換行列として、前記第1の画像と前記第2の画像との間のアフィン変換行列を算出し、
     算出した前記アフィン変換行列を利用し、前記特徴量として、前記第1の画像と前記第2の画像との間の、サイズ変化量、位置シフト量、回転角度及びスキュー角度を少なくとも算出する、請求項3に記載の情報処理装置。
    The feature amount calculation unit includes:
    As the transformation matrix, calculate an affine transformation matrix between the first image and the second image,
    The calculated affine transformation matrix is used to calculate at least a size change amount, a position shift amount, a rotation angle, and a skew angle between the first image and the second image as the feature amount. Item 4. The information processing device according to Item 3.
  5.  前記特徴量算出部は、前記変換行列として、前記第1の画像と前記第2の画像との間の射影変換行列を算出し、
     算出した前記射影変換行列を利用し、前記特徴量として、前記第1の画像と前記第2の画像との間の、サイズ変化量、位置シフト量、回転角度、スキュー角度及び射影変換係数を少なくとも算出する、請求項3に記載の情報処理装置。
    The feature amount calculation unit calculates a projective transformation matrix between the first image and the second image as the transformation matrix,
    Using the calculated projective transformation matrix, at least a size change amount, a position shift amount, a rotation angle, a skew angle, and a projective transformation coefficient between the first image and the second image are used as the feature amount. The information processing apparatus according to claim 3, which calculates the information processing apparatus.
  6.  前記アフィン変換行列は、拡大・縮小操作、スキュー操作、回転操作及び平行移動操作が順に行われた場合の変換行列である、請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the affine transformation matrix is a transformation matrix when an enlargement / reduction operation, a skew operation, a rotation operation, and a translation operation are sequentially performed.
  7.  前記射影変換行列は、拡大・縮小操作、スキュー操作、回転操作、平行移動操作及び投影操作が順に行われた場合の変換行列、又は、拡大・縮小操作、スキュー操作、回転操作、投影操作及び平行移動操作が順に行われた場合の変換行列である、請求項5に記載の情報処理装置。 The projective transformation matrix is a transformation matrix obtained when an enlargement / reduction operation, a skew operation, a rotation operation, a translation operation, and a projection operation are sequentially performed, or an enlargement / reduction operation, a skew operation, a rotation operation, a projection operation, and a parallel operation. The information processing apparatus according to claim 5, wherein the information processing apparatus is a transformation matrix when the moving operations are sequentially performed.
  8.  前記特徴量算出部により算出された前記特徴量に基づいて前記光学系の状態を判定する光学系状態判定部を更に備える、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising: an optical system state determination unit that determines a state of the optical system based on the feature amount calculated by the feature amount calculation unit.
  9.  前記光学機器は、ズーム光学系を有する光学機器、ステレオ光学系を有する光学機器、又は、ステレオ画像を生成する光学機器である、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the optical device is an optical device having a zoom optical system, an optical device having a stereo optical system, or an optical device that generates a stereo image.
  10.  前記ズーム光学系を有する光学機器は、カメラ、カムコーダ又は望遠鏡である、請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein the optical device having the zoom optical system is a camera, a camcorder, or a telescope.
  11.  前記ステレオ光学系を有する光学機器は、顕微鏡又は双眼鏡である、請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein the optical apparatus having the stereo optical system is a microscope or binoculars.
  12.  前記ステレオ画像を生成する光学機器は、ヘッドマウントディスプレイである、請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein the optical device that generates the stereo image is a head-mounted display.
  13.  所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成することと、
     撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定することと、
     前記互いに対応する位置の特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出することと、
    を含む、情報処理方法。
    Taking a plurality of random pattern images output from an optical device having a predetermined optical system in a situation where the state of the optical system is different, and generating a plurality of imaging data corresponding to the state of the optical system,
    By using the plurality of captured image data and calculating an optical flow between the plurality of captured images at an arbitrary point of at least three or more points in the captured image corresponding to the captured data, between the plurality of captured images Identifying positions corresponding to each other in
    Calculating a feature amount representing a difference in the optical system between the plurality of captured images of interest based on the identification results of the positions corresponding to each other;
    Including an information processing method.
  14.  所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部を有するコンピュータに、
     前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定機能と、
     前記対応位置特定機能により得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出機能と、
    を実現させるためのプログラム。
    An imaging unit that captures a plurality of random pattern images output from an optical device having a predetermined optical system in a situation where the state of the optical system is different, and generates a plurality of imaging data respectively corresponding to the state of the optical system Computer
    By using the plurality of imaging data captured by the imaging unit and calculating the optical flow between the plurality of captured images at any point of at least three or more points in the captured image corresponding to the imaging data, A corresponding position specifying function for specifying positions corresponding to each other between the captured images;
    A feature amount calculation function for calculating a feature amount representing a difference in the optical system between the plurality of captured images of interest based on the specification result obtained by the corresponding position specifying function;
    A program to realize
  15.  所定の画像を所定の表示画面に対して表示させる光学系と、
     所定の光学系を有する光学機器から出力されるランダムパターン画像を、当該光学系の状態が異なる状況で複数撮像して、当該光学系の状態にそれぞれ対応する複数の撮像データを生成する撮像部と、前記撮像部により撮像された複数の撮像データを利用し、当該撮像データに対応する撮像画像での少なくとも3点以上の任意の点で複数の撮像画像間のオプティカルフローを算出することで、当該複数の撮像画像間において互いに対応する位置を特定する対応位置特定部と、前記対応位置特定部で得られた特定結果に基づいて、着目している前記複数の撮像画像間における前記光学系の相違を表わす特徴量を算出する特徴量算出部と、を備える情報処理装置により算出された前記特徴量に基づく特徴量情報を取得し、当該特徴量情報に基づいて前記光学系の調整を行う調整部と、
    を備える電子光学機器。
    An optical system for displaying a predetermined image on a predetermined display screen;
    An imaging unit that captures a plurality of random pattern images output from an optical device having a predetermined optical system in a situation where the state of the optical system is different, and generates a plurality of imaging data respectively corresponding to the state of the optical system; , By using the plurality of imaging data captured by the imaging unit and calculating an optical flow between the plurality of captured images at any point of at least three or more points in the captured image corresponding to the imaging data, Differences in the optical system between the plurality of captured images of interest based on a corresponding position specifying unit that specifies positions corresponding to each other between the plurality of captured images and a specifying result obtained by the corresponding position specifying unit. A feature amount calculation unit that calculates a feature amount that represents the feature amount information based on the feature amount calculated by the information processing apparatus, and based on the feature amount information An adjustment unit for adjusting the optical system,
    An electro-optical device comprising:
PCT/JP2015/063387 2014-08-19 2015-05-08 Information processing apparatus, information processing method, program, and electronic optical device WO2016027524A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-166437 2014-08-19
JP2014166437 2014-08-19

Publications (1)

Publication Number Publication Date
WO2016027524A1 true WO2016027524A1 (en) 2016-02-25

Family

ID=55350478

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063387 WO2016027524A1 (en) 2014-08-19 2015-05-08 Information processing apparatus, information processing method, program, and electronic optical device

Country Status (1)

Country Link
WO (1) WO2016027524A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194126A (en) * 2000-01-14 2001-07-19 Sony Corp Apparatus and method for measuring three-dimensional shape and program providing medium
JP2009182879A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Calibrating apparatus and calibrating method
WO2009141998A1 (en) * 2008-05-19 2009-11-26 パナソニック株式会社 Calibration method, calibration device, and calibration system having the device
JP2012058188A (en) * 2010-09-13 2012-03-22 Ricoh Co Ltd Calibration device, distance measurement system, calibration method, and calibration program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194126A (en) * 2000-01-14 2001-07-19 Sony Corp Apparatus and method for measuring three-dimensional shape and program providing medium
JP2009182879A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Calibrating apparatus and calibrating method
WO2009141998A1 (en) * 2008-05-19 2009-11-26 パナソニック株式会社 Calibration method, calibration device, and calibration system having the device
JP2012058188A (en) * 2010-09-13 2012-03-22 Ricoh Co Ltd Calibration device, distance measurement system, calibration method, and calibration program

Similar Documents

Publication Publication Date Title
JP4958610B2 (en) Image stabilization apparatus, imaging apparatus, and image stabilization method
JP5762142B2 (en) Imaging apparatus, image processing apparatus and method thereof
US9066034B2 (en) Image processing apparatus, method and program with different pixel aperture characteristics
JP5472328B2 (en) Stereo camera
US20130063571A1 (en) Image processing apparatus and image processing method
CN105635588B (en) A kind of digital image stabilization method and device
US10306210B2 (en) Image processing apparatus and image capturing apparatus
WO2011010438A1 (en) Parallax detection apparatus, ranging apparatus and parallax detection method
JP6677098B2 (en) Spherical video shooting system and program
JP2015201704A (en) Image processing apparatus, control method, and program
JP2014504462A (en) Video conversion apparatus and display apparatus and method using the same
JP2012003233A (en) Image processing device, image processing method and program
JP2013030895A (en) Signal processing apparatus, imaging apparatus, signal processing method, and program
JP6310320B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6319972B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6552256B2 (en) Image processing apparatus and image processing apparatus control method
WO2021245982A1 (en) Information processing device, information processing method, and program
Lee et al. Fast-rolling shutter compensation based on piecewise quadratic approximation of a camera trajectory
JP2019029721A (en) Image processing apparatus, image processing method, and program
JP2015228113A (en) Image processor and image processing method
JP4930304B2 (en) Image processing apparatus, image processing method, program, and recording medium
WO2016027524A1 (en) Information processing apparatus, information processing method, program, and electronic optical device
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP5086120B2 (en) Depth information acquisition method, depth information acquisition device, program, and recording medium
JP6320165B2 (en) Image processing apparatus, control method therefor, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15833221

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 15833221

Country of ref document: EP

Kind code of ref document: A1