JP2022044393A - Method and device for analyzing image - Google Patents

Method and device for analyzing image Download PDF

Info

Publication number
JP2022044393A
JP2022044393A JP2020149993A JP2020149993A JP2022044393A JP 2022044393 A JP2022044393 A JP 2022044393A JP 2020149993 A JP2020149993 A JP 2020149993A JP 2020149993 A JP2020149993 A JP 2020149993A JP 2022044393 A JP2022044393 A JP 2022044393A
Authority
JP
Japan
Prior art keywords
feature vector
image
pixel
speckle pattern
computer device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020149993A
Other languages
Japanese (ja)
Inventor
立昌 佐川
Ryusuke Sagawa
洋 川崎
Hiroshi Kawasaki
雄介 樋口
Yusuke Higuchi
亮 古川
Akira Furukawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
National Institute of Advanced Industrial Science and Technology AIST
Hiroshima City University
Original Assignee
Kyushu University NUC
National Institute of Advanced Industrial Science and Technology AIST
Hiroshima City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, National Institute of Advanced Industrial Science and Technology AIST, Hiroshima City University filed Critical Kyushu University NUC
Priority to JP2020149993A priority Critical patent/JP2022044393A/en
Publication of JP2022044393A publication Critical patent/JP2022044393A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

To determine motions of an imaging target.SOLUTION: A controller generates a first image including a first speckle pattern on the basis of a first imaging signal, generates a second image including a second speckle pattern on the basis of a second imaging signal generated in such a manner that an imaging device takes an image of the imaging target in a second time, approximates the displacement of a first feature vector in a first pixel aggregate in the first image, approximates the displacement of a second feature vector in a second pixel aggregate in a second image, and calculates the distance between pixels on a pixel-by-pixel basis between the first feature vector and the second feature vector, thereby determining the change between the first speckle pattern and the second speckle pattern.SELECTED DRAWING: Figure 5

Description

特許法第30条第2項適用申請有り 開催年月日:令和2年8月3日 集会名、開催場所: 第23回 画像の認識・理解シンポジウム MIRU2020 オンライン開催 https://sites.google.com/view/miru2020/%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%A0#h.p_vdNjmJ1fY_NXApplication for application of Article 30, Paragraph 2 of the Patent Act Date: August 3, 2nd Reiwa Meeting name, venue: 23rd Image Recognition and Understanding Symposium MIRU2020 Online Holding https: // systems. Google. com / view / miru2020 /% E3% 83% 97% E3% 83% AD% E3% 82% B0% E3% 83% A9% E3% 83% A0 # h. p_vdNjmJ1fY_NX

本開示は、画像分析方法および画像分析装置に関し、特に、撮影対象から反射した光の干渉から生じるスペックルに基づいて、撮影対象のわずかな動きを判定する画像分析方法および画像分析装置に関する。 The present disclosure relates to an image analysis method and an image analysis apparatus, and more particularly to an image analysis method and an image analysis apparatus for determining a slight movement of an imaging object based on speckles caused by interference of light reflected from the imaging object.

物体の表面にレーザ光などの光を照射すると、物体の照射面の凹凸形状などによって反射した光が散乱および干渉し、照射面上に斑点状のパターンが出現する。このパターンをスペックルと称する。コヒーレント光を照射した物体から生成された画像を観察すると、画像内にスペックルが観測される。そして、物体が動くと、その動きに応じて、スペックルパターンにも変化が生じる。 When the surface of an object is irradiated with light such as laser light, the reflected light is scattered and interferes with the uneven shape of the irradiation surface of the object, and a speckled pattern appears on the irradiation surface. This pattern is called speckle. When observing an image generated from an object irradiated with coherent light, speckles are observed in the image. Then, when the object moves, the speckle pattern also changes according to the movement.

特表2019-519269号公報Special Table 2019-591269 Gazette

画像内のスペックルパターンを分析することによって、光が照射された物体の動きを判定する技術が従来から提案されている。特許文献1は、二次的スペックルパターンに関連した画像データ片を収集することによって、生物学的検体に関連した機械的および/または音響学的振動のような、機械的および/または音響学的信号をモニタリングする技術を開示している。 Conventionally, a technique for determining the movement of an object irradiated with light by analyzing a speckle pattern in an image has been proposed. Patent Document 1 describes mechanical and / or acoustics, such as mechanical and / or acoustic vibrations associated with biological specimens, by collecting pieces of image data associated with secondary speckle patterns. It discloses a technology for monitoring target signals.

特許文献1に開示された技術は、スペックルパターンの間の空間的相関を示す相関関数を決定し、周波数で生ずる相関の変化を選択するために、決定された相関関数にフィルタリングを適用している。 The technique disclosed in Patent Document 1 determines a correlation function indicating a spatial correlation between speckle patterns, and applies filtering to the determined correlation function in order to select a change in correlation that occurs at frequency. There is.

例えば、カメラと物体との間の距離が短い場合、物体がわずかに動いた場合でさえ、スペックルパターンが急激に変化することがある。このような場合、スペックルパターンを連続して観察した場合、変化の前後でパターンが無相関になり、物体の連続したわずかな動きを判定することができない。特許文献1は、上述した物体のわずかな動きを判定するための解決手段を何ら提示していない。 For example, if the distance between the camera and the object is short, the speckle pattern can change abruptly, even if the object moves slightly. In such a case, when the speckle pattern is continuously observed, the patterns become uncorrelated before and after the change, and it is not possible to determine the continuous slight movement of the object. Patent Document 1 does not present any solution for determining the slight movement of the above-mentioned object.

一実施形態に係るコンピュータデバイスは、撮影対象の動きを判定するコンピュータデバイスであって、撮像装置が第1の時間に前記撮影対象を撮影することによって生成された第1の撮影信号に基づいて、第1のスペックルパターンを含む第1の画像を生成し、前記撮像装置が第2の時間に前記撮影対象を撮影することによって生成された第2の撮影信号に基づいて、第2のスペックルパターンを含む第2の画像を生成し、前記第1の画像内の第1の画素集合における輝度から第1の特徴ベクトルを計算し、前記第1の画素集合の間で前記第1の特徴ベクトルの変位を近似させ、前記第2の画像内の第2の画素集合における輝度から第2の特徴ベクトルを計算し、前記第2の画素集合の間で前記第2の特徴ベクトルの変位を近似させ、前記近似させた第1の特徴ベクトルと前記近似させた第2の特徴ベクトルとの間で、画素ごとに画素間の距離を計算することによって、前記第1のスペックルパターンと前記第2のスペックルパターンとの間の変化を判定する、ように構成された制御装置を含む。 The computer device according to an embodiment is a computer device that determines the movement of an image-taking object, and is based on a first image-taking signal generated by the image pickup device taking an image of the image-taking object at a first time. A second speckle is generated based on a second imaging signal generated by generating a first image including the first speckle pattern and the imaging device photographing the imaged object at a second time. A second image containing a pattern is generated, a first feature vector is calculated from the brightness in the first pixel set in the first image, and the first feature vector is generated among the first pixel sets. The displacement of the second feature vector is approximated, the second feature vector is calculated from the brightness in the second pixel set in the second image, and the displacement of the second feature vector is approximated between the second pixel sets. The first speckle pattern and the second speckle pattern are obtained by calculating the distance between the pixels for each pixel between the approximated first feature vector and the approximated second feature vector. Includes a controller configured to determine changes to and from the speckle pattern.

また、別の実施形態に係る方法は、撮影対象の動きを判定するコンピュータデバイスによって実行される方法であって、撮像装置が第1の時間に前記撮影対象を撮影することによって生成された第1の撮影信号に基づいて、第1のスペックルパターンを含む第1の画像を生成するステップと、前記撮像装置が第2の時間に前記撮影対象を撮影することによって生成された第2の撮影信号に基づいて、第2のスペックルパターンを含む第2の画像を生成するステップと、前記第1の画像内の第1の画素集合における輝度から第1の特徴ベクトルを計算し、前記第1の画素集合の間で前記第1の特徴ベクトルの変位を近似させるステップと、前記第2の画像内の第2の画素集合における輝度から第2の特徴ベクトルを計算し、前記第2の画素集合の間で前記第2の特徴ベクトルの変位を近似させるステップと、前記近似させた第1の特徴ベクトルと前記近似させた第2の特徴ベクトルとの間で、画素ごとに画素間の距離を計算することによって、前記第1のスペックルパターンと前記第2のスペックルパターンとの間の変化を判定するステップと、を含む。 Further, the method according to another embodiment is a method executed by a computer device that determines the movement of the imaged object, and is a first method generated by the image pickup device taking an image of the imaged object at the first time. A step of generating a first image including a first speckle pattern based on the imaging signal of the above, and a second imaging signal generated by the imaging apparatus photographing the imaged object at a second time. Based on, the first feature vector is calculated from the step of generating the second image including the second speckle pattern and the brightness in the first pixel set in the first image, and the first feature vector is calculated. The second feature vector is calculated from the step of approximating the displacement of the first feature vector between the pixel sets and the brightness in the second pixel set in the second image, and the second feature vector is calculated. The distance between pixels is calculated for each pixel between the step of approximating the displacement of the second feature vector and the approximated first feature vector and the approximated second feature vector. Thereby, the step of determining the change between the first speckle pattern and the second speckle pattern is included.

実施形態に係る画像分析システムによれば、スペックルパターンの変化の前後で相関性を維持することができ、物体のわずかな動きを精度よく判定することができる。 According to the image analysis system according to the embodiment, the correlation can be maintained before and after the change of the speckle pattern, and the slight movement of the object can be accurately determined.

画像分析システムの構成の例を示すブロック図である。It is a block diagram which shows the example of the structure of an image analysis system. コンピュータデバイスの構成の例を示すブロック図である。It is a block diagram which shows the example of the configuration of a computer device. 撮影対象を撮影する例を示す図である。It is a figure which shows the example of taking a picture of the object to be taken. 局所平面の例を示す図である。It is a figure which shows the example of the local plane. 画像分析システムが実行する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which an image analysis system executes. 局所平面の例を示す図である。It is a figure which shows the example of the local plane. 布を指で押した状態の例を示す図である。It is a figure which shows the example of the state which pressed the cloth with a finger. 振動の変化の例を示すグラフである。It is a graph which shows the example of the change of vibration.

以下、添付した図面を参照して、一実施形態に係る画像分析方法および画像分析装置を詳細に説明する。本実施形態では、画像分析方法および画像分析装置は、画像分析システムにおいて実装される。また、本実施形態では、光が照射され、動きなどを判定される対象となるいずれかの物体を「撮影対象」と称する。 Hereinafter, the image analysis method and the image analysis apparatus according to the embodiment will be described in detail with reference to the attached drawings. In this embodiment, the image analysis method and the image analysis device are implemented in the image analysis system. Further, in the present embodiment, any object that is irradiated with light and whose movement or the like is determined is referred to as a “photographing target”.

まず、図1を参照して、画像分析システム100の構成の例を説明する。本実施形態では、画像分析システム100は、コンピュータデバイス1、撮像装置2a、2b、および2c(総称して、撮像装置2)、投光装置3a、3b、および3c(総称して、投光装置3)、ならびに表示装置4を含む。コンピュータデバイス1は、少なくとも撮像装置2および表示装置4と、バスまたはネットワークなどを介して相互に結合され、任意選択で、投光装置3と結合されている。 First, an example of the configuration of the image analysis system 100 will be described with reference to FIG. In the present embodiment, the image analysis system 100 includes a computer device 1, an image pickup device 2a, 2b, and 2c (collectively, an image pickup device 2), a floodlight device 3a, 3b, and 3c (collectively, a floodlight device). 3), as well as the display device 4. The computer device 1 is coupled to at least the image pickup device 2 and the display device 4 via a bus, a network, or the like, and is optionally coupled to the floodlight device 3.

コンピュータデバイス1は、少なくとも演算機能を含むいずれかの情報処理装置である。コンピュータデバイス1は、撮像装置2から受信した撮影信号に基づいて画像を生成し、画像内のスペックルパターンに基づいて撮影対象Oの動きを判定する。 The computer device 1 is any information processing device including at least an arithmetic function. The computer device 1 generates an image based on the shooting signal received from the image pickup device 2, and determines the movement of the shooting target O based on the speckle pattern in the image.

撮像装置2は、1つまたは複数のCCDイメージセンサまたはCMOSイメージセンサなどを含み、撮影対象Oを撮影し、撮影信号をコンピュータデバイス1に送信する。本実施形態では、撮像装置2は、カメラによって実装される。撮像装置2は、高画素の画像を生成するために、より多くのイメージセンサが配列されることが望ましい。 The image pickup apparatus 2 includes one or a plurality of CCD image sensors, CMOS image sensors, and the like, captures an image capture target O, and transmits an image pickup signal to the computer device 1. In this embodiment, the image pickup device 2 is mounted by a camera. In the image pickup apparatus 2, it is desirable that more image sensors are arranged in order to generate a high pixel image.

なお、本実施形態では、撮影対象Oの連続した動きを判定するために、複数の異なる位置にある撮影対象Oを撮影する複数の撮像装置2(撮像装置2a、2b、および2c)が設けられるが、撮像装置2の数は、1以上のいずれかの数であってもよい。例えば、1台の撮像装置2が設けられる場合、撮像装置2は、あらゆる方向において撮影対象Oを撮影することができるような回転式および/または可動式光源であってもよい。 In this embodiment, a plurality of image pickup devices 2 (imaging devices 2a, 2b, and 2c) for photographing a plurality of image pickup objects O at different positions are provided in order to determine the continuous movement of the image pickup object O. However, the number of image pickup devices 2 may be any number of 1 or more. For example, when one image pickup device 2 is provided, the image pickup device 2 may be a rotary and / or movable light source capable of photographing the image pickup target O in all directions.

投光装置3は、撮影対象Oに向けてコヒーレント光を照射する光源である。コヒーレント光は、光束内の任意の二点における光波の位相関係が時間的に不変で一定であり、任意の方法で光束を分割した後、大きな光路差を与えて再び重ねあわせても完全な干渉性を示す光をいう。本実施形態では、投光装置3は、コヒーレント光としてレーザ光を放射する。 The light projecting device 3 is a light source that irradiates coherent light toward the photographing target O. In coherent light, the phase relationship of light waves at any two points in the luminous flux is constant with no change in time, and even if the luminous flux is divided by an arbitrary method and then superposed again with a large optical path difference, complete interference occurs. Light that indicates sex. In the present embodiment, the floodlight device 3 emits laser light as coherent light.

なお、撮像装置2と同様に、撮影対象Oの連続した動きを判定するために、複数の異なる位置にある撮影対象Oにレーザ光を照射する複数の投光装置3(投光装置3a、3b、および3c)が設けられるが、投光装置3の数は、1以上のいずれかの数であってもよい。例えば、1台の投光装置3が設けられる場合、投光装置3は、あらゆる方向にレーザ光を放射することができるような回転式および/または可動式光源であってもよい。 Similar to the image pickup device 2, a plurality of light projecting devices 3 (light projecting devices 3a and 3b) that irradiate a plurality of shooting target O at different positions with laser light in order to determine the continuous movement of the shooting target O. , And 3c) are provided, but the number of the floodlight devices 3 may be any number of 1 or more. For example, when one floodlight device 3 is provided, the floodlight device 3 may be a rotary and / or movable light source capable of emitting laser light in all directions.

表示装置4は、コンピュータデバイス1が物体の動きを判定した結果、その動きを表示するディスプレイである。表示装置4は、本実施形態での必須の構成要素ではないが、本実施形態が、例えば、物体に伝わる音の振動を観察するために適用される場合、その音の振動を視覚的に表現することができる。 The display device 4 is a display that displays the movement of the object as a result of the computer device 1 determining the movement of the object. The display device 4 is not an essential component in the present embodiment, but when the present embodiment is applied, for example, for observing the vibration of a sound transmitted to an object, the vibration of the sound is visually expressed. can do.

なお、本実施形態では、コンピュータデバイス1、撮像装置2、投光装置3、および表示装置4がそれぞれ独立した装置によって実装されるが、そのような構成に限定されない。それらが全て統合された単一の装置が設けられてもよく、またはそれらのうちのいずれかが組み合わされた装置が存在してもよい。 In the present embodiment, the computer device 1, the image pickup device 2, the floodlight device 3, and the display device 4 are each mounted by independent devices, but the configuration is not limited to such. There may be a single device in which they are all integrated, or there may be a device in which any one of them is combined.

次に、図2を参照して、コンピュータデバイス1の詳細な構成要素を説明する。コンピュータデバイス1は、制御装置11、メモリ12、記憶装置13、入力ドライバ14、および出力ドライバ15を含む。メモリ12、記憶装置13、入力ドライバ14、および出力ドライバ15はそれぞれ、内部バスを通じて制御装置11に結合され、制御装置11によって制御される。 Next, with reference to FIG. 2, detailed components of the computer device 1 will be described. The computer device 1 includes a control device 11, a memory 12, a storage device 13, an input driver 14, and an output driver 15. The memory 12, the storage device 13, the input driver 14, and the output driver 15 are each coupled to the control device 11 through the internal bus and controlled by the control device 11.

制御装置11は、プロセッサとも称され、中央処理装置(CPU)およびグラフィックプロセシングユニット(GPU)などを含む。制御装置11は、撮像装置2から受信した撮影信号に基づいて画像を生成し、画像内のスペックルパターンに基づいて、撮影対象Oの動きを判定するなどの演算を実行する。なお、制御装置11は、コンピュータデバイス1に結合された撮像装置2および投光装置3を制御してもよい。この場合、例えば、制御装置11は、投光装置3が撮影対象Oにレーザ光を照射するタイミング、および撮像装置2が撮影対象Oを撮影するタイミングなどを制御してもよい(撮像装置2および投光装置3に制御信号を送信することによって)。 The control device 11 is also referred to as a processor and includes a central processing unit (CPU), a graphic processing unit (GPU), and the like. The control device 11 generates an image based on the shooting signal received from the image pickup device 2, and executes an operation such as determining the movement of the shooting target O based on the speckle pattern in the image. The control device 11 may control the image pickup device 2 and the floodlight device 3 coupled to the computer device 1. In this case, for example, the control device 11 may control the timing at which the light projecting device 3 irradiates the image pickup target O with the laser beam, the timing at which the image pickup device 2 captures the image pickup target O, and the like (the image pickup device 2 and the image pickup device 2 and the image pickup device 2). By transmitting a control signal to the floodlight device 3).

メモリ12は、制御装置11が処理する、コンピュータ実行可能命令、および当該命令による演算処理後のデータなどを記憶した揮発性データ記憶装置である。メモリ12は、RAM(ランダムアクセスメモリ)(例えば、SRAM(スタティックRAM)およびDRAM(ダイナミックRAM))などで実装されてもよい。 The memory 12 is a volatile data storage device that stores computer-executable instructions processed by the control device 11, data after arithmetic processing by the instructions, and the like. The memory 12 may be implemented by a RAM (random access memory) (for example, a SRAM (static RAM) and a DRAM (dynamic RAM)).

記憶装置13は、上述したコンピュータ実行可能命令を含むプログラムなどを記憶した不揮発性データ記憶装置である。記憶装置13は、ROM(リードオンリメモリ)などの不揮発性半導体メモリ、磁気記憶装置(ハードディスクドライブなど)、および光ディスクなどで実装されてもよい。なお、プログラムなどのデータは、記憶装置13に加えまたはその代わりに、NAS(Network Attached Storage)および/またはSAN(Storage Area Network)などに記憶されてもよい。 The storage device 13 is a non-volatile data storage device that stores a program or the like including the computer-executable instructions described above. The storage device 13 may be mounted on a non-volatile semiconductor memory such as a ROM (read-only memory), a magnetic storage device (hard disk drive or the like), an optical disk, or the like. Data such as programs may be stored in NAS (Network Attached Storage) and / or SAN (Storage Area Network) in addition to or instead of the storage device 13.

入力ドライバ14は、撮像装置2から撮影信号を受信するなど、コンピュータデバイス1と結合された外部機器からの入力を受信し、その入力を制御装置11に送信する。出力ドライバ15は、表示装置4に画像信号を送信するなど、コンピュータデバイス1と結合された外部機器への出力を制御装置から受信し、その出力を外部機器に送信する。 The input driver 14 receives an input from an external device coupled to the computer device 1, such as receiving a shooting signal from the image pickup device 2, and transmits the input to the control device 11. The output driver 15 receives an output to an external device coupled to the computer device 1 such as transmitting an image signal to the display device 4 from the control device, and transmits the output to the external device.

次に、図3を参照して、撮像装置2が撮影対象Oを撮影することによって生成された画像内のスペックルパターンを説明する。上述したように、撮影対象Oが動くと、その動きに応じて投光装置3が照射したレーザ光が散乱および干渉し、スペックルパターンにも変化が生じる。 Next, with reference to FIG. 3, the speckle pattern in the image generated by the imaging device 2 photographing the image target O will be described. As described above, when the object O to be photographed moves, the laser beam emitted by the floodlight device 3 scatters and interferes with the movement, and the speckle pattern also changes.

図3は、破線矢印Aに示す方向に動いている撮影対象Oを3つの撮影ポイントで撮影し、対応して生成された3つの画像を示す。撮像装置2aは、撮影対象Oを撮影ポイントS1において撮影し、撮像装置2bは、撮影対象Oを撮影ポイントS2において撮影し、撮像装置2cは、撮影対象Oを撮影ポイントS3において撮影する。本実施形態では、撮影対象Oは、3つの異なる位置である撮影ポイントS1~S3のそれぞれにおいて撮影されるが、撮影対象Oは、同一の位置において撮影されてもよい。つまり、撮影対象Oは、異なる時間点において、異なる位置または同一の位置において複数回撮影される。 FIG. 3 shows three images generated by photographing the photographing object O moving in the direction indicated by the broken line arrow A at three photographing points. The imaging device 2a photographs the imaging target O at the imaging point S1, the imaging device 2b photographs the imaging target O at the imaging point S2, and the imaging device 2c photographs the imaging target O at the imaging point S3. In the present embodiment, the photographing target O is photographed at each of the three different shooting points S1 to S3, but the photographing target O may be photographed at the same position. That is, the photographing target O is photographed a plurality of times at different positions or at the same position at different time points.

撮像装置2aが撮影対象Oを撮影することによって(制御装置11により)生成された画像は、画像I1に対応する。同様に、撮像装置2bが撮影対象Oを撮影することによって生成された画像は、画像I2に対応し、撮像装置2cが撮影対象Oを撮影することによって生成された画像は、画像I3に対応する。 The image generated (by the control device 11) by the image pickup device 2a photographing the image pickup target O corresponds to the image I1. Similarly, the image generated by the image pickup device 2b photographing the image pickup target O corresponds to the image I2, and the image generated by the image pickup device 2c photographing the image capture target O corresponds to the image I3. ..

上述したように、撮影対象Oの連続した動きを、スペックルパターンを分析することによって判定する場合、複数の撮影ポイントにおいて撮影対象Oを撮影することになる。それぞれの撮影ポイントにおいて、投光装置3から照射したレーザ光が散乱および干渉することになり、スペックルパターンに変化を生じさせる。図3に示すように、3つの画像I1~I3内のスペックルパターンはそれぞれ異なる。 As described above, when the continuous movement of the shooting target O is determined by analyzing the speckle pattern, the shooting target O is shot at a plurality of shooting points. At each shooting point, the laser light emitted from the light projecting device 3 scatters and interferes, causing a change in the speckle pattern. As shown in FIG. 3, the speckle patterns in the three images I1 to I3 are different from each other.

本実施形態では、スペックルパターンを含む画像内の特定の領域を平面と見なし、平面内の特定の画素(x,y)の周りの3D平面パラメータを推定する。本実施形態では、この特定の平面領域を「局所平面」と称する。図4を参照して、動いている撮影対象Oを(3回)撮影することによって生成された3つの画像内の局所平面を説明する。 In this embodiment, a specific area in the image including the speckle pattern is regarded as a plane, and 3D plane parameters around a specific pixel (x, y) in the plane are estimated. In this embodiment, this specific plane region is referred to as a "local plane". With reference to FIG. 4, the local planes in the three images generated by photographing the moving object O (three times) will be described.

図4は、3つの局所平面LP1~LP3を示している。局所平面LP1は、図3に示した画像I1内の特定の局所平面に相当する。局所平面LP2は、図3に示した画像I2内の、局所平面LP1に対応する局所平面に相当する。局所平面LP3は、図3に示した画像I3内の、局所平面LP1および局所平面LP2に対応する局所平面に相当する。 FIG. 4 shows three local planes LP1 to LP3. The local plane LP1 corresponds to the specific local plane in the image I1 shown in FIG. The local plane LP2 corresponds to the local plane corresponding to the local plane LP1 in the image I2 shown in FIG. The local plane LP3 corresponds to the local plane corresponding to the local plane LP1 and the local plane LP2 in the image I3 shown in FIG.

図3で説明したように、画像I1~I3は、動いている撮影対象Oを撮影することによって生成された画像であるので、局所平面LP2は、局所平面LP1に対して画像内の座標位置において変位している。局所平面LP3も同様に、局所平面LP1および局所平面LP2に対して画像内の座標位置において変位している。 As described with reference to FIG. 3, since the images I1 to I3 are images generated by photographing the moving object O, the local plane LP2 is the coordinate position in the image with respect to the local plane LP1. It is displaced. Similarly, the local plane LP3 is also displaced at the coordinate position in the image with respect to the local plane LP1 and the local plane LP2.

図4は、局所平面LP1を基準に、局所平面LP2および局所平面LP3の変位を示している。変位は、2つの局所平面内の画素間の距離によって表される。図4に示す例では、局所平面LP1内の特定の画素P1aおよび画素P1aの周りの隣接した画素P1bを基準とする。 FIG. 4 shows the displacements of the local plane LP2 and the local plane LP3 with respect to the local plane LP1. Displacement is represented by the distance between pixels in two local planes. In the example shown in FIG. 4, the specific pixel P1a in the local plane LP1 and the adjacent pixel P1b around the pixel P1a are referred to.

まず、局所平面をフレームiとみなし、フレームi内の画素P1a(x,y)の周りの3D平面パラメータを、式(1)に従って推定する。 First, the local plane is regarded as the frame i, and the 3D plane parameters around the pixels P1a (x, y) in the frame i are estimated according to the equation (1).

Figure 2022044393000002
Figure 2022044393000002

Figure 2022044393000003
は、3次元ベクトル、すなわち、(x,y)の各点で局所平面を定義する3次元パラメータを表す関数であり、
Figure 2022044393000003
Is a three-dimensional vector, that is, a function representing a three-dimensional parameter that defines a local plane at each point (x, y).

Figure 2022044393000004
は、(x,y)の近隣の画素P1bを表す。
Figure 2022044393000004
Represents a pixel P1b in the vicinity of (x, y).

図4に示す通り、局所平面LP2内の画素P2aの周りの3D平面パラメータは、ψi(x,y)として表し、局所平面LP3内の画素P3bの周りの3D平面パラメータは、 As shown in FIG. 4, the 3D plane parameter around the pixel P2a in the local plane LP2 is represented as ψ i (x, y), and the 3D plane parameter around the pixel P3b in the local plane LP3 is.

Figure 2022044393000005
Figure 2022044393000005

として表す。 Expressed as.

上述したように、図3に示した画像I1~I3は、撮影対象Oの動きを表すので、局所平面LP1内の画素P1aと局所平面LP2内の画素P2aと間のオフセットは、変位d1(d(x,y))として表される。変位d1は、図3に示した、撮影ポイントS1と撮影ポイントS2との間の撮影対象Oの移動に対応する。 As described above, since the images I1 to I3 shown in FIG. 3 represent the movement of the image shooting target O, the offset between the pixel P1a in the local plane LP1 and the pixel P2a in the local plane LP2 is the displacement d1 (d). It is expressed as (x, y)). The displacement d1 corresponds to the movement of the imaging target O between the imaging point S1 and the imaging point S2 shown in FIG.

変位d1は、式(2)に従って計算される。 The displacement d1 is calculated according to the equation (2).

Figure 2022044393000006
Figure 2022044393000006

同様に、局所平面LP1内の画素P1bと局所平面LP3内の画素P2bと間のオフセットは、変位d2( Similarly, the offset between the pixel P1b in the local plane LP1 and the pixel P2b in the local plane LP3 is the displacement d2 (

Figure 2022044393000007
Figure 2022044393000007

)として表される。変位d2は、図3に示した、撮影ポイントS1と撮影ポイントS3との間の撮影対象Oの移動に対応する。 ). The displacement d2 corresponds to the movement of the imaging target O between the imaging point S1 and the imaging point S3 shown in FIG.

上述した変位d1およびd2を計算することによって、画像内のスペックルパターンの変化を分析することができる。スペックルパターンは、撮像装置2と撮影対象Oとの間の相対位置に影響を受けやすい。よって、撮影対象Oを複数回撮影することにより生成されたそれぞれの画像内のスペックルパターンの変化を分析することによって、撮影対象Oの動きを判定することができる。 By calculating the displacements d1 and d2 described above, changes in the speckle pattern in the image can be analyzed. The speckle pattern is easily affected by the relative position between the image pickup apparatus 2 and the image pickup target O. Therefore, the movement of the image target O can be determined by analyzing the change in the speckle pattern in each image generated by photographing the image target O a plurality of times.

スペックルパターンが急激に変化すると、変化の前後でスペックルパターンが無相関になる。このことは、撮影対象Oの連続した動きを判定することができず、わずかな変化を正確に判定することができないことにつながる。本実施形態に係る画像分析システム100は、スペックルパターンの変化に関わらず、スペックルパターンの一貫性を維持しながら、スペックルパターンに基づいて撮影対象Oの動きを判定する。 When the speckle pattern changes abruptly, the speckle pattern becomes uncorrelated before and after the change. This leads to the inability to determine the continuous movement of the imaging target O and the inability to accurately determine a slight change. The image analysis system 100 according to the present embodiment determines the movement of the photographing target O based on the speckle pattern while maintaining the consistency of the speckle pattern regardless of the change in the speckle pattern.

図5のフローチャートを参照して、画像分析システム100が実行する処理を説明する。図5において説明する処理は、動いている撮影対象Oを撮影ポイントS1およびS2において撮影することによって生成された画像I1およびI2内のスペックルパターンの変化を分析する。 The process executed by the image analysis system 100 will be described with reference to the flowchart of FIG. The process described with reference to FIG. 5 analyzes changes in the speckle pattern in the images I1 and I2 generated by photographing the moving image-taking target O at the image-taking points S1 and S2.

まず、投光装置3aおよび投光装置3bがそれぞれ、撮影対象Oにレーザ光を照射する(ステップS501)。次に、撮像装置2aが撮影ポイントS1において撮影対象Oを撮影し、撮影信号をコンピュータデバイス1に送信し、コンピュータデバイス1の制御装置11が撮影信号に基づいて画像I1を生成する(ステップS502)。撮像装置2bが撮影ポイントS2において撮影対象Oを撮影し、撮影信号をコンピュータデバイス1に送信し、制御装置11が撮影信号に基づいて画像I2を生成する(ステップS503)。 First, the light projecting device 3a and the light projecting device 3b each irradiate the imaging target O with laser light (step S501). Next, the image pickup device 2a shoots the shooting target O at the shooting point S1, transmits the shooting signal to the computer device 1, and the control device 11 of the computer device 1 generates the image I1 based on the shooting signal (step S502). .. The image pickup device 2b shoots the shooting target O at the shooting point S2, transmits the shooting signal to the computer device 1, and the control device 11 generates the image I2 based on the shooting signal (step S503).

次に、制御装置11は、画像I1から局所平面LP1を抽出する(ステップS504)。局所平面LP1は、例えば、ハフ変換などの技術を使用して、特定の領域を特定することによって抽出される。なお、以下では、局所平面LP1をフレームiとみなす。本実施形態では、局所平面LP1は、矩形領域に相当するが、その領域の形状は任意の形状を有してもよい。 Next, the control device 11 extracts the local plane LP1 from the image I1 (step S504). The local plane LP1 is extracted by identifying a particular region using techniques such as the Hough transform. In the following, the local plane LP1 is regarded as the frame i. In the present embodiment, the local plane LP1 corresponds to a rectangular region, but the shape of the region may have any shape.

また、制御装置11は、局所平面LP1に基づいて、局所平面LP1(フレームi)に対応する局所平面LP2を抽出する(ステップS505)。局所平面LP2は、例えば、射影行列を使用した射影変換を使用して、局所平面LP1に対応する領域を特定することによって抽出される。なお、以下では、局所平面LP1をフレームjと見なす。ステップS505の処理によって、フレームi内の画素P1aおよびP1bに対応する、フレームj内の画素P2aおよびP2bも特定される。 Further, the control device 11 extracts the local plane LP2 corresponding to the local plane LP1 (frame i) based on the local plane LP1 (step S505). The local plane LP2 is extracted, for example, by identifying a region corresponding to the local plane LP1 using a projective transformation using a projective matrix. In the following, the local plane LP1 is regarded as the frame j. By the process of step S505, the pixels P2a and P2b in the frame j corresponding to the pixels P1a and P1b in the frame i are also specified.

次に、制御装置11は、フレームiとフレームjとの間の変位を求めるよう、それぞれのフレーム内の画素ごとに、画素の間の距離を計算する(ステップS506)。ここで、フレームi内の特定の画素P1a(x,y)についての輝度をIi(x,y)とし、画素集合(xk,yk)についての輝度集合をIi(xk,yk)とする。kは、フレーム内の画素の次元数を表す。本実施形態では、k=112とする。 Next, the control device 11 calculates the distance between the pixels for each pixel in each frame so as to obtain the displacement between the frame i and the frame j (step S506). Here, the luminance for the specific pixel P1a (x, y) in the frame i is I i (x, y), and the luminance set for the pixel set (x k , y k ) is I i (x k , y). k ). k represents the number of dimensions of the pixels in the frame. In this embodiment, k = 112.

また、フレームj内の画素P1aに対応する画素P2a(x,y)についての輝度をIj(x,y)とし、画素集合(xk,yk)についての輝度集合をIj(xk,yk)とする。ステップS506における画素間の距離は、上述した特徴ベクトルの間のユークリッド距離によって計算される。 Further, the luminance of the pixel P2a (x, y) corresponding to the pixel P1a in the frame j is I j (x, y), and the luminance set of the pixel set (x k , y k ) is I j (x k ). , Y k ). The distance between pixels in step S506 is calculated by the Euclidean distance between the feature vectors described above.

Figure 2022044393000008
Figure 2022044393000008

輝度集合Ii(xk,yk)は、フレームiの状態を示す特徴ベクトルFi=Ii(x1,y1),…,Ii(xk,yk)を形成する。また、輝度集合Ij(xk,yk)は、フレームjの状態を示す特徴ベクトルFj=Ij(x1,y1),…,Ij(xk,yk)を形成する。 The luminance set I i (x k , y k ) forms a feature vector F i = I i (x 1 , y 1 ), ..., I i (x k , y k ) indicating the state of the frame i. Further, the luminance set I j (x k , y k ) forms a feature vector F j = I j (x 1 , y 1 ), ..., I j (x k , y k ) indicating the state of the frame j. ..

次に、制御装置11は、フレームiの3D平面パラメータψi(x,y)に基づいて、次元数kを次元数l(l<k)に削減する次元削減技術によって、フレームiについての低次元ベクトルΨiを計算する(ステップS507)。 Next, the control device 11 reduces the number of dimensions k to the number of dimensions l (l <k) based on the 3D plane parameter ψ i (x, y) of the frame i. The dimension vector Ψ i is calculated (step S507).

上述した次元数削減技術は、例えば、拡散マップ(Diffusion map)およびIsomapなどを含む。本実施形態では、拡散マップによって、式(4)に従って、削減した次元数lでのフレームiについての特徴ベクトルである低次元ベクトルΨiが計算される。 The dimension reduction techniques described above include, for example, diffusion maps and Isomaps. In this embodiment, the diffusion map calculates the low-dimensional vector Ψ i , which is a feature vector for the frame i with the reduced number of dimensions l, according to equation (4).

Figure 2022044393000009
Figure 2022044393000009

次元削減の入力は、特徴ベクトルの集合Fi(x,y)(i=1,…,N)である。Nは、フレームi内の画素数である。 The input of dimensionality reduction is a set of feature vectors Fi (x, y) ( i = 1, ..., N). N is the number of pixels in the frame i.

また、制御装置11は、フレームjの3D平面パラメータψj(x,y)に基づいて、次元数kを次元数lに削減する次元削減技術(拡散マップ)によって、フレームjについての低次元ベクトルΨjを計算する(ステップS508)。 Further, the control device 11 is a low-dimensional vector for the frame j by a dimension reduction technique (diffusion map) that reduces the number of dimensions k to the number of dimensions l based on the 3D plane parameter ψ j (x, y) of the frame j. Calculate Ψ j (step S508).

上述した次元数削減技術も同様に、拡散マップおよびIsomapなどを含む。本実施形態では、拡散マップによって、式(5)に従って、削減した次元数lでのフレームiについての特徴ベクトルである低次元ベクトルΨjが計算される。なお、ステップS507およびステップS508において削減した次元数であるlは、例えば、3~20のうちのいずれかの値であることが望ましい。 The above-mentioned dimension reduction techniques also include diffusion maps, Isomaps, and the like. In the present embodiment, the diffusion map calculates the low-dimensional vector Ψ j , which is a feature vector for the frame i with the reduced number of dimensions l, according to the equation (5). It is desirable that l, which is the number of dimensions reduced in steps S507 and S508, is, for example, any value of 3 to 20.

Figure 2022044393000010
Figure 2022044393000010

次元削減の入力は、特徴ベクトルの集合Fj(x,y)(j=1,…,N’)である。N’は、フレームj内の画素数である。 The input of dimensionality reduction is a set of feature vectors F j (x, y) (j = 1, ..., N'). N'is the number of pixels in the frame j.

削減した次元数lによって、式(3)に従って距離を計算することは、式(3)の代わりに、式(6)に従って計算される。 Calculating the distance according to equation (3) with the reduced number of dimensions l is calculated according to equation (6) instead of equation (3).

Figure 2022044393000011
Figure 2022044393000011

ステップS507およびステップS508における処理は、次元数kで計算したフレームiについての特徴ベクトルとフレームjについての特徴ベクトルとの間の変位(ユークリッド距離)に基づいて、削減した次元数lでフレームiについての特徴ベクトルとフレームjについての特徴ベクトルとの間の変位を計算することになる。 The processing in steps S507 and S508 is based on the displacement (Euclidean distance) between the feature vector for the frame i calculated in the dimension number k and the feature vector for the frame j, and the frame i is reduced in the number of dimensions l. The displacement between the feature vector of and the feature vector for frame j will be calculated.

ステップS507およびステップS508における次元数の削減によって、後述するように削減した次元数lにおいて距離が計算される。例えば、物体の動きが撮像装置2に対して奥行方向の動きがなく、撮像装置2に対して平行な動きのみを含む場合、高い次元数で変位を計算すると、計算においてノイズが発生する。削減した次元数lにおいて距離(式(6)に従って)を計算することによって、このノイズを除去することができる。 By reducing the number of dimensions in steps S507 and S508, the distance is calculated in the reduced number of dimensions l as described later. For example, when the movement of the object does not move in the depth direction with respect to the image pickup device 2 and includes only the movement parallel to the image pickup device 2, if the displacement is calculated with a high number of dimensions, noise is generated in the calculation. This noise can be removed by calculating the distance (according to equation (6)) in the reduced number of dimensions l.

また、削減した次元数lにおいて変位を計算することによって、フレームi内およびフレームj内のそれぞれの画素の間の特徴ベクトルの変位が小さくなるので、スペックルパターンの線形性を維持することができる。 Further, by calculating the displacement in the reduced number of dimensions l, the displacement of the feature vector between each pixel in the frame i and the frame j becomes small, so that the linearity of the speckle pattern can be maintained. ..

更に、削減した次元数lにおいて距離を計算することによって、上述し距離を計算する際の計算量を削減することができる。特に、式(3)では、画素ごとに距離を計算するので、次元数を削減しないで距離を計算することは、莫大な計算量を要することになる。 Further, by calculating the distance with the reduced number of dimensions l, the amount of calculation when calculating the distance can be reduced. In particular, in the equation (3), the distance is calculated for each pixel, so calculating the distance without reducing the number of dimensions requires an enormous amount of calculation.

次に、制御装置11は、式(7)に従って、フレームiについての低次元ベクトルΨiに線形変換を適用する(ステップS509)。また、制御装置11は、式(8)に従って、フレームiについての低次元ベクトルΨiに線形変換を適用する(ステップS510)。 Next, the control device 11 applies a linear transformation to the low-dimensional vector Ψ i for the frame i according to the equation (7) (step S509). Further, the control device 11 applies a linear transformation to the low-dimensional vector Ψ i for the frame i according to the equation (8) (step S510).

ステップS509の処理は、フレームi内の輝度集合をIi(xl,yl)(lは、ステップS507において次元数削減が適用された次元数を表す)のそれぞれの画素の間で、特徴ベクトルの変位を近似させる。同様に、ステップS510の処理は、フレームj内の輝度集合をIj(xl,yl)のそれぞれの画素の間で、特徴ベクトルの変位を近似させる。 The process of step S509 features a luminance set in frame i between each pixel of I i (x l , y l ) (where l represents the number of dimensions to which the dimension reduction is applied in step S507). Approximate the displacement of the vector. Similarly, the process of step S510 approximates the displacement of the feature vector between the pixels of I j (x l , y l ) for the luminance set in the frame j.

Figure 2022044393000012
Figure 2022044393000012

Figure 2022044393000013
Figure 2022044393000013

式(7)および式(8)におけるM(x,y)は、3×lの変換行列であり、Ψi(x,y)は、画素P1a(x,y)についてのl×1列ベクトルである。 M (x, y) in the equations (7) and (8) is a transformation matrix of 3 × l, and Ψ i (x, y) is an l × 1 column vector for the pixel P1a (x, y). Is.

式(7)および式(8)において、フレーム内で、特定の画素とその画素の特定の範囲内にある画素との間で特徴ベクトルの変位を近似させるように、式(9)および(10)に従った制約ESが課される。この制約は、例えば、図6に示すように、局所平面LP2(フレームj)内の画素P2a(x1,y1)と局所平面LP1(フレームi)内の画素P1aとの間の距離(画素間の距離(変位)d1)および画素P2b(x2,y2)と画素P1bとの間の距離(画素間の距離(変位)d2)を近似させる制約である。この例では、画素間の距離d1および画素間の距離d2は,撮像装置2から見て同一画素に対応する実在の点までの距離の変化(変位)に対応するが、画素間の距離を表す別の定義であってもよい。 In equations (7) and (8), equations (9) and (10) are used to approximate the displacement of the feature vector between a particular pixel and a pixel within a particular range of that pixel within the frame. ) Is imposed according to the constraint ES . This constraint is, for example, as shown in FIG. 6, the distance (pixels) between the pixels P2a (x 1 , y 1 ) in the local plane LP2 (frame j) and the pixels P1a in the local plane LP1 (frame i). It is a constraint that approximates the distance (displacement) d1) between the pixels and the distance between the pixels P2b ( x2, y2) and the pixels P1b ( distance (displacement) d2 between the pixels). In this example, the distance d1 between the pixels and the distance d2 between the pixels correspond to the change (displacement) of the distance to the actual point corresponding to the same pixel when viewed from the image pickup apparatus 2, but represent the distance between the pixels. It may be another definition.

Figure 2022044393000014
Figure 2022044393000014

Figure 2022044393000015
Figure 2022044393000015

フレームj内の画素P2a(x1,y1)および画素P2b(x2,y2)のペアについての制約は、式(11)に従った制約が課される。 The constraint on the pair of the pixel P2a (x 1 , y 1 ) and the pixel P2b (x 2 , y 2 ) in the frame j is imposed according to the equation (11).

Figure 2022044393000016
Figure 2022044393000016

Figure 2022044393000017
Figure 2022044393000017

は、要素単位の積である。 Is the product of element units.

式(10)では、全ての画素のベクトルについて線形行列M(x,y)を適用することによって得られる列ベクトルをmとする。制約がAm=0によって表現され、Aは、式(11)から計算された係数行列であるので、mは、ATAの最小固有値と関連付けられた固有ベクトルとして与えられる。線形行列M(x,y)が計算されると、式(7)および式(8)に従って計算された、線形変換が適用された、低次元ベクトルψi(x,y)および低次元ベクトルψj(x,y)は、空間的に一貫性が保持される(つまり、低次元ベクトルによって表される、フレーム内の画素の特徴ベクトルの変位が一定の範囲内にある)。 In the equation (10), the column vector obtained by applying the linear matrix M (x, y) to the vectors of all the pixels is defined as m. Since the constraint is expressed by Am = 0 and A is a coefficient matrix calculated from equation (11), m is given as an eigenvector associated with the minimum eigenvalue of ATA. When the linear matrix M (x, y) is calculated, the low-dimensional vector ψ i (x, y) and the low-dimensional vector ψ, which are calculated according to equations (7) and (8) and to which the linear transformation is applied, are applied. j (x, y) is spatially consistent (ie, the displacement of the feature vector of the pixels in the frame, represented by the low dimensional vector, is within a certain range).

固有ベクトルを計算する際の問題の1つは、例えば、フレームi内の画素についての低次元ベクトルΨi(x,y)の時間的分布が異なることである。画素(x,y)のΨi(x,y)がほぼゼロである場合、M(x,y)の大きさが固有ベクトルにおいて支配的であってもΨi(x,y)が誤差に影響を与えないため、M(x,y)の大きさは、1にほぼ等しく、他の画素についてのパラメータは、ほぼゼロになる。したがって、式(12)に従って、時間軸に沿って係数行列Aを計算する前にΨi(x,y)の標準偏差を正規化する。 One of the problems in calculating the eigenvectors is, for example, that the temporal distributions of the low-dimensional vectors Ψ i (x, y) for the pixels in the frame i are different. When Ψ i (x, y) of the pixel (x, y) is almost zero, Ψ i (x, y) affects the error even if the magnitude of M (x, y) is dominant in the eigenvector. Is not given, so the magnitude of M (x, y) is approximately equal to 1, and the parameters for the other pixels are approximately zero. Therefore, according to Eq. (12), the standard deviation of Ψ i (x, y) is normalized before calculating the coefficient matrix A along the time axis.

Figure 2022044393000018
Figure 2022044393000018

Ψikは、Ψiのk番目の成分であり、 Ψ ik is the kth component of Ψ i ,

Figure 2022044393000019
Figure 2022044393000019

は、Ψikの平均値であり、εは、ゼロ割り算を回避するための小さい数である。 Is the mean of Ψ ik and ε is a small number to avoid division by zero.

例えば、高解像度を有する撮像装置2によって撮影して生成された画像から固有ベクトルを計算する負荷が高いので、画素をサブサンプリングした後に変換行列M(x,y)が計算される。 For example, since the load of calculating the eigenvector from the image taken by the image pickup apparatus 2 having a high resolution is high, the transformation matrix M (x, y) is calculated after subsampling the pixels.

図5の説明に戻ると、制御装置11は、ステップS509において線形変換が適用された低次元ベクトルψi(x,y)およびステップS510において線形変換が適用された低次元ベクトルψj(x,y)に基づいて、フレームiとフレームjとの間の変位を画素ごとに計算する(ステップS511)。 Returning to the description of FIG. 5, the control device 11 has a low-dimensional vector ψ i (x, y) to which the linear transformation is applied in step S509 and a low-dimensional vector ψ j (x, y) to which the linear transformation is applied in step S510. Based on y), the displacement between the frame i and the frame j is calculated for each pixel (step S511).

上記説明した変換行列M(x,y)の計算は、式(3)によって計算された変位を考慮しない。フレームiについて、上述した低次元ベクトルψi(x,y)が特徴ベクトルFi(x,y)の間の距離を保存するように変換行列M(x,y)が最適化される。 The calculation of the transformation matrix M (x, y) described above does not take into account the displacement calculated by Eq. (3). For the frame i, the transformation matrix M (x, y) is optimized so that the above-mentioned low-dimensional vector ψ i (x, y) preserves the distance between the feature vectors Fi (x, y).

フレームiとフレームjとの距離(変位)が非常に短いと想定することによって、低次元ベクトルψi(x,y)によって示される距離が特徴ベクトルFi(x,y)によって示される距離を保存するような制約が、式(13)および式(14)に従って、最小化されることになる誤差関数に追加される。 By assuming that the distance (displacement) between the frame i and the frame j is very short, the distance indicated by the low-dimensional vector ψ i (x, y) is the distance indicated by the feature vector Fi (x, y). Conservative constraints are added to the error function that will be minimized according to equations (13) and (14).

Figure 2022044393000020
Figure 2022044393000020

Figure 2022044393000021
Figure 2022044393000021

sは、式(10)によって定義された空間的制約であり、λはその重みである。変換行列M(x,y)が最適化されると、平面パラメータψi(x,y)が最適化され、画素ごとの変位は、ψi(x,y)の第3の要素として与えられる。 E s is a spatial constraint defined by Eq. (10), and λ is its weight. When the transformation matrix M (x, y) is optimized, the plane parameter ψ i (x, y) is optimized, and the displacement per pixel is given as the third element of ψ i (x, y). ..

式(13)の非線形最小化のための初期推測値ψi 'は、式(15)、式(16)、および式(17)に従って、画素ごとの大きさを正規化した後に、上記計算されたψi(x,y)によって与えられる。 The initial guess value ψ i'for nonlinear minimization of equation (13 ) is calculated above after normalizing the size of each pixel according to equations (15), (16), and (17). It is given by ψ i (x, y).

Figure 2022044393000022
Figure 2022044393000022

Figure 2022044393000023
Figure 2022044393000023

Figure 2022044393000024
Figure 2022044393000024

計算された変換行列M(x,y)がサブサンプリングされるので、変換行列M(x,y)は、元の解像度の画像についての変位を取得するよう、パラメータを最適化する前に補間される。補間は、初期推測値ψi 'を使用することによって計算された、サブサンプリングされた特徴ベクトルの変位を補間することによって行われる。元の解像度の画素P1a(x,y)および変換行列M(x,y)は、画素P1b Since the calculated transformation matrix M (x, y) is subsampled, the transformation matrix M (x, y) is interpolated before optimizing the parameters to obtain the displacement for the original resolution image. To. The interpolation is done by interpolating the displacement of the subsampled feature vector calculated by using the initial guess value ψ i ' . The pixels P1a (x, y) of the original resolution and the transformation matrix M (x, y) are the pixels P1b.

Figure 2022044393000025
に対して式(18)を満たす必要がある。
Figure 2022044393000025
It is necessary to satisfy the equation (18).

Figure 2022044393000026
Figure 2022044393000026

この変換行列M(x,y)の線形式が局所パッチ内の全ての画素に対して取得されるので、変換行列M(x,y)は最小2乗法による解法として取得される。変換行列M(x,y)が全ての画素に対して取得されると、元の解像度の画像に最適化が適用される。 Since the linear form of the transformation matrix M (x, y) is acquired for all the pixels in the local patch, the transformation matrix M (x, y) is acquired as a solution by the least squares method. Once the transformation matrix M (x, y) has been acquired for all pixels, the optimization is applied to the image at the original resolution.

図5に示した処理によって、フレームiとフレームjとの間の変位を計算することができる。図5で説明した例では、2つのフレームの間の変位のみを計算しているが、物体Oの連続した動きを判定する際は、ステップS501乃至ステップS511の処理が繰り返される。つまり、動いている物体を任意の回数で撮影し、対応する数の画像の局所平面の間の変位を計算する。 By the process shown in FIG. 5, the displacement between the frame i and the frame j can be calculated. In the example described with reference to FIG. 5, only the displacement between the two frames is calculated, but when determining the continuous movement of the object O, the processes of steps S501 to S511 are repeated. That is, a moving object is photographed any number of times and the displacement between the corresponding number of images in the local plane is calculated.

上述したように、物体Oの動きがわずかであっても、物体Oと撮像装置2との間の距離によっては、スペックルパターンが大きく変化することがある。本実施形態によれば、それぞれの局所平面内の画素に対し、特徴ベクトルの変位を近似させるので、局所平面内での特徴ベクトルの変化が小さくなる。そして、後続の局所平面内の画素に対しても、特徴ベクトルの変位を近似させるので、局所平面の間でも特徴ベクトルの変化が小さくなる。このことは、スペックルパターンの変化の前後で相関性を維持することにつながる。 As described above, even if the movement of the object O is slight, the speckle pattern may change significantly depending on the distance between the object O and the image pickup apparatus 2. According to this embodiment, since the displacement of the feature vector is approximated to each pixel in the local plane, the change of the feature vector in the local plane becomes small. Then, since the displacement of the feature vector is approximated to the subsequent pixels in the local plane, the change in the feature vector becomes small even between the local planes. This leads to maintaining the correlation before and after the change in the speckle pattern.

また、変位を計算する際に、次元数を削減するので(kからlに、lは3~20の任意の数が望ましい)、高い次元数で変位を計算することによって生じるノイズを削減することができ、計算量を削減することができる。 Also, since the number of dimensions is reduced when calculating the displacement (preferably any number from k to l, l is preferably any number from 3 to 20), the noise generated by calculating the displacement with a high number of dimensions should be reduced. And the amount of calculation can be reduced.

本実施形態に係る処理によって、変化するスペックルパターンの変化に従って、例えば、物体の動きを視覚的に表現することができる。図7および図8を参照して、その例を説明する。図7は、キャンバス性の布の表面を指で押している状態を示す。布の表面を指で押すと、指の力によって、押した箇所から振動が伝達する。 By the process according to the present embodiment, for example, the movement of an object can be visually expressed according to the change of the changing speckle pattern. An example thereof will be described with reference to FIGS. 7 and 8. FIG. 7 shows a state in which the surface of the canvas cloth is pressed with a finger. When you press the surface of the cloth with your finger, the vibration is transmitted from the pressed part by the force of your finger.

このような状態で、振動を伝達している布の任意の箇所(同一または異なる箇所)において複数回に布の表面を撮影し、図5で説明した処理に従ってスペックルパターンの変化を分析することによって、例えば、図8に示すように、振動の変化を表現することができる。図8に示すグラフの横軸は、x軸(つまり、振動による波が横方向に進んだ距離)を示し、縦軸は、変位(つまり、2つの画像についての局所平面の間の変位)を示す。 In such a state, the surface of the cloth is photographed multiple times at an arbitrary part (same or different part) of the cloth transmitting vibration, and the change in the speckle pattern is analyzed according to the process described with reference to FIG. For example, as shown in FIG. 8, a change in vibration can be expressed. The horizontal axis of the graph shown in FIG. 8 indicates the x-axis (that is, the distance traveled by the vibration wave in the lateral direction), and the vertical axis indicates the displacement (that is, the displacement between the local planes of the two images). show.

図8に示すグラフは、制御装置11による制御の下、計算した変位に基づいて、表示装置4に表示される。変位は、振動の振幅に対応し、x軸は、変位を加算することによって導出される。このようにして、動いている物体から生成された画像内のスペックルパターンを分析することによって、物体のわずから動きの変化を視覚的に表現することができる。 The graph shown in FIG. 8 is displayed on the display device 4 based on the calculated displacement under the control of the control device 11. The displacement corresponds to the amplitude of the vibration and the x-axis is derived by adding the displacements. In this way, by analyzing the speckle pattern in the image generated from the moving object, it is possible to visually express the slight change in the movement of the object.

以上のように、本実施形態に係る画像分析システム100を説明した。本実施形態によれば、物体のわずかな動きを精度よく判定することができる。また、スペックルパターンの変化に応じて、動いている撮影対象O(物体)を表現することができる。例えば、判定したスペックルパターンの変化に応じて、対応する撮影対象Oの動きを表示装置4において動的に表示してもよい。 As described above, the image analysis system 100 according to the present embodiment has been described. According to this embodiment, it is possible to accurately determine a slight movement of an object. Further, it is possible to express a moving object O (object) to be photographed according to a change in the speckle pattern. For example, the movement of the corresponding image shooting target O may be dynamically displayed on the display device 4 according to the change of the determined speckle pattern.

上記実施形態で説明したハードウェアの構成要素は例示的なものにすぎず、その他の構成も可能であることに留意されたい。また、上記実施形態で説明した処理の順序は、必ずしも説明した順序で実行される必要がなく、任意の順序で実行されてもよい。更に、本発明の基本的な概念から逸脱することなく、追加のステップが新たに加えられてもよい。 It should be noted that the hardware components described in the above embodiments are only exemplary and other configurations are possible. Further, the order of the processes described in the above embodiment does not necessarily have to be executed in the order described, and may be executed in any order. In addition, additional steps may be added without departing from the basic concepts of the invention.

また、本発明の一実施形態に係る画像判定、コンピュータデバイス1によって実行されるコンピュータプログラムによって実装されるが、当該コンピュータプログラムは、非一時的記憶媒体に記憶されてもよい。非一時的記憶媒体の例は、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリ装置、内蔵ハードディスクおよび取外可能ディスク装置などの磁気媒体、光磁気媒体、ならびにCD-ROMディスクおよびデジタル多用途ディスク(DVD)などの光学媒体などを含む。 Further, although the image determination according to the embodiment of the present invention is implemented by a computer program executed by the computer device 1, the computer program may be stored in a non-temporary storage medium. Examples of non-temporary storage media include read-only memory (ROM), random access memory (RAM), registers, cache memory, semiconductor memory devices, magnetic media such as internal hard disks and removable disk devices, optomagnetic media, and Includes optical media such as CD-ROM discs and digital versatile discs (DVDs).

Claims (10)

撮影対象の動きを判定するコンピュータデバイスであって、
撮像装置が第1の時間に前記撮影対象を撮影することによって生成された第1の撮影信号に基づいて、第1のスペックルパターンを含む第1の画像を生成し、
前記撮像装置が第2の時間に前記撮影対象を撮影することによって生成された第2の撮影信号に基づいて、第2のスペックルパターンを含む第2の画像を生成し、
前記第1の画像内の第1の画素集合における輝度から第1の特徴ベクトルを計算し、前記第1の画素集合の間で前記第1の特徴ベクトルの変位を近似させ、
前記第2の画像内の第2の画素集合における輝度から第2の特徴ベクトルを計算し、前記第2の画素集合の間で前記第2の特徴ベクトルの変位を近似させ、
前記近似させた第1の特徴ベクトルと前記近似させた第2の特徴ベクトルとの間で、画素ごとに画素間の距離を計算することによって、前記第1のスペックルパターンと前記第2のスペックルパターンとの間の変化を判定する、
ように構成された制御装置を備えたことを特徴とするコンピュータデバイス。
A computer device that determines the movement of the object to be photographed.
A first image including the first speckle pattern is generated based on the first shooting signal generated by the image pickup device shooting the shooting target at the first time.
A second image including the second speckle pattern is generated based on the second shooting signal generated by the imaging device shooting the shooting target at the second time.
The first feature vector is calculated from the luminance in the first pixel set in the first image, and the displacement of the first feature vector is approximated between the first pixel sets.
The second feature vector is calculated from the luminance in the second pixel set in the second image, and the displacement of the second feature vector is approximated between the second pixel sets.
The first speckle pattern and the second spec by calculating the distance between pixels for each pixel between the approximated first feature vector and the approximated second feature vector. Judging the change between the vector and the pattern,
A computer device characterized by being equipped with a control device configured in such a manner.
前記制御装置は、
第1の次元数で前記第1の特徴ベクトルおよび前記第2の特徴ベクトルを計算し、
前記第1の特徴ベクトルに基づいて、前記第1の次元数よりも少ない第2の次元数で前記第1の特徴ベクトルを計算し、
前記第2の特徴ベクトルに基づいて、前記第2の次元数で前記第2の特徴ベクトルを計算する、
ように更に構成されている、ことを特徴とする請求項1に記載のコンピュータデバイス。
The control device is
The first feature vector and the second feature vector are calculated by the first dimension number, and the first feature vector and the second feature vector are calculated.
Based on the first feature vector, the first feature vector is calculated with a second dimension number smaller than the first dimension number.
Based on the second feature vector, the second feature vector is calculated with the second dimension number.
The computer device according to claim 1, wherein the computer device is further configured as described above.
前記制御装置は、拡散マップによって、前記第1の特徴ベクトルおよび前記第2の特徴ベクトルを計算するように更に構成されている、ことを特徴とする請求項2に記載のコンピュータデバイス。 The computer device according to claim 2, wherein the control device is further configured to calculate the first feature vector and the second feature vector by a diffusion map. 前記第2の次元数は、3~20のいずれかである、ことを特徴とする請求項2または3に記載のコンピュータデバイス。 The computer device according to claim 2 or 3, wherein the second dimension number is any one of 3 to 20. 前記制御装置は、
前記第1の画像から、特定の領域を判定することによって第1の局所平面を抽出し、
前記第2の画像から、前記第1の局所平面に対応する領域を判定することによって第2の局所平面を抽出する、ように更に構成され、
前記第1の画素集合は、前記第1の局所平面内の画素集合であり、
前記第2の画素集合は、前記第2の局所平面内の画素集合である、
ことを特徴とする請求項1乃至3のいずれか一項に記載のコンピュータデバイス。
The control device is
A first local plane is extracted from the first image by determining a specific region.
It is further configured to extract the second local plane from the second image by determining the region corresponding to the first local plane.
The first pixel set is a pixel set in the first local plane.
The second pixel set is a pixel set in the second local plane.
The computer device according to any one of claims 1 to 3.
前記制御装置は、
前記第1の特徴ベクトルに線形変換を適用することによって、前記第1の画素集合の間で前記第1の特徴ベクトルの変位を近似させ、
前記第2の特徴ベクトルに線形変換を適用することによって、前記第2の画素集合の間で前記第2の特徴ベクトルの変位を近似させる、
ように更に構成されている、ことを特徴とする請求項1に記載のコンピュータデバイス。
The control device is
By applying a linear transformation to the first feature vector, the displacement of the first feature vector is approximated between the first pixel sets.
By applying a linear transformation to the second feature vector, the displacement of the second feature vector is approximated between the second pixel sets.
The computer device according to claim 1, wherein the computer device is further configured as described above.
前記制御装置は、前記第1の画素集合と前記第2の画素集合との間の画素ごとの画素間の距離が近似するという制約の下、前記第1の特徴ベクトルおよび前記第2の特徴ベクトルに前記線形変換を適用するように更に構成されている、ことを特徴とする請求項6に記載のコンピュータデバイス。 The control device has the first feature vector and the second feature vector under the constraint that the distance between the pixels of each pixel between the first pixel set and the second pixel set is close to each other. 6. The computer device according to claim 6, further configured to apply the linear transformation to. 前記制御装置は、前記第1のスペックルパターンと前記第2のスペックルパターンとの間の前記変化に基づいて、前記撮影対象の動きを表示装置に表示する、ことを特徴とする請求項1乃至7のいずれか一項に記載のコンピュータデバイス。 Claim 1 is characterized in that the control device displays the movement of the photographing target on a display device based on the change between the first speckle pattern and the second speckle pattern. The computer device according to any one of 7 to 7. 撮影対象の動きを判定するコンピュータデバイスによって実行される方法であって、
撮像装置が第1の時間に前記撮影対象を撮影することによって生成された第1の撮影信号に基づいて、第1のスペックルパターンを含む第1の画像を生成するステップと、
前記撮像装置が第2の時間に前記撮影対象を撮影することによって生成された第2の撮影信号に基づいて、第2のスペックルパターンを含む第2の画像を生成するステップと、
前記第1の画像内の第1の画素集合における輝度から第1の特徴ベクトルを計算し、前記第1の画素集合の間で前記第1の特徴ベクトルの変位を近似させるステップと、
前記第2の画像内の第2の画素集合における輝度から第2の特徴ベクトルを計算し、前記第2の画素集合の間で前記第2の特徴ベクトルの変位を近似させるステップと、
前記近似させた第1の特徴ベクトルと前記近似させた第2の特徴ベクトルとの間で、画素ごとに画素間の距離を計算することによって、前記第1のスペックルパターンと前記第2のスペックルパターンとの間の変化を判定するステップと、
を備えたことを特徴とする方法。
A method performed by a computer device that determines the movement of the subject to be photographed.
A step of generating a first image including a first speckle pattern based on a first shooting signal generated by the image pickup device shooting the shooting target at the first time.
A step of generating a second image including a second speckle pattern based on a second shooting signal generated by the imaging device taking a picture of the imaged object at a second time.
A step of calculating a first feature vector from the luminance in the first pixel set in the first image and approximating the displacement of the first feature vector between the first pixel sets.
A step of calculating a second feature vector from the luminance in the second pixel set in the second image and approximating the displacement of the second feature vector between the second pixel sets.
The first speckle pattern and the second spec by calculating the distance between pixels for each pixel between the approximated first feature vector and the approximated second feature vector. Steps to determine the change between the vector and
A method characterized by being equipped with.
コンピュータ実行可能命令を含むコンピュータプログラムであって、前記コンピュータ実行可能命令は、コンピュータデバイスによって実行されるとき、前記コンピュータデバイスに、請求項9に記載の方法を実行させることを特徴とするコンピュータプログラム。 A computer program comprising computer-executable instructions, wherein the computer-executable instruction causes the computer device to perform the method according to claim 9, when executed by the computer device.
JP2020149993A 2020-09-07 2020-09-07 Method and device for analyzing image Pending JP2022044393A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020149993A JP2022044393A (en) 2020-09-07 2020-09-07 Method and device for analyzing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020149993A JP2022044393A (en) 2020-09-07 2020-09-07 Method and device for analyzing image

Publications (1)

Publication Number Publication Date
JP2022044393A true JP2022044393A (en) 2022-03-17

Family

ID=80679161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020149993A Pending JP2022044393A (en) 2020-09-07 2020-09-07 Method and device for analyzing image

Country Status (1)

Country Link
JP (1) JP2022044393A (en)

Similar Documents

Publication Publication Date Title
US8754963B2 (en) Processing images having different focus
US20180061086A1 (en) Image processing apparatus, image processing method, and medium
CN111373748A (en) System and method for externally calibrating a camera and diffractive optical element
WO2016042779A1 (en) Triangulation device, triangulation method, and recording medium recording program therefor
JP5911292B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
KR20110136016A (en) Apparatus and method for depth unfolding based on multiple depth images
KR20190030456A (en) Mehtod and apparatus for stereo matching
US20180007291A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium
US11520052B2 (en) Adaptive processing in time of flight imaging
JP2022506061A (en) Rolling Shutter Correction for images / videos using convolutional neural networks in applications for image / video SFM / SLAM
JP6185819B2 (en) Image processing apparatus, image processing method, and program
WO2015198592A1 (en) Information processing device, information processing method, and information processing program
JP2022044393A (en) Method and device for analyzing image
US10101707B2 (en) Method and apparatus for correcting distortion of 3D hologram
KR101526465B1 (en) A Depth Image Enhancement Method based on GPGPU
JP7057717B2 (en) Phase difference detector, image processing device, and program
EP4064193A1 (en) Real-time omnidirectional stereo matching using multi-view fisheye lenses
US20220046169A1 (en) Incoherent Fourier Ptychographic Super-Resolution Imaging System with Priors
JP2020004219A5 (en)
JP2013148467A (en) Measurement device, method, and program
JP6849576B2 (en) Image processing device, image processing method and image processing program
JP4091455B2 (en) Three-dimensional shape measuring method, three-dimensional shape measuring apparatus, processing program therefor, and recording medium
WO2018084051A1 (en) Information processing device, head-mounted display, information processing system, and information processing method
JP7407963B2 (en) Distance information generation device and distance information generation method
JP7206527B2 (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201005

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230906