JP2021174089A - Information processing device, information processing system, information processing method and program - Google Patents

Information processing device, information processing system, information processing method and program Download PDF

Info

Publication number
JP2021174089A
JP2021174089A JP2020075240A JP2020075240A JP2021174089A JP 2021174089 A JP2021174089 A JP 2021174089A JP 2020075240 A JP2020075240 A JP 2020075240A JP 2020075240 A JP2020075240 A JP 2020075240A JP 2021174089 A JP2021174089 A JP 2021174089A
Authority
JP
Japan
Prior art keywords
center
gravity
image
information processing
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020075240A
Other languages
Japanese (ja)
Inventor
リサ 一村
Risa Ichimura
英明 木船
Hideaki Kibune
崇 橋本
Takashi Hashimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020075240A priority Critical patent/JP2021174089A/en
Publication of JP2021174089A publication Critical patent/JP2021174089A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing device, an information processing system, an information processing method and a program which efficiently determine the occurrence of concealment of an object in an image.SOLUTION: In a three-dimensional measurement system 100, an information processing device 110 includes: an image input unit 210 which acquires a plurality of images in which an object is photographed from different viewpoints; a centroid calculation unit 232 which calculates a centroid position of the object in the image, based on a partial area of the acquired image; and a concealment determination unit 240 which determines whether concealment of the object has occurred in each image, based on a characteristic value relevant to a time change of the centroid position.SELECTED DRAWING: Figure 4

Description

本開示は、情報処理装置、情報処理システム、情報処理方法およびプログラムに関する。 The present disclosure relates to information processing devices, information processing systems, information processing methods and programs.

従来より、工場での部品組み立てや高精度のアライメント調整のために、動物体の三次元計測が行われている。三次元計測には、ステレオカメラを含む撮像システムを用いるものが知られている。 Conventionally, three-dimensional measurement of an animal body has been performed for assembling parts in a factory and for highly accurate alignment adjustment. For three-dimensional measurement, those using an imaging system including a stereo camera are known.

上述した三次元計測では、対象物をステレオカメラで撮影した画像を用いる。三次元計測において、環境や対象物が時々刻々と変動する場合、しばしば、オクルージョン(画像内において対象物が障害物に隠蔽されてしまう事象)が生じ、対象物の距離の算出が困難となる可能性がある。 In the above-mentioned three-dimensional measurement, an image of an object taken by a stereo camera is used. In 3D measurement, when the environment or the object fluctuates from moment to moment, occlusion (an event in which the object is hidden by an obstacle in the image) often occurs, and it may be difficult to calculate the distance of the object. There is sex.

オクルージョンに関連して、例えば、特開2003‐150940号公報(特許文献1)に開示される従来技術が知られている。特許文献1は、1つの基準カメラからの基準画像と少なくとも1つの比較カメラからの比較画像とを使用して対応点探索を行うステレオ画像処理装置が開示される。特許文献1は、基準画像内のターゲット画素と、比較画像内の対応の画素値の相違度に基づいて、オクルージョンが発生しているカメラペアを検出して、そのカメラペアを対応点探索から除外する構成が開示されている。しかしながら、特許文献1は、画像における対象物の隠蔽の発生を効率的に判定するという点で開示するものではない。 In relation to occlusion, for example, the prior art disclosed in Japanese Patent Application Laid-Open No. 2003-150940 (Patent Document 1) is known. Patent Document 1 discloses a stereo image processing apparatus that searches for corresponding points using a reference image from one reference camera and a comparison image from at least one comparison camera. Patent Document 1 detects a camera pair in which occlusion occurs based on the degree of difference between the target pixel in the reference image and the corresponding pixel value in the comparison image, and excludes the camera pair from the corresponding point search. The configuration to be used is disclosed. However, Patent Document 1 does not disclose in terms of efficiently determining the occurrence of concealment of an object in an image.

本開示は、上記点に鑑みてなされたものであり、本開示は、画像における対象物の隠蔽の発生を効率的に判定することが可能な情報処理装置を提供することを目的とする。 The present disclosure has been made in view of the above points, and an object of the present disclosure is to provide an information processing apparatus capable of efficiently determining the occurrence of concealment of an object in an image.

本開示では、上記課題を解決するために、下記特徴を有する情報処理装置を提供する。情報処理装置は、異なる視点から対象物が撮影された複数の画像を取得する取得手段を含む。情報処理装置は、また、画像の部分領域に基づいて、画像中における対象物の重心位置を計算する計算手段を含む。情報処理装置は、重心位置の時間変化に関連した特性値に基づいて、画像各々において対象物の隠蔽が発生したかを判定する判定手段とを含む。 In the present disclosure, in order to solve the above problems, an information processing device having the following features is provided. The information processing device includes acquisition means for acquiring a plurality of images of an object taken from different viewpoints. The information processing device also includes a calculation means for calculating the position of the center of gravity of the object in the image based on a partial region of the image. The information processing apparatus includes a determination means for determining whether or not concealment of an object has occurred in each image based on a characteristic value related to a change in the position of the center of gravity with time.

上記構成により、画像における対象物の隠蔽の発生を効率的に判定することが可能となる。 With the above configuration, it is possible to efficiently determine the occurrence of concealment of an object in an image.

1または複数の実施形態による三次元計測システムの全体構成図。Overall configuration diagram of a three-dimensional measurement system according to one or more embodiments. 三次元計測システムにて発生し得るオクルージョン(対象物の障害物による隠蔽)を説明する図。The figure explaining the occlusion (concealment by an obstacle of an object) which may occur in a 3D measurement system. 1または複数の実施形態による三次元計測装置として用いることができる、パーソナルコンピュータのハードウェア構成図。A hardware configuration diagram of a personal computer that can be used as a three-dimensional measuring device according to one or more embodiments. 第1の実施形態による三次元計測装置の機能ブロック図。The functional block diagram of the 3D measuring apparatus according to 1st Embodiment. 第1の実施形態による三次元計測装置が実行する、オクルージョンに対処しながら三次元計測を行う三次元計測処理を示すフローチャート。The flowchart which shows the 3D measurement process which performs 3D measurement while dealing with occlusion, which is executed by 3D measurement apparatus by 1st Embodiment. 特定の実施形態による三次元計測装置における関心領域の初期設定およびステレオペアからの画像の除外を説明する図。The figure explaining the initial setting of the region of interest and the exclusion of an image from a stereo pair in a 3D measuring apparatus according to a specific embodiment. 特定の実施形態による三次元計測装置における対象物のトラッキング手法を説明する概略図。The schematic diagram explaining the tracking method of the object in the 3D measuring apparatus by a specific embodiment. 第1の実施形態による三次元計測装置が生成する、重心位置および重心速度の時系列を模式的に表すグラフ。The graph which schematically represents the time series of the center of gravity position and the center of gravity velocity generated by the three-dimensional measuring apparatus according to the first embodiment. 対象物および障害物の輝度が同程度である場合のトラッキングの様子を示す図。The figure which shows the state of tracking when the brightness of an object and an obstacle is the same. 障害物の輝度が対象物の輝度よりも低い場合のトラッキングの様子を示す図。The figure which shows the state of tracking when the brightness of an obstacle is lower than the brightness of an object. 対象物が静止し、障害物が移動している場合に実測した重心位置および重心速度を示すグラフ。A graph showing the position of the center of gravity and the speed of the center of gravity actually measured when the object is stationary and the obstacle is moving. 第2の実施形態による三次元計測装置が実行する、オクルージョンに対処しながら三次元計測を行う三次元計測処理を示すフローチャート。The flowchart which shows the 3D measurement process which performs 3D measurement while dealing with occlusion, which is executed by 3D measurement apparatus by 2nd Embodiment. 第2の実施形態による三次元計測装置が生成する、重心位置および重心速度の時系列を模式的に表すグラフ。The graph which schematically represents the time series of the center of gravity position and the center of gravity velocity generated by the three-dimensional measuring apparatus according to the second embodiment. 対象物が静止し、障害物が移動している場合に実測した重心加速度を示すグラフ。A graph showing the acceleration of the center of gravity actually measured when the object is stationary and the obstacle is moving. 三次元計測システムにて2つ以上の高速ビジョンカメラで発生し得るオクルージョン(対象物の障害物による隠蔽)を説明する図。The figure explaining the occlusion (concealment by an obstacle of an object) which can occur by two or more high-speed vision cameras in a three-dimensional measurement system. 第3の実施形態による三次元計測装置が実行する、オクルージョンに対処しながら三次元計測を行う三次元計測処理を示すフローチャート。The flowchart which shows the 3D measurement process which performs 3D measurement while dealing with occlusion, which is executed by 3D measurement apparatus by 3rd Embodiment. 第4の実施形態による三次元計測装置が実行する、オクルージョンに対処しながら三次元計測を行う三次元計測処理の一部を示すフローチャート。The flowchart which shows a part of 3D measurement processing which performs 3D measurement while dealing with occlusion, which is executed by 3D measurement apparatus by 4th Embodiment.

以下、本発明の実施形態について説明するが、本発明の実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下に説明する実施形態では、情報処理システムおよび情報処理装置の一例として、それぞれ、複数の高速ビジョンカメラ160と、対象物の三次元計測を行う三次元計測装置110とを含み構成される三次元計測システム100、および、該三次元計測装置110を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described, but the embodiments of the present invention are not limited to the embodiments described below. In the embodiment described below, as an example of the information processing system and the information processing device, each includes a plurality of high-speed vision cameras 160 and a three-dimensional measuring device 110 that performs three-dimensional measurement of an object. This will be described with reference to the three-dimensional measurement system 100 and the three-dimensional measurement device 110.

図1は、1または複数の実施形態による三次元計測システム100の全体構成を示す。図1に示すように、三次元計測システム100は、三次元計測装置110と、カメラ同期装置150と、それぞれ三次元計測装置110およびカメラ同期装置150に接続される複数の高速ビジョンカメラ160a〜160zとを含み構成される。 FIG. 1 shows the overall configuration of the three-dimensional measurement system 100 according to one or more embodiments. As shown in FIG. 1, the three-dimensional measurement system 100 includes a three-dimensional measurement device 110, a camera synchronization device 150, and a plurality of high-speed vision cameras 160a to 160z connected to the three-dimensional measurement device 110 and the camera synchronization device 150, respectively. It is composed including and.

複数の高速ビジョンカメラ160a〜160zは、それぞれ異なる位置にそれぞれ所定の方向を向くように配置されており、異なる視点から、対象物102を被写体として撮影するよう構成されている。したがって、複数の高速ビジョンカメラ160a〜160zによって撮像された複数の画像間では、視差が生じる。好ましくは、複数の高速ビジョンカメラ160a〜160zは、それぞれ、対象物102が移動可能な範囲がカバーされるように視野が設定される。各高速ビジョンカメラ160は、カメラ同期装置150から入力されるタイミング信号に基づいて、視野内の対象物102を撮影し、撮影した画像を三次元計測装置110に入力する。 The plurality of high-speed vision cameras 160a to 160z are arranged at different positions so as to face a predetermined direction, and are configured to shoot the object 102 as a subject from different viewpoints. Therefore, parallax occurs between a plurality of images captured by the plurality of high-speed vision cameras 160a to 160z. Preferably, each of the plurality of high-speed vision cameras 160a to 160z has a field of view set so as to cover a movable range of the object 102. Each high-speed vision camera 160 photographs an object 102 in the field of view based on a timing signal input from the camera synchronization device 150, and inputs the captured image to the three-dimensional measuring device 110.

高速ビジョンカメラ160は、30fps〜60fps程度の通常のカメラよりも高速に画像を撮像する撮像装置であり、典型的には、1000fps程度のフレームレートを実現するものが好ましく用いられる。この高速なフレームレートに起因して、高速ビジョンカメラ160は、高速に動く動物体でも対応が可能である。各高速ビジョンカメラ160は、外部のカメラ同期装置150によってシャッターが同期されているため、同時刻に同フレームの撮影が可能とされる。 The high-speed vision camera 160 is an imaging device that captures an image at a higher speed than a normal camera of about 30 fps to 60 fps, and typically, one that realizes a frame rate of about 1000 fps is preferably used. Due to this high frame rate, the high-speed vision camera 160 can handle even high-speed moving animals. Since the shutters of each high-speed vision camera 160 are synchronized by the external camera synchronization device 150, it is possible to shoot the same frame at the same time.

カメラ同期装置150は、各高速ビジョンカメラ160のシャッター同期を外部から制御する。外部のカメラ同期装置150を複数の高速ビジョンカメラ160に繋げ、プログラムにてマスタ‐スレーブ設定をすることにより、外部トリガの入出力によりシャッター同期が可能となる。 The camera synchronization device 150 externally controls the shutter synchronization of each high-speed vision camera 160. By connecting the external camera synchronization device 150 to a plurality of high-speed vision cameras 160 and setting the master-slave in the program, shutter synchronization can be performed by the input / output of the external trigger.

三次元計測装置110は、対象物102を複数の高速ビジョンカメラ160a〜160zで撮影して得られた複数の画像に基づいて、対象物102の奥行を含めた三次元計測を行う。本実施形態による三次元計測装置110は、詳細を後述するように、三次元計測を行う際に、対象物102の障害物による隠蔽(以下、オクルージョンという場合がある。)が発生していないかを判定するとともに、オクルージョンが生じた高速ビジョンカメラ160の画像を、三次元計測で使用する画像群から除外するよう構成されている。 The three-dimensional measuring device 110 performs three-dimensional measurement including the depth of the object 102 based on a plurality of images obtained by photographing the object 102 with a plurality of high-speed vision cameras 160a to 160z. As will be described in detail later, the three-dimensional measuring device 110 according to the present embodiment does not conceal the object 102 by an obstacle (hereinafter, may be referred to as occlusion) when performing the three-dimensional measurement. Is determined, and the image of the high-speed vision camera 160 in which occlusion has occurred is excluded from the image group used in the three-dimensional measurement.

図2は、三次元計測システムにて発生し得るオクルージョンを説明する。図2(A)は、ある時点での第1〜第3の高速ビジョンカメラ160a〜160cにより対象物102を撮影している状態を示す。図2(B)は、図2(A)の時点より後の、対象物102が移動した状態で第1〜第3の高速ビジョンカメラ160a〜160cにより対象物102を撮影している状態を示す。 FIG. 2 illustrates occlusions that can occur in a three-dimensional measurement system. FIG. 2A shows a state in which the object 102 is photographed by the first to third high-speed vision cameras 160a to 160c at a certain time point. FIG. 2B shows a state in which the object 102 is photographed by the first to third high-speed vision cameras 160a to 160c in a state where the object 102 is moving after the time point of FIG. 2A. ..

図2(A)の時点では、3つの高速ビジョンカメラ160a〜160c各々で撮影された画像170a〜170cにおいては、図2中に描かれているように、障害物104が、第2の高速ビジョンカメラ160bの視野内に入っているものの、オクルージョンは、いずれの高速ビジョンカメラ160においても生じていない。 At the time of FIG. 2A, in the images 170a to 170c taken by each of the three high-speed vision cameras 160a to 160c, the obstacle 104 is the second high-speed vision as depicted in FIG. Although within the field of view of the camera 160b, occlusion has not occurred in any of the high speed vision cameras 160.

しかしながら、対象物102が移動し、図2(B)の状態となった時点では、第2の高速ビジョンカメラ160bの画像170bにおいて、対象物172bが障害物174bに隠れてしまっており、オクルージョンが発生している。このとき、対象物102が障害物104に隠されたことに起因して、第2の高速ビジョンカメラ160bで撮影される画像170bを三次元計測で使用する画像群から除外すること(ステレオ法で、ステレオペアとして用いないこと)が好ましい。図1に示す三次元計測装置110は、なんらかの原因に起因した対象物102のオクルージョンの発生を効率的に判定し、オクルージョンが生じた高速ビジョンカメラ160の画像を除外するよう構成される。 However, when the object 102 moves and the state shown in FIG. 2B is reached, the object 172b is hidden by the obstacle 174b in the image 170b of the second high-speed vision camera 160b, and the occlusion occurs. It has occurred. At this time, because the object 102 is hidden by the obstacle 104, the image 170b captured by the second high-speed vision camera 160b is excluded from the image group used in the three-dimensional measurement (in the stereo method). , Do not use as a stereo pair). The three-dimensional measuring device 110 shown in FIG. 1 is configured to efficiently determine the occurrence of occlusion of the object 102 due to some cause and exclude the image of the high-speed vision camera 160 in which the occlusion has occurred.

なお、以下に説明する実施形態では、障害物104は、高速ビジョンカメラ160の視野に対して十分に小さく、複数の高速ビジョンカメラ160のうちの少なくとも2台は、オクルージョンが生じないよう配置されているものとして説明を続ける。したがって、図2の3つの高速ビジョンカメラ160a〜160cを用いる例では、オクルージョンが生じる高速ビジョンカメラ160は1台のみである。 In the embodiment described below, the obstacle 104 is sufficiently small with respect to the field of view of the high-speed vision camera 160, and at least two of the plurality of high-speed vision cameras 160 are arranged so as not to cause occlusion. Continue the explanation as if it were. Therefore, in the example using the three high-speed vision cameras 160a to 160c of FIG. 2, only one high-speed vision camera 160 causes occlusion.

また、対象物102は、説明の便宜上、再帰性反射材で作成されたマーカである場合を例として説明するが、マーカが別の対象物(例えば、工場での部品組み立てにおける部品など)に貼り付けられていて、その貼り付けられたマーカを検知することとしてもよい。また、認識される対象物102は、再帰性反射材で作成されたマーカに限定されるものでもなく、撮像された画像から認識可能なものであれば、いかなる形態の物体を対象物とすることができる。 Further, for convenience of explanation, the object 102 will be described by taking the case where it is a marker made of a retroreflective material as an example, but the marker is attached to another object (for example, a part in assembling parts in a factory). It may be attached, and the attached marker may be detected. Further, the recognized object 102 is not limited to the marker created by the retroreflective material, and any form of the object can be the object as long as it can be recognized from the captured image. Can be done.

以下、三次元計測システム100の機能の詳細について説明する前に、三次元計測装置110のハードウェア構成について説明する。 Hereinafter, the hardware configuration of the three-dimensional measuring device 110 will be described before the details of the functions of the three-dimensional measuring system 100 are described.

図3は、本実施形態による三次元計測装置110として用いることができるパーソナルコンピュータのハードウェア構成を示す。ここでは、パーソナルコンピュータ500のハードウェア構成について説明する。 FIG. 3 shows a hardware configuration of a personal computer that can be used as the three-dimensional measuring device 110 according to the present embodiment. Here, the hardware configuration of the personal computer 500 will be described.

図3に示されているように、パーソナルコンピュータ500は、汎用なコンピュータによって構築されており、図3に示されているように、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HDD(Hard Disk Drive)504、HDDコントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、データバス510、キーボード511、ポインティングデバイス512、DVD−RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。 As shown in FIG. 3, the personal computer 500 is constructed by a general-purpose computer, and as shown in FIG. 3, the CPU (Central Processing Unit) 501, the ROM (Read Only Memory) 502, RAM (Random Access Memory) 503, HDD (Hard Disk Drive) 504, HDD controller 505, display 506, external device connection I / F (Interface) 508, network I / F 509, data bus 510, keyboard 511, pointing device 512, It is equipped with a DVD-RW (Digital Versatile Disk Rewritable) drive 514 and a media I / F 516.

これらのうち、CPU501は、パーソナルコンピュータ500全体の動作を制御する。ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HDD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHDD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、通信ネットワークを利用してデータ通信をするためのインターフェースである。バスライン510は、図3に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Of these, the CPU 501 controls the operation of the entire personal computer 500. The ROM 502 stores a program used for driving the CPU 501 such as an IPL (Initial Program Loader). The RAM 503 is used as a work area of the CPU 501. HDD 504 stores various data such as programs. The HDD controller 505 controls reading or writing of various data to the HDD 504 according to the control of the CPU 501. The display 506 displays various information such as cursors, menus, windows, characters, or images. The external device connection I / F 508 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a printer, or the like. The network I / F 509 is an interface for performing data communication using a communication network. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

また、キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD−RWドライブ514は、着脱可能な記録媒体の一例としてのDVD−RWメディア513に対する各種データの読み出し又は書き込みを制御する。なお、DVD−RWに限らず、DVD−R等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 Further, the keyboard 511 is a kind of input means including a plurality of keys for inputting characters, numerical values, various instructions and the like. The pointing device 512 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 514 controls reading or writing of various data to the DVD-RW media 513 as an example of the removable recording medium. In addition, it is not limited to DVD-RW, and may be DVD-R or the like. The media I / F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

以下、図4を参照しながら、三次元計測装置110の機能構成について説明する。図4は、第1の実施形態による三次元計測装置110の機能ブロックを示す。 Hereinafter, the functional configuration of the three-dimensional measuring device 110 will be described with reference to FIG. FIG. 4 shows a functional block of the three-dimensional measuring device 110 according to the first embodiment.

図4に示すように、三次元計測装置110は、複数台の高速ビジョンカメラ(図4ではHSVと示されている。)160から、視点の異なる画像の入力を受ける画像入力部210と、入力された画像中で所定の対象物102を探索する対象探索部220と、画像中で対象物102を追跡するトラッキング部230と、画像中の障害物104による対象物102のオクルージョンの発生を判定する隠蔽判定部240と、画像入力部210に入力された、視点の異なる複数の画像に基づいて、三次元計測を行う三次元計測部250と、三次元計測のためのキャリブレーションを行う校正部260とを含み構成される。 As shown in FIG. 4, the three-dimensional measuring device 110 is input to an image input unit 210 that receives images input from different viewpoints from a plurality of high-speed vision cameras (indicated as HSV in FIG. 4) 160. The target search unit 220 that searches for a predetermined object 102 in the image, the tracking unit 230 that tracks the object 102 in the image, and the occurrence of occlusion of the object 102 due to the obstacle 104 in the image are determined. A concealment determination unit 240, a three-dimensional measurement unit 250 that performs three-dimensional measurement based on a plurality of images from different viewpoints input to the image input unit 210, and a calibration unit 260 that performs calibration for three-dimensional measurement. It is composed including and.

画像入力部210は、複数台の高速ビジョンカメラ160各々で撮像された画像の入力を受けて、取得した複数の高速ビジョンカメラ160の画像を、順次、対象探索部220に渡す。高速ビジョンカメラ160各々で撮像される画像の複数のフレームから構成される時系列データが、高速ビジョンカメラ160の台数分だけ入力されることになる。 The image input unit 210 receives the input of the images captured by each of the plurality of high-speed vision cameras 160, and sequentially passes the acquired images of the plurality of high-speed vision cameras 160 to the target search unit 220. Time-series data composed of a plurality of frames of images captured by each of the high-speed vision cameras 160 will be input for the number of high-speed vision cameras 160.

対象探索部220は、各画像中から、所定の対象物102を探索する。対象物102が、高輝度領域として背景や他の物体から識別可能な場合は、例えば二値化して、二値化画像中で対象物の輪郭を探索することができる。 The target search unit 220 searches for a predetermined target object 102 from each image. When the object 102 can be identified from the background or another object as a high-luminance region, it can be binarized, for example, and the outline of the object can be searched in the binarized image.

トラッキング部230は、画像中の対象物102の位置の追跡を行う。トラッキング部230は、より詳細には、重心計算部232と、領域設定部234とを含み構成される。 The tracking unit 230 tracks the position of the object 102 in the image. More specifically, the tracking unit 230 includes a center of gravity calculation unit 232 and an area setting unit 234.

重心計算部232は、関心領域(ROI;Region Of Interest)と参照される所定の部分領域の画像情報に基づいて、各フレーム内において対象物102の重心位置を計算する。関心領域は、対象探索部220で求められた対象物102の輪郭に応じた大きさの矩形領域として設定され得る。画像処理を関心領域内のみで行うことにより、計算量を大幅に削減することが可能となる。重心位置は、高速ビジョンカメラ160の撮影画像の座標系において計測される。各高速ビジョンカメラ160について計算された重心位置は、時系列データとして、隠蔽判定部240に入力される。重心計算部232は、本実施形態において、対象物の重心位置を計算する計算手段を構成する。 The center of gravity calculation unit 232 calculates the position of the center of gravity of the object 102 in each frame based on the image information of a predetermined partial region referred to as a region of interest (ROI). The region of interest can be set as a rectangular region having a size corresponding to the contour of the object 102 obtained by the target search unit 220. By performing image processing only within the region of interest, the amount of calculation can be significantly reduced. The position of the center of gravity is measured in the coordinate system of the captured image of the high-speed vision camera 160. The position of the center of gravity calculated for each high-speed vision camera 160 is input to the concealment determination unit 240 as time-series data. In the present embodiment, the center of gravity calculation unit 232 constitutes a calculation means for calculating the position of the center of gravity of the object.

領域設定部234は、重心計算部232で求められた重心位置を中心として関心領域(ROI)を設定する。関心領域は、過去の時点(典型的には前回)のフレームで計算された重心位置に基づいて、現在のフレームに対し設定されるものであり、随時更新される。領域設定部234は、本実施形態において、対象物の重心位置に基づいて、画像中に関心領域を設定する設定手段を構成する。 The area setting unit 234 sets the region of interest (ROI) centered on the position of the center of gravity obtained by the center of gravity calculation unit 232. The region of interest is set with respect to the current frame based on the position of the center of gravity calculated in the frame at the past time point (typically the previous time), and is updated from time to time. In the present embodiment, the area setting unit 234 constitutes a setting means for setting an area of interest in the image based on the position of the center of gravity of the object.

隠蔽判定部240は、複数台の高速ビジョンカメラ160により撮影される複数の画像各々におけるオクルージョンの発生の有無を判定し、オクルージョンが発生した画像を除外する。説明する第1の実施形態による隠蔽判定部240は、より詳細には、重心速度算出部242と、ステレオペア選択部244とを含み構成される。 The concealment determination unit 240 determines whether or not occlusion has occurred in each of the plurality of images captured by the plurality of high-speed vision cameras 160, and excludes the images in which the occlusion has occurred. More specifically, the concealment determination unit 240 according to the first embodiment to be described includes a center of gravity velocity calculation unit 242 and a stereo pair selection unit 244.

重心速度算出部242は、各高速ビジョンカメラ160について、与えられる重心位置の時系列データに基づいて、重心速度を算出する。重心速度も時系列データとして計算される。隠蔽判定部240は、重心速度算出部242により算出された重心速度の時間変化に基づいて、オクルージョンの発生の有無を判定する。隠蔽判定部240は、オクルージョンが発生したかを判定する判定手段を構成する。なお、説明する第1の実施形態においては、対象物の重心速度の変化が、本実施形態において、重心位置の時間変化に関連した特性値として、オクルージョン判定に用いられる。オクルージョンの発生の有無の判定は、重心速度の変化に対する閾値条件に基づくことができる。 The center-of-gravity velocity calculation unit 242 calculates the center-of-gravity velocity of each high-speed vision camera 160 based on the time-series data of the given center-of-gravity position. The center of gravity velocity is also calculated as time series data. The concealment determination unit 240 determines whether or not occlusion has occurred based on the time change of the center of gravity velocity calculated by the center of gravity velocity calculation unit 242. The concealment determination unit 240 constitutes a determination unit for determining whether or not occlusion has occurred. In the first embodiment to be described, the change in the velocity of the center of gravity of the object is used in the occlusion determination as a characteristic value related to the time change in the position of the center of gravity in the present embodiment. The determination of the presence or absence of occlusion can be based on the threshold condition for the change in the velocity of the center of gravity.

ステレオペア選択部244は、複数台の高速ビジョンカメラ160で得られる複数の画像のうち、オクルージョンが発生したと判定された画像を除外して、残りの画像群から、三次元計測で用いるステレオペアを選択する。ステレオペア選択部244は、本実施形態において、三次元計測で使用する少なくとも2つの画像を選択する選択手段を構成する。 The stereo pair selection unit 244 excludes the image determined to have caused occlusion from the plurality of images obtained by the plurality of high-speed vision cameras 160, and from the remaining image group, the stereo pair used in the three-dimensional measurement. Select. The stereo pair selection unit 244 constitutes, in the present embodiment, a selection means for selecting at least two images to be used in the three-dimensional measurement.

三次元計測部250は、三角測量の原理を使用して三次元計測を行う。三次元計測は、説明する実施形態では、ステレオ法を用いることができる。ステレオ法の三次元計測は、高速ビジョンカメラ160で得られる2つの画像から得られる特徴点の視差に基づいて行われる。なお、ステレオ法であれば、特徴点のある一部のみ比較すればよく、計算方法も単純なため、処理時間を短縮することができる。三次元計測部250は、選択された、略同時点で異なる視点で撮影された少なくとも2つの画像に基づいて三次元計測を行う、計測手段を構成する。 The three-dimensional measurement unit 250 performs three-dimensional measurement using the principle of triangulation. For the three-dimensional measurement, the stereo method can be used in the embodiments described. The stereoscopic three-dimensional measurement is performed based on the parallax of the feature points obtained from the two images obtained by the high-speed vision camera 160. In the case of the stereo method, only a part having characteristic points needs to be compared, and the calculation method is simple, so that the processing time can be shortened. The three-dimensional measurement unit 250 constitutes a measurement means that performs three-dimensional measurement based on at least two images taken from different viewpoints at substantially simultaneous points selected.

カメラ同期装置150は、各高速ビジョンカメラ160のシャッター同期を外部から行う。 The camera synchronization device 150 synchronizes the shutter of each high-speed vision camera 160 from the outside.

校正部260は、各高速ビジョンカメラ160の校正処理を行う。校正部260は、より詳細には、補正変換用行列計算部262と、基礎行列計算部264とを含み構成される。補正変換用行列計算部262は、補正変換用行列を計算する。基礎行列計算部264は、基礎行列を計算する。補正変換用行列と基礎行列が求められると、三次元計測に必要な射影行列Pnが求められる。 The calibration unit 260 performs a calibration process for each high-speed vision camera 160. More specifically, the calibration unit 260 includes a correction conversion matrix calculation unit 262 and a basic matrix calculation unit 264. The correction conversion matrix calculation unit 262 calculates the correction conversion matrix. The basic matrix calculation unit 264 calculates the basic matrix. When the correction conversion matrix and the basic matrix are obtained, the projection matrix Pn required for the three-dimensional measurement is obtained.

ステレオ法の三次元計測では、下記式(1)および(2)の連立方程式を解くことにより、画素位置での距離が導出される。なお、下記式中、mは、画像座標(u,v)(重心位置)の同次形であり、Pは射影行列であり、X はワールド座標(X、Y、Z)の同次形である。また、下記式(1)および(2)中でチルダ(〜)のアクセントが付された変数には、本文中においては、mやX のように表記する。また、ステレオ法による三次元計測およびそのための校正処理は、既存の技術を用いて適宜実施できるため、これ以上の詳細な説明には立ち入らない。 In the stereoscopic three-dimensional measurement, the distance at the pixel position is derived by solving the simultaneous equations of the following equations (1) and (2). In the following equation, m ~ is the homologous form of the image coordinates (u, v) (center of gravity position), P is the projection matrix, and X ~ w are the world coordinates (X w , Y w , Z w). ) Is an isomorphic form. In addition, variables with tilde (~) accents in the following equations (1) and (2) are written as m ~ or X ~ w in the text. Further, since the three-dimensional measurement by the stereo method and the calibration process for that purpose can be appropriately performed by using the existing technique, no further detailed explanation will be given.

Figure 2021174089
Figure 2021174089

以下、図5を参照しながら、第1の実施形態による三次元計測装置110が実行する、オクルージョンに対処しながら三次元計測を行う処理について説明する。図5は、三次元計測処理を示すフローチャートである。 Hereinafter, with reference to FIG. 5, a process of performing three-dimensional measurement while dealing with occlusion, which is executed by the three-dimensional measuring device 110 according to the first embodiment, will be described. FIG. 5 is a flowchart showing a three-dimensional measurement process.

図5に示す三次元計測処理は、動物体を対象物とし、障害物が対象物に重なってオクルージョンが生じると、対象物の重心位置が急変することを利用して、オクルージョン判定を行う処理である。図5では、n台の高速ビジョンカメラ160を用いるものとして説明する。 The three-dimensional measurement process shown in FIG. 5 is a process for determining occlusion by utilizing the fact that the position of the center of gravity of an object suddenly changes when an animal body is an object and an obstacle overlaps the object and occlusion occurs. be. In FIG. 5, n high-speed vision cameras 160 will be used.

図5に示す処理は、例えば、オペレータからの三次元計測開始の指示に応答して、ステップS100から開始する。 The process shown in FIG. 5 starts from step S100 in response to, for example, an instruction from the operator to start three-dimensional measurement.

ステップS101では、三次元計測装置110は、校正部260により、各高速ビジョンカメラ160の初期設定を行い、補正変換用行列および基礎行列を求め、三次元計測に必要な射影行列Pnを求める。 In step S101, the three-dimensional measuring device 110 performs the initial setting of each high-speed vision camera 160 by the calibration unit 260, obtains the correction conversion matrix and the basic matrix, and obtains the projection matrix Pn required for the three-dimensional measurement.

ステップS102では、三次元計測装置110は、複数の高速ビジョンカメラ160から、最初のフレームの複数の画像を取得する。ステップS103では、三次元計測装置110は、各高速ビジョンカメラ160について、画像全体から、対象物の輪郭を検索し、面積を導出する。特定の実施形態においては、各画像において、画像全体が二値化され、対象物の輪郭が探索される。ここでは、ノイズを含めて面積が複数個導出されるため、最大面積のものを、その画像に写っている対象物とする。ステップS104では、三次元計測装置110は、ステップS103で求めた最大面積を各高速ビジョンカメラ160の画像間で比較し、著しく異なるものを除外する。ステップS105では、三次元計測装置110は、残った画像でそれぞれ、面積に応じて決定したサイズの関心領域(ROI)を設定する。 In step S102, the three-dimensional measuring device 110 acquires a plurality of images of the first frame from the plurality of high-speed vision cameras 160. In step S103, the three-dimensional measuring device 110 searches the entire image for the contour of the object and derives the area of each high-speed vision camera 160. In a particular embodiment, in each image, the entire image is binarized and the contour of the object is searched. Here, since a plurality of areas including noise are derived, the object having the maximum area is set as the object shown in the image. In step S104, the three-dimensional measuring device 110 compares the maximum area obtained in step S103 between the images of the high-speed vision cameras 160, and excludes those that are significantly different. In step S105, the three-dimensional measuring device 110 sets an area of interest (ROI) of a size determined according to the area of each of the remaining images.

なお、説明する実施形態では、各高速ビジョンカメラ160の画像間で最大面積が著しく異なるものを除外するものとして説明した。しかしながら、これに限定されるものではない。他の実施形態では、対象物が球体である場合などは、全画像に関心領域を設定し、その関心領域が略正方形に該当しないものを除外することとしてもよい。 In the embodiment to be described, those having a significantly different maximum area between the images of the high-speed vision cameras 160 have been excluded. However, it is not limited to this. In another embodiment, when the object is a sphere or the like, an area of interest may be set for all images, and an area of interest that does not correspond to a substantially square may be excluded.

図6は、特定の実施形態による三次元計測装置における関心領域の初期設定およびステレオペアからの画像の除外を説明する。図6においては、各画像において、対象物172の輪郭領域が求められ、最大面積が著しく異なる中央の画像が除外されている。また、各輪郭領域を包含するように、関心領域(ROI)176が設定されている。 FIG. 6 illustrates the initialization of the region of interest and the exclusion of images from stereo pairs in a 3D measuring device according to a particular embodiment. In FIG. 6, in each image, the contour region of the object 172 is obtained, and the central image having a significantly different maximum area is excluded. Further, the region of interest (ROI) 176 is set so as to include each contour region.

再び、図5を参照すると、ステップS106では、三次元計測装置110は、残ったN−1台の高速ビジョンカメラ160の画像からステレオペアを選択する。ステップS105でのステレオペアの選択は、選んだ2台の高速ビジョンカメラ160が設置された角度に基づいて行うことができる。各高速ビジョンカメラ160の配置および視野の向きは、適宜、事前に設定されており、三次元計測装置110に与えられているものとする。ステレオペアのカメラの間隔(基線長)を広げれば広げるほど、視差が大きく取れるため、奥行き(Z方向)の測定精度を高めることができるが、反対に画像面内(XY方向)の分解能が落ちることになる。そのため、90度前後の角度に近いペアを選択することが好ましい。 Referencing FIG. 5 again, in step S106, the three-dimensional measuring device 110 selects a stereo pair from the images of the remaining N-1 high-speed vision cameras 160. The selection of the stereo pair in step S105 can be made based on the angle at which the two selected high-speed vision cameras 160 are installed. It is assumed that the arrangement and the direction of the field of view of each high-speed vision camera 160 are appropriately set in advance and given to the three-dimensional measuring device 110. The wider the distance (baseline length) between the stereo pair cameras, the larger the parallax, so the measurement accuracy of the depth (Z direction) can be improved, but on the contrary, the resolution in the image plane (XY direction) decreases. It will be. Therefore, it is preferable to select a pair having an angle close to about 90 degrees.

ステップS107では、三次元計測装置110は、ステレオペアの画像各々において、関心領域の画像情報に基づいて、対象物の重心位置(x,y)を計算するとともに、重心位置のX方向およびY方向の変化量から重心速度vを計算する。 In step S107, the three-dimensional measuring device 110 calculates the position of the center of gravity (x, y) of the object based on the image information of the region of interest in each of the images of the stereo pair, and also in the X direction and the Y direction of the center of gravity position. The center of gravity velocity v is calculated from the amount of change in.

ステップS108では、三次元計測装置110は、ステップS107で求めた重心速度vに基づいて、重心速度の変化v1を導出し、所定の閾値α1と比較する。重心速度の変化v1が、所定の閾値α1以上であれば、重心位置(x、y)が急変したことになるので、オクルージョンが発生したと判定する。 In step S108, the three-dimensional measuring device 110 derives the change v1 of the center-of-gravity velocity based on the center-of-gravity velocity v obtained in step S107, and compares it with the predetermined threshold value α1. If the change v1 of the velocity of the center of gravity is equal to or greater than the predetermined threshold value α1, the position of the center of gravity (x, y) is suddenly changed, and it is determined that occlusion has occurred.

ステップS108で、重心速度の変化v1が所定の閾値α1以上であると判定された場合(NO)は、ステップS112へ処理が分岐される。ステップS112では、三次元計測装置110は、オクルージョンありと判定した画像を除外し、残りのN−1台の高速ビジョンカメラ160から画像を取得した後、ステップS106へ処理を戻す。なお、図5に示す実施形態では、オクルージョンありと判定された場合、次のフレームへ処理を進める。 If it is determined in step S108 that the change v1 of the center of gravity velocity is equal to or greater than the predetermined threshold value α1, the process is branched to step S112. In step S112, the three-dimensional measuring device 110 excludes the image determined to have occlusion, acquires an image from the remaining N-1 high-speed vision cameras 160, and then returns the process to step S106. In the embodiment shown in FIG. 5, when it is determined that there is occlusion, the process proceeds to the next frame.

一方、ステップS108で、重心速度の変化v1と閾値α1を比較した結果、重心速度の変化v1が閾値α1より小さいと判定された場合(YES)は、オクルージョンの発生はないと判定し、ステップS109へと処理が進められる。なお、閾値α1の詳細については後述する。 On the other hand, as a result of comparing the change v1 of the center of gravity velocity and the threshold value α1 in step S108, if it is determined that the change v1 of the center of gravity velocity is smaller than the threshold value α1 (YES), it is determined that no occlusion has occurred, and step S109 Processing proceeds to. The details of the threshold value α1 will be described later.

ステップS109では、三次元計測装置110は、ステレオペアの画像各々から求められた重心位置(x,y)とステップS101で求めた射影行列Pnとを用いて、三角測量の原理で三次元計測を実行する。ステップS110では、三次元計測装置110は、計算された対象物の重心位置を中心として関心領域を再設定する。関心領域の再設定に関しては、図7を参照しながら詳細を後述する。 In step S109, the three-dimensional measuring device 110 uses the center of gravity position (x, y) obtained from each of the stereo pair images and the projection matrix Pn obtained in step S101 to perform three-dimensional measurement based on the principle of triangulation. Run. In step S110, the three-dimensional measuring device 110 resets the region of interest centered on the calculated position of the center of gravity of the object. The details of resetting the region of interest will be described later with reference to FIG. 7.

ステップS111では、三次元計測装置110は、ステレオペアとして選んだ2台の高速ビジョンカメラ160から次のフレームの複数の画像を取得し、ステップS107へ処理をループさせる。 In step S111, the three-dimensional measuring device 110 acquires a plurality of images of the next frame from the two high-speed vision cameras 160 selected as the stereo pair, and loops the process to step S107.

上記フローでは、実質的に、ステップS103〜ステップS106での一連の処理と、ステップS108、ステップS112およびステップS106の一連の処理とで2種類のオクルージョン判定手法が行われる。前者の判定は、あくまでも初期設定のためのステップであり、後者が、主要なオクルージョン判定手法である。オクルージョンが生じていない間は、各画像の重心位置のみを用いて三次元計測およびトラッキングのループを回すことができるので、計算が単純であり高速性を実現することが可能である。 In the above flow, two types of occlusion determination methods are substantially performed in a series of processes in steps S103 to S106 and a series of processes in steps S108, S112 and S106. The former judgment is just a step for initial setting, and the latter is the main occlusion judgment method. While the occlusion is not occurring, the 3D measurement and tracking loop can be rotated using only the position of the center of gravity of each image, so that the calculation is simple and high speed can be realized.

以下、図7を参照しながら、対象物をトラッキングしながら関心領域を再設定する手法について説明する。図7は、特定の実施形態による三次元計測装置における対象物のトラッキング手法を説明する概略を示す。 Hereinafter, a method of resetting the region of interest while tracking the object will be described with reference to FIG. 7. FIG. 7 shows an outline for explaining an object tracking method in a three-dimensional measuring device according to a specific embodiment.

動物体のトラッキング手法は、Self−Windowing(I. Ishii, et al., ”Self Windowing for High Speed Vision”, IEEE International Conference on Robotics & Automation, 1999)と呼ばれる手法を好適に用いることができ、以下、本手法でトラッキングを行うものとして説明する。 As an animal tracking method, a method called Self-Windowing (I. Ishii, et al., "Self Windowing for High Speed Vision", IEEE International Conference on Robotics & Automation, 1999) can be preferably used. , It will be described assuming that tracking is performed by this method.

図7において、310,320,330,340,350は、ある高速ビジョンカメラ160について時系列で撮影したフレームの画像を表している。フレーム310,320,330,340,350の間は、1フレームではなく、所定のフレーム数だけ間隔があけられている。 In FIG. 7, 310, 320, 330, 340, 350 represent images of frames taken in time series with a certain high-speed vision camera 160. The frames 310, 320, 330, 340, and 350 are spaced by a predetermined number of frames instead of one frame.

まず第1フレーム310では、対象物312が黒色の物体として写されている。第2フレーム320では、対象物322のモーメントが導出され、重心位置(x、y)(図中、白色の点324で表される。)が計算される。第3フレーム330では、その重心位置(x、y)334を中心とした関心領域336が設定される。関心領域336のサイズは、対象物332の大きさに合わせたサイズとなる。第4フレーム340では、時間が経過し対象物342の位置が移動している様子を表している。第3フレーム330で求めた関心領域346内で重心位置(x、y)344が計算される。第5フレーム350では、第4フレームで求めた重心位置(x,y)354を中心とした新たな関心領域356が設定されている。 First, in the first frame 310, the object 312 is photographed as a black object. In the second frame 320, the moment of the object 322 is derived, and the position of the center of gravity (x, y) (represented by the white point 324 in the figure) is calculated. In the third frame 330, the region of interest 336 centered on the position of the center of gravity (x, y) 334 is set. The size of the region of interest 336 is a size that matches the size of the object 332. In the fourth frame 340, the state in which the position of the object 342 is moving over time is shown. The center of gravity position (x, y) 344 is calculated within the region of interest 346 obtained in the third frame 330. In the fifth frame 350, a new region of interest 356 centered on the center of gravity position (x, y) 354 obtained in the fourth frame is set.

従来は、画像全体を計算してトラッキングを行うことが主流であった。しかしながら、本実施形態においては、好ましくは高速ビジョンカメラ160が用いられることから、画像情報の連続性が高く、予測処理などを行わずに関心領域を絞ってトラッキングすることが可能となる。したがって、画像全体の情報を読み取る必要がなく、処理時間を大幅に削減可能であり、画像のサイズにも依存しない方法ということができる。また、前フレームの関心領域の画像と入力画像のみから関心領域の設定を更新することができるので、簡単化された対応付けを同時に実現できる。 Conventionally, it has been the mainstream to calculate and track the entire image. However, in the present embodiment, since the high-speed vision camera 160 is preferably used, the continuity of the image information is high, and it is possible to narrow down the area of interest without performing prediction processing or the like. Therefore, it is not necessary to read the information of the entire image, the processing time can be significantly reduced, and it can be said that the method does not depend on the size of the image. Further, since the setting of the region of interest can be updated only from the image of the region of interest and the input image of the previous frame, simplified correspondence can be realized at the same time.

図8は、第1の実施形態による三次元計測装置が生成する、重心位置および重心速度の時系列を模式的に表すグラフである。図8は、動物体の速度変化が比較的小さい場合を例示する。図8(A)は、時間tに対する重心位置(x,y)(画面内での絶対位置)の経時変化を示し、図8(B)は、重心位置の変化を合成して求めた重心速度vの経時変化を示している。 FIG. 8 is a graph schematically showing a time series of a center of gravity position and a center of gravity velocity generated by the three-dimensional measuring device according to the first embodiment. FIG. 8 illustrates a case where the speed change of the animal body is relatively small. FIG. 8 (A) shows the time course of the center of gravity position (x, y) (absolute position in the screen) with respect to time t, and FIG. 8 (B) shows the center of gravity velocity obtained by synthesizing the change in the center of gravity position. It shows the change of v with time.

図8に示すように、動物体の速度変化が比較的小さい場合は、オクルージョンが生じるタイミングまで、つまり関心領域内に障害物が入り込む時間t1まで、重心位置(x,y)は、ほぼ線形となっている。一方、オクルージョンが生じると、重心位置(x,y)に大きな変動が生じる。重心速度vについてみると、時間t1までは、微小な速度変化v1が生じている。しかしながら、オクルージョンが生じたタイミング以降は、オクルージョン発生前の微小な速度変化v1より大きな変化が生じている。したがって、所定の期間にわたり、平均的な重心速度vをモニタしながら、重心の平均速度を基準として、閾値±α1(>通常時に観測される重心速度の微小な変化幅より大きな所定の上限および下限)を設けることにより、好適にオクルージョンの発生を捕捉することが可能となる。なお、閾値α1の具体的な値は、判定感度を優先するか、誤判定防止を優先するかに応じて選定すればよい。 As shown in FIG. 8, when the velocity change of the animal body is relatively small, the center of gravity position (x, y) is almost linear until the timing when occlusion occurs, that is, until the time t1 when the obstacle enters the region of interest. It has become. On the other hand, when occlusion occurs, the position of the center of gravity (x, y) fluctuates greatly. Looking at the center-of-gravity velocity v, a minute velocity change v1 occurs until the time t1. However, after the timing at which the occlusion occurs, a change larger than the minute velocity change v1 before the occurrence of the occlusion occurs. Therefore, while monitoring the average center-of-gravity velocity v over a predetermined period, the threshold value ± α1 (> the predetermined upper limit and lower limit larger than the minute change width of the center-of-gravity velocity observed at normal times is used as a reference. ) Is provided, so that the occurrence of occlusion can be suitably captured. The specific value of the threshold value α1 may be selected according to whether the determination sensitivity is prioritized or the prevention of erroneous determination is prioritized.

図9は、対象物と障害物の輝度が同程度である場合のトラッキングの様子を示す。図9に示すように対象物と障害物とが同程度の輝度である場合、オクルージョンが発生したとき、392および398並びに402および408で示すように対象物と障害物とが重なった一体の物体として画像処理では認識される。したがって、オクルージョンが発生する前は、対象物の重心が検出され、対象物の移動速度に応じて重心が所定の速度で移動していたのに対し、オクルージョンが発生した直後には、対象物と障害物とが重なった一体の物体の重心位置に移動し、重心位置が大きく変動することになる。 FIG. 9 shows a state of tracking when the brightness of the object and the obstacle are about the same. When the object and the obstacle have the same brightness as shown in FIG. 9, when the occlusion occurs, the object and the obstacle overlap each other as shown in 392 and 398 and 402 and 408. Is recognized in image processing. Therefore, before the occurrence of occlusion, the center of gravity of the object was detected, and the center of gravity moved at a predetermined speed according to the moving speed of the object. It moves to the position of the center of gravity of an integral object that overlaps with an obstacle, and the position of the center of gravity fluctuates greatly.

図10は、障害物の輝度が、対象物の輝度よりも低い場合のトラッキングの様子を示す。図10に示すように対象物が障害物の輝度と大きく異なる場合、オクルージョンが発生したとき、442および452に示すように、対象物が障害物に単純に対象物が隠れ、対象物の面積が減ったように認識される。したがって、オクルージョンが発生する前は、対象物の全体の重心が検出され、対象物の移動速度に応じて重心が所定の速度で移動していたのに対し、オクルージョンが発生した直後には、障害物に隠された部分を除く対象物の部分の重心位置となり、重心位置が大きく変動することになる。 FIG. 10 shows a state of tracking when the brightness of an obstacle is lower than the brightness of an object. When the object is significantly different from the brightness of the obstacle as shown in FIG. 10, when occlusion occurs, the object simply hides the object in the obstacle and the area of the object becomes large as shown in 442 and 452. It is recognized as having decreased. Therefore, before the occurrence of occlusion, the center of gravity of the entire object was detected, and the center of gravity moved at a predetermined speed according to the moving speed of the object, whereas immediately after the occurrence of occlusion, an obstacle occurred. It becomes the position of the center of gravity of the part of the object excluding the part hidden by the object, and the position of the center of gravity fluctuates greatly.

また、図9および図10に示すように、関心領域396,446内に障害物398,448が入ってきた瞬間から関心領域の位置が動くことになる。 Further, as shown in FIGS. 9 and 10, the position of the region of interest moves from the moment when the obstacles 398 and 448 enter the region of interest 396 and 446.

図11は、対象物が静止し、障害物が移動している場合の実測した重心位置(x,y)および重心速度vを示すグラフである。なお、図11は、直径約10mmの再起性反射材をフレームレートが1000fpsの高速ビジョンカメラを用いて撮影した実験に基づくものである。図11(A)は、重心位置(x、y)と重心速度vの時系列を表したものであり、図11(B)は、重心速度vの縦軸の倍率を拡大した図である。なお、対象物が静止し、障害物が移動している状態で撮影を行ったものである。 FIG. 11 is a graph showing the measured center of gravity position (x, y) and center of gravity velocity v when the object is stationary and the obstacle is moving. Note that FIG. 11 is based on an experiment in which a recurrence reflector having a diameter of about 10 mm was photographed using a high-speed vision camera having a frame rate of 1000 fps. FIG. 11A shows a time series of the center of gravity position (x, y) and the center of gravity velocity v, and FIG. 11B is an enlarged view of the vertical axis of the center of gravity velocity v. The image was taken while the object was stationary and the obstacle was moving.

図11を参照すると明らかなように、オクルージョン発生時間まで、重心位置(x、y)および重心速度vの変化(速度変化v1として示してある)は、微小であり、一方で、オクルージョン発生後から大きな変動が生じていることがわかる。このことから、重心速度vの変化を特性値として、重心速度vの変化に対し所定の閾値条件を設けることによって、好適にオクルージョンを検知することが可能であることが理解される。 As is clear from FIG. 11, until the occlusion occurrence time, the change in the center of gravity position (x, y) and the center of gravity velocity v (shown as the velocity change v1) is minute, while after the occlusion occurs. It can be seen that a large fluctuation has occurred. From this, it is understood that occlusion can be suitably detected by setting a predetermined threshold condition for the change in the center of gravity velocity v with the change in the center of gravity velocity v as the characteristic value.

上述した第1の実施形態では、対象物の重心速度の変化が、重心位置の時間変化に関連した特性値として、オクルージョン判定に用いられていた。しかしながら、オクルージョン判定に用いることができる特性値としては、対象物の重心速度の変化に限定されるものではない。以下、図4および図12〜図14を参照しながら、第2の実施形態による、オクルージョンに対処しながら三次元計測を行う三次元計測処理を説明する。第2の実施形態は、対象物の重心加速度の変化をオクルージョン判定に用いる特性値として用いるものである。なお、以下、相違点を中心に説明し、特に説明がない限り、第1の実施形態と同様の構成を備えるものとする。 In the first embodiment described above, the change in the velocity of the center of gravity of the object is used for the occlusion determination as a characteristic value related to the change in the position of the center of gravity with time. However, the characteristic value that can be used for the occlusion determination is not limited to the change in the velocity of the center of gravity of the object. Hereinafter, the three-dimensional measurement process for performing the three-dimensional measurement while coping with the occlusion according to the second embodiment will be described with reference to FIGS. 4 and 12 to 14. In the second embodiment, the change in the acceleration of the center of gravity of the object is used as a characteristic value used for the occlusion determination. Hereinafter, the differences will be mainly described, and unless otherwise specified, the same configuration as that of the first embodiment will be provided.

第2の実施形態において、図4に示す重心速度算出部242は、重心速度vを算出するとともに、各高速ビジョンカメラ160について、算出した重心速度の時系列データに基づいて、重心加速度aを算出する。重心加速度aも時系列データとして計算される。隠蔽判定部240は、重心速度算出部242により算出された重心加速度の時間変化a2に基づいて、オクルージョンの発生の有無を判定する。なお、説明する第2の実施形態においては、対象物の重心加速度の変化a2が、本実施形態において、重心位置の時間変化に関連した特性値として、オクルージョン判定に用いられる。オクルージョンの発生の有無の判定は、重心加速度の変化a2に対する閾値条件に基づくことができる。 In the second embodiment, the center-of-gravity velocity calculation unit 242 shown in FIG. 4 calculates the center-of-gravity velocity v and calculates the center-of-gravity acceleration a for each high-speed vision camera 160 based on the calculated time-series data of the center-of-gravity velocity. do. The center of gravity acceleration a is also calculated as time series data. The concealment determination unit 240 determines whether or not occlusion has occurred based on the time change a2 of the center of gravity acceleration calculated by the center of gravity velocity calculation unit 242. In the second embodiment to be described, the change a2 of the acceleration of the center of gravity of the object is used in the occlusion determination as a characteristic value related to the time change of the position of the center of gravity in the present embodiment. The determination of the presence or absence of occlusion can be based on the threshold condition for the change a2 of the center of gravity acceleration.

以下、図12を参照しながら、第2の実施形態による三次元計測装置110が実行する、オクルージョンに対処しながら三次元計測を行う処理について説明する。図12は、第2の実施形態による三次元計測処理を示すフローチャートである。 Hereinafter, with reference to FIG. 12, a process of performing three-dimensional measurement while dealing with occlusion, which is executed by the three-dimensional measuring device 110 according to the second embodiment, will be described. FIG. 12 is a flowchart showing a three-dimensional measurement process according to the second embodiment.

図12に示す三次元計測処理は、重心速度の変化が比較的に大きい動物体を対象物として、障害物が対象物に重なってオクルージョンが生じると、対象物の重心位置が急変することを利用して、オクルージョン判定を行う処理である。図12では、n台の高速ビジョンカメラ160を用いるものとして説明する。 The three-dimensional measurement process shown in FIG. 12 utilizes the fact that the position of the center of gravity of an object suddenly changes when an obstacle overlaps the object and occlusion occurs, targeting an animal body in which the change in the velocity of the center of gravity is relatively large. Then, it is a process of performing an occlusion determination. In FIG. 12, n high-speed vision cameras 160 will be used.

ステップS200〜ステップS206の処理、および、ステップS209〜ステップS212の処理は、図5に示したステップS100〜ステップS106の処理およびステップS109〜ステップS112の処理と同様であるため、以下、相違点を説明する。 The processes of steps S200 to S206 and the processes of steps S209 to S212 are the same as the processes of steps S100 to S106 and the processes of steps S109 to S112 shown in FIG. explain.

ステップS207では、三次元計測装置110は、ステレオペアの画像各々において、関心領域の画像情報に基づいて、対象物の重心位置(x,y)および重心速度vを計算するとともに、さらに重心加速度aを計算する。 In step S207, the three-dimensional measuring device 110 calculates the center of gravity position (x, y) and the center of gravity velocity v of the object based on the image information of the region of interest in each of the images of the stereo pair, and further, the center of gravity acceleration a. To calculate.

ステップS208では、三次元計測装置110は、ステップS207で求めた重心加速度aに基づいて、重心加速度の変化a2を導出し、所定の閾値α2と比較する。重心加速度の変化a2が、所定の閾値α2以上であれば重心位置(x、y)が急変したことになり、オクルージョンが発生したと判定する。ステップS208で、重心加速度の変化a2が所定の閾値α2以上であると判定された場合(NO)は、ステップS212へ処理を分岐させる。ステップS208で、重心加速度の変化a2と閾値α2を比較した結果、重心加速度の変化a2が閾値α2より小さいと判定された場合(YES)は、オクルージョンの発生はないと判定し、ステップS209へと処理が進められる。 In step S208, the three-dimensional measuring device 110 derives the change a2 of the center of gravity acceleration based on the center of gravity acceleration a obtained in step S207 and compares it with the predetermined threshold value α2. If the change a2 of the acceleration of the center of gravity is equal to or greater than the predetermined threshold value α2, the position of the center of gravity (x, y) is suddenly changed, and it is determined that occlusion has occurred. If it is determined in step S208 that the change a2 of the center of gravity acceleration is equal to or greater than the predetermined threshold value α2 (NO), the process is branched to step S212. As a result of comparing the change a2 of the center of gravity acceleration and the threshold value α2 in step S208, if it is determined that the change a2 of the center of gravity acceleration is smaller than the threshold value α2 (YES), it is determined that no occlusion has occurred, and the process proceeds to step S209. Processing proceeds.

図13は、第2の実施形態による三次元計測装置が生成する、重心速度および重心加速度の時系列を模式的に表すグラフである。図13は、動物体の速度変化が比較的大きい場合を例示する。図13(A)は、時間tに対する重心速度vの経時変化を示し、図13(B)は、重心加速度aの経時変化を示している。また、灰色線は、オクルージョンが生じていない時を示し、黒線は、オクルージョンが生じたときを例示している。 FIG. 13 is a graph schematically showing the time series of the center-of-gravity velocity and the center-of-gravity acceleration generated by the three-dimensional measuring device according to the second embodiment. FIG. 13 illustrates a case where the speed change of the animal body is relatively large. FIG. 13 (A) shows the time-dependent change of the center-of-gravity velocity v with respect to time t, and FIG. 13 (B) shows the time-dependent change of the center-of-gravity acceleration a. The gray line indicates the time when occlusion does not occur, and the black line exemplifies the time when occlusion occurs.

動物体の速度変化が大きい場合、オクルージョンが生じたとき、つまり、関心領域内に障害物が入り込むと、図13(A)のように、重心速度に変動が生じる。時間t2直前のときは、速度変化v3が小さいので、速度変化v3からもオクルージョン判定が可能であるが、時間t1直前のように速度変化v2が大きい場合にオクルージョンが生じると、速度変化v2だけでは閾値を設けるのが難しくなる。重心加速度aは、図13(B)に示すようにオクルージョンが生じていない時間t1まで、微小な加速度変化a2が生じている。しかしながら、オクルージョンが生じると重心加速度の変化a2より大きな変動が生じる。 When the speed change of the animal body is large, when occlusion occurs, that is, when an obstacle enters the region of interest, the speed of the center of gravity fluctuates as shown in FIG. 13 (A). Since the speed change v3 is small immediately before the time t2, the occlusion can be determined from the speed change v3, but if the occlusion occurs when the speed change v2 is large like just before the time t1, the speed change v2 alone It becomes difficult to set a threshold. As shown in FIG. 13B, the center-of-gravity acceleration a has a minute acceleration change a2 until the time t1 when occlusion does not occur. However, when occlusion occurs, a fluctuation larger than the change a2 of the acceleration of the center of gravity occurs.

したがって、所定の期間にわたり、平均的な重心加速度aを監視しながら、重心の平均加速度を基準として、閾値±α2(通常時に観測される重心加速度の微小な変化幅a2より大きな所定の上限および下限)を設けることにより、好適にオクルージョンの発生を捕捉することが可能となる。なお、閾値α2の具体的な値は、判定感度を優先するか、誤判定防止を優先するかに応じて選定すればよい。 Therefore, while monitoring the average center-of-gravity acceleration a over a predetermined period, the threshold value ± α2 (a predetermined upper limit and lower limit larger than the minute change width a2 of the center-of-gravity acceleration observed at normal times is used as a reference. ) Is provided, it is possible to suitably capture the occurrence of occlusion. The specific value of the threshold value α2 may be selected according to whether the determination sensitivity is prioritized or the prevention of erroneous determination is prioritized.

図14は、対象物が静止し、障害物が移動している場合の実測した重心加速度aを示すグラフである。なお、対象物が静止し、障害物が移動している状態で撮影を行ったものであり、実験条件も、図11の場合と同様である。 FIG. 14 is a graph showing the measured center-of-gravity acceleration a when the object is stationary and the obstacle is moving. It should be noted that the image was taken in a state where the object was stationary and the obstacle was moving, and the experimental conditions were the same as in the case of FIG.

図14を参照すると明らかなように、オクルージョン発生時間まで、重心加速度aの変化(加速度変化a2として示してある)は、微小であり、一方で、オクルージョン発生後から大きな変動が生じていることがわかる。このことから、対象物が非等速に動くことを考慮して、重心加速度aの変化を特性値として、重心加速度aの変化に対し所定の閾値条件を設けることによって、好適にオクルージョンを検知することが可能であることが理解される。なお、障害物の輝度が低い場合でも関心領域の重心位置、重心速度および重心加速度は同様の変動を見せるため、同様の方法で判定することが可能である。 As is clear from FIG. 14, the change in the center-of-gravity acceleration a (indicated as the acceleration change a2) is small until the occlusion occurrence time, and on the other hand, a large change occurs after the occlusion occurrence. Recognize. From this, in consideration of the movement of the object at a non-constant velocity, the occlusion is suitably detected by setting a predetermined threshold condition for the change of the center of gravity acceleration a with the change of the center of gravity acceleration a as a characteristic value. It is understood that it is possible. Even when the brightness of the obstacle is low, the position of the center of gravity, the velocity of the center of gravity, and the acceleration of the center of gravity of the region of interest show similar fluctuations, so that the determination can be made by the same method.

上述した第1の実施形態および第2の実施形態では、オクルージョンが生じていない間は、各画像の重心位置のみを用いて三次元計測およびトラッキングのループを回すことができるので、計算が単純であり高速性を実現することが可能であった。一方で、オクルージョンの生じる高速ビジョンカメラ160が1台であることを想定していた。以下、図15および図16を参照しながら、第3の実施形態によるオクルージョンに対処しながら三次元計測を行う三次元計測処理を説明する。第3の実施形態は、オクルージョンの生じる高速ビジョンカメラ160が複数台発生する可能性に対処可能なものである。 In the first and second embodiments described above, the calculation is simple because the three-dimensional measurement and tracking loop can be rotated using only the position of the center of gravity of each image while occlusion is not occurring. It was possible to achieve high speed. On the other hand, it was assumed that there was only one high-speed vision camera 160 in which occlusion occurred. Hereinafter, a three-dimensional measurement process for performing three-dimensional measurement while coping with the occlusion according to the third embodiment will be described with reference to FIGS. 15 and 16. The third embodiment can deal with the possibility that a plurality of high-speed vision cameras 160 occur in which occlusion occurs.

なお、以下、相違点を中心に説明し、特に説明がない限り、第2の実施形態と同様の構成を備えるものとする。また、第3の実施形態は、第2の実施形態を基本とするものとして説明するが、同様の変更を第1の実施形態に適用してもよいことは言うまでもない。 Hereinafter, the differences will be mainly described, and unless otherwise specified, the same configuration as that of the second embodiment will be provided. Further, although the third embodiment will be described as being based on the second embodiment, it goes without saying that similar changes may be applied to the first embodiment.

図15は、三次元計測システムにて2つ以上の高速ビジョンカメラで発生し得るオクルージョン(対象物の障害物による隠蔽)を説明する。第1実施形態および第2実施形態では、オクルージョンの生じるカメラが1台であることを想定しているが、第3の実施形態では、オクルージョンの生じるカメラが複数台発生する可能性にも対処する。 FIG. 15 illustrates occlusion (concealment of an object by an obstacle) that can occur in two or more high-speed vision cameras in a three-dimensional measurement system. In the first embodiment and the second embodiment, it is assumed that there is one camera that causes occlusion, but in the third embodiment, the possibility that a plurality of cameras that cause occlusion occur is also dealt with. ..

例えば、図15(A)に示すように、第2の高速ビジョンカメラ160bにオクルージョンが発生し、かつ、他の高速ビジョンカメラ160a,160c,160dにはオクルージョンが生じていない状態で対象物が移動したとする。そして、図15(B)に示すように、対象物102が移動した結果、第3の高速ビジョンカメラ160cにも障害物が写り込んでで、オクルージョンありと判定されるにも関わらず、第2の高速ビジョンカメラ160bでも未だオクルージョンが発生したままの場合がある。このような場合、オクルージョン有りの状態からオクルージョン無しの状態への判定は行われないため、対象物102に対する関心領域の再設定が必要となる。ここでは、新たにオクルージョンありと判定された第3の高速ビジョンカメラ160cを除いた残りの高速ビジョンカメラ160a,160b,160dで、対象物の輪郭を再度検索して新たに関心領域を再設定する。 For example, as shown in FIG. 15A, the object moves in a state where occlusion occurs in the second high-speed vision camera 160b and occlusion does not occur in the other high-speed vision cameras 160a, 160c, 160d. Suppose you did. Then, as shown in FIG. 15B, as a result of the movement of the object 102, an obstacle is also reflected in the third high-speed vision camera 160c, and the second is determined to have occlusion. Even with the high-speed vision camera 160b, occlusion may still occur. In such a case, since the determination from the state with occlusion to the state without occlusion is not performed, it is necessary to reset the region of interest for the object 102. Here, with the remaining high-speed vision cameras 160a, 160b, 160d excluding the third high-speed vision camera 160c newly determined to have occlusion, the contour of the object is searched again and the region of interest is newly set. ..

そして、その関心領域を各高速ビジョンカメラ160で比較し、明らかにサイズが異なるものをオクルージョンがあると判定しステレオペアから除外する。これより、オクルージョンが生じた高速ビジョンカメラ160を除いた新たなステレオペアが選択可能となる。なお、この画像全体の画素を探索する処理は重心位置計測より計測時間がかかるため、常時のループからは外すことで、高速性を実現することができる。 Then, the region of interest is compared with each high-speed vision camera 160, and those having clearly different sizes are determined to have occlusion and are excluded from the stereo pair. This makes it possible to select a new stereo pair excluding the high-speed vision camera 160 in which occlusion has occurred. Since the process of searching for the pixels of the entire image takes more time than the measurement of the position of the center of gravity, high speed can be realized by removing the process from the normal loop.

以下、図16を参照しながら、第3の実施形態による三次元計測装置110が実行する、オクルージョンに対処しながら三次元計測を行う処理について説明する。図16は、第3の実施形態による三次元計測処理を示すフローチャートである。 Hereinafter, with reference to FIG. 16, a process of performing three-dimensional measurement while dealing with occlusion, which is executed by the three-dimensional measuring device 110 according to the third embodiment, will be described. FIG. 16 is a flowchart showing a three-dimensional measurement process according to the third embodiment.

ステップS300〜ステップS312の処理の内容自体は、図12に示したステップS200〜ステップS212の処理と同様である。一方で、オクルージョンが生じた際にループさせる位置が異なる。第3の実施形態では、ステップS308で、重心加速度の変化a2が所定の閾値α2以上であると判定された場合(NO)は、ステップS312へ処理が分岐される。ステップS312では、三次元計測装置110は、オクルージョンありと判定した画像を除外し、残りのN−1台の高速ビジョンカメラ160から画像を取得した後、ステップS306ではなく、ステップS303へ処理を戻す。 The processing content itself of steps S300 to S312 is the same as the processing of steps S200 to S212 shown in FIG. On the other hand, the position to loop when occlusion occurs is different. In the third embodiment, when it is determined in step S308 that the change a2 of the center of gravity acceleration is equal to or greater than the predetermined threshold value α2 (NO), the process is branched to step S312. In step S312, the three-dimensional measuring device 110 excludes the image determined to have occlusion, acquires the image from the remaining N-1 high-speed vision cameras 160, and then returns the process to step S303 instead of step S306. ..

このように、オクルージョンが発生したことを検知した場合に、オクルージョンありと判定された画像を除外した残りの画像にて対象物を再探索する。これにより、図15に示すような、複数の高速ビジョンカメラ160でオクルージョンが発生し得る場合でも、適切なステレオペアを選択することができる。また、オクルージョンが発生しない限り、ステップS307〜S311のループを回ることになるため、関心領域の画像処理のみで完結するため、高速性も実現できる。 In this way, when it is detected that occlusion has occurred, the object is re-searched with the remaining images excluding the images determined to have occlusion. This makes it possible to select an appropriate stereo pair even when occlusion may occur in a plurality of high-speed vision cameras 160 as shown in FIG. Further, as long as occlusion does not occur, the loop of steps S307 to S311 is performed, so that the process is completed only by the image processing of the region of interest, so that high speed can be realized.

上述した第1〜第3の実施形態では、関心領域は、当初設定されたサイズで固定されていた。一方で、対象物102は、高速ビジョンカメラ160に対し、近づいたり遠ざかったりする可能性がある。以下、図17を参照しながら、第4の実施形態によるオクルージョンに対処しながら三次元計測を行う三次元計測処理を説明する。第4の実施形態は、関心領域のサイズを適切な大きさに調整するものである。 In the first to third embodiments described above, the region of interest was fixed at the initially set size. On the other hand, the object 102 may approach or move away from the high-speed vision camera 160. Hereinafter, a three-dimensional measurement process for performing three-dimensional measurement while coping with the occlusion according to the fourth embodiment will be described with reference to FIG. A fourth embodiment adjusts the size of the region of interest to an appropriate size.

なお、以下、相違点を中心に説明し、特に説明がない限り、第3の実施形態と同様の構成を備えるものとする。また、第4の実施形態は、第3の実施形態を基本とするものとして説明するが、同様の変更を第1または第2の実施形態に適用してもよいことは言うまでもない。 Hereinafter, the differences will be mainly described, and unless otherwise specified, the same configuration as that of the third embodiment will be provided. Further, although the fourth embodiment will be described as being based on the third embodiment, it goes without saying that similar changes may be applied to the first or second embodiment.

図17は、第4の実施形態による三次元計測処理を示すフローチャートである。ステップS400〜ステップ410の処理、および、ステップSS412〜ステップS413の処理は、図16に示したステップS300〜ステップS412の処理と同様である。図17に示すフローチャートでは、あらたに、ステップS411のステップが追加されている。 FIG. 17 is a flowchart showing a three-dimensional measurement process according to the fourth embodiment. The processes of steps S400 to 410 and the processes of steps SS421 to S413 are the same as the processes of steps S300 to S412 shown in FIG. In the flowchart shown in FIG. 17, the step of step S411 is newly added.

ステップS411では、三次元計測装置110は、三次元計測をした結果として得られる、対象物の距離の変化に応じて関心領域の大きさを変更する。距離が縮まっている場合、すなわち対象物が高速ビジョンカメラ160に近づいている場合は、関心領域の大きさを前回より大きくし、距離が遠のいている場合、すなわち対象物が高速ビジョンカメラ160から遠ざかっている場合は、関心領域の大きさを前回より小さくするように設定する。これにより、距離方向にも対象物のトラッキングが可能となり、三次元に動く対象物であっても、関心領域のサイズを最低限に小さくすることができる。このため、オクルージョン判定をより精度良く行うことが可能となる。サイズ変更の度合いは、距離の変化に応じて定めればよい。 In step S411, the three-dimensional measuring device 110 changes the size of the region of interest according to the change in the distance of the object obtained as a result of the three-dimensional measurement. When the distance is shortened, that is, when the object is close to the high-speed vision camera 160, the size of the region of interest is made larger than the previous time, and when the distance is far, that is, the object is moved away from the high-speed vision camera 160. If so, set the size of the area of interest to be smaller than the previous time. This makes it possible to track the object in the distance direction as well, and even if the object moves three-dimensionally, the size of the region of interest can be minimized. Therefore, the occlusion determination can be performed more accurately. The degree of size change may be determined according to the change in distance.

以上説明した実施形態によれば、画像における対象物の隠蔽の発生を効率的に判定することが可能な情報処理装置、情報処理システム、情報処理方法およびプログラムを提供することが可能となる。 According to the embodiment described above, it is possible to provide an information processing apparatus, an information processing system, an information processing method and a program capable of efficiently determining the occurrence of concealment of an object in an image.

特に、上述した実施形態による三次元計測によれば、オクルージョンが発生した場合でも、高速かつ精度の良い三次元計測を実現することができる。そして、そのオクルージョンの判定は、対象物の重心位置の時間変化に基づくため、全画像情報の比較を行ったり、全画像情報を用いる場合と比較して、計算リソースや処理時間を削減することが可能である。好ましい実施形態では、関心領域内での画像処理のみで多くの処理が完結するので、計算リソースおよび処理時間の観点から、より一層有利である。特に、オクルージョン判定にカメラ間の対象範囲の画素値全ての比較演算が必要な技術と比較して有利である。 In particular, according to the three-dimensional measurement according to the above-described embodiment, it is possible to realize high-speed and accurate three-dimensional measurement even when occlusion occurs. Since the occlusion determination is based on the time change of the position of the center of gravity of the object, it is possible to reduce the calculation resources and the processing time as compared with the case where all the image information is compared or all the image information is used. It is possible. In a preferred embodiment, many processes are completed only by image processing within the region of interest, which is even more advantageous in terms of computational resources and processing time. In particular, it is advantageous as compared with a technique that requires comparison calculation of all pixel values in the target range between cameras for occlusion determination.

なお、説明する実施形態では、情報処理システムの一例として、複数の高速ビジョンカメラ160、三次元計測装置110およびカメラ同期装置150を含む三次元計測システム100をもって説明してきた。しかしながら、情報処理システムは、上記の構成に限定されるものではなく、コンポーネントの追加や削除が行われてもよい。例えば、三次元計測装置110およびカメラ同期装置150の機能を兼ねそろえる装置を設け、三次元計測装置110およびカメラ同期装置150を省略してもよい。他の実施形態では、複数の高速ビジョンカメラ160、三次元計測装置110およびカメラ同期装置150に加えて、対象物102を物理的に操作するロボットアームなどのロボティック装置、ロボット装置を制御する制御コントローラを含み構成されてもよい。その際に、三次元計測装置110および制御コントローラの機能を兼ねそろえる装置を設けてもよい。 In the embodiment to be described, as an example of the information processing system, a three-dimensional measurement system 100 including a plurality of high-speed vision cameras 160, a three-dimensional measurement device 110, and a camera synchronization device 150 has been described. However, the information processing system is not limited to the above configuration, and components may be added or deleted. For example, a device having the functions of the three-dimensional measuring device 110 and the camera synchronization device 150 may be provided, and the three-dimensional measuring device 110 and the camera synchronization device 150 may be omitted. In another embodiment, in addition to the plurality of high-speed vision cameras 160, the three-dimensional measuring device 110, and the camera synchronization device 150, a robotic device such as a robot arm that physically operates the object 102, and a control for controlling the robot device. It may be configured to include a controller. At that time, a device having the functions of the three-dimensional measuring device 110 and the control controller may be provided.

なお、説明する実施形態では、対象物が移動し、障害物が静止しているものとして説明するが、対象物が静止し、障害物が移動している場合や、対象物および障害物が共に移動する場合などに対しても適用可能であることは言うまでもない。また、説明する実施形態では、n台の高速ビジョンカメラ160が固定されており、対象物が移動しているものとして説明するが、n台の高速ビジョンカメラ160と対象物との相対的な位置関係が変動する限り、いかなる構成に対しても適用可能である。 In the embodiment described, it is assumed that the object is moving and the obstacle is stationary, but when the object is stationary and the obstacle is moving, or when the object and the obstacle are both moving. Needless to say, it can also be applied when moving. Further, in the embodiment described, it is assumed that n high-speed vision cameras 160 are fixed and the object is moving, but the relative position between the n high-speed vision cameras 160 and the object is described. It is applicable to any configuration as long as the relationship fluctuates.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

実施形態に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、三次元計測装置は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。 The group of devices described in the embodiments is only one of a plurality of computing environments for implementing the embodiments disclosed herein. In certain embodiments, the three-dimensional instrument comprises a plurality of computing devices, such as a server cluster. The plurality of computing devices are configured to communicate with each other via any type of communication link, including networks, shared memory, and the like, and perform the processes disclosed herein.

以上、本発明の実施形態および実施例について説明してきたが、本発明の実施形態および実施例は上述した実施形態および実施例に限定されるものではなく、他の実施形態、他の実施例、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments and examples of the present invention have been described above, the embodiments and examples of the present invention are not limited to the above-described embodiments and examples, and other embodiments, other examples, and the like. Additions, changes, deletions, etc. can be made within the range that can be conceived by those skilled in the art, and any aspect is included in the scope of the present invention as long as the actions and effects of the present invention are exhibited.

100…三次元計測システム、102…対象物、104…障害物、110…三次元計測装置、150…カメラ同期装置、160…高速ビジョンカメラ、170…画像、172…対象物、174…障害物、210…画像入力部、220…対象探索部、230…トラッキング部、232…重心計算部、234…領域設定部、240…隠蔽判定部、242 …重心速度算出部、244…ステレオペア選択部、250…三次元計測部、260…校正部、262…補正変換用行列計算部、264…基礎行列計算部、500…パーソナルコンピュータ、501…CPU、502…ROM、503…RAM、504…HDD、505…HDDコントローラ、506…ディスプレイ、508…外部機器接続I/F、509…ネットワークI/F、511…キーボード、512…ポインティング・デバイス、514…DVD−RWドライブ、513…DVD−RWメディア、516…メディアI/F、515…記録メディア 100 ... 3D measurement system, 102 ... Object, 104 ... Obstacle, 110 ... 3D measurement device, 150 ... Camera synchronization device, 160 ... High-speed vision camera, 170 ... Image, 172 ... Object, 174 ... Obstacle, 210 ... image input unit, 220 ... target search unit, 230 ... tracking unit, 232 ... center of gravity calculation unit, 234 ... area setting unit, 240 ... concealment determination unit, 242 ... center of gravity speed calculation unit, 244 ... stereo pair selection unit, 250 ... 3D measurement unit, 260 ... Calibration unit, 262 ... Correction conversion matrix calculation unit, 264 ... Basic matrix calculation unit, 500 ... Personal computer, 501 ... CPU, 502 ... ROM, 503 ... RAM, 504 ... HDD, 505 ... HDD controller, 506 ... display, 508 ... external device connection I / F, 509 ... network I / F, 511 ... keyboard, 512 ... pointing device, 514 ... DVD-RW drive, 513 ... DVD-RW media, 516 ... media I / F, 515 ... Recording media

特開2003‐150940号公報Japanese Unexamined Patent Publication No. 2003-150940

Claims (10)

異なる視点から対象物が撮影された複数の画像を取得する取得手段と、
前記画像の部分領域に基づいて、前記画像中における対象物の重心位置を計算する計算手段と、
前記重心位置の時間変化に関連した特性値に基づいて、前記画像各々において対象物の隠蔽が発生したかを判定する判定手段と
を含む、情報処理装置。
An acquisition method for acquiring multiple images of an object taken from different viewpoints,
A calculation means for calculating the position of the center of gravity of an object in the image based on a partial region of the image.
An information processing device including a determination means for determining whether or not concealment of an object has occurred in each of the images based on a characteristic value related to a change in the position of the center of gravity with time.
前記対象物の重心位置に基づいて、前記画像中に関心領域を設定する設定手段をさらに含み、前記異なる視点の前記複数の画像は、それぞれ、複数のフレームで構成される時系列で与えられており、前記部分領域は、過去の時点のフレームで計算された重心位置に基づいて、現在のフレームに対し設定された関心領域である、請求項1に記載の情報処理装置。 A setting means for setting a region of interest in the image based on the position of the center of gravity of the object is further included, and the plurality of images of the different viewpoints are given in a time series composed of a plurality of frames, respectively. The information processing apparatus according to claim 1, wherein the partial region is a region of interest set for the current frame based on the position of the center of gravity calculated in the frame at a past time. 前記隠蔽が発生した画像を除外して、前記複数の画像のうちから三次元計測で使用する少なくとも2つの画像を選択する選択手段
をさらに含む、請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, further comprising a selection means for excluding the concealed image and selecting at least two images to be used in the three-dimensional measurement from the plurality of images.
前記選択手段により選択された、異なる視点での少なくとも2つの画像に基づいて、三次元計測を行う計測手段
をさらに含み、前記設定手段は、前記三次元計測により得られる前記対象物の距離に基づいて、前記関心領域の大きさを変化させることを特徴とする、請求項3に記載の情報処理装置。
Further including a measuring means for performing three-dimensional measurement based on at least two images from different viewpoints selected by the selecting means, the setting means is based on the distance of the object obtained by the three-dimensional measurement. The information processing apparatus according to claim 3, further comprising changing the size of the region of interest.
前記重心位置の時間変化に関連した特性値は、重心速度の変化であり、前記判定手段による判定は、前記重心速度の変化に対する閾値条件に基づく、請求項1〜4のいずれか1項に記載の情報処理装置。 The characteristic value related to the time change of the center of gravity position is a change in the center of gravity velocity, and the determination by the determination means is described in any one of claims 1 to 4 based on a threshold condition for the change in the center of gravity velocity. Information processing equipment. 前記重心位置の時間変化に関連した特性値は、重心加速度の変化であり、前記判定手段による判定は、前記重心加速度の変化に対する閾値条件に基づく、請求項1〜4のいずれか1項に記載の情報処理装置。 The characteristic value related to the time change of the center of gravity position is a change in the center of gravity acceleration, and the determination by the determination means is described in any one of claims 1 to 4 based on a threshold condition for the change in the center of gravity acceleration. Information processing equipment. それぞれ異なる位置に配置された複数の撮像装置と、
前記複数の撮像装置で撮影された複数の画像を取得する取得手段と、
前記画像の部分領域に基づいて、前記画像中における対象物の重心位置を計算する計算手段と、
前記重心位置の時間変化に関連した特性値に基づいて、前記画像各々において対象物の隠蔽が発生したかを判定する判定手段と
を含む、情報処理システム。
Multiple imaging devices, each located at a different position,
An acquisition means for acquiring a plurality of images taken by the plurality of imaging devices, and
A calculation means for calculating the position of the center of gravity of an object in the image based on a partial region of the image.
An information processing system including a determination means for determining whether or not concealment of an object has occurred in each of the images based on a characteristic value related to a change in the position of the center of gravity with time.
前記撮像装置は、それぞれ、同期装置からの信号に基づいてタイミング同期して撮影を行う高速ビジョンカメラである、請求項7に記載の情報処理システム。 The information processing system according to claim 7, wherein each of the image pickup devices is a high-speed vision camera that performs shooting in timing synchronization based on a signal from the synchronization device. 情報処理方法であって、コンピュータが、
異なる視点から対象物が撮影された複数の画像を取得するステップと、
前記画像の部分領域に基づいて、前記画像中における対象物の重心位置を計算するステップと、
前記重心位置の時間変化に関連した特性値に基づいて、前記画像各々において対象物の隠蔽が発生したかを判定するステップと
を実行する、情報処理方法。
It is an information processing method, and the computer
The step of acquiring multiple images of an object taken from different viewpoints,
A step of calculating the position of the center of gravity of an object in the image based on a partial region of the image,
An information processing method that executes a step of determining whether or not concealment of an object has occurred in each of the images based on a characteristic value related to a change in the position of the center of gravity with time.
コンピュータを、
異なる視点から対象物が撮影された複数の画像を取得する取得手段、
前記画像の部分領域に基づいて、前記画像中における対象物の重心位置を計算する計算手段、および
前記重心位置の時間変化に関連した特性値に基づいて、前記画像各々において対象物の隠蔽が発生したかを判定する判定手段
として機能させるためのプログラム。
Computer,
Acquisition means for acquiring multiple images of an object taken from different viewpoints,
Concealment of the object occurs in each of the images based on the calculation means for calculating the position of the center of gravity of the object in the image based on the partial region of the image and the characteristic value related to the time change of the position of the center of gravity. A program for functioning as a judgment means for determining whether or not an image has been used.
JP2020075240A 2020-04-21 2020-04-21 Information processing device, information processing system, information processing method and program Pending JP2021174089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020075240A JP2021174089A (en) 2020-04-21 2020-04-21 Information processing device, information processing system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020075240A JP2021174089A (en) 2020-04-21 2020-04-21 Information processing device, information processing system, information processing method and program

Publications (1)

Publication Number Publication Date
JP2021174089A true JP2021174089A (en) 2021-11-01

Family

ID=78281847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075240A Pending JP2021174089A (en) 2020-04-21 2020-04-21 Information processing device, information processing system, information processing method and program

Country Status (1)

Country Link
JP (1) JP2021174089A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Similar Documents

Publication Publication Date Title
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
US6226388B1 (en) Method and apparatus for object tracking for automatic controls in video devices
JP5291605B2 (en) Camera posture estimation apparatus and camera posture estimation program
EP3421930B1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
EP3159126A1 (en) Device and method for recognizing location of mobile robot by means of edge-based readjustment
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
CN112506340B (en) Equipment control method, device, electronic equipment and storage medium
CN104811660A (en) Control apparatus and control method
JP2008176504A (en) Object detector and method therefor
JP2008298685A (en) Measuring device and program
TWI526879B (en) Interactive system, remote controller and operating method thereof
Kim et al. Interactive acquisition of residential floor plans
US20170345184A1 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
JP7420135B2 (en) Information processing device, information processing method, and program
US10509513B2 (en) Systems and methods for user input device tracking in a spatial operating environment
JP2021174089A (en) Information processing device, information processing system, information processing method and program
JP2002366958A (en) Method and device for recognizing image
JP2020134242A (en) Measuring method, measuring device and program
JP6288770B2 (en) Face detection method, face detection system, and face detection program
US20230300290A1 (en) Information display system, information display method, and non-transitory recording medium
JP2023016075A (en) Information processing device, information processing system, calibration method and program
US20210042576A1 (en) Image processing system
CN111522299B (en) mechanical control device
JP2005323905A (en) Instrument and program for measuring eyeball movement
KR102198177B1 (en) Photographing apparatus, method for controlling the same and a computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240209

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20240209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416