JP2010135926A - Visual sensor synchronizing device and visual sensor synchronization method - Google Patents

Visual sensor synchronizing device and visual sensor synchronization method Download PDF

Info

Publication number
JP2010135926A
JP2010135926A JP2008307855A JP2008307855A JP2010135926A JP 2010135926 A JP2010135926 A JP 2010135926A JP 2008307855 A JP2008307855 A JP 2008307855A JP 2008307855 A JP2008307855 A JP 2008307855A JP 2010135926 A JP2010135926 A JP 2010135926A
Authority
JP
Japan
Prior art keywords
time
frame
image sensor
visual sensor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008307855A
Other languages
Japanese (ja)
Other versions
JP5213045B2 (en
Inventor
Shingo Kagami
慎吾 鏡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Original Assignee
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC filed Critical Tohoku University NUC
Priority to JP2008307855A priority Critical patent/JP5213045B2/en
Publication of JP2010135926A publication Critical patent/JP2010135926A/en
Application granted granted Critical
Publication of JP5213045B2 publication Critical patent/JP5213045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a visual sensor synchronizing device and a visual sensor synchronization method for synchronizing the image pickup timing of a visual sensor, with the modulation timing of illumination light as a reference, without having to use private wirings or communications networks, being equipped with a special receiver for receiving synchronizing signals, or without having to require a special pixel circuit. <P>SOLUTION: The visual sensor synchronizer includes lighting device 11 to which intensity modulation is applied; an imaging element 13 for controlling the frame time; and an operation control circuit 14. The operation control circuit 14 obtains the information regarding the shift in time of the movement between the lighting device 11 and the imaging element 13 through post-processing of an image obtained by the imaging element 13 and minimizes the shift in time by the feedback control of the frame time based on the obtained information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、視覚センサのタイミング同期に関するものであり、例えばCCDイメージセンサやCMOSイメージセンサ等の撮像素子を用いたカメラ、及びそれらに画像処理装置を追加した視覚処理システムを複数用いる場合において、それらの相互間で撮像のタイミングを合わせるために好適な視覚センサ同期装置および視覚センサ同期方法に関する。   The present invention relates to timing synchronization of a visual sensor. For example, in the case of using a plurality of cameras using an image pickup device such as a CCD image sensor or a CMOS image sensor, and a plurality of visual processing systems in which an image processing device is added to them. The present invention relates to a visual sensor synchronization apparatus and a visual sensor synchronization method suitable for adjusting the timing of imaging between the two.

物体や人物など、運動する対象を非接触で観測する際に、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を用いたカメラ、及びそれらに画像処理装置を追加したものである視覚処理システムにより動画像を得ることが広く行われる。これらのシステムを総称して視覚センサと呼ぶ。動画像は一般に、適当な時間間隔で撮像される静止画の列であり、通常は一定時間間隔で撮像される。   When observing a moving object such as an object or a person in a non-contact manner, a video using a camera using an image sensor such as a CCD image sensor or a CMOS image sensor, and a visual processing system to which an image processing device is added. Obtaining images is widely done. These systems are collectively called visual sensors. A moving image is generally a sequence of still images taken at appropriate time intervals, and is usually taken at regular time intervals.

図11に示すように、対象に関して複数方向から観測を行いたい場合や、広域の情報の観測を行いたい場合などに、複数の視覚センサ51を用いることが広く行われている。この際、各視覚センサ51から得られた情報を統合して、元の撮影対象50の位置や形状を正しく求めるためには、各視覚センサ51の撮像タイミングが同期されていることが必要となる。これは、撮影対象50の動きが高速な際に特に重要となる。   As shown in FIG. 11, a plurality of visual sensors 51 are widely used when it is desired to observe an object from a plurality of directions, or when it is desired to observe a wide area of information. At this time, in order to integrate the information obtained from each visual sensor 51 and correctly obtain the position and shape of the original photographing object 50, the imaging timing of each visual sensor 51 needs to be synchronized. . This is particularly important when the movement of the subject 50 is high.

従来、視覚センサ間の撮像タイミングを同期するためには、専用の電気配線を使用してタイミング信号を送受信することで行うことが一般的である。また近年は、コンピュータネットワークの普及に伴って、ネットワーク上で特殊な通信を行うことで各視覚センサの内蔵時計を相互に同期し、それにより撮像タイミングの同期を行う手法も知られている(例えば、非特許文献1参照)。   Conventionally, in order to synchronize the imaging timing between visual sensors, it is common to perform transmission and reception of timing signals using dedicated electrical wiring. In recent years, with the spread of computer networks, a technique is also known in which the internal clock of each visual sensor is synchronized with each other by performing special communication on the network, thereby synchronizing the imaging timing (for example, Non-Patent Document 1).

一方、自発光する物体を撮影対象50とする場合以外は、視覚センサ51による撮像には、図11に示すように、常に照明光源52が必要となるが、この照明光源52に強度変調を加え、視覚センサ51側に特殊な技術を導入することで、照明光源52の強度変調の基準時間系と視覚センサ51の撮像の基準時間系との間の相対的なずれを検出する手法が知られている(例えば、非特許文献2、3または4参照)。   On the other hand, except for the case where a self-luminous object is used as the imaging target 50, the imaging by the visual sensor 51 always requires an illumination light source 52 as shown in FIG. A technique for detecting a relative deviation between the reference time system for intensity modulation of the illumination light source 52 and the reference time system for imaging of the visual sensor 51 by introducing a special technique on the visual sensor 51 side is known. (For example, see Non-Patent Document 2, 3 or 4).

G. Litoset al., ”Synchronous Image Acquisition based on Network Synchronization”,Proceedings of Computer Vision and Pattern Recognition Workshop, 2006, p.167-172G. Litoset al., “Synchronous Image Acquisition based on Network Synchronization”, Proceedings of Computer Vision and Pattern Recognition Workshop, 2006, p.167-172 S. Andoand A. Kimachi, “Conrrelation Image Sensor: Two-Dimensional Matched Detectionof Amplitude-Modulated Light”, IEEE Transactions on Electron Devices, 2003, 50,(10), p.2059-2066S. Andoand A. Kimachi, “Conrrelation Image Sensor: Two-Dimensional Matched Detection of Amplitude-Modulated Light”, IEEE Transactions on Electron Devices, 2003, 50, (10), p.2059-2066 J. Ohtaet al., “An Image Sensor with an In-Pixel Demodulation Function for Detectingthe Intensity of a Modulated Light Signal”, IEEE Transactions on ElectronDevices, 2003, 50, (1), p.166-172J. Ohtaet al., “An Image Sensor with an In-Pixel Demodulation Function for Detecting the Intensity of a Modulated Light Signal”, IEEE Transactions on ElectronDevices, 2003, 50, (1), p.166-172 B.Buxbaum et al., “PMD-PLL: receiver structure for incoherent communication andranging systems”, Proceedings of the SPIE, 1999, 3850, p.116-127B. Buxbaum et al., “PMD-PLL: receiver structure for incoherent communication andranging systems”, Proceedings of the SPIE, 1999, 3850, p.116-127

視覚センサの撮像タイミング同期を実現するためには、専用の配線または非特許文献1に記載のように通信ネットワークを介して時刻情報を送受信する必要があり、その敷設には手間がかかり、視覚センサの配置等にも制限が生じるという課題があった。無線通信ネットワーク上で時刻同期プロトコルに基づく通信を行うことは可能と考えられるが、遅延変動が無視できない状況では同期精度に限界があるという課題があった。   In order to realize the imaging timing synchronization of the visual sensor, it is necessary to transmit and receive time information via a dedicated network or a communication network as described in Non-Patent Document 1, and it takes time and effort to install the visual sensor. There has been a problem that there is a restriction on the arrangement of the image. Although it is considered possible to perform communication based on a time synchronization protocol on a wireless communication network, there is a problem that synchronization accuracy is limited in a situation where delay variation cannot be ignored.

これらとは別の手段として、Global Positioning System (GPS) による時刻情報の受信、光学ビーコンの受信、専用無線通信帯域でのビーコン受信などにより、同期を行うことも可能と考えられるが、各方法のためにはそれぞれGPS受信機、光検出器、無線受信機などの専用機器を、撮像素子とは別に備える必要があり、コスト増を招くという課題があった。   As another means, it is possible to synchronize by receiving time information by Global Positioning System (GPS), receiving optical beacons, receiving beacons in a dedicated wireless communication band, etc. Therefore, it is necessary to provide dedicated devices such as a GPS receiver, a photodetector, and a wireless receiver separately from the image sensor, which causes a problem of increasing costs.

一方、非特許文献2、3および4に記載のような技術を用いれば、照明光の強度変調タイミングを基準として、そこからの相対的なずれを視覚センサ自身が光学像から得ることが可能であり、撮像タイミング同期に応用することが可能と考えられるが、いずれの技術も視覚センサの画素内に特殊な回路を埋め込むことが必要であり、通常のCCDイメージセンサやCMOSイメージセンサを用いたシステムには適用できないという課題があった。   On the other hand, if the techniques as described in Non-Patent Documents 2, 3 and 4 are used, the visual sensor itself can obtain a relative deviation from the optical image based on the intensity modulation timing of the illumination light. Yes, it can be applied to imaging timing synchronization, but each technology requires embedding a special circuit in the pixel of the vision sensor, and a system using a normal CCD image sensor or CMOS image sensor There was a problem that was not applicable.

本発明は、このような課題に鑑み創案されたもので、専用の配線や通信ネットワークを用いることなく、また同期信号受信のための特殊な受信機を装備することなく、また特殊な画素回路を要することなく、照明光の変調タイミングを基準として視覚センサの撮像タイミングを同期させることができる視覚センサ同期装置および視覚センサ同期方法を提供することを目的とする。   The present invention has been devised in view of such problems, and does not use a dedicated wiring or communication network, is not equipped with a special receiver for receiving a synchronization signal, and has a special pixel circuit. An object of the present invention is to provide a visual sensor synchronization device and a visual sensor synchronization method that can synchronize the imaging timing of a visual sensor with reference to the modulation timing of illumination light.

上記目的を達成するため、本発明に係る視覚センサ同期装置は、強度変調の施された照明装置と、フレーム時間を制御し得る撮像素子と、前記撮像素子が獲得した画像の後処理によって前記照明装置と前記撮像素子との動作の時刻ずれに係る情報を得て、この得られた情報に基づくフレーム時間のフィードバック制御によって前記時刻ずれを最小化する演算制御手段とを、備えることを特徴とする。   In order to achieve the above object, a visual sensor synchronization device according to the present invention includes an illumination device that has been subjected to intensity modulation, an imaging device that can control a frame time, and post-processing of an image acquired by the imaging device. Computation control means that obtains information related to a time lag of operation between the apparatus and the image sensor and minimizes the time lag by feedback control of a frame time based on the obtained information is provided. .

本発明に係る視覚センサ同期装置で、前記演算制御手段は、フレームごとに定められた値を取る第1の時間関数と、各フレームの画像から計算される特徴量で構成される第2の時間関数との間の時間相関を計算することにより、前記照明装置と前記撮像素子との動作の時刻ずれに係る情報を得ることが好ましい。また、本発明に係る視覚センサ同期装置で、前記演算制御手段は、前記照明装置と前記撮像素子との動作の時刻ずれをフィードバック制御により最小化するために、前記時間相関の値によって前記撮像素子のフレーム時間の微小調整を行うことが好ましい。   In the visual sensor synchronization device according to the present invention, the calculation control means includes a first time function that takes a value determined for each frame, and a second time that includes a feature amount calculated from an image of each frame. It is preferable to obtain information related to the time lag of the operation of the illumination device and the image sensor by calculating the time correlation between the functions. Further, in the visual sensor synchronization device according to the present invention, the calculation control means may use the time correlation value to minimize the time lag of the operation between the illumination device and the image sensor, based on the time correlation value. It is preferable to finely adjust the frame time.

本発明に係る視覚センサ同期装置で、前記照明装置はデューティ比1:1の矩形波で強度変調され、前記撮像素子は基本フレーム時間を前記照明装置の変調周期の2分の1とされており、前記演算制御手段は、フレームごとに定められた値を取る前記第1の時間関数として、フレームによって1または-1を取る関数を用いることにより、各フレームの画像から計算される前記特徴量をフレームごとに累積加減算し、その結果を低域通過フィルタに通すことで前記時刻ずれに係る情報を得ることが好ましい。また、本発明に係る視覚センサ同期装置で、前記照明装置はデューティ比1:1の矩形波で強度変調され、前記撮像素子は基本フレーム時間を前記照明装置の変調周期の4分の1とされており、前記演算制御手段は、フレームごとに定められた値を取る前記第1の時間関数として、フレームによって 1,0,または -1 を取る関数を用いることにより、各フレームの画像から計算される前記特徴量をフレームごとに累積加減算し、その結果を低域通過フィルタに通すことで前記時刻ずれに係る情報を得るとともに、変調振幅の大きさを得て、その変調振幅の大きさにより前記時刻ずれに係る情報を正規化してもよい。   In the visual sensor synchronization device according to the present invention, the illumination device is intensity-modulated with a rectangular wave having a duty ratio of 1: 1, and the imaging device has a basic frame time set to a half of a modulation period of the illumination device. The arithmetic control means uses the function that takes 1 or −1 depending on the frame as the first time function that takes a value determined for each frame, thereby calculating the feature amount calculated from the image of each frame. It is preferable to obtain information related to the time lag by cumulatively adding and subtracting each frame and passing the result through a low-pass filter. Further, in the visual sensor synchronization device according to the present invention, the illumination device is intensity-modulated with a rectangular wave having a duty ratio of 1: 1, and the imaging device has a basic frame time set to a quarter of the modulation period of the illumination device. The arithmetic control means is calculated from the image of each frame by using a function that takes 1, 0, or -1 depending on the frame as the first time function that takes a value determined for each frame. The feature amount is cumulatively added / subtracted for each frame, and the result is passed through a low-pass filter to obtain information relating to the time lag, and the magnitude of the modulation amplitude is obtained. Information related to the time lag may be normalized.

本発明に係る視覚センサ同期方法は、強度変調の施された照明装置と、フレーム時間を制御し得る撮像素子とを有し、前記撮像素子が獲得した画像の後処理によって前記照明装置と前記撮像素子の動作の時刻ずれに係る情報を得て、この得られた情報に基づくフレーム時間のフィードバック制御によって前記時刻ずれを最小化することを、特徴とする。   The visual sensor synchronization method according to the present invention includes an illumination device subjected to intensity modulation and an imaging device capable of controlling a frame time, and the illumination device and the imaging by post-processing of an image acquired by the imaging device. The present invention is characterized in that information related to the time lag of the operation of the element is obtained, and the time lag is minimized by feedback control of the frame time based on the obtained information.

本発明に係る視覚センサ同期方法は、フレームごとに定められた値を取る第1の時間関数と、各フレームの画像から計算される特徴量で構成される第2の時間関数との間の時間相関を計算することにより、前記照明装置と前記撮像素子との動作の時刻ずれに係る情報を得ることが好ましい。また、本発明に係る視覚センサ同期方法は、前記照明装置と前記撮像素子との動作の時刻ずれをフィードバック制御により最小化するために、前記時間相関の値によって前記撮像素子のフレーム時間の微小調整を行うことが好ましい。   The visual sensor synchronization method according to the present invention is a time between a first time function that takes a value determined for each frame and a second time function that is composed of feature amounts calculated from the image of each frame. It is preferable to obtain information related to the time lag of the operation of the illumination device and the image sensor by calculating the correlation. In addition, the visual sensor synchronization method according to the present invention provides a fine adjustment of the frame time of the image sensor based on the value of the time correlation in order to minimize the time lag of the operation of the illumination device and the image sensor by feedback control. It is preferable to carry out.

本発明に係る視覚センサ同期方法は、前記照明装置をデューティ比1:1の矩形波で強度変調し、前記撮像素子の基本フレーム時間を照明の変調周期の2分の1とし、フレームごとに定められた値を取る前記第1の時間関数として、フレームによって1または-1を取る関数を用いることにより、各フレームの画像から計算される前記特徴量をフレームごとに累積加減算し、その結果を低域通過フィルタに通すことで前記時刻ずれに係る情報を得ることが好ましい。また、本発明に係る視覚センサ同期方法は、前記照明装置をデューティ比1:1の矩形波で強度変調し、前記撮像素子の基本フレーム時間を前記照明装置の変調周期の4分の1とし、フレームごとに定められた値を取る前記第1の時間関数として、フレームによって 1,0,または -1 を取る関数を用いることにより、各フレームの画像から計算される前記特徴量をフレームごとに累積加減算し、その結果を低域通過フィルタに通すことで前記時刻ずれに係る情報を得るとともに、変調振幅の大きさを得て、その変調振幅の大きさにより前記時刻ずれに係る情報を正規化してもよい。   In the visual sensor synchronization method according to the present invention, the illumination device is intensity-modulated with a rectangular wave having a duty ratio of 1: 1, the basic frame time of the image sensor is set to a half of the modulation period of illumination, and is determined for each frame. By using a function that takes 1 or -1 depending on the frame as the first time function that takes the obtained value, the feature amount calculated from the image of each frame is cumulatively added and subtracted for each frame, and the result is reduced. It is preferable to obtain information related to the time difference by passing through a band-pass filter. Further, in the visual sensor synchronization method according to the present invention, the illumination device is intensity-modulated with a rectangular wave having a duty ratio of 1: 1, and the basic frame time of the image sensor is set to a quarter of the modulation period of the illumination device, The feature value calculated from the image of each frame is accumulated for each frame by using a function that takes 1, 0, or −1 depending on the frame as the first time function that takes a value determined for each frame. Addition / subtraction and passing the result through a low-pass filter obtains information related to the time shift, obtains the magnitude of the modulation amplitude, and normalizes the information related to the time shift by the magnitude of the modulation amplitude. Also good.

本発明に係る視覚センサ同期装置および視覚センサ同期方法は、強度変調の施された照明装置と、フレーム時間を制御し得る撮像素子とを有している。撮像素子が各フレームの画像を獲得するごとに、その画像から特徴量を計算し、その特徴量に基づいて照明装置と撮像素子との動作の時刻ずれに係る情報を得ることが好ましい。この情報に基づいて時刻ずれを最小化するように、フレーム時間をフィードバック制御を行うことで、視覚センサの同期を行う。   The visual sensor synchronization device and the visual sensor synchronization method according to the present invention include an illumination device subjected to intensity modulation, and an image sensor that can control the frame time. Each time the image sensor acquires an image of each frame, it is preferable to calculate a feature amount from the image and obtain information related to a time lag between the operation of the lighting device and the image sensor based on the feature amount. Based on this information, the visual sensor is synchronized by performing feedback control of the frame time so as to minimize the time lag.

照明装置と撮像素子との動作の時刻ずれに係る情報を得るために、フレームごとに定められた値を取る第1の時間関数と、各フレームの画像から計算される特徴量で構成される第2の時間関数との間の時間相関を計算する。照明装置と撮像素子との動作の時刻ずれに係る情報が得られれば、時刻ずれを最小化するようなフィードバック制御は、位相同期ループ (PLL) 理論に基づいて実行できる。   In order to obtain information related to the time lag of the operation of the illumination device and the image sensor, a first time function that takes a value determined for each frame and a feature amount calculated from the image of each frame. Calculate the time correlation between two time functions. If information related to the time lag between the operation of the illumination device and the image sensor is obtained, feedback control that minimizes the time lag can be performed based on the phase-locked loop (PLL) theory.

特に、照明装置をデューティ比1:1の矩形波で強度変調し、撮像素子の基本フレーム時間を照明の変調周期の2分の1とし、フレームごとに定められた値を取る時間関数としてフレームによって値1または-1を取るものを用いると、前記時間相関を各フレームの画像から計算される特徴量の累積加減算と、その結果への低域通過フィルタの適用とによって得ることができる。基本フレーム時間を基準として、前記時間相関の値の定数倍だけフレーム時間を増加(相関値が負の場合は減少)させることで、同期が実現される。   In particular, the intensity of the illuminator is modulated with a rectangular wave with a duty ratio of 1: 1, the basic frame time of the image sensor is set to one half of the modulation period of the illumination, and the time function taking a value determined for each frame When a value having a value of 1 or -1 is used, the time correlation can be obtained by cumulative addition / subtraction of feature amounts calculated from an image of each frame and application of a low-pass filter to the result. Synchronization is realized by increasing the frame time by a constant multiple of the value of the time correlation (decreasing if the correlation value is negative) with reference to the basic frame time.

ここで、フレーム時間を増加または減少させる量、すなわちゲインを適切に設定する必要があるが、適切なゲインの範囲は撮像素子が実効的に受光する変調照明光の振幅に依存する。この依存性を考慮せずに動作させることで同期が不安定になるのを回避するため、照明装置をデューティ比1:1の矩形波で強度変調し、撮像素子の基本フレーム時間を照明の変調周期の4分の1とし、各フレームの画像から計算される特徴量で構成される第2の時間関数と、フレームごとに定められた値を取る第1の時間関数との間の時間相関を計算するとともに、各フレームの画像から計算される特徴量で構成される第2の時間関数の振幅に比例する量を計算する。前記振幅に比例する量で正規化された前記時間相関から、照明装置と撮像素子との動作の時刻ずれに係る情報が得られれば、時刻ずれを最小化するようなフィードバック制御が実行できる。   Here, it is necessary to appropriately set an amount to increase or decrease the frame time, that is, a gain, but an appropriate gain range depends on the amplitude of the modulated illumination light that is effectively received by the image sensor. In order to avoid instability of synchronization by operating without taking this dependency into account, the illumination device is intensity-modulated with a rectangular wave with a duty ratio of 1: 1, and the basic frame time of the image sensor is modulated with illumination. The time correlation between the second time function composed of the feature values calculated from the image of each frame and the first time function taking a value determined for each frame is set to a quarter of the period. Along with the calculation, an amount proportional to the amplitude of the second time function constituted by the feature amount calculated from the image of each frame is calculated. If information related to the time lag of the operation of the illumination device and the image sensor is obtained from the time correlation normalized by the amount proportional to the amplitude, feedback control that minimizes the time lag can be executed.

本発明により、専用の配線や通信ネットワークを用いることなく、また同期信号受信のための特殊な受信機を装備することなく、また特殊な画素回路を要することなく、視覚センサの撮像タイミングを、照明光の変調タイミングを基準として同期させることを可能とする視覚センサ同期装置および視覚センサ同期方法が得られる。   According to the present invention, the imaging timing of the visual sensor can be illuminated without using a dedicated wiring or communication network, without a special receiver for receiving a synchronization signal, and without requiring a special pixel circuit. A visual sensor synchronization device and a visual sensor synchronization method that can be synchronized based on the modulation timing of light are obtained.

以下,本発明の実施の形態について、図面を参照しながら説明する。
本発明の実施の形態の視覚センサ同期装置の基本的構成を図1に示す。
図1に示すように、視覚センサ同期装置は、変調照明装置11と光学系12と撮像素子13と演算制御回路14からなる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
A basic configuration of a visual sensor synchronization apparatus according to an embodiment of the present invention is shown in FIG.
As shown in FIG. 1, the visual sensor synchronization device includes a modulation illumination device 11, an optical system 12, an image sensor 13, and an arithmetic control circuit 14.

変調照明装置11は、LED (light emitting device) 等の発光体111と、その発光制御回路112からなる。変調照明装置11から発せられた強度変調光は、直接に、または物体等で反射することにより間接に、光学系12を通して撮像素子13上に照射され、電気信号に変換される。演算制御回路14は、この電気信号を読み取り、適当な演算を加えた後、その演算結果に基づいて撮像素子13のフレーム時間を制御する。撮像素子13は、複数の画素131を有する。   The modulated illumination device 11 includes a light emitter 111 such as an LED (light emitting device) and a light emission control circuit 112. The intensity-modulated light emitted from the modulated illumination device 11 is irradiated onto the image sensor 13 through the optical system 12 directly or indirectly by being reflected by an object or the like, and converted into an electrical signal. The arithmetic control circuit 14 reads this electric signal, adds an appropriate calculation, and then controls the frame time of the image sensor 13 based on the calculation result. The image sensor 13 has a plurality of pixels 131.

演算制御回路14は、演算制御手段を成し、以下で述べる演算及び制御を実行できる専用の回路でもよいし、マイクロプロセッサ上のソフトウェアとして実現するのでもよい。撮像素子13は、フレーム時間を制御できるものを選択して使用する必要があるが、撮像素子13に内蔵された制御回路へ指示を与えることで行ってもよく、外部から与えるシャッタートリガ信号を制御することで行ってもよい。   The arithmetic control circuit 14 constitutes an arithmetic control means, and may be a dedicated circuit that can execute the arithmetic and control described below, or may be realized as software on a microprocessor. It is necessary to select and use an image sensor 13 that can control the frame time, but it may be performed by giving an instruction to a control circuit built in the image sensor 13 and controls an external shutter trigger signal. It may be done by doing.

本実施形態の原理を説明するための準備として、PLL理論の基礎的事項を述べる。本実施形態は、PLLのうち、入出力信号が離散的な値のみを取るディジタルPLL (DPLL) に基づく。DPLLの基本構成を図2に示す。図2に示すように、同期の基準となる参照信号を f(t) とし、f(t) に同期される出力信号を g(t) とする。図3に示すように、f(t) および g(t) は、いずれも値1と-1を交互に繰り返すデューティ比1:1 の矩形関数である。図2に示すように、位相検出器21は、f(t)とg(t)との積f(t)g(t)を計算する。低域通過フィルタ22は、この積を時間平均した値q(φ)を出力する。この出力q(φ)は、f(t)とg(t)との時間相関であり、f(t)とg(t)との位相差φに依存する値となる。f(t)とg(t)との位相差によって時間相関値q(φ)がどのように変化するかを、図4に示す。   As preparation for explaining the principle of the present embodiment, basic items of the PLL theory will be described. The present embodiment is based on a digital PLL (DPLL) in which input / output signals take only discrete values. The basic configuration of DPLL is shown in FIG. As shown in FIG. 2, a reference signal serving as a reference for synchronization is represented by f (t), and an output signal synchronized with f (t) is represented by g (t). As shown in FIG. 3, each of f (t) and g (t) is a rectangular function having a duty ratio of 1: 1 in which values 1 and −1 are alternately repeated. As shown in FIG. 2, the phase detector 21 calculates a product f (t) g (t) of f (t) and g (t). The low-pass filter 22 outputs a value q (φ) obtained by averaging the products. This output q (φ) is a time correlation between f (t) and g (t), and has a value depending on the phase difference φ between f (t) and g (t). FIG. 4 shows how the time correlation value q (φ) changes depending on the phase difference between f (t) and g (t).

図2に示すように、電圧制御発振器23は、出力信号g(t)を出力する発振器であり、その発振周期は、低域通過フィルタ22が出力する時間相関値qに応じて変化する。発振周期は、時間相関値qが0のときはあらかじめ定められた基本発振周期で動作し、時間相関値qが0より大きくなるに従って長く、0より小さくなるに従って短くなる。   As shown in FIG. 2, the voltage controlled oscillator 23 is an oscillator that outputs an output signal g (t), and its oscillation cycle changes according to the time correlation value q output from the low-pass filter 22. When the time correlation value q is 0, the oscillation period operates in a predetermined basic oscillation period, and becomes longer as the time correlation value q becomes larger than 0, and becomes shorter as it becomes smaller than 0.

図4に示すように、この時間相関値qが正のときは、フレーム時間が長くなることでg(t)の位相が相対的に遅れる方向に変化する。逆に負のときは、g(t)の位相は相対的に進む方向に変化する。このようなフィードバックの効果により、時間相関値qの変化分に応じて発振周期を変化させる際のゲインを適切に選ぶことで、f(t)とg(t)との位相差がπ/2となる平衡点で、このシステムの動作は収束する。なお、位相差が3π/2の点も平衡点であるが、この平衡点は不安定であり、外乱等の存在する現実の状況下でこの動作点に留まることはない。   As shown in FIG. 4, when the time correlation value q is positive, the phase of g (t) changes in a direction relatively delayed as the frame time becomes longer. Conversely, when it is negative, the phase of g (t) changes in a relatively advancing direction. Due to the effect of such feedback, the phase difference between f (t) and g (t) is π / 2 by appropriately selecting the gain when changing the oscillation period according to the change in the time correlation value q. At this equilibrium point, the operation of the system converges. The point where the phase difference is 3π / 2 is also an equilibrium point, but this equilibrium point is unstable and does not remain at this operating point in the actual situation where disturbances exist.

本実施形態では、照明装置11から発せられ、撮像素子13上に照射される光が参照信号f(t)に対応する。撮像素子13内の各画素131に照射される光強度は、通常一様ではないが、以下では、まずは議論を簡単化するため、特に断らない限り、各画素131に照射される光強度は一様であるとする。従って以下では、撮像素子13に照射された光強度、各画素131に照射された光強度、画素131に照射された光強度の全画素にわたる総和のそれぞれを、f(t)と同一視することがある。   In the present embodiment, the light emitted from the illumination device 11 and irradiated onto the image sensor 13 corresponds to the reference signal f (t). The light intensity irradiated to each pixel 131 in the image sensor 13 is usually not uniform, but in the following, for the sake of simplicity of discussion, the light intensity irradiated to each pixel 131 is one unless otherwise specified. Suppose that Therefore, in the following, the light intensity applied to the image sensor 13, the light intensity applied to each pixel 131, and the sum of the light intensity applied to the pixels 131 over all pixels are identified with f (t). There is.

本実施形態の第1の態様では、出力信号g(t)は、撮像素子13のフレームごとに定められた値を取る第1の時間関数に対応し、参照信号f(t)は、各フレームの画像から計算される特徴量で構成される第2の時間関数に対応している。低域通過フィルタ22の出力であるf(t)とg(t)との時間相関q(φ)を以下のように表す。

Figure 2010135926
ここで、Tは、時間平均を取る区間を表し、撮像素子のフレーム時間より十分に長いとする。 In the first aspect of the present embodiment, the output signal g (t) corresponds to a first time function that takes a value determined for each frame of the image sensor 13, and the reference signal f (t) This corresponds to a second time function composed of feature amounts calculated from the images. The time correlation q (φ) between f (t) and g (t), which is the output of the low-pass filter 22, is expressed as follows.
Figure 2010135926
Here, T represents a section in which a time average is taken, and is assumed to be sufficiently longer than the frame time of the image sensor.

前述のDPLLの説明では、f(t)は1または-1の値を取るとした。しかし、強度変調光の強度は、負の値を取ることはできない。代わりに、図5に示すように、f(t)は0または1の値を取る矩形波とする。すなわち、f(t)は、1または-1の値を取る矩形波をf'(t) として f(t) = f’(t)/2 + 1/2 と表される。   In the above description of DPLL, f (t) has a value of 1 or -1. However, the intensity of the intensity-modulated light cannot take a negative value. Instead, as shown in FIG. 5, f (t) is a rectangular wave that takes a value of 0 or 1. That is, f (t) is expressed as f (t) = f ′ (t) / 2 + 1/2 where f ′ (t) is a rectangular wave having a value of 1 or −1.

f(t) = 1 は照明装置11が点灯している場合に、f(t) = 0 は消灯している場合に対応させる。ここで、g(t) のデューティ比が1:1であることに注意すると、前述のDPLLは全く同様に動作する。なぜならば、以下が成り立つからである。

Figure 2010135926
f (t) = 1 corresponds to the case where the lighting device 11 is turned on, and f (t) = 0 corresponds to the case where it is turned off. Here, paying attention to the fact that the duty ratio of g (t) is 1: 1, the aforementioned DPLL operates in exactly the same manner. This is because the following holds.
Figure 2010135926

図5に示すように、出力関数g(t)として、奇数フレームの間はg(t) = 1、偶数フレームの間はg(t) = -1を取るものを考える。   As shown in FIG. 5, the output function g (t) is assumed to take g (t) = 1 during odd frames and g (t) = − 1 during even frames.

演算制御回路14は、[数1]式の時間相関値を用いて撮像素子13の動作を制御する。しかし、ここでの被積分関数f(t)g(t)を直接得ることはできない。なぜならば、撮像素子13の各画素131が出力する輝度値は、照射された光強度、すなわちf(t)の1フレーム時間にわたる積分であり、任意の瞬間におけるf(t)の値ではないからである。一方、g(t)が各フレーム期間内においては固定値を取ることに注意すると、[数1]式の積分値は以下のように得ることができる。

Figure 2010135926
The arithmetic control circuit 14 controls the operation of the image sensor 13 using the time correlation value of the formula [1]. However, the integrand f (t) g (t) here cannot be obtained directly. This is because the luminance value output from each pixel 131 of the image sensor 13 is an integral of the irradiated light intensity, that is, f (t) over one frame time, and is not the value of f (t) at an arbitrary moment. It is. On the other hand, if g (t) takes a fixed value within each frame period, the integral value of Equation 1 can be obtained as follows.
Figure 2010135926

ここで、iは撮像素子13の各フレームに時間順に与えられた連番であり、F[i]はフレームiにおいて各画素131が得た輝度値を、全画素について総和したものである。[数3]式の総和は、時間平均を取る区間Tに相当するフレーム数にわたって計算するものとする。なお、この時間平均操作を直接実行する代わりに、再帰型低域通過フィルタとして実装してもよく、その他のより高度な低域通過フィルタを用いてもよい。   Here, i is a sequential number given to each frame of the image sensor 13 in time order, and F [i] is a sum of the luminance values obtained by the pixels 131 in the frame i for all the pixels. The sum of the formula [3] is calculated over the number of frames corresponding to the interval T for which the time average is taken. Instead of directly executing this time averaging operation, it may be implemented as a recursive low-pass filter, or another more advanced low-pass filter may be used.

演算制御回路14は、この時間相関値qに基づいて撮像素子13のフレーム時間を制御する。ここで、g(t)の中心周波数がf(t)の周波数とほぼ同一となるようにする。すなわち、時間相関値qが0のときにフレーム時間が照明変調周期の1/2になるようにし、時間相関値qが大きくなるに従ってフレーム時間を長く、小さくなるに従ってフレーム時間を短くする。時間相関値qの変化に応じてフレーム時間を変化させる際のゲインを適切な値に設定することで、撮像素子13の撮像タイミングは、f(t)とg(t)との周期が同一であり、位相差がπ/2である点に収束する。すなわち、フレーム時間が照明変調周期の1/2であり、各フレームの中心時刻が照明の点灯・消灯切り替わり時刻と一致する点に収束する。   The arithmetic control circuit 14 controls the frame time of the image sensor 13 based on the time correlation value q. Here, the center frequency of g (t) is set to be substantially the same as the frequency of f (t). That is, when the time correlation value q is 0, the frame time is set to ½ of the illumination modulation period, the frame time is lengthened as the time correlation value q is increased, and the frame time is shortened as it is decreased. By setting the gain at the time of changing the frame time according to the change of the time correlation value q to an appropriate value, the imaging timing of the imaging device 13 has the same period of f (t) and g (t). Yes, it converges to a point where the phase difference is π / 2. In other words, the frame time is ½ of the illumination modulation period, and the center time of each frame converges to a point where it matches the lighting on / off switching time.

さて、これまでは、撮像素子の各画素131に照射される光強度は一様であり、照明装置11からの変調照明光そのものと同一視できるとして説明してきた。このことの妥当性を、より実際的な状況を鑑みて議論する。   Until now, it has been described that the light intensity applied to each pixel 131 of the image sensor is uniform and can be identified with the modulated illumination light itself from the illumination device 11. The validity of this will be discussed in the light of a more practical situation.

一般に、照明装置11を含むさまざまな光源から発せられた光は、視覚センサの視野内の物体表面で反射され、その反射光が光学系12を通して撮像素子13に照射される。撮像素子13の各画素131が得る輝度値の全画素にわたる総和は、照明装置11を起源とする成分と、その他の光源を起源とする成分の和として表される。ここで、前者は照明装置11の発光体111の輝度に比例し、後者は発光体111の輝度に依存しないとみなせる。いま、視野内の物体表面の反射率分布が隣接フレーム間で大きくは変化しないと仮定すると、その他の光源を起源とする成分は、奇数フレームの分と偶数フレームの分とが相殺され、時間相関値qへ寄与しない。   In general, light emitted from various light sources including the illumination device 11 is reflected by the surface of an object in the visual field of the visual sensor, and the reflected light is applied to the image sensor 13 through the optical system 12. The sum of luminance values obtained by the respective pixels 131 of the image sensor 13 over all the pixels is expressed as a sum of a component originating from the illumination device 11 and a component originating from another light source. Here, it can be considered that the former is proportional to the luminance of the light emitter 111 of the lighting device 11 and the latter is not dependent on the luminance of the light emitter 111. Assuming that the reflectance distribution of the object surface in the field of view does not change significantly between adjacent frames, the components originating from other light sources cancel out the odd frames and even frames, and the time correlation Does not contribute to the value q.

以上の議論をまとめると、時間相関値qへ寄与するのは、各画素131が得る輝度値のうち照明装置11を起源とする成分のみであり、またその成分の全画素にわたる総和は発光体111の輝度に比例する。よって、これまで説明してきたように、各画素131が得る輝度値の総和を、参照信号f(t)と同一視して差し支えない。   To summarize the above discussion, only the component originating from the lighting device 11 among the luminance values obtained by each pixel 131 contributes to the time correlation value q, and the sum of all the components of all the pixels is the light emitter 111. Proportional to the brightness of Therefore, as described above, the sum of the luminance values obtained by each pixel 131 may be identified with the reference signal f (t).

ところで、視野内の物体表面の反射率分布が隣接フレーム間で大きく変化する場合は、前述の議論は妥当ではない。f(t)の周波数が十分に高い、すなわち高フレームレートで撮影を行う高速度撮影の条件では、このような状況は生じにくい。また、十分に高フレームレートでない場合でも、視野のうちから反射率の変化の激しい領域を除いた他の画素にわたって輝度値の総和を取ることで、このような状況を回避することもできる。このように、適当な画素を選択し、あるいは重みづけを行った上で、各画素の輝度値の総和を計算したものを、画像から計算される特徴量と呼ぶ。   By the way, when the reflectance distribution of the object surface in the field of view changes greatly between adjacent frames, the above discussion is not valid. Such a situation is unlikely to occur under high-speed shooting conditions in which the frequency of f (t) is sufficiently high, that is, shooting at a high frame rate. Even when the frame rate is not sufficiently high, such a situation can be avoided by taking the sum of the luminance values over the other pixels excluding the region where the reflectance changes rapidly from the visual field. In this way, an appropriate pixel is selected or weighted, and the sum of luminance values of each pixel is calculated, which is called a feature amount calculated from an image.

なお、これまでは撮像素子13の各画素131は、照射される光強度をフレーム時間の全期間にわたって積分するとして議論してきた。これは、実際は常には成り立たず、機械的または電子的シャッタにより、フレーム時間のうち一部の期間にわたって照射される光強度が積分される場合もある。この場合のf(t)とg(t)との関係を、図6に示す。図4に示したf(t)とg(t)との位相差φによる時間相関値q(φ)の変化が、この場合にどのようになるかを、図7に示す。ここで、位相差φは、g(t) = 1 であるフレーム期間の中心時刻が、f(t) = 1 である期間の中心時刻に一致する場合を位相差0とし、これらがf(t)の1周期分だけずれている場合を位相差2πとして表した。図7に示すように、この場合も、f(t)とg(t)との位相差φがπ/2となる点のみが安定平衡点であり、同様に動作することがわかる。従って、フレーム時間のうち一部の期間でのみ積分動作がなされる場合でも、動作には差し支えがない。   Heretofore, each pixel 131 of the image sensor 13 has been discussed as integrating the intensity of light applied over the entire frame time. In practice, this is not always the case, and the light intensity irradiated over a part of the frame time may be integrated by a mechanical or electronic shutter. The relationship between f (t) and g (t) in this case is shown in FIG. FIG. 7 shows how the time correlation value q (φ) changes due to the phase difference φ between f (t) and g (t) shown in FIG. Here, the phase difference φ is defined as a phase difference of 0 when the center time of the frame period in which g (t) = 1 matches the center time of the period in which f (t) = 1. ) Is represented by a phase difference of 2π. As shown in FIG. 7, in this case as well, only the point where the phase difference φ between f (t) and g (t) is π / 2 is the stable equilibrium point, and it can be seen that the operation is the same. Therefore, even when the integration operation is performed only during a part of the frame time, there is no problem in the operation.

さて、これまでの議論で、時間相関値qの変化に応じてフレーム時間を変化させる際のゲインを適切な値に設定する必要があることを述べた。ここで、適切なゲインの範囲は、撮像素子13へ照射される光のうち、照明装置11を起源とする変調照明成分の振幅に依存することに注意が必要である。f(t)とg(t)との位相差が同じ場合でも、振幅が大きいときは、フレーム時間に比較的大きな変化分が生じ、動作を不安定にしてしまう恐れがある。これを避けるためには、振幅の大きさの効果を打ち消すように、ゲインを小さく取る必要がある。   In the discussion so far, it was stated that the gain when changing the frame time according to the change of the time correlation value q needs to be set to an appropriate value. Here, it should be noted that the appropriate gain range depends on the amplitude of the modulated illumination component originating from the illumination device 11 in the light irradiated to the image sensor 13. Even if the phase difference between f (t) and g (t) is the same, if the amplitude is large, a relatively large change occurs in the frame time, which may make the operation unstable. In order to avoid this, it is necessary to reduce the gain so as to cancel the effect of the amplitude.

ところが、撮像素子13へ照射される変調照明成分の振幅は、視野内の反射率分布や照明装置11の配置などにも依存するため、事前に見積もるのは難しく、また時間とともに変化し得る。そのような場合は、ゲインの事前設定が困難であり、従って安定動作をさせることが困難となる。これが問題となる場合に対応するためには、変調振幅をオンラインで推定し、その値によってゲインを正規化する手段が必要である。   However, the amplitude of the modulated illumination component irradiated to the image sensor 13 depends on the reflectance distribution in the field of view, the arrangement of the illumination device 11, and the like, so it is difficult to estimate in advance and can change with time. In such a case, it is difficult to set the gain in advance, and thus it is difficult to perform stable operation. In order to cope with the case where this becomes a problem, a means for estimating the modulation amplitude online and normalizing the gain by the value is required.

この正規化を実現する本実施形態の第2の態様では、照明装置11をデューティ比1:1 の矩形波で強度変調し、撮像素子13の基本フレーム時間を照明装置11の変調周期の4分の1 とする。撮像素子13のフレームごとに定められた値を取る第1の時間関数として、図8に示すように、各フレームに時間順に与えられた連番を4で除した際の剰余が0のフレームではg1(t) = 1、2のフレームではg1(t) = -1、1または3のフレームではg1(t) = 0 となる関数g1(t)と、同じく連番を4で除した際の剰余が1のフレームではg2(t) = 1、3のフレームではg2(t) = -1、0または2のフレームではg2(t) = 0となる関数g2(t)の2つを考える。 In the second aspect of the present embodiment that realizes this normalization, the intensity of the illumination device 11 is modulated with a rectangular wave having a duty ratio of 1: 1, and the basic frame time of the image sensor 13 is set to 4 minutes of the modulation period of the illumination device 11. 1 of As a first time function that takes a value determined for each frame of the image sensor 13, as shown in FIG. 8, in a frame in which the remainder when dividing the sequential number given to each frame in time order by 4 is 0 g 1 and (t) = 1, 2 in the frame g 1 (t) = -1,1 or g 1 (t) = 0 and becomes function g 1 is 3 frames (t), similarly the sequential number 4 divided by g 2 in the remainder is 1 frame time (t) = a 1, 3 of the frame g 2 (t) = -1, 0, or the second frame g 2 (t) = 0 and becomes a function g 2 ( Consider two of t).

これらg1(t)およびg2(t)のそれぞれについて、本実施形態の第1の態様と同様に、f(t)との時間相関を計算する。f(t)とg1(t)との時間相関をq1(φ)、f(t)とg2(t)との時間相関をq2(φ)と表す。いま撮像素子13のフレーム時間の全期間にわたって光強度が積分されるとしたとき、f(t)とg1(t)との位相差φに応じて、q1(φ)とq2(φ)とがそれぞれどのように変化するかを、図9に示す。ここで、位相差φは、g1(t) = 1 であるフレーム期間の中心時刻が、f(t) = 1 である期間の中心時刻に一致する場合を位相差0とし、これらがf(t)の1周期分だけずれている場合を位相差2πとして表した。 For each of g 1 (t) and g 2 (t), the time correlation with f (t) is calculated in the same manner as in the first aspect of the present embodiment. The time correlation between f (t) and g 1 (t) is represented as q 1 (φ), and the time correlation between f (t) and g 2 (t) is represented as q 2 (φ). Assuming that the light intensity is integrated over the entire frame time of the image sensor 13, q 1 (φ) and q 2 (φ according to the phase difference φ between f (t) and g 1 (t). FIG. 9 shows how each of these changes. Here, the phase difference φ is a phase difference of 0 when the center time of the frame period in which g 1 (t) = 1 coincides with the center time of the period in which f (t) = 1, and these are expressed as f (t The case where it is shifted by one period of t) is expressed as a phase difference 2π.

図9に示すように、現在の位相差φの値によらず、max(|q1(φ)|, |q2(φ)|) により、変調照明成分の振幅を見積もることができることがわかる。よって、本実施形態の第1の態様と同様に、q1の値によりフレーム時間を変化させ、この際のゲインを前述の通り見積もられた振幅で正規化し、安定動作をさせることが可能となる。この正規化項には、必要に応じて時間平滑化などの後処理を施してもよい。 As shown in FIG. 9, it is understood that the amplitude of the modulated illumination component can be estimated by max (| q 1 (φ) |, | q 2 (φ) |) regardless of the current phase difference φ value. . Therefore, similarly to the first aspect of the present embodiment, it is possible to change the frame time according to the value of q 1 , normalize the gain at this time with the amplitude estimated as described above, and perform stable operation. Become. This normalization term may be subjected to post-processing such as time smoothing as necessary.

以上で述べた本実施形態の第2の態様は、撮像素子13のフレーム時間の一部の期間でのみ光強度が積分される場合でも同様に動作する。この場合のq1(φ)およびq2(φ)の変化の例を、図10に示す。図10に示すように、依然として位相差φがπ/2となる点が安定平衡点であり、また、変調照明成分の振幅を同様に見積もることができることがわかる。 The second aspect of the present embodiment described above operates in the same manner even when the light intensity is integrated only during a part of the frame time of the image sensor 13. An example of changes in q 1 (φ) and q 2 (φ) in this case is shown in FIG. As shown in FIG. 10, the point where the phase difference φ is still π / 2 is the stable equilibrium point, and the amplitude of the modulated illumination component can be estimated in the same manner.

本発明の実施の形態の視覚センサ同期装置を示す構成図である。It is a block diagram which shows the visual sensor synchronizing device of embodiment of this invention. ディジタル位相同期ループ(DPLL)の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of a digital phase locked loop (DPLL). 図2に示すディジタル位相同期ループの参照信号f(t)と出力信号g(t)とを示すグラフである。3 is a graph showing a reference signal f (t) and an output signal g (t) of the digital phase locked loop shown in FIG. 図2に示すディジタル位相同期ループの参照信号f(t)・出力信号g(t)間の時間相関値q(φ)を示すグラフである。3 is a graph showing a time correlation value q (φ) between a reference signal f (t) and an output signal g (t) of the digital phase locked loop shown in FIG. 図1に示す視覚センサ同期装置の変調照明装置の参照信号f(t)と出力信号g(t)とを示すグラフである。It is a graph which shows the reference signal f (t) and output signal g (t) of the modulation | alteration illumination apparatus of the visual sensor synchronizer shown in FIG. 図1に示す視覚センサ同期装置のフレーム時間の一部の期間でのみ積分動作が行われる場合の参照信号f(t)と出力信号g(t)とを示すグラフである。3 is a graph showing a reference signal f (t) and an output signal g (t) when an integration operation is performed only during a part of the frame time of the visual sensor synchronization device shown in FIG. 図6に示す視覚センサ同期装置の参照信号f(t)・出力信号g(t)間の時間相関値q(φ)を示すグラフである。7 is a graph showing a time correlation value q (φ) between a reference signal f (t) and an output signal g (t) of the visual sensor synchronization device shown in FIG. 6. 図1に示す視覚センサ同期装置のゲインの正規化を考慮する場合の参照信号f(t)と出力信号g1(t)と出力信号g2(t)とを示すグラフである。4 is a graph showing a reference signal f (t), an output signal g 1 (t), and an output signal g 2 (t) when considering normalization of the gain of the visual sensor synchronization device shown in FIG. 図8に示す視覚センサ同期装置の参照信号f(t)・出力信号g1(t)間の時間相関値q1(φ)と、参照信号f(t)・出力信号g2(t)間の時間相関値q2(φ)とを示すグラフである。The time correlation value q 1 (φ) between the reference signal f (t) and the output signal g 1 (t) and the reference signal f (t) and the output signal g 2 (t) of the visual sensor synchronization device shown in FIG. Is a graph showing the time correlation value q 2 (φ). 図1に示す視覚センサ同期装置のゲインの正規化を考慮する場合で、フレーム時間の一部の期間でのみ積分動作が行われる場合の参照信号f(t)・出力信号g1(t)間の時間相関値q1(φ)と、参照信号f(t)・出力信号g2(t)間の時間相関値q2(φ)とを示すグラフである。When considering normalization of the gain of the visual sensor synchronizer shown in FIG. 1, between the reference signal f (t) and the output signal g 1 (t) when the integration operation is performed only in a part of the frame time. time correlation value q 1 (phi) of a graph showing the time correlation value q 2 (phi) between the reference signal f (t) · output signals g 2 (t). 従来の視覚センサの同期システムを示す構成図である。It is a block diagram which shows the synchronization system of the conventional visual sensor.

符号の説明Explanation of symbols

11 照明装置
111 発光体
112 発行制御回路
12 光学系
13 撮像素子
131 画素
14 演算制御回路
21 位相検出器
22 低域通過フィルタ
23 電圧制御発振器
DESCRIPTION OF SYMBOLS 11 Illuminating device 111 Light-emitting body 112 Issue control circuit 12 Optical system 13 Image pick-up element 131 Pixel 14 Computation control circuit 21 Phase detector 22 Low-pass filter 23 Voltage-controlled oscillator

Claims (10)

強度変調の施された照明装置と、
フレーム時間を制御し得る撮像素子と、
前記撮像素子が獲得した画像の後処理によって前記照明装置と前記撮像素子との動作の時刻ずれに係る情報を得て、この得られた情報に基づくフレーム時間のフィードバック制御によって前記時刻ずれを最小化する演算制御手段とを、
備えることを特徴とする視覚センサ同期装置。
An illumination device with intensity modulation;
An image sensor capable of controlling the frame time;
Information related to the time lag of the operation of the illumination device and the image sensor is obtained by post-processing of the image acquired by the image sensor, and the time lag is minimized by feedback control of the frame time based on the obtained information. Arithmetic control means for
A visual sensor synchronizer comprising:
前記演算制御手段は、フレームごとに定められた値を取る第1の時間関数と、各フレームの画像から計算される特徴量で構成される第2の時間関数との間の時間相関を計算することにより、前記照明装置と前記撮像素子との動作の時刻ずれに係る情報を得ることを、特徴とする請求項1記載の視覚センサ同期装置。   The arithmetic control unit calculates a time correlation between a first time function taking a value determined for each frame and a second time function composed of feature amounts calculated from an image of each frame. The visual sensor synchronizing device according to claim 1, wherein information related to a time lag in operation between the illumination device and the imaging device is obtained. 前記演算制御手段は、前記照明装置と前記撮像素子との動作の時刻ずれをフィードバック制御により最小化するために、前記時間相関の値によって前記撮像素子のフレーム時間の微小調整を行うことを、特徴とする請求項2記載の視覚センサ同期装置。   The arithmetic control means performs a fine adjustment of the frame time of the image sensor according to the value of the time correlation in order to minimize the time lag of the operation between the illumination device and the image sensor by feedback control. The visual sensor synchronization apparatus according to claim 2. 前記照明装置はデューティ比1:1の矩形波で強度変調され、
前記撮像素子は基本フレーム時間を前記照明装置の変調周期の2分の1とされており、
前記演算制御手段は、フレームごとに定められた値を取る前記第1の時間関数として、フレームによって1または-1を取る関数を用いることにより、各フレームの画像から計算される前記特徴量をフレームごとに累積加減算し、その結果を低域通過フィルタに通すことで前記時刻ずれに係る情報を得ることを、
特徴とする請求項2または3記載の視覚センサ同期装置。
The illumination device is intensity-modulated with a rectangular wave with a duty ratio of 1: 1,
The imaging device has a basic frame time of one half of the modulation period of the lighting device,
The arithmetic and control means uses the function that takes 1 or −1 depending on the frame as the first time function that takes a value determined for each frame, and thereby calculates the feature amount calculated from the image of each frame. Accumulating and subtracting every time, and obtaining the information related to the time lag by passing the result through a low-pass filter,
The visual sensor synchronizing device according to claim 2 or 3,
前記照明装置はデューティ比1:1の矩形波で強度変調され、
前記撮像素子は基本フレーム時間を前記照明装置の変調周期の4分の1とされており、
前記演算制御手段は、フレームごとに定められた値を取る前記第1の時間関数として、フレームによって 1,0,または -1 を取る関数を用いることにより、各フレームの画像から計算される前記特徴量をフレームごとに累積加減算し、その結果を低域通過フィルタに通すことで前記時刻ずれに係る情報を得るとともに、変調振幅の大きさを得て、その変調振幅の大きさにより前記時刻ずれに係る情報を正規化することを、
特徴とする請求項2または3記載の視覚センサ同期装置。
The illumination device is intensity-modulated with a rectangular wave with a duty ratio of 1: 1,
The imaging device has a basic frame time of a quarter of the modulation period of the lighting device,
The calculation control means uses the function that takes 1, 0, or −1 depending on the frame as the first time function that takes a value determined for each frame, thereby calculating the feature calculated from the image of each frame. The amount is cumulatively added / subtracted for each frame, and the result is passed through a low-pass filter to obtain information on the time lag, and the magnitude of the modulation amplitude is obtained. Normalizing such information,
The visual sensor synchronizing device according to claim 2 or 3,
強度変調の施された照明装置と、フレーム時間を制御し得る撮像素子とを有し、前記撮像素子が獲得した画像の後処理によって前記照明装置と前記撮像素子の動作の時刻ずれに係る情報を得て、この得られた情報に基づくフレーム時間のフィードバック制御によって前記時刻ずれを最小化することを、特徴とする視覚センサ同期方法。   An illumination device that has been subjected to intensity modulation and an image sensor that can control the frame time, and information relating to the time lag between the operation of the illumination device and the image sensor by post-processing of an image acquired by the image sensor. A visual sensor synchronization method characterized in that the time lag is minimized by frame time feedback control based on the obtained information. フレームごとに定められた値を取る第1の時間関数と、各フレームの画像から計算される特徴量で構成される第2の時間関数との間の時間相関を計算することにより、前記照明装置と前記撮像素子との動作の時刻ずれに係る情報を得ることを、特徴とする請求項6記載の視覚センサ同期方法。   By calculating a time correlation between a first time function taking a value determined for each frame and a second time function composed of feature amounts calculated from an image of each frame, the lighting device The method according to claim 6, further comprising: obtaining information related to a time lag of operation between the image sensor and the image sensor. 前記照明装置と前記撮像素子との動作の時刻ずれをフィードバック制御により最小化するために、前記時間相関の値によって前記撮像素子のフレーム時間の微小調整を行うことを、特徴とする請求項7記載の視覚センサ同期方法。   8. The frame time of the image sensor is finely adjusted according to the value of the time correlation in order to minimize a time lag of operation between the illumination device and the image sensor by feedback control. Visual sensor synchronization method. 前記照明装置をデューティ比1:1の矩形波で強度変調し、前記撮像素子の基本フレーム時間を照明の変調周期の2分の1とし、フレームごとに定められた値を取る前記第1の時間関数として、フレームによって1または-1を取る関数を用いることにより、各フレームの画像から計算される前記特徴量をフレームごとに累積加減算し、その結果を低域通過フィルタに通すことで前記時刻ずれに係る情報を得ることを、特徴とする請求項7または8記載の視覚センサ同期方法。   The illumination apparatus is intensity-modulated with a rectangular wave having a duty ratio of 1: 1, the basic frame time of the image sensor is set to a half of the modulation period of illumination, and the first time taking a value determined for each frame By using a function that takes 1 or -1 depending on the frame as a function, the feature amount calculated from the image of each frame is cumulatively added and subtracted for each frame, and the result is passed through a low-pass filter to thereby shift the time difference. 9. The visual sensor synchronization method according to claim 7 or 8, characterized in that information relating to (1) is obtained. 前記照明装置をデューティ比1:1の矩形波で強度変調し、前記撮像素子の基本フレーム時間を前記照明装置の変調周期の4分の1とし、フレームごとに定められた値を取る前記第1の時間関数として、フレームによって 1,0,または -1 を取る関数を用いることにより、各フレームの画像から計算される前記特徴量をフレームごとに累積加減算し、その結果を低域通過フィルタに通すことで前記時刻ずれに係る情報を得るとともに、変調振幅の大きさを得て、その変調振幅の大きさにより前記時刻ずれに係る情報を正規化することを、特徴とする請求項7または8記載の視覚センサ同期方法。
The intensity of the illuminating device is modulated with a rectangular wave having a duty ratio of 1: 1, the basic frame time of the imaging device is set to a quarter of the modulation period of the illuminating device, and the first value taking a value determined for each frame is taken. By using a function that takes 1, 0, or -1 depending on the frame as the time function of the above, the feature amount calculated from the image of each frame is cumulatively added and subtracted for each frame, and the result is passed through a low-pass filter. The information related to the time lag is obtained, the magnitude of the modulation amplitude is obtained, and the information related to the time lag is normalized by the magnitude of the modulation amplitude. Visual sensor synchronization method.
JP2008307855A 2008-12-02 2008-12-02 Visual sensor synchronization apparatus and visual sensor synchronization method Active JP5213045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008307855A JP5213045B2 (en) 2008-12-02 2008-12-02 Visual sensor synchronization apparatus and visual sensor synchronization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008307855A JP5213045B2 (en) 2008-12-02 2008-12-02 Visual sensor synchronization apparatus and visual sensor synchronization method

Publications (2)

Publication Number Publication Date
JP2010135926A true JP2010135926A (en) 2010-06-17
JP5213045B2 JP5213045B2 (en) 2013-06-19

Family

ID=42346791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008307855A Active JP5213045B2 (en) 2008-12-02 2008-12-02 Visual sensor synchronization apparatus and visual sensor synchronization method

Country Status (1)

Country Link
JP (1) JP5213045B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094115A1 (en) * 2011-12-19 2013-06-27 日本電気株式会社 Time synchronization information computation device, time synchronization information computation method and time synchronization information computation program
WO2013104060A1 (en) * 2012-01-11 2013-07-18 Smart Technologies Ulc Interactive input system and method
JP2014155213A (en) * 2013-02-14 2014-08-25 Casio Comput Co Ltd Camera, photographing control program and photographing control method, and camera system
US10205867B2 (en) 2014-06-30 2019-02-12 Panasonic Intellectual Property Management Co., Ltd. Image photographing method performed with terminal device having camera function
CN114338951A (en) * 2021-12-30 2022-04-12 智道网联科技(北京)有限公司 Sensor synchronization method, device and system and vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EE05781B1 (en) 2014-12-18 2016-10-17 Tallinna Tehnikaülikool Method and device for acquiring stream of the precisely time-stamped images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004107739A1 (en) * 2003-05-29 2004-12-09 Matsushita Electric Industrial Co., Ltd. Imaging device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004107739A1 (en) * 2003-05-29 2004-12-09 Matsushita Electric Industrial Co., Ltd. Imaging device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094115A1 (en) * 2011-12-19 2013-06-27 日本電気株式会社 Time synchronization information computation device, time synchronization information computation method and time synchronization information computation program
US9210300B2 (en) 2011-12-19 2015-12-08 Nec Corporation Time synchronization information computation device for synchronizing a plurality of videos, time synchronization information computation method for synchronizing a plurality of videos and time synchronization information computation program for synchronizing a plurality of videos
WO2013104060A1 (en) * 2012-01-11 2013-07-18 Smart Technologies Ulc Interactive input system and method
US9582119B2 (en) 2012-01-11 2017-02-28 Smart Technologies Ulc Interactive input system and method
JP2014155213A (en) * 2013-02-14 2014-08-25 Casio Comput Co Ltd Camera, photographing control program and photographing control method, and camera system
US10205867B2 (en) 2014-06-30 2019-02-12 Panasonic Intellectual Property Management Co., Ltd. Image photographing method performed with terminal device having camera function
US10602047B2 (en) 2014-06-30 2020-03-24 Panasonic Intellectual Property Management Co., Ltd. Image photographing method performed with terminal device having camera function
CN114338951A (en) * 2021-12-30 2022-04-12 智道网联科技(北京)有限公司 Sensor synchronization method, device and system and vehicle

Also Published As

Publication number Publication date
JP5213045B2 (en) 2013-06-19

Similar Documents

Publication Publication Date Title
JP5213045B2 (en) Visual sensor synchronization apparatus and visual sensor synchronization method
JP6132510B2 (en) 3D video acquisition device and depth information calculation method in 3D video acquisition device
US11067675B2 (en) Time of flight imaging apparatuses and a method for adjusting a reference frequency
US10928518B2 (en) Range image generation apparatus and range image generation method
KR101180618B1 (en) Flicker correction method adn device, and imaging device
US9294754B2 (en) High dynamic range and depth of field depth camera
US7639285B2 (en) Flicker reduction method, flicker reduction circuit and image pickup apparatus
US20130148102A1 (en) Method to Compensate for Errors in Time-of-Flight Range Cameras Caused by Multiple Reflections
JP3801616B2 (en) Imaging device
RU2655256C1 (en) Device for detection of a traffic light and method of detecting a traffic light
JP7202156B2 (en) Information processing apparatus, information processing system, position and orientation acquisition device, and device information acquisition method
KR102490335B1 (en) A method for binning time-of-flight data
US20210248719A1 (en) Image processing device and image processing method
KR20160026189A (en) Method and apparatus for generating depth image
JP2006303815A (en) Flicker correction method, flicker correction apparatus, and imaging apparatus
US20150035949A1 (en) Method for synchronising several cameras with each other in a photographic system, in particular a stereoscopic photographic system, and photographic system for implementing said method
JP2009017167A (en) Image processor, image processing method and imaging device
JP7319311B2 (en) Time-of-flight vision camera optimized for multi-camera environments
KR102596053B1 (en) Image processing apparatus and image processing method
WO2016021038A1 (en) Traffic signal detection device and traffic signal detection method
EP1445732A3 (en) Formation of three-dimensional video sequences with a scannerless range imaging system
JP2005351984A (en) Blur correcting device and camera system
US11287528B2 (en) Method and apparatus for determining relative motion between a time-of-flight camera and an object in a scene sensed by the time-of-flight camera
JP6301968B2 (en) Image generating method and linear sensor camera
EP3430472A1 (en) Methods of producing video images that are independent of the background lighting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20111115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130220

R150 Certificate of patent or registration of utility model

Ref document number: 5213045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250