JP2022029717A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2022029717A
JP2022029717A JP2020133157A JP2020133157A JP2022029717A JP 2022029717 A JP2022029717 A JP 2022029717A JP 2020133157 A JP2020133157 A JP 2020133157A JP 2020133157 A JP2020133157 A JP 2020133157A JP 2022029717 A JP2022029717 A JP 2022029717A
Authority
JP
Japan
Prior art keywords
information
moving object
pixel
moving body
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020133157A
Other languages
Japanese (ja)
Inventor
弘一 関根
Koichi Sekine
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SE Tech Co Ltd
Original Assignee
SE Tech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SE Tech Co Ltd filed Critical SE Tech Co Ltd
Priority to JP2020133157A priority Critical patent/JP2022029717A/en
Publication of JP2022029717A publication Critical patent/JP2022029717A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an imaging device that is an imaging camera or a solid-state imaging device which performs information output having little information amounts concerning a moving object, without outputting imaging information to the outside.SOLUTION: An imaging camera 1 generates a differential signal for pixel signals at different imaging times which are outputted from a solid-state imaging device 3; makes a movement-contour extracting part 4 extract information on a contour of a moving object on the basis of the differential signal; makes a movement-information extracting part 5 extract information on the moving object (a size, a framework point and a feature point) and movement information (a direction and a speed of movement) on the basis of the information on the contour; and makes an information output part 6 unite and output the movement information.EFFECT: The imaging camera can reduce considerable information amounts in comparison with image information, by outputting numerical information concerning movements that are not linked to pixel positions, unlike a standard imaging camera and a standard solid-state imaging device which output images linked to pixel positions. This can reduce calculation loads, so that calculation can be completed in parallel with reading-out of a pixel scanning line and the solid-state imaging device 3 can output the image directly.SELECTED DRAWING: Figure 1

Description

本発明は、撮像することで取得した動き物体のサイズ、動きの方向、速度、位置のような画像情報を抽出し、出力する撮像装置に関する。
The present invention relates to an imaging device that extracts and outputs image information such as the size, direction, speed, and position of a moving object acquired by imaging.

固体撮像装置や、それを用いた撮像カメラの様な撮像装置では、画像表示をするために、毎秒30枚程度のフレーム画像を出力するのが一般的である。フレーム画像とは撮像した画像のことで、液晶パネルなどの表示装置に時系列的に表示される。固体撮像装置とはCMOSエリアセンサ、CCDエリアセンサの様にエリア状に配置された光電変換部(以下画素と称す)で生成した電荷は、出力回路部で電圧に変換され、そのまま、若しくは色信号処理されて時系列的に固体撮像装置より出力される。 In a solid-state image sensor or an image pickup device such as an image pickup camera using the same, it is common to output about 30 frame images per second in order to display an image. A frame image is an image captured and is displayed in time series on a display device such as a liquid crystal panel. What is a solid-state image sensor? Charges generated by photoelectric conversion units (hereinafter referred to as pixels) arranged in an area like CMOS area sensors and CCD area sensors are converted to voltage by the output circuit unit and either as they are or as color signals. It is processed and output from the solid-state image sensor in chronological order.

固体撮像装置より出力された画像情報は撮像カメラ内で画像処理されて、手振れ補正や色補正、露光補正、輪郭強調等の各種の画像補正をしたりして、撮像カメラより画像信号を出力する。撮像カメラには単なる画像信号を出力する以外に、動き輪郭表示や、動き検知、動き追尾、自動ズームといった付加機能を付けた高機能な撮像カメラも提供されている。 The image information output from the solid-state image pickup device is image-processed in the image pickup camera, and various image corrections such as camera shake correction, color correction, exposure correction, and contour enhancement are performed, and the image signal is output from the image pickup camera. .. In addition to simply outputting image signals, high-performance imaging cameras with additional functions such as motion contour display, motion detection, motion tracking, and automatic zoom are also provided for the imaging camera.

固体撮像装置から出力される画像や、撮像カメラから出力される画像は、表示装置に表示したり、記録装置に録画したりされる。録画された画像情報は必要に応じ表示装置に表示される。表示装置としては、TVモニタや、液晶モニタの様に縦横の表示画素数が決まっている。固体撮像装置や撮像カメラから出力される画像は、この表示装置の画素に対応して表示される。固体撮像装置や、撮像カメラから出力される画像は、水平走査線に沿って時系列的に出力され、表示装置の走査線に対応して所定位置の画素に対応して表示される。 The image output from the solid-state image sensor and the image output from the image pickup camera are displayed on the display device or recorded on the recording device. The recorded image information is displayed on the display device as needed. As a display device, the number of vertical and horizontal display pixels is fixed like a TV monitor or a liquid crystal monitor. The image output from the solid-state image sensor or the image sensor is displayed corresponding to the pixels of this display device. The images output from the solid-state image sensor and the image pickup camera are output in chronological order along the horizontal scanning lines, and are displayed corresponding to the pixels at a predetermined position corresponding to the scanning lines of the display device.

固体撮像装置や撮像カメラの様な撮像装置から出力される映像信号は、水平走査線に沿って映像情報が時系列的に並び、隣接する水平走査線間に水平ブランキング期間が設けられ、1フレームの走査線終了後に次のフレームの走査線が始まるまでの間には、垂直ブランキング期間が設けられている。映像信号には同期信号が含まれ、表示側ではこの同期信号を使い映像表示を行う事で、カメラに同期した映像を歪みなく表示することが出来る。記録装置に録画する場合でも、この同期信号を基に表示装置に画像が正常に表示される。固体撮像装置の画素位置に対応した画像が、表示装置の画素位置に対応した再生画像として表示されることから、以下の説明では本願との違いを明確にするために便宜上、こうした従来の撮像装置の画像を画素位置リンク画像と表現することにする。 In the video signal output from an image pickup device such as a solid-state image pickup device or an image pickup camera, video information is arranged in chronological order along the horizontal scan lines, and a horizontal blanking period is provided between adjacent horizontal scan lines. A vertical blanking period is provided between the end of the scanning line of a frame and the start of the scanning line of the next frame. The video signal includes a synchronization signal, and by displaying the video using this synchronization signal on the display side, the video synchronized with the camera can be displayed without distortion. Even when recording on a recording device, the image is normally displayed on the display device based on this synchronization signal. Since the image corresponding to the pixel position of the solid-state image sensor is displayed as the reproduced image corresponding to the pixel position of the display device, in the following description, for convenience in order to clarify the difference from the present application, such a conventional image pickup device is used. The image of is expressed as a pixel position link image.

カラー固体撮像装置では色の3原色の赤(R)、緑(G)、青(B)の画素より、そのまま出力させる場合と、輝度信号、色信号を出力させる場合があるが、後者でも画素ブロック(ベイヤー配置では2×2画素)の位置に対応して色信号が出力され、画像は画素位置に対応する。この場合でも画素位置リンク画像と呼ぶ。カメラ内部でもっている同期信号を使用せず、外部で生成した同期信号をカメラに入力し、カメラのタイミングをこれに合わせる外部同期の場合でも、同じく画素位置リンク画像と表現する。 In a color solid-state imager, there are cases where the pixels of the three primary colors red (R), green (G), and blue (B) are output as they are, and there are cases where a brightness signal and a color signal are output. A color signal is output corresponding to the position of the block (2 × 2 pixels in the Bayer arrangement), and the image corresponds to the pixel position. Even in this case, it is called a pixel position link image. Even in the case of external synchronization in which the synchronization signal generated externally is input to the camera and the timing of the camera is adjusted to this without using the synchronization signal held inside the camera, it is also expressed as a pixel position link image.

固体撮像装置は単に映像を撮像するだけでなく、この固体撮像装置の撮像画面上で被写体の動きを検出することがある。この様な撮像画面上の映像の動きを検出する方法としては、前後のフレーム間の同一画素単位での信号出力を比較して動きを検出する方法が一般的であるが、特許文献1に示すように、隣接画素を一対の組として積分時間を変え、ゲインを調整して差分信号出力により動きを検出する方法がある。また特許文献2に示すように、感度の異なる隣接画素を一対の組として積分時間を変え、差分信号出力により動きを検出する方法もある。 The solid-state image sensor not only captures an image, but may also detect the movement of a subject on the image pickup screen of the solid-state image sensor. As a method for detecting the movement of an image on such an image pickup screen, a method of detecting the movement by comparing the signal outputs of the same pixel units between the previous and next frames is common, and is shown in Patent Document 1. As described above, there is a method in which adjacent pixels are paired, the integration time is changed, the gain is adjusted, and the motion is detected by the difference signal output. Further, as shown in Patent Document 2, there is also a method in which adjacent pixels having different sensitivities are set as a pair, the integration time is changed, and the motion is detected by the difference signal output.

後者の特許文献2には、動き検出を判定する差分信号を直接出力し、動き物体(以下動体と称す)の輪郭情報のみ出力することで、画像より動体輪郭抽出する工程を省き、Human-Machine-Interfaceへの応用があることが示されている。
この動体の輪郭情報でも、動きの変化に応じて光電変換した電荷量の違いが画素で生じ、その差分を画素位置に対応して輪郭情報として出力しているので、これも画素位置リンク画像と表現する。
In the latter patent document 2, by directly outputting a difference signal for determining motion detection and outputting only contour information of a moving object (hereinafter referred to as a moving object), the step of extracting the contour of the moving object from the image is omitted, and Human-Machine is used. -It has been shown to have applications to Interface.
Even in the contour information of this moving object, a difference in the amount of charge photoelectrically converted according to the change in motion occurs in the pixel, and the difference is output as contour information corresponding to the pixel position, so this is also a pixel position link image. Express.

特許文献3には動き検出の結果を基に、後段システムの電源のON/OFF制御をすることで、システムの消費電力を減らす概念や、固体撮像装置から出力される画像信号を制御し、情報量を減らす概念が示されている。特許文献2,3の動き検知の方法では、フレームメモリを使うことなく、画素差分で動き検知が可能なケースが示されている。この場合の動き輪郭画像も画素位置リンク画像である。
フレームメモリを用いて動き検知を行う場合には、現在の画素出力と前のフレームの画素出力の対応位置どうしの画素出力差分より輪郭画像を取得する。この場合でも動きの輪郭画像は、フレーム間で変化が有った画素位置に対応して得られるため、画素位置リンク画像と表現できる。
Patent Document 3 describes the concept of reducing the power consumption of the system by controlling the power ON / OFF of the subsequent system based on the result of motion detection, and controlling the image signal output from the solid-state imaging device for information. The concept of reducing the amount is shown. In the motion detection methods of Patent Documents 2 and 3, a case where motion detection is possible by pixel difference without using a frame memory is shown. The motion contour image in this case is also a pixel position link image.
When motion detection is performed using the frame memory, a contour image is acquired from the pixel output difference between the corresponding positions of the current pixel output and the pixel output of the previous frame. Even in this case, the contour image of the motion can be expressed as a pixel position link image because it is obtained corresponding to the pixel position where there is a change between the frames.

特許文献4には動画像中に存在する動体の輪郭曲線と動きベクトル推定方法、輪郭曲線上の特徴点の取得方法が示されている。また特許文献5には撮影装置で撮影された1フレームの画像から所定の特徴を表する特徴点を抽出し、時間的に後のフレームの画像の前記特徴点の近傍領域より特徴点を抽出し、両者の特徴点より動きベクトルを少ない演算量で抽出する方法が示されている。 Patent Document 4 discloses a contour curve and a motion vector estimation method of a moving body existing in a moving image, and a method of acquiring feature points on the contour curve. Further, in Patent Document 5, feature points representing a predetermined feature are extracted from an image of one frame taken by a photographing device, and feature points are extracted from a region near the feature points of an image of a later frame in time. , A method of extracting a motion vector from both feature points with a smaller amount of calculation is shown.

特許文献4や特許文献5では、カメラから出力された画像を入力信号として取り込んだ後に、動き輪郭情報、動きベクトル情報、特徴点情報を画像処理装置で取得するブロック図やフローチャートが示されている。これらは共に、カメラからは画素位置リンク画像が出力されており、この画像情報を基に画像信号処理をしている。具体的には特許文献4では輪郭画像は画素位置リンク画像であり、輪郭画像に沿って取得した微小区間の屈曲角の最大の点を特徴点としているので、やはり特徴点も画素位置リンク画像である。また特許文献5でも特徴点はパターンエッジの交点や、曲率が極大となる曲線上の点としており、やはり特徴点は画素位置リンク画像である。
画像処理ブロックで所要の情報を抽出する他の応用事例も、カメラからの画像情報を入力として使用するため、同様に画素位置リンクされた画像を経由している。即ち撮像装置(固体撮像装置や撮像カメラ)から出力された画素位置リンクされた画像を基に演算処理しており、演算した結果も画素位置リンクされた画像として表示される。
Patent Document 4 and Patent Document 5 show block diagrams and flowcharts in which an image output from a camera is captured as an input signal, and then motion contour information, motion vector information, and feature point information are acquired by an image processing device. .. In both cases, a pixel position link image is output from the camera, and image signal processing is performed based on this image information. Specifically, in Patent Document 4, the contour image is a pixel position link image, and the feature point is the maximum point of the bending angle of the minute section acquired along the contour image. Therefore, the feature point is also the pixel position link image. be. Further, also in Patent Document 5, the feature points are the intersections of the pattern edges and the points on the curve where the curvature is maximized, and the feature points are also pixel position link images.
Other application examples of extracting required information by the image processing block also use the image information from the camera as an input, so that the image is similarly linked to the pixel position. That is, the calculation processing is performed based on the pixel position-linked image output from the image pickup device (solid-state image pickup device or image pickup camera), and the calculation result is also displayed as the pixel position-linked image.

特許第3521109号Patent No. 3521109 特許第5646421号Patent No. 5646421 特許第5604700号Patent No. 5604700 特許第3674084号Patent No. 3674084 特許第6624841号Patent No. 6624841

従来の画像情報処理方法では、固体撮像装置や撮像カメラから画素位置リンクした画像情報を出力させ、後段にある画像処理ブロックで、この画像情報を入力として使用して、動き輪郭情報、動きベクトル情報、特徴点情報を演算し、画素位置に対応して出力していた。 In the conventional image information processing method, image information linked to pixel positions is output from a solid-state image pickup device or an image pickup camera, and this image information is used as an input in an image processing block in the subsequent stage to perform motion contour information and motion vector information. , The feature point information was calculated and output corresponding to the pixel position.

画素位置リンクした画像(通常のカメラ出力画像)の情報量としては、固体撮像装置の画素数×画素当たりの情報量、で決まる情報量がベースになる。通常画素数は200万~800万画素で、画素当たりの情報量は8bit=1バイトとして、単純に1フレーム当たり2~8メガバイトの情報量となる。スマホの静止画の情報量としては数メガバイト/画面となってしまう。スマホの動画では解像度を落とすものの、それでも数百メガバイト/分となる。このように後段の画像処理ブロックにてリアルタイムで動画を演算しようとすると、超高速演算処理が必要になり、消費電力も数十ワット程度になる。このためバッテリー駆動が実用的でなく、システムも大きなものになっていた。 The amount of information in a pixel position-linked image (normal camera output image) is based on the amount of information determined by the number of pixels of the solid-state imaging device x the amount of information per pixel. Normally, the number of pixels is 2 million to 8 million pixels, and the amount of information per pixel is 8 bits = 1 byte, and the amount of information is simply 2 to 8 megabytes per frame. The amount of information on a still image on a smartphone is several megabytes / screen. Although the resolution is reduced for smartphone videos, it is still several hundred megabytes / minute. In this way, when trying to calculate a moving image in real time with the image processing block in the subsequent stage, ultra-high-speed calculation processing is required, and the power consumption is about several tens of watts. For this reason, battery drive was not practical, and the system was also large.

特許文献2には光電変換期間の異なるペア画素の差分より動体の輪郭画像を出力する固体撮像装置が示されている。この画素数を200万画素とし、差分を取った輪郭画像(100万画素)を2値化しても、輪郭画像の1フレーム当たりの情報量は1bit/画素×100万画素/8bit=125キロバイトとなる。この2値化された輪郭画像情報も、各画素ペアの差分出力なので画素位置リンク画像である。 Patent Document 2 discloses a solid-state image pickup device that outputs a contour image of a moving object from the difference between pairs of pixels having different photoelectric conversion periods. Even if the number of pixels is 2 million pixels and the contour image (1 million pixels) with the difference is binarized, the amount of information per frame of the contour image is 1 bit / pixel x 1 million pixels / 8 bits = 125 kilobytes. Become. This binarized contour image information is also a pixel position link image because it is a difference output of each pixel pair.

後段の画像処理ブロックにてリアルタイムで動画を演算する消費電力が大きいために、設置場所に制約が有り、画素位置リンクした画像を取得するカメラをバッテリー駆動として設置場所の制約を無くしても、カメラと画像処理ブロック間はケーブルで結合するか、Wifiを経由して画像情報を送付する必要があった。前者ではケーブル長、後者ではWifiの伝送容量を考慮し情報量を抑える必要があった。 Since the power consumption for calculating moving images in real time in the image processing block in the subsequent stage is large, there are restrictions on the installation location, and even if the camera that acquires the image linked to the pixel position is battery-powered and the restrictions on the installation location are removed, the camera It was necessary to connect the image processing block with a cable or send the image information via Wifi. In the former case, it was necessary to reduce the amount of information in consideration of the cable length and in the latter case, the transmission capacity of Wifi.

本発明の目的は、撮像装置である固体撮像装置や撮像カメラより、画素位置リンクしない動体の画像情報(動体の形、動き方向、速度、位置)を直接出力することで、後段で処理する情報量を大幅に減らし、演算負荷を大幅に軽減した撮像装置を提供することにある。
An object of the present invention is to directly output image information (shape, direction of movement, speed, position) of a moving object that is not linked to pixel positions from a solid-state imaging device or an image pickup camera, which is an image pickup device, so that information to be processed in a subsequent stage can be obtained. It is an object of the present invention to provide an image pickup apparatus in which the amount is significantly reduced and the calculation load is significantly reduced.

上記課題を解決するため、固体撮像装置や撮像カメラからは動体の必要な画像情報を必要な時刻とリンクして出力する。動体の必要な画像情報とは、動体の形、動きの方向、速度、位置に関する情報である。また必要な時刻というのは、必要な画像情報がリンクされるべき時刻情報のことである。必要な画像情報は固体撮像装置の画素位置とは直接リンクしないので、画素位置非リンク画像と呼び、従来の撮像装置(固体撮像装置や撮像カメラ)からの画素位置リンク画像とは区別して表現する。 In order to solve the above problems, the solid-state image sensor or the image pickup camera outputs the necessary image information of the moving object by linking it with the necessary time. The necessary image information of the moving body is information on the shape, the direction of movement, the speed, and the position of the moving body. The required time is the time information to which the required image information should be linked. Since the necessary image information is not directly linked to the pixel position of the solid-state image sensor, it is called a pixel position non-link image and is expressed separately from the pixel position-linked image from a conventional image sensor (solid-state image sensor or image sensor). ..

画素位置リンク画像、画素位置非リンク画像という表現は、一般的な表現でなく今回初めて使用するためにもう少し説明を追加する。
簡単な例として100×100画素の固体撮像装置で説明すると、この固体撮像装置からは1フレームに相当する1万画素の画像情報が時系列的に出力される。1フレーム画像の先頭には同期パルスが有り、同期パルスからの時間遅延量で、どの位置の画素の信号が出ているかが分かる。この固体撮像装置を用いた撮像カメラでも同様で、同期パルスからの時間遅延量で、どの位置の画素の映像信号が出ているかが分かる。このように従来の撮像装置(固体撮像装置や撮像カメラ)では画素位置に対応した映像情報が時系列的に紐付けされる。これを画素位置リンク画像と称している。
The expressions of pixel position linked image and pixel position non-linked image are not general expressions, and a little more explanation will be added for the first use this time.
As a simple example, a 100 × 100 pixel solid-state image sensor will be described. From this solid-state image sensor, image information of 10,000 pixels corresponding to one frame is output in chronological order. There is a synchronization pulse at the beginning of the 1-frame image, and the amount of time delay from the synchronization pulse indicates which pixel signal is output. The same applies to an image pickup camera using this solid-state image sensor, and the amount of time delay from the synchronization pulse indicates which position the image signal of the pixel is output. In this way, in the conventional image pickup device (solid-state image pickup device or image pickup camera), the image information corresponding to the pixel position is linked in chronological order. This is called a pixel position link image.

一方、本発明では動体に着目し、動体の位置や形、動きの方向、速度が動体の出力情報である。動体の位置は動体の代表点で示されており、これは画素位置に対応したものでなく、代表点を表示する際のX,Yの座標情報である。また動体のサイズや動きの方向、速度は数値データで画素位置とはリンクしない。また時刻情報も、何枚目のフレーム画像かが分かれば良く、画素位置に対応していないので、同期パルスからの時間遅延量は意味がない。即ち各動体の上記アイテムの数値データが出力されれば良い。これを画素位置非リンク画像と称す。従来例対比のために画像という表現を使ったが、実施には動体の画像を基に得られた数値情報である。 On the other hand, in the present invention, attention is paid to a moving body, and the position and shape of the moving body, the direction of movement, and the velocity are the output information of the moving body. The position of the moving body is indicated by the representative point of the moving body, which does not correspond to the pixel position but is the coordinate information of X and Y when displaying the representative point. In addition, the size, direction, and speed of the moving object are numerical data and are not linked to the pixel position. Also, since the time information only needs to know the number of frame images and does not correspond to the pixel position, the amount of time delay from the synchronization pulse is meaningless. That is, it suffices if the numerical data of the above items of each moving object is output. This is called a pixel position non-link image. The expression "image" was used for comparison with the conventional example, but the numerical information obtained based on the image of the moving object is used for implementation.

動体の必要な画像情報のうち、動体の形と位置に関する情報に付き更に説明をすると、動体の形として輪郭情報にすると、画素位置リンク画像になり情報量が多いままである。この課題を解決するために、動体の形を正確に表現することなく骨格でラフに表現する。この骨格情報を取得するためには動体の輪郭を基に動体の内部の少数の代表ポイント(以降の説明では骨格点と称す)を抽出し、その骨格点を結んだ線群(骨格パターンと称す)で動体形状を表現する。ここで言う代表ポイントとは、骨格パターンの端部、屈曲部、分岐部、中央部のような骨格パターンを代表する骨格点のことである。更に一つの動体の骨格点の内、動体の動きを代表する点を特徴点と呼び、特徴点の座標で動体の代表位置を表現する。動体の動きの方向及び速度はこの特徴点の動きの方向と速度とする。 Among the necessary image information of the moving body, the information on the shape and position of the moving body will be further explained. If the contour information is used as the shape of the moving body, the pixel position link image is obtained and the amount of information remains large. In order to solve this problem, the shape of the moving body is not accurately expressed but is roughly expressed by the skeleton. In order to acquire this skeleton information, a small number of representative points inside the moving body (referred to as skeletal points in the following description) are extracted based on the contour of the moving body, and a line group connecting the skeletal points (referred to as a skeletal pattern). ) Expresses the shape of the moving object. The representative point referred to here is a skeleton point representing a skeleton pattern such as an end portion, a bending portion, a branch portion, and a central portion of the skeleton pattern. Further, among the skeleton points of one moving body, the points representing the movement of the moving body are called feature points, and the representative position of the moving body is expressed by the coordinates of the feature points. The direction and speed of movement of the moving object shall be the direction and speed of movement of this feature point.

このように本提案では、撮像画像の内、静止画像は扱わず、動体のみ扱う。更に動体形状を骨格パターン(複数の骨格点)で表現し、特徴点の座標、速度、方向で動体を扱うことで情報量が大幅に低減する。この際に骨格パターンを構成する骨格点と特徴点は、動き輪郭画像を基に演算し求めており、画素位置非リンク画像である。骨格パターン、特徴点を画像表示しないで、骨格パターンを構成する骨格点の座標、特徴点の座標で扱うと、それぞれのX,Y座標で数値情報である。動体の形状を骨格パターンでなくサイズで表現しても、また動体の速度、方向も、特徴点に付随した数値情報である。即ち、動体の必要な画像情報とは数値情報であり、以降、動体の数値情報、画素位置非リンク数値情報と称す。 As described above, in the present proposal, among the captured images, the still images are not dealt with, but only the moving objects are dealt with. Furthermore, the amount of information is greatly reduced by expressing the shape of the moving object with a skeleton pattern (multiple skeleton points) and handling the moving object in the coordinates, velocity, and direction of the feature points. At this time, the skeleton points and feature points constituting the skeleton pattern are calculated and obtained based on the motion contour image, and are pixel position non-link images. If the skeleton pattern and the feature points are not displayed as an image and are treated by the coordinates of the skeleton points and the coordinates of the feature points constituting the skeleton pattern, the numerical information is obtained by the respective X and Y coordinates. Even if the shape of the moving body is expressed by the size instead of the skeleton pattern, the velocity and direction of the moving body are also numerical information attached to the feature points. That is, the necessary image information of the moving body is numerical information, and hereinafter referred to as numerical information of the moving body and pixel position non-link numerical information.

従来撮像装置(固体撮像装置、撮像カメラ)では、画素位置に対応した明暗情報(輝度信号)と、色情報(色信号)、即ち画素位置にリンクした画像情報を出力している。一方、本提案の撮像装置(固体撮像装置、撮像カメラ)では、画素位置に対応することなく動体の骨格点の座標、特徴点の座標、特徴点の動きの方向、速度の数値情報しか出さない。これは画素位置非リンク数値情報である。 Conventional image pickup devices (solid-state image pickup devices, image pickup cameras) output light / dark information (brightness signal) corresponding to pixel positions and color information (color signals), that is, image information linked to pixel positions. On the other hand, in the image pickup device (solid-state image pickup device, image pickup camera) of the present proposal, only numerical information of the coordinates of the skeleton point of the moving object, the coordinates of the feature point, the direction of movement of the feature point, and the speed is output without corresponding to the pixel position. .. This is pixel position non-link numerical information.

本提案の撮像装置(固体撮像装置、撮像カメラ)では、動体の骨格パターン、特徴点を画像表示させる場合には、固体撮像装置の映像信号にあった同期信号を用いて、表示装置に骨格パターン、特徴点を座標から表示位置を算出し表示するのが簡単である。動体の大きさ、動きの方向、速度情報は表示された特徴点の位置に線分、矢印を重畳して表示し、X、Y方向の線分長でサイズを、矢印の向きで方向、長さで速度を表示すれば良い。これは動体が頻繁に出現する場合には都合が良い。 In the image pickup device (solid-state image sensor, image pickup camera) of the present proposal, when displaying an image of a moving body skeleton pattern and feature points, a skeleton pattern is displayed on the display device by using a synchronization signal matching the video signal of the solid-state image pickup device. , It is easy to calculate and display the display position of the feature points from the coordinates. The size, direction of movement, and speed information of the moving object are displayed by superimposing a line segment and an arrow on the position of the displayed feature point, the size is indicated by the line segment length in the X and Y directions, and the direction and length are indicated by the direction of the arrow. Now just display the speed. This is convenient when moving objects appear frequently.

動体の出現頻度が少ない場合に、同期信号毎に出力ゼロの画素位置非リンク数値情報をだす際に、少ないとは言え情報、消費電力を生じるので、本提案の撮像装置(固体撮像装置、撮像カメラ)からは、動体が有った時だけ動体の画素位置非リンク数値情報を出力させるのが良い。ここで出力する情報とは、動体の骨格パターンを構成する骨格点のX,Y座標、特徴点のX,Y座標、特徴点に付随した動体のサイズ、方向、速度の数値情報である。同期信号の代わりに時刻情報としては、動体の数値データが生じたフレーム時刻情報(数値情報)をタイムスタンパーで付与する。
情報のサンプリング間隔としては、撮像視野内での動体の速度、動体の移動距離から決める。
When the frequency of appearance of moving objects is low, when the pixel position non-link numerical information with zero output is output for each synchronization signal, information and power consumption are generated, albeit small, so the image sensor of the present proposal (solid-state image sensor, image pickup) It is good to output the pixel position non-link numerical information of the moving object only when there is a moving object from the camera). The information output here is numerical information of the X and Y coordinates of the skeleton points constituting the skeleton pattern of the moving body, the X and Y coordinates of the feature points, and the size, direction, and velocity of the moving body attached to the feature points. As the time information instead of the synchronization signal, the frame time information (numerical information) in which the numerical data of the moving object is generated is given by the time stamper.
The information sampling interval is determined from the speed of the moving object in the imaging field of view and the moving distance of the moving object.

上述の時刻情報の仕方をもう少し説明すると、画素位置非リンク数値情報に必要な時刻をリンクする方法としては2種類あり、1つ目は通常の固体撮像装置や撮像カメラの同期信号を用いて、動体の数値情報とリンクさせ出力し、この同期信号を基に表示装置に動体の数値情報を表示する方法。2つ目は固体撮像装置や撮像カメラから動体の数値情報を出力する際にタイムスタンパーを付与し、時刻情報と動体の数値情報とをリンクさせて情報として出力させる方法である。
前者の場合、撮像画面に動体が無い期間にも、同期パルスは連続して出てくるが、動体の数値情報は出ない。特許文献3の様に、動き検知しその結果を基に撮像装置からの出力のON/OFF制御や後段回路のON/OFF制御を行う機能を付与すると、撮像画面に動体が無い期間では固体撮像装置や撮像カメラからは同期信号も必要画像情報も出ず、情報量、消費電力が抑制できる。
後者の場合、撮像画面に動体が無い期間は固体撮像装置や撮像カメラから情報が出てこない。動体が有る期間では、固体撮像装置や撮像カメラからは、時刻情報と動体の数値情報がセットで出力される。
To explain the method of time information described above a little more, there are two types of methods for linking the time required for pixel position non-link numerical information, and the first is to use the synchronization signal of a normal solid-state image sensor or image sensor. A method of linking with the numerical information of a moving object and outputting it, and displaying the numerical information of the moving object on a display device based on this synchronization signal. The second method is to add a time stamper when outputting numerical information of a moving object from a solid-state image sensor or an image pickup camera, and link the time information and the numerical information of the moving object to output as information.
In the former case, the synchronous pulse is continuously output even during the period when there is no moving object on the imaging screen, but the numerical information of the moving object is not output. As in Patent Document 3, if a function is added to control the ON / OFF of the output from the image sensor and the ON / OFF control of the subsequent circuit based on the motion detection, solid-state imaging is performed during the period when there is no moving object on the image pickup screen. No synchronization signal or necessary image information is output from the device or image sensor, and the amount of information and power consumption can be suppressed.
In the latter case, no information is output from the solid-state image sensor or the image pickup camera during the period when there is no moving object on the image pickup screen. During the period when there is a moving object, the time information and the numerical information of the moving object are output as a set from the solid-state image sensor or the image pickup camera.

動体の骨格パターン、特徴点につき更に説明すると、動体が単独に移動するケース;例えば道路での交通量調査(動体としては車、自転車、歩行者)と、Human-Machine-Interfaceへの応用の様に体の一部分(腕)が動くケースでは、特徴点の定義の仕方が異なる。前者の動体が単独で移動するケースでは、動体の中心点を特徴点とすれば良く、動体のどの場所でも同じ方向に同じ速度で移動するケースが一般的である。後者の様に体の一部が動くケースでは、腕の先端部分(手のひら)、中間部分(肘)、付け根部分(肩)では速度(単位時間当たりの移動量)が異なる。Human-Machine-Interfaceへの応用では、速度の最も大きい腕の先端部分の骨格点が特徴点となる。
To further explain the skeletal pattern and characteristic points of moving objects, cases where moving objects move independently; for example, traffic volume surveys on roads (cars, bicycles, pedestrians as moving objects) and applications to Human-Machine-Interface. In the case where a part of the body (arm) moves, the method of defining the feature points is different. In the former case where the moving body moves independently, the central point of the moving body may be used as a feature point, and it is common that the moving body moves in the same direction and at the same speed at any place of the moving body. In the latter case where a part of the body moves, the speed (movement amount per unit time) differs between the tip part (palm), middle part (elbow), and base part (shoulder) of the arm. In the application to Human-Machine-Interface, the skeletal point at the tip of the arm with the highest velocity is the feature point.

本発明によれば、情報量の大幅削減、および大幅な低消費電力化が同時に実現する。さらにこれら動体の数値情報の演算を走査線に沿って画素出力と並行して実施することで、演算負荷の大幅な削減を実現させる。 According to the present invention, a significant reduction in the amount of information and a significant reduction in power consumption are realized at the same time. Furthermore, by performing the calculation of the numerical information of these moving objects in parallel with the pixel output along the scanning line, the calculation load can be significantly reduced.

本発明の効果を従来と比べ定量的に説明する。従来例は上述した特許文献2に示されている光電変換期間の異なるペア画素の差分より動体の輪郭画像を出力する固体撮像装置を用い説明する。これを比較対象にしたのは従来例でも画像情報量を減らせる構成の固体撮像装置だからである。
この画素数を200万画素とし、通常モード出力の場合、画素当たりの情報量を1バイトとすると1フレーム当たり2メガバイトの情報量となる。ペア画素差分より動体の輪郭画像を出力する場合には2値化し1フレーム当たり125キロバイトと、情報量は1/20になる。双方とも画素位置リンク画像である。
The effect of the present invention will be described quantitatively as compared with the prior art. A conventional example will be described using a solid-state image pickup device that outputs a contour image of a moving object from the difference between paired pixels having different photoelectric conversion periods shown in Patent Document 2 described above. This is the comparison target because it is a solid-state image sensor having a configuration that can reduce the amount of image information even in the conventional example.
If the number of pixels is 2 million pixels and the amount of information per pixel is 1 byte in the case of normal mode output, the amount of information is 2 megabytes per frame. When outputting the contour image of a moving object from the pair pixel difference, it is binarized to 125 kilobytes per frame, and the amount of information is 1/20. Both are pixel position link images.

一方、本発明による画素位置非リンク画像情報を出力する撮像装置の場合、動体の数値情報は、動体の骨格パターンを構成する骨格点のX,Y座標、特徴点のX,Y座標、特徴点に付随した動体のサイズ、方向、速度の数値情報、時刻情報である。この情報量としては、動体の数および骨格パターンの骨格点の数によるが、単純化して動体1つ、骨格点が1つ(この場合にはこれが特徴点になる)のケースを数値ベースで次に見積もる。交通量調査では動体の骨格点は1つで、これが特徴点になる。 On the other hand, in the case of the image pickup device that outputs the pixel position non-link image information according to the present invention, the numerical information of the moving body is the X and Y coordinates of the skeleton points constituting the skeleton pattern of the moving body, the X and Y coordinates of the feature points, and the feature points. Numerical information on the size, direction, and speed of the moving object associated with, and time information. The amount of this information depends on the number of moving objects and the number of skeletal points in the skeletal pattern, but for simplification, the case of one moving object and one skeletal point (in this case, this is a feature point) is described as follows on a numerical basis. Estimate to. In the traffic volume survey, there is only one skeletal point of the moving body, which is a characteristic point.

画素数は差分後100万画素で表示のアスペクト比を16:9として、1330×750画素となるが、Bayer配列(2×2)の分解能で半分の665×375画素になり、X,Y座標は10bit(1024)×9bit(512)と、情報量は19bit/点となる。動体のサイズを人(0.5m)、自転車(2m)、自家用車(4m)、バス(16m)を5bit(32)でカバーし、動体の方向を16方向(22.5°間隔)とすれば4bitでカバーする。また動体の速度は人(2~6km/hr.)、自家用車(120km/hr.)として6bit(64)でカバーする。タイムスタンパーすべき時刻は、動体の数値データ取得間隔を1秒以上とし、データ送信を1回/時間で行うとして、3600秒を12bit(4096)でカバーする。特徴点1p、骨格点2pとすると、1動体の情報量は19(座標)×3+5(サイズ)+4(方向)+6(速度)+12(時刻)=84bit=10.5バイトとなる。上述の従来の1フレームの画像情報量2メガバイトの3×10-6、輪郭画像の情報量125キロバイトの4.8×10-5と、本発明の撮像装置からの情報量は、従来比で5~6桁小さい。これは撮像装置から出力される画像情報を後段処理回路で処理する場合、大きなメリットとなる。情報にタイムスタンパーせずに、撮像装置から出力された時刻を基にシステム上でタイムスタンプすることで時刻情報を無くし、X,Y座標点の解像度をそれぞれ6bit(64)、5bit(32)に減らし、方向は1bit(2)、速度は2bit(4)、サイズは2bit(4)にすることで、合計16bitとなり2バイトの情報量に抑制できる。更に交通量調査の車の台数だけでは、16台でカバーなら4bitの情報量で済む。 The number of pixels is 1 million pixels after the difference, and the aspect ratio of the display is 16: 9, which is 1330 x 750 pixels. Is 10 bits (1024) x 9 bits (512), and the amount of information is 19 bits / point. If the size of the moving body is covered by 5bit (32) for people (0.5m), bicycles (2m), private cars (4m), and buses (16m), and the direction of the moving body is 16 directions (22.5 ° intervals), it will be 4bit. Cover. The speed of moving objects is covered by 6bit (64) for humans (2-6km / hr.) And private cars (120km / hr.). As for the time to be time stamped, assuming that the numerical data acquisition interval of the moving object is 1 second or more and the data transmission is performed once / hour, 3600 seconds is covered by 12 bits (4096). Assuming that the feature point is 1p and the skeleton point is 2p, the amount of information of one moving object is 19 (coordinates) x 3 + 5 (size) + 4 (direction) + 6 (velocity) + 12 (time) = 84 bits = 10.5 bytes. The above-mentioned conventional 1-frame image information amount of 2 megabytes is 3 × 10 -6 , and the contour image information amount is 125 kilobytes of 4.8 × 10 -5 . 6 orders of magnitude smaller. This is a great merit when the image information output from the image pickup apparatus is processed by the post-stage processing circuit. Time information is eliminated by time stamping on the system based on the time output from the image pickup device without time stamping the information, and the resolutions of the X and Y coordinate points are set to 6bit (64) and 5bit (32), respectively. By reducing the number, the direction is 1 bit (2), the speed is 2 bit (4), and the size is 2 bit (4), the total is 16 bits, which can be suppressed to 2 bytes of information. Furthermore, if the number of vehicles in the traffic volume survey is 16 and the cover is covered, the amount of information is 4 bits.

従来の撮像カメラでは後段処理回路で様々な加工を行うため、画素位置リンク画像を出力し処理する応用分野を汎用にしているため画像情報量は大きい。一方、本発明では特定の目的(上述では動き)に限定して情報量を絞っているので汎用性はないが、撮像装置から出力される情報量を大幅に削減できる。
Since the conventional image pickup camera performs various processing in the post-stage processing circuit, the amount of image information is large because the application field for outputting and processing the pixel position link image is general-purpose. On the other hand, in the present invention, since the amount of information is limited to a specific purpose (movement in the above description), the amount of information is not versatile, but the amount of information output from the image pickup apparatus can be significantly reduced.

図1は、本発明の第1実施形態の動き情報抽出・出力システムの構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of a motion information extraction / output system according to the first embodiment of the present invention. 図2は、図1の動き輪郭抽出部の概略構成を示すブロック図。FIG. 2 is a block diagram showing a schematic configuration of the motion contour extraction unit of FIG. 図3は、図1の動き情報抽出部の概略構成を示すブロック図。FIG. 3 is a block diagram showing a schematic configuration of the motion information extraction unit of FIG. 図4は、図1の情報出力部の概略構成を示すブロック図。FIG. 4 is a block diagram showing a schematic configuration of the information output unit of FIG. 図5は、図4の情報出力部からの情報出力例と前提を説明する図。FIG. 5 is a diagram illustrating an example of information output from the information output unit of FIG. 4 and a premise. 図6は、図2内の画素差分処理部と動き輪郭判定部の概略構成を示すブロック図。FIG. 6 is a block diagram showing a schematic configuration of a pixel difference processing unit and a motion contour determination unit in FIG. 2. 図7は、図6のブロックで動き輪郭情報、画素差分符号情報を取得するプロセスの説明図。FIG. 7 is an explanatory diagram of a process of acquiring motion contour information and pixel difference code information in the block of FIG. 図8は、図6とは別方法の画素差分処理部と動き輪郭判定部の概略構成を示すブロック図。FIG. 8 is a block diagram showing a schematic configuration of a pixel difference processing unit and a motion contour determination unit, which are different methods from those in FIG. 図9は、図8の固体撮像装置の画素構成、画素出力特性、分離回路構成を説明する図。FIG. 9 is a diagram illustrating a pixel configuration, a pixel output characteristic, and a separation circuit configuration of the solid-state image sensor of FIG. 図10は、図8の固体撮像装置の別の画素構成、画素出力特性、分離回路構成の説明図。FIG. 10 is an explanatory diagram of another pixel configuration, pixel output characteristics, and separation circuit configuration of the solid-state image pickup device of FIG. 図11は、図8のブロックで動き輪郭情報、画素差分符号情報を取得するプロセス説明図。FIG. 11 is a process explanatory diagram for acquiring motion contour information and pixel difference code information in the block of FIG. 図12は、動体方向判定部の構成ブロック図と、動体方向情報を取得するプロセス説明図。FIG. 12 is a block diagram of a moving body direction determination unit and an explanatory diagram of a process for acquiring moving body direction information. 図13は、動体速度判定部の構成ブロック図と、動体速度情報を取得するプロセス説明図。FIG. 13 is a block diagram of a moving body speed determination unit and an explanatory diagram of a process for acquiring moving body speed information. 図14は、動体サイズ判定部の構成ブロック図と、動体サイズ情報取得のプロセス説明図。FIG. 14 is a block diagram of a moving body size determination unit and an explanatory diagram of a process for acquiring moving body size information. 図15は、動体骨格点判定部の構成ブロック図と、動体骨格点情報取得のプロセス説明図。FIG. 15 is a block diagram of a moving body skeleton point determination unit and an explanatory diagram of a process for acquiring moving body skeleton point information. 図16は、動体特徴点判定部の構成ブロック図と、動体特徴点情報取得のプロセス説明図。FIG. 16 is a block diagram of a moving body feature point determination unit and an explanatory diagram of a process for acquiring moving body feature point information. 図17は、別方式の動体骨格点判定部構成ブロック図と、骨格点情報取得方法の説明図。FIG. 17 is a block diagram of a moving body skeleton point determination unit of another method and an explanatory diagram of a skeleton point information acquisition method. 図18は、別方式の動体特徴点判定部構成ブロック図と、特徴点情報取得方法の説明図。FIG. 18 is a block diagram of a moving body feature point determination unit of another method and an explanatory diagram of a feature point information acquisition method. 図19は、別ケースでの動体骨格点取得方法と特徴点取得方法の説明図。FIG. 19 is an explanatory diagram of a moving body skeleton point acquisition method and a feature point acquisition method in another case. 図20は、本発明の第2実施形態の動き情報抽出・出力システムの構成を示すブロック図。FIG. 20 is a block diagram showing a configuration of a motion information extraction / output system according to a second embodiment of the present invention. 図21は、本発明の第2実施形態の固体撮像装置の概略構成を示すブロック図。FIG. 21 is a block diagram showing a schematic configuration of a solid-state image sensor according to a second embodiment of the present invention. 図22は、本発明の第2実施形態の別の固体撮像装置の概略構成を示すブロック図。FIG. 22 is a block diagram showing a schematic configuration of another solid-state image sensor according to the second embodiment of the present invention. 図23は、本発明の第2実施形態の別の固体撮像装置の概略構成の変形例のブロック図。FIG. 23 is a block diagram of a modified example of the schematic configuration of another solid-state image sensor according to the second embodiment of the present invention. 図24は、簡素化した画素差分処理部と動き輪郭判定部の概略構成を示すブロック図。FIG. 24 is a block diagram showing a schematic configuration of a simplified pixel difference processing unit and a motion contour determination unit. 図25は、図24の画素差分処理部と動き輪郭判定部の駆動方法の説明図FIG. 25 is an explanatory diagram of a driving method of the pixel difference processing unit and the motion contour determination unit of FIG. 24. 図26は、図25で動き輪郭情報を取得する方法の説明図FIG. 26 is an explanatory diagram of a method of acquiring motion contour information in FIG. 25. 図27は、図26の動き輪郭情報を用いた動き情報抽出部の概略構成を示すブロック図。FIG. 27 is a block diagram showing a schematic configuration of a motion information extraction unit using the motion contour information of FIG. 26. 図28は、図24の固体撮像装置の画素構成、画素出力特性、分離回路構成の説明図。FIG. 28 is an explanatory diagram of a pixel configuration, a pixel output characteristic, and a separation circuit configuration of the solid-state image sensor of FIG. 24.

本発明の実施形態としては、幾つかの選択ケースが可能である。その組み合わせのケースとしては、1)撮像装置としては撮像カメラ、もしくは固体撮像装置のケース。2)時刻リンクを同期信号で行うケース、もしくはタイムスタンパーで付与するケース。前者の同期信号のケースは動き検知し同期信号と必要画像情報を出さないケースに更に細分化される。3)動き検知の方法として、フレーム差分で行うケース、もしくはフレームメモリを使うことなく画素出力差分で行うケース。4)動体の必要な情報として、動体の骨格点座標、特徴点座標、動きの方向、速度とし、これらの情報の取得を、フレームメモリを用いて行うケース、もしくは画素出力と同時並行的に行うケース。5)さらに3枚以上の画像処理。
と本発明の実施形態に係る撮像装置は上記のように幾つかのケースに分かれるので、それぞれのケースで図面を参照しながら説明する。これらのケースの組み合わせもあるが、各ケース単独と、代表的な組み合わせに絞り説明を行う。
As an embodiment of the present invention, several selection cases are possible. The case of the combination is 1) the case of an image pickup camera or a solid-state image sensor as an image pickup device. 2) A case where the time link is performed by a synchronization signal, or a case where a time stamper is used. The former case of synchronization signal is further subdivided into a case where motion is detected and the synchronization signal and necessary image information are not output. 3) As a method of motion detection, there is a case where the frame difference is used, or a case where the pixel output difference is used without using the frame memory. 4) Necessary information of the moving body is the skeleton point coordinates, feature point coordinates, movement direction, and velocity of the moving body, and the acquisition of these information is performed using the frame memory or in parallel with the pixel output. Case. 5) Further image processing of 3 or more images.
Since the image pickup apparatus according to the embodiment of the present invention is divided into several cases as described above, each case will be described with reference to the drawings. There are combinations of these cases, but we will focus on each case alone and a typical combination.

以下の説明では撮像装置の実施形態1の撮像カメラ1のケースを用い、本発明の個々のブロックの構成、実施形態毎の機能、出力データにつき説明を行う。撮像装置の実施形態2としての固体撮像装置を用いるケースについては、撮像カメラ1のケースの説明が完了した後に最後に行う。
以下説明内において同一部分には同一の符号及び処理名を付し、最初にその詳細な説明をし、重複する同一部分の説明は省略する。
In the following description, the case of the image pickup camera 1 of the first embodiment of the image pickup apparatus will be used, and the configuration of individual blocks of the present invention, the functions of each embodiment, and the output data will be described. The case of using the solid-state image pickup device as the second embodiment of the image pickup device will be finally performed after the description of the case of the image pickup camera 1 is completed.
In the following description, the same parts will be given the same reference numerals and processing names, the detailed description thereof will be given first, and the duplicated explanations of the same parts will be omitted.

<撮像装置の実施形態1>
図1では、本発明の撮像装置として撮像カメラを例にとり、実施形態1に係る撮像画面より動き輪郭(動体のサイズ)情報、動きベクトル(動きの方向、速度)情報、特徴点(動体の座標)情報を抽出するための概略構成を示すブロック図を示している。
本発明の撮像カメラ1を構成するブロックは、撮像レンズ2を備えた固体撮像装置3と、動き輪郭抽出部4、動き情報抽出部5、情報出力部6及び時計7から構成されている。既存の固体撮像装置を使用した場合には固体撮像装置3からは撮像情報8が出力される。
<Embodiment 1 of the image pickup apparatus>
In FIG. 1, taking an image pickup camera as an example of the image pickup apparatus of the present invention, motion contour (size of moving object) information, motion vector (direction and speed of motion) information, and feature points (coordinates of moving object) are shown from the imaging screen according to the first embodiment. ) A block diagram showing a schematic configuration for extracting information is shown.
The block constituting the image pickup camera 1 of the present invention is composed of a solid-state image pickup device 3 provided with an image pickup lens 2, a motion contour extraction unit 4, a motion information extraction unit 5, an information output unit 6, and a clock 7. When an existing solid-state image sensor is used, image pickup information 8 is output from the solid-state image sensor 3.

図2は動き輪郭抽出部4を構成するブロックとそれらに関連する情報の流れを示した図である。動き輪郭抽出部4は、画素差分処理部9、動き輪郭判定部10、動体明暗判定部11、動き輪郭判定を行う閾値12から構成されている。情報の流れとしては、固体撮像装置1から出力された撮像情報8が画素差分処理部9に入力され、露光時刻の異なる画素間の差分演算を行い、画素差分情報34を出力する。 FIG. 2 is a diagram showing the blocks constituting the motion contour extraction unit 4 and the flow of information related to them. The motion contour extraction unit 4 is composed of a pixel difference processing unit 9, a motion contour determination unit 10, a moving object light / dark determination unit 11, and a threshold value 12 for performing motion contour determination. As a flow of information, the imaging information 8 output from the solid-state imaging device 1 is input to the pixel difference processing unit 9, the difference calculation between pixels having different exposure times is performed, and the pixel difference information 34 is output.

動き輪郭を抽出する場合、静止部分の情報を削除する必要が有り、露光時刻の異なる画素間の差分にて静止部分の出力が消去できるような露光時刻設定、アンプゲイン設定を行う必要がある。動き輪郭判定部10では閾値12を判定基準にして、画素差分情報34から動き輪郭情報14を出力させる。動き輪郭判定部10からは画素差分した際の符合情報を画素差分符号情報15として出力させる。更に、撮像情報8から動体が周囲に対して明るいか暗いかを判定するための動体明暗情報16を取得するため、動体明暗判定部11がある。このために動き輪郭判定部10からはどの個所に動体があるかの動体判定信号13が動体明暗判定部11に送られる。この動体判定信号13は動き輪郭情報14で代用できるので、ここでは動き輪郭情報14から分岐して動体判定情報13として動体明暗判定部11に入力させている。この動体明暗情報16は画素差分符号情報15と共に、動き情報抽出部5で動体の動きの方向を演算する際に使われる。 When extracting the motion contour, it is necessary to delete the information of the stationary portion, and it is necessary to set the exposure time and the amplifier gain so that the output of the stationary portion can be erased by the difference between the pixels having different exposure times. The motion contour determination unit 10 outputs the motion contour information 14 from the pixel difference information 34 using the threshold value 12 as a determination reference. The motion contour determination unit 10 outputs the code information at the time of pixel difference as the pixel difference code information 15. Further, there is a moving body light / dark determination unit 11 for acquiring moving body light / dark information 16 for determining whether the moving body is bright or dark with respect to the surroundings from the image pickup information 8. For this reason, the motion contour determination unit 10 sends a motion object determination signal 13 indicating where the moving object is located to the motion object light / dark determination unit 11. Since the motion contour determination signal 13 can be substituted by the motion contour information 14, here, the motion contour information 14 is branched and input to the motion object light / dark determination unit 11 as the motion object determination information 13. This moving object light / dark information 16 is used together with the pixel difference code information 15 when the motion information extracting unit 5 calculates the direction of the motion of the moving object.

図3は動き情報抽出部5を構成するブロックとそれらに関連する情報の流れを示した図である。動き情報抽出部5は、動体速度判定部17、動体方向判定部18、動体サイズ判定部19、動体骨格点判定部20、動体特徴点判定部21から構成されている。情報の流れとしては、動き輪郭抽出部4から出力された動き輪郭情報14、画素差分符号情報15、動体明暗情報16が動体方向判定部18に入力され,動き輪郭情報14が動体速度判定部17、動体サイズ判定部19、動体骨格判定部20、及び動体特徴点判定部21に入力される。 FIG. 3 is a diagram showing blocks constituting the motion information extraction unit 5 and the flow of information related to them. The motion information extraction unit 5 is composed of a moving body velocity determination unit 17, a moving body direction determination unit 18, a moving body size determination unit 19, a moving body skeleton point determination unit 20, and a moving body feature point determination unit 21. As the flow of information, the motion contour information 14, the pixel difference code information 15, and the moving object light / dark information 16 output from the motion contour extracting unit 4 are input to the moving body direction determination unit 18, and the motion contour information 14 is the moving body velocity determination unit 17. , The moving body size determination unit 19, the moving body skeleton determination unit 20, and the moving body feature point determination unit 21.

動体速度判定部17からは図11で示す方法で求められた動体速度情報22が出力される。動体速度情報22は動体方向判定部18に送られ方向の定量化に役立てる。また動体サイズ判定部19にも送られサイズ判定にも役立てる。
動体方向判定部18からは図10で示す方法で求められた動体方向情報24が出力される。動体方向判定部18での途中演算結果は動体方向途中情報23として、動体速度判定部17に送られ動体速度情報22の取得に役立てる。動体方向情報24は動体サイズ判定部19に送られ、動体サイズの判定に役立てる。
The moving body speed determination unit 17 outputs the moving body speed information 22 obtained by the method shown in FIG. The moving body velocity information 22 is sent to the moving body direction determination unit 18 and is useful for quantifying the direction. It is also sent to the moving body size determination unit 19 and is useful for size determination.
The moving body direction information 24 obtained by the method shown in FIG. 10 is output from the moving body direction determination unit 18. The intermediate calculation result in the moving body direction determination unit 18 is sent to the moving body speed determination unit 17 as the moving body direction intermediate information 23 and is useful for acquiring the moving body velocity information 22. The moving body direction information 24 is sent to the moving body size determination unit 19 and is useful for determining the moving body size.

動体サイズ判定部19からは図12で示す方法で求められた動体サイズ情報25が出力される。動体サイズ判定部19でサイズ抽出の過程で得られた情報は骨格点候補情報26として動体骨格点検出部20に送られ、骨格点抽出に役立てる。
動体骨格点検出20からは図13で示す方法で求められた動体骨格点情報27が出力される。また動体骨格点検出20からは特徴点候補情報26’も出力される。特徴点候補情報26’は動体特徴点判定部21に送られ図14で示す方法で求められた動体特徴点情報28が出力される。
The moving body size information 25 obtained by the method shown in FIG. 12 is output from the moving body size determining unit 19. The information obtained in the process of size extraction by the moving body size determination unit 19 is sent to the moving body skeleton point detecting unit 20 as skeleton point candidate information 26, and is useful for skeleton point extraction.
From the moving body skeleton point detection 20, the moving body skeleton point information 27 obtained by the method shown in FIG. 13 is output. In addition, feature point candidate information 26'is also output from the moving body skeleton point detection 20. The feature point candidate information 26'is sent to the moving body feature point determination unit 21, and the moving body feature point information 28 obtained by the method shown in FIG. 14 is output.

図4は情報出力部6を構成するブロックと関連する情報の流れを示した図である。構成ブロックは情報合成・出力部29のみである。情報の流れとしては、動き情報抽出部5より出力される動体速度情報22、動体方向情報24、動体サイズ情報25、動体骨格点情報27、動体特徴点情報28、及び時計7から出力される時刻情報30が情報合成・出力部29に入力され、情報出力31として外部に出力される。 FIG. 4 is a diagram showing a flow of information related to the blocks constituting the information output unit 6. The constituent block is only the information synthesis / output unit 29. As the flow of information, the moving body velocity information 22, the moving body direction information 24, the moving body size information 25, the moving body skeleton point information 27, the moving body feature point information 28, and the time output from the clock 7 are output from the motion information extraction unit 5. The information 30 is input to the information synthesis / output unit 29 and output to the outside as the information output 31.

図3で示される動き情報抽出部5で取得した動体方向情報24、動体速度情報22、動体サイズ情報25、動体骨格点情報27、動体特徴点情報28は、図1の撮像カメラ1内の時計7から出力される時刻情報30と共に、図4のように情報出力部6の情報合成・出力部29に入力し内部で合成され、情報合成・出力部29より情報出力31として出力される。情報出力例を基に、この情報出力形態について図5(a)、(b)を基に説明する。 The moving body direction information 24, the moving body velocity information 22, the moving body size information 25, the moving body skeleton point information 27, and the moving body feature point information 28 acquired by the motion information extraction unit 5 shown in FIG. 3 are clocks in the image pickup camera 1 of FIG. Together with the time information 30 output from 7, the information is input to the information synthesis / output unit 29 of the information output unit 6 as shown in FIG. 4, synthesized internally, and output as the information output 31 from the information synthesis / output unit 29. This information output form will be described with reference to FIGS. 5A and 5B based on an information output example.

図4で説明した情報出力部6の情報合成・出力部29からは、動体方向情報24、動体速度情報22、動体サイズ情報25、動体骨格点情報27、動体特徴点情報28、及び時刻情報30が出力されるが、この情報出力例として図5(a)に示すような情報量を前提とする。前提条件としては、1時間で1回の頻度で蓄積情報を送付するものとして、1時間が3600秒なので時刻情報は12bitで表記。動体速度情報は64種類の速度分類とし6bitで表記。動体方向情報は16種類の方向分類(22.5度刻み)とし4bitで表記。動体サイズ情報は32種類のサイズ分類とし5bitで表記。動体特徴点座標情報はX座標が1024画素相当の10bit表記と、Y座標が512画素相当の9bit表記の座標分解能の1点で表記。動体骨格座標情報はX座標が1024画素相当の10bit表記と、Y座標が512画素相当の9bit表記の座標分解能の2点で表記とした。 From the information synthesis / output unit 29 of the information output unit 6 described with reference to FIG. 4, the moving body direction information 24, the moving body velocity information 22, the moving body size information 25, the moving body skeleton point information 27, the moving body feature point information 28, and the time information 30 Is output, but as an example of this information output, the amount of information as shown in FIG. 5A is assumed. As a precondition, the accumulated information is sent once every hour, and since 1 hour is 3600 seconds, the time information is expressed in 12 bits. The moving body velocity information is represented by 6 bits with 64 types of velocity classification. The moving object direction information is expressed in 4 bits with 16 types of direction classification (in 22.5 degree increments). The moving body size information is classified into 32 types and is expressed in 5 bits. The moving object feature point coordinate information is expressed by one point of coordinate resolution of 10-bit notation equivalent to 1024 pixels for X coordinate and 9-bit notation equivalent to 512 pixels for Y coordinate. The moving body skeleton coordinate information is expressed in two points: a 10-bit notation in which the X coordinate corresponds to 1024 pixels and a 9-bit notation in which the Y coordinate corresponds to 512 pixels.

図5(b)には、図5(a)に示した前提条件での情報出力合成例を示している。情報ブロックとしては横方向に1バイトに相当する8bitを単位として、縦方向には情報量に相当するバイト数を示す。
図5(a)に示す前提条件では、時刻が12bit占め、速度が6bit、方向が4bit、サイズが5bitを占める。特徴点はX座標で10bit、Y座標で9bitの合計19bit占める。骨格点1,2も、それぞれがX座標10bit、Y座標9bitの合計19bit占めるので、2点の骨格点合計で38bit占める。情報量の合計としては、12+6+4+5+19+38=84bitとなり、10.5バイトの情報量である。
この情報出力合成例は、まさに画素位置非リンク数値情報である。
FIG. 5B shows an example of information output synthesis under the preconditions shown in FIG. 5A. The information block has 8 bits corresponding to 1 byte in the horizontal direction as a unit, and the number of bytes corresponding to the amount of information is shown in the vertical direction.
Under the preconditions shown in FIG. 5A, the time occupies 12 bits, the speed occupies 6 bits, the direction occupies 4 bits, and the size occupies 5 bits. The feature points occupy a total of 19 bits, 10 bits in the X coordinate and 9 bits in the Y coordinate. Since each of the skeleton points 1 and 2 also occupies a total of 19 bits of X coordinate 10 bits and Y coordinate 9 bits, it occupies 38 bits in total of the two skeleton points. The total amount of information is 12 + 6 + 4 + 5 + 19 + 38 = 84 bits, which is 10.5 bytes of information.
This information output synthesis example is exactly the pixel position non-link numerical information.

図5(a)に示した動体の情報出力例としては単一の動体に対し、動体の位置を示す特徴点座標情報、動体のラフな形を示す骨格点座標情報、動体の速度、移動方向、サイズの情報、時刻の情報の出力フォーマットを示しているが、これは複数動体になっても同じで、各動体に対して同様な出力フォーマットが対応する。またこの出力フォーマットに対応した情報を全て取得して掲載する必要もなく、動体に関する必要な情報のみを出力させても良い。 As an example of information output of the moving body shown in FIG. 5A, for a single moving body, feature point coordinate information indicating the position of the moving body, skeletal point coordinate information indicating the rough shape of the moving body, velocity of the moving body, and moving direction. , Size information, and time information output formats are shown, but this is the same even if there are multiple moving objects, and the same output format corresponds to each moving object. Further, it is not necessary to acquire and post all the information corresponding to this output format, and only the necessary information regarding the moving object may be output.

本発明の、画素位置リンクしない動体の画像情報(動体の形、動き方向、速度、位置)を直接出力することで、後段で処理する情報量を大幅に減らし、演算負荷を大幅に軽減した撮像装置を提供する。ことの全体イメージは以上である。 By directly outputting the image information (shape, moving direction, speed, position) of the moving object that is not linked to the pixel position of the present invention, the amount of information to be processed in the subsequent stage is greatly reduced, and the calculation load is greatly reduced. Provide the device. That is all for the whole image.

撮像装置の実施形態1である撮像カメラ1における、各ブロックの機能、動作に付き以下に順次説明を行う。本願の特徴は動き輪郭情報を基に、動体の動き情報、動体情報を抽出し出力することであり、動き情報としては動き輪郭、方向、速度、サイズ情報があり、動体情報としては形と代表位置に対応し、それぞれ骨格点、特徴点情報がある。本願の応用分野により、必要な情報としてはこれらの情報の内、単独の場合もあれば、複数の組み合わせの場合もある。実際には駆動させる情報取得ブロックの組み合わせを変え、必要な情報取得を行う。 The functions and operations of each block in the image pickup camera 1 which is the first embodiment of the image pickup apparatus will be sequentially described below. The feature of the present application is to extract and output the motion information and the moving object information of the moving object based on the motion contour information. The motion information includes the motion contour, the direction, the velocity, and the size information, and the moving object information is the shape and the representative. Corresponding to the position, there is skeleton point and feature point information respectively. Depending on the field of application of the present application, the required information may be a single piece or a combination of a plurality of pieces of the information. Actually, the combination of the information acquisition blocks to be driven is changed to acquire the necessary information.

以降の説明では、個々の情報を取得する方法につき、情報を取得の実施形態毎に説明を行う。
撮像装置の実施形態の大分類と区別し、撮像装置の実施形態1の下部分類の中分類として、各情報取得方法に対応し、例えば実施形態1;動き輪郭情報、実施形態2;動体方向情報の様に順次説明する。実施形態1の動き輪郭情報については、輪郭情報の取得方法として、フレームメモリを使用する方法と、使用しない方法があるため、更に小分類を用い表記する。
In the following description, the method of acquiring individual information will be described for each embodiment of information acquisition.
Distinguishing from the major classification of the embodiment of the imaging device, as a middle classification of the lower classification of the first embodiment of the imaging device, each information acquisition method is supported, for example, Embodiment 1; motion contour information, embodiment 2; moving object direction information. I will explain in sequence like this. Regarding the motion contour information of the first embodiment, since there are a method of using the frame memory and a method of not using the frame memory as a method of acquiring the contour information, a sub-classification is further used and described.

<実施形態1;動き輪郭情報>
まず図2に示される固体撮像装置3からの撮像情報8より画素差分処理部9にて画素差分情報34を取得する方法、及び画素差分情報34より動き輪郭判定部10にて動き輪郭情報14、画素差分符号情報15を取得する方法につき説明する。
実施形態1の動き輪郭情報については、輪郭情報の取得方法として、フレームメモリを使用してフレーム差分を用いる方法と、フレームメモリを使用せず露光時間の異なる画素間の差分を用いる方法の2種類があるため、前者は実施形態1-1、後者は実施形態1-2と小分類を用い表記する。
<Embodiment 1; motion contour information>
First, a method of acquiring pixel difference information 34 by the pixel difference processing unit 9 from the image pickup information 8 from the solid-state image pickup device 3 shown in FIG. 2, and motion contour information 14 by the motion contour determination unit 10 from the pixel difference information 34. A method of acquiring the pixel difference code information 15 will be described.
Regarding the motion contour information of the first embodiment, there are two types of contour information acquisition methods: a method using a frame memory and using a frame difference, and a method using a difference between pixels having different exposure times without using the frame memory. Therefore, the former is described as Embodiment 1-1, and the latter as Embodiment 1-2.

<実施形態1-1;動き輪郭情報;フレームメモリ使用>
まず図2に示される固体撮像装置3からの撮像情報8より画素差分処理部9にて画素差分情報34を取得する方法、及び画素差分情報34より動き輪郭判定部10にて動き輪郭情報14、画素差分符号情報15を取得する方法に付き、図6を基に説明する。
<Embodiment 1-1; Motion contour information; Frame memory used>
First, a method of acquiring pixel difference information 34 by the pixel difference processing unit 9 from the image pickup information 8 from the solid-state image pickup device 3 shown in FIG. 2, and motion contour information 14 by the motion contour determination unit 10 from the pixel difference information 34. The method of acquiring the pixel difference code information 15 will be described with reference to FIG.

図6はフレームメモリ32を使用するケースを示している。このケースでは画素差分処理部9はフレームメモリ32と差分回路33で構成される。1フレーム分の撮像情報8をフレームメモリ32に格納し、差分回路33で現在のフレームの撮像画像8との差分を画素毎に対応させて取ることにより、1フレーム分の時間間隔の有る2枚のフレーム間の差分を取ることができる。これを画素差分情報34と称す。
画素差分情報34は画素対応で差分を取得しているので、静止領域は同じ出力値の差分となりゼロになる。動きがある場合に動体の出力値に変化がある領域では差分を取得した際にゼロにならない。具体的には、動体パターンの内部で明暗が均一である場合には、フレーム間の差分で内部はゼロになり、動体パターンの周辺部で変化があればゼロにならない。即ち動体の輪郭パターンが残る。
FIG. 6 shows a case where the frame memory 32 is used. In this case, the pixel difference processing unit 9 is composed of a frame memory 32 and a difference circuit 33. By storing the imaging information 8 for one frame in the frame memory 32 and taking the difference from the captured image 8 of the current frame for each pixel by the difference circuit 33, two images with a time interval of one frame are taken. You can take the difference between the frames of. This is referred to as pixel difference information 34.
Since the pixel difference information 34 acquires the difference corresponding to the pixels, the static region becomes the difference of the same output value and becomes zero. In the area where the output value of the moving object changes when there is movement, it does not become zero when the difference is acquired. Specifically, when the light and darkness is uniform inside the moving body pattern, the inside becomes zero due to the difference between the frames, and if there is a change in the peripheral part of the moving body pattern, it does not become zero. That is, the contour pattern of the moving body remains.

画素差分処理9からの出力の画素差分情報34は、動き輪郭判定部10にて動き輪郭情報14に変換される。この方法に付いて同じく図6を基に説明する。
画素差分情報34は2枚のフレーム間の画素対応差分で取得しており、符号情報を含んでいる。これを画素差分符号情報15と称し、動き輪郭判定部10より出力する。画素差分情報34が絶対値回路35を経由した以降は絶対値情報になり、動き輪郭判定回路36にて閾値12と比較して取得した2値化の動き輪郭情報14を、同じく動き輪郭判定部10より出力する。このように画素差分情報34は、画素差分符号情報15と動体の動き輪郭情報14を含んでおり、動き輪郭判定部10より出力される。
図2では閾値12は動き輪郭判定部10の外側に表記していたが、以降の説明では動き輪郭判定部10の中に入れて説明する。
The pixel difference information 34 output from the pixel difference processing 9 is converted into the motion contour information 14 by the motion contour determination unit 10. This method will also be described with reference to FIG.
The pixel difference information 34 is acquired by the pixel correspondence difference between the two frames, and includes the code information. This is referred to as pixel difference code information 15, and is output from the motion contour determination unit 10. After the pixel difference information 34 passes through the absolute value circuit 35, it becomes absolute value information, and the binarized motion contour information 14 acquired in comparison with the threshold value 12 by the motion contour determination circuit 36 is also used in the motion contour determination unit. Output from 10. As described above, the pixel difference information 34 includes the pixel difference code information 15 and the motion contour information 14 of the moving object, and is output from the motion contour determination unit 10.
In FIG. 2, the threshold value 12 is described outside the movement contour determination unit 10, but in the following description, the threshold value 12 will be described by putting it inside the movement contour determination unit 10.

図6に示す固体撮像装置3からの撮像情報8より、画素差分処理部9にてフレームメモリ32を用いて画素差分情報34を取得し、更に動き輪郭判定部10にて動き輪郭情報14、画素差分符号情報15を取得する方法に付き、具体的な被写体のケースで図7(a)、(b)を基に説明する。 From the image pickup information 8 from the solid-state image pickup device 3 shown in FIG. 6, the pixel difference processing unit 9 acquires the pixel difference information 34 using the frame memory 32, and the motion contour determination unit 10 further obtains the motion contour information 14 and pixels. The method of acquiring the difference code information 15 will be described with reference to FIGS. 7 (a) and 7 (b) in the case of a specific subject.

図7(a0)では画素差分処理部9でフレームメモリ32を使用するケースを示している。具体的な撮影画像として現画像と1フレーム前画像を用い、それぞれの画像中の1フレーム前画像;図7(a1)では動体画像を39’で、原画像;図7(a2)では少し前進した動体画像を39で示している。
図7(a0)の撮像画像中の同じ走査線40上の画素出力を図7(b1)、(b2)に示す。図7(a1)の1フレーム前画像中の走査線40上の画素出力を動体39‘に対応して図7(b1)、同様に図7(a2)の現画像中の走査線40上の画素出力を動体39に対応して図7(b2)で示す。動体39、39’やセンターライン41の輝度は背景である道路42より明るいケースにつき示されており、図7(b1)、(b2)に示されるように、動体39、39’やセンターライン41の画素出力は道路42より出力が大きい。
FIG. 7A0 shows a case where the pixel difference processing unit 9 uses the frame memory 32. The current image and the image one frame before are used as specific captured images, and the image one frame before in each image; the moving object image is 39'in FIG. 7 (a1), and the original image; a little forward in FIG. 7 (a2). The moving object image is shown by 39.
The pixel outputs on the same scanning line 40 in the captured image of FIG. 7 (a0) are shown in FIGS. 7 (b1) and 7 (b2). The pixel output on the scanning line 40 in the image one frame before FIG. 7 (a1) corresponds to the moving body 39', and similarly on the scanning line 40 in the current image of FIG. 7 (a2). The pixel output is shown in FIG. 7 (b2) corresponding to the moving body 39. The brightness of the moving objects 39, 39'and the center line 41 is shown in a case brighter than the background road 42, and as shown in FIGS. 7 (b1) and 7 (b2), the moving objects 39, 39'and the center line 41'and the center line 41 are shown. The pixel output of is larger than that of the road 42.

図2では動き輪郭判定部10より動体判定情報13が出力され、撮像情報8と共に動体明暗判定部11に入力されて処理され動体明暗情報16が出力されている。この動体判定情報13は動き輪郭情報14と同じで、輪郭の内部にある動体の明暗を動体明暗情報16として出力させる。図7(b1)、(b2)の例では、走査線上の動体画像39、39’を認識し、これが背景(ここでは道路42)より明るいか暗いか(図7(b1)、(b2)では明)を判定し、動体明暗判定部11より動体明暗情報16を出力させる。 In FIG. 2, the moving object determination information 13 is output from the motion contour determination unit 10, is input to the moving object light / dark determination unit 11 together with the image pickup information 8, is processed, and the moving object light / dark information 16 is output. The moving body determination information 13 is the same as the moving contour information 14, and the light and darkness of the moving body inside the contour is output as the moving body light and dark information 16. In the examples of FIGS. 7 (b1) and 7 (b2), the moving object images 39 and 39'on the scanning line are recognized, and whether this is brighter or darker than the background (here, the road 42) (in FIGS. 7 (b1) and (b2)). The light) is determined, and the moving body light / dark information 16 is output from the moving body light / dark determination unit 11.

図7(b1)、(b2)に示す走査線40上の画素出力より差分回路33で取得した画素差分情報34を、そのまま出力した画素差分符合情報15は図7(b3)に示される。図7(b3)では画素差分符号情報15は動体画像39、39’の端部に相当する場所に画素差分符号情報15’、15”の様に出力される。これは符合情報を持ちそれぞれ+、-となる。
図7(b3)は走査線40上の画素差分符号情報であるが、平面的なイメージとしては図7(a3)で示されるように、動体画像39の周囲に画素差分符号情報15’、15”が領域として示される。
FIG. 7 (b3) shows the pixel difference sign information 15 obtained by outputting the pixel difference information 34 acquired by the difference circuit 33 from the pixel output on the scanning line 40 shown in FIGS. 7 (b1) and 7 (b2) as it is. In FIG. 7 (b3), the pixel difference code information 15 is output as the pixel difference code information 15', 15'at a location corresponding to the end of the moving body images 39, 39'. ,-.
FIG. 7 (b3) shows the pixel difference code information on the scanning line 40, but as a planar image, as shown in FIG. 7 (a3), the pixel difference code information 15'and 15 are formed around the moving object image 39. Is shown as an area.

画素差分情報34は、動き輪郭判定部10において絶対値回路35を経由し絶対値情報になり、動き輪郭判定回路36にて閾値12と比較して動き輪郭情報14が得られる。図7(b3)に示す走査線40上の画素差分符号情報15’、15”は絶対値情報にされ、閾値判定されて、図7(b4)では動き輪郭情報14は画素差分符号情報15’、15”に対応し、2値化された動き輪郭情報14’、14”とし出力される。
図7(b4)は走査線40上の動き輪郭情報であるが、平面的なイメージとしては図7(a4)で示されるように、動体画像39の周囲に動き輪郭情報14’、14”が領域として示される。この動き輪郭情報14’、14”から動体の概略の外形形状が分かる。
The pixel difference information 34 becomes absolute value information via the absolute value circuit 35 in the motion contour determination unit 10, and the motion contour information 14 is obtained in comparison with the threshold value 12 in the motion contour determination circuit 36. The pixel difference code information 15'and 15 "on the scanning line 40 shown in FIG. 7 (b3) are converted into absolute value information and determined as a threshold value. In FIG. 7 (b4), the motion contour information 14 is the pixel difference code information 15'. , 15 "corresponds to, and is output as binarized motion contour information 14', 14".
FIG. 7 (b4) shows the motion contour information on the scanning line 40, but as a planar image, as shown in FIG. 7 (a4), the motion contour information 14'and 14 "are provided around the moving object image 39. It is shown as a region. From the movement contour information 14', 14 ", the approximate outer shape of the moving body can be known.

<実施形態1-2;動き輪郭情報;フレームメモリ不使用>
図8はフレームメモリを使用しないケースを示している。このケースで使用される固体撮像装置は図9、図10に示すような露光時間の異なる2種類の画素43から構成されるので、固体撮像装置3’と図6の固体撮像装置3と区別して表記する。このケースでは画素差分処理部9’は分離回路37、増幅回路38、及び差分回路33で構成される。固体撮像装置3’から出力される撮像情報8の中には、長時間露光画素(以降の図中でSTLと示す)からの撮像情報である撮像STLと、短時間露光画素(以降の図中でSTSと示す)からの撮像情報である撮像STSが混在している。分離回路37ではこの2種類の撮像情報を分離し、増幅回路38で短時間露光画素の撮像STSを増幅し、差分回路33で長時間露光画素の撮像STLとの差分を取ることで画素差分情報34’(フレームメモリのケースと区別した)を取得する。この動作の詳細は図9にて説明する。
<Embodiment 1-2; Motion contour information; No frame memory used>
FIG. 8 shows a case where the frame memory is not used. Since the solid-state image sensor used in this case is composed of two types of pixels 43 having different exposure times as shown in FIGS. 9 and 10, the solid-state image sensor 3'and the solid-state image sensor 3 of FIG. 6 are distinguished from each other. write. In this case, the pixel difference processing unit 9'is composed of a separation circuit 37, an amplifier circuit 38, and a difference circuit 33. The image pickup information 8 output from the solid-state image pickup device 3'includes an image pickup STL which is image pickup information from a long-exposure pixel (referred to as STL in the following figures) and a short-time exposure pixel (in the following figures). The imaging STS, which is the imaging information from), is mixed. The separation circuit 37 separates these two types of image pickup information, the amplifier circuit 38 amplifies the image pickup STS of the short-exposure pixel, and the difference circuit 33 takes the difference from the image pickup STL of the long-exposure pixel to obtain the pixel difference information. Get 34'(distinguished from the frame memory case). The details of this operation will be described with reference to FIG.

画素差分処理9’からの出力の画素差分情報34’から動き輪郭情報14、画素差分符号情報15を取得する図8に示される動き輪郭判定部10は、構成、機能共に図6に示される動き輪郭判定部10と同一であり説明は省略する。 The motion contour determination unit 10 shown in FIG. 8 for acquiring the motion contour information 14 and the pixel difference code information 15 from the pixel difference information 34'output from the pixel difference process 9'has a motion shown in FIG. 6 in both configuration and function. It is the same as the contour determination unit 10, and the description thereof will be omitted.

図8に示される固体撮像装置3’の画素43の構成を図9(a)で、画素出力特性を図9(b)で示し、更に、図8の画素差分処理部9’の分離回路37の構成を図9(c)に示している。
図9(a)に示される固体撮像装置3’の画素構成としては、短時間露光画素STSと長時間露光画素STLが配置されている。それぞれの撮像信号は撮像STS、撮像STLと表記し区別する。両者の画素43の画素出力特性としては図9(b)に示すように、時間の経過とともに画素出力が増える傾き(感度に相当する)が同じケースを示しており、露光時間に見合った画素出力が得られ撮像情報8として出力される。図9(b)では短時間露光画素STSと長時間露光画素STLは同じ感度なので、それぞれに対応した露光時間TSとTLに比例して画素出力が異なる。図9(a)では1走査線毎に出力するとする。
The configuration of the pixel 43 of the solid-state image sensor 3'shown in FIG. 8 is shown in FIG. 9A, the pixel output characteristic is shown in FIG. 9B, and the separation circuit 37 of the pixel difference processing unit 9'in FIG. The configuration of is shown in FIG. 9 (c).
As the pixel configuration of the solid-state image sensor 3'shown in FIG. 9A, a short-time exposure pixel STS and a long-time exposure pixel STL are arranged. Each image pickup signal is referred to as an image pickup STS and an image pickup STL to distinguish them. As shown in FIG. 9B, the pixel output characteristics of both pixels 43 show the same case where the pixel output increases with the passage of time (corresponding to the sensitivity), and the pixel output is commensurate with the exposure time. Is obtained and output as imaging information 8. In FIG. 9B, since the short-time exposure pixel STS and the long-time exposure pixel STL have the same sensitivity, the pixel output differs in proportion to the corresponding exposure time TS and TL. In FIG. 9A, it is assumed that each scanning line is output.

図8に示す画素差分処理部9’の分離回路37ではこれらの画素からの撮像情報である撮像STLと撮像STSが分離されるが、分離回路37の構成としては図9(c)に示されるように、撮像情報8を1水平(1H)走査期間分遅延させるためのラインメモリ44、撮像情報8を画素単位で遅延させる遅延回路45から構成される。図9(a)で1走査線毎に出力する場合、図9(c)でラインメモリ44が必要となる。 In the separation circuit 37 of the pixel difference processing unit 9'shown in FIG. 8, the image pickup STL and the image pickup STS which are the image pickup information from these pixels are separated, and the configuration of the separation circuit 37 is shown in FIG. 9 (c). As described above, the line memory 44 for delaying the imaging information 8 by one horizontal (1H) scanning period and the delay circuit 45 for delaying the imaging information 8 in pixel units are configured. When outputting for each scanning line in FIG. 9A, the line memory 44 is required in FIG. 9C.

短時間露光画素STSと長時間露光画素STLはそれぞれ露光時間TSとTLで動作させ、ライン毎に読み出される。短時間露光画素STSと長時間露光画素STLとの比較する画素信号の位相が同じになるように、ラインメモリ44と画素単位で遅延させる遅延回路45で調整されている。このため、分離回路37より出力される短時間露光画素、長時間露光画素からの撮像情報である撮像STSと撮像STLは、図9(a)の画素配置で上下方向に隣接する(1水平ライン離れた)短時間露光画素STSと長時間露光画素STLの出力に対応する。 The short-time exposure pixel STS and the long-time exposure pixel STL are operated with the exposure times TS and TL, respectively, and are read out line by line. The line memory 44 and the delay circuit 45 that delays each pixel are adjusted so that the phases of the pixel signals to be compared between the short-exposure pixel STS and the long-exposure pixel STL are the same. Therefore, the short-time exposure pixel output from the separation circuit 37, the image pickup STS and the image pickup STL which are the image pickup information from the long-time exposure pixel are adjacent to each other in the vertical direction in the pixel arrangement of FIG. 9A (1 horizontal line). It corresponds to the output of the short-exposure pixel STS and the long-exposure pixel STL (separated).

図8に示す画素差分処理部9’の増幅回路38では、短時間露光画素の撮像STSは露光時間比(TL/TS)のゲインで増幅され、長時間露光画素の撮像STLの信号レベルと同等となるよう処理されている。画素差分処理部9’の差分回路33で撮像STSと撮像STLの差分を取ることで、画素差分情報34’を取得することが出来る。 In the amplifier circuit 38 of the pixel difference processing unit 9'shown in FIG. 8, the imaging STS of the short exposure pixel is amplified by the gain of the exposure time ratio (TL / TS), which is equivalent to the signal level of the imaging STL of the long exposure pixel. It is processed so that it becomes. Pixel difference information 34'can be acquired by taking the difference between the image pickup STS and the image pickup STL by the difference circuit 33 of the pixel difference processing unit 9'.

図6の画素差分処理部9では1フレーム分の時間間隔の有る2枚のフレーム間の差分を取ることで画素差分情報34を取得していた。一方、図8の固体撮像装置3’と画素差分処理部9’では、図9(b)に示す画素出力特性では同一フレーム内の露光時間TLとTSの差分で画素差分情報34を取得している。図9(b)に示す場合でも静止領域は同じ出力値の差分なのでゼロになり。1フレーム内で動きがある場合には動体の出力値に変化がある領域では、差分を取得した際にゼロとはならない。
具体的には、動体パターンの内部で明暗が均一である場合には内部はゼロになり、動体の輪郭パターンが残る。このように画素差分情報34’は動体の輪郭情報を含んでいる。
The pixel difference processing unit 9 of FIG. 6 acquires the pixel difference information 34 by taking the difference between two frames having a time interval of one frame. On the other hand, in the solid-state image sensor 3'and the pixel difference processing unit 9'in FIG. 8, the pixel difference information 34 is acquired by the difference between the exposure times TL and TS in the same frame in the pixel output characteristics shown in FIG. 9 (b). There is. Even in the case shown in FIG. 9B, the static region is the difference of the same output value, so it becomes zero. If there is movement within one frame, it will not be zero when the difference is acquired in the region where the output value of the moving object changes.
Specifically, when the brightness is uniform inside the moving body pattern, the inside becomes zero and the contour pattern of the moving body remains. As described above, the pixel difference information 34'includes the contour information of the moving object.

図8に示される固体撮像装置3’の別の画素43の構成を図10(a)で、画素出力特性を図10(b)で示し、更に、図8の画素差分処理部9’の構成を図10(c)に示している。
図10(a)に示される固体撮像装置3’の画素構成としては、短時間露光画素(図中STSと示す)と長時間露光画素(図中STLと示す)が配置されているが、両者の画素のサイズが異なり感度が異なる。短時間露光画素の感度をSS、長時間露光画素の感度をSLとし、両者の感度比;SS/SLを、両者の露光時間比;TS/TLの逆数にしたケースでは、その画素出力特性は図10(b)に示すように、短時間露光画素STSと長時間露光画素STLの画素出力が揃う。
The configuration of another pixel 43 of the solid-state image sensor 3'shown in FIG. 8 is shown in FIG. 10A, the pixel output characteristics are shown in FIG. 10B, and the configuration of the pixel difference processing unit 9'in FIG. Is shown in FIG. 10 (c).
As the pixel configuration of the solid-state image sensor 3'shown in FIG. 10A, short-time exposure pixels (indicated as STS in the figure) and long-time exposure pixels (indicated as STL in the figure) are arranged. The pixel size is different and the sensitivity is different. In the case where the sensitivity of the short-time exposure pixel is SS and the sensitivity of the long-exposure pixel is SL, and the sensitivity ratio of both; SS / SL is the inverse of the exposure time ratio of both; TS / TL, the pixel output characteristics are As shown in FIG. 10B, the pixel outputs of the short-time exposure pixel STS and the long-time exposure pixel STL are aligned.

図10(c)に画素差分処理部9’の構成を示している。分離回路37は図9(c)と同じで、短時間露光画素、長時間露光画素からの撮像情報である撮像STSと撮像STLは、図10(a)の画素配置で上下方向に隣接する(1水平ライン離れた)短時間露光画素STSと長時間露光画素STLの出力に対応する。ここでは短時間露光画素STSと長時間露光画素STLの両ラインが同時に読み出されるとする。
図10(b)に示す画素出力特性では、短時間露光画素STSと長時間露光画素STLの画素出力が揃っているので、図10(c)に示す増幅回路38は増幅率を1で不要でも良い。しかし感度比でSS/SLで決まる露光時間比しか選択できないので、露光時間の自由度を増すためには図10(a)の画素構成でも増幅回路38が有った方が良い。両ラインが同時に読み出しなのでラインメモリは不要である。図9(a)で、隣接2ラインの走査線を同時に出力する場合にはラインメモリ44は不要となる。
FIG. 10C shows the configuration of the pixel difference processing unit 9'. The separation circuit 37 is the same as in FIG. 9 (c), and the image pickup STS and the image pickup STL, which are the image pickup information from the short-time exposure pixel and the long-time exposure pixel, are adjacent to each other in the vertical direction in the pixel arrangement of FIG. 10 (a). It corresponds to the output of the short-exposure pixel STS and the long-exposure pixel STL (one horizontal line apart). Here, it is assumed that both the short-exposure pixel STS and the long-exposure pixel STL lines are read out at the same time.
In the pixel output characteristics shown in FIG. 10B, since the pixel outputs of the short-time exposure pixel STS and the long-time exposure pixel STL are aligned, the amplifier circuit 38 shown in FIG. 10C does not need an amplification factor of 1. good. However, since only the exposure time ratio determined by SS / SL can be selected by the sensitivity ratio, it is better to have the amplifier circuit 38 even in the pixel configuration of FIG. 10A in order to increase the degree of freedom of the exposure time. No line memory is required because both lines are read at the same time. In FIG. 9A, the line memory 44 becomes unnecessary when the scanning lines of two adjacent lines are output at the same time.

図8に示す固体撮像装置3’からの撮像情報8より、画素差分処理部9’にて長時間露光画素STLからの撮像情報である撮像STLと、短時間露光画素STSからの撮像情報である撮像STSを分離回路37で分離し、増幅回路38で短時間露光画素の撮像STSを増幅し、差分回路33で長時間露光画素の撮像STLとの差分を取ることで画素差分情報34’を取得し、更に動き輪郭判定部10にて動き輪郭情報14、画素差分符号情報15を取得する方法に付き、具体的な被写体のケースの図11(a)、(b)を基に説明する。図7(a)、(b)と類似なので重複する箇所は省いて説明する。 From the image pickup information 8 from the solid-state image pickup device 3'shown in FIG. 8, the image pickup STL which is the image pickup information from the long-time exposure pixel STL and the image pickup information from the short-time exposure pixel STS by the pixel difference processing unit 9'. Pixel difference information 34'is acquired by separating the image pickup STS with the separation circuit 37, amplifying the image pickup STS of the short exposure pixel with the amplifier circuit 38, and taking the difference from the image pickup STL of the long exposure pixel with the difference circuit 33. Further, a method of acquiring the motion contour information 14 and the pixel difference code information 15 by the motion contour determination unit 10 will be described with reference to FIGS. 11 (a) and 11 (b) of a specific subject case. Since it is similar to FIGS. 7 (a) and 7 (b), overlapping parts will be omitted.

図11(a0)では画素差分処理部9’で長時間露光画素(STL)と、短時間露光画素(STS)を使用するケースを示している。具体的な撮影画像としてはSTL画素の画像とSTS画素の画像を用い、図11(a1)ではSTL画素の画像中の動体画像を39’で、図11(a2)ではSTS画素の画像中の動体画像を39で、それぞれ示している。ここでは図10(a)に示す画素構成で説明し、画素出力が揃っている。
図9(b)、図10(b)で示すように、露光時間は長時間露光画素STLのTLの方が、短時間露光画素STSのTSよりも長いので、STL画素の動体画像39’の長さの方が、STS画素の動体画像39の長さよりも長くなる。これは露光時間TLがTSより長いので、その間に移動する動体画像39’の長さが長くなるためである。
FIG. 11A0 shows a case where the pixel difference processing unit 9'uses a long-exposure pixel (STL) and a short-time exposure pixel (STS). As specific captured images, an image of STL pixels and an image of STS pixels are used. In FIG. 11 (a1), a moving object image in the image of STL pixels is 39', and in FIG. 11 (a2), an image of STS pixels is used. The moving object images are shown by 39, respectively. Here, the pixel configuration shown in FIG. 10A will be described, and the pixel outputs are complete.
As shown in FIGS. 9 (b) and 10 (b), the exposure time of the TL of the long-exposure pixel STL is longer than that of the TS of the short-time exposure pixel STS. The length is longer than the length of the moving object image 39 of the STS pixel. This is because the exposure time TL is longer than the TS, so the length of the moving object image 39'moving during that time becomes longer.

図11(a0)の撮像画像中の同じタイミングの走査線40上の長時間露光画素STLと短時間露光画素STSの画素出力を図11(b1)、(b2)に示す。これらは同じフレーム内での走査線40上の画素出力であり、図7(b1)、(b2)の1フレームずれた画素出力とは異なる。図11(a)の走査線40上の長時間露光画素STLの画素出力を動体画像39‘に対応して図11(b1)で、図11(a)の走査線40上の短時間露光画素STSの画素出力を動体画像39に対応して図11(b2)で示す。図7と同様に動体39、39’やセンターライン41の輝度は背景である道路42より明るいケースにつき示されており、図11(b1)、(b2)に示されるように、動体画像39、39’やセンターライン41の画素出力は道路42より出力が大きい。低感度のSTL画素では動体画像39’が長く、端部の画素出力の傾きも緩やかとなる。 11 (b1) and 11 (b2) show the pixel outputs of the long-exposure pixel STL and the short-time exposure pixel STS on the scanning line 40 at the same timing in the captured image of FIG. 11 (a0). These are the pixel outputs on the scanning line 40 in the same frame, and are different from the pixel outputs shifted by one frame in FIGS. 7 (b1) and 7 (b2). The pixel output of the long-time exposure pixel STL on the scanning line 40 of FIG. 11A corresponds to the moving object image 39', and the short-time exposure pixel on the scanning line 40 of FIG. 11A is shown in FIG. 11B1. The pixel output of the STS is shown in FIG. 11 (b2) corresponding to the moving object image 39. Similar to FIG. 7, the brightness of the moving objects 39, 39'and the center line 41 is shown for a case brighter than the background road 42, and as shown in FIGS. 11 (b1) and 11 (b2), the moving object images 39, The pixel output of 39'and the center line 41 is larger than that of the road 42. With low-sensitivity STL pixels, the moving object image 39'is long, and the inclination of the pixel output at the end is gentle.

図11(b1)、(b2)に示す走査線40上の画素出力より、差分回路33で取得した画素差分情報34をそのまま出力した画素差分符号情報15は図11(b3)に示される。図11(b3)では画素差分符号情報15は動体画像39、39’の端部に相当する場所に、画素差分符号情報15’、15”の様に出力される。これは符合情報を持ちそれぞれ+、-となる。
図11(b3)は走査線40上の画素差分符合情報であるが、平面的なイメージとしては図11(a3)で示されるように、動体画像39の周囲に画素差分符号情報15’、15”が領域として示される。
The pixel difference code information 15 obtained by outputting the pixel difference information 34 acquired by the difference circuit 33 as it is from the pixel output on the scanning line 40 shown in FIGS. 11 (b1) and 11 (b2) is shown in FIG. 11 (b3). In FIG. 11 (b3), the pixel difference code information 15 is output as the pixel difference code information 15', 15'at a location corresponding to the end of the moving body images 39, 39'. It becomes + and-.
FIG. 11 (b3) shows the pixel difference sign information on the scanning line 40, but as a planar image, as shown in FIG. 11 (a3), the pixel difference code information 15'and 15 are formed around the moving object image 39. Is shown as an area.

画素差分情報34は、動き輪郭判定部10において絶対値回路35を経由し絶対値情報になり、動き輪郭判定回路36で閾値12と比較して、動き輪郭情報14が得られる。図11(b3)に示す走査線40上の画素差分符号情報15’、15”は絶対値情報にされ、閾値判定されて、図11(b4)では動き輪郭情報14は画素差分符号情報15’、15”に対応し、2値化の動き輪郭情報14’、14”とし出力される。
図11(b4)は走査線40上の動き輪郭情報であるが、平面的なイメージとしては図11(a4)で示されるように、動体画像39の周囲に動き輪郭情報14’、14”が領域として示される。この動き輪郭情報14’、14”から動体の概略の外形形状が分かることは図7(a4)と同様である。
The pixel difference information 34 becomes absolute value information via the absolute value circuit 35 in the motion contour determination unit 10, and the motion contour determination circuit 36 compares with the threshold value 12 to obtain the motion contour information 14. The pixel difference code information 15'and 15 "on the scanning line 40 shown in FIG. 11 (b3) are converted into absolute value information and determined as a threshold value. In FIG. 11 (b4), the motion contour information 14 is the pixel difference code information 15'. , 15 ", and is output as binarized motion contour information 14', 14".
FIG. 11 (b4) shows the motion contour information on the scanning line 40, but as a planar image, as shown in FIG. 11 (a4), the motion contour information 14'and 14 "are provided around the moving object image 39. It is shown as a region. It is the same as in FIG. 7 (a4) that the approximate outer shape of the moving body can be known from the motion contour information 14', 14 ".

<実施形態2;動体方向情報>
図2に示される動き輪郭抽出部4から出力される動き輪郭情報14、画素差分符合情報15、動体明暗情報16より、図3で示す動き情報抽出部5の動体方向判定部18にて動体方向情報24を取得する方法に付き、図12(a)、(b)、(c)、(d)、(e)を基に説明する。
<Embodiment 2; Moving object direction information>
From the motion contour information 14, the pixel difference sign information 15, and the moving object light / dark information 16 output from the motion contour extracting unit 4 shown in FIG. 2, the moving object direction is determined by the moving object direction determining unit 18 of the motion information extracting unit 5 shown in FIG. The method of acquiring the information 24 will be described with reference to FIGS. 12 (a), (b), (c), (d), and (e).

図12(a)で示されるように、動体方向判定部18は動体方向抽出部46と動体方向演算部47で構成される。動体方向抽出部46に動き輪郭抽出部4より、動き輪郭情報14、画素差分符号情報15、動体明暗情報16が入力される。動体方向抽出部46からは動体方向途中情報23が動体速度判定部17に出力され、同じ動体速度判定部17から動体速度情報22が動体方向演算部47に入力され、動体方向演算部47からは動体方向情報24が出力される。動体方向情報24は動体サイズ判定部19へも出力される。 As shown in FIG. 12A, the moving body direction determination unit 18 is composed of a moving body direction extraction unit 46 and a moving body direction calculation unit 47. The movement contour information 14, the pixel difference code information 15, and the moving body light / dark information 16 are input from the movement contour extraction unit 4 to the moving body direction extraction unit 46. The moving body direction extraction unit 46 outputs the moving body direction intermediate information 23 to the moving body speed determination unit 17, the same moving body speed determination unit 17 inputs the moving body velocity information 22 to the moving body direction calculation unit 47, and the moving body direction calculation unit 47 inputs the moving body speed information 22 to the moving body direction calculation unit 47. The moving body direction information 24 is output. The moving body direction information 24 is also output to the moving body size determination unit 19.

図12(b)には、図7(a2)、(a3)、(a4)に対応して、動体画像(現画像)39、画素差分符号情報15、動き輪郭情報14をそれぞれ図12(b1)、(b2)、(b3)で示されている。図7(a0)の現画像中の走査線40上の動体39の画素出力は図7(b2)に対応して図12(c1)で示す。動体39の輝度は背景である道路42より明るいケースにつき示されており、動体明暗情報16は明のケースである。図7(b3)に対応する図12(c2)では、画素差分符号情報15は動体画像39の端部に相当する場所に画素差分符号情報15’、15”の様に出力され、符号情報はそれぞれ+、-となる。 In FIG. 12 (b), a moving body image (current image) 39, a pixel difference code information 15, and a motion contour information 14 are shown in FIG. 12 (b1) corresponding to FIGS. 7 (a2), (a3), and (a4), respectively. ), (B2), and (b3). The pixel output of the moving body 39 on the scanning line 40 in the current image of FIG. 7 (a0) is shown in FIG. 12 (c1) corresponding to FIG. 7 (b2). The brightness of the moving body 39 is shown for a case brighter than the background road 42, and the moving body light / dark information 16 is a bright case. In FIG. 12 (c2) corresponding to FIG. 7 (b3), the pixel difference code information 15 is output as pixel difference code information 15', 15 "at a location corresponding to the end of the moving object image 39, and the code information is output. It becomes + and-, respectively.

動体方向抽出部46においては、動き輪郭情報14、画素差分符号情報15、動体明暗情報16を用い動きの方向を判定する。まず動き輪郭情報14から動きの変化が有った領域を把握し、動き輪郭情報のある領域で、動体の移動方向の先端にあるか後端にあるかは、動体画像39が周囲より明るいか暗いかを動体明暗情報16と、画素差分符号情報15の2つの情報より図12(d)の動体方向判定表で判断する。この動体の先端、後端情報は動体方向途中情報23とし動体速度判定に使われる。 The moving body direction extraction unit 46 determines the direction of movement using the movement contour information 14, the pixel difference code information 15, and the moving body light / dark information 16. First, the region where the movement has changed is grasped from the motion contour information 14, and whether the region with the motion contour information is at the front end or the rear end in the moving direction of the moving body is whether the moving body image 39 is brighter than the surroundings. Whether it is dark or not is determined by the moving body direction determination table of FIG. 12D from the two information of the moving body light / dark information 16 and the pixel difference code information 15. The information on the front end and the rear end of the moving body is used as the moving body direction intermediate information 23 and is used for determining the moving body velocity.

この動体方向判定表の1例を図12(c2)の画素差分符号情報15’で説明する。ここは1フレーム前画像では図7(b1)に示すように道路42の画素出力の領域であり、図12(c1)に相当する原画像では道路42より明るい動体39が出現している。即ちここは動体の移動方向の先端部分に相当する。現画像から1フレーム前画像を引いた画素差分符号情報15’では+となる。これに対応し図12(d)の動体方向判定表では先端、明、+が対応する。表中の他の組み合わせも同様な考え方で求まる。 An example of this moving object direction determination table will be described with reference to the pixel difference code information 15'in FIG. 12 (c2). This is a pixel output region of the road 42 as shown in FIG. 7 (b1) in the image one frame before, and a moving body 39 brighter than the road 42 appears in the original image corresponding to FIG. 12 (c1). That is, this corresponds to the tip portion in the moving direction of the moving body. It is + in the pixel difference code information 15'that is obtained by subtracting the image one frame before from the current image. Corresponding to this, in the moving body direction determination table of FIG. 12 (d), the tip, the light, and the + correspond. Other combinations in the table can be obtained in the same way.

図12(d)の動体方向判定表から、動体画像(現画像)39の周囲にある動き輪郭情報14’、14“が動体の先端か後端かは判定できるが、どちらの角度方向に進んでいるかの定量化は出来ていない。動体方向抽出部43からは動体方向途中情報23が動体速度判定部17に出力されるが、動体方向途中情報23はこの動体の先端か後端かの情報である。動体速度判定部17からは動体速度情報22が動体方向演算部47に入力されるが、この動体速度情報22にはX方向(水平方向)とY方向(垂直方向)の速度成分であるそれぞれVx0、Vy0が含まれている。このVx0、Vy0の比の逆tanを取ることにより、図12(e)に示すように方向が水平方向から角度で表示できる。動体方向演算部47より出力される動体方向情報24はこの角度の情報である。これらの演算は動体方向演算部47で行われ、動体方向情報24が出力される。
From the moving body direction determination table of FIG. 12 (d), it can be determined whether the movement contour information 14', 14 "around the moving body image (current image) 39 is the front end or the rear end of the moving body, but it advances in which angle direction. It has not been possible to quantify whether or not the image is present. The moving body direction extraction unit 43 outputs the moving body direction intermediate information 23 to the moving object velocity determination unit 17, but the moving object direction intermediate information 23 is information on whether the moving object is at the tip or the rear end. The moving body speed information 22 is input to the moving body direction calculation unit 47 from the moving body speed determination unit 17, and the moving body speed information 22 has speed components in the X direction (horizontal direction) and the Y direction (vertical direction). Vx0 and Vy0 are included, respectively. By taking the inverse tan of the ratio of Vx0 and Vy0, the direction can be displayed as an angle from the horizontal direction as shown in FIG. 12 (e). From the moving body direction calculation unit 47. The output moving body direction information 24 is information of this angle. These calculations are performed by the moving body direction calculation unit 47, and the moving body direction information 24 is output.

<実施形態3;動体速度情報>
図2に示される動き輪郭抽出部4から出力される動き輪郭情報14及び、図3で示す動き情報抽出部5の動体方向判定部18から出力される動体方向途中情報23を動体速度判定部17に入力し、動体速度判定部17より動体速度情報22を取得する方法に付き、図13(a)、(b)、(c)、(d)を基に説明する。
<Embodiment 3; moving body velocity information>
The motion contour information 14 output from the motion contour extraction unit 4 shown in FIG. 2 and the moving body direction intermediate information 23 output from the moving body direction determination unit 18 of the motion information extracting unit 5 shown in FIG. 3 are the moving body velocity determination unit 17. The method of acquiring the moving body speed information 22 from the moving body speed determination unit 17 will be described with reference to FIGS. 13 (a), (b), (c), and (d).

図13(a)で示されるように、動体速度判定部17は動体速度抽出部48、動体速度演算部49、及び換算表50で構成される。動体速度抽出部48には動き輪郭抽出部4より動き輪郭情報14が、動体方向抽出部46より動体方向途中情報23がそれぞれ入力される。動体速度抽出部48と換算表50の情報を動体速度演算部49にて演算し動体速度情報22が出力される。
動体速度情報22は動体方向判定部18と動体サイズ判定部19へも出力される。
As shown in FIG. 13A, the moving body speed determination unit 17 is composed of a moving body speed extracting unit 48, a moving body speed calculation unit 49, and a conversion table 50. The motion contour information 14 is input to the moving body velocity extracting unit 48 from the motion contour extracting unit 4, and the moving body direction intermediate information 23 is input from the moving body direction extracting unit 46. The information of the moving body speed extraction unit 48 and the conversion table 50 is calculated by the moving body speed calculation unit 49, and the moving body speed information 22 is output.
The moving body velocity information 22 is also output to the moving body direction determination unit 18 and the moving body size determination unit 19.

図13(b1)には、図12(b3)に対応した動き輪郭情報14’(先端)、14”(後端)が平面的なイメージで示されている。動体方向途中情報23は、この対となる動き輪郭情報14’(先端)、14”(後端)の選択判断に使われる。また図13(b2)には、図7(b4)に示されるような走査線上の動き輪郭情報14であり、図13(b1)に示される動き輪郭情報14’(先端)、14”(後端)の出力が示される。動体方向抽出部46より出力される動体方向途中情報23より、動き輪郭領域での動体方向は判明している。
動体速度抽出部48においては、動き輪郭情報14’、14”での動き輪郭領域の幅(画素数に対応)をX方向、Y方向に求める。それぞれの動き速度画素数はV’x、V”x、及びV’y、V”yと表記する。この幅は動体が1フレーム期間で移動する幅(画素数)に対応する。
In FIG. 13 (b1), the motion contour information 14'(front end) and 14 "(rear end) corresponding to FIG. 12 (b3) are shown in a planar image. The moving object direction intermediate information 23 is this. It is used to determine the selection of paired motion contour information 14'(front end) and 14 "(rear end). Further, FIG. 13 (b2) shows motion contour information 14 on the scanning line as shown in FIG. 7 (b4), and motion contour information 14'(tip), 14 "(rear) shown in FIG. 13 (b1). The output of the end) is shown. The moving body direction in the moving contour region is known from the moving body direction intermediate information 23 output from the moving body direction extraction unit 46.
In the moving body speed extraction unit 48, the width of the movement contour region (corresponding to the number of pixels) in the movement contour information 14', 14 "is obtained in the X direction and the Y direction. It is expressed as "x, and V'y, V" y. This width corresponds to the width (number of pixels) in which the moving object moves in one frame period.

図13(b1)の動き輪郭情報14’、14”のX方向、Y方向の幅に相当する動き速度画素数V’x、V”x、及びV’y、V”yの頻度分布データをそれぞれ図13(c1)、(c2)に示している。動体の形状により動き速度画素数の頻度分布は幅を持つが、ここでは頻度の最も高い速度画素数をX方向、Y方向の代表速度画素数としてそれぞれV’x0、V’y0で記載する。 The frequency distribution data of the number of motion speed pixels V'x, V "x, and V'y, V" y corresponding to the widths in the X and Y directions of the motion contour information 14'and 14 "in FIG. 13 (b1). These are shown in FIGS. 13 (c1) and 13 (c2), respectively. The frequency distribution of the number of motion speed pixels has a range depending on the shape of the moving body, but here, the number of speed pixels with the highest frequency is the representative speed in the X direction and the Y direction. The number of pixels is described as V'x0 and V'y0, respectively.

動き輪郭情報14’、14”の動き速度画素数V’x、V”x、及びV’y、V”yから速度を取得するには、カメラの光学系(被写体までの距離、レンズ倍率他)で決まる実際の距離に換算する必要がある。これが換算表50であり、画面上の各被写体位置での画素数と実際の長さとの換算表である。画素位置により換算係数が異なり、速度測定を行う場合には事前に各撮影場所で換算表を作成する必要がある。輪郭領域の場所と画素幅から換算表50を基に実際の長さを求め、1フレーム期間で換算して実際の速度を求める。これらの演算は動体速度演算部49で行われ、動体速度情報22が出力される。
代表速度画素数V’x0、V’y0より換算表50にて求めたX方向、Y方向の代表速度をそれぞれVx0、Vy0で記載する。以降の説明で長さは、画素数表示段階ではダッシュ´を付与し、実長では付与しない。これは図13に示す速度だけでなく、図14の長さでも同様である。
Motion speed of motion contour information 14', 14 "To obtain the velocity from the number of pixels V'x, V" x, and V'y, V "y, the optical system of the camera (distance to the subject, lens magnification, etc.) It is necessary to convert to the actual distance determined by). This is the conversion table 50, which is a conversion table between the number of pixels at each subject position on the screen and the actual length. The conversion coefficient differs depending on the pixel position, and the speed. When performing measurement, it is necessary to create a conversion table at each shooting location in advance. The actual length is obtained from the location of the contour area and the pixel width based on the conversion table 50, and the actual length is converted in one frame period. These calculations are performed by the moving body speed calculation unit 49, and the moving body speed information 22 is output.
Representative speeds The representative speeds in the X and Y directions obtained from the conversion table 50 from the number of pixels V'x0 and V'y0 are described in Vx0 and Vy0, respectively. In the following description, the length is given a dash'at the pixel number display stage, and is not given at the actual length. This applies not only to the speed shown in FIG. 13 but also to the length shown in FIG.

図13(d)には、動体のX方向、Y方向の代表速度であるVx0、Vy0と、それらの二乗和の平方根がV0で示されている。V0は動体の代表速度とする。動体速度演算部49からは動体速度情報22が出力されるが、この中身は、動体の代表速度V0と、X方向、Y方向の代表速度であるVx0、Vy0が含まれている。この動体速度情報22は動体方向演算部47に転送され、動体の方向算出に役立てる。
In FIG. 13D, Vx0 and Vy0, which are representative velocities in the X and Y directions of the moving body, and the square root of the sum of squares thereof are shown by V0. V0 is the representative velocity of the moving body. The moving body speed information 22 is output from the moving body speed calculation unit 49, and the contents include the representative speed V0 of the moving body and the representative speeds Vx0 and Vy0 in the X and Y directions. The moving body velocity information 22 is transferred to the moving body direction calculation unit 47 and is useful for calculating the direction of the moving body.

<実施形態4;動体サイズ情報>
図2に示される動き輪郭抽出部4から出力される動き輪郭情報14及び、図3で示す動き情報抽出部5の動体速度判定部17から出力される動体速度情報22と、動体方向判定部18から出力される動体方向情報24とを動体サイズ判定部19に入力し、動体サイズ判定部19より動体サイズ情報25を取得する方法に付き、図14(a)、(b)、(c)、(d)を基に説明する。
<Embodiment 4; moving body size information>
The motion contour information 14 output from the motion contour extraction unit 4 shown in FIG. 2, the motion velocity information 22 output from the motion velocity determination unit 17 of the motion information extraction unit 5 shown in FIG. 3, and the motion object direction determination unit 18 A method of inputting the moving body direction information 24 output from the above to the moving body size determination unit 19 and acquiring the moving body size information 25 from the moving body size determination unit 19 is described in FIGS. This will be described based on (d).

図14(a)で示されるように、動体サイズ判定部19は動体サイズ抽出部51、動体サイズ演算部52、及び換算表50で構成される。動体サイズ抽出部51には動き輪郭抽出部4より動き輪郭情報14が、動体速度判定部17より動体速度情報22が、動体方向判定部18より動体方向情報24がそれぞれ入力される。動体サイズ抽出部48と換算表50の情報を動体サイズ演算部52にて演算し、動体サイズ情報25が出力される。動体サイズ抽出部51にて情報25は動体骨格点抽出部20へも出力される。動体サイズ抽出部51でサイズ抽出の過程で得られた情報は、骨格点候補情報26として動体骨格点抽出部20に送られ、骨格点抽出に役立てる。 As shown in FIG. 14A, the moving body size determination unit 19 includes a moving body size extracting unit 51, a moving body size calculation unit 52, and a conversion table 50. The moving contour information 14 is input from the moving contour extracting unit 4, the moving body velocity information 22 is input from the moving body speed determining unit 17, and the moving body direction information 24 is input from the moving body direction determining unit 18 to the moving body size extracting unit 51. The information of the moving body size extracting unit 48 and the conversion table 50 is calculated by the moving body size calculation unit 52, and the moving body size information 25 is output. The information 25 is also output to the moving body skeleton point extracting unit 20 by the moving body size extracting unit 51. The information obtained in the process of size extraction by the moving body size extracting unit 51 is sent to the moving body skeleton point extracting unit 20 as skeleton point candidate information 26, and is useful for skeleton point extraction.

図14(b1)には、図12(b3)に対応した動き輪郭情報14’(先端)、14”(後端)が平面的なイメージで示されている。また図14(b2)には、図7(b4)に示されるような走査線上の動き輪郭情報14であり、図14(b1)に示される動き輪郭情報14’(先端)、14”(後端)の出力が示されている。動体方向情報24は、この対となる動き輪郭情報14’(先端)、14”(後端)の選択判断に使われる。 FIG. 14 (b1) shows motion contour information 14'(front end) and 14 "(rear end) corresponding to FIG. 12 (b3) as a planar image, and FIG. 14 (b2) shows. , The motion contour information 14 on the scanning line as shown in FIG. 7 (b4), and the output of the motion contour information 14'(front end) and 14 "(rear end) shown in FIG. 14 (b1) is shown. There is. The moving body direction information 24 is used for selection determination of the paired movement contour information 14'(front end) and 14 "(rear end).

動体サイズ抽出部51においては、動き輪郭情報14’、14”での動き輪郭領域の外形幅をX方向、Y方向に求める。この外形幅はこの外形幅はX方向に関しては、同一走査線上の動き輪郭情報14’と14”の双方にかかるように外形幅を求め、動きサイズ画素数と呼び、L’xで表記する。動き輪郭情報14’か14”の何れか単独の外形寸法は対象外とする。図14(b2)に示すように、X方向の動きサイズ画素数L’xは動体が1フレーム期間で移動しカバーする領域幅(画素数)に対応し、両端に速度画素数V’x0、V”x0を付随している。従って、実際の動きサイズ画素数は動きサイズ画素数L’xから速度画素数V’x0、V”x0を減算したものになる。Y方向に付いても上記X方向と同様である。 In the moving body size extracting unit 51, the outer width of the movement contour region in the movement contour information 14', 14 "is obtained in the X direction and the Y direction. This outer width is on the same scanning line in the X direction. The outer width is obtained so as to cover both the motion contour information 14'and 14 ", which is called the motion size pixel number and is expressed by L'x. The external dimensions of either the motion contour information 14'or 14 "are excluded. As shown in FIG. 14 (b2), the motion size pixel number L'x in the X direction is such that the moving object moves in one frame period. Corresponding to the area width (number of pixels) to be covered, the speed pixels V'x0 and V "x0 are attached to both ends. Therefore, the actual number of motion size pixels is obtained by subtracting the number of velocity pixels V'x0 and V "x0 from the number of motion size pixels L'x. The Y direction is the same as the X direction.

図14(b1)で動き輪郭情報14’、14”の動き輪郭領域の外形幅をX方向、Y方向で、それぞれL’x、L’yの様に求めているが、この長さの中点の画素座標位置を図中に黒丸で示している。この座標位置は骨格点候補情報26となり、動体サイズ抽出部51より出力され、骨格点抽出部20で使われる。 In FIG. 14 (b1), the outer widths of the movement contour regions of the movement contour information 14'and 14 "are obtained in the X and Y directions as L'x and L'y, respectively. The pixel coordinate position of the point is indicated by a black circle in the figure. This coordinate position becomes the skeleton point candidate information 26, is output from the moving body size extraction unit 51, and is used by the skeleton point extraction unit 20.

図14(b1)の動き輪郭情報14’、14”のX方向、Y方向の幅に相当する動きサイズ画素数L’x、L’yの頻度分布データをそれぞれ図14(c1)、(c2)に示している。動体の形状により動きサイズ画素数の頻度分布は幅を持つが、ここでは頻度の最も高い動きサイズ画素数をX方向、Y方向の代表動きサイズ画素数としてそれぞれL’xp、L’ypで記載する。図14(b2)で示すように、X方向の動体のサイズの代表サイズ画素数L’x0はL’xpより代表速度画素数V’x0を減算したL’x0=L’xp―V’x0となる。 The frequency distribution data of the number of motion size pixels L'x and L'y corresponding to the widths in the X and Y directions of the motion contour information 14'and 14 "of FIG. 14 (b1) are shown in FIGS. 14 (c1) and 14 (c2), respectively. ). The frequency distribution of the number of motion size pixels varies depending on the shape of the moving object. Here, the number of motion size pixels with the highest frequency is L'mx as the number of representative motion size pixels in the X and Y directions, respectively. , L'yp. As shown in FIG. 14 (b2), the representative size pixel number L'x0 of the size of the moving body in the X direction is L'x0 obtained by subtracting the representative speed pixel number V'x0 from L'xp. = L'xp-V'x0.

動き輪郭情報14’、14”から求めた代表サイズ画素数L’x0、L’y0から実際の動体サイズを取得するには、カメラの光学系(被写体までの距離、レンズ倍率他)で決まる実際の距離に換算する必要がある。これが換算表50であり、画面上の各被写体位置での画素数と実際の長さとの換算表であり、速度を求めた際に使用した換算表50と同じである。動体サイズ演算部52にて演算が行われ、動体サイズ情報25が出力される。 Representative size obtained from motion contour information 14', 14 "To acquire the actual moving object size from the number of pixels L'x0, L'y0, it is actually determined by the optical system of the camera (distance to the subject, lens magnification, etc.). This is the conversion table 50, which is the conversion table between the number of pixels at each subject position on the screen and the actual length, and is the same as the conversion table 50 used when calculating the speed. The operation is performed by the moving body size calculation unit 52, and the moving body size information 25 is output.

実際のサイズを求めるには、X方向、Y方向の代表動きサイズ画素数であるL’xp、L’ypより、代表速度画素数V’x0、V’y0を減算して、実際のサイズに相当する代表サイズ画素数;L’x0、L’y0を求める。次のステップとして換算表50にて求めたX方向、Y方向の動体サイズ情報Lx0、Ly0を求める。
図14(d)に示すように動体の動きの方向に即した動体サイズ情報Lx、Lyは、X方向、Y方向での動体サイズ情報Lx=Lx0tanθ、Ly=Ly0tanθで求まる。θの値によりtanは負値も取るので絶対値で表記する。
To obtain the actual size, subtract the representative speed pixels V'x0 and V'y0 from the representative motion size pixels L'xp and L'yp in the X and Y directions to obtain the actual size. The number of corresponding representative size pixels; L'x0 and L'y0 are obtained. As the next step, the moving body size information Lx0 and Ly0 in the X and Y directions obtained in the conversion table 50 are obtained.
As shown in FIG. 14D, the moving body size information Lx and Ly corresponding to the direction of movement of the moving body can be obtained by the moving body size information Lx = Lx0tanθ and Ly = Ly0tanθ in the X and Y directions. Since tan also takes a negative value depending on the value of θ, it is expressed as an absolute value.

<実施形態5;動体骨格点情報(中点方式)>
図2に示される動き輪郭抽出部4から出力される動き輪郭情報14と、図3で示す動き情報抽出部5の動体サイズ判定部19から出力される骨格点候補情報26とを、動体骨格点判定部20に入力し、動体骨格情報27と特徴点候補情報26’を取得する方法に付き、図15(a)、(b)、(c)、(d)を基に説明する。
<Embodiment 5; moving body skeleton point information (midpoint method)>
The motion contour information 14 output from the motion contour extraction unit 4 shown in FIG. 2 and the skeleton point candidate information 26 output from the motion object size determination unit 19 of the motion information extraction unit 5 shown in FIG. 3 are combined with the motion skeleton point. A method of inputting to the determination unit 20 and acquiring the moving body skeleton information 27 and the feature point candidate information 26'will be described with reference to FIGS. 15 (a), (b), (c), and (d).

図15(a)で示されるように、動体骨格点判定部20は動体骨格点抽出部53、動体骨格点合成部54で構成される。動体骨格点抽出部53には動き輪郭抽出部4より動き輪郭情報14が、動体サイズ抽出部51より骨格点候補情報26がそれぞれ入力される。動体サイズ抽出部51では既に図14(b1)で示すように、動き輪郭情報14’、14”の動き輪郭領域の外形幅の中点の画素座標位置は骨格点候補情報26として取得済である。図15(b1)に示すように、この骨格点候補情報26は対となっている動き輪郭情報14’、14”の各走査線に取得されている。図中破線はX方向の走査線上の輪郭領域の外形幅(L’x)に相当する線分(ここでは走査線線分と呼ぶ)を、黒丸はその中点を示している。この黒丸の座標位置群が骨格点候補情報26である。図中太い破線で示した走査線線分があるが、これは動き輪郭情報14’、14”の骨格点候補情報26が存在するX方向の走査線線分群の内、上下方向の中間位置にある走査線線分であり、これは特徴点候補情報26’となる。 As shown in FIG. 15A, the moving body skeleton point determination unit 20 is composed of a moving body skeleton point extraction unit 53 and a moving body skeleton point synthesis unit 54. The motion contour information 14 is input to the moving body skeleton point extraction unit 53 from the motion contour extraction unit 4, and the skeleton point candidate information 26 is input from the moving body size extraction unit 51. As shown in FIG. 14 (b1), the moving body size extracting unit 51 has already acquired the pixel coordinate position of the midpoint of the outer width of the motion contour area of the motion contour information 14', 14 "as the skeleton point candidate information 26. As shown in FIG. 15 (b1), the skeleton point candidate information 26 is acquired in each scanning line of the paired motion contour information 14'and 14'. In the figure, the broken line indicates a line segment (referred to here as a scanning line segment) corresponding to the outer width (L'x) of the contour region on the scanning line in the X direction, and the black circle indicates the midpoint thereof. The coordinate position group of this black circle is the skeleton point candidate information 26. There is a scanning line segment shown by a thick broken line in the figure, but this is at an intermediate position in the vertical direction in the scanning line segment group in the X direction in which the skeleton point candidate information 26 of the motion contour information 14'and 14 "exists. It is a certain scanning line segment, which becomes feature point candidate information 26'.

動体骨格点抽出部53では、図15(b1)で示される動き輪郭情報14’、14”のX方向の走査線線分群の骨格点候補情報26xの黒丸で示される座標位置群から動体骨格点を抽出する。抽出方法としては、まず両端の骨格候補点情報26x、26xと、骨格点候補情報26の延長線上と、次に隣接する骨格候補点情報のなす角φが、所定以上となる点を動体骨格点26xとする。
図15(b1)のケースでは動体骨格点は26x26x、26xの3つとなる。中央の走査線線分を特徴点候補情報26’xと呼び、図15(b2)に示されるように、動体骨格抽出部53より、動体特徴点判定部21に特徴点候補情報26’として出力される。
In the moving body skeleton point extraction unit 53, the moving body skeleton point is taken from the coordinate position group indicated by the black circle of the skeleton point candidate information 26x of the scanning line segment group in the X direction of the motion contour information 14'and 14 "shown in FIG. 15 (b1). As an extraction method, first, the angle φ formed by the skeleton candidate point information 26x 1 and 26x 2 at both ends, the extension line of the skeleton point candidate information 26, and the adjacent skeleton candidate point information is equal to or larger than a predetermined angle. Let the moving body skeleton point be 26x3 .
In the case of FIG. 15 (b1), there are three moving skeleton points, 26 x 1 26 x 2 and 26 x 3. The central scanning line segment is called feature point candidate information 26'x, and as shown in FIG. 15 (b2), the moving body skeleton extraction unit 53 outputs the feature point candidate information 26'to the moving body feature point determination unit 21. Will be done.

同様に、図15(c1)で示される動き輪郭情報14’、14”のY方向の走査線線分群の骨格点候補情報26yの黒丸で示される座標位置群から動体骨格点を抽出する。まず両端の骨格候補点情報26y、26yと、骨格点候補情報26の延長線上と、隣接する骨格候補点情報のなす角φが、所定以上となる点の動体骨格点26yとが抽出される。このような動体骨格点取得方法を中点方式と称す。
図15(c1)のケースでは動体骨格点は26y26y、26yの3つである。また中央にある走査線線分が特徴点候補情報26’yとなり、図15(c2)に示されるように、動体骨格抽出部53より、動体特徴点判定部21に、同じく特徴点候補情報26’として出力される。
Similarly, the moving body skeleton points are first extracted from the coordinate position group indicated by the black circle of the skeleton point candidate information 26y of the scanning line segment group in the Y direction of the motion contour information 14'and 14 "shown in FIG. 15 (c1). The skeleton candidate point information 26y 1 and 26y 2 at both ends, the extension line of the skeleton point candidate information 26, and the moving skeleton point 26y 3 at the point where the angle φ formed by the adjacent skeleton candidate point information is equal to or more than a predetermined value are extracted. This method of acquiring moving body skeleton points is called the midpoint method.
In the case of FIG. 15 (c1), there are three moving skeleton points, 26y 1 , 26y 2 , and 26y 3 . Further, the scanning line segment in the center becomes the feature point candidate information 26'y, and as shown in FIG. 15 (c2), the feature point candidate information 26 is also transmitted from the moving body skeleton extraction unit 53 to the moving body feature point determination unit 21. 'It is output as.

動体骨格点抽出部53にて抽出した動体骨格点26x26x、26x及び26y26y、26yは、動体骨格点合成部54にて合成され図15(d)のようになる。これら動体骨格点群の画素座標位置情報が動体骨格点情報27として動体骨格点合成部51より外部に出力される。
図15(b2)、13(c2)でそれぞれ示される特徴点候補情報26’x、26’yは、特徴点候補情報26’として動体骨格点抽出部53より出力され、動体特徴点判定部22に入力される。
The moving body skeleton points 26x 1 26x 2 , 26x 3 and 26y 1 26y 2 , 26y 3 extracted by the moving body skeleton point extracting unit 53 are synthesized by the moving body skeleton point synthesizing unit 54 and are as shown in FIG. 15 (d). The pixel coordinate position information of these moving body skeleton point groups is output to the outside from the moving body skeleton point synthesizing unit 51 as the moving body skeleton point information 27.
The feature point candidate information 26'x and 26'y shown in FIGS. 15 (b2) and 13 (c2) are output from the moving body skeleton point extraction unit 53 as feature point candidate information 26', respectively, and the moving body feature point determination unit 22. Is entered in.

<実施形態6;動体特徴点情報(中点方式)>
図15(a)に示される動体骨格点判定部20から出力される特徴点候補情報26’を、動特徴点判定部21に入力し、動体特徴点情報28を取得する方法に付き、図16(a)、(b)を基に説明する。
<Embodiment 6; Moving object feature point information (midpoint method)>
A method of inputting the feature point candidate information 26'output from the moving body skeleton point determination unit 20 shown in FIG. 15A into the moving feature point determination unit 21 and acquiring the moving body feature point information 28 is described in FIG. This will be described based on (a) and (b).

図16(a)で示されるように、動体特徴点判定部20は動体特徴点抽出部55のみで構成される。動体特徴点抽出部55には動体骨格点抽出部53より特徴点候補情報26’が入力される。
動体骨格点抽出部53では、X走査線線分方向に図16(b1)で示すように特徴点候補情報26’xが、Y走査線線分方向に図16(b2)で示すように特徴点候補情報26’yが、既に特徴点候補情報26’として取得済である。動体特徴点抽出部55では、特徴点候補情報26’xと特徴点候補情報26’yとの交点の画素座標位置情報が、動体特徴点情報28として出力される。この動体特徴点取得方法も中点方式と称す
As shown in FIG. 16A, the moving body feature point determination unit 20 is composed of only the moving body feature point extraction unit 55. Feature point candidate information 26'is input from the moving body skeleton point extraction unit 53 to the moving body feature point extraction unit 55.
In the moving body skeleton point extraction unit 53, the feature point candidate information 26'x is characterized as shown in FIG. 16 (b2) in the X scanning line segment direction as shown in FIG. 16 (b1). The point candidate information 26'y has already been acquired as the feature point candidate information 26'. In the moving body feature point extraction unit 55, the pixel coordinate position information of the intersection of the feature point candidate information 26'x and the feature point candidate information 26'y is output as the moving body feature point information 28. This moving object feature point acquisition method is also called the midpoint method.

<実施形態7;動体骨格点情報(重心方式)>
図2に示される動き輪郭抽出部4から出力される動き輪郭情報14のみを動体骨格点判定部20に入力し、動体骨格情報27と特徴点候補情報26’を取得する方法を図17(a)、(b)を基に説明する。
<Embodiment 7; moving body skeleton point information (center of gravity method)>
FIG. 17 (a) shows a method of inputting only the motion contour information 14 output from the motion contour extraction unit 4 shown in FIG. 2 into the moving body skeleton point determination unit 20 and acquiring the moving body skeleton information 27 and the feature point candidate information 26'. ) And (b) will be described.

図17(a)で示されるように、動体骨格点判定部20は動体骨格点抽出部53のみで構成される。動体骨格点抽出部53には動き輪郭抽出部4より動き輪郭情報14が入力される。
動体骨格点の抽出の仕方としては、実施形態5では中点方式と称し、図15(a)で動き輪郭領域の外形幅(L’x)に相当する走査線線分の中点の画素座標位置を骨格点候補情報26とし、図15(b1)、(b2)で、骨格点26x、26x、26xと、26y26y、26yを取得する方法につき説明した。
一方、図17(b)に示す実施形態7では重心方式と称し、対となっている動き輪郭情報14’、14”を領域分割して、各領域の重心位置の画素座標位置を骨格点情報27として取得する。
As shown in FIG. 17A, the moving body skeleton point determination unit 20 is composed of only the moving body skeleton point extraction unit 53. The motion contour information 14 is input from the motion contour extraction unit 4 to the moving body skeleton point extraction unit 53.
The method of extracting the moving body skeleton point is referred to as the midpoint method in the fifth embodiment, and the pixel coordinates of the midpoint of the scanning line segment corresponding to the outer width (L'x) of the motion contour region in FIG. 15A. With the position as the skeleton point candidate information 26, the method of acquiring the skeleton points 26x 1 , 26x 2 , 26x 3 and 26y 1 26y 2 and 26y 3 has been described in FIGS. 15 (b1) and 15 (b2).
On the other hand, in the seventh embodiment shown in FIG. 17 (b), it is referred to as a center of gravity method, and the paired motion contour information 14', 14 "is divided into regions, and the pixel coordinate position of the center of gravity position of each region is skeleton point information. Acquire as 27.

動き輪郭情報14’、14”の領域分割の仕方は、X方向に延びる走査線でスキャンする過程で、動き輪郭領域14”の数が変わる個所で分割する。その個所に該当する走査線は、図17(b)では走査線56x1、走査線56x4である。動き輪郭領域14”、14’の符号が変わる個所で分割する。その個所に該当する走査線は、図17(b)では走査線56x2、走査線56x3である。 The method of dividing the motion contour information 14'and 14 "regions is to divide the motion contour regions 14'at the points where the number of the motion contour regions 14" changes in the process of scanning with the scanning line extending in the X direction. The scanning lines corresponding to the locations are scanning lines 56 x 1 and scanning lines 56 x 4 in FIG. 17 (b). The motion contour regions 14 "and 14'are divided at locations where the signs change. The scanning lines corresponding to these locations are scanning lines 56 x 2 and scanning lines 56 x 3 in FIG. 17 (b).

図17(b)において走査線56x1、走査線56x2、走査線56x3、、走査線56x4で分割された領域の重心の画素座標位置を骨格点候補情報26とし、図17(b)に動体骨格点26x、26x、26x、26xと、26x、26x、26x、26xとして示す。ここで重心の取得方法は輪郭情報14’、14”の走査線56x1、走査線56x2、走査線56x3、走査線56x4で分割された領域毎に画素座標位置の平均座標を演算することで得られる。Y方向に延びる走査線では行わないので、図15(a)の動体骨格点合成部54が不要になり、この骨格点候補情報26の画素座標位置が動体骨格点情報27として出力される。
図17(b)のケースでは動体骨格点26x、26x、26x、26x、26x、26x、26x、26xは、特徴点候補情報26’として動体骨格点抽出部53より出力され、動体特徴点判定部22に入力される。
重心方式の利点はY方向の走査線での演算が無く、X方向の走査線に沿い演算が進む点である。
In FIG. 17B, the pixel coordinate position of the center of gravity of the region divided by the scanning lines 56 x1 , the scanning lines 56 x2 , the scanning lines 56 x3 , and the scanning lines 56 x4 is set as the skeleton point candidate information 26, and FIG. The moving body skeleton points are shown as 26x 1 , 26x 2 , 26x 3 , 26x 4 , and 26x 5 , 26x 6 , 26x 7 , 26x 8 . Here, the method of acquiring the center of gravity is to calculate the average coordinates of the pixel coordinate positions for each region divided by the scanning lines 56 x1 , the scanning lines 56 x2 , the scanning lines 56 x3 , and the scanning lines 56 x4 of the contour information 14', 14 ". Since it is not performed with the scanning line extending in the Y direction, the moving body skeleton point synthesizing unit 54 in FIG. 15A becomes unnecessary, and the pixel coordinate position of the skeleton point candidate information 26 is used as the moving body skeleton point information 27. It is output.
In the case of FIG. 17B, the moving body skeleton points 26x 1 , 26x 2 , 26x 3 , 26x 4 , 26x 5 , 26x 6 , 26x 7 , and 26x 8 are obtained from the moving body skeleton point extraction unit 53 as feature point candidate information 26'. It is output and input to the moving object feature point determination unit 22.
The advantage of the center of gravity method is that there is no calculation on the scanning line in the Y direction, and the calculation proceeds along the scanning line in the X direction.

<実施形態8;動体特徴点情報(重心方式)>
図17(a)に示される動体骨格点判定部20から出力される特徴点候補情報26’を、動特徴点判定部21に入力し、動体特徴点情報28を取得する方法に付き、図18(a)、図18(b)を基に説明する。
<Embodiment 8; Moving object feature point information (center of gravity method)>
FIG. 18 relates to a method of inputting feature point candidate information 26'output from the moving body skeleton point determination unit 20 shown in FIG. 17A into the moving feature point determination unit 21 and acquiring moving body feature point information 28. (A) will be described with reference to FIG. 18 (b).

図18(a)は既に実施形態6の図16(a)で説明済である。今回の実施形態8(重心方式)では動体特徴点抽出部55で、動体骨格点26x、26x、26x、26x、26x、26xがそのまま特徴点候補情報26’になっている。動体特徴点抽出部55では、動体骨格点26x、26x、26x、26x、26x、26xの画素座標位置の平均座標位置を演算し取得し、動体特徴点情報28として出力される。 FIG. 18 (a) has already been described with reference to FIG. 16 (a) of the sixth embodiment. In the present embodiment 8 (center of gravity method), in the moving body feature point extraction unit 55, the moving body skeleton points 26x 1 , 26x 2 , 26x 3 , 26x 4 , 26x 5 , and 26x 6 are used as the feature point candidate information 26'as they are. .. The moving body feature point extraction unit 55 calculates and acquires the average coordinate position of the pixel coordinate positions of the moving body skeleton points 26x 1 , 26x 2 , 26x 3 , 26x 4 , 26x 5 , and 26x 6 , and outputs the moving body feature point information 28. To.

動体骨格点26x、26x、26x、26x、26x、26xの画素座標位置に重み付け(重心を取得する際の画素数;領域の面積に相当)を行って平均座標位置を取得し、動体特徴点情報28としても良い。この演算は領域毎に動体骨格点を演算するのと並行して、動体の動き輪郭情報14’、14”の全体に渡って画素座標位置の平均座標を取得することで重心の位置が得られる。これらの動体特徴点取得方法も重心方式と称する。
重心方式の利点はY方向の走査線での演算が無く、X方向の走査線に沿い演算が進む点である。
The average coordinate position is obtained by weighting the pixel coordinate positions of the moving body skeleton points 26x 1 , 26x 2 , 26x 3 , 26x 4 , 26x 5 , and 26x 6 (the number of pixels when acquiring the center of gravity; corresponding to the area of the area). However, it may be used as the moving object feature point information 28. In this calculation, in parallel with the calculation of the moving body skeleton point for each area, the position of the center of gravity can be obtained by acquiring the average coordinates of the pixel coordinate positions over the entire movement contour information 14', 14 "of the moving body. These moving body feature point acquisition methods are also called the center of gravity method.
The advantage of the center of gravity method is that there is no calculation on the scanning line in the Y direction, and the calculation proceeds along the scanning line in the X direction.

<実施形態9;不均一速度動体骨格点情報(中点方式)>
上述の実施形態5、6、7、8では、同速度、同方向に移動する一体ものの動体の骨格点候補情報27と動体特徴点情報28を取得する方法につき説明したが、動体としてはこれ以外に腕の動きの様に場所毎に速度、方向の異なる場合もある。この動体を不均一速度動体と称し、このケースについて図19(a)、(b)、(c)、(d)、(e)で説明する。
<Embodiment 9; Non-uniform velocity moving body skeleton point information (midpoint method)>
In the above-described embodiments 5, 6, 7, and 8, a method of acquiring skeleton point candidate information 27 and moving body feature point information 28 of an integral moving body moving at the same speed and in the same direction has been described, but other moving bodies are used. In some cases, the speed and direction may differ from place to place, such as the movement of the arm. This moving body is referred to as a non-uniform velocity moving body, and this case will be described with reference to FIGS. 19 (a), (b), (c), (d), and (e).

人の腕の動きを図19(a1)、(a2)、(a3)で示す。ここでは上にかざした腕57のみ矢印のように動くとする。動きは左右の往復運動である。この動きに対する動き輪郭情報14’、14”は図19(b1)、(b2)のようになる。図19(b1)は図19(a1)、(a2)の、図19(b2)は図19(a2)、(a3)のフレーム差分でそれぞれ求めた例に付き示している。ここで動き輪郭情報14’、14”の幅(速度に相当)は腕57の場所々で異なる。具体的には図19(b1)中、X方向、Y方向の速度に対応するVx0、Vy0の合成速度V0は腕57の先端部分(手)と、付け根部分(肩部分)では異なり、当然先端部分が速度は速い。 The movement of the human arm is shown in FIGS. 19 (a1), (a2), and (a3). Here, it is assumed that only the arm 57 held up moves as shown by the arrow. The movement is a reciprocating motion from side to side. The motion contour information 14'and 14 "for this motion are as shown in FIGS. 19 (b1) and 19 (b2). FIG. 19 (b1) is a diagram of FIGS. 19 (a1) and 19 (a2), and FIG. 19 (b2) is a diagram. It is shown in the example obtained by the frame difference of 19 (a2) and (a3), respectively. Here, the width (corresponding to the speed) of the movement contour information 14'and 14 "different depending on the location of the arm 57. Specifically, in FIG. 19 (b1), the combined speed V0 of Vx0 and Vy0 corresponding to the speeds in the X and Y directions is different between the tip portion (hand) and the base portion (shoulder portion) of the arm 57, and naturally the tip. The part is fast.

図19(b1)に示した動き輪郭情報14’、14”より、動き輪郭領域の外形幅の中点の画素座標位置で求めた骨格点候補情報26としては、図19(c1)に黒点で示したようになる。ここでは図15(b1)と同様に、この骨格点候補情報26は対となっている動き輪郭情報14’、14”の各走査線に取得されている。図中破線はX方向の走査線上の輪郭領域の外形幅(L’x)に相当する走査線線分を、黒丸はその中点を示している。この黒丸の座標位置群が骨格点候補情報26xである。 From the motion contour information 14'and 14 "shown in FIG. 19 (b1), the skeleton point candidate information 26 obtained at the pixel coordinate position of the midpoint of the outer width of the motion contour region is shown in FIG. 19 (c1) with a black dot. As shown in FIG. 15 (b1), the skeleton point candidate information 26 is acquired in each scanning line of the paired motion contour information 14'and 14'. In the figure, the broken line indicates the scanning line segment corresponding to the outer width (L'x) of the contour region on the scanning line in the X direction, and the black circle indicates the midpoint thereof. The coordinate position group of this black circle is the skeleton point candidate information 26x.

図19(c1)の黒丸で示される骨格点候補情報26xから動体骨格点を抽出する方法としては、図15(b1)と同様に行い、図19(d1)のように両端部26x、26xと変曲点26xが求まる。
図19(c1)のケースでは動体骨格点26x、26x、26xは、そのまま特徴点候補情報26’として動体骨格点抽出部53より出力され、動体特徴点判定部22に入力される。
The method of extracting the moving skeleton point from the skeleton point candidate information 26x indicated by the black circle in FIG. 19 (c1) is the same as in FIG. 15 (b1), and both ends 26x 1 , 26x as shown in FIG. 19 (d1). 3 and the inflection point 26x2 are obtained.
In the case of FIG. 19 (c1), the moving body skeleton points 26x 1 , 26x 2 , and 26x 3 are directly output as feature point candidate information 26'from the moving body skeleton point extraction unit 53 and input to the moving body feature point determination unit 22.

<実施形態10;不均一速度動体特徴点情報(中点方式)>
動体骨格点判定部20から出力される特徴点候補情報26’を、動特徴点判定部21に入力し、動体特徴点情報28を取得する方法に付き、図19(d1)を基に説明する。
<Embodiment 10; Non-uniform velocity moving body feature point information (midpoint method)>
The method of inputting the feature point candidate information 26'output from the moving body skeleton point determination unit 20 to the moving feature point determination unit 21 and acquiring the moving body feature point information 28 will be described with reference to FIG. 19 (d1). ..

不均一速度動体のケースでは、特徴点としては動体速度が最も早い箇所での動き情報が重要であり、動体特徴点抽出部55で、図19(d1)の骨格点と同じ特徴点候補情報26x、26x、26xの内、最も速度が速い26xの画素座標位置が図19(e1)のように動体特徴点情報28として出力される。
In the case of a non-uniform velocity moving body, the motion information at the place where the moving body velocity is the fastest is important as the feature point, and the moving body feature point extraction unit 55 has the same feature point candidate information 26x as the skeleton point of FIG. 19 (d1). Of 1 , 26x2 and 26x3 , the pixel coordinate position of 26x1 having the fastest speed is output as moving object feature point information 28 as shown in FIG. 19 (e1).

<撮像装置の実施形態2>
今までは大分類の撮像装置の実施形態1として、撮像装置としては撮像カメラ1で説明を行ってきたが、以降は大分類の撮像装置の実施形態2とし、撮像装置として図20に示す固体撮像装置3”の説明を行う。
<Embodiment 2 of the image pickup apparatus>
Up to now, the image sensor 1 has been described as the image sensor as the first embodiment of the image sensor of the major category, but thereafter, the image sensor of the image sensor of the major category has been described as the second embodiment, and the solid state shown in FIG. 20 as the image sensor. The image sensor 3 "will be described.

図1の撮像カメラ1では図6の固体撮像装置3、図8の固体撮像装置3’から装置から出力される撮像情報8を、動き輪郭抽出部4、動き情報抽出部5、情報出力部6で処理した後に、情報出力31として外部に出力していた。これに対し図20で示す固体撮像装置3”は、画素部58、動き輪郭抽出部4、動き情報抽出部5、情報出力部6、時計7を内部に包含する。図20はそれらのブロック図である。この固体撮像装置3”と称し、図6の固体撮像装置3、図8の固体撮像装置3’と区別する。画素部58は図9もしくは図10で示される露光時間の異なる2種類の画素43から構成される。それ以外のブロックの機能は図1の撮像カメラ1のブロックの機能と同じであり、個々のブロックの説明は省略する。 In the image pickup camera 1 of FIG. 1, the image pickup information 8 output from the solid-state image pickup device 3 of FIG. 6 and the solid-state image pickup device 3'of FIG. After processing with, it was output to the outside as information output 31. On the other hand, the solid-state image sensor 3 "shown in FIG. 20 includes a pixel unit 58, a motion contour extraction unit 4, a motion information extraction unit 5, an information output unit 6, and a clock 7 inside. FIG. 20 is a block diagram thereof. This is referred to as the solid-state image pickup device 3 ", and is distinguished from the solid-state image pickup device 3 of FIG. 6 and the solid-state image pickup device 3'of FIG. The pixel unit 58 is composed of two types of pixels 43 having different exposure times as shown in FIGS. 9 or 10. The functions of the other blocks are the same as the functions of the blocks of the image pickup camera 1 of FIG. 1, and the description of each block will be omitted.

図21は固体撮像装置3”の詳細なブロック構成図である。固体撮像装置3”は、センサチップ(通常の固体撮像装置3’に対応する)に、動き輪郭抽出部4に相当する画素差分処理部9’、動き輪郭判定部10、動体明暗判定部11と、動き情報抽出部5、情報出力部6、時計7を組み込み構成される。 FIG. 21 is a detailed block configuration diagram of the solid-state image sensor 3 ". The solid-state image sensor 3" has a sensor chip (corresponding to a normal solid-state image sensor 3') and a pixel difference corresponding to a motion contour extraction unit 4. The processing unit 9', the motion contour determination unit 10, the moving object light / dark determination unit 11, the motion information extraction unit 5, the information output unit 6, and the clock 7 are incorporated and configured.

図21の固体撮像装置3”では、画素差分処理部9’動き輪郭判定部10より出力された動き輪郭情報14、画素差分符号情報15と、動体明暗判定部11より出力された動体明暗情報16とを動き情報抽出部5に入力させ、動体に関する情報を取得した後に、情報出力部6で時計7の時刻情報を盛り込み情報出力31を外部に出力する。 In the solid-state imaging device 3 ”of FIG. 21, the motion contour information 14 and the pixel difference code information 15 output from the pixel difference processing unit 9 ′ motion contour determination unit 10 and the moving object light / dark information 16 output from the moving object light / dark determination unit 11. Is input to the motion information extraction unit 5, and after acquiring information about the moving object, the information output unit 6 incorporates the time information of the clock 7 and outputs the information output 31 to the outside.

図21の固体撮像装置3”の画素部58につき説明すると、カラー撮像用として各画素にベイヤー配置の色フィルタが形成されている。これが図中では緑(Gr、Gb)、赤(R)、青(B)で示される。
タイミング発生回路59で発生したマスタークロックを基に、画素での露光制御、垂直走査、水平走査を行う。露光制御方法としては、図9、図10で説明した長時間露光画素STLと短時間露光画素STSの、それぞれの露光時間TL、TSを露光時間生成回路60にて生成し、垂直走査回路61を介して画素部58を制御する。
Explaining the pixel portion 58 of the solid-state image sensor 3 "in FIG. 21, a Bayer-arranged color filter is formed in each pixel for color imaging. In the figure, green (Gr, Gb), red (R), and red (R) are formed. Shown in blue (B).
Based on the master clock generated by the timing generation circuit 59, exposure control with pixels, vertical scanning, and horizontal scanning are performed. As an exposure control method, the exposure time TL and TS of the long-exposure pixel STL and the short-time exposure pixel STS described with reference to FIGS. 9 and 10 are generated by the exposure time generation circuit 60, and the vertical scanning circuit 61 is formed. The pixel unit 58 is controlled via the device.

垂直並列制御回路62では、垂直方向に配置した画素駆動ラインを複数本同時にONにすることで、垂直に配置した同色の画素信号を垂直合成(平均化)することができる。画素部58の上部には、画素部58から出力される複数の垂直信号線の画素信号を同時に読み出す回路は、水平方向の読出しを走査する水平走査回路63、垂直信号線を受け水平方向で信号を合成する水平合成回路64、で構成されている。水平合成回路64で同色の画素信号を水平合成(平均化)することが出来る。この同色の画素合成は露光時間が同じ画素どうしで行い、短時間露光画素STS、長時間露光画素STLに対応し、撮像STS、撮像STLになる。 In the vertical parallel control circuit 62, by turning on a plurality of pixel drive lines arranged in the vertical direction at the same time, pixel signals of the same color arranged vertically can be vertically combined (averaged). At the top of the pixel unit 58, the circuit that simultaneously reads the pixel signals of a plurality of vertical signal lines output from the pixel unit 58 is a horizontal scanning circuit 63 that scans the reading in the horizontal direction, and receives the vertical signal line and signals in the horizontal direction. It is composed of a horizontal synthesis circuit 64, which synthesizes the above. The horizontal composition circuit 64 can horizontally combine (average) pixel signals of the same color. This pixel composition of the same color is performed between pixels having the same exposure time, and corresponds to the short-time exposure pixel STS and the long-time exposure pixel STL, and becomes an image pickup STS and an image pickup STL.

図9、図10で示したように、短時間露光画素STSと長時間露光画素STLは走査線毎に交互に繰り返しているが、同じ露光時間の同色の画素信号の合成化(平均化)は、複数走査線で行われるので、ほぼ同じ領域の長時間露光情報と短時間露光画素情報が取得できて、差分回路33で差分して得られる画素差分情報34’は、ほぼ同じ領域での比較になり動き情報の精度が上がる利点がある。
これは画素単位で短時間露光画素STSと長時間露光画素STLの差分を取ると、静止物体の場合でも輪郭部では差分がゼロにならない不具合(エッジノイズ)が発生するが、平均化することにより輪郭部のエッジノイズが大幅に抑制でき利点を生じる。
As shown in FIGS. 9 and 10, the short-time exposure pixel STS and the long-time exposure pixel STL are alternately repeated for each scanning line, but the synthesis (averaging) of the pixel signals of the same color with the same exposure time is performed. Since it is performed with a plurality of scanning lines, long-time exposure information and short-time exposure pixel information in almost the same area can be acquired, and the pixel difference information 34'obtained by difference in the difference circuit 33 is compared in almost the same area. There is an advantage that the accuracy of motion information is improved.
This is because if the difference between the short-exposure pixel STS and the long-exposure pixel STL is taken for each pixel, there will be a problem (edge noise) that the difference will not be zero in the contour even in the case of a stationary object, but by averaging. Edge noise in the contour portion can be significantly suppressed, which is an advantage.

同じ露光時間の同色の画素信号の合成化(平均化)は、垂直、水平方向の合成する画素数にも依存するが、情報量を大幅に減少できる、という利点も生じる。例えば、垂直、水平方向の10画素ずつ平均化すると、情報量は2桁(1/100)に削減できる。
従来の動き分析では固体撮像装置から出力される膨大な画像情報を、画素単位でリアルタイムに処理するには、後段処理回路に大きな画像処理負荷が必要となり、バッテリー駆動は困難であった。
本方式では、画素数見合いの情報量が大幅に減り(上記例では2桁)、さらに2値化した動き輪郭情報14を処理することで、画素単位の情報量も大幅に減る(例えば8ビット⇒1ビット)ことも大きな利点である。
The synthesis (averaging) of pixel signals of the same color with the same exposure time depends on the number of pixels to be synthesized in the vertical and horizontal directions, but has the advantage that the amount of information can be significantly reduced. For example, the amount of information can be reduced to two digits (1/100) by averaging 10 pixels each in the vertical and horizontal directions.
In the conventional motion analysis, in order to process a huge amount of image information output from a solid-state image sensor in real time on a pixel-by-pixel basis, a large image processing load is required in the post-stage processing circuit, and it is difficult to drive the battery.
In this method, the amount of information corresponding to the number of pixels is significantly reduced (two digits in the above example), and by processing the binarized motion contour information 14, the amount of information in pixel units is also significantly reduced (for example, 8 bits). ⇒ 1 bit) is also a big advantage.

画素数情報量が大幅(例えば2桁)に減った2値化データを処理すれば良いので、動き情報抽出部5での演算負荷は軽くて済む。このため従来の固体撮像装置から画像情報を出力する速度(フレームレート)で、本願の固体撮像装置3”から情報出力31を出力することが可能となる。
Since it is sufficient to process the binarized data in which the amount of pixel number information is significantly reduced (for example, 2 digits), the calculation load in the motion information extraction unit 5 can be lightened. Therefore, it is possible to output the information output 31 from the solid-state image sensor 3 "of the present application at the speed (frame rate) at which the image information is output from the conventional solid-state image sensor.

<撮像装置の実施形態2-1>
大分類の撮像装置の実施形態2の撮像装置として、図22に示す固体撮像装置3”’の形態もある。図21の固体撮像装置3”と相違点は、画素部58の下に通常のカラー撮像を行うための、読み出し回路、出力回路を付加し、さらに情報出力を基に映像出力を出すかを判断する機能も付加している。図21の固体撮像装置3”の実施形態2に対し、追加された異なる構成動作について図22で説明する。
<Embodiment 2-1 of the image pickup apparatus>
As the image pickup device of the second embodiment of the major classification image pickup device, there is also a form of the solid-state image pickup device 3 "'shown in FIG. 22. The difference from the solid-state image pickup device 3" of FIG. A readout circuit and an output circuit for performing color imaging are added, and a function for determining whether to output video based on information output is also added. A different configuration operation added to the second embodiment of the solid-state image sensor 3 of FIG. 21 will be described with reference to FIG.

図22の固体撮像装置3”’では、画素部58の下部には、画素部58から出力される複数の垂直信号線の画素信号が入力されたカラム型ノイズキャンセル回路(CDS)65、カラム型アナログデジタルコンバータ回路(AD変換)66、ラインメモリ67、水平画素走査回路68が付加されている。ベイヤー配列(2×2画素)の複数ラインの画素(このためラインメモリ67が必要になる)を基に、カラー処理をカラー処理部69で行う。 In the solid-state image sensor 3 "'" of FIG. 22, a column type noise canceling circuit (CDS) 65 and a column type in which pixel signals of a plurality of vertical signal lines output from the pixel unit 58 are input to the lower part of the pixel unit 58. An analog-to-digital converter circuit (AD conversion) 66, a line memory 67, and a horizontal pixel scanning circuit 68 are added. Multiple line pixels of a Bayer arrangement (2 × 2 pixels) (for this reason, a line memory 67 is required). Based on this, the color processing is performed by the color processing unit 69.

さらに情報出力部6からの情報を基に、情報出力判断部70でカラー映像情報71を出力するかしないかを判断し、映像信号を出す場合には水平画素走査回路68と、カラー処理部69を駆動し、情報出力31に、必要と判断されたカラー映像情報71を加算付加回路72で付加して、映像出力回路73より出力させる。カラー映像情報71としては静止画でも動画でも良い。動画の場合には垂直ブランキング期間に情報出力31を重畳させれば良い。 Further, based on the information from the information output unit 6, the information output determination unit 70 determines whether or not to output the color video information 71, and when outputting a video signal, the horizontal pixel scanning circuit 68 and the color processing unit 69. Is driven, and the color video information 71 determined to be necessary is added to the information output 31 by the addition addition circuit 72, and is output from the video output circuit 73. The color video information 71 may be a still image or a moving image. In the case of a moving image, the information output 31 may be superimposed during the vertical blanking period.

図22では、情報出力判断部70でカラー映像情報71を出す判断をした場合に、水平画素走査回路68と、カラー処理部69を駆動させる信号を出していた。水平画素走査回路68と、カラー処理部69は、消費電力が上がるが常に駆動させておいても良い。この場合には、加算付加回路72で必要と判断されたカラー映像情報71を加算付加し、映像出力回路73より出力させる。 In FIG. 22, when the information output determination unit 70 determines to output the color image information 71, a signal for driving the horizontal pixel scanning circuit 68 and the color processing unit 69 is output. The horizontal pixel scanning circuit 68 and the color processing unit 69 may be always driven, although the power consumption increases. In this case, the color video information 71 determined to be necessary by the addition addition circuit 72 is added and added, and the color video information 71 is output from the video output circuit 73.

図23では、情報出力判断部70を省略し、情報出力31と独立して、カラー映像情報71を常に出力する場合の固体撮像装置3”’を示している。消費電量も情報量も従来の固体撮像装置と変わらず、情報出力31が追加されている。 FIG. 23 shows a solid-state image sensor 3 "'in the case where the information output determination unit 70 is omitted and the color image information 71 is always output independently of the information output 31. Both the power consumption and the information amount are conventional. The information output 31 is added as in the case of the solid-state image sensor.

[段落46]でも触れたが、以上説明した各実施の形態の特徴は互いに組み合わせて用いることができる。即ち動体の情報出力としては、上記説明に用いた、時刻情報、速度、方向、サイズ、特徴点座標情報、骨格点座標情報が揃っている必要はなく、上記の情報出力の単独情報だったり、複数の情報の組み合わせだったりしても良い。また特徴点情報や骨格点情報は座標情報である必要はなく、数量であっても良い。即ち特徴点情報としては、動体個々の座標情報以外にも、特徴点の数量も特徴点情報になり、動体数に対応する。 As mentioned in [Paragraph 46], the features of the embodiments described above can be used in combination with each other. That is, as the information output of the moving object, it is not necessary that the time information, the speed, the direction, the size, the feature point coordinate information, and the skeleton point coordinate information used in the above explanation are prepared, and the information output is independent information. It may be a combination of multiple pieces of information. Further, the feature point information and the skeleton point information do not have to be coordinate information, but may be a quantity. That is, as the feature point information, in addition to the coordinate information of each moving object, the quantity of feature points also becomes the feature point information, which corresponds to the number of moving objects.

道路の混雑状況の把握目的では、動体数の数量が画面中の車の台数に相当する。この場合、車の台数は通常5bit(32台)程度で収まり、本願の撮像装置の情報の受け側に時計が有れば、情報受け側でタイムスタンパーができるので、本願の撮像装置から出力される情報量は1バイト以下になる。
動体数を方向とリンクさせてカウントすることで、高速道路での上り車線と下り車線の車の台数をカウントすることが出来る。この情報量は台数を8bit(256)以下で済み、情報出力量が1バイトの撮像装置が実現する。
For the purpose of grasping the congestion status of the road, the number of moving objects corresponds to the number of cars on the screen. In this case, the number of vehicles is usually about 5 bits (32 units), and if there is a clock on the information receiving side of the image pickup device of the present application, the time stamper can be performed on the information receiving side, so that the image is output from the image pickup device of the present application. The amount of information is 1 byte or less.
By counting the number of moving objects linked to the direction, it is possible to count the number of vehicles in the up lane and the down lane on the highway. This amount of information can be reduced to 8 bits (256) or less, and an image pickup device having an information output amount of 1 byte can be realized.

<実施形態11;動き輪郭情報>
以上の説明では、撮影時刻の異なる2枚の画像を用いて動き輪郭情報を抽出し、図12(a)~(d)で説明したように動体の方向判定を行っていたが、この際には、動体方向抽出部46には動き輪郭情報14以外に、画素差分符号情報15、動体明暗情報16が必要であり、図12(d)に示す動体方向判定表を基に動体方向抽出部46で動体の移動方向を判定する必要があった。
撮影時刻の異なる3枚の画像を用いることで、画素差分符号情報15、動体明暗情報16が無くても動体方向抽出ができる手法につき次に説明する。
<Embodiment 11; Motion contour information>
In the above description, motion contour information is extracted using two images having different shooting times, and the direction of the moving object is determined as described in FIGS. 12 (a) to 12 (d). In addition to the motion contour information 14, the moving body direction extracting unit 46 needs pixel difference code information 15 and moving body light / dark information 16, and the moving body direction extracting unit 46 is based on the moving body direction determination table shown in FIG. 12 (d). It was necessary to determine the moving direction of the moving object.
Next, a method of extracting the moving object direction without the pixel difference code information 15 and the moving object light / dark information 16 by using three images having different shooting times will be described.

動体方向抽出の前に、少し変わる動き輪郭情報の取得方法につき説明する。実施形態11での動き輪郭抽出部4’は図24のようになり、図2の動き輪郭抽出部4に対し、動体明暗判定部11、動体判定情報13、画素差分符号情報15、動体明暗情報16が省略でき、簡素化した構成になっている。
実施形態11の動き輪郭情報は、実施形態1と同様に、輪郭情報の取得方法として、フレームメモリを使用してフレーム差分を用いる方法と、フレームメモリを使用せず露光時間の異なる画素間の差分を用いる方法の2種類があるため、前者は実施形態11-1、後者は実施形態11-2と小分類を用い表記する。以下の説明では実施形態1-1、実施形態1-2と同じ説明の個所は省略する。
Before extracting the motion direction, a method of acquiring motion contour information that changes a little will be described. The motion contour extraction unit 4'in the embodiment 11 is as shown in FIG. 24, and the motion contour extraction unit 4 of FIG. 16 can be omitted, and the configuration is simplified.
As for the motion contour information of the eleventh embodiment, as in the first embodiment, as a method of acquiring the contour information, a method of using a frame difference using a frame memory and a difference between pixels having different exposure times without using the frame memory. Since there are two types of methods using the above, the former is referred to as the embodiment 11-1, and the latter is referred to as the embodiment 11-2. In the following description, the same description as in the first and second embodiments will be omitted.

<実施形態11-1;動き輪郭情報;フレームメモリ使用>
まず図24に示される撮像情報8より画素差分処理部9’にて画素差分情報34’を取得する方法、及び画素差分情報34’より動き輪郭判定部10’にて、動き輪郭情報14を取得する方法に付き、図25(a)、(b)を基に説明する。
<Embodiment 11-1; Motion contour information; Frame memory used>
First, the pixel difference processing unit 9'acquires the pixel difference information 34'from the image pickup information 8 shown in FIG. 24, and the motion contour determination unit 10'acquires the motion contour information 14 from the pixel difference information 34'. The method of doing the above will be described with reference to FIGS. 25 (a) and 25 (b).

図25(a)はフレームメモリ32を使用するケースを示しており、画素差分処理図9’の構成は図6の画素差分処理図9と同じである。動き輪郭判定部10’の構成は図6の動き輪郭判定部10にフレームメモリ32’と合成部74が追加される。合成部74からは合成された動き輪郭情報14+が出力される。 FIG. 25A shows a case where the frame memory 32 is used, and the configuration of the pixel difference processing FIG. 9'is the same as that of the pixel difference processing FIG. 9 of FIG. As for the configuration of the motion contour determination unit 10', the frame memory 32'and the composition unit 74 are added to the motion contour determination unit 10 of FIG. The combined motion contour information 14+ is output from the synthesizing unit 74.

図25(b)で動き輪郭情報14+を取得する方法につき説明する。固体撮像装置3で取得した、連続するフレーム画像(撮像情報8)をフレーム1~6と表記する。処理のシーケンスとしては、フレーム1をフレームメモリ32に格納し、差分回路33で現在の撮像画像;フレーム2との差分を画素毎に対応させて取ることで、画素差分情報34を取得する。ここではフレーム2からフレーム1を引いており画素差分情報2-1と表記する。同様に、フレーム2は順次フレームメモリ32に格納されており、次のタイミングでは差分回路33で、次の撮像画像;フレーム3との差分を取り画素差分情報3-2を取得する。 A method of acquiring motion contour information 14+ will be described with reference to FIG. 25 (b). The continuous frame images (imaging information 8) acquired by the solid-state image sensor 3 are referred to as frames 1 to 6. As the processing sequence, the frame 1 is stored in the frame memory 32, and the difference circuit 33 acquires the pixel difference information 34 by taking the difference from the current captured image; frame 2 for each pixel. Here, the frame 1 is subtracted from the frame 2, and it is expressed as pixel difference information 2-1. Similarly, the frame 2 is sequentially stored in the frame memory 32, and at the next timing, the difference circuit 33 takes the difference from the next captured image; frame 3 and acquires the pixel difference information 3-2.

画素差分情報2-1は動き輪郭判定部10’の絶対値回路35を経て、動き輪郭判定回路36にて閾値12と比較して取得した動き輪郭情報14をフレームメモリ32’へ格納する。この動き輪郭情報14は画素差分情報2-1が基になっており、説明の都合上、動き輪郭情報(2-1)と表記する。
次のタイミングにて、画素差分情報3-2が絶対値回路35、動き輪郭判定回路36を経て、動き輪郭情報(3-2)として出てくるが、ここで合成部74にて動き輪郭情報(2-1)、動き輪郭情報(3-2)を合体した動き輪郭情報14+を取得する。
The pixel difference information 2-1 passes through the absolute value circuit 35 of the motion contour determination unit 10', and stores the motion contour information 14 acquired in comparison with the threshold value 12 by the motion contour determination circuit 36 in the frame memory 32'. The motion contour information 14 is based on the pixel difference information 2-1 and is referred to as motion contour information (2-1) for convenience of explanation.
At the next timing, the pixel difference information 3-2 comes out as the motion contour information (3-2) via the absolute value circuit 35 and the motion contour determination circuit 36. Here, the motion contour information is generated by the synthesis unit 74. (2-1), the motion contour information 14+ that combines the motion contour information (3-2) is acquired.

図7(a0)に示す具体的な被写体のケースで図26(a1)~(a5)を基に説明する。具体的な撮影画像としては、現画像がフレーム3に、1フレーム前画像がフレーム2に、2フレーム前画像がフレーム1に対応し、それぞれ動体画像39、39’、39”に対応する。動体画像39、39’、39”は各フレームの時刻の違いで、図26(a1)に示すように微妙に位置がずれている。 The specific case of the subject shown in FIG. 7 (a0) will be described with reference to FIGS. 26 (a1) to 26 (a5). As specific captured images, the current image corresponds to the frame 3, the image one frame before corresponds to the frame 2, and the image two frames before corresponds to the frame 1, and corresponds to the moving body images 39, 39', 39 ”, respectively. Images 39, 39', 39 "are slightly displaced as shown in FIG. 26 (a1) due to the difference in time of each frame.

図26(a2)はフレーム2とフレーム1より求めた画素差分情報(2-1)である。動体画像39’、39”の端部に相当する場所に、符号が異なる画素差分情報15’、15”が出力される。画素差分情報15’、15”は絶対値回路35を経由し絶対値情報になり、動き輪郭判定回路36で閾値12と比較し、図26(a3)に示す2値化された“1”に対応する14’、14”で示される動き輪郭情報(2-1)が得られる。
図26(a4)はフレーム3とフレーム2より求めた画素差分情報(3-2)であり、動体画像39、39’端部に相当する場所に、符号が異なる画素差分情報15’、15”が出力する。画素差分情報15’、15”は絶対値情報になり、閾値12と比較し、図26(a5)に示す2値化された“1”に対応する14’、14”で示される動き輪郭情報(3-2)が同様なステップで得られる。
FIG. 26 (a2) is the pixel difference information (2-1) obtained from the frame 2 and the frame 1. Pixel difference information 15', 15 "with different symbols is output at a location corresponding to the end of the moving body image 39', 39". The pixel difference information 15', 15 "becomes absolute value information via the absolute value circuit 35, is compared with the threshold value 12 by the motion contour determination circuit 36, and becomes a binarized" 1 "shown in FIG. 26 (a3). The motion contour information (2-1) indicated by the corresponding 14'and 14'is obtained.
FIG. 26 (a4) shows the pixel difference information (3-2) obtained from the frame 3 and the frame 2, and the pixel difference information 15', 15'with different codes at the locations corresponding to the end portions of the moving body images 39, 39'. Is output. Pixel difference information 15', 15 "becomes absolute value information, is compared with the threshold value 12, and is indicated by 14', 14" corresponding to the binarized "1" shown in FIG. 26 (a5). The motion contour information (3-2) is obtained in the same steps.

動き輪郭情報(2-1)は、図25(a)で動き輪郭判定部10’のフレームメモリ32’に格納され、次のタイミングで、動き輪郭情報(3-2)が出てくるが、ここで合成部74にてフレーム1,2,3の同じ場所対応で、動き輪郭情報(2-1)、動き輪郭情報(3-2)を合成し、動き輪郭情報14+を取得する。
合成部74で合成された結果を図26(b)で示す。動き輪郭情報(2-1)、動き輪郭情報(3-2)の0か1に対応し、動き輪郭情報14+は各場所が(0、0)、(1,0)、(0,1)、(1,1)に4分類される。
The motion contour information (2-1) is stored in the frame memory 32'of the motion contour determination unit 10'in FIG. 25 (a), and the motion contour information (3-2) comes out at the next timing. Here, the compositing unit 74 synthesizes the motion contour information (2-1) and the motion contour information (3-2) corresponding to the same location of the frames 1, 2, and 3, and acquires the motion contour information 14+.
The result synthesized by the synthesis unit 74 is shown in FIG. 26 (b). Corresponds to 0 or 1 of motion contour information (2-1) and motion contour information (3-2), and motion contour information 14+ corresponds to (0,0), (1,0), (0,1) at each location. ) And (1,1).

4分類された動き輪郭情報14+の平面パターンを図26(c)に示す。各領域が(0、0)、(1,0)、(0,1)、(1,1)に4分類される。ここで領域(0,0)、(1,0)、(0,1)、(1,1)は動きが無→無、有→無、無→有、有→有にそれぞれ対応する。
ここで(1,0)は動体の後端部、(0,1)は動体の先端部となり動体の方向が分かる。これは図12(d)に示したような動体が背景より明るい、暗いは関係ない。
また領域(1,0)、(0,1)の幅が速度に関連し、フレーム間の時間に移動した距離に対応する。速度をX方向、Y方向に分解すると図12(e)で示した手法で方向の角度成分が求められる。
動き輪郭情報の外形寸法は動体のサイズに関係する。外形サイズには速度分が入るので、速度を差し引くとサイズが求まる。
The plane pattern of the four classified motion contour information 14+ is shown in FIG. 26 (c). Each region is classified into four categories (0,0), (1,0), (0,1), and (1,1). Here, the regions (0,0), (1,0), (0,1), and (1,1) correspond to no movement → nothing, existence → nothing, nothing → existence, and existence → existence, respectively.
Here, (1,0) is the rear end of the moving body, and (0,1) is the tip of the moving body, so that the direction of the moving body can be known. It does not matter whether the moving object as shown in FIG. 12 (d) is brighter or darker than the background.
Also, the widths of regions (1,0), (0,1) are related to velocity and correspond to the distance traveled in time between frames. When the velocity is decomposed in the X direction and the Y direction, the angle component of the direction can be obtained by the method shown in FIG. 12 (e).
The external dimensions of the motion contour information are related to the size of the moving object. Since the external size includes the speed, the size can be obtained by subtracting the speed.

図27は図25(a)、(b)で求めた輪郭情報14+を用いて、動き情報を抽出する動き情報抽出部5’を構成するブロックとそれらに関連する情報の流れを示した図である。図3に比べ入力とフィードバック線の一部が省略できる。
この方向、速度、サイズの求め方は図12(e)、図13(b)、(d)、図14(b)の方法と同じである。また骨格点、特徴点の求め方も同じである。
FIG. 27 is a diagram showing blocks constituting the motion information extraction unit 5'that extracts motion information using the contour information 14+ obtained in FIGS. 25 (a) and 25 (b) and the flow of information related to them. Is. Compared with FIG. 3, a part of the input and the feedback line can be omitted.
The method of obtaining the direction, speed, and size is the same as that of FIGS. 12 (e), 13 (b), (d), and 14 (b). The method for obtaining skeletal points and feature points is also the same.

図25(b)では画素差分情報を取得する際に、連続するフレーム間の差分をとっていたが、間引いたフレーム間;例えばフレーム1、3,5の3枚で各差分を取得しても良い。また4枚以上のフレームで行い、より細かい動き把握を行うことも可能である。
In FIG. 25B, when the pixel difference information is acquired, the difference between consecutive frames is taken, but even if each difference is acquired between the thinned frames; for example, three frames 1, 3 and 5. good. It is also possible to perform finer movement grasping by performing with 4 or more frames.

<実施形態11-2;動き輪郭情報;フレームメモリ不使用>
図28(a)、(b)、(c)でフレームメモリを使用しないケースの動き輪郭情報の取得方法について説明する。使用される固体撮像装置としては、図28(a)に示すように、異なる3種類の露光時間を有する画素43が配列された構成である。この3種類の露光時間の画素を短時間露光画素STS、中時間露光画素STM、長時間露光画素STLで表記する。
説明は行わないが4種類以上の露光時間を有する画素で、細かい動き解析を行う発展形もある。
<Embodiment 11-2; Motion contour information; No frame memory used>
28 (a), (b), and (c) show a method of acquiring motion contour information of a case where the frame memory is not used. As shown in FIG. 28A, the solid-state image sensor used has a configuration in which pixels 43 having three different types of exposure times are arranged. Pixels having these three types of exposure times are represented by short-time exposure pixels STS, medium-time exposure pixels STM, and long-time exposure pixels STL.
Although not explained, there is also an advanced form that performs detailed motion analysis with pixels having four or more types of exposure times.

画素出力特性としては図28(b)に示すように、3種類の画素(STS、STM、STL)は共に同じ感度を有する画素のケースを示している。露光時間(TS、T、T)に見合った画素出力が得られ、撮像情報8として出力される。ここでは3種類の露光時間の画素は同一タイミングで出力(3走査線同時読み取り)されるとして、図9(c)で必要だったラインメモリを使用しないケースで説明する。 As for the pixel output characteristics, as shown in FIG. 28 (b), the three types of pixels (STS, STM, STL) all show the case of pixels having the same sensitivity. Pixel output corresponding to the exposure time (TS, TM , T L ) is obtained, and is output as image pickup information 8. Here, assuming that pixels with three types of exposure times are output at the same timing (simultaneous reading of three scanning lines), a case will be described in which the line memory required in FIG. 9C is not used.

図28(c)は動き輪郭抽出部4の構成要素である画素差分処理部9’と動き輪郭判定部10’を示している。画素差分処理部9’の機能としては、露光時間の異なる3種類の画素(STS、STM、STL)からの撮像情報8’は分離回路37’を経て、それぞれの撮像情報(撮像STS、撮像STM、撮像STL)に分離される。増幅回路38’ではそれぞれの露光時間の違いを補正し、差分回路33’で差分を取り、撮像STS-撮像STMを画素差分情報34’、撮像STM-撮像STLを画素差分情報34”とする。 FIG. 28 (c) shows a pixel difference processing unit 9'and a motion contour determination unit 10', which are components of the motion contour extraction unit 4. As a function of the pixel difference processing unit 9', the imaging information 8'from three types of pixels (STS, STM, STL) having different exposure times passes through the separation circuit 37', and the respective imaging information (imaging STS, imaging STM) is performed. , Imaging STL). The amplifier circuit 38'corrects the difference in each exposure time, the difference circuit 33'takes the difference, and the image pickup STS-imaging STM is the pixel difference information 34', and the image pickup STM-imaging STL is the pixel difference information 34'.

図28(c)の動き輪郭判定部10’の機能としては、画素差分情報34’、34”は絶対値回路35’を経て絶対値情報になり、動き輪郭判定回路36’にて閾値12’と比較して、それぞれ動き輪郭情報14’、14”が得られる。これらは同時に合成部74’に入力される。合成部74’では両者の合成が行われ、図28(d)のような合成した結果が得られる。動き輪郭情報14’、動き輪郭情報14”を基に、領域が0か1に対応し、動き輪郭情報14+では各場所が(0、0)、(1,0)、(0,1)、(1,1)に4分類される。 As a function of the motion contour determination unit 10'in FIG. 28 (c), the pixel difference information 34'and 34 "becomes absolute value information via the absolute value circuit 35', and the threshold value 12'in the motion contour determination circuit 36'. The motion contour information 14'and 14 "are obtained, respectively. These are simultaneously input to the synthesis unit 74'. In the synthesis unit 74', both are synthesized, and the result of the synthesis as shown in FIG. 28 (d) is obtained. Based on the motion contour information 14'and the motion contour information 14', the area corresponds to 0 or 1, and in the motion contour information 14+, each place is (0,0), (1,0), (0,1). , (1,1) are classified into four categories.

実施形態11-2ではフレームメモリを使用することなく、露光時間の異なる3種類の画素が配置されている隣接する3走査線を同時に読み出すことで、図28(d)の動き輪郭情報14+がリアルタイムに取得でき、固体撮像装置での走査線の読み出しと連動して出力される。
この動き輪郭情報14+には、動体の主要な情報である、方向、速度、大きさ、骨格点、特徴点の情報が含まれており、その抽出方法も上述したように複雑な演算が不要である。
In the 11-2 embodiment, the motion contour information 14+ in FIG. 28D can be obtained by simultaneously reading out three adjacent scanning lines in which three types of pixels having different exposure times are arranged without using a frame memory. It can be acquired in real time and output in conjunction with the reading of scanning lines by a solid-state image sensor.
This motion contour information 14+ includes information on the direction, velocity, size, skeleton point, and feature point, which are the main information of the moving object, and the extraction method does not require complicated calculation as described above. Is.

即ち、動体の移動方向の先端部分は(0,1)の領域を表示するだけ、動体の速度は動き輪郭情報の幅を換算すれば良いだけである。動体のサイズは動き輪郭情報の大きさで代用できる。また特徴点は動き輪郭情報の座標点の平均化だけで良い。即ち、固体撮像装置での走査線の読み出しスキャンと共に上記情報が取得できる。従来方法では膨大な画像データの撮像画像を取り込んだ後に、複雑な演算処理を後段処理回路で行う必要があったが、走査線の読み出しと並行して演算が完了する。ノイズ低減のために画素信号の合成化(平均化)を行うと、画素数が減って更に演算が簡単になる。
このため図21で示すように固体撮像装置3”’と同じ基板上にオンチップで本願の上記処理回路を搭載ができてシステムの大幅な簡素化、低消費電力化が可能となる。
That is, the tip portion in the moving direction of the moving body only displays the area (0, 1), and the velocity of the moving body only needs to be converted into the width of the movement contour information. The size of the moving body can be replaced by the size of the movement contour information. In addition, the feature points need only be averaged of the coordinate points of the motion contour information. That is, the above information can be acquired together with the reading scan of the scanning line by the solid-state image sensor. In the conventional method, it is necessary to perform complicated arithmetic processing in the post-stage processing circuit after capturing the captured image of a huge amount of image data, but the arithmetic is completed in parallel with the reading of the scanning line. When pixel signals are combined (averaging) to reduce noise, the number of pixels is reduced and the calculation becomes easier.
Therefore, as shown in FIG. 21, the above-mentioned processing circuit of the present application can be mounted on the same substrate as the solid-state imaging device 3 "', and the system can be greatly simplified and the power consumption can be reduced.

本願の撮像装置内に時計を有していたが、撮像装置の外にあるシステムに時計機能が有れば、外部のシステムの時刻機能を活用し情報出力を行い、本願の撮像装置の内部の時計を省略することが可能である。
撮像装置の外にあるシステムに時計機能とは外部同期パルスで本願の撮像装置を制御する場合、同期パルスからの遅延時間で代行できる。
The image pickup device of the present application had a clock, but if the system outside the image pickup device has a clock function, the time function of the external system is used to output information, and the inside of the image pickup device of the present application is used. It is possible to omit the clock.
What is the clock function of the system outside the image pickup device? When the image pickup device of the present application is controlled by an external synchronization pulse, the delay time from the synchronization pulse can be substituted.

本願の撮像装置内に情報出力を一時保存するメモリーを付加すれば、時刻情報を含む動体情報をメモリーに一時保存し、一定時間間隔毎にメモリーデータを出力する動作が可能となる。 If a memory for temporarily storing information output is added to the image pickup apparatus of the present application, it is possible to temporarily store moving object information including time information in the memory and output memory data at regular time intervals.

本願の撮像装置では撮像レンズ2を用いた光学的結像手段で説明してきたが、光学的結像手段は撮像レンズ以外にピンホールカメラに用いられる手法(特許公報6051399参照)を利用しても良い。

In the image pickup apparatus of the present application, the optical imaging means using the image pickup lens 2 has been described, but the optical image formation means may use a method used for a pinhole camera (see Patent Publication No. 6051399) in addition to the image pickup lens. good.

1 撮像カメラ
2 撮像レンズ
3、3’、3”、3”’ 固体撮像装置
4 動き輪郭抽出部
5 動き情報抽出部
6 情報出力部
7 時計
8 撮像情報
9、9’ 画素差分処理部
10、10’ 動き輪郭判定部
11 動体明暗判定部
12 閾値
13 動体判定情報
14、14’、14”、14+ 動き輪郭情報
15、15’、15” 画素差分符合情報
16 動体明暗情報
17 動体速度判定部
18 動体方向判定部
19 動体サイズ判定部
20 動体骨格点判定部
21 動体特徴点判定部
22 動体速度情報
23 動体方向途中情報
24 動体方向情報
25 動体サイズ情報
26 骨格点候補情報
26’ 特徴点候補情報
27 動体骨格点情報
28 動体特徴点情報
29 情報合成・出力部
30 時刻情報
31 情報出力
32、32’ フレームメモリ
33、33’ 差分回路
34、34’ 画素差分情報
35、35’ 絶対値回路
36、36’ 動き輪郭判定回路
37 分離回路
38 増幅回路
39、39’ 動体画像
40 走査線
41 センターライン
42 道路
43 画素
44 ラインメモリ
45 遅延回路
46 動体方向抽出部
47 動体方向演算部
48 動体速度抽出部
49 動体速度演算部
50 換算表
51 動体サイズ抽出部
52 動体サイズ演算部
53 動体骨格点抽出部
54 動体骨格点合成部
55 動体特徴点抽出部
56 走査線
57 腕
58 画素部
59 タイミング発生回路
60 露光時間生成回路
61 垂直走査回路
62 垂直並列制御回路
63、63‘ 水平走査回路
64 水平合成回路
65 CDS回路(カラム型ノイズキャンセル回路)
66 ADC回路(カラム型アナログデジタルコンバータ回路)
67 ラインメモリ
68 水平画素走査回路
69 カラー処理部
70 情報出力判断部
71 カラー映像情報
72 加算付加回路
73 映像出力回路
74、74’ 合成部

1 Imaging camera 2 Imaging lens 3, 3', 3 "3", 3 "'Solid imager 4 Motion contour extraction unit 5 Motion information extraction unit 6 Information output unit 7 Clock 8 Imaging information 9, 9'Pixel difference processing unit 10, 10 'Motion contour determination unit 11 Motion light / dark determination unit 12 Threshold 13 Motion determination information 14, 14', 14', 14 + Motion contour information 15, 15', 15' Pixel difference sign information 16 Motion brightness information 17 Motion speed determination unit 18 Moving body direction judgment unit 19 Moving body size judgment unit 20 Moving body skeleton point judgment unit 21 Moving body feature point judgment unit 22 Moving body speed information 23 Moving body direction intermediate information 24 Moving body direction information 25 Moving body size information 26 Skeletal point candidate information 26'Characteristic point candidate information 27 Moving body skeleton point information 28 Moving body feature point information 29 Information synthesis / output unit 30 Time information 31 Information output 32, 32'Frame memory 33, 33'Difference circuit 34, 34'Pixel difference information 35, 35'Absolute value circuit 36, 36 'Movement contour determination circuit 37 Separation circuit 38 Amplifier circuit 39, 39' Moving object image 40 Scanning line 41 Center line 42 Road 43 Pixel 44 Line memory 45 Delay circuit 46 Moving object direction extraction unit 47 Moving object direction calculation unit 48 Moving object speed extraction unit 49 Moving object Speed calculation unit 50 Conversion table 51 Dynamic body size extraction unit 52 Dynamic body size calculation unit 53 Dynamic skeleton point extraction unit 54 Dynamic skeleton point synthesis unit 55 Dynamic feature point extraction unit 56 Scanning line 57 Arm 58 Pixel unit 59 Timing generation circuit 60 Exposure time generation Circuit 61 Vertical scanning circuit 62 Vertical parallel control circuit 63, 63'Horizontal scanning circuit 64 Horizontal synthesis circuit 65 CDS circuit (column type noise canceling circuit)
66 ADC circuit (column type analog-to-digital converter circuit)
67 Line memory 68 Horizontal pixel scanning circuit 69 Color processing unit 70 Information output judgment unit 71 Color video information 72 Addition addition circuit 73 Video output circuit 74, 74'Synthesis unit

図13(b1)には、図12(b3)に対応した動き輪郭情報14’(先端)、14”(後端)が平面的なイメージで示されている。動体方向途中情報23は、この対となる動き輪郭情報14’(先端)、14”(後端)の選択判断に使われる。また図13(b2)には、図7(b4)に示されるような走査線上の動き輪郭情報14であり、図13(b1)に示される動き輪郭情報14’(先端)、14”(後端)の出力が示される。動体方向抽出部46より出力される動体方向途中情報23より、動き輪郭領域での動体方向は判明している。
動体速度抽出部48においては、動き輪郭情報14’、14”での動き輪郭領域の幅(画素数に対応)をX方向、Y方向に求める。それぞれの動き速度画素数はV’x、V”x、及びV’y、V”yと表記する。この幅は動体が1フレーム期間で移動する幅(画素数)に対応する。
上記説明では、動体方向途中情報23を用いて動体の方向を把握した状態で、動きの速度の取得を行っていたが、動きの速度の取得には、動体方向途中情報23は必ずしも必要ではない。
In FIG. 13 (b1), the motion contour information 14'(front end) and 14 "(rear end) corresponding to FIG. 12 (b3) are shown in a planar image. The moving object direction intermediate information 23 is this. It is used to determine the selection of paired motion contour information 14'(front end) and 14 "(rear end). Further, FIG. 13 (b2) shows motion contour information 14 on the scanning line as shown in FIG. 7 (b4), and motion contour information 14'(tip), 14 "(rear) shown in FIG. 13 (b1). The output of the end) is shown. The moving body direction in the moving contour region is known from the moving body direction intermediate information 23 output from the moving body direction extraction unit 46.
In the moving body speed extraction unit 48, the width of the movement contour region (corresponding to the number of pixels) in the movement contour information 14', 14 "is obtained in the X direction and the Y direction. It is expressed as "x, and V'y, V" y. This width corresponds to the width (number of pixels) in which the moving object moves in one frame period.
In the above description, the moving speed is acquired while the direction of the moving body is grasped by using the moving body direction intermediate information 23, but the moving object direction intermediate information 23 is not always necessary for acquiring the moving speed. ..

動体サイズ抽出部51においては、動き輪郭情報14’、14”での動き輪郭領域の外形幅をX方向、Y方向に求める。この外形幅はこの外形幅はX方向に関しては、同一走査線上の動き輪郭情報14’と14”の双方にかかるように外形幅を求め、動きサイズ画素数と呼び、L’xで表記する。動き輪郭情報14’か14”の何れか単独の外形寸法は対象外とする。図14(b2)に示すように、X方向の動きサイズ画素数L’xは動体が1フレーム期間で移動しカバーする領域幅(画素数)に対応し、両端に速度画素数V’x0、V”x0を付随している。従って、実際の動きサイズ画素数は動きサイズ画素数L’xから速度画素数V’x0、V”x0を減算したものになる。Y方向に付いても上記X方向と同様である。
上記説明では、動体方向情報24を用いて動体の方向を把握した状態で、動きのサイズの取得を行っていたが、動きのサイズの取得には、動体方向情報24は必ずしも必要ではない。
In the moving body size extracting unit 51, the outer width of the movement contour region in the movement contour information 14', 14 "is obtained in the X direction and the Y direction. This outer width is on the same scanning line in the X direction. The outer width is obtained so as to cover both the motion contour information 14'and 14 ", which is called the motion size pixel number and is expressed by L'x. The external dimensions of either the motion contour information 14'or 14 "are excluded. As shown in FIG. 14 (b2), the motion size pixel number L'x in the X direction is such that the moving object moves in one frame period. Corresponding to the area width (number of pixels) to be covered, the speed pixels V'x0 and V "x0 are attached to both ends. Therefore, the actual number of motion size pixels is obtained by subtracting the number of velocity pixels V'x0 and V "x0 from the number of motion size pixels L'x. The Y direction is the same as the X direction.
In the above description, the motion size is acquired while the direction of the moving object is grasped by using the moving object direction information 24, but the moving object direction information 24 is not always necessary for acquiring the motion size.

Claims (18)

光学的結像手段で結像した光信号を電気信号に変換する複数の光電変換素子を有す画素部と、
前記画素部で撮影した撮影時刻の異なる少なくとも2つの撮影信号間の差分信号を生成し、差分信号を基に動き物体の輪郭情報を抽出する手段と、
前記抽出された動き物体の輪郭情報を基に、画素位置にリンクしない動き物体の情報を抽出する手段と、
前記動き物体の情報を合成し出力する情報出力手段と、
を有することを特徴とする撮像装置。
A pixel unit having a plurality of photoelectric conversion elements that convert an optical signal imaged by an optical imaging means into an electric signal,
A means for generating a difference signal between at least two shooting signals with different shooting times shot by the pixel unit and extracting contour information of a moving object based on the difference signal.
A means for extracting information on a moving object that is not linked to a pixel position based on the contour information of the extracted moving object,
An information output means for synthesizing and outputting information on a moving object,
An imaging device characterized by having.
前記画素部で撮影した撮像時刻の異なる少なくとも2つの撮影信号間の差分信号を生成する手法として、フレームメモリを使用し、撮影時刻の異なるフレーム間の画像差分を行うことで実現したことを特徴とする請求項1に記載の撮像装置。
As a method of generating a difference signal between at least two shooting signals with different shooting times taken by the pixel unit, a frame memory is used, and the image difference between frames with different shooting times is performed. The imaging device according to claim 1.
前記画素部で撮影した撮像時刻の異なる少なくとも2つの撮影信号間の差分信号を生成する手法として、2次元に配置した画素を少なくとも2分割し、露光時間の長さを異ならせて制御する露光時間制御手段と、前記露光時間の異なる前記画素信号間の差分信号を生成する差分信号生成手段と、で実現したことを特徴とする請求項1に記載の撮像装置。
As a method of generating a difference signal between at least two shooting signals with different imaging times taken by the pixel portion, the exposure time is controlled by dividing the pixels arranged in two dimensions into at least two and making the length of the exposure time different. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is realized by a control means and a difference signal generation means for generating a difference signal between the pixel signals having different exposure times.
前記抽出された動き物体の輪郭情報を基に動き物体の情報を抽出する手段としては、輪郭情報の基となる画素差分符合情報と、動き物体の背景に対する明暗情報とから、動きの方向の情報を抽出したことを特徴とする請求項1に記載の撮像装置。
As a means for extracting information on a moving object based on the contour information of the extracted moving object, information on the direction of movement is obtained from pixel difference code information which is the basis of the contour information and light / dark information on the background of the moving object. The image pickup apparatus according to claim 1, wherein the image is extracted.
前記抽出された動き物体の輪郭情報を基に動き物体の情報を抽出する手段としては、動き物体の輪郭情報と、動き物体の方向情報とから、動きの方向の情報を抽出したことを特徴とする請求項1に記載の撮像装置。
As a means for extracting information on a moving object based on the extracted contour information of the moving object, it is characterized in that information on the direction of movement is extracted from the contour information of the moving object and the direction information of the moving object. The imaging device according to claim 1.
前記抽出された動き物体の輪郭情報を基に動き物体の情報を抽出する手段としては、動き物体の輪郭情報と、動き物体の方向情報と、動き物体の速度情報とから、動きサイズの情報を抽出したことを特徴とする請求項1に記載の撮像装置。
As a means for extracting information on a moving object based on the extracted contour information of the moving object, information on the motion size is obtained from the contour information of the moving object, the direction information of the moving object, and the velocity information of the moving object. The imaging device according to claim 1, wherein the image is extracted.
前記抽出された動き物体の輪郭情報を基に動き物体の情報を抽出する手段としては、動き物体の輪郭情報と動き物体のサイズ情報とから、もしくは動き物体の輪郭情報のみから、動き物体の骨格点の情報を抽出したことを特徴とする請求項1に記載の撮像装置。
As a means for extracting information on a moving object based on the extracted contour information of the moving object, the skeleton of the moving object is obtained from the contour information of the moving object and the size information of the moving object, or only from the contour information of the moving object. The imaging device according to claim 1, wherein the point information is extracted.
前記抽出された動き物体の輪郭情報を基に動き物体の情報を抽出する手段としては、動き物体の輪郭情報と動き物体のサイズ情報とから、もしくは動き物体の輪郭情報のみから、動き物体の特徴点の情報を抽出したことを特徴とする請求項1に記載の撮像装置。
As a means for extracting information on a moving object based on the extracted contour information of the moving object, the characteristics of the moving object are obtained from the contour information of the moving object and the size information of the moving object, or only from the contour information of the moving object. The imaging device according to claim 1, wherein the point information is extracted.
前記抽出された動き物体の輪郭情報を基に動き物体の情報を抽出する手段としては、撮像装置内の時計から動き物体の時刻の情報を抽出したことを特徴とする請求項1に記載の撮像装置。
The imaging according to claim 1, wherein as a means for extracting information on a moving object based on the contour information of the extracted moving object, information on the time of the moving object is extracted from a clock in an image pickup apparatus. Device.
前記動き物体の情報を合成し出力する情報出力手段としては、請求項4から請求項9に記した動き物体の情報の内、単独もしくは、全ても含む任意の組み合わせの動き物体の情報を選択して、情報を合成し、撮像装置から出力させたことを特徴とする請求項1に記載の撮像装置。
As the information output means for synthesizing and outputting the information of the moving object, the information of the moving object alone or in any combination including all of the information of the moving object described in claims 4 to 9 is selected. The image pickup apparatus according to claim 1, wherein the information is synthesized and output from the image pickup apparatus.
前記動き物体の骨格点の情報としては、骨格点の座標位置であることを特徴とする請求項7に記載の撮像装置。
The imaging device according to claim 7, wherein the information on the skeleton points of the moving object is the coordinate position of the skeleton points.
前記動き物体の特徴点の情報としては、特徴点の座標位置であることを特徴とする請求項8に記載の撮像装置。
The image pickup apparatus according to claim 8, wherein the information on the feature points of the moving object is the coordinate position of the feature points.
前記動き物体の特徴点の情報としては、特徴点の数量であることを特徴とする請求項8に記載の撮像装置。
The imaging device according to claim 8, wherein the information on the feature points of the moving object is the number of feature points.
撮像装置は撮像カメラであることを特徴とする請求項1に記載の撮像装置。
The image pickup device according to claim 1, wherein the image pickup device is an image pickup camera.
撮像装置は固体撮像装置であることを特徴とする請求項1に記載の撮像装置。
The image pickup device according to claim 1, wherein the image pickup device is a solid-state image pickup device.
動き物体の情報を合成し出力する情報出力手段に加えて、撮像画像を出力する手段を付加したことを特徴とする請求項1に記載の撮像装置。
The image pickup apparatus according to claim 1, wherein a means for outputting a captured image is added in addition to an information output means for synthesizing and outputting information on a moving object.
光学的結像手段は撮像レンズであることを特徴とする請求項1に記載の撮像装置。
The imaging device according to claim 1, wherein the optical imaging means is an imaging lens.
光学的結像手段はピンホールカメラ方式であることを特徴とする請求項1に記載の撮像装置。

The imaging device according to claim 1, wherein the optical imaging means is a pinhole camera system.

JP2020133157A 2020-08-05 2020-08-05 Imaging device Pending JP2022029717A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020133157A JP2022029717A (en) 2020-08-05 2020-08-05 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020133157A JP2022029717A (en) 2020-08-05 2020-08-05 Imaging device

Publications (1)

Publication Number Publication Date
JP2022029717A true JP2022029717A (en) 2022-02-18

Family

ID=80324986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020133157A Pending JP2022029717A (en) 2020-08-05 2020-08-05 Imaging device

Country Status (1)

Country Link
JP (1) JP2022029717A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022132209A (en) * 2021-02-26 2022-09-07 ダイキン工業株式会社 fluorine-containing copolymer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187328A (en) * 2007-01-29 2008-08-14 Sony Corp Network equipment, network system, and monitor camera system
JP2013070245A (en) * 2011-09-22 2013-04-18 Toshiba Corp Solid-state imaging device and solid-state imaging system
JP2014090394A (en) * 2012-10-29 2014-05-15 Koichi Sekine Motion detection solid-state imaging apparatus and motion detection system
JP2017017624A (en) * 2015-07-03 2017-01-19 ソニー株式会社 Imaging device, image processing method, and electronic apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187328A (en) * 2007-01-29 2008-08-14 Sony Corp Network equipment, network system, and monitor camera system
JP2013070245A (en) * 2011-09-22 2013-04-18 Toshiba Corp Solid-state imaging device and solid-state imaging system
JP2014090394A (en) * 2012-10-29 2014-05-15 Koichi Sekine Motion detection solid-state imaging apparatus and motion detection system
JP2017017624A (en) * 2015-07-03 2017-01-19 ソニー株式会社 Imaging device, image processing method, and electronic apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022132209A (en) * 2021-02-26 2022-09-07 ダイキン工業株式会社 fluorine-containing copolymer

Similar Documents

Publication Publication Date Title
EP2571249B1 (en) Image synthesizing device, image synthesizing method and computer readable medium
JP5461568B2 (en) Modify color and full color channel CFA images
US7844134B2 (en) Image processor and camera system for correcting image distortion
CN103595982A (en) Color image collection device based on gray level sensor and color image sensor
US20110080503A1 (en) Image sensing apparatus
JP2002544719A (en) Method and circuit for embedding image data in image reading device
US20060274177A1 (en) Image processing apparatus
JP4386959B1 (en) Image processing device
JPH05161145A (en) Sequential image pickup device
JP2022029717A (en) Imaging device
JP2007243917A (en) Imaging apparatus and image processing program
WO2023276564A1 (en) Motion information imaging device
JP4356134B2 (en) Image processing apparatus and image processing method
US20150030251A1 (en) Object detection apparatus and storage medium
WO2021186999A1 (en) Information processing device, information processing method, and information processing program
JP6573379B2 (en) Image processing apparatus, imaging apparatus, and image processing program
CN108551541B (en) A kind of imaging system and its imaging method that low cost is highly sensitive
JP2011044846A (en) Image processor and imaging apparatus
JPH06105224A (en) Dynamic range expansion device
JP7449019B1 (en) Imaging device
JP3551670B2 (en) Electronic still camera
CN113242389A (en) Multi-frame dynamic range extension method and system for RCCB (Rich communication Circuit Board) image sensor
JP3495571B2 (en) Uncooled infrared 2D sensor camera with shading correction function
JP3869502B2 (en) Imaging method and CCD camera
JP2001160925A (en) Image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200905

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220201