JP2005286596A - Image processing apparatus and image data transfer method - Google Patents

Image processing apparatus and image data transfer method Download PDF

Info

Publication number
JP2005286596A
JP2005286596A JP2004096180A JP2004096180A JP2005286596A JP 2005286596 A JP2005286596 A JP 2005286596A JP 2004096180 A JP2004096180 A JP 2004096180A JP 2004096180 A JP2004096180 A JP 2004096180A JP 2005286596 A JP2005286596 A JP 2005286596A
Authority
JP
Japan
Prior art keywords
signal
image data
image
feature
label information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004096180A
Other languages
Japanese (ja)
Inventor
Haruhisa Kurane
治久 倉根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004096180A priority Critical patent/JP2005286596A/en
Publication of JP2005286596A publication Critical patent/JP2005286596A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of reducing load imposed on processing of an image processing unit side, and further reducing an apparatus configuration in size and cost. <P>SOLUTION: The apparatus is provided with an electronic camera 101 for acquiring image data obtained by picking up an image; a region extractor 113 for detecting the feature of the image data acquired by the electronic camera 101 for a video image processing apparatus provided with a video processor 3 for creating display data capable of processing the acquired image data, and displaying an image in a predetermined format; a label number encoder 115 for specifying label information indicating the detected feature; a UV signal label number multiplexing section 109 for transferring the label number specified by the encoder 115 to the section 3 together with the image data; and a UV signal port 119b. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置及び画像データ転送方法に関する。   The present invention relates to an image processing apparatus and an image data transfer method.

セキュリティシステム等、撮影された画像をリアルタイムで処理することが望まれる画像処理にあっては、現在、撮影された画像から予め定められた特定の対象物(被写体)の特徴を検出することが行われている。検出の対象となる特徴とは、例えば、人物、人物の顔、車両等である。検出は、被写体の状態に応じた特徴量を計測することによってなされ、特徴量とは、例えば、被写体の色や輝度レベルをいう。計測は、被写体の形状を分析する分析処理や輝度レベルの反射率による計測等によって行われる。   In image processing where it is desired to process a captured image in real time, such as a security system, it is currently possible to detect the characteristics of a specific object (subject) that is determined in advance from the captured image. It has been broken. The features to be detected include, for example, a person, a person's face, a vehicle, and the like. The detection is performed by measuring a feature amount corresponding to the state of the subject, and the feature amount refers to, for example, the color or luminance level of the subject. The measurement is performed by an analysis process for analyzing the shape of the subject, measurement by the reflectance of the luminance level, or the like.

また、動きのある被写体については、動く被写体を静止している背景の画像と分離することによって検出する従来技術がある(例えば特許文献1)。具体的には、動画を構成する個々のフレーム画像を時系列に並べ、前のフレーム画像と後のフレーム画像とで被写体の位置の差分を検出し、生じた差分を出力する。このような動く被写体を検出する方法は、比較的簡単でありながら監視カメラ等の固定されたカメラが撮影した動画から特定の被写体を検出するのに有効である。   Further, there is a conventional technique for detecting a moving subject by separating the moving subject from a stationary background image (for example, Patent Document 1). Specifically, the individual frame images constituting the moving image are arranged in time series, the difference in the position of the subject is detected between the previous frame image and the subsequent frame image, and the generated difference is output. Such a method of detecting a moving subject is relatively simple, but is effective for detecting a specific subject from a moving image taken by a fixed camera such as a surveillance camera.

図15は、画像から被写体を検出する処理を実行する一般的な画像処理装置を示した図である。図示した構成は、デジタルカメラ等の画像(ここでは動画を考えているので映像とする)の信号源である映像信号源1501と、映像処理部1502とを有する。映像信号源1501は、画像を撮像することによって画像データを生成すると共に出力する。画像データは、YUV、あるいはR,G,Bのデータである(図ではYUV)。図15に示した例では映像信号源1501の内部でU信号とV信号とがUV多重化部1503で多重化され、Y信号と共に映像処理部1502に転送される。   FIG. 15 is a diagram illustrating a general image processing apparatus that executes a process of detecting a subject from an image. The illustrated configuration includes a video signal source 1501 that is a signal source of an image of a digital camera or the like (here, a video is considered because it is a moving image), and a video processing unit 1502. The video signal source 1501 generates and outputs image data by capturing an image. The image data is YUV or R, G, B data (YUV in the figure). In the example shown in FIG. 15, the U signal and the V signal are multiplexed by the UV multiplexing unit 1503 inside the video signal source 1501 and transferred to the video processing unit 1502 together with the Y signal.

映像処理部1502は、転送された画像データのうち、多重化しているU信号とV信号とを分離するUV分離部1505、分離したU信号とV信号とを補間(多重化により間引かれた画素の補間)する補間部1506、補間処理されたU、Vデータと入力されたYデータにより生成された画像データを保存しておくビデオメモリ1507、ビデオメモリ1507に保存されている画像データ(表示データ)から特徴を有する領域を検出する領域検出部1508を有している。
特開2003−58892号公報
The video processing unit 1502 includes a UV separation unit 1505 that separates the multiplexed U signal and V signal from the transferred image data, and interpolates the separated U signal and V signal (thinned by multiplexing). Interpolation unit 1506 for interpolating pixels, a video memory 1507 for storing image data generated by the interpolated U and V data and the input Y data, and image data (display) stored in the video memory 1507 An area detecting unit 1508 for detecting an area having a feature from (data) is provided.
JP 2003-58892 A

しかしながら、映像処理部1502は、画像処理の自由度を高める、あるいは比較的頻繁に変更がなされる等の理由からCPUとビデオメモリで主に構成され、以上の処理をソフトウェアによって実行している。ソフトウェアを使って表示データから画像の特徴を抽出する処理は、一般的にCPUにかかる負荷が大きい。その上、映像処理部1502のCPUには画像の補間や圧縮、表示といった処理をすることが要求される。   However, the video processing unit 1502 is mainly composed of a CPU and a video memory for reasons such as increasing the degree of freedom of image processing or changing relatively frequently, and the above processing is executed by software. The process of extracting image features from display data using software generally has a heavy load on the CPU. In addition, the CPU of the video processing unit 1502 is required to perform processing such as image interpolation, compression, and display.

さらに、画像信号源1501から映像処理部1502の転送が30fps(frame/sec)程度の速度でリアルタイムに行われるため、映像処理部1502には、リアルタイムで転送されて蓄積される画像データを処理するためにいっそう高い処理能力が要求される。この点が、画像処理装置全体を大型で高価なものにしていた。
本発明は、このような点に鑑みてなされたものであり、画像処理部側の処理にかかる負荷を軽減し、装置構成をより小型化、低コスト化できる画像処理装置及び画像データ転送方法を提供することを目的とする。
Further, since the transfer from the image signal source 1501 to the video processing unit 1502 is performed in real time at a speed of about 30 fps (frame / sec), the video processing unit 1502 processes the image data transferred and stored in real time. Therefore, higher processing capacity is required. This makes the entire image processing apparatus large and expensive.
The present invention has been made in view of the above points, and provides an image processing apparatus and an image data transfer method that can reduce the load on processing on the image processing unit side, further reduce the size and cost of the apparatus configuration. The purpose is to provide.

以上の課題を解決するため、本発明の画像処理装置は、画像を撮像して得られる画像データを取得する画像データ取得手段と、前記画像データ取得手段が取得した画像データを処理して所定の形式で画像を表示し得る表示データを作成する画像データ処理手段とを備えた画像処理装置であって、前記画像データ取得手段が取得した画像データの特徴を検出する特徴検出手段と、前記特徴検出手段が検出した特徴を示すラベル情報を特定するラベル情報特定手段と、前記ラベル情報特定手段が特定したラベル情報を前記画像データと共に前記画像データ処理手段に転送する画像データ転送手段と、を備えることを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention processes image data acquired by an image data acquisition unit that acquires image data obtained by capturing an image, and processes the image data acquired by the image data acquisition unit. An image processing apparatus comprising image data processing means for creating display data capable of displaying an image in a format, wherein the feature detection means detects the characteristics of the image data acquired by the image data acquisition means, and the feature detection Label information specifying means for specifying label information indicating the characteristics detected by the means, and image data transfer means for transferring the label information specified by the label information specifying means together with the image data to the image data processing means. It is characterized by.

このような発明によれば、取得された画像データの特徴を検出し、特徴をラベル情報として画像データと共に画像データ処理手段に転送することができる。このため、画像データ処理手段における画像データの特徴を検出する処理が不要になり、画像データ処理手段にかかる負荷を軽減することができる。そして、画像データ処理手段に処理能力のより低いCPU等の構成を採用することが可能になり、画像データ処理手段をより小型化、低コスト化し、ひいては画像処理装置全体をより小型化、低コスト化できる。   According to such an invention, the feature of the acquired image data can be detected, and the feature can be transferred to the image data processing means together with the image data as label information. For this reason, the process for detecting the feature of the image data in the image data processing means becomes unnecessary, and the load on the image data processing means can be reduced. Further, it becomes possible to adopt a configuration such as a CPU having a lower processing capacity for the image data processing means, thereby further reducing the size and cost of the image data processing means, and further reducing the size and cost of the entire image processing apparatus. Can be

また、本発明の画像処理装置は、前記画像データ転送手段は、前記ラベル情報を、輝度信号Yと色差信号UVからなる映像信号のUV信号に多重することを特徴とする。
また、本発明の画像処理装置は、前記画像データ転送手段は、前記ラベル情報をUV信号に多重するとき、映像信号の奇数ラインまたは偶数ラインのいずれか一方にUV信号を多重し、かつ、UV信号が多重されたラインの他の一方のラインの出力タイミングでラベル情報を出力することを特徴とする。
In the image processing apparatus of the present invention, the image data transfer means multiplexes the label information into a UV signal of a video signal composed of a luminance signal Y and a color difference signal UV.
In the image processing apparatus of the present invention, when the image data transfer means multiplexes the label information on the UV signal, the UV signal is multiplexed on either the odd line or the even line of the video signal, and the UV The label information is output at the output timing of the other line on which the signal is multiplexed.

このような発明によれば、今までの監視カメラなどの映像システムにおける画像データ処理手段の構成を大きく変更することなく、ラベル情報を転送することができる。また、ラベル情報と画像データの同期をとって転送することができるので、画像処理装置側のデータの同期処理にかかる負荷を抑えることができる。また、データ転送系を有効活用、データの転送効率を高めることができる。   According to such an invention, the label information can be transferred without greatly changing the configuration of the image data processing means in the conventional video system such as a surveillance camera. Further, since the label information and the image data can be transferred in synchronization, the load on the data synchronization processing on the image processing apparatus side can be suppressed. In addition, the data transfer system can be effectively used to increase the data transfer efficiency.

また、本発明の画像処理装置は、前記特徴検出手段が、前記画像データが示す撮像対象物の色、形状、反射率のうちの少なくとも1つの特徴を検出することを特徴とする。
このような発明によれば、画像データから特定の色、形状、反射率のうちの少なくとも1つを特徴として検出することができる。このため、予め特定したい対象物に合わせて色、形状、反射率を設定しておくことにより、画像データから自動的に特定の対象物の存在を検出することができる。
Moreover, the image processing apparatus of the present invention is characterized in that the feature detection means detects at least one feature of the color, shape, and reflectance of the imaging target indicated by the image data.
According to such an invention, at least one of a specific color, shape, and reflectance can be detected from the image data as a feature. For this reason, the presence of a specific object can be automatically detected from the image data by setting the color, shape, and reflectance according to the object to be specified in advance.

また、本発明の画像処理装置は、前記特徴検出手段が、前記画像データが示す撮像対象物の動きを特徴として検出することを特徴とする。
このような発明によれば、画像データが示す撮像対象物の動きを特徴として検出することができるので、撮影対象範囲内に移動するものが存在することを自動的に検出することができる。
Moreover, the image processing apparatus of the present invention is characterized in that the feature detection means detects the movement of the imaging object indicated by the image data as a feature.
According to such an invention, since the movement of the imaging target indicated by the image data can be detected as a feature, it is possible to automatically detect that there is something moving within the imaging target range.

また、本発明の画像処理装置は、前記画像データ転送手段が、前記特徴検出手段が検出した特徴のうち代表値にかかるラベル情報だけを画像データと共に転送することを特徴とする。
このような発明によれば、転送されるラベル情報量が少なくなる。このため、転送タイミングでさらに他のラベル情報を転送することができ、画像データにより詳細な情報を付加することができる。
The image processing apparatus of the present invention is characterized in that the image data transfer means transfers only the label information relating to the representative value among the features detected by the feature detection means together with the image data.
According to such an invention, the amount of label information transferred is reduced. Therefore, other label information can be transferred at the transfer timing, and more detailed information can be added to the image data.

また、本発明の画像データ転送方法は、画像データの特徴を検出する特徴検出ステップと、前記特徴検出ステップにおいて検出された特徴を示すラベル情報を特定するラベル情報特定ステップと、前記ラベル情報を前記画像データと共に画像を表示し得る表示データの格納手段に転送する画像データ転送ステップと、を含むことを特徴とする。
このような発明によれば、取得された画像データの特徴を検出し、特徴をラベル情報として画像データと共に画像データ処理手段に転送することができる。このため、画像データ処理手段における画像データの特徴を検出する処理が不要になり、画像データ処理手段にかかる負荷を軽減することができる。そして、画像データ処理手段に処理能力のより低いCPU等の構成を採用することが可能になり、画像データ処理手段をより小型化、低コスト化し、ひいては画像処理装置全体をより小型化、低コスト化できる。
The image data transfer method of the present invention includes a feature detection step for detecting a feature of image data, a label information specification step for specifying label information indicating the feature detected in the feature detection step, and the label information And an image data transfer step of transferring to display data storage means capable of displaying an image together with the image data.
According to such an invention, the feature of the acquired image data can be detected, and the feature can be transferred to the image data processing means together with the image data as label information. For this reason, the process for detecting the feature of the image data in the image data processing means becomes unnecessary, and the load on the image data processing means can be reduced. Further, it becomes possible to adopt a configuration such as a CPU having a lower processing capacity for the image data processing means, thereby further reducing the size and cost of the image data processing means, and further reducing the size and cost of the entire image processing apparatus. Can be

以下、図を参照して本発明に係る画像処理装置の実施の形態を説明する。図1は、本発明の一実施形態の画像処理装置の構成を説明するためのブロック図である。図示した構成は、電子カメラ101、ラベル情報多重部2、映像処理部3からなっている。電子カメラ101は画像を撮像して得られる画像データを取得する画像データ取得手段である。また、映像処理部3は、電子カメラ101が取得した画像データを処理して画像を表示し得る表示データを作成する画像データ処理手段である。なお、本実施形態では、電子カメラ101が動画を撮影する構成であることから画像データを示す信号を特に映像信号と記す。   Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram for explaining the configuration of an image processing apparatus according to an embodiment of the present invention. The illustrated configuration includes an electronic camera 101, a label information multiplexing unit 2, and a video processing unit 3. The electronic camera 101 is an image data acquisition unit that acquires image data obtained by capturing an image. The video processing unit 3 is an image data processing unit that processes image data acquired by the electronic camera 101 and generates display data that can display an image. In the present embodiment, since the electronic camera 101 is configured to capture a moving image, a signal indicating image data is particularly referred to as a video signal.

また、ラベル情報多重部2は、ラベリング部111を備えている。ラベリング部111は、画像データの特徴を検出する特徴検出手段である領域抽出部113と、領域抽出部113が検出した特徴を示すラベル情報を特定するラベル情報特定手段であるラベル番号エンコーダ115とを備えている。そして、ラベル情報多重部2は、ラベル番号エンコーダ115が特定したラベル情報を映像信号と共に映像処理部3に転送するUV信号・ラベル番号多重部109及びUV信号ポート119bを備えている。なお、本実施形態のラベル情報は番号で表されるので、本実施形態では、ラベル情報を以降ラベル番号と記すものとする。   The label information multiplexing unit 2 includes a labeling unit 111. The labeling unit 111 includes a region extracting unit 113 that is a feature detecting unit that detects features of image data, and a label number encoder 115 that is a label information specifying unit that specifies label information indicating the features detected by the region extracting unit 113. I have. The label information multiplexing unit 2 includes a UV signal / label number multiplexing unit 109 and a UV signal port 119b that transfer the label information specified by the label number encoder 115 to the video processing unit 3 together with the video signal. Since the label information of this embodiment is represented by a number, in this embodiment, the label information is hereinafter referred to as a label number.

領域抽出部113は、映像信号が示す撮像対象物の色、形状、反射率のうちの少なくとも1つを特徴として検出する。本実施形態では、このような特徴を以降特徴量と記す。また、ラベル番号エンコーダ115は、抽出された特徴量のうちラベル番号として付すべき特徴量を決定するための構成である。領域抽出部113、ラベル番号エンコーダ115の具体的な構成について後述する。   The region extraction unit 113 detects at least one of the color, shape, and reflectance of the imaging target indicated by the video signal as a feature. In the present embodiment, such a feature is hereinafter referred to as a feature amount. The label number encoder 115 is a configuration for determining a feature value to be assigned as a label number from the extracted feature values. Specific configurations of the area extraction unit 113 and the label number encoder 115 will be described later.

撮像対象物の色、形状、反射率を検出することにより、本実施形態の画像処理装置は、撮影対象物が人間である、あるいは人間の顔の部分である、自動車である等の判定ができる。例えば、画像において肌色と考えられる色の領域を検出し、この領域に人間の顔等肌の部分を示すと判定することができる。また、予め設定された形状や大きさの条件に一致する画像の領域を検出することにより、撮影対象物が自動車である等の判断をすることができる。   By detecting the color, shape, and reflectance of the imaging object, the image processing apparatus according to the present embodiment can determine whether the imaging object is a human, a human face, a car, or the like. . For example, it is possible to detect an area of a color that is considered to be a skin color in the image and to determine that a skin portion such as a human face is shown in this area. Further, by detecting a region of an image that matches a preset shape or size condition, it can be determined that the object to be photographed is an automobile or the like.

本実施形態の画像処理装置をセキュリティシステムに適用する場合、例えば、映像処理部3に肌色の画像があることを示すラベリング情報が付された映像信号が転送されてきた場合、映像処理部3から図示しない通報装置に向けて「電子カメラ101の撮影範囲に人間がいる」ことを通知することもできる。そして、この通知は、例えば、セキュリティシステムにおいて、より詳細な監視を開始する等の警備モード切り替えのトリガーにも使用できる。   When the image processing apparatus of the present embodiment is applied to a security system, for example, when a video signal with labeling information indicating that there is a flesh-colored image is transferred to the video processing unit 3, the video processing unit 3 It is also possible to notify a notification device (not shown) that “a person is in the shooting range of the electronic camera 101”. This notification can be used as a trigger for switching the security mode such as starting more detailed monitoring in the security system, for example.

また、本実施形態のラベリング部111は、入力した映像信号が示す撮像対象物の動きを特徴量として検出することができる。撮像対象物の動きを特徴量として検出することにより、本実施形態の画像処理装置は、撮影範囲に何者かが侵入した可能性がある等の判定ができる。このような判定も、例えば、映像処理部3に所定の領域以上の移動する撮影対象物があるというラベリング情報が付された映像信号が転送されてきた場合、映像処理部3は、図示しない通報装置に向けて「電子カメラ101の撮影範囲に移動物がある」ことを通知することもできる。   Further, the labeling unit 111 according to the present embodiment can detect the movement of the imaging target indicated by the input video signal as a feature amount. By detecting the movement of the imaging object as a feature amount, the image processing apparatus according to the present embodiment can determine that there is a possibility that someone has entered the imaging range. In such a determination, for example, when a video signal with labeling information indicating that there is a moving subject to be moved beyond a predetermined area is transferred to the video processing unit 3, the video processing unit 3 notifies the notification (not shown). It is also possible to notify the apparatus that “the moving object is in the shooting range of the electronic camera 101”.

また、本実施形態の画像処理装置は、電子カメラ101が映像信号をY信号(Y-signal)、U信号( U-signal)、V信号(V-signal)として生成し、ラベル情報多重部2に入力する。Y、U、V信号は、輝度情報(Y)と二つの色情報(UとV)で画像に係る信号を表わすもので、国際電気信号連合(ITU:International Telecommunication Union)によりITU−R BT.601でYUV方式として規格化されている。   In the image processing apparatus of the present embodiment, the electronic camera 101 generates a video signal as a Y signal (Y-signal), a U signal (U-signal), and a V signal (V-signal), and the label information multiplexing unit 2 To enter. The Y, U, and V signals represent a signal related to an image with luminance information (Y) and two color information (U and V). The ITU-R BT. 601 is standardized as a YUV system.

また、ラベル情報多重部2は、電子カメラ101から入力された各Y、U、V信号をYUV411のフォーマットの信号に変換し、Y信号とUV信号(U、V信号が多重化された信号)を出力するYUV変換部105、YUV変換部105によってフォーマット変換されたY信号とUV信号と後述のラベル番号との同期をとる遅延量調整部107、遅延量調整部105でタイミングを調整されて出力したUV信号にラベリング部111から出力したラベル番号を多重するUV信号・ラベル番号多重部109を有している。   The label information multiplexing unit 2 converts each Y, U, and V signal input from the electronic camera 101 into a YUV411 format signal, and the Y signal and the UV signal (a signal obtained by multiplexing the U and V signals). YUV conversion unit 105 that outputs the Y signal, the Y signal converted by the YUV conversion unit 105, the delay amount adjustment unit 107 that synchronizes the UV signal and a label number described later, and the delay amount adjustment unit 105 that adjusts the timing and outputs A UV signal / label number multiplexing unit 109 that multiplexes the label number output from the labeling unit 111 to the UV signal.

さらに、電子カメラ101からは同期信号がラベル情報多重部2に入力される。ラベル情報多重部2には画素カウンタ制御部117があり、画素カウンタ制御部117は、入力された同期信号にしたがってラベリング部111の領域抽出部113及びラベル番号エンコーダ115に制御信号が入力される。領域抽出部113及びラベル番号エンコーダ115が制御信号にしたがって動作することにより、出力されるラベル番号は、画像における座標(制御信号がそれを与える)との対応関係をとることができる。   Further, a synchronization signal is input from the electronic camera 101 to the label information multiplexing unit 2. The label information multiplexing unit 2 includes a pixel counter control unit 117, and the pixel counter control unit 117 receives a control signal from the region extraction unit 113 and the label number encoder 115 of the labeling unit 111 according to the input synchronization signal. The region extraction unit 113 and the label number encoder 115 operate according to the control signal, so that the output label number can have a correspondence relationship with the coordinates in the image (the control signal gives it).

また、画素カウンタ制御部117は、UV信号・ラベル信号多重部109に同期信号に基づく多重制御信号(画像の座標との対応関係を与える)を入力する。UV信号・ラベル信号多重部109は、多重制御信号に基づいてUV信号にラベル番号を多重し、多重化された信号をUVラベル番号多重信号としてUV信号ポート119bから映像処理部3に出力する。Y信号は、Y信号ポート119aから映像処理部3に出力される。このとき、画素カウンタ制御部117からは電子カメラ101から入力した同期信号が同期信号ポート119cから映像処理部3に出力されるので、映像処理部3は、Y信号、UVラベル番号多重信号の入力タイミングのずれを同期信号によって調整することができる。   Also, the pixel counter control unit 117 inputs a multiplexing control signal based on the synchronization signal (giving a correspondence relationship with the coordinates of the image) to the UV signal / label signal multiplexing unit 109. The UV signal / label signal multiplexing unit 109 multiplexes the label number with the UV signal based on the multiplexing control signal, and outputs the multiplexed signal from the UV signal port 119b to the video processing unit 3 as a UV label number multiplexed signal. The Y signal is output from the Y signal port 119a to the video processing unit 3. At this time, since the synchronization signal input from the electronic camera 101 is output from the pixel counter control unit 117 to the video processing unit 3 from the synchronization signal port 119c, the video processing unit 3 inputs the Y signal and the UV label number multiplexed signal. The timing shift can be adjusted by the synchronization signal.

以上述べた構成は、以下のように動作する。
電子カメラ101は、撮像して得た映像信号(YUV信号)をラベル情報多重部2に転送する。転送された映像信号は、YUV411変換部105と共にラベリング部111に入力される。
YUV411変換部105は、転送されてきたYUV信号をYUV411フォーマットに変換する。YUV411フォーマットとは、前記したYUV方式の一つで、1画素当たり12ビットのデータ量で色情報を表現する。そして、この際に2×2の4ピクセルの中から輝度情報(Y)を4サンプル、輝度と赤色成分の差(U)、輝度と青色成分の差(V)をそれぞれ1サンプルずつ採る方式をいう。
The configuration described above operates as follows.
The electronic camera 101 transfers a video signal (YUV signal) obtained by imaging to the label information multiplexing unit 2. The transferred video signal is input to the labeling unit 111 together with the YUV 411 conversion unit 105.
The YUV411 conversion unit 105 converts the transferred YUV signal into the YUV411 format. The YUV411 format is one of the YUV methods described above, and expresses color information with a data amount of 12 bits per pixel. At this time, a method is adopted in which 4 samples of luminance information (Y) are selected from 4 pixels of 2 × 2, one sample each of the difference between luminance and red component (U), and the difference between luminance and blue component (V). Say.

図2は、YUV411フォーマットで変換された映像信号のY信号の転送を説明するための図である。また、図3は、YUV411フォーマットで変換された映像信号のU信号の転送の一例を説明するための図である。図2に示すように、Y信号は、1ライン目の図中左端にある画素Y1から順にYUV411変換部105から出力される。そして、ラインの図中右端にある画素Y640が出力された後、2ライン目の左端にある画素Y1が出力される。以上のようにしてY信号の画素は、YUV411変換部105から順次先に入力された画素から順に遅延量調整部107にすべて出力される。   FIG. 2 is a diagram for explaining the transfer of the Y signal of the video signal converted in the YUV411 format. FIG. 3 is a diagram for explaining an example of transfer of the U signal of the video signal converted in the YUV411 format. As shown in FIG. 2, the Y signal is output from the YUV 411 conversion unit 105 in order from the pixel Y1 at the left end of the first line in the drawing. Then, after the pixel Y640 at the right end in the drawing of the line is output, the pixel Y1 at the left end of the second line is output. As described above, all Y signal pixels are sequentially output from the YUV 411 conversion unit 105 to the delay amount adjustment unit 107 in order from the pixels input first.

また、YUV411変換部105は、U信号及びV信号については図3に示すように、映像信号において互いに隣接する4画素(例えばu11、u12、u21、u22)から1つの代表値(例えばU1)を算出する。そして、求めた代表値だけを遅延量調整部107に出力する。同様に、V信号についても4画素から算出される代表値だけを出力する。したがって、YUV411変換部105から遅延量調整部107に出力されるU及びV信号は、Y信号の全データ量の1/4となる。   Further, as shown in FIG. 3, the YUV411 conversion unit 105 obtains one representative value (for example, U1) from four pixels (for example, u11, u12, u21, and u22) adjacent to each other in the video signal, as shown in FIG. calculate. Then, only the obtained representative value is output to the delay amount adjustment unit 107. Similarly, only representative values calculated from four pixels are output for the V signal. Therefore, the U and V signals output from the YUV411 conversion unit 105 to the delay amount adjustment unit 107 are ¼ of the total data amount of the Y signal.

以上述べたYUV411フォーマットは、各色とも全画素を転送するRGB方式に比べて転送するデータ量が低減でき、しかも人間の目の空間解像度の低さを利用してデータ量を少なくした場合にも画質の劣化を抑えることができるものといえる。
図4は、U信号の代表値U1,U2,U3…、V信号の代表値V1,V2,V3…の伝送フォーマットを説明するための図である。代表値U1,U2,U3…及び代表値V1,V2,V3…は、図示するように1ライン上で交互に伝送される(すなわち多重化される)。このような多重化は、YUV411変換部105が、U信号の代表値とV信号の代表値とを交互に切り替えて出力することによって実現される。
The YUV411 format described above can reduce the amount of data to be transferred for each color compared to the RGB method for transferring all pixels, and even when the amount of data is reduced by using the low spatial resolution of the human eye, the image quality can be reduced. It can be said that deterioration of the resin can be suppressed.
FIG. 4 is a diagram for explaining the transmission format of U signal representative values U1, U2, U3... And V signal representative values V1, V2, V3. The representative values U1, U2, U3... And the representative values V1, V2, V3... Are alternately transmitted (that is, multiplexed) on one line as shown. Such multiplexing is realized by the YUV 411 conversion unit 105 alternately switching and outputting the representative value of the U signal and the representative value of the V signal.

U、V信号は、前記したようにデータ量がYUV411フォーマットに変換される以前の1/4になっており、その結果、U、V信号多重化後においても奇数ラインにのみ代表値のデータが存在し、偶数ラインには伝送すべきデータがない状態になる。一般的なYUV411フォーマットでは、偶数ラインの伝送タイミングでダミーのデータを送信する。なお、ダミーデータとしては、例えば、すでに転送済みの奇数ラインのデータが用いられる。本実施形態では、後述するように、ダミーデータ転送タイミングでラベル番号を送信し、UV信号にラベル番号を多重化するものとする。   As described above, the data amount of the U and V signals is ¼ that before the conversion to the YUV411 format. As a result, even after multiplexing the U and V signals, the representative value data is only present on the odd lines. Exists and there is no data to be transmitted on even lines. In the general YUV411 format, dummy data is transmitted at the transmission timing of even lines. As the dummy data, for example, odd-numbered line data that has already been transferred is used. In this embodiment, as will be described later, it is assumed that the label number is transmitted at the dummy data transfer timing and the label number is multiplexed with the UV signal.

YUV411フォーマットに変換されたY信号及びUV信号は、それぞれ遅延量調整部107に送られる。遅延量調整部107は、入力したY信号及びUV信号とラベリング部111から出力されるラベル番号との同期をとる構成である。具体的には、ラベリング部111のラインメモリや遅延素子で発生するラベル番号の遅延分に合わせてYUV信号の出力タイミングを遅延させる。遅延量調整部107は、遅延させたタイミングでY信号をY信号ポート109aに、また、UV信号をUV信号・ラベル番号多重部109に送る。   The Y signal and the UV signal converted into the YUV411 format are sent to the delay amount adjustment unit 107, respectively. The delay amount adjustment unit 107 is configured to synchronize the input Y signal and UV signal with the label number output from the labeling unit 111. Specifically, the output timing of the YUV signal is delayed in accordance with the delay of the label number generated in the line memory or delay element of the labeling unit 111. The delay amount adjustment unit 107 sends the Y signal to the Y signal port 109a and the UV signal to the UV signal / label number multiplexing unit 109 at the delayed timing.

一方、ラベリング部111は、領域抽出部113において電子カメラ101から入力したYUV信号から予め定められた特徴の特徴量を検出する。ラベリング部111は全画素について特徴量を検出し、その結果を、UV信号・ラベル番号多重部109に出力している。実施形態1のUV信号ラベル番号多重部109は、隣接する4画素ごとに一つの特徴量を代表値とし(間引き処理)、その代表値だけを出力する(後述)。   On the other hand, the labeling unit 111 detects a feature amount of a predetermined feature from the YUV signal input from the electronic camera 101 in the region extraction unit 113. The labeling unit 111 detects feature amounts for all pixels and outputs the result to the UV signal / label number multiplexing unit 109. The UV signal label number multiplexing unit 109 according to the first embodiment sets one feature value as a representative value for every four adjacent pixels (decimation processing), and outputs only the representative value (described later).

図5は、ラベリング部111のうちの領域抽出部113のより詳細な構成を説明するための図である。領域抽出部113は、複数(本実施形態ではn個)の領域検出器501a、501b、…501nを備えている。領域検出器501a〜501nは、各々特定領域検出部502a〜502nとノイズ除去フィルタ503a〜503nを有している。YUVの映像信号は、領域検出器501a〜501nの各々に入力される。各領域検出器の特定領域検出部502a〜502nは、YUV信号の特徴量を1ビットずつ検出する。   FIG. 5 is a diagram for explaining a more detailed configuration of the region extraction unit 113 in the labeling unit 111. The region extraction unit 113 includes a plurality (n in this embodiment) of region detectors 501a, 501b,. The area detectors 501a to 501n have specific area detectors 502a to 502n and noise removal filters 503a to 503n, respectively. The YUV video signal is input to each of the area detectors 501a to 501n. The specific area detectors 502a to 502n of each area detector detect the feature amount of the YUV signal bit by bit.

図6は、特徴量として映像信号の色を検出する特定領域検出部502a〜502nの構成を例示する図である。図示した特定領域検出部502aは、2個を1組とする3組の比較器601a、601b、601cと複数のアンド回路602a〜602eで構成されている。輝度を示すY信号は、2つの比較器601aによってその値が予め設定された2つの閾値(YHigh、YLow)と比較される。そして、Y信号が示す輝度がYHighより低く、かつYLowよりも高い場合に、すなわち所定の範囲にある場合にだけアンド回路602aから「1」の信号が出力される。   FIG. 6 is a diagram illustrating a configuration of specific area detection units 502a to 502n that detect the color of a video signal as a feature amount. The specific area detecting unit 502a shown in the figure is composed of three sets of comparators 601a, 601b, 601c and a plurality of AND circuits 602a to 602e. The Y signal indicating the luminance is compared with two threshold values (YHigh, YLow) whose values are preset by the two comparators 601a. The AND circuit 602a outputs a signal “1” only when the luminance indicated by the Y signal is lower than YHigh and higher than YLow, that is, within a predetermined range.

また、色を示すU信号は、2つの比較器601bによってその値が予め設定された2つの閾値(UHigh、ULow)と比較される。そして、U信号の値がUHighとULowとの間にある場合にだけアンド回路602bから「1」の信号が出力される。さらに、V信号は、2つの比較器601cによってその値が2つの閾値(VHigh、VLow)と比較される。そして、V信号の値がVHighとVLowとの間にある場合にだけアンド回路602cから「1」の信号が出力される。   The U signal indicating the color is compared with two threshold values (UHigh and ULow) whose values are set in advance by the two comparators 601b. The AND circuit 602b outputs a signal “1” only when the value of the U signal is between UHigh and ULow. Further, the V signal is compared with two threshold values (VHigh, VLow) by two comparators 601c. The AND circuit 602c outputs a signal “1” only when the value of the V signal is between VHigh and VLow.

アンド回路602b、602cが出力した信号はアンド回路602dに入力される。アンド回路602dからはY信号が所定の値の範囲にあって、かつV信号が所定の値の範囲にある場合にだけ「1」が出力される。さらに、アンド回路602dが出力した信号はアンド回路602aが出力した信号と共にアンド回路602eに入力され、アンド回路602eは、入力された信号が両方「1」である場合にだけ「1」の信号を出力する。   The signals output from the AND circuits 602b and 602c are input to the AND circuit 602d. The AND circuit 602d outputs “1” only when the Y signal is in a predetermined value range and the V signal is in a predetermined value range. Further, the signal output from the AND circuit 602d is input to the AND circuit 602e together with the signal output from the AND circuit 602a. The AND circuit 602e outputs a signal of “1” only when both of the input signals are “1”. Output.

すなわち、特定領域検出部502aは、YUV信号の各値すべてが予め定めた閾値の範囲内にある場合にだけ信号「1」を出力し、それ以外の場合は信号「0」を出力する。したがって、YUVの各値の閾値をYUV信号が人間の肌の色を表す場合の値の範囲に合わせて設定しておくことにより、特定領域検出部502aを使って映像信号が人間の顔や手足等を示すことが検出できる。また、YUVの各値の閾値をYUV信号が予め予想される車両等の色の範囲に合わせて設定しておくことにより、車両等を検出することも可能である。なお、特定領域検出部502aが出力する信号を、以降、領域検出フラグと記す。また、検出領域フラグが「1」である画素を有効画素、「0」である画素を無効画素と記す。   That is, the specific area detection unit 502a outputs the signal “1” only when all the values of the YUV signal are within a predetermined threshold range, and outputs the signal “0” otherwise. Therefore, by setting the threshold value of each value of YUV in accordance with the range of values when the YUV signal represents the color of human skin, the video signal can be converted into a human face or limb using the specific area detection unit 502a. Etc. can be detected. It is also possible to detect a vehicle or the like by setting a threshold value for each value of YUV in accordance with a color range of the vehicle or the like for which a YUV signal is predicted in advance. The signal output from the specific area detection unit 502a is hereinafter referred to as an area detection flag. In addition, a pixel having a detection area flag “1” is referred to as a valid pixel, and a pixel having “0” is referred to as an invalid pixel.

図7は、ノイズ除去フィルタ503aの構成を例示するための図である。ノイズ除去フィルタ503aは、3つの2値画素基本フィルタ701a、701b、701cを有し、領域検出フラグを受け取って有効画素の抜けを補間する、あるいはごみを除去している。なお、本実施形態では2値画素基本フィルタを3つ組み合わせるものとしたが、ノイズ除去フィルタの性能は、2値画素基本フィルタの個数が大きいほど向上する。   FIG. 7 is a diagram for illustrating the configuration of the noise removal filter 503a. The noise removal filter 503a includes three binary pixel basic filters 701a, 701b, and 701c, receives an area detection flag, and interpolates missing effective pixels or removes dust. In the present embodiment, three binary pixel basic filters are combined. However, the performance of the noise removal filter improves as the number of binary pixel basic filters increases.

図8(a)、(b)、(c)は、3×3の2値画素基本フィルタを説明するための図である。図8(a)は、2値画素基本フィルタ(例えば701a)の構成を示すものであり、(b)及び(c)は2値画素基本フィルタでなされる処理を説明するための図である。「1」または「0」の領域検出フラグは、2つの1ビットラインメモリ801a及び801bと、順次遅延素子802に蓄積され、遅延処理される。2値画素基本フィルタ701aは、この遅延データを用いて、例えば(b)に示した3×3のフィルタ処理を行う。フィルタの特性は、2値画像フィルタ用ロジック803の構成により決まる。すなわち、その論理式により出力が一意に決まる。   FIGS. 8A, 8 </ b> B, and 8 </ b> C are diagrams for explaining a 3 × 3 binary pixel basic filter. FIG. 8A shows a configuration of a binary pixel basic filter (for example, 701a), and FIGS. 8B and 8C are diagrams for explaining processing performed by the binary pixel basic filter. The area detection flag of “1” or “0” is sequentially stored in the two 1-bit line memories 801a and 801b and the delay element 802 for delay processing. The binary pixel basic filter 701a performs, for example, 3 × 3 filter processing shown in (b) using this delay data. The characteristics of the filter are determined by the configuration of the binary image filter logic 803. That is, the output is uniquely determined by the logical expression.

2値画像フィルタ用ロジック803は、図示したフィルタにおいて、中央のD22の画素を注目画素として処理する。画素の補間処理について、図6(c)を使って説明する。2値画像フィルタ用ロジック803は、例えば、図6(c)に黒で示す画素(D11、D12、D13、D21、D31)が有効画素であり、白で示す画素(D23、D32、D33)が無効画素である場合、注目画素D22を有効画素と判定する。このような例よれば、画像の斜め線のジャギーを除き、滑らかな線を描画することができる。補間された有効検出フラグは、1ビットずつ次段のフィルタに出力される。   In the illustrated filter, the binary image filter logic 803 processes the center pixel D22 as the target pixel. The pixel interpolation process will be described with reference to FIG. In the binary image filter logic 803, for example, pixels (D11, D12, D13, D21, D31) shown in black in FIG. 6C are effective pixels, and pixels (D23, D32, D33) shown in white are shown. If it is an invalid pixel, the target pixel D22 is determined as a valid pixel. According to such an example, a smooth line can be drawn except for the jaggy of the diagonal line of the image. The interpolated validity detection flag is output bit by bit to the next stage filter.

2値画素基本フィルタは、2値画像フィルタ用ロジックの構成や処理条件を変更することによって有効画素抜け、ごみの除去のいずれもが可能である。また、特性の異なる2値画像基本フィルタを複数組み合わせることにより、本実施形態は、映像信号の画素の補間及びごみの除去が可能なノイズ除去フィルタを構成することができる。
以上述べた本実施形態の領域検出器501a〜501nは、各々が予め設定された互いに異なる特徴量を検出する。そして、映像信号を構成する各画素について各々特徴量を有する有効画素かあるいは無効画素かを判断し、有効画素抜けやごみの除去処理を行ってラベル番号エンコーダ115に出力する。したがって、ラベル番号エンコーダ115には、領域検出器501a〜501n個分のn個の領域検出フラグが入力される。
The binary pixel basic filter can remove both effective pixels and dust by changing the configuration and processing conditions of the binary image filter logic. Further, by combining a plurality of binary image basic filters having different characteristics, this embodiment can constitute a noise removal filter capable of interpolating pixels of a video signal and removing dust.
The region detectors 501a to 501n of the present embodiment described above detect different feature amounts that are set in advance. Then, it is determined whether each pixel constituting the video signal is an effective pixel or an invalid pixel having a characteristic amount, and effective pixel omission and dust removal processing is performed and output to the label number encoder 115. Accordingly, n area detection flags corresponding to the area detectors 501a to 501n are input to the label number encoder 115.

ラベル番号エンコーダ115は、入力した領域検出フラグをラベル番号に変換してUV信号・ラベル番号多重部109に出力する。
領域検出フラグのラベル番号への変換は、例えば、領域検出器が16個あった場合、領域検出器が出力する16個の信号を4ビットのラベル番号信号とすることによって実現できる。なお、本実施形態では、以降、ラベル番号は8ビットの情報(256種類の領域判別可能)であるものとして説明をする。
The label number encoder 115 converts the input region detection flag into a label number and outputs it to the UV signal / label number multiplexing unit 109.
For example, when there are 16 area detectors, conversion of the area detection flag into the label number can be realized by using 16 signals output from the area detector as 4-bit label number signals. In the following description of the present embodiment, the label number is assumed to be 8-bit information (256 types of areas can be identified).

また、以上述べた本実施形態では、特徴量をYUV信号の輝度や色差によって検出するものとした。しかし、本実施形態の特徴量はYUV信号の輝度や色に限定されるものでなく、映像信号が示す被写体の形状や動きであってもよい。被写体の形状を特徴量として検出することは、例えば、予め設定した形状と画像とをパターンマッチングすることによって可能である。また、被写体の動きを特徴量として検出する構成は、映像信号を構成する画素の経時的な変化を検出することによって可能である。このような検出の方法は、周知であるからこれ以上の具体的な説明を省く。   Further, in the present embodiment described above, the feature amount is detected by the luminance or color difference of the YUV signal. However, the feature amount of the present embodiment is not limited to the luminance and color of the YUV signal, and may be the shape and movement of the subject indicated by the video signal. The shape of the subject can be detected as a feature amount by, for example, pattern matching between a preset shape and an image. In addition, a configuration for detecting the movement of the subject as a feature amount is possible by detecting a change with time of the pixels constituting the video signal. Since such a detection method is well known, further detailed explanation is omitted.

また、本実施形態の画像処理装置は、前記したように8ビットでラベル番号を表している。画素の色や輝度によって特徴量を検出し、また、映像信号から被写体の動き等による特徴量を検出する構成とした場合、8ビットのうち、例えば4ビットずつをそれぞれの特徴量を示すラベリング番号に割り当てることもできる。このような構成によれば、単に映像信号に人間の画像がある、あるいは車両の画像があるといった情報にとどまらず、人間が侵入してきた、あるいは車両が撮影範囲内を通過したといった情報を得ることができる。   The image processing apparatus according to the present embodiment represents the label number with 8 bits as described above. When the feature amount is detected based on the color and luminance of the pixel and the feature amount based on the movement of the subject is detected from the video signal, for example, 4 bits out of 8 bits are labeled numbers indicating the feature amounts. Can also be assigned. According to such a configuration, not only information that there is a human image or a vehicle image in the video signal, but also information that a human has entered or that the vehicle has passed through the shooting range can be obtained. Can do.

以上述べた本実施形態は、電子カメラ101が入力した画像データの各画素から直ちに特徴量を検出する。撮像で得られた画像データを画像表示可能な表示データに変換した場合、一般的には高解像度化処理のため画素数が増えたり、表示装置の特性に合わせる為に階調処理が施されることが知られている。このため、本実施形態は、画像データを表示データに変換した後に特徴量を検出するよりも処理対象となる画素の数が少なくなり、処理に係る負荷を軽減することができる。また、撮像素子からの出力を直接処理でき、その出力は直線性を示すことから、より精度の高い特徴量抽出が可能である。   In the present embodiment described above, the feature amount is immediately detected from each pixel of the image data input by the electronic camera 101. When image data obtained by imaging is converted into display data that can display an image, generally, the number of pixels is increased for high resolution processing, or gradation processing is performed to match the characteristics of the display device. It is known. For this reason, in the present embodiment, the number of pixels to be processed becomes smaller than that in which the feature amount is detected after the image data is converted into the display data, and the processing load can be reduced. In addition, since the output from the image sensor can be directly processed and the output exhibits linearity, it is possible to extract a feature amount with higher accuracy.

次に、ラベル情報多重部2は、UV信号・ラベル番号多重部109において、入力したUV信号とラベル番号とを多重化する。前述したように、YUV411のフォーマットはUV信号を転送の必要がないダミーデータと共に転送するものであり、UV信号・ラベル番号多重部109は、ダミーデータ転送のタイミングでラベル番号を映像処理装置3に転送することによってダミーデータに代えてラベル番号を画像データに多重し、転送するものとした。   Next, the label information multiplexing unit 2 multiplexes the input UV signal and the label number in the UV signal / label number multiplexing unit 109. As described above, the YUV 411 format transfers the UV signal together with dummy data that does not need to be transferred, and the UV signal / label number multiplexing unit 109 sends the label number to the video processing device 3 at the timing of dummy data transfer. By transferring, the label number is multiplexed with the image data in place of the dummy data and transferred.

すなわち、UV信号・ラベル番号多重部109における多重化は、図9(a)に示すように、UV信号・ラベル番号多重部109がマルチプレクサ901を有し、マルチプレクサ901でUV信号とラベル番号とを切り替えて出力することによって実現する。図10は、多重化されたUV信号とラベル番号とを示す図であって、ラベル番号L1、L2、…L320は、図4に示したダミーデータ出力のタイミング(偶数ライン)で出力され、UV信号に多重化される。   That is, in the multiplexing in the UV signal / label number multiplexing unit 109, as shown in FIG. 9A, the UV signal / label number multiplexing unit 109 has a multiplexer 901, and the multiplexer 901 outputs the UV signal and the label number. Realized by switching and outputting. 10 shows multiplexed UV signals and label numbers. Label numbers L1, L2,... L320 are output at the dummy data output timing (even lines) shown in FIG. Multiplexed into signal.

ダミーデータに代えてラベル番号を転送する本実施形態によれば、今までの監視カメラなどの映像システムにおける画像データ処理手段の構成を大きく変更することなく、ラベル情報を転送することができる。
また、ラベル情報と画像データの同期をとって転送することができるので、画像処理装置側のデータの同期処理にかかる負荷を抑えることができる。また、データ転送系を有効活用、データの転送効率を高めることができる。
According to the present embodiment in which the label number is transferred instead of the dummy data, the label information can be transferred without largely changing the configuration of the image data processing means in the video system such as the conventional surveillance camera.
Further, since the label information and the image data can be transferred in synchronization, the load on the data synchronization processing on the image processing apparatus side can be suppressed. In addition, the data transfer system can be effectively used to increase the data transfer efficiency.

また、本実施形態では、図10(a)に示すように、UV信号・ラベル番号多重部109から出力されるラベル番号は、隣接する4画素ごとに決定した代表値についてのみとする。このため、偶数ラインにおいてR1、R2…R320として示したデータ(リザーブデータとする)の転送タイミングに空きが生じる。リザーブデータの転送タイミングではダミーデータを転送するようにしてもよいし、撮影対象物の動き等の他の特徴量をUV信号にさらに多重化してもよい。   In this embodiment, as shown in FIG. 10A, the label number output from the UV signal / label number multiplexing unit 109 is only for the representative value determined for every four adjacent pixels. Therefore, there is a vacancy in the transfer timing of the data (referred to as reserve data) indicated as R1, R2,. At the transfer timing of the reserve data, dummy data may be transferred, or other feature quantities such as the movement of the photographing object may be further multiplexed on the UV signal.

図9(b)は、リザーブデータをラベル番号と共にUV信号に多重化する場合のマルチプレクサの構成を説明するための図である。リザーブデータをラベル番号と共に多重化する場合、ラベル番号LをリザーブデータRと共にマルチプレクサ902に送り、画素単位で両者の出力タイミングを切り替えて多重化する。さらに、多重化されたラベル番号LとリザーブデータRとをUV信号と共にマルチプレクサ903に送り、マルチプレクサ903でラベル番号L及びリザーブデータRとUV信号の出力タイミングとをラインごとに切り替えて出力する。このようにした場合、図10(b)に示した多重化信号が実現する。本実施形態は、YUV411フォーマットのダミーデータ等、転送データの冗長な部分を転送するタイミングでラベル番号を転送することにより、データ転送系のバンド幅(データ転送能力)を最大限に有効活用し、従来の物理的構成、転送速度などの規格を維持して、ラベル番号転送という新しい機能を追加できる。   FIG. 9B is a diagram for explaining the configuration of the multiplexer when the reserve data is multiplexed with the label number into the UV signal. When the reserve data is multiplexed together with the label number, the label number L is sent to the multiplexer 902 together with the reserve data R, and the output timings of both are switched for each pixel and multiplexed. Further, the multiplexed label number L and reserve data R are sent to the multiplexer 903 together with the UV signal, and the multiplexer 903 switches the label number L, the reserve data R and the output timing of the UV signal for each line and outputs them. In this case, the multiplexed signal shown in FIG. 10B is realized. In this embodiment, the label number is transferred at the timing of transferring the redundant portion of the transfer data such as dummy data in the YUV411 format, so that the bandwidth (data transfer capability) of the data transfer system is effectively utilized to the maximum extent. A new function called label number transfer can be added while maintaining the conventional physical configuration, transfer rate, and other standards.

以上のようにして生成された信号は、ラベル番号多重信号としてUV信号ポート119bから映像処理装置3に転送される。また、Y信号は、Y信号ポート119aから映像処理部3に転送される。本実施形態のラベル番号多重信号及びY信号の転送は、30fpsのフレームレートで行われる。転送は、電子カメラ101がラベル情報多重部2に入力された同期信号(同期信号IN)と、この同期信号を遅延させて生成された同期信号(同期信号OUT)に基づいて行われる。同期信号は、転送される映像データのフレームの開始を示す垂直同期信号、ラインの開始を示す水平同期信号、画素の同期信号の3信号もしくはこれら3信号の複合信号である。   The signal generated as described above is transferred from the UV signal port 119b to the video processing device 3 as a label number multiplexed signal. The Y signal is transferred from the Y signal port 119a to the video processing unit 3. The label number multiplexed signal and the Y signal are transferred at a frame rate of 30 fps in this embodiment. The transfer is performed based on the synchronization signal (synchronization signal IN) input to the label information multiplexing unit 2 by the electronic camera 101 and the synchronization signal (synchronization signal OUT) generated by delaying the synchronization signal. The synchronization signal is a vertical synchronization signal indicating the start of a frame of video data to be transferred, a horizontal synchronization signal indicating the start of a line, three signals of pixel synchronization signals, or a composite signal of these three signals.

図11は、映像処理装置3の構成を説明するための図である。映像処理装置3は、UV信号分離同期部1101と、UV信号格納部1102とを有する。UV信号分離同期部1101は、遅延量調整部1103、UV信号・ラベル番号分離部1104、画素カウンタ制御部1105を備えている。また、UV信号格納部1102は、UV信号分離部1106、ラベル番号補間部1107、VRAM1108を備えている。   FIG. 11 is a diagram for explaining the configuration of the video processing device 3. The video processing device 3 includes a UV signal separation / synchronization unit 1101 and a UV signal storage unit 1102. The UV signal separation / synchronization unit 1101 includes a delay amount adjustment unit 1103, a UV signal / label number separation unit 1104, and a pixel counter control unit 1105. The UV signal storage unit 1102 includes a UV signal separation unit 1106, a label number interpolation unit 1107, and a VRAM 1108.

ラベル情報多重部2が出力した信号のうち、Y信号は遅延量調整部1103に入力される。また、UV信号・ラベル番号多重信号は、UV信号・ラベル番号分離部1104に入力され、同期信号OUTは画素カウンタ制御部1105に入力される。図12は、UV信号・ラベル番号分離部1104の構成を説明するための図である。UV信号・ラベル番号分離部1104は、デマルチプレクサ1201を備えている。デマルチプレクサ1201は、入力されたUV信号・ラベル番号多重信号を、ライン番号ごとに切り替わる制御信号に基づいて別々に出力することによってUV信号とラベル番号とに分離する。   Of the signals output from the label information multiplexing unit 2, the Y signal is input to the delay amount adjusting unit 1103. The UV signal / label number multiplexed signal is input to the UV signal / label number separation unit 1104, and the synchronization signal OUT is input to the pixel counter control unit 1105. FIG. 12 is a diagram for explaining the configuration of the UV signal / label number separation unit 1104. The UV signal / label number separation unit 1104 includes a demultiplexer 1201. The demultiplexer 1201 separates the input UV signal / label number multiplexed signal into a UV signal and a label number by separately outputting based on a control signal that is switched for each line number.

なお、ライン番号ごとに切り替わる制御信号は、画素カウンタ制御部1105によって同期信号OUTに基づいて出力される。遅延量調整部1103は、UV信号と共に転送されてくるY信号をUV信号・ラベル番号分離部1104における処理時間分遅延させ、Y信号の出力タイミングをUV信号に同期させる構成である。
Y信号、UV信号及びラベル番号、同期信号は、いずれもUV信号格納部1102に入力される。UV信号格納部1102はUV信号分離部1106、ラベル番号補間部1107を備えている。Y信号はそのままVRAM1108に入力され、格納される。また、UV信号はUV信号分離部1106に入力されて分離されると共に補間され、VRAM1108に格納される。また、ラベル番号は、ラベル番号補間部1107に入力され、補間されてVRAM1108に格納される。同期信号はVRAM1108に入力され、VRAM1108は同期信号を基準にして動作する。
A control signal that is switched for each line number is output by the pixel counter control unit 1105 based on the synchronization signal OUT. The delay amount adjustment unit 1103 is configured to delay the Y signal transferred together with the UV signal by the processing time in the UV signal / label number separation unit 1104 and synchronize the output timing of the Y signal with the UV signal.
The Y signal, UV signal, label number, and synchronization signal are all input to the UV signal storage unit 1102. The UV signal storage unit 1102 includes a UV signal separation unit 1106 and a label number interpolation unit 1107. The Y signal is input to the VRAM 1108 as it is and stored. Further, the UV signal is input to the UV signal separation unit 1106, separated, interpolated, and stored in the VRAM 1108. The label number is input to the label number interpolation unit 1107, interpolated, and stored in the VRAM 1108. The synchronization signal is input to the VRAM 1108, and the VRAM 1108 operates based on the synchronization signal.

図13は、UV信号分離部1106の構成を説明するための図である。UV信号分離部1106は、入力したUV信号を1ライン分蓄積するラインメモリ1301、マルチプレクサ1302、遅延素子1303、マルチプレクサ1304を備えている。UV信号は、ラインメモリ1301を介して、あるいは直接マルチプレクサ1302に入力される。UV信号分離部1106は、UV信号のうち奇数番目のラインが転送されてきた場合、この信号を出力し、かつラインメモリ1301に格納する。一方、偶数番目のラインが転送されてきた場合にはメモリライン1301に格納されている奇数番目の信号を出力する。この結果、マルチプレクサ1302からは、常に奇数番目のラインのUV信号が出力される。   FIG. 13 is a diagram for explaining the configuration of the UV signal separation unit 1106. The UV signal separation unit 1106 includes a line memory 1301 that accumulates an input UV signal for one line, a multiplexer 1302, a delay element 1303, and a multiplexer 1304. The UV signal is input to the multiplexer 1302 via the line memory 1301 or directly. When an odd-numbered line of the UV signal is transferred, the UV signal separation unit 1106 outputs this signal and stores it in the line memory 1301. On the other hand, when the even-numbered line is transferred, the odd-numbered signal stored in the memory line 1301 is output. As a result, the multiplexer 1302 always outputs an odd-numbered line UV signal.

また、UV信号分離部1106では、奇数番目(画素単位)の画素を入力した場合、この画素をVRAM1108に出力すると共に遅延素子1303で遅延させる。そして、偶数番目(画素単位)の画素が入力した場合には遅延素子1303で遅延させた画素をVRAM1108に出力する。この結果、U信号は、V信号と分離して図14に示すようにVRAM1108に格納される。   In addition, when an odd-numbered (pixel unit) pixel is input to the UV signal separation unit 1106, this pixel is output to the VRAM 1108 and delayed by the delay element 1303. When an even-numbered pixel (pixel unit) is input, the pixel delayed by the delay element 1303 is output to the VRAM 1108. As a result, the U signal is separated from the V signal and stored in the VRAM 1108 as shown in FIG.

図14では、ラインメモリ1301、遅延素子1301にいったん送られて遅延し、送出されてきた画素を補間画素としてグレーにして示す。図示しないが、以上述べた動作によってV信号もU信号と分離してVRAM1108に格納される。なお、U信号が格納されるVRAM1108のエリアをUプレーンといい、V信号が格納されるVRAM1108のエリアをVプレーンという。   In FIG. 14, the pixels that have been once sent to the line memory 1301 and the delay element 1301 are delayed, and the sent pixels are shown in gray as interpolation pixels. Although not shown, the V signal is also separated from the U signal and stored in the VRAM 1108 by the operation described above. The area of the VRAM 1108 in which the U signal is stored is called a U plane, and the area of the VRAM 1108 in which the V signal is stored is called a V plane.

さらに、本実施形態では、UV信号・ラベル信号分離部1104でUV信号と分離したラベル番号もUV信号格納部1102に入力される。そして、ラベル番号補間部1107において補間される。この補間は、ラベル番号補間部1107は、図13に示した構成とほぼ同様の構成で、例えば、偶数番目のラインの信号が転送されてきたときにだけ転送されてきたデータをそのまま出力すると共にラインメモリに蓄積する。そして、奇数番目のラインが転送されてきたときにはラインメモリに蓄積されている信号を出力し、さらに1ラインにおいて1画素ごとに出力を切り替えれば図10に示したラベル番号L1、L2…とリザーブ信号R1、R2…のタイミングで転送されてきた特徴量とをそれぞれVRAM1108に転送して別々に格納することができる。   Furthermore, in this embodiment, the label number separated from the UV signal by the UV signal / label signal separation unit 1104 is also input to the UV signal storage unit 1102. Then, the label number interpolation unit 1107 performs interpolation. In this interpolation, the label number interpolation unit 1107 has a configuration substantially similar to the configuration shown in FIG. 13 and outputs, for example, the transferred data as it is only when the signal of the even-numbered line is transferred. Accumulate in line memory. When the odd-numbered line is transferred, the signal stored in the line memory is output, and if the output is switched for each pixel in one line, the label numbers L1, L2,... Shown in FIG. The feature amounts transferred at the timings R1, R2,... Can be transferred to the VRAM 1108 and stored separately.

以上述べた処理の後、映像処理部3は、必要に応じてVRAM1108に格納されたYUV信号を処理して所定の形式で画像を表示し得る表示データを作成する。YUV信号を画像を表示し得るデータにする処理とは、例えばYUV信号をRGB信号に変換する処理をいう。また、映像処理部3は、必要に応じてラベル番号から映像信号が示す撮影対象物(人間あるいは車等)を特定し、特定された撮影対象物を外部に通知する処理等を行う。   After the processing described above, the video processing unit 3 processes the YUV signal stored in the VRAM 1108 as necessary to create display data that can display an image in a predetermined format. The process of converting a YUV signal into data that can display an image refers to a process of converting a YUV signal into an RGB signal, for example. In addition, the video processing unit 3 performs a process of specifying a shooting target (human or car) indicated by the video signal from the label number as needed, and notifying the specified shooting target to the outside.

以上述べた本実施形態によれば、電子カメラ等の映像信号源で得られた映像信号にラベルを付して映像処理部に転送することができる。このため、映像処理部3における画像データから特徴を検出する処理が不要になり、映像処理部3のCPUにかかる負荷を軽減することができる。このため、映像処理部3のCPUにより小型、低コストのものを採用することができ、ひいては画像処理装置全体の小型化、低コスト化が実現できる。また、映像処理部3のCPUに既存の処理能力を持たせた場合、この能力を画像データの特徴量検出以外の処理に充てることができる。
また、本発明の画像データ転送方法によれば、今までの監視カメラなどの映像システムにおける画像データ処理手段の構成を大きく変更することなく、ラベル情報を転送することができるので、コストアップすることなく、装置を構成することができる。
また、本発明の画像データ転送方法によれば、ラベル情報と画像データが同期をとって転送できるので、転送されるラベル情報と画像データを単にアンド(and)するのみで、実時間で特定画像(たとえば人物、車両など)を抽出できる。また、同一の方法で、複数の特徴量を転送できるので、より正確な領域抽出が可能となる。
According to this embodiment described above, it is possible to attach a label to a video signal obtained by a video signal source such as an electronic camera and transfer it to a video processing unit. For this reason, the process for detecting features from the image data in the video processing unit 3 is not required, and the load on the CPU of the video processing unit 3 can be reduced. For this reason, it is possible to adopt a small and low cost CPU by the CPU of the video processing unit 3, and as a result, it is possible to reduce the size and cost of the entire image processing apparatus. Further, when the CPU of the video processing unit 3 has an existing processing capability, this capability can be used for processing other than the feature amount detection of the image data.
Further, according to the image data transfer method of the present invention, the label information can be transferred without greatly changing the configuration of the image data processing means in the conventional video system such as a surveillance camera. And the device can be configured.
In addition, according to the image data transfer method of the present invention, the label information and the image data can be transferred in synchronization, so that the specific image can be obtained in real time simply by ANDing the transferred label information and the image data. (For example, a person, a vehicle, etc.) can be extracted. In addition, since a plurality of feature amounts can be transferred by the same method, more accurate region extraction can be performed.

また、本実施形態は、ラベル情報多重部2をほぼ論理回路等のハードウェアで構成した。このため、画像処理のうち画像の特徴量を検出する処理をCPU等によるよりも簡易にでき、画像処理装置全体の画像処理にかかる負荷を軽減することができる。   In the present embodiment, the label information multiplexing unit 2 is substantially configured by hardware such as a logic circuit. For this reason, it is possible to simplify the process of detecting the feature amount of the image in the image processing rather than using the CPU or the like, and to reduce the load on the image processing of the entire image processing apparatus.

本発明の一実施形態の画像処理装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the image processing apparatus of one Embodiment of this invention. YUV411フォーマットで変換された映像信号のY信号の転送を説明するための図である。It is a figure for demonstrating transfer of the Y signal of the video signal converted by the YUV411 format. YUV411変換部において複数の画素から1つの代表値を算出する処理を説明するための図である。It is a figure for demonstrating the process which calculates one representative value from a some pixel in a YUV411 conversion part. 図3に示した構成において算出された代表値の伝送フォーマットを説明するための図である。FIG. 4 is a diagram for explaining a transmission format of representative values calculated in the configuration shown in FIG. 3. 図1に示したラベリング部のより詳細な構成を説明するための図である。It is a figure for demonstrating the more detailed structure of the labeling part shown in FIG. 特徴量として映像信号の色を検出する構成を例示する図である。It is a figure which illustrates the structure which detects the color of a video signal as a feature-value. 一般的なノイズ除去フィルタの構成を例示するための図である。It is a figure for demonstrating the structure of a general noise removal filter. 一般的な2値画素基本フィルタを説明するための図である。It is a figure for demonstrating a general binary pixel basic filter. 本発明の一実施形態のUV信号とラベル番号との多重化を説明するための図である。It is a figure for demonstrating multiplexing of UV signal and label number of one Embodiment of this invention. 複数のラベル番号から1つの代表値を算出する処理を説明するための図である。It is a figure for demonstrating the process which calculates one representative value from a some label number. 本発明の一実施形態の映像処理装置の構成を説明するための図である。It is a figure for demonstrating the structure of the video processing apparatus of one Embodiment of this invention. 図11に示したUV信号・ラベル番号分離部の構成を説明するための図である。It is a figure for demonstrating the structure of the UV signal and label number separation part shown in FIG. 図11に示したUV信号分離部の構成を説明するための図である。It is a figure for demonstrating the structure of the UV signal separation part shown in FIG. 図11に示したVRAMに格納された映像信号の状態を説明するための図である。It is a figure for demonstrating the state of the video signal stored in VRAM shown in FIG. 本発明の従来例にあたる画像処理の構成を説明するための図である。It is a figure for demonstrating the structure of the image process which is the prior art example of this invention.

符号の説明Explanation of symbols

2 ラベル情報多重部、3 映像処理部、101 電子カメラ、105 YUV411変換部、108 VRAM、109 UV信号・ラベル番号多重部、111 ラベリング部、113 領域抽出部、115 ラベル番号エンコーダ、119b UV信号ポート、1101 UV信号分離同期部、1102 UV信号格納部 2 Label information multiplexing unit, 3 video processing unit, 101 electronic camera, 105 YUV411 conversion unit, 108 VRAM, 109 UV signal / label number multiplexing unit, 111 labeling unit, 113 area extraction unit, 115 label number encoder, 119b UV signal port 1101 UV signal separation synchronization unit 1102 UV signal storage unit

Claims (7)

画像を撮像して得られる画像データを取得する画像データ取得手段と、前記画像データ取得手段が取得した画像データを処理して所定の形式で画像を表示し得る表示データを作成する画像データ処理手段とを備えた画像処理装置であって、
前記画像データ取得手段が取得した画像データの特徴を検出する特徴検出手段と、
前記特徴検出手段が検出した特徴を示すラベル情報を特定するラベル情報特定手段と、
前記ラベル情報特定手段が特定したラベル情報を前記画像データと共に前記画像データ処理手段に転送する画像データ転送手段と、を備えることを特徴とする画像処理装置。
Image data acquisition means for acquiring image data obtained by capturing an image, and image data processing means for processing the image data acquired by the image data acquisition means to generate display data capable of displaying an image in a predetermined format An image processing apparatus comprising:
Feature detection means for detecting features of the image data acquired by the image data acquisition means;
Label information specifying means for specifying label information indicating the feature detected by the feature detecting means;
An image processing apparatus comprising: image data transfer means for transferring the label information specified by the label information specifying means together with the image data to the image data processing means.
前記画像データ転送手段は、前記ラベル情報を、輝度信号Yと色差信号UVからなる映像信号のUV信号に多重することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image data transfer unit multiplexes the label information into a UV signal of a video signal including a luminance signal Y and a color difference signal UV. 前記画像データ転送手段は、前記ラベル情報をUV信号に多重するとき、映像信号の奇数ラインまたは偶数ラインのいずれか一方にUV信号を多重し、かつ、UV信号が多重されたラインの他の一方のラインの出力タイミングでラベル情報を出力することを特徴とする請求項2に記載の画像処理装置。   The image data transfer means, when multiplexing the label information on the UV signal, multiplexes the UV signal on either the odd line or the even line of the video signal and the other one of the lines on which the UV signal is multiplexed. The image processing apparatus according to claim 2, wherein the label information is output at an output timing of the line. 前記特徴検出手段は、前記画像データが示す撮像対象物の色、形状、反射率のうちの少なくとも1つの特徴を検出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature detection unit detects at least one feature among a color, a shape, and a reflectance of an imaging target indicated by the image data. 前記特徴検出手段は、前記画像データが示す撮像対象物の動きを特徴として検出することを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature detection unit detects a movement of an imaging target indicated by the image data as a feature. 前記画像データ転送手段は、前記特徴検出手段が検出した特徴のうち代表値にかかるラベル情報だけを画像データと共に転送することを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。   6. The image processing according to claim 1, wherein the image data transfer unit transfers only label information relating to a representative value among the features detected by the feature detection unit together with the image data. apparatus. 画像データの特徴を検出する特徴検出ステップと
前記特徴検出ステップにおいて検出された特徴を示すラベル情報を特定するラベル情報特定ステップと、
前記ラベル情報を前記画像データと共に画像を表示し得る表示データの格納手段に転送する画像データ転送ステップと、
を含むことを特徴とする画像データ転送方法。
A feature detection step for detecting a feature of the image data; a label information specification step for specifying label information indicating the feature detected in the feature detection step;
An image data transfer step of transferring the label information to display data storage means capable of displaying an image together with the image data;
An image data transfer method comprising:
JP2004096180A 2004-03-29 2004-03-29 Image processing apparatus and image data transfer method Pending JP2005286596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004096180A JP2005286596A (en) 2004-03-29 2004-03-29 Image processing apparatus and image data transfer method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004096180A JP2005286596A (en) 2004-03-29 2004-03-29 Image processing apparatus and image data transfer method

Publications (1)

Publication Number Publication Date
JP2005286596A true JP2005286596A (en) 2005-10-13

Family

ID=35184532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004096180A Pending JP2005286596A (en) 2004-03-29 2004-03-29 Image processing apparatus and image data transfer method

Country Status (1)

Country Link
JP (1) JP2005286596A (en)

Similar Documents

Publication Publication Date Title
JP5108172B2 (en) Image data size conversion processing apparatus, electronic still camera, and image data size conversion processing recording medium
JP2931520B2 (en) Color separation circuit for single-chip color video camera
JP4815807B2 (en) Image processing apparatus, image processing program, and electronic camera for detecting chromatic aberration of magnification from RAW data
CN109640007B (en) Artificial intelligence image sensing equipment
US20140168429A1 (en) Image Processing Apparatus, Image Processing Method and Program
US20080198266A1 (en) Video output device, video output method, video output program, video processing system, video processing device, video processing method, and video processing program
US8437504B2 (en) Imaging system and imaging method
US20100053356A1 (en) Imaging Device And Video Signal Generating Method Employed In Imaging Device
US10225468B2 (en) Imaging systems and methods with image data path delay measurement
US8502893B2 (en) Imaging apparatus, flash determination method, and recording medium
US20030210345A1 (en) Image pickup device and method for capturing subject with wide range of brightness
JP2009147757A (en) Motion vector detecting apparatus, motion vector detecting method, imaging apparatus, and program
JP4741283B2 (en) Integrated circuit device, microcomputer and surveillance camera system
EP2214136A2 (en) Method and program for controlling image capture apparatus
KR20220030877A (en) Image sensor employing varied intra-frame analog binning
US7236194B2 (en) Image signal processing apparatus
CN110692240A (en) Stereo shooting device
US7277586B2 (en) Images combination processing system, images combination processing method, and images combination processing program
US8803996B2 (en) Image pickup apparatus for preventing unnatural motion of a motion image
US20070269133A1 (en) Image-data noise reduction apparatus and method of controlling same
JP2005286596A (en) Image processing apparatus and image data transfer method
JP2010213105A (en) Imaging apparatus
JP2009194786A (en) Object detecting device, and imaging apparatus
JP2004015236A (en) Imaging apparatus
JP7205380B2 (en) Imaging device and imaging method