JP2010219865A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2010219865A
JP2010219865A JP2009064098A JP2009064098A JP2010219865A JP 2010219865 A JP2010219865 A JP 2010219865A JP 2009064098 A JP2009064098 A JP 2009064098A JP 2009064098 A JP2009064098 A JP 2009064098A JP 2010219865 A JP2010219865 A JP 2010219865A
Authority
JP
Japan
Prior art keywords
image
principal component
unit
processing system
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009064098A
Other languages
Japanese (ja)
Inventor
Shinichi Shiraishi
真一 白石
Hideki Goto
英樹 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Original Assignee
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota InfoTechnology Center Co Ltd filed Critical Toyota Motor Corp
Priority to JP2009064098A priority Critical patent/JP2010219865A/en
Publication of JP2010219865A publication Critical patent/JP2010219865A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique, by which preprocessing for each image recognizing section to perform image recognition processing can be omitted in an image processing system wherein an in-vehicle camera and a plurality of image recognizing sections are connected onto an in-vehicle network. <P>SOLUTION: In the image processing system, the in-vehicle camera on the in-vehicle network captures an image whose pixel value is represented by an RGB coloring system. A main component calculating section performs main component analysis for a captured frame image to determine a transform matrix. A pixel value transforming section acquires first to third main component scores from the transform matrix and the RGB pixel values of respective pixels, and distributes at least the first main component score to the in-vehicle network. An image recognizing section performs image recognition based on the first main component score with intensified contrast, and executes required subsequent processing. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数の画像認識部が接続された車載ネットワークにおける画像処理システムに関するものである。   The present invention relates to an image processing system in an in-vehicle network to which a plurality of image recognition units are connected.

現在、車両にカメラを搭載して動画像や静止画像の撮影を行うことが行われるようになっている。車載カメラによる撮影画像には様々な用途があり、とりわけ画像認識において有用である。たとえば、撮影画像から車両や歩行者、路面状況などを検知して車両制御や運転者へのアラートを行うことで、事故防止につなげることができる。さらに画像認識以外にも、撮影画像を車内の画像表示部に表示して乗員に提供したり、記憶装置に蓄積して運転記録とすることも行われている。かかる画像認識部が車載カメラから撮影画像を受け取る場合、車載ネットワークに属する受信ノードとして画像データの配信を受けることが多い。すなわち、カメラと画像認識部は共に車載ネットワークに接続されており、撮影画像はデジタルなデータとして配信され、画像認識部はそのデータを受信して利用する。   Currently, a camera is mounted on a vehicle to take a moving image or a still image. The captured image obtained by the in-vehicle camera has various uses, and is particularly useful for image recognition. For example, an accident can be prevented by detecting a vehicle, a pedestrian, a road surface condition, and the like from a photographed image and performing vehicle control or alerting the driver. In addition to image recognition, captured images are displayed on an image display unit in the vehicle and provided to the occupant, or stored in a storage device and recorded as driving records. When such an image recognition unit receives a captured image from an in-vehicle camera, image data is often distributed as a receiving node belonging to the in-vehicle network. That is, both the camera and the image recognition unit are connected to the in-vehicle network, and the captured image is distributed as digital data, and the image recognition unit receives and uses the data.

ここで画像データについて考えると、動画像は複数のフレーム画像からなり、各フレーム画像はRGBの画素値で表される所定数の画素で構成される。しかし配信に当たって各フレームの画素値をそのまま送出した場合、伝送データ量が多くなり過ぎるために、ネットワーク帯域の消費量が増大してしまう。そこで、特開2004−104529号公報(特許文献1)では、画像データをMPEG方式やDV(デジタル・ビデオ)方式で圧縮し、車載ネットワークに配信する方法を紹介している。また、特開2006−128766号公報(特許文献2)では、車載ネットワークを低コストで構築するための技術が記載されている。   Considering image data here, a moving image is composed of a plurality of frame images, and each frame image is composed of a predetermined number of pixels represented by RGB pixel values. However, if the pixel values of each frame are sent as they are for distribution, the amount of transmission data becomes too large, and the amount of network bandwidth consumed increases. In view of this, Japanese Patent Application Laid-Open No. 2004-104529 (Patent Document 1) introduces a method of compressing image data by the MPEG system or DV (digital video) system and distributing it to the in-vehicle network. Japanese Unexamined Patent Application Publication No. 2006-128766 (Patent Document 2) describes a technique for constructing an in-vehicle network at a low cost.

特許文献1に記載の画像データ圧縮方法は、色空間としてはYUV表色系を用いている。ここで、Y信号、U信号、V信号それぞれのパラメータの間には相関関係があることが分かっている。ところが画像認識部が処理を行う際には、各パラメータは相関関係を持たない方が処理効率が良い。そのため、画像認識の前処理として、YUV表色系で表現された画像から無相関な信号へと変換する必要があった。この前処理にはたとえば主成分分析が用いられてきたが、計算量が増大することによる処理の遅延やCPU消費量の増大が起こっていた。特に、車載ネットワークに複数の画像認識部が接続されている場合、個々の画像認識部で前処理を行う必要があり、処理が重複していた。そこで、画像認識部での前処理を必要としない、無相関なデータを送信することが求められている。   The image data compression method described in Patent Document 1 uses a YUV color system as a color space. Here, it is known that there is a correlation between the parameters of the Y signal, the U signal, and the V signal. However, when the image recognition unit performs processing, the processing efficiency is better when the parameters do not have a correlation. Therefore, it is necessary to convert the image expressed in the YUV color system into an uncorrelated signal as preprocessing for image recognition. For example, principal component analysis has been used for this preprocessing, but processing delay and CPU consumption have increased due to an increase in calculation amount. In particular, when a plurality of image recognition units are connected to the in-vehicle network, it is necessary to perform preprocessing in each image recognition unit, and the processing is duplicated. Therefore, it is required to transmit uncorrelated data that does not require preprocessing in the image recognition unit.

一方、車載ネットワークにディスプレイ等の画像表示部を接続し、撮影画像を表示することも普通に行われている。この際にもRGB画像をそのまま画像表示部に送るのではなく、圧縮してから送信することによりネットワーク帯域が節約できる。しかし、もしも画像表示部に送るデータと画像認識部に送るデータの形式が異なっていると、送信元で別々にデータ作成して送信しなければならず、ネットワーク帯域の消費量が増大してしまう。その結果、データ送信時間の遅延等によりユーザの利便性が低下する可能性がある。特に送信データが動画像データである場合はデータ量が多いため、上記のような現象が起きる可能性が高い。そこで、画像認識部と画像表示部が共に接続されている車載ネットワークにおいて撮影画像を配信する際には、双方で共通に利用できる形式にすることが必要になっている。   On the other hand, an image display unit such as a display is connected to the in-vehicle network to display a captured image. Also in this case, the network bandwidth can be saved by sending the RGB image after compression instead of sending it directly to the image display unit. However, if the format of the data sent to the image display unit and the data sent to the image recognition unit are different, the data must be created and transmitted separately at the transmission source, which increases the amount of network bandwidth consumed. . As a result, there is a possibility that convenience for the user may be reduced due to a delay in data transmission time or the like. In particular, when the transmission data is moving image data, since the amount of data is large, the above-described phenomenon is likely to occur. Therefore, when a captured image is distributed in an in-vehicle network in which the image recognition unit and the image display unit are connected together, it is necessary to make the format common to both.

特開2004−104529号公報JP 2004-104529 A 特開2006−128766号公報JP 2006-128766 A

本発明は上記実情に鑑みてなされたものであって、その目的とするところは、車載ネットワークに車載カメラと複数の画像認識部が接続された画像処理システムにおいて、個々の画像認識部で前処理を行う必要がなくなるような技術を提供することである。また本発明のさらなる目的は、上記車載ネットワークにさらに画像表示部が接続された画像処理システムにおいて、ネットワーク帯域の消費量を抑制するための技術を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to pre-process each image recognition unit in an image processing system in which an in-vehicle camera and a plurality of image recognition units are connected to an in-vehicle network. It is to provide technology that eliminates the need for A further object of the present invention is to provide a technique for suppressing consumption of a network band in an image processing system in which an image display unit is further connected to the in-vehicle network.

上記目的を達成するために本発明にかかる画像処理システムでは、以下の構成を採用する。すなわち、車載ネットワークに撮影部と主成分分析部と画素値変換部と複数の画像認識部とが接続され、撮影画像に基づく画像認識を行う画像処理システムであって、前記撮影部は画素値がRGB表色系で表された画像を撮影し、前記主成分分析部は、前記撮影画像から変換行列を求め、前記撮影画像の各画素値を第1〜第3主成分得点に変換し、第1主成分得点を車載ネットワークに配信し、前記画像認識部は前記第1主成分得点を受信して画像認識を行うことを特徴とする画像処理システムである。   In order to achieve the above object, the image processing system according to the present invention employs the following configuration. That is, an image processing system in which an imaging unit, a principal component analysis unit, a pixel value conversion unit, and a plurality of image recognition units are connected to an in-vehicle network to perform image recognition based on a captured image, and the imaging unit has a pixel value. Taking an image represented in the RGB color system, the principal component analysis unit obtains a conversion matrix from the photographed image, converts each pixel value of the photographed image into first to third principal component scores, The image processing system is characterized in that one principal component score is distributed to an in-vehicle network, and the image recognition unit receives the first principal component score and performs image recognition.

従来の画像処理システムでは、RGB表色系の画素値に基づいてコントラストの強いデータを取得する前処理を個々の画像認識部において行っていたが、本発明のような構成を取ることによりその必要がなくなる。すなわち、画像認識部は主成分分析部の処理結果として配信される第1主成分得点を利用するので、前処理をせずとも画像認識に適したデータを得ることができる。これにより、複数の画像認識部が第1主成分得点を共通して利用するので、CPU消費量の抑制や処理速度の向上が可能になる。またCPUの性能を抑えることができるので、画像処理システムを構築するコストを削減することができる。   In the conventional image processing system, pre-processing for acquiring data with strong contrast based on pixel values of the RGB color system is performed in each image recognition unit, but this is necessary by adopting the configuration of the present invention. Disappears. That is, since the image recognition unit uses the first principal component score distributed as the processing result of the principal component analysis unit, data suitable for image recognition can be obtained without performing preprocessing. Accordingly, since the plurality of image recognition units use the first principal component score in common, it is possible to suppress CPU consumption and improve processing speed. Further, since the performance of the CPU can be suppressed, the cost for constructing the image processing system can be reduced.

本発明にかかる画像処理システムにおいては、前記主成分分析部は、第2、第3主成分得点も車載ネットワークに配信し、画像処理システムが、第1〜第3主成分得点を受信して画像を再生する画像再生部と前記再生画像を表示する画像表示部をさらに備える構成を取ることができる。   In the image processing system according to the present invention, the principal component analysis unit also distributes the second and third principal component scores to the in-vehicle network, and the image processing system receives the first to third principal component scores and receives an image. The image reproduction unit for reproducing the image and the image display unit for displaying the reproduction image can be employed.

このような構成を取ることにより、画像認識処理と、画像表示に用いるための画像を復元する処理を同じ変換行列に基づいて行うことができる。そのため、画像表示のためにRGB表色系の画像データを車載ネットワークに送出する必要がなくなり、ネットワーク帯域を節約できる。   By adopting such a configuration, the image recognition process and the process of restoring an image for use in image display can be performed based on the same conversion matrix. Therefore, there is no need to send RGB color system image data to the in-vehicle network for image display, and network bandwidth can be saved.

本発明にかかる画像処理システムにおいては、前記撮影画像の画素値から画面の明るさを表す特徴量を算出する特徴量算出部をさらに備え、前記主成分分析部は、撮影画像から変換行列を算出するたびに、算出の元になった撮影画像の特徴量とともにメモリ部に格納し、撮影画像の特徴量とメモリ部に格納されている特徴量の差が閾値以下であれば、メモリ部に格納されている変換行列を利用して、撮影画像の各画素値を第1〜第3主成分得点に変換する構成を取ることができる。   In the image processing system according to the present invention, the image processing system further includes a feature amount calculation unit that calculates a feature amount representing screen brightness from the pixel value of the captured image, and the principal component analysis unit calculates a transformation matrix from the captured image. Each time it is stored, it is stored in the memory unit together with the feature amount of the photographed image from which the calculation is based. By using the conversion matrix that is used, each pixel value of the captured image can be converted into first to third principal component scores.

このような構成を取ることにより、画面の明るさが大きく変化した時だけ主成分分析を行い、そうでない場合は以前の変換式を流用することができる。そのため計算量を削減し、CPUの負荷が軽減するので処理速度の向上、他の演算との並行処理や安価なCPUへの置き換えが可能になる。特徴量としてはたとえば、撮影画像の画素値の平均値を用いる
ことができる。
By adopting such a configuration, the principal component analysis is performed only when the brightness of the screen greatly changes, and if not, the previous conversion formula can be used. Therefore, the amount of calculation is reduced and the load on the CPU is reduced, so that the processing speed can be improved, parallel processing with other computations and replacement with an inexpensive CPU are possible. For example, an average value of pixel values of a captured image can be used as the feature amount.

本発明によれば、車載ネットワークに車載カメラと複数の画像認識部が接続された画像処理システムにおいて、個々の画像認識部で前処理を行う必要がなくなる。さらに、上記車載ネットワークに画像表示部が接続された画像処理システムにおいて、ネットワーク帯域の消費量を抑制することができるようになる。   According to the present invention, in an image processing system in which an in-vehicle camera and a plurality of image recognition units are connected to an in-vehicle network, it is not necessary to perform preprocessing in each image recognition unit. Furthermore, in the image processing system in which the image display unit is connected to the in-vehicle network, it is possible to suppress the consumption of the network band.

実施形態1の車載ネットワークの構成を示すブロック図。1 is a block diagram illustrating a configuration of an in-vehicle network according to a first embodiment. 実施形態1の詳細な処理を示すフローチャート。3 is a flowchart illustrating detailed processing according to the first exemplary embodiment. 実施形態2の車載ネットワークの構成を示すブロック図。The block diagram which shows the structure of the vehicle-mounted network of Embodiment 2. FIG. 実施形態2の詳細な処理を示すフローチャート。9 is a flowchart showing detailed processing of the second embodiment. 実施形態3の車載ネットワークの構成を示すブロック図。FIG. 5 is a block diagram illustrating a configuration of an in-vehicle network according to a third embodiment. 実施形態3の詳細な処理を示すフローチャート。10 is a flowchart showing detailed processing of the third embodiment.

以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。   Exemplary embodiments of the present invention will be described in detail below with reference to the drawings.

<実施形態1>
本実施形態では、2つの画像認識部を備えた画像処理システムにおいて、車載カメラの撮影画像に基づいてそれぞれの画像認識部が画像認識を行う処理について説明する。
<Embodiment 1>
In the present embodiment, a description will be given of a process in which each image recognition unit performs image recognition based on a captured image of an in-vehicle camera in an image processing system including two image recognition units.

(車両における画像認識の特徴)
まず、本実施形態は車載カメラの撮影画像に対して画像認識を行うので、簡単に説明する。あわせて認識対象となる画像データの特徴についても述べる。画像認識は画像処理の一種であり、CPU上で稼働するプログラムが、人間に代わって画像中の対象物を検出し、判断し、結果を出力するものである。特に車両においては安全性を高めるために、プログラムが行うことによる確実性、持久力、省力化という利点を持つ画像認識が広く行われている。たとえば、車載カメラで前方を撮影した画像から先行車両を検出し、車間距離を計算し、距離が近すぎると判断した場合はブレーキをかける衝突被害軽減ブレーキがある。また、撮影した画像から道路の白線や黄線を検出し、車両がレーンから外れているか、あるいはこのまま進むと外れそうかを判断し、車両の方向を修正するレーンキープアシストもある。他にも、運転者から死角となる領域から障害物を検出し、運転者に画像や音声で通知したり、道路標識などの文字情報を検出し、運転を支援する情報を提供したりする処理に用いることができる。
(Characteristics of image recognition in vehicles)
First, since the present embodiment performs image recognition on a captured image of a vehicle-mounted camera, a brief description will be given. In addition, the characteristics of the image data to be recognized are also described. Image recognition is a type of image processing in which a program running on a CPU detects an object in an image on behalf of a person, makes a determination, and outputs the result. In particular, in a vehicle, image recognition having advantages such as certainty, endurance, and labor saving by performing a program is widely performed in order to increase safety. For example, there is a collision damage alleviating brake that applies a brake when a preceding vehicle is detected from an image taken in front of an in-vehicle camera, an inter-vehicle distance is calculated, and it is determined that the distance is too close. There is also a lane keep assist that detects a white line or a yellow line on a road from a photographed image, determines whether the vehicle is off the lane, or is likely to come off if it continues, and corrects the direction of the vehicle. In addition, processing that detects obstacles from the blind spot from the driver and notifies the driver with images and voices, detects text information such as road signs, and provides information to support driving Can be used.

画像認識は、おおむね次のような順番で進められる。まず、画像処理システムにデジタル化された画像データが入力され、その画像データから特徴量が抽出される。続いて抽出された特徴量がパターンマッチングにより標準パターンと比較され、一致度合いにより対象物が認識される。そして認識結果をユーザ(または後続処理)が利用できる形で出力する。   Image recognition proceeds in the following order. First, digitized image data is input to the image processing system, and feature quantities are extracted from the image data. Subsequently, the extracted feature quantity is compared with the standard pattern by pattern matching, and the object is recognized by the matching degree. The recognition result is output in a form usable by the user (or subsequent processing).

ここで、画像データの特徴量抽出においては、対象物を認識しやすくするために、画像中の物体の輪郭や境界線の検出や、微分画像からのエッジの抽出などの処理がなされる。したがって、処理対象となる画像の色や濃度の変化がはっきりしているほど、すなわち、画像のコントラストが強いほど、特徴量を効率的に精度良く抽出することができる。そして特徴量抽出の精度が高いほど、パターンマッチングが容易になり対象物が認識しやすくなる。   Here, in the feature amount extraction of image data, in order to make it easy to recognize an object, processing such as detection of an outline or boundary line of an object in an image or extraction of an edge from a differential image is performed. Therefore, the feature quantity can be efficiently and accurately extracted as the change in color or density of the image to be processed becomes clear, that is, as the contrast of the image is stronger. As the accuracy of feature quantity extraction is higher, pattern matching becomes easier and the object becomes easier to recognize.

(RGB表色系の画素値に対する主成分分析)
次に、本実施形態はRGB表色系の画素値に対して主成分分析を行うので、簡単に説明する。ここで、RGB各々の画素値は、互いの相関が比較的強い冗長なデータであることが分かっている。そこでRGB表色系の画素値に対して主成分分析を行い、無相関なデータに変換することが行われている。主成分分析とは複数の変数間に相関関係がある場合に、無相関な少数の変数に要約し、データの持つ情報を解釈しやすくするための手法である。
(Principal component analysis for RGB color system pixel values)
Next, since this embodiment performs principal component analysis on the RGB color system pixel values, a brief description will be given. Here, it is known that the RGB pixel values are redundant data having a relatively strong correlation with each other. Therefore, principal component analysis is performed on the pixel values of the RGB color system and converted to uncorrelated data. Principal component analysis is a technique for simplifying interpretation of data information by summarizing into a small number of uncorrelated variables when there is a correlation between multiple variables.

主成分分析は、たとえば、画素値の集合から分散共分散行列を求め、その固有値・固有ベクトルを求めることにより行われる。画素値は、3次元(RGB)の情報なので、固有値・固有ベクトルは3組求まる。最も大きい固有値に対応する固有ベクトルが第1主成分であり、以下、固有値の大きさの順に第2主成分、第3主成分となる。   The principal component analysis is performed, for example, by obtaining a variance-covariance matrix from a set of pixel values and obtaining its eigenvalue / eigenvector. Since the pixel value is three-dimensional (RGB) information, three sets of eigenvalues and eigenvectors are obtained. The eigenvector corresponding to the largest eigenvalue is the first principal component. Hereinafter, the second principal component and the third principal component are in order of the magnitude of the eigenvalue.

第1〜第3主成分(固有ベクトル)に基づいて、画素値(r,g,b)を新たな画素値(z,z,z)に変換するための変換行列等を得ることができる。より具体的に言うと、まず、原画像の各画素の画素値から、分散共分散行列を求めたときに得られた各色成分の平均値を引き、各色成分の平均値が0となる画素集合を求める。そして固有ベクトルから行列を作成して平均値を0とした画素値に乗じることで、新たな画素値が得られる。変換により得られた新たな画素値z〜zは、それぞれ第1〜第3主成分得点と呼ばれる。 Based on the first to third principal components (eigenvectors), a conversion matrix or the like for converting the pixel values (r, g, b) into new pixel values (z 1 , z 2 , z 3 ) can be obtained. it can. More specifically, first, a pixel set in which the average value of each color component is 0 by subtracting the average value of each color component obtained when obtaining the variance-covariance matrix from the pixel value of each pixel of the original image. Ask for. A new pixel value is obtained by creating a matrix from the eigenvector and multiplying the pixel value with an average value of 0. The new pixel values z 1 to z 3 obtained by the conversion are called first to third principal component scores, respectively.

上記の方法で得られた第1主成分得点はデータの分散が大きく、情報量が多い。これは画像認識に適したコントラストの強い画像だと言える。また、z〜zに変換行列の逆行列を乗じる逆変換処理を施し、さらに各色成分の平均値を加えることにより、元の画素値を求め、原画像を再現することができる。 The first principal component score obtained by the above method has a large data distribution and a large amount of information. It can be said that this is a high contrast image suitable for image recognition. In addition, by performing an inverse transformation process of multiplying z 1 to z 3 by the inverse matrix of the transformation matrix and adding the average value of each color component, the original pixel value can be obtained and the original image can be reproduced.

このように、RGB表色系の画素値をから第1〜第3主成分得点に変換することにより、各成分間の冗長性を省いた無相関なデータを得ることができる。得られたデータの中では、第1主成分得点が最も情報量が多い。これを画像として見るとコントラストが強く、画像認識を効率的に行うことが可能なデータだと言える。   In this way, by converting the RGB color system pixel values to the first to third principal component scores, uncorrelated data with no redundancy between the components can be obtained. Among the obtained data, the first principal component score has the largest amount of information. When viewed as an image, it can be said that the contrast is strong and the data can be recognized efficiently.

(構成)
図1のブロック図を用いて、本実施形態で用いる画像処理システムの構成と各ブロックの機能を説明する。図中の各ブロックはいずれも車両に搭載されている。車載ネットワーク1は車両に設置されたネットワークであり、各ブロックが接続され、互いにデータの送受信を可能にしている。車載ネットワークはデータ伝送が可能であれば構成材料や有線無線の別を問わない。たとえば、本実施形態のように複数の画像認識部に同じデータを配信する場合、標準規格であるCANを用いればマルチキャスト送信を可能にすることができる。
(Constitution)
The configuration of the image processing system used in this embodiment and the function of each block will be described with reference to the block diagram of FIG. Each block in the figure is mounted on the vehicle. The in-vehicle network 1 is a network installed in a vehicle, and each block is connected to enable data transmission / reception. The in-vehicle network is not limited to any constituent material or wired radio as long as data transmission is possible. For example, when the same data is distributed to a plurality of image recognition units as in this embodiment, multicast transmission can be made possible by using CAN, which is a standard.

撮影部2は、動画像を撮影可能なデジタルビデオカメラである。本実施形態において、車載カメラは車両の前方を向いてダッシュボードに設置され、車両の進行方向を撮影している。画像は所定のフレームレート(たとえば秒間30フレーム)にて撮影され、各フレーム画像は所定数(たとえば640×400)の、RGB表色系で表された画素値(たとえば0〜255)を持つ画素で構成されている。主成分分析部3は、変換行列算出部3aと画素値変換部3bを有する。変換行列算出部は、フレーム画像の各画素のRGB画素値に基づいて座標軸を変換するための変換行列を取得する。画素値変換部はフレーム画像の各画素のRGB画素値を変換行列により変換し、第1〜第3主成分得点を取得する。そして、画像認識に用いる第1主成分得点を車載ネットワークに配信する。   The photographing unit 2 is a digital video camera capable of photographing a moving image. In the present embodiment, the in-vehicle camera is installed on the dashboard facing the front of the vehicle, and images the traveling direction of the vehicle. An image is taken at a predetermined frame rate (for example, 30 frames per second), and each frame image has a predetermined number (for example, 640 × 400) of pixels having pixel values (for example, 0 to 255) represented in the RGB color system. It consists of The principal component analysis unit 3 includes a conversion matrix calculation unit 3a and a pixel value conversion unit 3b. The conversion matrix calculation unit obtains a conversion matrix for converting the coordinate axis based on the RGB pixel value of each pixel of the frame image. The pixel value conversion unit converts the RGB pixel values of each pixel of the frame image using a conversion matrix, and acquires first to third principal component scores. Then, the first principal component score used for image recognition is distributed to the in-vehicle network.

画像認識部4aは配信された第1主成分得点を受信し、画像認識を行う。ここでは画像から先行車両を検出し、計算により車間距離を推定する。ブレーキコントロール部5は車間距離を受け取り、先行車両との距離が接近していれば接触回避のためにブレーキ制御を行う。画像認識部4bも第1主成分得点を取得し、画像認識を行う。ここでは画像から白線、黄線、ガードレールなど、道路のレーンを示す対象物を検出する。ハンドルコントロール部6はレーン情報を受け取り、車両がレーンから外れているか、このまま進むと外れそうであればハンドル制御を行い進路を修正する。   The image recognition unit 4a receives the distributed first principal component score and performs image recognition. Here, the preceding vehicle is detected from the image, and the inter-vehicle distance is estimated by calculation. The brake control unit 5 receives the inter-vehicle distance, and performs brake control to avoid contact if the distance from the preceding vehicle is approaching. The image recognition unit 4b also acquires the first principal component score and performs image recognition. Here, an object indicating a road lane, such as a white line, a yellow line, or a guardrail, is detected from the image. The steering wheel control unit 6 receives the lane information, and corrects the course by performing steering wheel control if the vehicle is out of the lane or is likely to come off if the vehicle advances as it is.

(処理フロー)
必要に応じて図2に示したフローチャートを参照しつつ、処理の詳細を説明する。ステップS101では、車載カメラが上述のように640×400画素の画像を秒間30フレームのレートで撮影する。
(Processing flow)
Details of the processing will be described with reference to the flowchart shown in FIG. 2 as necessary. In step S101, the in-vehicle camera captures an image of 640 × 400 pixels at a rate of 30 frames per second as described above.

ステップS102では、変換行列を求める元となる画素を、フレーム画像の全画素中から抽出する。これは、CPUの性能によっては、全ての画素に基づいて変換行列を求めると処理時間がかかり過ぎる場合があるからである。そこで、画像認識処理が遅延したり、CPU使用時間が増えて他の処理に影響を及ぼしたりしないように、処理対象となる画素数を減らすのである。画素を抽出する方法として、本実施形態では縦横方向でそれぞれ1/2のダウンサンプリングを行い、画素を1個置きに選択する。これにより処理対象の画素数を1/4に間引くことができ、処理を高速化できる。画素抽出を行うかどうかや抽出する画素数の全画素数中の割合については、CPUの処理能力や画像認識に求められる精度に応じて定めることができる。画素抽出の方法としてはダウンサンプリングの他に、無作為に必要な画素数だけ画素を選ぶ方法も考えられる。   In step S102, the pixel from which the transformation matrix is obtained is extracted from all the pixels of the frame image. This is because, depending on the performance of the CPU, if a conversion matrix is obtained based on all pixels, it may take too much processing time. Therefore, the number of pixels to be processed is reduced so that the image recognition process is not delayed or the CPU usage time is not increased and affects other processes. As a method for extracting pixels, in this embodiment, 1/2 downsampling is performed in the vertical and horizontal directions, and every other pixel is selected. As a result, the number of pixels to be processed can be reduced to ¼, and the processing can be speeded up. Whether or not to perform pixel extraction and the ratio of the number of pixels to be extracted to the total number of pixels can be determined according to the processing capability of the CPU and the accuracy required for image recognition. As a pixel extraction method, in addition to downsampling, a method of selecting pixels as many as the number of pixels necessary at random can be considered.

ステップS103では、変換行列算出部が、上記サンプリングされた画素のRGB画素値から変換行列を取得する。ステップS104では、画素値変換部が、フレーム画像の全ての画素のRGB画素値を変換行列により変換し、第1〜第3主成分得点を取得する。なお、この画素値変換処理は主成分分析よりも単純な計算であるため、全ての画素について行っても計算量はさして大きくならない。続いてステップS105で、第1主成分得点を車載ネットワーク上に配信する。   In step S103, the conversion matrix calculation unit obtains a conversion matrix from the RGB pixel values of the sampled pixels. In step S104, the pixel value conversion unit converts the RGB pixel values of all the pixels of the frame image using the conversion matrix, and obtains first to third principal component scores. Since this pixel value conversion process is simpler than the principal component analysis, even if it is performed for all pixels, the amount of calculation does not increase. Subsequently, in step S105, the first principal component score is distributed on the in-vehicle network.

ステップS106では、画像認識部4aが第1主成分得点を受信し、画像認識を行って先行車両を検出し、車間距離を推定する。ステップS107では、ブレーキコントロール部が、車間距離が所定の値よりも短いかどうかを判断する。先行車両と接近し過ぎだと判断すれば(S107=Y)、ステップS108に進み、ブレーキコントロール部がブレーキを制御して安全な間隔まで広げる。なお、車間距離が接近しているもののブレーキをかける程ではない場合は、運転者に音声等でアラートを行っても良い。一方S107=Nの場合、ステップS109に進み、画像認識部5bが道路のレーン情報を検出する。そしてハンドルコントロール部が、車両がレーンから外れているか外れそうであると判断すれば(ステップS110=Y)、ステップS111に進んでハンドル制御を行い、進路を修正。なお、ハンドル制御に代えて運転者へのアラートにすることができるのはブレーキ制御と同様である。   In step S106, the image recognition unit 4a receives the first principal component score, performs image recognition, detects the preceding vehicle, and estimates the inter-vehicle distance. In step S107, the brake control unit determines whether the inter-vehicle distance is shorter than a predetermined value. If it is determined that the vehicle is too close to the preceding vehicle (S107 = Y), the process proceeds to step S108, where the brake control unit controls the brake and extends it to a safe interval. In addition, when the distance between vehicles is approaching but it is not enough to brake, the driver may be alerted by voice or the like. On the other hand, if S107 = N, the process proceeds to step S109, and the image recognition unit 5b detects road lane information. If the steering wheel control unit determines that the vehicle is out of or out of the lane (step S110 = Y), the process proceeds to step S111 to perform steering wheel control and correct the course. In addition, it is the same as the brake control that can be used as an alert to the driver instead of the steering wheel control.

(効果)
本実施形態によれば、画像認識に適した画像を得るための前処理を、2つの画像認識部で別々に行う必要がなくなる。その結果CPU消費量が減少するので、画像認識部のCPUの性能を抑えることにより、安価に画像処理システムを構築することが可能になる。また画像認識部での処理時間が減り、少ないタイムラグで後続処理を行うことが可能になる。これにより、安全関係の装置では特に求められる即応性の向上が実現できるようになる。また、画像認識を行うためには第1〜第3主成分得点のうち第1主成分得点を配信すれ
ば足りるので、RGB表色系の画素値を配信する場合に比べデータ伝送量が少なく、車載ネットワークの帯域を節約することができる。また、変換行列を求める元となる画素を、フレーム画像の全画素から、例えばダウンサンプリング等により抽出すれば、主成分分析部の処理を一層高速化できるという利点を得られる。
(effect)
According to this embodiment, it is not necessary to separately perform preprocessing for obtaining an image suitable for image recognition by the two image recognition units. As a result, the CPU consumption is reduced, so that it is possible to construct an image processing system at low cost by suppressing the CPU performance of the image recognition unit. Further, the processing time in the image recognition unit is reduced, and subsequent processing can be performed with a small time lag. This makes it possible to improve the responsiveness particularly required for safety-related devices. In addition, since it is sufficient to distribute the first principal component score among the first to third principal component scores in order to perform image recognition, the data transmission amount is small compared to the case of distributing RGB color system pixel values, Bandwidth of the in-vehicle network can be saved. In addition, if the pixels from which the transformation matrix is obtained are extracted from all the pixels of the frame image by, for example, downsampling or the like, it is possible to obtain an advantage that the processing of the principal component analysis unit can be further speeded up.

<実施形態2>
本実施形態では、撮影画像の各フレームを比較し、画像の構成が大きく変化した(シーンチェンジが起きた)フレーム画像についてのみ主成分分析処理を行う場合について、実施形態1との相違点を中心に説明する。
<Embodiment 2>
In the present embodiment, each frame of a captured image is compared, and the principal component analysis process is performed only for a frame image whose image configuration has changed significantly (scene change has occurred). Explained.

実施形態1の処理の各ステップ中で、主成分分析は比較的計算量が大きい処理でありボトルネックになる可能性がある。そこで、計算量を抑制するために全てのフレームではなく選択したフレームについてのみ変換行列を算出し、他のフレームについては以前に算出した変換行列を流用することが考えられる。フレームを選択する方法として例えば、3フレーム毎など所定の間隔での単純な選択も考えられる。この選択方法は計算量を効率的に減らせるという点で有効である。   In each step of the process of the first embodiment, the principal component analysis is a process with a relatively large calculation amount and may become a bottleneck. Thus, in order to reduce the amount of calculation, it is conceivable to calculate the transformation matrix only for the selected frame instead of all the frames, and divert the previously calculated transformation matrix for the other frames. As a method for selecting a frame, for example, a simple selection at a predetermined interval such as every three frames may be considered. This selection method is effective in that the amount of calculation can be reduced efficiently.

一方、画像認識の精度を可及的に保ちつつ計算量を削減するためには、本実施形態のようにシーンチェンジの有無を検出し、シーンチェンジがあったフレームで変換行列を算出し、シーンチェンジがないフレームでは以前に算出した変換行列を流用する方法が有効である。これは、動画像中の近接したフレームにおいては画像の構成が似通っている可能性が高いので、RGB画素値も類似しており、そこから求められる変換行列も類似していると考えられることによる。本実施形態では、フレーム画像の明るさが大きく変わった場合はシーンチェンジがあったと判断することにする。   On the other hand, in order to reduce the amount of calculation while maintaining the accuracy of image recognition as much as possible, the presence or absence of a scene change is detected as in this embodiment, the transformation matrix is calculated from the frame where the scene change occurred, and the scene For frames that do not change, the method of diverting the previously calculated transformation matrix is effective. This is because there is a high possibility that the structure of the images are similar in adjacent frames in the moving image, so the RGB pixel values are also similar, and the conversion matrix obtained therefrom is considered to be similar. . In the present embodiment, it is determined that a scene change has occurred when the brightness of the frame image changes significantly.

(構成)
図3のブロック図に本実施形態のシステム構成を示す。主成分分析部は、実施形態1に加えて、フレーム画像のRGB画素値の平均値を算出する特徴量算出部7を備えている。また、主成分分析部が特徴量および変換行列を格納するために、メモリ8が存在する。
(Constitution)
The system configuration of the present embodiment is shown in the block diagram of FIG. In addition to the first embodiment, the principal component analysis unit includes a feature amount calculation unit 7 that calculates an average value of the RGB pixel values of the frame image. In addition, a memory 8 exists for the principal component analysis unit to store the feature amount and the transformation matrix.

(処理フロー)
図4のフローチャートを参照しつつ、本実施形態の処理の詳細を説明する。ステップS201では、車載カメラが画像を撮影する。ステップS202では、特徴量算出部がフレーム画像のRGB画素値の平均値を算出する。この計算は単純な加算と除算であるので、全てのフレーム画像に対して処理を行っても計算量は大きくならない。以下、現時刻tのフレームでの画素値の平均値をPtと表記する。
(Processing flow)
Details of the processing of this embodiment will be described with reference to the flowchart of FIG. In step S201, the in-vehicle camera captures an image. In step S202, the feature amount calculation unit calculates an average value of the RGB pixel values of the frame image. Since this calculation is simple addition and division, the amount of calculation does not increase even if all the frame images are processed. Hereinafter, the average value of the pixel values in the frame at the current time t is expressed as Pt.

ステップS203では、現在のフレームのRGB画素値の平均値Ptと、前もってメモリ部に格納されている値Pmとの差分を取る。このPmという値は、以前に変換行列を求めたフレーム画像におけるRGB画素値の平均値であり、その主成分分析時に格納されたものである。   In step S203, the difference between the average value Pt of the RGB pixel values of the current frame and the value Pm stored in advance in the memory unit is taken. The value Pm is an average value of RGB pixel values in a frame image for which a conversion matrix has been obtained previously, and is stored at the time of principal component analysis.

差分の絶対値が所定の閾値以下であれば、ステップS204に進み、前もってメモリ部に格納されている変換行列を画素値変換部で用いるように指示する。この変換行列は、以前に主成分分析を行った際に求められ、格納されたものである。一方、差分の絶対値が閾値より大きければ、ステップS205に進んで新たに変換行列を求める。そして、新たに求めた変換行列をメモリ部に格納する。閾値はシステムの処理能力と画像認識の精度のバランスを考慮して設定することができ、閾値を大きくすれば主成分分析の回数が減って処理速度が速くなり、閾値を小さくすれば主成分分析の回数が増えて画像認識の精度が上がる。   If the absolute value of the difference is equal to or smaller than the predetermined threshold value, the process proceeds to step S204 to instruct the pixel value conversion unit to use the conversion matrix stored in advance in the memory unit. This transformation matrix is obtained and stored when the principal component analysis was performed previously. On the other hand, if the absolute value of the difference is larger than the threshold value, the process proceeds to step S205 to obtain a new conversion matrix. Then, the newly obtained transformation matrix is stored in the memory unit. The threshold value can be set in consideration of the balance between the processing capability of the system and the accuracy of image recognition. Increasing the threshold value reduces the number of principal component analyzes and increases the processing speed, and reducing the threshold value enables principal component analysis. The number of times increases and the accuracy of image recognition increases.

これ以降の処理は実施形態1と同様である。ステップS206では、画素値変換部が、S204またはS205で定められた変換行列とRGB画素値から第1〜第3主成分得点を求め、第1主成分得点を車載ネットワークに配信する。ステップS207では、画像認識部が第1主成分得点を受信する。ステップS208では、画像認識部が、先行車両を検出しての車間距離推定や、白線等を検出してのレーン外れの判断等の画像認識処理を行う。そしてステップS209では、画像認識の結果を用いてブレーキ制御やハンドル制御等の後続処理を行う。   The subsequent processing is the same as in the first embodiment. In step S206, the pixel value conversion unit obtains first to third principal component scores from the conversion matrix and RGB pixel values determined in S204 or S205, and distributes the first principal component scores to the in-vehicle network. In step S207, the image recognition unit receives the first principal component score. In step S <b> 208, the image recognition unit performs image recognition processing such as estimation of an inter-vehicle distance by detecting a preceding vehicle and determination of lane deviation by detecting a white line or the like. In step S209, subsequent processing such as brake control and steering wheel control is performed using the image recognition result.

(効果)
本実施形態の画像処理システムによれば、シーンチェンジの有無を判定した上で、新たに変換行列を求めるか、メモリに格納されている変換行列を利用するかを選択することができる。これにより、画像認識の精度への影響を可及的に抑制しつつ計算の回数を減らし、CPU消費量を削減することが可能になる。その際、画像認識で必要とする精度やCPU等の性能、処理速度などを考慮した上で適切な閾値を選択することが可能であり、システム設計の自由度を高めることができる。主成分分析の回数を減少させれば、安価なCPUによってシステムを構成してコストを抑制できる。あるいは、主成分分析にかかる時間が削減されるので、処理の遅延や他の処理への影響を抑制することができる。
(effect)
According to the image processing system of this embodiment, it is possible to select whether a new transformation matrix is obtained or a transformation matrix stored in a memory is used after determining the presence or absence of a scene change. As a result, it is possible to reduce the number of calculations and suppress the CPU consumption while suppressing the influence on the accuracy of image recognition as much as possible. At this time, it is possible to select an appropriate threshold in consideration of the accuracy required for image recognition, the performance of the CPU, the processing speed, etc., and the degree of freedom in system design can be increased. If the number of principal component analyzes is reduced, the system can be configured with an inexpensive CPU to reduce costs. Alternatively, since the time required for the principal component analysis is reduced, it is possible to suppress the delay of processing and the influence on other processing.

なお、シーンチェンジ検出で利用する特徴量としては、差分の絶対値以外にも、たとえば画素値のヒストグラムや変化の割合を用いることもできる。また、VICS(Vehicle Information and Communication System:財団法人道路交通情報通信システムセンターの商標)から得た情報により、トンネル内から外に抜けるときのようにシーンチェンジがあることが分かっている場合は、平均値を求めるまでもなく新しい変換行列を求めても良い。   In addition to the absolute value of the difference, for example, a histogram of pixel values or a change rate can be used as the feature amount used in scene change detection. In addition, if information obtained from VICS (Vehicle Information and Communication System) is a trademark of the Road Traffic Information and Communication System Center, it is known that there is a scene change such as when exiting from inside a tunnel. A new transformation matrix may be obtained without obtaining a value.

<実施形態3>
本実施形態では、画像認識だけではなく、元の画像を再生して利用する場合について説明する。以下、処理フローや画像処理システムの構成について、実施形態1との相違点を中心に説明する。
<Embodiment 3>
In the present embodiment, not only image recognition but also a case where an original image is reproduced and used will be described. Hereinafter, the processing flow and the configuration of the image processing system will be described focusing on differences from the first embodiment.

(構成)
本実施形態における画像処理システムを図5に示し、実施形態1に追加した構成要素について説明する。画像再生部9は車載ネットワークに送出された第1〜第3主成分得点を取得、逆変換処理を施してRGB表色系の画素値に戻し、原画像を再生する。画像表示部10は再生画像を表示する液晶ディスプレイ等の表示装置である。画像記録部11は再生した画像を保存するための記憶装置であり、ハードディスク等を用いることができる。
(Constitution)
An image processing system according to the present embodiment is shown in FIG. 5, and components added to the first embodiment will be described. The image reproduction unit 9 acquires the first to third principal component scores sent to the in-vehicle network, performs inverse conversion processing, returns the pixel values of the RGB color system, and reproduces the original image. The image display unit 10 is a display device such as a liquid crystal display that displays a reproduced image. The image recording unit 11 is a storage device for storing reproduced images, and a hard disk or the like can be used.

(処理フロー)
図6に示したフローチャートを参照しつつ、本実施形態の処理の概要を述べる。ステップS301では、車載カメラが画像撮影を行う。ステップS302では、変換行列算出部が、撮影されたフレーム画像から変換行列を得る。なお、この際の分散共分散行列を求める処理において、各色成分の平均値が求められている。ステップS303では、画素値変換部が座標変換を行って第1〜第3主成分得点を取得する。ステップS304では、第1〜第3主成分得点を車載ネットワークに配信する。以前の実施形態では、画像認識で用いる第1主成分得点を配信すれば足りていたが、本実施形態では画像の再生も行うので第2、第3主成分得点も配信する。さらに、画像を再生するために必要となる変換行列および各色成分の平均値も配信する。
(Processing flow)
The outline of the processing of this embodiment will be described with reference to the flowchart shown in FIG. In step S301, the in-vehicle camera takes an image. In step S302, the conversion matrix calculation unit obtains a conversion matrix from the captured frame image. Note that, in the process of obtaining the variance-covariance matrix at this time, the average value of each color component is obtained. In step S303, the pixel value conversion unit performs coordinate conversion to acquire first to third principal component scores. In step S304, the first to third principal component scores are distributed to the in-vehicle network. In the previous embodiment, it is sufficient to distribute the first principal component score used for image recognition. However, in this embodiment, since the image is also reproduced, the second and third principal component scores are also distributed. Furthermore, a conversion matrix and an average value of each color component necessary for reproducing an image are also distributed.

続いてステップS305では、後続処理の種類を判断して処理を分岐させる。後続処理
が画像認識結果を用いる場合、ステップS306で画像認識部が第1主成分得点を受信し、ステップS307で画像認識を行う。そしてステップS308において、ブレーキ制御やハンドル制御などの後続処理を行う。
In step S305, the type of subsequent processing is determined and the processing is branched. When the subsequent process uses the image recognition result, the image recognition unit receives the first principal component score in step S306, and performs image recognition in step S307. In step S308, subsequent processes such as brake control and steering wheel control are performed.

一方、後続処理が再生画像を使用する場合、ステップS309で画像復元部が第1〜第3主成分得点、変換行列および各色成分の平均値を受信する。ステップS310で画像再生部は、画素値変換部が行った変換の逆の処理を行い、RGB画素値を算出する。そしてステップS311において、ディスプレイへの画像表示や記憶装置への画像保存などの後続処理を行う。   On the other hand, when the subsequent process uses the reproduced image, the image restoration unit receives the first to third principal component scores, the transformation matrix, and the average value of each color component in step S309. In step S310, the image reproduction unit performs a reverse process of the conversion performed by the pixel value conversion unit, and calculates RGB pixel values. In step S311, subsequent processing such as image display on the display and image storage in the storage device is performed.

(効果)
本実施形態の画像処理システムによれば、車載ネットワークに送出される第1〜第3主成分得点を利用して画像認識および画像再生ができる。このように画像認識部と画像再生部が共通のデータを用いることにより、RGB表色系の画像データを車載ネットワークに送出する必要がなくなり、ネットワークの帯域を節約することができる。また、画像認識部はコントラストが強く画像認識に適した第1主成分得点を取得できるので、画像認識部での前処理が必要ない点は実施形態1と同様である。そのため、特に複数の画像認識部を有するシステムにおいては重複処理を排除することができ、システム構築のコストを抑制することが可能になる。
(effect)
According to the image processing system of the present embodiment, image recognition and image reproduction can be performed using the first to third principal component scores sent to the in-vehicle network. In this way, by using the common data for the image recognition unit and the image reproduction unit, it is not necessary to send RGB color system image data to the in-vehicle network, and the network bandwidth can be saved. Further, since the image recognizing unit has a high contrast and can acquire the first principal component score suitable for image recognition, it is the same as in the first embodiment in that no pre-processing in the image recognizing unit is necessary. Therefore, especially in a system having a plurality of image recognition units, it is possible to eliminate duplication processing, and it is possible to reduce the cost of system construction.

以上の実施形態では、処理を簡明にするために主成分分析部が取得した第1〜第3主成分得点をそのまま車載ネットワークに配信している。しかし、配信前に予め第1〜第3主成分得点に符号化処理を施し、データサイズを圧縮した符号化データとすることもできる。この場合、画像認識部は第1主成分得点に基づく符号化データを受信し、復号処理を施して第1主成分得点を再現する。また画像再生部は全ての符号化データを受信し、第1〜第3主成分得点を再現する。これにより、ネットワーク上の帯域使用量を減らし、スムーズなデータ伝送が可能になる。あるいは、画像記録部にデータを蓄積する際は、復号処理を経ずに符号化データのままで蓄積し、再生時に復号して画像復元を行うようにしても良い。これにより記憶領域を削減し、多くの運転記録を保存することができるようになる。   In the above embodiment, in order to simplify the process, the first to third principal component scores acquired by the principal component analysis unit are directly distributed to the in-vehicle network. However, the first to third principal component scores may be encoded in advance before distribution to provide encoded data with a compressed data size. In this case, the image recognition unit receives encoded data based on the first principal component score, performs decoding processing, and reproduces the first principal component score. The image reproducing unit receives all the encoded data and reproduces the first to third principal component scores. This reduces the bandwidth usage on the network and enables smooth data transmission. Alternatively, when data is stored in the image recording unit, the encoded data may be stored as it is without being subjected to a decoding process, and the image may be restored by decoding during reproduction. As a result, the storage area can be reduced and many operation records can be saved.

1 車載ネットワーク
2 撮影部
3 主成分分析部
4 画像認識部
1 In-vehicle network 2 Imaging unit 3 Principal component analysis unit 4 Image recognition unit

Claims (4)

車載ネットワークに撮影部と主成分分析部と複数の画像認識部とが接続され、撮影画像に基づく画像認識を行う画像処理システムであって、
前記撮影部は画素値がRGB表色系で表された画像を撮影し、
前記主成分分析部は、前記撮影画像から変換行列を算出し、前記撮影画像の各画素値を第1〜第3主成分得点に変換し、第1主成分得点を車載ネットワークに配信し、
前記画像認識部は前記第1主成分得点を受信して画像認識を行う
ことを特徴とする画像処理システム。
An image processing system in which an imaging unit, a principal component analysis unit, and a plurality of image recognition units are connected to an in-vehicle network and perform image recognition based on a captured image,
The photographing unit photographs an image in which pixel values are represented in an RGB color system,
The principal component analysis unit calculates a conversion matrix from the captured image, converts each pixel value of the captured image into first to third principal component scores, and distributes the first principal component score to the in-vehicle network;
The image processing system, wherein the image recognition unit receives the first principal component score and performs image recognition.
前記主成分分析部は、第2、第3主成分得点も車載ネットワークに配信するものであり、
第1〜第3主成分得点を受信して画像を再生する画像再生部と、
前記再生画像を表示する画像表示部をさらに備える
ことを特徴とする請求項1に記載の画像処理システム。
The principal component analysis unit also distributes the second and third principal component scores to the in-vehicle network,
An image reproduction unit that receives the first to third principal component scores and reproduces an image;
The image processing system according to claim 1, further comprising an image display unit that displays the reproduced image.
前記撮影画像の画素値から画面の明るさを表す特徴量を算出する特徴量算出部と、
前記主成分分析部が撮影画像から算出した変換行列および算出の元になった撮影画像の特徴量を算出のたびに格納するためのメモリ部をさらに備え、
前記主成分分析部は、撮影画像の特徴量とメモリ部に格納済みの特徴量との差が閾値以下であれば、メモリ部に格納済みの変換行列を利用して撮影画像の各画素値を第1〜第3主成分得点に変換する
ことを特徴とする請求項1または2に記載の画像処理システム。
A feature amount calculation unit that calculates a feature amount representing the brightness of the screen from the pixel value of the captured image;
The principal component analysis unit further includes a conversion unit calculated from the captured image and a memory unit for storing the feature amount of the captured image that is the basis of the calculation,
If the difference between the feature amount of the photographed image and the feature amount stored in the memory unit is equal to or less than the threshold, the principal component analysis unit calculates each pixel value of the photographed image using a conversion matrix stored in the memory unit. The image processing system according to claim 1, wherein the image processing system converts the first to third principal component scores.
前記特徴量は、撮影画像の画素値の平均値である
ことを特徴とする請求項3に記載の画像処理システム。
The image processing system according to claim 3, wherein the feature amount is an average value of pixel values of a captured image.
JP2009064098A 2009-03-17 2009-03-17 Image processing system Pending JP2010219865A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009064098A JP2010219865A (en) 2009-03-17 2009-03-17 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009064098A JP2010219865A (en) 2009-03-17 2009-03-17 Image processing system

Publications (1)

Publication Number Publication Date
JP2010219865A true JP2010219865A (en) 2010-09-30

Family

ID=42978212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009064098A Pending JP2010219865A (en) 2009-03-17 2009-03-17 Image processing system

Country Status (1)

Country Link
JP (1) JP2010219865A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04308976A (en) * 1991-04-05 1992-10-30 Omron Corp Image processor
JPH11142168A (en) * 1997-11-07 1999-05-28 Nissan Motor Co Ltd Environment-recognizing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04308976A (en) * 1991-04-05 1992-10-30 Omron Corp Image processor
JPH11142168A (en) * 1997-11-07 1999-05-28 Nissan Motor Co Ltd Environment-recognizing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6012063073; 境田慎一: '「主成分分析法による3色信号間の相関性を利用した画像のデータ圧縮」' テレビジョン学会技術報告 第16巻, 第77号, 19921126, p.63-68, 一般社団法人映像情報メディア学会 *

Similar Documents

Publication Publication Date Title
EP3722992B1 (en) System and method for pre-processing images captured by a vehicle
US20220244388A1 (en) Imaging device and electronic device
JP6392572B2 (en) Image receiving apparatus, image transmission system, and image receiving method
WO2005125208A1 (en) Monitor and vehicle periphery monitor
JP6743732B2 (en) Image recording system, image recording method, image recording program
JP3849505B2 (en) Obstacle monitoring device and program
US20100283589A1 (en) Image processing system, image capture device and method thereof
CN109479092B (en) Image processing apparatus and image processing method
KR101642181B1 (en) Device, method and system for processing an image data stream
JP2005184395A (en) Method, system and apparatus for image processing, and photographing equipment
US11257193B2 (en) Image processing apparatus
US20100026737A1 (en) Video Display Device
WO2018042976A1 (en) Image generation device, image generation method, recording medium, and image display system
JP4791222B2 (en) Display control device
JP5872171B2 (en) Camera system
JP2008035096A (en) Monitoring apparatus, monitoring method and program
JP2007266703A5 (en)
JP3084208B2 (en) Image processing device
US20220408062A1 (en) Display control apparatus, display control method, and program
JP2009126493A (en) Obstacle detection device
JP2010219865A (en) Image processing system
KR101765290B1 (en) Image pre-processor for vehicle and image pre-process method using the same
KR102334574B1 (en) Vehicle Information Transmission and Reception System for Efficient Traffic Network Control System
JP4086994B2 (en) Image data supply device and image compression device
KR20210060690A (en) Vehicle and method of providing rear image for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130820

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20131106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20131106