JP4410755B2 - Image processing apparatus and monitoring system - Google Patents

Image processing apparatus and monitoring system Download PDF

Info

Publication number
JP4410755B2
JP4410755B2 JP2005356584A JP2005356584A JP4410755B2 JP 4410755 B2 JP4410755 B2 JP 4410755B2 JP 2005356584 A JP2005356584 A JP 2005356584A JP 2005356584 A JP2005356584 A JP 2005356584A JP 4410755 B2 JP4410755 B2 JP 4410755B2
Authority
JP
Japan
Prior art keywords
image
area
image data
image processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005356584A
Other languages
Japanese (ja)
Other versions
JP2007164275A (en
Inventor
修治 大森
忠明 北村
健太郎 小野瀬
真哉 畠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Information and Control Solutions Ltd
Original Assignee
Hitachi Ltd
Hitachi Information and Control Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Information and Control Solutions Ltd filed Critical Hitachi Ltd
Priority to JP2005356584A priority Critical patent/JP4410755B2/en
Publication of JP2007164275A publication Critical patent/JP2007164275A/en
Application granted granted Critical
Publication of JP4410755B2 publication Critical patent/JP4410755B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視用カメラおよび認識用カメラにより車両の監視を行う監視システムに関する。   The present invention relates to a monitoring system that monitors a vehicle with a monitoring camera and a recognition camera.

従来から、各地に設置されたカメラで走行中の車両を撮像し、予め登録しているナンバーの車両の移動経路をトレースしたり、車種や車色、車両の特徴等を記録したりして盗難車、犯罪車両検出等を行う監視システムがある。   Conventionally, images of running vehicles are captured with cameras installed in various locations, and the route of the vehicle with the number registered in advance is traced, and the model, color, and characteristics of the vehicle are recorded for theft. There are monitoring systems that detect cars, criminal vehicles, etc.

この監視システムには、(1)車両の全体を撮像する監視用カメラ(カラーカメラ等)と、(2)車両のナンバープレート部分を撮像する認識用カメラとの2種類のカメラ併用するものがある。
(1)の監視用カメラは車両の全体像(車種や車色、車両の特徴)を撮像することを目的としているので、カラーで撮像するが画素数(解像度)は比較的低いものとしている。一方、(2)の認識用カメラは車両のナンバープレート部分の文字情報を精度高く撮像することを目的としているのでモノクロで撮像するが画素数(解像度)は比較的高いものとしている。なお、(2)の認識用カメラは、比較的暗い場所であっても正確に文字情報を認識できるように近赤外線カメラ等を用いている。このように、監視システムにおいて、監視用カメラと認識用カメラとを併用することで、車両のナンバーを正確に認識しつつ、車両の全体像(車種や車色、車両の特徴)も捉えることを可能としている。
This monitoring system includes a combination of two types of cameras: (1) a monitoring camera (color camera or the like) that captures the entire vehicle and (2) a recognition camera that captures the license plate portion of the vehicle. .
Since the surveillance camera (1) is intended to capture the entire image of the vehicle (vehicle type, vehicle color, vehicle characteristics), the image is captured in color but the number of pixels (resolution) is relatively low. On the other hand, the recognition camera (2) is intended to capture the character information of the license plate portion of the vehicle with high accuracy, so that it is captured in monochrome, but the number of pixels (resolution) is relatively high. Note that the recognition camera (2) uses a near-infrared camera or the like so that character information can be accurately recognized even in a relatively dark place. In this way, in the monitoring system, by using the monitoring camera and the recognition camera together, it is possible to accurately recognize the vehicle number and capture the entire image of the vehicle (vehicle type, color, and vehicle characteristics). It is possible.

しかし、このような監視システムにより撮像された車両の画像には、個人情報的な要素も多く含まれるため、このような個人情報的な要素が本来の目的以外の用途に使用されないようにする必要がある。そこで、画像に含まれる個人情報的な要素である、ナンバープレートの領域を隠蔽したり、限られた利用者のみが使用できるようにしたりする技術が提案されている(特許文献1等参照)。
特開2001−23072号公報
However, since a vehicle image captured by such a monitoring system includes many personal information elements, it is necessary to prevent such personal information elements from being used for purposes other than the original purpose. There is. In view of this, a technique for concealing the area of the license plate, which is an element of personal information included in the image, or making it available to only a limited user has been proposed (see Patent Document 1, etc.).
JP 2001-23072 A

しかし、前記した技術において用いられる監視用カメラの画像は画素数が低いものであるので、ナンバープレートの領域を正確に特定し、隠蔽できるとは限らない。また、前記した技術は、監視用カメラで撮像したナンバープレート全体を隠蔽するものに過ぎない。
すなわち、今後、監視システムに多数の利用者が関与することになると、ナンバープレート等についても、その利用者の権限に応じて、個人情報として隠蔽すべき領域と、個人情報であっても監視のため隠蔽しない領域(あるいは隠蔽を復元できる領域)とを細かに分け、表示制御することが必要になる。ところが、前記したとおり監視用カメラの画像は画素数が低いものであるので、例えば、監視用カメラの画像におけるナンバープレートのコードごとに細かに分けて表示制御することはできない。
そこで、本発明は、前記した問題を解決する、監視システム等を提供することを目的とする。
However, since the image of the surveillance camera used in the above-described technique has a low number of pixels, it is not always possible to accurately identify and conceal the license plate area. Further, the above-described technique is merely a method for concealing the entire license plate imaged by the surveillance camera.
In other words, if a large number of users will be involved in the monitoring system in the future, the license plate, etc. will be monitored according to the user's authority. For this reason, it is necessary to finely divide an area that is not concealed (or an area where concealment can be restored) and control display. However, as described above, since the image of the monitoring camera has a low number of pixels, for example, display control cannot be performed with respect to each license plate code in the image of the monitoring camera.
Accordingly, an object of the present invention is to provide a monitoring system or the like that solves the above-described problems.

前記した課題を解決するため、本発明は、車両の全体像の画像データである第1の画像データと、前記車両のフロント部分の画像である第2の画像データとを取得して画像処理を行う画像処理装置であって、前記第1の画像データと前記第2の画像データとの入力を受け付けるデータ入力部と、前記第2の画像データにおける前記車両のナンバープレートの領域を特定する領域特定部と、前記第1の画像データおよび前記第2の画像データのワールド座標を一致させ、前記特定したナンバープレートの領域が前記第1の画像データのどの領域に位置するか特定する領域位置特定部と、前記監視システムの利用者のレベルごとに、開示を許可するナンバープレートの領域を示した開示領域情報を格納する記憶部と、前記特定した第1の画像データにおけるナンバープレートの領域を隠蔽する画像処理を行った画像データを作成するとともに、前記開示領域情報を参照して、前記画像処理を行った画像データにおいて前記隠蔽の復元を許可するナンバープレートの領域を前記レベルごとに示した復元用データを作成する画像処理部と、前記画像処理を行った画像データおよび前記復元用データを送信する送信部とを備える構成とした。その他の構成については、後記する実施の形態で述べる。   In order to solve the above-described problems, the present invention obtains first image data that is image data of an entire image of a vehicle and second image data that is an image of a front portion of the vehicle, and performs image processing. An image processing apparatus for performing a data input unit that receives input of the first image data and the second image data, and an area specification that specifies an area of the license plate of the vehicle in the second image data A region position specifying unit that matches the world coordinates of the first image data and the second image data, and specifies in which region of the first image data the specified license plate region is located A storage unit that stores disclosure area information indicating a license plate area permitted to be disclosed for each level of the user of the monitoring system; and the specified first image data. The image data subjected to the image processing for concealing the license plate region in the image data is created, and the license plate region permitting the restoration of the concealment in the image data subjected to the image processing is referred to with reference to the disclosure region information. An image processing unit that creates restoration data shown for each level, and a transmission unit that transmits the image data subjected to the image processing and the restoration data are provided. Other configurations will be described in the embodiments described later.

本発明により、監視システムは、撮像した画像のうちナンバープレート等の個人情報的な領域を、利用者のレベルに応じて表示制御することができる。したがって、今後、監視システムに多数の利用者が関与することになった場合でも、画像に写った個人情報を適切に保護することができる。   According to the present invention, the monitoring system can control display of a personal information area such as a license plate in the captured image according to the level of the user. Therefore, even if a large number of users will be involved in the monitoring system in the future, the personal information shown in the image can be appropriately protected.

本発明を実施するための最良の形態(以下、実施の形態とする)を、図面を用いて詳細に説明する。図1は、本実施の形態の監視システムの全体構成を示す図である。
図1に示すように、監視システムは、ナンバープレートを含む車両のフロント部分の画像を撮像する認識用カメラ(第2のカメラ)2と、車両全体の画像を撮像する監視用カメラ(第1のカメラ)1と、それぞれのカメラから出力された画像データの所定の画像処理(例えば、モザイク処理)を行う画像処理装置3と、各拠点の画像処理装置3からのデータを受信し、利用者のレベルに応じて画像処理の復元を行う管理装置4と、各画像処理装置3と管理装置4とを接続するネットワーク5とを含んで構成される。
The best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described in detail with reference to the drawings. FIG. 1 is a diagram showing the overall configuration of the monitoring system of the present embodiment.
As shown in FIG. 1, the monitoring system includes a recognition camera (second camera) 2 that captures an image of a front portion of a vehicle including a license plate, and a monitoring camera (first camera) that captures an image of the entire vehicle. Camera) 1, image processing device 3 that performs predetermined image processing (for example, mosaic processing) on image data output from each camera, and data from image processing devices 3 at each base, It includes a management device 4 that restores image processing according to the level, and a network 5 that connects each image processing device 3 and the management device 4.

監視用カメラ1は車両の色や外見的特徴が分かりやすいようカラーカメラ等を用いる。認識用カメラ2は、比較的暗い場所でも車両のナンバープレートを撮像しやすいように近赤外線対応のモノクロカメラ等を用いる。
画像処理装置3は、車両の監視を行う拠点ごとに設置される。この画像処理装置3は、複数の認識用カメラ2および監視用カメラ1からの画像データの画像処理を行うようにしてもよい。管理装置4は、ネットワーク5経由で通信を行う通信機能を備えたコンピュータにより実現される。
As the monitoring camera 1, a color camera or the like is used so that the color and appearance characteristics of the vehicle can be easily understood. As the recognition camera 2, a near-infrared monochrome camera or the like is used so that the vehicle license plate can be easily imaged even in a relatively dark place.
The image processing device 3 is installed at each site where the vehicle is monitored. The image processing apparatus 3 may perform image processing of image data from a plurality of recognition cameras 2 and monitoring cameras 1. The management device 4 is realized by a computer having a communication function for performing communication via the network 5.

次に、画像処理装置3のハードウェア構成を説明する。図2は、図1の画像処理装置のハードウェア構成を示した図である。   Next, the hardware configuration of the image processing apparatus 3 will be described. FIG. 2 is a diagram illustrating a hardware configuration of the image processing apparatus of FIG.

画像処理装置3は、モザイク処理等の画像処理を行う処理装置50と、ネットワーク5経由で処理装置50が図1の管理装置4と通信を行うための通信制御装置60とを含んで構成される。   The image processing device 3 includes a processing device 50 that performs image processing such as mosaic processing, and a communication control device 60 that allows the processing device 50 to communicate with the management device 4 of FIG. .

この処理装置50は、認識用カメラ2や監視用カメラ1から出力されるアナログ信号をディジタル信号に変換するA/D(Analog to Digital)変換器52、ディジタル信号を格納する画像メモリ53、画像処理をするための画像処理プロセッサ54、この画像処理プロセッサ54による処理結果等を表示するためのディジタル信号をアナログ信号に変換するD/A(Digital to Analog)変換器55、このD/A変換器55から出力された画像データを出力し、表示するモニタ56等を備える。
また、この処理装置50は、画像メモリ53とは別に、記憶部(図示せず)をさらに備える。この記憶部には、画像処理プロセッサ54が画像処理を行う際に参照する各種データが格納される。
さらに、この処理装置50と通信制御装置60とは、図示しない入出力インターフェースにより接続されている。この通信制御装置60は、CPU(Central Processing Unit)57と、通信用プログラムを格納するRAM(Random Access Memory)58と、通信インタフェース59とを備えるPC(Personal Computer)により実現されるものとする。なお、この通信制御装置60の機能は、処理装置50の一部に組み込むようにしてもよい。
The processing device 50 includes an A / D (Analog to Digital) converter 52 that converts analog signals output from the recognition camera 2 and the monitoring camera 1 into digital signals, an image memory 53 that stores digital signals, and image processing. An image processor 54 for performing the processing, a D / A (Digital to Analog) converter 55 for converting a digital signal for displaying a processing result by the image processor 54 into an analog signal, and the D / A converter 55 The monitor 56 etc. which output and display the image data output from are provided.
In addition to the image memory 53, the processing device 50 further includes a storage unit (not shown). The storage unit stores various data that are referred to when the image processor 54 performs image processing.
Further, the processing device 50 and the communication control device 60 are connected by an input / output interface (not shown). The communication control device 60 is assumed to be realized by a PC (Personal Computer) including a CPU (Central Processing Unit) 57, a RAM (Random Access Memory) 58 for storing a communication program, and a communication interface 59. The function of the communication control device 60 may be incorporated in a part of the processing device 50.

また、処理装置50における画像処理は、画像処理プロセッサ54が画像メモリ53を用いて実行するものとして説明するが、処理装置50の図示しないCPUがRAMに格納されたプログラムを実行するようにしてもよい。   The image processing in the processing device 50 is described as being performed by the image processing processor 54 using the image memory 53. However, a CPU (not shown) of the processing device 50 may execute a program stored in the RAM. Good.

次に、図1および図2を参照しつつ、図3を用いて、画像処理装置3および管理装置4の機能を説明する。図3は、図1の画像処理装置および管理装置を機能展開して示したブロック図である。なお、以下の説明では画像処理装置3が行う画像処理はモザイク処理であるものとして説明するが、これに限定されるものではない。   Next, functions of the image processing apparatus 3 and the management apparatus 4 will be described with reference to FIGS. 1 and 2 and FIG. FIG. 3 is a block diagram showing functional development of the image processing apparatus and management apparatus of FIG. In the following description, the image processing performed by the image processing apparatus 3 is described as mosaic processing, but the present invention is not limited to this.

<画像処理装置>
画像処理装置3は、監視用カメラ1から出力される監視用カメラ画像(第1の画像データ)および認識用カメラ2から出力される認識用カメラ画像(第2の画像データ)の入力を受け付けるデータ入力部31と、ナンバー認識部34の文字認識結果から認識用カメラ画像におけるナンバープレートの領域の特定を行う領域特定部32と、監視用カメラ画像および認識用カメラ画像のワールド座標を一致させ、特定した監視用カメラ画像におけるナンバープレートの領域が監視用カメラ画像のどの領域に位置するか特定する領域位置特定部33と、認識用カメラ画像のナンバープレートのナンバー認識を行うナンバー認識部34と、各画像データにモザイク処理を行った画像データを作成する画像処理部35と、前記画像処理を行った画像データと、ナンバー認識部34によるナンバー認識結果とをネットワーク5経由で送信する送信部36と、監視システムの利用者のレベルごとに、前記レベルの利用者に対し開示する画像領域を示した開示領域情報を記憶する開示領域情報記憶部37とを備える。
<Image processing device>
The image processing device 3 receives input of a monitoring camera image (first image data) output from the monitoring camera 1 and a recognition camera image (second image data) output from the recognition camera 2. The input unit 31, the region specifying unit 32 for specifying the region of the license plate in the recognition camera image from the character recognition result of the number recognition unit 34, and the world coordinates of the monitoring camera image and the recognition camera image are made to coincide with each other. A region position specifying unit 33 for specifying which region of the surveillance camera image the license plate region in the surveillance camera image is located; a number recognition unit 34 for performing license plate number recognition of the recognition camera image; An image processing unit 35 that creates image data obtained by performing mosaic processing on image data, and image data that has undergone the image processing. And the transmission area 36 for transmitting the number recognition result by the number recognition section 34 via the network 5 and the disclosure area information indicating the image area to be disclosed to the user of the level for each level of the user of the monitoring system And a disclosure area information storage unit 37 for storing.

なお、前記した画像処理部35は、監視用カメラ画像にモザイク処理を行った画像データを作成するとともに、このモザイク処理の復元に用いる復元用データを作成する。この復元用データは、各利用者のレベルごとにモザイクの復元を許可するナンバープレートの領域に関する情報、このモザイク処理の種別に関する情報等を含むものである。例えば、画像処理部35は、復元用データとして、レベル1の利用者に対してはナンバープレートの事業コード特定領域(後記する図14の符号11参照)のモザイクの復元を許可する、というような情報を作成する。   The image processing unit 35 described above creates image data obtained by performing mosaic processing on the monitoring camera image, and also creates restoration data used for restoration of the mosaic processing. This restoration data includes information on the area of the license plate that permits mosaic restoration for each user level, information on the type of mosaic processing, and the like. For example, the image processing unit 35 allows the restoration of the mosaic in the license plate business code identification area (see reference numeral 11 in FIG. 14 to be described later) to the level 1 user as restoration data. Create information.

なお、領域特定部32、領域位置特定部33および画像処理部35は、前記した図2の画像処理プロセッサ54により実現され、データ入力部31は図2のA/D変換器52により実現される。また送信部36は、図2の通信制御装置60により実現される。   The region specifying unit 32, the region position specifying unit 33, and the image processing unit 35 are realized by the image processing processor 54 shown in FIG. 2, and the data input unit 31 is realized by the A / D converter 52 shown in FIG. . Moreover, the transmission part 36 is implement | achieved by the communication control apparatus 60 of FIG.

管理装置4は、画像処理装置3からの送信データを受信する受信部41と、この送信データに含まれる画像データのモザイクを復元する復元部42と、モザイク処理を復元した画像データを表示する画像表示部43と、送信データを管理装置4の記憶部(図示せず)に保存するデータ保存部44とを備える。   The management device 4 includes a reception unit 41 that receives transmission data from the image processing device 3, a restoration unit 42 that restores a mosaic of image data included in the transmission data, and an image that displays image data that has been restored from mosaic processing. A display unit 43 and a data storage unit 44 that stores transmission data in a storage unit (not shown) of the management device 4 are provided.

なお、この復元部42は、前記した復元用データに基づき、各利用者のレベルに応じて、モザイク処理された画像データの復元を行う。例えば、復元部42が、管理装置4の入力部(図示せず)経由で、利用者のIDの入力を受け付け、利用者IDごとに利用者のレベルを示した情報等を参照して、このIDの利用者のレベルを判断する。そして、このレベルに応じたモザイク処理の復元を行う。なお、ここでいう利用者のレベルとは、情報を閲覧できる権限をいくつかの段階で示したものである。本実施の形態の監視システムは、レベルが高い(レベル値が小さい)利用者に対してはより多くの情報を閲覧できるようにし、レベルが低い(レベル値が大きい)利用者に対しては閲覧できる情報を少なくするように制御している。   The restoration unit 42 restores the mosaic-processed image data according to the level of each user based on the restoration data. For example, the restoration unit 42 receives an input of a user ID via an input unit (not shown) of the management device 4 and refers to information indicating a user level for each user ID. The level of the ID user is determined. Then, the mosaic process is restored according to this level. Here, the level of the user indicates the authority to view information at several stages. The monitoring system according to the present embodiment allows a user with a high level (low level value) to view more information, and views a user with a low level (high level value). Control is done to reduce the amount of information that can be generated.

なお、この管理装置4は、CPU、記憶部、入出力インタフェース、通信インタフェース等を備えるコンピュータにより実現される。前記した受信部41は、管理装置4の通信インタフェースにより実現される。また、管理装置4の記憶部には、復元用データに基づきモザイクを復元するモザイク復元プログラムや、液晶モニタ等の画像表示装置に画像を表示するための画像表示プログラムが格納される。前記した復元部42、画像表示部43およびデータ保存部44は、管理装置4のCPUが記憶部のプログラムを実行することにより実現される。   The management device 4 is realized by a computer including a CPU, a storage unit, an input / output interface, a communication interface, and the like. The receiving unit 41 described above is realized by the communication interface of the management device 4. The storage unit of the management device 4 stores a mosaic restoration program for restoring a mosaic based on the restoration data and an image display program for displaying an image on an image display device such as a liquid crystal monitor. The restoration unit 42, the image display unit 43, and the data storage unit 44 described above are realized by the CPU of the management device 4 executing the program of the storage unit.

<カメラの説明>
ここで、図4〜図10を用いて、本実施の形態の監視用カメラ1および認識用カメラ2を説明する。図4は、図1の監視用カメラおよび認識用カメラの配置を説明する図である。図4に示すように、監視用カメラ1の視野は、車両100全体を撮像できるよう符合7に示す領域とする。また、認識用カメラ2の視野は、ナンバープレートのナンバー認識ができるよう符号6に示す領域(車両のフロント部近傍の領域)とする。
図5は、図4の認識用カメラにより撮像された画像を例示した図であり、図6は図5の画像におけるナンバープレートを詳細に示した図である。
一般に、認識用カメラ2の視野における高さおよび幅は2〜3m程度であり、認識用カメラ2が図4の車両100を撮像すると、図5の画像8のようになる。つまり、認識用カメラ2が撮像した画像は、図5の符号80に示すナンバープレートに含まれる各コード(図6の陸支コード9、車種コード10、事業コード11および一連番号12等)を文字認識したり、人間が目視で確認したりできる程度の解像度の画像とする。
<Explanation of camera>
Here, the monitoring camera 1 and the recognition camera 2 according to the present embodiment will be described with reference to FIGS. FIG. 4 is a diagram illustrating the arrangement of the monitoring camera and the recognition camera in FIG. As shown in FIG. 4, the visual field of the monitoring camera 1 is an area indicated by reference numeral 7 so that the entire vehicle 100 can be imaged. The field of view of the recognition camera 2 is an area indicated by reference numeral 6 (an area near the front portion of the vehicle) so that the license plate number can be recognized.
FIG. 5 is a diagram illustrating an image captured by the recognition camera of FIG. 4, and FIG. 6 is a diagram illustrating in detail a license plate in the image of FIG. 5.
Generally, the height and width in the visual field of the recognition camera 2 are about 2 to 3 m, and when the recognition camera 2 images the vehicle 100 of FIG. 4, an image 8 of FIG. 5 is obtained. That is, the image captured by the recognition camera 2 is written with the codes (land support code 9, vehicle type code 10, business code 11, serial number 12 and the like in FIG. 6) included in the license plate indicated by reference numeral 80 in FIG. The image has a resolution that can be recognized or visually confirmed by a human.

また、このときの認識用カメラ2の設置を、図7を用いて説明する。図7は、図4の認識用カメラの設置位置を説明する図である。
図7に示すように、カメラ設置高さH、カメラ俯角θ、認識用カメラ2がナンバープレートを認識するとナンバープレートの位置が求まるので、その検出位置からおおよそのカメラからの位置L1が分かる。
The installation of the recognition camera 2 at this time will be described with reference to FIG. FIG. 7 is a diagram illustrating the installation position of the recognition camera in FIG.
As shown in FIG. 7, when the camera installation height H, the camera depression angle θ, and the recognition camera 2 recognizes the license plate, the position of the license plate is obtained, so that the approximate position L1 from the camera can be found from the detected position.

一方、図4の監視用カメラ1の視野は、車両全体を撮像できる範囲とし、車種・車両形状等の把握できるようにする。例えば、図4の監視用カメラ1が車両100を撮像すると図8の画像13のようになる。図8は、図4の監視用カメラにより撮像された画像を例示した図である。図9は、図4の監視用カメラの視野を説明する図である。図10は、図4の監視用カメラの画像におけるナンバープレートの位置を説明する図である。
図9に示すように、監視用カメラ1の視野(実線の領域)は、認識用カメラ2の視野(破線の領域)に比べて大きくなる。また、図10に示すように、監視用カメラ1が撮像した画像13において車両100のナンバープレートの位置(高さ)は、符号L2に示す位置になる。
On the other hand, the field of view of the monitoring camera 1 in FIG. For example, when the monitoring camera 1 in FIG. 4 images the vehicle 100, an image 13 in FIG. 8 is obtained. FIG. 8 is a diagram illustrating an image captured by the monitoring camera of FIG. FIG. 9 is a diagram illustrating the field of view of the monitoring camera of FIG. FIG. 10 is a diagram for explaining the position of the license plate in the image of the monitoring camera shown in FIG.
As shown in FIG. 9, the visual field (solid line area) of the monitoring camera 1 is larger than the visual field (dashed line area) of the recognition camera 2. As shown in FIG. 10, the position (height) of the license plate of the vehicle 100 in the image 13 captured by the monitoring camera 1 is the position indicated by the symbol L2.

<動作説明>
次に、図1〜図10を参照しつつ、図11および図17を用いて監視システムの動作を説明する。図11は、図1の画像処理装置の動作を示したフローチャートである。図17は、図1の管理装置の動作を説明するフローチャートである。
<Description of operation>
Next, the operation of the monitoring system will be described using FIGS. 11 and 17 with reference to FIGS. FIG. 11 is a flowchart showing the operation of the image processing apparatus of FIG. FIG. 17 is a flowchart for explaining the operation of the management apparatus of FIG.

図3の画像処理装置3のデータ入力部31は、監視用カメラ1および認識用カメラ2から出力された画像(監視用カメラ画像および認識用カメラ画像)の入力を受け付ける(S150)。   The data input unit 31 of the image processing apparatus 3 in FIG. 3 receives input of images (monitoring camera image and recognition camera image) output from the monitoring camera 1 and the recognition camera 2 (S150).

次に、ナンバー認識部34は車両検知処理を実行し(S160)、認識用カメラ2から出力された認識用カメラ画像にナンバープレートがあるか否かを判断する(S170)。ここで、認識用カメラ画像にナンバープレートがない場合(S170のNo)、S150へ戻り、再度画像データが入力されるのを待つ。
一方、認識用カメラ画像にナンバープレートが含まれていれば(S170のYes)、このナンバープレートの各コードの文字認識を行う(S180)。なお、ナンバープレートのナンバー認識処理については、特開平6−215293号公報「車番認識装置」等に記載される技術を用いることができる。次に、領域特定部32は、S180の文字認識結果から認識用カメラ画像におけるナンバープレート領域を特定する(S190)。
Next, the number recognition part 34 performs a vehicle detection process (S160), and determines whether there is a license plate in the recognition camera image output from the recognition camera 2 (S170). If there is no license plate in the recognition camera image (No in S170), the process returns to S150 to wait for image data to be input again.
On the other hand, if the recognition camera image includes a license plate (Yes in S170), character recognition of each code of the license plate is performed (S180). For the license plate number recognition processing, the technique described in Japanese Patent Application Laid-Open No. 6-215293 “Car Number Recognition Device” or the like can be used. Next, the area specifying unit 32 specifies a license plate area in the recognition camera image from the character recognition result in S180 (S190).

次に、領域位置特定部33は、監視用カメラ画像および認識用カメラ画像のワールド座標を一致させ、S190で領域特定部32が特定したナンバープレート領域の座標変換を行う(S200)。つまり、領域位置特定部33は、認識用カメラ画像におけるナンバープレート領域が監視用カメラ画像のどの領域に位置するか特定する。例えば、図12に示すように監視用カメラ画像24上においてナンバープレート領域は、符号240に示す領域であると特定する。   Next, the area position specifying unit 33 matches the world coordinates of the monitoring camera image and the recognition camera image, and performs coordinate conversion of the license plate area specified by the area specifying unit 32 in S190 (S200). That is, the region position specifying unit 33 specifies in which region of the monitoring camera image the license plate region in the recognition camera image is located. For example, as shown in FIG. 12, the license plate area is specified as an area indicated by reference numeral 240 on the monitoring camera image 24.

この座標変換については、透視変換等の技術を用いる。透視変換は「コンピュータビジョン」:新技術コミュニケーションズ発行:pp.77−53にカメラキャリブレーションとして記載されている。本実施の形態における座標変換の詳細については、図面を用いて後記する。   For this coordinate transformation, a technique such as perspective transformation is used. Perspective conversion is described as camera calibration in “Computer Vision”: New Technology Communications, pp. 77-53. The details of the coordinate conversion in this embodiment will be described later with reference to the drawings.

次に、画像処理部35は、監視用カメラ画像におけるナンバープレート領域にモザイク処理を行う(S220)。このときのモザイク処理の方法は、文字情報が目視で識別不可能なように隠蔽でき、かつ管理装置4側で復元可能であれば、前記したモザイク処理に限定されない。   Next, the image processing unit 35 performs a mosaic process on the license plate area in the monitoring camera image (S220). The mosaic processing method at this time is not limited to the above-described mosaic processing as long as the character information can be concealed so that it cannot be visually identified and can be restored on the management apparatus 4 side.

また、画像処理部35がS220でモザイク処理を行う際、復元用データも作成する。この復元用データは、その画像データにおいてモザイクの復元を許可する領域と、そのモザイクの種別(手法)とを示した情報である。このモザイクの復元を許可する領域は、監視システムの管理者等が開示領域情報に基づき利用者のレベル(利用者の権限)ごとに、設定する。この開示領域情報については、図面を用いて後記する。
なお、復元用データにおいてモザイクの復元を許可する領域のかわりに、モザイクの復元を許可しない領域、つまり隠蔽したままにする領域に関する情報を記述するようにしてもよい。
Further, when the image processing unit 35 performs the mosaic process in S220, data for restoration is also created. The restoration data is information indicating a region where mosaic restoration is permitted in the image data and the type (method) of the mosaic. The area where the restoration of the mosaic is permitted is set for each user level (user authority) based on the disclosure area information by the administrator of the monitoring system or the like. This disclosure area information will be described later with reference to the drawings.
In addition, in the restoration data, instead of the area where the restoration of the mosaic is permitted, information regarding the area where the restoration of the mosaic is not allowed, that is, the area which is kept hidden may be described.

画像処理部35は、ナンバープレートの画像の全領域をモザイク処理した後、前記した開示領域情報を参照して、この画像の復元用データを作成する。そして、モザイク処理した画像データ、復元用データ、文字認識結果等(以下、まとめて送信データとする)を送信部36経由で、管理装置4へ送信する(S230)。この後、S150へ戻り、画像処理装置3は、次の画像データが入力されるのを待つ。
このようにして画像処理装置3は、各画像データのモザイク処理を行う。
The image processing unit 35 performs mosaic processing on the entire area of the license plate image, and then refers to the above-described disclosure area information to create data for restoring the image. The mosaic-processed image data, restoration data, character recognition result, and the like (hereinafter collectively referred to as transmission data) are transmitted to the management apparatus 4 via the transmission unit 36 (S230). Thereafter, the process returns to S150, and the image processing apparatus 3 waits for the next image data to be input.
In this way, the image processing apparatus 3 performs mosaic processing of each image data.

ここで、図11のS200における座標変換について、図13を用いて説明する。図13(a)はワールド座標系を説明する図であり、(b)はカメラ座標系を説明する図である。図13(a)のGx,Gyはワールド座標系における座標を示し、図13(b)のCx,Cyはカメラ座標系における座標を示す。なお、このカメラ座標は、カメラの視野内における相対的な座標であり、ワールド座標はカメラの設置位置を原点とした絶対的な座標である。
この座標変換は、(1)カメラパラメータの算出、(2)カメラ座標→ワールド座標の変換、(3)ワールド座標→カメラ座標の変換という3つのステップからなる。以下の説明では監視用カメラ1および認識用カメラ2の設置位置は、ほぼ同じものとして説明する。
Here, the coordinate conversion in S200 of FIG. 11 will be described with reference to FIG. FIG. 13A illustrates the world coordinate system, and FIG. 13B illustrates the camera coordinate system. Gx and Gy in FIG. 13A indicate coordinates in the world coordinate system, and Cx and Cy in FIG. 13B indicate coordinates in the camera coordinate system. The camera coordinates are relative coordinates within the field of view of the camera, and the world coordinates are absolute coordinates with the camera installation position as the origin.
This coordinate conversion consists of three steps: (1) camera parameter calculation, (2) camera coordinate → world coordinate conversion, and (3) world coordinate → camera coordinate conversion. In the following description, it is assumed that the installation positions of the monitoring camera 1 and the recognition camera 2 are substantially the same.

まず、路面上に設置した図13(a)の基準点A〜Dからカメラ(監視用カメラ1と認識用カメラ2)を原点としたワールド座標(Gx,Gy)と、カメラ画像の図13(b)の座標a〜dの座標(Cx,Cy)との対応から、監視用カメラ1および認識用カメラ2のカメラパラメータ(透視変換の変換行列パラメータ)を算出しておく。   First, from the reference points A to D in FIG. 13A installed on the road surface, the world coordinates (Gx, Gy) with the camera (the monitoring camera 1 and the recognition camera 2) as the origin and the camera image shown in FIG. The camera parameters (transformation matrix parameters for perspective transformation) of the monitoring camera 1 and the recognition camera 2 are calculated from the correspondence with the coordinates (Cx, Cy) of the coordinates a to d of b).

Figure 0004410755
Figure 0004410755

次に、式(1)により求めた認識用カメラ2のカメラパラメータを用いて、認識用カメラ2におけるカメラ座標をワールド座標に変換する。つまり、以下の式(2)に認識用カメラ2のカメラパラメータおよび認識用カメラ2のカメラ座標を代入して、ワールド座標を計算する。例えば、認識用カメラ画像におけるナンバープレート領域の座標を、ワールド座標に変換する。   Next, the camera coordinates of the recognition camera 2 are converted into world coordinates using the camera parameters of the recognition camera 2 obtained by the equation (1). That is, the world coordinates are calculated by substituting the camera parameters of the recognition camera 2 and the camera coordinates of the recognition camera 2 into the following equation (2). For example, the coordinates of the license plate area in the recognition camera image are converted into world coordinates.

Figure 0004410755
Figure 0004410755

続いて、式(1)により求めた監視用カメラ1のカメラパラメータを用いて、認識用カメラ2におけるワールド座標を、監視用カメラ1のカメラ座標に変換する。つまり、以下の式(3)に、監視用カメラ1のカメラパラメータおよびワールド座標を代入して、監視用カメラ1のカメラ座標を計算する。つまり、ナンバープレート領域のワールド座標を、監視用カメラ画像における座標に変換する。   Subsequently, the world coordinates in the recognition camera 2 are converted into the camera coordinates of the monitoring camera 1 using the camera parameters of the monitoring camera 1 obtained by the expression (1). That is, the camera parameters of the monitoring camera 1 and the world coordinates are substituted into the following equation (3) to calculate the camera coordinates of the monitoring camera 1. That is, the world coordinates of the license plate area are converted into coordinates in the monitoring camera image.

Figure 0004410755
Figure 0004410755

なお、前記した座標変換は、監視用カメラ1および認識用カメラ2の高さ、設置位置、俯角、側写角、視野幅等から計算するようにしてもよい。   The coordinate conversion described above may be calculated from the height, installation position, depression angle, side view angle, field of view width, etc. of the monitoring camera 1 and the recognition camera 2.

領域位置特定部33は、前記したような計算により座標変換を行った後、監視用カメラ画像のナンバープレート領域における各コード領域の特定を行う。この各コード領域の特定は、ナンバー認識部34が文字認識を行う際に特定した各コード領域に関する情報を用いる。この各コード領域の特定は、ナンバープレートごとに実施する。図14は、本実施の形態における各コード領域の特定例を示した図である。図14に示すように、領域位置特定部33は、陸支コードの領域(符号9)、車種コードの領域(符号10)、事業コードの領域(符号11)および一連番号の領域(符号12)を特定する。この後さらに、一連番号の領域(符号12)を、文字ごとに区分して特定するようにしてもよい。   The area position specifying unit 33 specifies each code area in the license plate area of the monitoring camera image after performing coordinate conversion by the above-described calculation. The identification of each code area uses information on each code area identified when the number recognition unit 34 performs character recognition. Each code area is specified for each license plate. FIG. 14 is a diagram showing a specific example of each code area in the present embodiment. As shown in FIG. 14, the area position specifying unit 33 includes a land code area (reference numeral 9), a vehicle type code area (reference numeral 10), a business code area (reference numeral 11), and a serial number area (reference numeral 12). Is identified. After this, the serial number area (reference numeral 12) may be specified separately for each character.

次に、図15を用いて、開示領域情報を説明する。図15は、本実施の形態における開示領域情報を説明する図である。図15に示すように、開示領域情報に設定されるレベルは、2つ、もしくはそれ以上の段階とする。つまり、レベル0とそれ以外のレベルというように2段階のレベルを設定してもよいし、レベル0〜レベル4までというように2段階以上のレベルを設定するようにしてもよい。図中の例では、レベル0(高)〜レベル4(低)の5段階のレベルを設定し、レベルが低くなるとともにモザイク領域(隠蔽する領域)を増やしている。つまり、逆にいうと、レベルが高くなるとともに開示する領域(隠蔽しない領域)を増やしている。   Next, the disclosure area information will be described with reference to FIG. FIG. 15 is a diagram for explaining the disclosure area information in the present embodiment. As shown in FIG. 15, the level set in the disclosure area information is two or more stages. That is, two levels such as level 0 and other levels may be set, or two or more levels such as level 0 to level 4 may be set. In the example in the figure, five levels from level 0 (high) to level 4 (low) are set, and the mosaic area (area to be concealed) is increased as the level becomes lower. In other words, as the level increases, the disclosed areas (areas not concealed) are increased.

例えば、図15において、レベル0は、ナンバープレートのすべてのコード領域を閲覧可能にすることを示す。
レベル1は、一連番号の領域(符号12)は隠蔽し、その他の領域(陸支コード「足立」、車種コード「500」、事業コード「お」)は開示することを示す。
レベル2は、一連番号の領域(符号12)および車種コードの領域(符号10)は隠蔽するが、その他の領域(陸支コード「足立」、事業コード「お」)は開示することを示す。
レベル3は、一連番号の領域(符号12)、車種コードの領域(符号10)および事業コードの領域(符号11)は隠蔽するが、その他の領域(陸支コード「足立」)は開示することを示す。
レベル4は、すべての領域(符号9〜符号12)を隠蔽することを示す。
なお、この開示領域情報は画像処理装置3の入力部(図示せず)経由で入力することができる。
また、図15の符号310に示す平滑化の例については、後記する。
For example, in FIG. 15, level 0 indicates that all the code areas of the license plate can be viewed.
Level 1 indicates that the serial number area (reference numeral 12) is concealed and the other areas (land support code “Adachi”, vehicle type code “500”, business code “O”) are disclosed.
Level 2 indicates that the serial number area (reference numeral 12) and the vehicle type code area (reference numeral 10) are concealed, but the other areas (land support code "Adachi", business code "O") are disclosed.
Level 3 covers the serial number area (reference numeral 12), the vehicle type code area (reference numeral 10), and the business code area (reference numeral 11), but discloses the other areas (land support code "Adachi"). Indicates.
Level 4 indicates that all areas (reference numerals 9 to 12) are concealed.
The disclosed area information can be input via an input unit (not shown) of the image processing apparatus 3.
An example of smoothing indicated by reference numeral 310 in FIG. 15 will be described later.

続いて、図16を用いて、送信部36から送信される送信データを説明する。図16は、図3の送信部が送信する送信データを例示した図である。図16に示すように、送信データは、モザイク処理をした画像データ161、復元用データ162、文字認識結果163等を含む。この復元用データ162は、モザイクの手法に関する情報であるモザイク手法165およびモザイクの復元を許可する領域に関する情報であるモザイク領域166を含む。このモザイクの復元を許可する領域に関する情報は、画像データにおける位置座標等により記述される。
また、モザイク処理をした画像データ161と復元用データ162とは、セキュリティ保持のため別々に送信するようにしてもよい。
Next, transmission data transmitted from the transmission unit 36 will be described with reference to FIG. FIG. 16 is a diagram illustrating transmission data transmitted by the transmission unit of FIG. As shown in FIG. 16, the transmission data includes image data 161 subjected to mosaic processing, restoration data 162, character recognition result 163, and the like. The restoration data 162 includes a mosaic technique 165 that is information relating to a mosaic technique and a mosaic area 166 that is information relating to an area where mosaic restoration is permitted. Information regarding the area where the restoration of the mosaic is permitted is described by position coordinates or the like in the image data.
Further, the mosaic-processed image data 161 and the restoration data 162 may be transmitted separately to maintain security.

次に、適宜図1〜図16を参照しつつ、図17を用いて画像処理装置3からの送信データを受信した管理装置4の動作を説明する。
管理装置4の受信部41は、ネットワーク5経由で画像処理装置3からの送信データを受信し(S420)、図示しない入力部経由でデータ保存を要求する入力があれば(S430のYes)、データ保存部44が管理装置4の受信した送信データを記憶部(図示せず)に保存する(S440)。一方、データ保存を要求する入力がなければ(S430のNo)、S450へ進む。S450では、送信データに含まれる画像データの表示を要求する入力があるか否かを判断する。画像データの表示を要求する入力があれば(S450のYes)、S460へ進み、復元部42は、レベルの判定を行う(S460)。例えば、復元部42は、入力部経由で入力された利用者のID等をキーとして、この画像データの表示を要求する利用者のレベルを判断する。一方、画像データの表示を要求する入力がなければ(S450のNo)、S420へ戻る。そして、復元部42は、利用者のレベルに応じた画像データのモザイク復元処理を行う(S470)。このときのモザイク復元処理は、復元用データに含まれるモザイク手法165およびモザイク領域166の情報を参照して行う。
Next, the operation of the management apparatus 4 that has received the transmission data from the image processing apparatus 3 will be described using FIG. 17 with reference to FIGS.
The receiving unit 41 of the management device 4 receives the transmission data from the image processing device 3 via the network 5 (S420), and if there is an input requesting data storage via an input unit (not shown) (Yes in S430), the data The storage unit 44 stores the transmission data received by the management device 4 in a storage unit (not shown) (S440). On the other hand, if there is no input for requesting data storage (No in S430), the process proceeds to S450. In S450, it is determined whether or not there is an input requesting display of image data included in the transmission data. If there is an input requesting display of image data (Yes in S450), the process proceeds to S460, and the restoration unit 42 determines the level (S460). For example, the restoration unit 42 determines the level of the user who requests display of this image data, using the user ID or the like input via the input unit as a key. On the other hand, if there is no input requesting display of image data (No in S450), the process returns to S420. Then, the restoration unit 42 performs a mosaic restoration process on the image data according to the level of the user (S470). The mosaic restoration process at this time is performed with reference to the information of the mosaic technique 165 and the mosaic area 166 included in the restoration data.

例えば、復元部42が、利用者のレベルは「1」であると判定したときには、画像データ161のナンバープレートの領域について、図15の符号27に示すような画像に復元する。つまり、符号12の一連番号の領域は隠蔽したままで、それ以外の領域はモザイクを復元した画像を作成する。そして、画像表示部43は、復元部42で復元した画像データの表示処理を行う(S480)。例えば、管理装置4に接続される表示装置(図示せず)に復元した画像データを表示する。そして、S420へ戻る。
管理装置4は、前記した処理を画像処理装置3から送信データを受信するたびに繰り返す。
For example, when the restoration unit 42 determines that the level of the user is “1”, the license plate area of the image data 161 is restored to an image as indicated by reference numeral 27 in FIG. In other words, an image having a serial number of reference numeral 12 is concealed and an image in which a mosaic is restored is created for the other regions. Then, the image display unit 43 performs display processing of the image data restored by the restoration unit 42 (S480). For example, the restored image data is displayed on a display device (not shown) connected to the management device 4. Then, the process returns to S420.
The management device 4 repeats the above processing every time transmission data is received from the image processing device 3.

このようにして、監視システムは、撮像した車両のナンバープレートについて、利用者のレベルに応じた表示制御をすることができる。   Thus, the monitoring system can perform display control according to the level of the user with respect to the number plate of the imaged vehicle.

<第2の実施の形態>
次に、本発明の第2の実施の形態を説明する。第2の実施の形態は、画像処理装置3が監視用カメラ画像に認識用カメラ画像の一部を合成して、管理装置4へ送信することを特徴とする。つまり、画像処理装置3が監視用カメラ画像である車両全体の画像と、認識用カメラ画像におけるナンバープレート部分の領域の拡大画像とを送信する。したがって、管理装置4において利用者が目視でナンバープレートを確認したい場合、車両全体の画像ではナンバープレート領域が小さすぎて、文字情報が確認できないようなときでも、拡大画像の部分を見ることでナンバープレートの文字情報を確認しやすくなる。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. The second embodiment is characterized in that the image processing device 3 synthesizes a part of the recognition camera image with the monitoring camera image and transmits it to the management device 4. That is, the image processing apparatus 3 transmits an image of the entire vehicle that is the monitoring camera image and an enlarged image of the area of the license plate portion in the recognition camera image. Therefore, when the user wants to visually confirm the license plate in the management device 4, even if the license plate area is too small in the image of the entire vehicle and character information cannot be confirmed, the number can be obtained by looking at the enlarged image portion. It becomes easy to confirm the character information of the plate.

図18は、第2の実施の形態における画像処理装置の動作を示したフローチャートである。図18のS150〜S190までの処理は、図11のS150〜S190までの処理と同様なので説明を省略し、本実施の形態の特徴となるS191以降の処理から説明する。   FIG. 18 is a flowchart illustrating the operation of the image processing apparatus according to the second embodiment. The processing from S150 to S190 in FIG. 18 is the same as the processing from S150 to S190 in FIG. 11, and thus the description thereof will be omitted. The processing from S191 onward, which is a feature of the present embodiment, will be described.

図3の画像処理部35は、S190で特定した認識用カメラ画像におけるナンバープレート領域の画像を読み出し(S191)、この画像を監視用カメラ画像に合成する(S192)。図19は、第2の実施の形態の画像処理部が作成した合成画像を例示した図である。図19に示すように、画像処理部35は、認識用カメラ画像におけるナンバープレート領域の画像を、監視用カメラ画像の領域39の位置に合成する。なお、この領域39の位置は、車両の進行方向や道路状況に応じて、変更してもよい。また、領域39におけるナンバープレートの大きさは、利用者が画面上で見やすいよう、領域40におけるナンバープレートの大きさよりも大きくなるよう適宜拡大処理をするのが好ましい。   The image processing unit 35 in FIG. 3 reads the license plate image in the recognition camera image specified in S190 (S191), and synthesizes this image with the monitoring camera image (S192). FIG. 19 is a diagram illustrating a composite image created by the image processing unit according to the second embodiment. As shown in FIG. 19, the image processing unit 35 synthesizes the image of the license plate area in the recognition camera image with the position of the area 39 of the monitoring camera image. The position of the region 39 may be changed according to the traveling direction of the vehicle and the road conditions. Further, it is preferable to appropriately enlarge the number plate in the region 39 so that the number plate is larger than the number plate in the region 40 so that the user can easily see it on the screen.

次に、領域位置特定部33は、図11のS200と同様に監視用カメラ画像と認識用カメラ画像との座標変換を行う(S200)。そして、画像処理部35は、S192で合成した画像のモザイク処理を行う(S320)。すなわち、画像処理部35は、車両の全体像におけるナンバープレート領域(図19の領域40)と、合成したナンバープレート領域(領域39)と、両方の領域にモザイク処理を行う。   Next, the area position specifying unit 33 performs coordinate conversion between the monitoring camera image and the recognition camera image in the same manner as S200 in FIG. 11 (S200). Then, the image processing unit 35 performs mosaic processing of the image synthesized in S192 (S320). That is, the image processing unit 35 performs mosaic processing on both the license plate region (region 40 in FIG. 19) and the combined license plate region (region 39) in the overall image of the vehicle.

このとき、監視用カメラ画像における領域39の位置および領域39における各文字情報(陸支コード、車種コード、事業コードおよび一連番号等)の領域は、領域位置特定部33が、監視用カメラ画像の合成領域始点190の座標と、認識用カメラ画像の文字認識時に求めた各文字情報の相対座標とに基づき特定する。また、画像処理部35は、前記した第1の実施の形態と同様にモザイク処理の復元用データを作成する。ここでの復元用データは、領域40のナンバープレート領域に関する復元用データに加え、領域39のナンバープレート領域に関する復元用データも含むものである。   At this time, the position of the area 39 in the monitoring camera image and the area of each character information (land support code, vehicle type code, business code, serial number, etc.) in the area 39 are determined by the area position specifying unit 33 of the monitoring camera image. It is specified based on the coordinates of the synthesis area start point 190 and the relative coordinates of each character information obtained during character recognition of the recognition camera image. In addition, the image processing unit 35 creates data for restoring mosaic processing as in the first embodiment. The restoration data here includes, in addition to restoration data relating to the license plate area in the area 40, restoration data relating to the license plate area in the area 39.

そして、画像処理部35は、図11のS230と同様に、モザイク処理をした画像データ、復元用データおよび認識結果を含む送信データを管理装置4へ送信する(図18のS330)。
この後、管理装置4は送信データを受信し、第1の実施の形態と同様の手順により、図19の領域40および領域39のナンバープレート領域のモザイクの復元処理や、画像表示処理を行う。
Then, similarly to S230 in FIG. 11, the image processing unit 35 transmits the transmission data including the mosaic-processed image data, the restoration data, and the recognition result to the management apparatus 4 (S330 in FIG. 18).
Thereafter, the management device 4 receives the transmission data, and performs a mosaic restoration process and an image display process for the license plate areas in the areas 40 and 39 in FIG. 19 according to the same procedure as in the first embodiment.

このように、画像処理装置3が、監視用カメラ画像に認識用カメラ画像に写ったナンバープレートの拡大画像を合成して送信するので、監視用カメラ画像が不鮮明でも、利用者が目視でナンバープレートの各コードの情報を確認しやすくなる。   As described above, the image processing apparatus 3 synthesizes and transmits the enlarged image of the license plate captured in the recognition camera image to the monitoring camera image, so that even if the monitoring camera image is unclear, the user visually observes the license plate. It becomes easy to confirm the information of each code.

なお、画像処理装置3は、前記したナンバープレートのかわりに、監視用カメラ画像から抽出したドライバーの画像を合成するようにしてもよい。図20は、第2の実施の形態の変形例における合成画像を例示した図である。例えば、画像処理部35は、監視用カメラ画像からドライバーが写っている領域(領域200)を抽出し、この抽出した画像を拡大して、監視用カメラ画像の脇(例えば、図20の領域61等)に合成する。そして、画像処理部35は、ドライバーが写っている領域(領域200および領域61)と、ナンバープレート領域(領域40)とについて、モザイク処理を行う。   Note that the image processing apparatus 3 may synthesize a driver image extracted from the monitoring camera image instead of the above-described license plate. FIG. 20 is a diagram illustrating a composite image in a modification of the second embodiment. For example, the image processing unit 35 extracts a region (region 200) in which the driver is captured from the monitoring camera image, expands the extracted image, and places the side of the monitoring camera image (for example, the region 61 in FIG. 20). Etc.). Then, the image processing unit 35 performs a mosaic process on the region (region 200 and region 61) where the driver is shown and the license plate region (region 40).

このように画像処理装置3が、監視用カメラ画像のナンバープレート領域およびドライバーが写っている領域にモザイク処理を行い、管理装置4へ送信するので、ドライバーのプライバシーを保護しつつ、管理装置4の利用者はドライバーの特徴を確認できるようになる。したがって、利用者は、本システムを用いて犯罪捜査等をしやすくなる。なお、前記したドライバーの写っている領域は、車両のフロントガラスの領域であってもよい。   As described above, the image processing device 3 performs the mosaic process on the license plate region of the monitoring camera image and the region where the driver is reflected, and transmits it to the management device 4, so that the privacy of the driver is protected and the privacy of the management device 4 is protected. Users will be able to see the characteristics of the driver. Therefore, the user can easily conduct criminal investigation using this system. Note that the area where the driver is shown may be an area of the windshield of the vehicle.

また、監視用画像データにおいてドライバーが写っている領域については、領域位置特定部33がナンバープレート領域を特定した後、このナンバープレート領域の上方領域を水平・垂直微分等してフロントガラス部分における特徴量を抽出し、この特徴量における濃淡情報等から特定するものとする。   Further, for the area where the driver is shown in the monitoring image data, after the area position specifying unit 33 specifies the license plate area, the upper area of the license plate area is subjected to horizontal / vertical differentiation, etc. It is assumed that the amount is extracted and specified from the density information or the like in the feature amount.

また、画像処理部35は、監視用カメラ画像に認識用カメラ画像から抽出した車両のフロントグリル部分の画像を合成するようにしてもよい。図21は、第2の実施の形態の変形例における合成画像を例示した図である。例えば、画像処理部35は、認識用カメラ画像からフロントグリル部分の領域を抽出し、この抽出した画像を拡大して、監視用カメラ画像の脇(例えば、図21の領域62等)に合成する。そして、画像処理部35は、この合成画像における車両のフロントグリル部分(領域63および領域62)について、モザイク処理を行う。   Further, the image processing unit 35 may combine the image of the front grille of the vehicle extracted from the recognition camera image with the monitoring camera image. FIG. 21 is a diagram illustrating a composite image in a modification of the second embodiment. For example, the image processing unit 35 extracts the area of the front grille portion from the recognition camera image, enlarges the extracted image, and synthesizes it on the side of the monitoring camera image (for example, the area 62 in FIG. 21). . Then, the image processing unit 35 performs a mosaic process on the front grille portion (region 63 and region 62) of the vehicle in the composite image.

このように画像処理装置3が、監視用カメラ画像のフロントグリル部分にモザイク処理を行い管理装置4へ送信するので、ドライバーのプライバシーを保護しつつ、管理装置4の利用者は車両のフロントグリル部分の様子を確認することができる。つまり、利用者は、車両のフロントグリル部分の特徴(例えば、フロントグリル部分の傷や、へこみ等)を細かに確認できるので、犯罪捜査等をしやすくなる。   As described above, the image processing device 3 performs mosaic processing on the front grill portion of the monitoring camera image and transmits it to the management device 4, so that the user of the management device 4 can protect the driver's privacy while the user of the management device 4 Can be confirmed. In other words, since the user can check the characteristics of the front grille portion of the vehicle (for example, scratches or dents on the front grille portion), it is easy to conduct criminal investigations.

なお、この認識用カメラ画像におけるフロントグリル部分の抽出は、ナンバー認識部34によるナンバープレートの認識結果から、車種や大まかな車両サイズを特定することで可能である。あるいは、前記したドライバーの写っている領域の特定と同様に、水平・垂直微分を用いて、車両幅を特定したり、予め車種ごとにフロント部分の形を登録しておき、この形のパターンマッチングにより特定したりすることでも抽出可能である。
このように、画像処理装置3は、車両のナンバープレート以外でも、車両の特徴となる部分の画像データについてモザイク処理を行い、管理装置4へ送信するようにしてもよい。
Note that the front grill portion in the recognition camera image can be extracted by specifying the vehicle type and the rough vehicle size from the license plate recognition result by the number recognition unit 34. Alternatively, as in the above-described specification of the area where the driver is shown, the vehicle width is specified using horizontal / vertical differentiation, or the shape of the front part is registered in advance for each vehicle type, and pattern matching of this shape is performed. It can also be extracted by specifying.
As described above, the image processing device 3 may perform mosaic processing on image data of a portion that is a feature of the vehicle other than the license plate of the vehicle, and may transmit the image data to the management device 4.

<その他の実施の形態>
本発明は、前記した実施の形態に限定されず、広く変形可能である。例えば、前記した開示領域情報は、各レベルごとに開示する領域を示した情報としたが、各領域ごとに、当該領域はどのレベルか(つまり、どのレベルの利用者までモザイク復元を許可するか)を示した情報としてもよい。このようにすることで、監視システムの管理者は、各領域ごとのレベルの調整を行いやすくなる。
<Other embodiments>
The present invention is not limited to the embodiments described above, and can be widely modified. For example, the disclosure area information described above is information indicating an area to be disclosed for each level. For each area, what level the area is (that is, up to which level users are allowed to restore the mosaic) ) May be used. In this way, the administrator of the monitoring system can easily adjust the level for each area.

また、画像処理部35が行うモザイク処理は、例えば、図15の符号310に示すような平滑化手法を用いるようにしてもよい。さらに、画像処理部35の用いるモザイク処理の手法は領域ごとに異なるものとしてもよい。また、このモザイク処理の方法については、暗号キーによる暗号化、濃度値のビットローテート等を用いるようにしてもよい。この場合、画像処理部35が復元用データに暗号キー、ビットローテートキー等を含めるようにする。   Further, the mosaic processing performed by the image processing unit 35 may use a smoothing technique as indicated by reference numeral 310 in FIG. 15, for example. Furthermore, the mosaic processing technique used by the image processing unit 35 may be different for each region. As the mosaic processing method, encryption using an encryption key, bit rotation of density values, or the like may be used. In this case, the image processing unit 35 includes an encryption key, a bit rotate key, and the like in the restoration data.

さらに、画像処理装置3は、複数のモザイク処理の手法から所定の手法を選択できるようにしてもよい。つまり、画像処理装置3の記憶部にモザイク処理を行うプログラムを複数格納しておき、前記した図11のS220や図18のS320において、画像処理部35がモザイク処理を行う前に、どのモザイク処理の手法を用いるかの選択できるようにする。例えば、画像処理装置3の入力部経由で、監視システムの管理者からどのモザイク処理の手法を用いるかに関する選択入力を受け付け、この選択入力に基づき画像処理部35が所定のモザイク処理のプログラムを実行するようにする。   Furthermore, the image processing apparatus 3 may be configured to select a predetermined method from a plurality of mosaic processing methods. That is, a plurality of mosaic processing programs are stored in the storage unit of the image processing apparatus 3, and in S220 of FIG. 11 and S320 of FIG. 18, which mosaic processing is performed before the image processing unit 35 performs the mosaic processing. It is possible to select whether to use the method. For example, a selection input regarding which mosaic processing method to use is received from the administrator of the monitoring system via the input unit of the image processing apparatus 3, and the image processing unit 35 executes a predetermined mosaic processing program based on the selection input. To do.

さらに、画像処理部35が実行するモザイク処理は不可逆変換の平滑化、部分画素塗りつぶし等の手法を用いてもよい。この場合には、画像処理部35は復元用データに、モザイク処理を行った領域の現画像(モザイク処理前の画像データ)を暗号化して付加するようにする。このような方法によっても画像処理装置3は、画像にモザイク処理を行い、かつ管理装置4側でこのモザイク処理を復元できるようにすることができる。   Further, the mosaic processing executed by the image processing unit 35 may use a technique such as smoothing of irreversible transformation and partial pixel filling. In this case, the image processing unit 35 encrypts and adds the current image (image data before the mosaic process) in the area subjected to the mosaic process to the restoration data. Also by such a method, the image processing apparatus 3 can perform the mosaic process on the image and can restore the mosaic process on the management apparatus 4 side.

本実施の形態に係る画像処理装置3は、前記したような処理を実行させる画像処理プログラムによって実現するようにしてもよい。また、そのプログラムをコンピュータによる読み取り可能な記憶媒体(CD-ROM等)に記憶して提供することも可能である。また、そのプログラムを、インターネット等の通信ネットワークを通して提供することも可能である。   The image processing apparatus 3 according to the present embodiment may be realized by an image processing program that executes the processing as described above. Further, the program can be provided by being stored in a computer-readable storage medium (CD-ROM or the like). It is also possible to provide the program through a communication network such as the Internet.

本実施の形態の監視システムの全体構成を示す図である。It is a figure which shows the whole structure of the monitoring system of this Embodiment. 図1の画像処理装置のハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of the image processing apparatus of FIG. 図1の画像処理装置および管理装置を機能展開して示したブロック図である。FIG. 2 is a block diagram showing functions of the image processing apparatus and management apparatus in FIG. 図1の監視用カメラおよび認識用カメラの配置を説明する図である。It is a figure explaining arrangement | positioning of the monitoring camera of FIG. 1, and the camera for recognition. 図4の認識用カメラにより撮像された画像を例示した図である。It is the figure which illustrated the image imaged with the camera for recognition of FIG. 図5の画像におけるナンバープレートを詳細に示した図である。It is the figure which showed the license plate in the image of FIG. 5 in detail. 図4の認識用カメラの設置位置を説明する図である。It is a figure explaining the installation position of the camera for recognition of FIG. 図4の監視用カメラにより撮像された画像を例示した図である。It is the figure which illustrated the image imaged with the monitoring camera of FIG. 図4の監視用カメラの視野を説明する図である。It is a figure explaining the visual field of the surveillance camera of FIG. 図4の監視用カメラの画像におけるナンバープレートの位置を説明する図である。It is a figure explaining the position of the license plate in the image of the monitoring camera of FIG. 図1の画像処理装置の動作を示したフローチャートである。3 is a flowchart illustrating an operation of the image processing apparatus in FIG. 1. 図4の監視用カメラにより撮像された画像を例示した図である。It is the figure which illustrated the image imaged with the monitoring camera of FIG. (a)はワールド座標系を説明する図であり、(b)はカメラ座標系を説明する図である。(A) is a figure explaining a world coordinate system, (b) is a figure explaining a camera coordinate system. 本実施の形態における各コード領域の特定例を示した図である。It is the figure which showed the specific example of each code area | region in this Embodiment. 本実施の形態における開示領域情報を説明する図である。It is a figure explaining the disclosure area information in this embodiment. 図3の送信部が送信する送信データを例示した図である。It is the figure which illustrated the transmission data which the transmission part of FIG. 3 transmits. 図1の管理装置の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the management apparatus of FIG. 第2の実施の形態における画像処理装置の動作を示したフローチャートである。6 is a flowchart illustrating an operation of the image processing apparatus according to the second embodiment. 第2の実施の形態の画像処理部が作成した合成画像を例示した図である。It is the figure which illustrated the synthesized image which the image processing part of 2nd Embodiment produced. 第2の実施の形態の変形例における合成画像を例示した図である。It is the figure which illustrated the synthesized image in the modification of 2nd Embodiment. 第2の実施の形態の変形例における合成画像を例示した図である。It is the figure which illustrated the synthesized image in the modification of 2nd Embodiment.

符号の説明Explanation of symbols

1 監視用カメラ
2 認識用カメラ
3 画像処理装置
4 管理装置
5 ネットワーク
31 データ入力部
32 領域特定部
32 ナンバー認識部
33 領域位置特定部
34 ナンバー認識部
35 画像処理部
36 送信部
37 開示領域情報記憶部
41 受信部
42 復元部
43 画像表示部
44 データ保存部
DESCRIPTION OF SYMBOLS 1 Monitoring camera 2 Recognition camera 3 Image processing apparatus 4 Management apparatus 5 Network 31 Data input part 32 Area identification part 32 Number recognition part 33 Area position identification part 34 Number recognition part 35 Image processing part 36 Transmission part 37 Disclosure area information storage Unit 41 Receiving unit 42 Restoring unit 43 Image display unit 44 Data storage unit

Claims (7)

車両の全体像の画像データである第1の画像データと、前記車両のフロント部分の画像である第2の画像データとを取得して画像処理を行う画像処理装置であって、
前記第1の画像データと前記第2の画像データとの入力を受け付けるデータ入力部と、
前記第2の画像データにおける前記車両のナンバープレートの領域を特定する領域特定部と、
前記第1の画像データおよび前記第2の画像データのワールド座標を一致させ、前記特定したナンバープレートの領域が前記第1の画像データのどの領域に位置するか特定する領域位置特定部と、
利用者のレベルごとに、開示を許可するナンバープレートの領域を示した開示領域情報を格納する記憶部と、
前記特定した第1の画像データにおけるナンバープレートの領域を隠蔽する画像処理を行った画像データを作成するとともに、前記開示領域情報を参照して、前記画像処理を行った画像データにおいて前記隠蔽の復元を許可するナンバープレートの領域を前記レベルごとに示した復元用データを作成する画像処理部と、
前記画像処理を行った画像データおよび前記復元用データを送信する送信部と、
を備えることを特徴とする画像処理装置。
An image processing device that obtains first image data that is image data of a whole image of a vehicle and second image data that is an image of a front portion of the vehicle and performs image processing,
A data input unit for receiving input of the first image data and the second image data;
An area specifying unit for specifying an area of the license plate of the vehicle in the second image data;
An area position specifying unit that matches the world coordinates of the first image data and the second image data, and specifies in which area of the first image data the area of the specified license plate is located;
For each user level, a storage unit that stores disclosure area information indicating a license plate area for which disclosure is permitted;
Image data that has been subjected to image processing for concealing the area of the license plate in the identified first image data is created, and the concealment is restored in the image data that has been subjected to the image processing with reference to the disclosure area information An image processing unit for creating restoration data indicating the license plate area for each level,
A transmission unit that transmits the image data subjected to the image processing and the restoration data;
An image processing apparatus comprising:
請求項1に記載の画像処理装置と、
前記画像処理装置から送信された画像データおよび復元用データを受信する受信部、
前記復元用データに基づき、前記利用者のレベルに応じて、前記画像データの隠蔽を復元する復元部、
および
前記隠蔽を復元した画像データを表示する画像表示部、
を備える管理装置と、
を有することを特徴とする監視システム。
An image processing apparatus according to claim 1;
A receiving unit for receiving image data and restoration data transmitted from the image processing device;
Based on the restoration data, a restoration unit that restores concealment of the image data according to the level of the user,
And an image display unit for displaying the image data with the concealment restored,
A management device comprising:
A monitoring system comprising:
前記画像処理部は、前記第1の画像データに、前記特定した第2の画像データにおけるナンバープレートの領域の画像を貼り付けた画像データを作成し、前記作成した画像データにおけるナンバープレートの領域を隠蔽する画像処理を行った画像データを作成し、前記開示領域情報を参照して、前記画像処理を行った画像データにおいて前記隠蔽の復元を許可するナンバープレートの領域を示した復元用データを作成することを特徴とする請求項2に記載の監視システム。   The image processing unit creates image data by pasting an image of a license plate area in the specified second image data to the first image data, and the license plate area in the created image data is created. Create image data that has been subjected to concealment image processing, and refer to the disclosure area information to create restoration data that indicates the area of the license plate that permits restoration of the concealment in the image data that has undergone image processing The monitoring system according to claim 2, wherein: 前記隠蔽する画像処理は、前記各画像データにおける隠蔽すべき箇所のモザイク化、暗号化、平滑化または塗りつぶし処理であり、
前記画像処理部は、入力部からの指示入力に基づき前記画像処理のいずれかの処理を選択し、前記復元用データに前記選択された画像処理の種別をさらに含めることを特徴とする請求項2に記載の監視システム。
The image processing to conceal is mosaicing, encryption, smoothing or filling processing of a portion to be concealed in each image data,
The image processing unit selects any one of the image processes based on an instruction input from an input unit, and further includes the type of the selected image processing in the restoration data. The monitoring system described in.
前記第1の画像データはカラーカメラから出力された画像データであり、前記第2の画像データは近赤外線対応のモノクロカメラから出力された画像データであることを特徴とする請求項2に記載の監視システム。   The first image data is image data output from a color camera, and the second image data is image data output from a monochrome camera that supports near infrared rays. Monitoring system. 前記第2の画像データにおけるナンバープレートの領域の画像に代えて、前記車両のフロントグリルの領域の画像を用いることを特徴とする請求項3に記載の監視システム。   The monitoring system according to claim 3, wherein an image of a front grill area of the vehicle is used instead of an image of a license plate area in the second image data. 前記開示領域情報は、前記監視システムの利用者のレベルごとに、開示を許可する車両の画像領域を示した情報であり、
前記領域位置特定部は、前記特定した第1の画像データにおけるナンバープレートの領域に基づき、前記第1の画像データにおける車両のフロントガラスの領域をさらに特定し、
前記画像処理部は、前記第1の画像データに、前記特定したフロントガラスの領域の画像をコピーして貼り付けた画像データを作成し、前記作成した画像データにおけるナンバープレートの領域およびフロントガラスの領域を隠蔽する画像処理を行った画像データを作成し、前記開示領域情報を参照して、前記画像処理を行った画像データにおいて前記隠蔽の復元を許可する画像領域を示した復元用データを作成することを特徴とする請求項2に記載の監視システム。
The disclosure area information is information indicating an image area of a vehicle permitted to be disclosed for each level of the user of the monitoring system,
The area position specifying unit further specifies the area of the vehicle windshield in the first image data based on the area of the license plate in the specified first image data,
The image processing unit creates image data obtained by copying and pasting the image of the identified windshield area to the first image data, and the license plate area and the windshield area in the created image data. Create image data that has undergone image processing to conceal the area, and reference the disclosure area information to create restoration data that indicates the image area that is allowed to be restored in the image data that has undergone image processing The monitoring system according to claim 2, wherein:
JP2005356584A 2005-12-09 2005-12-09 Image processing apparatus and monitoring system Expired - Fee Related JP4410755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005356584A JP4410755B2 (en) 2005-12-09 2005-12-09 Image processing apparatus and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005356584A JP4410755B2 (en) 2005-12-09 2005-12-09 Image processing apparatus and monitoring system

Publications (2)

Publication Number Publication Date
JP2007164275A JP2007164275A (en) 2007-06-28
JP4410755B2 true JP4410755B2 (en) 2010-02-03

Family

ID=38247124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005356584A Expired - Fee Related JP4410755B2 (en) 2005-12-09 2005-12-09 Image processing apparatus and monitoring system

Country Status (1)

Country Link
JP (1) JP4410755B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8233677B2 (en) 2007-07-04 2012-07-31 Sanyo Electric Co., Ltd. Image sensing apparatus and image file data structure
JP2009033738A (en) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd Imaging apparatus, data structure of image file
JP5210994B2 (en) 2009-08-18 2013-06-12 東芝アルパイン・オートモティブテクノロジー株式会社 Image display device for vehicle
JP2011081657A (en) * 2009-10-08 2011-04-21 Hoya Corp Imaging system
JP2011151770A (en) * 2009-12-25 2011-08-04 Npo E-Jikei Network Promotion Institute Image encrypting system for output of encrypted images subjected to undefining treatment of degree according to authorized browsing person
JP5840804B2 (en) * 2009-12-25 2016-01-06 特定非営利活動法人e自警ネットワーク研究会 An image encryption system that outputs an encrypted image subjected to a blurring process having a strength corresponding to a viewing right holder.
JP5558238B2 (en) * 2010-07-14 2014-07-23 株式会社東芝 Vehicle interval detection system, vehicle interval detection method, and vehicle interval detection program
JP2017068491A (en) * 2015-09-29 2017-04-06 株式会社ブレインズ Video processing device
KR102240673B1 (en) * 2016-10-11 2021-04-15 한국전자통신연구원 Method and apparatus for processing personal information protection
JP6967801B2 (en) * 2017-05-19 2021-11-17 株式会社ユピテル Drive recorders, display devices and programs for drive recorders, etc.
JPWO2018225775A1 (en) * 2017-06-06 2020-04-09 アイテック株式会社 Image masking apparatus and image masking method
JP7095537B2 (en) * 2018-10-02 2022-07-05 トヨタ自動車株式会社 Image processing equipment, programs, information processing systems, and control methods
JP2020135406A (en) * 2019-02-20 2020-08-31 沖電気工業株式会社 Recording image data generation device, recording image data generation method and program
JP2022175938A (en) 2021-05-14 2022-11-25 株式会社デンソーテン Image processing system, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2007164275A (en) 2007-06-28

Similar Documents

Publication Publication Date Title
JP4410755B2 (en) Image processing apparatus and monitoring system
JP6910772B2 (en) Imaging device, control method and program of imaging device
JP4772115B2 (en) Method and system for detecting roads at night
JP6732522B2 (en) Image processing apparatus, image processing method and program
WO2011145429A1 (en) Object displaying apparatus, object displaying system, and object displaying method
JP2012503817A (en) Method and composition for blurring an image
CN101166234B (en) Device with imaging function
JP5349224B2 (en) Image processing apparatus and image processing method
WO2021090943A1 (en) Image processing device and image processing method
JP4701383B2 (en) Visual field defect evaluation method and visual field defect evaluation apparatus
JP2010193227A (en) Video processing system
JP3521859B2 (en) Vehicle peripheral image processing device and recording medium
JP2019004204A (en) Image processing device, image output device and computer program
JP6091720B2 (en) Image generating apparatus, image generating method, and computer program
JP2008257574A (en) Image processing method, image processing device, image processing system and computer program
KR20150002994A (en) Apparatus Reliably Providing Vehicle Around Image
DE102018133030A1 (en) VEHICLE REMOTE CONTROL DEVICE AND VEHICLE REMOTE CONTROL METHOD
JP2012222664A (en) On-vehicle camera system
JP2022167992A (en) Object tracking device, object tracking method, and program
JPH07195978A (en) Vehicle surroundings display unit
JP2004212658A (en) System and method for image display and image processor
KR101281687B1 (en) Method for monitoring region on bad visuality
JP7304922B2 (en) Perimeter monitoring system
CN111862576A (en) Method for tracking suspected target, corresponding vehicle, server, system and medium
JP2009282736A (en) Image processor, method and program for image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091113

R150 Certificate of patent or registration of utility model

Ref document number: 4410755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131120

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees