JP2017005699A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2017005699A
JP2017005699A JP2016111365A JP2016111365A JP2017005699A JP 2017005699 A JP2017005699 A JP 2017005699A JP 2016111365 A JP2016111365 A JP 2016111365A JP 2016111365 A JP2016111365 A JP 2016111365A JP 2017005699 A JP2017005699 A JP 2017005699A
Authority
JP
Japan
Prior art keywords
image
imaging device
color
same
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016111365A
Other languages
Japanese (ja)
Other versions
JP6789676B2 (en
Inventor
日出来 空門
Hideki Sorakado
日出来 空門
昌弘 松下
Masahiro Matsushita
昌弘 松下
椎山 弘隆
Hirotaka Shiiyama
弘隆 椎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2017005699A publication Critical patent/JP2017005699A/en
Application granted granted Critical
Publication of JP6789676B2 publication Critical patent/JP6789676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve such a problem that when there is no object reflecting commonly in a plurality of imaging devices, color matching accuracy of the images captured by the plurality of imaging devices may deteriorate.SOLUTION: An image processing device includes determination means for determining any one of first, second and third imaging device as a reference imaging device, from the images of the same object or the same kind of object captured by the first, second and third imaging device, and generation means for generating a second correction image where the color of the object image captured by the third imaging device is matched to the color of the object captured by the reference imaging device. Consequently, deterioration of color matching accuracy of the images captured by the plurality of imaging devices can be suppressed, even when there is no object reflecting commonly in the plurality of imaging devices.SELECTED DRAWING: Figure 2

Description

本発明は、複数の撮像装置によって撮像された複数の画像の色を合わせる技術に関するものである。   The present invention relates to a technique for matching colors of a plurality of images taken by a plurality of imaging devices.

従来から、複数のカメラ(撮像装置)から取得した撮像画像に映るオブジェクト(例えば人物など)の画像特徴量を検索するシステムが知られている(例えば、特許文献1)。複数の撮像画像の撮像した画像からオブジェクトの画像特徴量を検索するとき、環境光や照明などにより同一オブジェクトであるにも関わらず、色が一致しないことがあるので、色情報を用いた検索では、オブジェクトの検索精度を低下させていた。   2. Description of the Related Art Conventionally, a system that searches for image feature amounts of an object (for example, a person) shown in captured images acquired from a plurality of cameras (imaging devices) is known (for example, Patent Document 1). When searching for image features of an object from multiple captured images, colors may not match even though they are the same object due to ambient light, lighting, etc. , The search accuracy of the object was reduced.

複数のカメラで撮像した画像の色合わせを行うには、複数のカメラが同じオブジェクトを撮像していることが前提であるが、複数のカメラが離れて設置されている場合は、複数のカメラのすべてに同じオブジェクトが映っているとは限らない。即ち、複数のカメラが同じオブジェクトを撮像できない場合がある。   To perform color matching of images captured by multiple cameras, it is assumed that multiple cameras capture the same object, but if multiple cameras are installed remotely, The same object is not always reflected in all. That is, a plurality of cameras may not be able to capture the same object.

特許文献1では、複数のカメラで撮像した画像(動画のフレーム等)の色合わせを行う方法が開示されている。予め決めた順序で複数のカメラの内、隣り合う二つのカメラの撮像した同じオブジェクトの画像を用いて、色合わせを順に行い、その順序で色合わせを行うと、全てのカメラを一巡してカバーするようにその順序を定めている。このように、隣り合う二つのカメラの色合わせを繰り返すことで、複数カメラ間での色合わせを行っている。   Patent Document 1 discloses a method for performing color matching of images (such as moving image frames) captured by a plurality of cameras. Color matching is performed in order using images of the same object picked up by two adjacent cameras among a plurality of cameras in a predetermined order. When color matching is performed in that order, all the cameras are covered in a round. The order is determined as follows. In this way, color matching between a plurality of cameras is performed by repeating color matching between two adjacent cameras.

特開2009−49759JP 2009-49759 A 特許第4715527号Japanese Patent No. 4715527

特許文献1の方法では、隣り合う二つの撮像装置の色合わせを行い、色合わせの基準撮像装置を一定順序でシフトしていくことで、最初の基準撮像装置に対して、すべての撮像装置の色合わせを行う。しかしながら、色合わせを行う撮像装置が増えるごとに、画像の色合わせ量が累積し、色合わせの精度が劣化する恐れがある。   In the method of Patent Literature 1, two adjacent imaging devices are color-matched, and the color-matching reference imaging device is shifted in a fixed order, so that all the imaging devices are compared with the first reference imaging device. Perform color matching. However, as the number of image pickup apparatuses that perform color matching increases, the color matching amount of the image accumulates, and the color matching accuracy may deteriorate.

本発明は、このような問題点に鑑みなされたものである。複数の撮像装置が同じオブジェクトを撮像できない場合でも、複数の撮像装置の撮像した画像の色合わせ精度の劣化を抑制する画像処理装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of such problems. An object of the present invention is to provide an image processing device that suppresses deterioration in color matching accuracy of images captured by a plurality of imaging devices even when the plurality of imaging devices cannot capture the same object. Moreover, it aims at providing the method and program.

上述の課題を解決するための画像処理装置は、以下の構成を備える。すなわち、少なくとも1つの第一撮像装置と複数の第二撮像装置と少なくとも1つの第三撮像装置とのそれぞれが撮像した同一または同一種類のオブジェクトの撮像画像から、前記同一または同一種類のオブジェクトの画像領域を切りだして、前記同一または同一種類のオブジェクトの画像として入力する入力手段と、前記第一撮像装置と前記第二撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像から、第一オブジェクトの画像を特定し、前記第二撮像画像と前記第三撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像から、第二オブジェクトの画像を特定する特定手段と、前記第一撮像装置と前記第二撮像装置と前記第三撮像装置の何れか一つを基準撮像装置として決定する決定手段と、前記第一撮像装置又は前記第二撮像装置の何れか一つが前記基準撮像装置として決定された場合、前記第一オブジェクトの画像の色情報に基づいて、前記基準撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色に、前記第一撮像装置と前記第二撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像の色を合わせた第一補正画像を生成し、前記第一オブジェクトの画像の色情報と前記第二オブジェクトの画像の色情報との少なくとも1つに基づいて、前記基準撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色に、前記第三撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色を合わせた第二補正画像を生成する生成手段と、を備えることを特徴とする。   An image processing apparatus for solving the above-described problems has the following configuration. That is, from the captured images of the same or the same type of object captured by each of the at least one first imaging device, the plurality of second imaging devices, and the at least one third imaging device, the image of the same or the same type of object. From the image of the same or the same type of object imaged by the input means for cutting out the area and inputting the image as the image of the same or the same type of object, and each of the first imaging device and the second imaging device, Identifying means for identifying an image of a first object, identifying an image of a second object from images of the same or the same type of object captured by each of the second captured image and the third image capturing device; Determination to determine any one of the first imaging device, the second imaging device, and the third imaging device as a reference imaging device And when any one of the first imaging device or the second imaging device is determined as the reference imaging device, the image captured by the reference imaging device is based on color information of the image of the first object. A first corrected image is generated by matching the color of the image of the same or same type of object with the color of the image of the same or same type of object captured by each of the first imaging device and the second imaging device. , Based on at least one of the color information of the image of the first object and the color information of the image of the second object, the color of the image of the same or the same type of object captured by the reference imaging device, Generating means for generating a second corrected image in which the colors of the images of the same or same type of object imaged by the third imaging device are combined. .

複数の撮像装置が同じオブジェクトを撮像できない場合でも、複数の撮像装置の撮像した画像の色合わせ精度の劣化を抑制することができる。   Even when a plurality of imaging devices cannot capture the same object, it is possible to suppress deterioration in color matching accuracy of images captured by the plurality of imaging devices.

第一実施形態の画像処理装置のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the image processing apparatus of 1st embodiment. 第一実施形態の画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus of 1st embodiment. 第一実施形態で使用する画像特徴量の例を示す図である。It is a figure which shows the example of the image feature-value used by 1st embodiment. (a)第一実施形態における色合わせ処理を説明するフローチャートである。(b)色補正パラメータ算出処理を説明するフローチャートである。(A) It is a flowchart explaining the color matching process in 1st embodiment. (B) It is a flowchart explaining a color correction parameter calculation process. (a)第一実施形態における色補正パラメータ生成用オブジェクトテーブルの例を示す図である。(b)第一実施形態において各撮像装置がどの人物を撮像したかを示す図である。(c)第一実施形態において各撮像装置が基準撮像装置に色合わせする状態の一例を示す図である。(A) It is a figure which shows the example of the object table for color correction parameter generation in 1st embodiment. (B) It is a figure which shows which person each imaging device imaged in 1st embodiment. (C) It is a figure which shows an example of the state in which each imaging device color-matches with a reference | standard imaging device in 1st embodiment. 第二実施形態の画像処理装置のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the image processing apparatus of 2nd embodiment. 第二実施形態における色補正パラメータ算出処理を説明するフローチャートである。It is a flowchart explaining the color correction parameter calculation process in 2nd embodiment. (a)第二実施形態における色補正パラメータ生成用オブジェクトテーブルの例を示す図である。(b)第二実施形態において各撮像装置がどの人物を撮像したかを示す図である。(c)第二実施形態において各撮像装置が基準撮像装置に色合わせする状態の一例を示す図である。(d)第二実施形態において各撮像装置が基準撮像装置に色合わせする状態の別例を示す図である。(A) It is a figure which shows the example of the object table for color correction parameter generation in 2nd embodiment. (B) It is a figure which shows which person each imaging device imaged in 2nd embodiment. (C) It is a figure which shows an example of the state in which each imaging device color-matches with a reference | standard imaging device in 2nd embodiment. (D) It is a figure which shows another example of the state in which each imaging device color-matches with a reference | standard imaging device in 2nd embodiment. 第二実施形態における基準撮像装置の再選択処理を説明するフローチャートである。It is a flowchart explaining the re-selection process of the reference | standard imaging device in 2nd embodiment. (a)第三実施形態において各撮像装置が基準撮像装置に色合わせする状態の一例を示す図である。(b)色合わせ回数行列と色補正パラメータの適用回数の例を示す図である。(A) It is a figure which shows an example of the state in which each imaging device color-matches with a reference | standard imaging device in 3rd embodiment. (B) It is a figure which shows the example of the frequency | count of color matching frequency, and the frequency | count of application of a color correction parameter.

<第1実施形態>
本実施形態の画像処理装置を構成するコンピュータ装置の構成について、図1のブロック図を参照して説明する。なお、画像処理装置は単一のコンピュータ装置で実現してもよいし、必要に応じて複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続されている。コンピュータ装置は、パーソナルコンピュータ(PC)やワークステーション(WS)等の情報処理装置によって実現することができる。
<First Embodiment>
A configuration of a computer device constituting the image processing apparatus of the present embodiment will be described with reference to the block diagram of FIG. Note that the image processing apparatus may be realized by a single computer apparatus, or may be realized by distributing each function to a plurality of computer apparatuses as necessary. When configured by a plurality of computer devices, they are connected by a local area network (LAN) or the like so that they can communicate with each other. The computer device can be realized by an information processing device such as a personal computer (PC) or a workstation (WS).

図1において、CPU101はコンピュータ装置100全体を制御するCentral Processing Unitである。ROM102は変更を必要としないプログラムやパラメータを格納するRead Only Memoryである。RAM103は外部装置などから供給されるプログラムやデータを一時記憶するRandom Access Memoryである。外部記憶装置104はコンピュータ装置100に固定して設置されたハードディスクやメモリカードなどの記憶装置である。なお、外部記憶装置104は、コンピュータ装置100から着脱可能なフレキシブルディスク(FD)やCompact Disk(CD)等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含んでもよい。入力デバイスインターフェイス105はユーザの操作を受け、データを入力するポインティングデバイスやキーボードなどの入力デバイス109とのインターフェイスである。出力デバイスインターフェイス106はコンピュータ装置100の保持するデータや供給されたデータを表示するためのモニタ110とのインターフェイスである。通信インターフェイス107はインターネットなどのネットワーク回線111に接続し、外部とデータ入出力をするための通信インターフェイスである。ネットワークカメラ112は、複数の監視カメラなどの撮像装置であり、ネットワーク回線111を介してコンピュータ装置に接続されている。システムバス108は各ユニットを通信可能に接続する伝送路である。   In FIG. 1, a CPU 101 is a central processing unit that controls the entire computer apparatus 100. The ROM 102 is a Read Only Memory that stores programs and parameters that do not need to be changed. A RAM 103 is a Random Access Memory that temporarily stores programs and data supplied from an external device. The external storage device 104 is a storage device such as a hard disk or a memory card that is fixedly installed in the computer device 100. The external storage device 104 may include an optical disk such as a flexible disk (FD) and a Compact Disk (CD) that can be detached from the computer apparatus 100, a magnetic or optical card, an IC card, a memory card, and the like. The input device interface 105 is an interface with an input device 109 such as a pointing device or a keyboard that receives data from a user and inputs data. The output device interface 106 is an interface with the monitor 110 for displaying data held by the computer apparatus 100 and supplied data. The communication interface 107 is a communication interface that is connected to a network line 111 such as the Internet and performs data input / output with the outside. The network camera 112 is an imaging device such as a plurality of surveillance cameras, and is connected to a computer device via a network line 111. The system bus 108 is a transmission path that connects the units so that they can communicate with each other.

後述する各動作は、ROM102等のコンピュータ読み取り可能な記憶媒体に格納されたプログラムをCPU101が実行することにより実行される。   Each operation described later is executed by the CPU 101 executing a program stored in a computer-readable storage medium such as the ROM 102.

[画像処理装置]
本実施形態の画像処理装置は、複数のカメラなどの撮像装置から取得した画像データからオブジェクトの画像領域を切りだしてオブジェクトの画像として蓄積し、蓄積したオブジェクトの画像を用いて処理する装置である。本実施形態の画像処理装置を用いて画像を照合するときは、各撮像装置の撮像した画像の色を、基準となる基準撮像装置(基準カメラ)の撮像した画像の色に合わせて補正画像を生成してから画像を照合する。
[Image processing device]
The image processing apparatus according to the present embodiment is an apparatus that cuts out an image area of an object from image data acquired from an imaging apparatus such as a plurality of cameras, accumulates the image area as an object image, and performs processing using the accumulated object image. . When the images are collated using the image processing apparatus of the present embodiment, the corrected image is matched with the color of the image captured by each imaging apparatus in accordance with the color of the image captured by the reference imaging apparatus (reference camera) serving as a reference. The image is verified after generation.

具体的には、複数の撮像装置の撮像したオブジェクトの画像から、色合わせに適したオブジェクト(色補正パラメータ生成用オブジェクト)の画像を特定する。この色補正パラメータ生成用オブジェクトの画像を用いて、各撮像装置の撮像した画像の色を基準となる撮像装置(基準カメラとも言う)の撮像した画像の色に合わせる色補正パラメータを推定する。照合の際には、各撮像装置の撮像した画像と、色補正パラメータとを用いて補正画像を生成してから照合を行う。   Specifically, an image of an object (color correction parameter generation object) suitable for color matching is specified from the images of objects captured by a plurality of imaging devices. Using the color correction parameter generation object image, a color correction parameter that matches the color of the image captured by each image capturing device with the color of the image captured by the reference image capturing device (also referred to as a reference camera) is estimated. At the time of verification, verification is performed after generating a corrected image using the image captured by each imaging device and the color correction parameter.

なお、色補正パラメータの生成に適したオブジェクト(色補正パラメータ生成用オブジェクト)とは、オブジェクトの画像の類似度が所定以上であるなどの条件を満たすものである。そのため、実際には複数の撮像装置同じオブジェクトが映っていても、所定の条件を満たさなければ、色補正パラメータの生成に適したオブジェクトとして採用されないこともある。このように適したオブジェクトを選んで色合わせをすることで、誤った色合わせが起きる確率を低減させることができる。   An object suitable for generating a color correction parameter (color correction parameter generation object) satisfies a condition such that the similarity of the image of the object is equal to or higher than a predetermined value. For this reason, even if the same object is actually shown in a plurality of imaging devices, it may not be adopted as an object suitable for generating a color correction parameter unless a predetermined condition is satisfied. By selecting a suitable object and performing color matching in this way, the probability of erroneous color matching can be reduced.

また、基準撮像装置の撮像した画像に色を合わせる色補正パラメータが得られないとき、基準撮像装置の撮像した画像に色を合わせることができる別の撮像装置を特定する。この別の撮像装置の撮像した画像に色を合わせる色補正パラメータを得る。そして、別の撮像装置の撮像した画像へ色を合わせてから、さらに基準撮像装置の撮像した画像へと色を合わせることで、色合わせを実現する。   Further, when a color correction parameter for matching a color with an image captured by the reference imaging device cannot be obtained, another imaging device that can match the color with the image captured by the reference imaging device is specified. A color correction parameter for matching a color with an image captured by the other image capturing apparatus is obtained. Then, color matching is realized by matching a color to an image captured by another imaging device and then matching a color to an image captured by the reference imaging device.

本実施形態では、オブジェクトとして人物を想定するが、人物に限定する必要はなく、色合わせに適するものであればよい。   In this embodiment, a person is assumed as an object. However, the object is not limited to a person, and any object suitable for color matching may be used.

なお、以下の説明に置いて、撮像装置の色合わせ状態として、基準撮像装置・色合わせ済み撮像装置(色合わせ済みカメラ)・未処理撮像装置(未処理カメラ)という言葉を用いる。「基準撮像装置」は色合わせの基準となる撮像装置であり、この撮像装置の撮像した画像の色に他の撮像装置の撮像した画像の色を合わせることになる。複数ある撮像装置のうち基準撮像装置は一つだけ存在する。「色合わせ済み撮像装置」は、基準撮像装置に合わせて色補正パラメータを求められる撮像装置である。基準撮像装置も色合わせ済み撮像装置の一つとして考える。「未処理撮像装置」は、その時点で、基準撮像装置に合わせて色合わせできない状態にある撮像装置である。   In the following description, as the color matching state of the imaging device, the terms reference imaging device, color-matched imaging device (color-matched camera), and unprocessed imaging device (unprocessed camera) are used. The “reference imaging device” is an imaging device serving as a color matching reference, and the color of an image captured by another imaging device is matched with the color of the image captured by the imaging device. There is only one reference imaging device among a plurality of imaging devices. The “color-matched imaging device” is an imaging device that can obtain color correction parameters in accordance with the reference imaging device. The reference imaging device is also considered as one of the color-matched imaging devices. An “unprocessed imaging device” is an imaging device that is in a state where color matching cannot be performed in accordance with the reference imaging device at that time.

以下、本実施形態の画像処理装置の機能構成について図2を用いて説明する。
入力部201は、オブジェクトの画像の入力を受け付ける。具体的には、ネットワークカメラ112から取得した撮像から切りだされたオブジェクトの画像が入力される。あるいは、ネットワークカメラ112から取得した映像においてオブジェクトが出現するフレーム番号とオブジェクトの画像領域の座標情報が入力される。
Hereinafter, the functional configuration of the image processing apparatus of the present embodiment will be described with reference to FIG.
The input unit 201 receives input of an object image. Specifically, an image of an object cut out from the image acquired from the network camera 112 is input. Alternatively, the frame number in which the object appears in the video acquired from the network camera 112 and the coordinate information of the image area of the object are input.

また、入力部201は、撮像画像の入力を受付けて、撮像画像からのオブジェクトの切りだしは、画像処理装置の切りだし部(非図示)で行ってもよい。あるいは、ネットワークカメラ112内で予めオブジェクトの画像を切りだして、オブジェクトの画像のみを画像処理装置に送信するように構成してもよい。   Further, the input unit 201 may accept an input of a captured image and cut out an object from the captured image may be performed by a cut-out unit (not shown) of the image processing apparatus. Alternatively, the image of the object may be cut out in advance in the network camera 112 and only the object image may be transmitted to the image processing apparatus.

記憶部202は、入力部201から入力されたオブジェクトの画像を記憶する。具体的には、外部記憶装置104にオブジェクトの画像データを記憶する。加えて、オブジェクトのメタデータとして、オブジェクトのIDや撮像時刻や撮像カメラを関連付けて記憶しておく。なお、オブジェクトの画像データではなく、ネットワークカメラ112から得た映像データを記憶しておき、その該当オブジェクトが出現するフレーム番号とオブジェクトの画像領域の座標情報を記憶するようにしてもよい。   The storage unit 202 stores the image of the object input from the input unit 201. Specifically, the image data of the object is stored in the external storage device 104. In addition, the object ID, the imaging time, and the imaging camera are stored in association with each other as object metadata. Note that the video data obtained from the network camera 112 may be stored instead of the image data of the object, and the frame number where the object appears and the coordinate information of the image area of the object may be stored.

照合条件入力部203は、照合に用いるオブジェクトの画像を指定する。具体的には、記憶部202に記憶されたオブジェクトの画像をモニタ110に表示して、入力デバイス109を介して照合するオブジェクトの画像を指定する。あるいは、モニタ110に撮像時刻や画像特徴の属性値などを指定する画面を表示して、入力デバイス109で指定された条件で、記憶部202に記憶されたオブジェクトの画像を絞り込んでモニタ110に表示するようにしてもよい。あるいは、外部記憶装置104に記憶された画像データを指定して、比較元とし、記憶部202に記憶されたオブジェクトの画像データを比較先としてもよい。本実施形態の照合に用いるオブジェクト画像の指定方法はこれらに限定されるものではない。   The collation condition input unit 203 designates an object image used for collation. Specifically, the object image stored in the storage unit 202 is displayed on the monitor 110, and the object image to be collated is designated via the input device 109. Alternatively, a screen for specifying an imaging time, an image feature attribute value, or the like is displayed on the monitor 110, and the object images stored in the storage unit 202 are narrowed down and displayed on the monitor 110 under the conditions specified by the input device 109. You may make it do. Alternatively, the image data stored in the external storage device 104 may be designated as a comparison source, and the object image data stored in the storage unit 202 may be used as a comparison destination. The method for specifying the object image used for collation in the present embodiment is not limited to these.

照合するオブジェクトの画像を指定する際に、照合に用いるオブジェクトの画像は比較元と比較先の2つの画像をそれぞれ1つずつ指定してもよい。あるいは、比較元の画像1つに対して、比較先の画像を複数選択してもよい。あるいは、比較元の画像を1つだけ選択させて、比較先の画像として記憶部202に記憶されているオブジェクトの画像全てを自動的に選択するようにしてもよい。本実施形態における照合に用いるオブジェクトの画像の指定方法はこれらに限定されるものではない。   When designating the object image to be collated, the object image to be used for collation may be designated as the comparison source image and the comparison target image one by one. Alternatively, a plurality of comparison destination images may be selected for one comparison source image. Alternatively, only one comparison source image may be selected, and all the images of the objects stored in the storage unit 202 as the comparison destination images may be automatically selected. The method for specifying the object image used for collation in the present embodiment is not limited to these.

照合結果表示部204は、照合条件入力部203で指定したオブジェクトの画像同士を照合した結果を表示する。照合処理の詳細は後述するが、照合処理によって比較元と比較先とのオブジェクト画像の間には似ている程度を表す類似度が決定される。この類似度を用いて照合結果を表示する。例えば、比較元と比較先とのオブジェクトの画像が1つずつであれば、そのオブジェクトの画像間の類似度をモニタ110に表示する。あるいは、比較元のオブジェクト画像が1つで、比較先のオブジェクト画像が複数であれば、比較先のオブジェクト画像を類似度順にモニタ110に表示する。あるいは、所定以上の類似度を有する比較先のオブジェクト画像を、カメラごとに分類して撮像時刻順に表示するようにしてもよい。なお、本実施形態の照合結果の表示方法はこれらに限定されるものではない。   The collation result display unit 204 displays a result of collating the images of the objects specified by the collation condition input unit 203. Although the details of the collation process will be described later, the degree of similarity representing the degree of similarity between the object images of the comparison source and the comparison destination is determined by the collation process. The matching result is displayed using this similarity. For example, if there is one image of the object of the comparison source and the comparison destination, the similarity between the images of the object is displayed on the monitor 110. Alternatively, if there is one comparison source object image and a plurality of comparison destination object images, the comparison destination object images are displayed on the monitor 110 in order of similarity. Alternatively, comparison target object images having a degree of similarity equal to or higher than a predetermined level may be classified for each camera and displayed in order of imaging time. In addition, the display method of the collation result of this embodiment is not limited to these.

照合部205は、比較元のオブジェクト画像と比較先のオブジェクト画像の照合を行う。具体的には、照合部205は、比較元のオブジェクトの画像と、比較先のオブジェクトの画像のそれぞれの画像特徴量を比較することで照合する。本実施形態では、オブジェクトに人物を想定しているため、オブジェクトの特徴量としては図3に示すような人物の画像特徴量を用いる。なお、図3に示す画像特徴量は一例であり、本実施形態はこれらの画像特徴量に限定されるものではない。   The collation unit 205 collates the comparison source object image with the comparison destination object image. Specifically, the collating unit 205 performs collation by comparing the image feature amounts of the comparison source object image and the comparison target object image. In the present embodiment, since a person is assumed as an object, the image feature quantity of a person as shown in FIG. 3 is used as the feature quantity of the object. Note that the image feature amounts shown in FIG. 3 are merely examples, and the present embodiment is not limited to these image feature amounts.

これらの画像特徴量の算出方法は次の通りである。色が大きく変化しても、それほど大きく変化しない画像特徴量を、色への依存度の低い特徴量として、SIFT(Scale Invariant Feature Transform)を用いる。SIFTは輝度画像から得られるため、色への依存度が低い。図3の顔器官点のSIFT特徴量は、人物の顔領域を検出して、顔領域内の目・口などの器官点を求め、各器官点に対応するSIFT特徴量を求めることによって求められる。この特徴量を用いた照合処理では、照合部205が、比較元と比較先とのそれぞれの人物の画像において、顔領域内の各器官点に対応するSIFT特徴量の類似度の和を求める。あるいは、照合部205は、所定以上の類似度を有する器官点の数を用いて類似度を決定してもよい。   The calculation method of these image feature amounts is as follows. SIFT (Scale Invariant Feature Transform) is used as an image feature quantity that does not change so much even if the color changes greatly, as a feature quantity that is less dependent on color. Since SIFT is obtained from a luminance image, the dependence on color is low. The SIFT feature value of the facial organ point in FIG. 3 is obtained by detecting the face region of a person, obtaining organ points such as eyes and mouth in the face region, and obtaining SIFT feature values corresponding to each organ point. . In the collation process using this feature amount, the collation unit 205 obtains the sum of the similarity degrees of SIFT feature amounts corresponding to each organ point in the face region in the images of the persons of the comparison source and the comparison destination. Alternatively, the collation unit 205 may determine the similarity using the number of organ points having a predetermined similarity or higher.

照合部205では、肌の色又は髪の色は、顔検出で得た顔領域から、対応する部分領域を予め定めておいて、その部分領域の色ヒストグラム等を求めることによって求められる。   The collation unit 205 obtains the skin color or the hair color by determining a corresponding partial area in advance from the face area obtained by face detection and obtaining a color histogram of the partial area.

また、照合部205では、服の色は、顔検出で得た顔領域から、その下方が胴体に対応する領域であると予め定めておいて、その領域の色ヒストグラム等を求めることによって求められる。   Further, in the collation unit 205, the color of clothes is obtained by determining in advance from the face area obtained by face detection that the area below corresponds to the body and obtaining a color histogram of the area. .

また、照合部205では、人物の各種属性である年齢や性別等は、機械学習等の技術を用いて、顔領域の画像を検出した際に、各種属性が推定できるような分類器を作成しておき、分類器を用いて各種属性を得る。また、属性の尤度が得られるときに、属性値ごとにその尤度を並べた属性ベクトルを作成して、その属性ベクトル間の類似度で属性の類似度を求めるようにする。   In addition, the collation unit 205 creates a classifier that can estimate various attributes of a person, such as age and gender, when detecting a facial region image using a technique such as machine learning. Various attributes are obtained using a classifier. Further, when the likelihood of the attribute is obtained, an attribute vector in which the likelihood is arranged for each attribute value is created, and the similarity of the attribute is obtained by the similarity between the attribute vectors.

SIFT特徴量、色ヒストグラムと属性ベクトルなどの類似度は各々個別に求まるため、重みを付けて和をとることで、比較元のオブジェクトの画像と比較先のオブジェクトの画像との類似度を求める。   Since similarities such as SIFT feature values, color histograms, and attribute vectors are obtained individually, the similarity between the image of the comparison source object and the image of the comparison destination object is obtained by weighting and summing.

照合部205は、撮像装置の撮像画像の色合わせに用いるオブジェクトの画像を検索して特定するときは、色への依存度が低い画像特徴量を用いることが望ましい。そのため、本実施形態では、図3に示す輝度画像から抽出した画像特徴量と人物の属性を主に用いる。これによって、複数の撮像装置が撮像した同じオブジェクトの画像の色が異なるときも、複数の撮像装置の撮像した同じオブジェクトを、同一と判断できる確率が高くなる。   When the collation unit 205 searches for and specifies an object image used for color matching of the captured image of the image capturing apparatus, it is desirable to use an image feature amount that is less dependent on color. For this reason, in the present embodiment, image feature amounts extracted from the luminance image shown in FIG. 3 and person attributes are mainly used. Accordingly, even when the colors of the images of the same object captured by the plurality of imaging devices are different, the probability that the same object captured by the plurality of imaging devices can be determined to be the same is increased.

一方で、色合わせが行われた後は、全ての画像特徴量を用いて照合を行うことが望ましい。そのため、本実施形態では、図3に示す全ての画像特徴量を用いる。これによって、色合わせしてから色に依存する画像特徴量を用いることで、色合わせしない場合と比べて、オブジェクトの照合精度の劣化を防ぐことができる。   On the other hand, after color matching is performed, it is desirable to perform collation using all image feature amounts. Therefore, in this embodiment, all image feature amounts shown in FIG. 3 are used. Thus, by using the image feature quantity depending on the color after color matching, it is possible to prevent deterioration of the collation accuracy of the object compared to the case where color matching is not performed.

なお、照合部205で用いる画像特徴量は、予めオブジェクトごとに算出しておき、記憶部202に記憶しておいてもよい。例えば、色合わせ前の画像特徴量は、入力部201にオブジェクトの画像が入力されたときに算出して記憶しておく。一方で、色合わせ後の特徴量は、色合わせ後の画像特徴量を算出したときに、記憶部202に記憶しておく。   Note that the image feature amount used in the collation unit 205 may be calculated in advance for each object and stored in the storage unit 202. For example, the image feature amount before color matching is calculated and stored when an object image is input to the input unit 201. On the other hand, the feature quantity after color matching is stored in the storage unit 202 when the image feature quantity after color matching is calculated.

クエリリスト作成部206は、色合わせに用いるオブジェクトの画像を特定するためのクエリリストを作成する。具体的には、記憶部202に記憶されているオブジェクトの画像からいくつかのオブジェクトの画像をクエリとして選択して、優先度を付けて、クエリの候補であるクエリリストを作成する。例えば、蓄積時刻の新しい順等で優先度を付ける。なお、クエリは比較元のオブジェクトの画像とも記載するので、クエリリストは比較元のオブジェクトの画像候補リストとも記載する。   The query list creation unit 206 creates a query list for specifying an image of an object used for color matching. Specifically, several object images are selected as queries from the object images stored in the storage unit 202, priorities are assigned, and a query list that is a query candidate is created. For example, priorities are assigned in the order of new accumulation time. Since the query is also described as an image of the comparison source object, the query list is also described as an image candidate list of the comparison source object.

あるいは、基準撮像装置(基準カメラ)が決まっているか、既に基準カメラに対しての色補正パラメータが求まった撮像装置(色合わせ済みカメラ)があるとき、次のようにクエリを選択してもよい。   Alternatively, when a reference imaging device (reference camera) is determined or there is an imaging device (color-matched camera) for which a color correction parameter for the reference camera has already been obtained, a query may be selected as follows: .

例えば、色補正パラメータが求まっていないカメラ(未処理カメラ)に映るオブジェクトを優先的に選択してもよい。これによって、必ず未処理カメラの撮像したオブジェクトが検索され、色補正パラメータ生成用オブジェクトを効率よく決定することができる。   For example, an object shown in a camera (unprocessed camera) for which a color correction parameter is not obtained may be preferentially selected. As a result, the object captured by the unprocessed camera is always searched, and the color correction parameter generation object can be determined efficiently.

あるいは、未処理カメラ内の映像を解析して、オブジェクトの移動方向が色合わせ済みカメラに向かうとき、そのオブジェクトを優先的に選択してもよい。例えば、カメラのフレームのどの方向に移動すると、別のカメラがあるかというカメラの配置関係を記憶しておく。そして、カメラ内の人物の移動ベクトルを解析して、カメラからフレームアウトするときの座標や方向を得て、これと配置関係を比較して、人物がいずれのカメラの方向に移動したかを求める。このとき、未処理カメラ内の人物が、色合わせ済みカメラの方向に向かっているとき、このオブジェクトの画像をクエリとして選択する。これによって、未処理カメラに映りかつ色合わせ済みカメラにも映っている可能性の高いオブジェクトの画像をクエリとして選択できるため、色補正パラメータ生成用オブジェクトを効率よく特定することができる。   Alternatively, the video in the unprocessed camera is analyzed, and when the moving direction of the object is directed to the color-matched camera, the object may be preferentially selected. For example, the camera arrangement relationship is stored in which direction of the camera frame is moved and another camera is present. Then, the movement vector of the person in the camera is analyzed to obtain the coordinates and direction when moving out of the frame from the camera, and the arrangement relation is compared with this to determine in which camera direction the person has moved. . At this time, when the person in the unprocessed camera is facing the direction of the color-matched camera, the image of this object is selected as a query. As a result, an image of an object that is likely to be reflected in an unprocessed camera and also in a color-matched camera can be selected as a query, so that a color correction parameter generation object can be identified efficiently.

特定部207は、カメラ間の色合わせに用いるオブジェクトの画像を決定する。具体的には、クエリリスト作成部206で作成されたクエリリストを用いて、各カメラの映るクエリと同一と判断できるオブジェクトの画像を、記憶部202から特定する。そして、カメラごとに色補正パラメータの生成に適したオブジェクト(色補正パラメータ生成用オブジェクト)の画像を一つ特定する。例えば、クエリとの類似度が所定以上であるとき、色補正に適していると判断して、色補正パラメータ生成用オブジェクトの画像として特定する。   The specifying unit 207 determines an image of an object used for color matching between cameras. Specifically, using the query list created by the query list creation unit 206, an image of an object that can be determined to be the same as the query reflected by each camera is identified from the storage unit 202. Then, one image of an object (color correction parameter generation object) suitable for generating a color correction parameter is specified for each camera. For example, when the similarity with the query is greater than or equal to a predetermined value, it is determined that it is suitable for color correction, and is specified as an image of a color correction parameter generation object.

なお、本実施形態における色補正パラメータ生成用オブジェクトの画像を特定する方法はこれらに限定されるものではない。   Note that the method for specifying the image of the color correction parameter generating object in the present embodiment is not limited to these.

色補正パラメータ算出部208は、色合わせに用いる情報である色補正パラメータを算出する。具体的には、2つのオブジェクトの画像を用いて、オブジェクトの画像同士の色が一致するように色補正パラメータを求める。色補正パラメータを求める際に、例えば、人物であればその顔領域の肌領域の色情報、あるいは、服領域の色情報を用いる。なお、色補正パラメータの算出に用いるオブジェクトの領域はこれらに限定されるものではない。   The color correction parameter calculation unit 208 calculates a color correction parameter that is information used for color matching. Specifically, using the images of two objects, color correction parameters are obtained so that the colors of the object images match. When obtaining the color correction parameter, for example, in the case of a person, the color information of the skin area of the face area or the color information of the clothes area is used. Note that the area of the object used for calculating the color correction parameter is not limited to these.

補正画像生成部209は、色補正パラメータを用いて色を補正した補正画像を生成する。   The corrected image generation unit 209 generates a corrected image in which the color is corrected using the color correction parameter.

色補正パラメータの算出とそれを用いた補正画像の生成には、次の方法がある。例えば、特許文献1に示されるように、オブジェクト内の複数の対応点を求めて、その対応点同士の色の異なりから、ルックアップテーブルを構成して、色補正パラメータとしてもよい。補正画像を生成する際には、入力となる画像データのピクセルごとにルックアップテーブルを参照して、異なる色に置き変えていくことで補正画像が生成される。   There are the following methods for calculating the color correction parameter and generating a corrected image using the parameter. For example, as shown in Patent Document 1, a plurality of corresponding points in an object may be obtained, and a look-up table may be configured based on the color difference between the corresponding points to be used as a color correction parameter. When generating a corrected image, the corrected image is generated by referring to the lookup table for each pixel of the input image data and replacing it with a different color.

あるいは、特許文献2に示されるように、色補正行列を求めて、色補正パラメータとしてもよい。補正画像を生成する際には、入力となる画像データのピクセルごとに色補正行列をかけることで、異なる色に置き変えていく。なお、本実施形態における色補正パラメータの算出方法はこれらに限定されるものではない。   Alternatively, as shown in Patent Document 2, a color correction matrix may be obtained and used as a color correction parameter. When generating a corrected image, a color correction matrix is applied to each pixel of the input image data to replace it with a different color. Note that the color correction parameter calculation method in the present embodiment is not limited to these.

なお、以下の説明において、色補正パラメータを複数回適用することがある。このとき、予め色補正パラメータを結合した一つの色補正パラメータを作っておいてもよい。例えば、ルックアップテーブルであれば、2つのルックアップテーブルの入力と出力をつなげて参照することで結合できる。また、色補正行列であれば、予め補正行列同士をかけておくことなどで、結合できる。   In the following description, the color correction parameter may be applied multiple times. At this time, one color correction parameter obtained by combining the color correction parameters may be created in advance. For example, in the case of a lookup table, it can be combined by connecting and referring to the input and output of two lookup tables. In addition, color correction matrices can be combined by multiplying correction matrices in advance.

また、以下の説明において、色補正パラメータ同士の類似度を求めることがあるが、ルックアップテーブルであれば、同じピクセル値を与えたときの差分値の和等から求めることができる。また、色補正行列は行列の要素同士の差分値等から求めることができる。   In the following description, the degree of similarity between color correction parameters may be obtained, but if it is a lookup table, it can be obtained from the sum of difference values when the same pixel value is given. Further, the color correction matrix can be obtained from the difference value between the elements of the matrix.

なお、本実施形態における色補正パラメータの結合および類似度演算などはこれらに限定されるものではない。   The combination of color correction parameters and the similarity calculation in the present embodiment are not limited to these.

基準撮像装置決定部211は、色合わせの基準となる基準撮像装置(基準カメラ)を決定する。例えば、外部からの指定に従って基準カメラを決定してもよい。具体的には、モニタ110にネットワークカメラ112の一覧を表示して、入力デバイス109を介して選択されたネットワークカメラ112を基準カメラとする。例えば、施設の出入り口を監視するネットワークカメラを基準カメラとして指定することが考えられる。施設内の他のカメラに映る人物は、出入り口を通っているため、出入り口のカメラは多くの他のカメラと同じオブジェクトを共通に映している可能性が高い。こうした、他のカメラと同じオブジェクトを映す可能性が高いカメラを基準カメラとして選択すると、基準カメラに合わせた色補正パラメータが求まりやすくなる。その結果、基準カメラに合わせるまでに適用する色補正の回数が減り、色補正の誤差が小さくなる。   The reference imaging device determination unit 211 determines a reference imaging device (reference camera) that serves as a reference for color matching. For example, the reference camera may be determined according to designation from the outside. Specifically, a list of network cameras 112 is displayed on the monitor 110, and the network camera 112 selected via the input device 109 is set as a reference camera. For example, it may be possible to designate a network camera that monitors the entrance of a facility as a reference camera. Since the person reflected in the other cameras in the facility passes through the doorway, it is highly likely that the camera at the doorway reflects the same object as many other cameras in common. When such a camera having a high possibility of projecting the same object as that of another camera is selected as the reference camera, color correction parameters suitable for the reference camera can be easily obtained. As a result, the number of color corrections to be applied before matching with the reference camera is reduced, and the color correction error is reduced.

あるいは、入力に基準カメラが与えられないときは、いずれか一つのカメラを基準カメラに選択する。あるいは、カメラごとに人物のカウントを行っておき、最も人物が多く現れるカメラを基準カメラに決定する等してもよい。本実施形態における基準カメラの決定方法はこれらに限定されるものではない。   Alternatively, when no reference camera is given as input, any one of the cameras is selected as the reference camera. Alternatively, the number of persons may be counted for each camera, and the camera in which the most people appear may be determined as the reference camera. The reference camera determination method in the present embodiment is not limited to these.

色補正パラメータ算出208は、基準カメラに色合わせできるカメラが所定に至るまで、色補正パラメータを求める制御を行う。   The color correction parameter calculation 208 performs control for obtaining a color correction parameter until a predetermined number of cameras capable of color matching with the reference camera are reached.

具体的には、基準カメラに対する色合わせを行うための色補正パラメータを求めるように制御する。あるいは、基準カメラに色合わせできる別のカメラに対する色合わせを行うための色補正パラメータを求めるように制御する。これによって、別のカメラを経由して基準カメラに色合わせを行えるようにする。   Specifically, control is performed so as to obtain a color correction parameter for performing color matching with respect to the reference camera. Alternatively, control is performed so as to obtain a color correction parameter for performing color matching for another camera that can be color-matched to the reference camera. This enables color matching to the reference camera via another camera.

本実施形態では、可能な限り全てのカメラを基準カメラに色合わせできるように色補正パラメータを求める。詳細な処理の内容については、後述するフローチャート図4(b)において述べる色補正パラメータの算出処理において述べる。   In the present embodiment, the color correction parameter is obtained so that all cameras can be matched with the reference camera as much as possible. The details of the processing will be described in the color correction parameter calculation processing described in the flowchart FIG.

本実施形態では、可能な限り全てのカメラを基準カメラに色合わせする。しかし、別のカメラを経由して色補正パラメータを求める場合において、別のカメラを経由する回数が一定以上になるときは、カメラ間に色補正パラメータを求めないように制御してもよい。これによって、色合わせできるカメラは減るが、色補正を繰り返すことによる補正量の累積を制限し、色合わせの誤差が低減する効果が得られる。   In this embodiment, all cameras are color-matched to the reference camera as much as possible. However, when obtaining the color correction parameter via another camera, if the number of times passing through another camera becomes a certain number or more, control may be performed so that the color correction parameter is not obtained between the cameras. This reduces the number of cameras that can perform color matching, but limits the accumulation of correction amounts due to repeated color correction, thereby reducing the color matching error.

[色合わせ処理の流れ]
次に、本実施形態における色合わせ処理の流れについて、図4のフローチャートを用いて説明する。以下、フローチャートは、画像処理装置100のCPUが制御プログラムを実行することにより実現されるものとする。この処理では、まず、複数の撮像装置間に共通に映る色補正パラメータ生成用オブジェクトの画像を特定して、カメラ間の色補正パラメータを算出する。そして、各撮像装置の撮像したオブジェクトの画像の補正画像を生成して、オブジェクトの補正画像の画像特徴量を算出することを行う。
[Flow of color matching process]
Next, the flow of color matching processing in the present embodiment will be described using the flowchart of FIG. Hereinafter, the flowchart is realized by the CPU of the image processing apparatus 100 executing a control program. In this process, first, an image of a color correction parameter generating object that is shared between a plurality of imaging devices is specified, and a color correction parameter between cameras is calculated. Then, a corrected image of the object image captured by each imaging device is generated, and an image feature amount of the corrected image of the object is calculated.

色あわせ処理の実行時には記憶部202に記憶されたオブジェクトの画像から、色合わせ前の画像特徴量が予め算出されているものとする。加えて、本処理には色合わせ処理の対象カメラのリストが与えられる。このリスト上では、各カメラの色合わせ状態、つまり基準カメラ・色合わせ済みカメラ・未処理カメラのいずれの状態にあるかの情報も与えられる。通常は、全てのカメラは未処理カメラである。しかし、一部のカメラが既に色合わせされており、そこに新たにカメラが追加された場合などは、基準カメラと色合わせ済みカメラが含まれることになる。なお、基準カメラと色合わせ済みカメラがあるときは、その色補正パラメータも追加で与えられる。   It is assumed that the image feature amount before color matching is calculated in advance from the image of the object stored in the storage unit 202 when the color matching processing is executed. In addition, a list of target cameras for color matching processing is given to this processing. On this list, information on the color matching status of each camera, that is, the status of the reference camera, the color-matched camera, or the unprocessed camera is also given. Normally, all cameras are unprocessed cameras. However, when some of the cameras have already been color-matched and a new camera is added thereto, the reference camera and the color-matched camera are included. When there is a reference camera and a color-matched camera, the color correction parameter is additionally given.

以下、色合わせ処理の具体的な内容について、図4(a)を用いて説明する。
ステップS401aでは、クエリリストを作成する。具体的には、クエリリスト作成部206が、記憶部202に記憶されているオブジェクトの画像から、いくつかのオブジェクトの画像を選択してクエリとする。さらにこれらのクエリを優先度順に並び変えて、クエリリストを作成する。例えば、撮像時刻の新しい順に所定数を選択して、撮像時刻の新しい順にクエリリストを作成する。あるいは、既に色合わせされているカメラがあるとき、未処理カメラに映るオブジェクトの画像を優先してクエリリストを作成するようにしてもよい。さらには、未処理カメラ内のオブジェクトの移動ベクトルなどを用いて、色合わせ済みカメラに向かうオブジェクトを優先するようにしてもよい。
Hereinafter, specific contents of the color matching process will be described with reference to FIG.
In step S401a, a query list is created. Specifically, the query list creation unit 206 selects several object images from the object images stored in the storage unit 202 as a query. Further, a query list is created by rearranging these queries in order of priority. For example, a predetermined number is selected in ascending order of imaging time, and a query list is created in the order of imaging time. Alternatively, when there is a camera that has already been color-matched, the query list may be created with priority given to the image of the object shown in the unprocessed camera. Furthermore, priority may be given to an object heading for a color-matched camera by using a movement vector of the object in the unprocessed camera.

ステップS402aは、ステップS401aで得たクエリリスト内のクエリを順に処理するためのループであり、クエリには1から順に番号が割り当てられているものとする。これを変数iを用いて参照するため、はじめにiを1に初期化する。さらに、iがクエリ数以下であるときステップS403aへ移り、これを満たさないときループを抜けてステップS407aへ移る。   Step S402a is a loop for sequentially processing the queries in the query list obtained in step S401a, and it is assumed that numbers are sequentially assigned to the queries from 1. In order to refer to this using the variable i, first, i is initialized to 1. Further, when i is equal to or less than the number of queries, the process proceeds to step S403a, and when this is not satisfied, the process exits the loop and proceeds to step S407a.

ステップS403aでは、色が大きく変化しても、それほど大きく変化しない画像特徴量を、色への依存度の低い特徴量として用いて、記憶部202からi番目のクエリに類似するオブジェクトの画像を検索する。具体的には、照合部205にて、比較元となるオブジェクトの画像をi番目のクエリとして、比較先となるオブジェクトの画像を記憶部202に記憶されているオブジェクトの画像とする。そして、色への依存度が低い特徴量を用いて照合を行う。例えば、図3に示す輝度画像から抽出した特徴量を照合に用いる。最後に、比較先のオブジェクト画像と類似度を関連付けて、検索結果とする。   In step S403a, an image of an object similar to the i-th query is searched from the storage unit 202 using an image feature amount that does not change so much even if the color changes significantly as a feature amount that has a low dependency on color. To do. Specifically, the collation unit 205 uses the object image as the comparison source as the i-th query, and sets the object image as the comparison destination as the object image stored in the storage unit 202. And collation is performed using the feature-value with low dependence on a color. For example, the feature amount extracted from the luminance image shown in FIG. 3 is used for collation. Finally, the comparison object image and the similarity are associated with each other as a search result.

ステップS404aでは、所定以上の類似度を有する検索結果の中に、未処理カメラを含む2台以上のカメラから得たオブジェクトの画像が含まれるか否かを判定する。具体的には、所定以上の類似度のオブジェクトの画像のみに着目して、各オブジェクトの画像が撮影されたカメラを特定する。この特定されたカメラが2台以上であり、かつ未処理のカメラを含むとき(YES)、ステップS405aへ移る。それ以外のとき(NO)、ステップS406aへ移る。   In step S404a, it is determined whether or not an image of an object obtained from two or more cameras including an unprocessed camera is included in a search result having a similarity equal to or higher than a predetermined level. Specifically, focusing on only the image of an object having a similarity equal to or higher than a predetermined level, the camera in which the image of each object is captured is specified. When there are two or more specified cameras and an unprocessed camera is included (YES), the process proceeds to step S405a. Otherwise (NO), the process moves to step S406a.

ステップS405aでは、色補正パラメータ生成用オブジェクトを決定して保存する。具体的には、所定以上の類似度を有するオブジェクトの画像をそのオブジェクトの画像を撮影したカメラごとに分類する。そして、カメラごとに類似度の高いオブジェクトの画像を1つ決定する。これらのオブジェクトの画像を色補正パラメータ生成用オブジェクトの画像として記憶する。あるいは、所定以上の類似度を有するオブジェクトの画像が、それを撮像した一つのカメラに対して複数あるとき、全てを色補正パラメータ生成用オブジェクトの画像としてもよい。   In step S405a, a color correction parameter generation object is determined and stored. Specifically, an image of an object having a similarity equal to or higher than a predetermined level is classified for each camera that has captured the image of the object. Then, one image of an object having a high similarity is determined for each camera. Images of these objects are stored as color correction parameter generation object images. Alternatively, when there are a plurality of images of objects having a degree of similarity equal to or higher than a predetermined value for a single camera that has captured the images, all of the images may be images of color correction parameter generation objects.

ステップS406aは、クエリリストのループの終端であり、iに1を加算してS402aへ戻る。   Step S406a is the end of the query list loop, and 1 is added to i, and the process returns to S402a.

ステップS402a〜ステップS406aの処理は、特定部207にて行われ、この処理によって色補正パラメータ生成用オブジェクトの画像が特定される。例えば、図5(a)に示すような色補正パラメータ生成用オブジェクトテーブルとして結果がまとめられる。このテーブルは、各クエリに対して「どのカメラに色補正パラメータ生成用オブジェクトの画像が見つかったか」を表している。即ち、図5(b)に示すように、例えば、クエリQ1の人物に対しては、カメラA、B、C、Dのそれぞれによって撮像され、撮像された画像が記憶部202に記憶されているので、クエリQ1に類似するオブジェクトの画像が見つかったことを示している。この図面上は記載されていないが、各色補正パラメータ生成用オブジェクトのオブジェクトID等も記憶されており、このオブジェクトIDによって記憶部202からオブジェクトの画像データなどを参照することができる。   The processing of step S402a to step S406a is performed by the specifying unit 207, and the image of the color correction parameter generating object is specified by this processing. For example, the results are collected as a color correction parameter generation object table as shown in FIG. This table represents “to which camera the image of the color correction parameter generation object was found” for each query. That is, as illustrated in FIG. 5B, for example, the person of the query Q1 is captured by each of the cameras A, B, C, and D, and the captured images are stored in the storage unit 202. Therefore, it indicates that an image of an object similar to the query Q1 has been found. Although not shown in this drawing, the object ID and the like of each color correction parameter generation object are also stored, and the object image data and the like can be referred to from the storage unit 202 by this object ID.

ステップS407aでは、前述のステップS402a〜ステップS406aで求めた色補正パラメータ生成用オブジェクトを用いて、各カメラに対する色補正パラメータを算出する。算出処理の詳細は、フローチャート図4(b)を用いて後述する。この算出処理の結果として、基準カメラに色を合わせる色補正パラメータ群が得られる。図5(c)のグラフは、各カメラが基準カメラに色を合わせることを示した図である。ノードはカメラを表しており、二重線のノードは基準カメラを示している。例えば、図5(c)では、カメラAが基準カメラとして決定されており、カメラB〜Dに対してカメラAへと色補正するパラメータが求められていることを示している。加えて、カメラEに対してはカメラBへと色補正するパラメータが求められていることを示している。同様に、カメラF〜Hに対してはカメラEへと色補正するパラメータが求められていることを示している。   In step S407a, the color correction parameter for each camera is calculated using the color correction parameter generation object obtained in steps S402a to S406a. Details of the calculation process will be described later with reference to the flowchart of FIG. As a result of this calculation processing, a color correction parameter group for matching colors with the reference camera is obtained. The graph of FIG. 5C shows that each camera matches the color of the reference camera. The node represents a camera, and the double line node represents a reference camera. For example, FIG. 5C shows that the camera A is determined as the reference camera, and parameters for color correction to the camera A are obtained for the cameras B to D. In addition, it is indicated that a parameter for color correction is required for the camera E to the camera B. Similarly, it is indicated that a parameter for color correction to the camera E is obtained for the cameras F to H.

ステップS408aでは、補正画像を生成する。具体的には、補正画像生成部209が各カメラの撮像したオブジェクトの画像を基準カメラの撮像したオブジェクトの画像の色に合わせて補正画像を生成する。例えば、図5(c)のような色補正パラメータ群が得られていたとする。この時、カメラGの撮像したオブジェクトの画像の色は、カメラEの撮像画像に色が合うように変換され、その後カメラBの撮像画像に色が合うように変換され、最後にカメラAの撮像画像の色に合うように変換される。このように、色補正を繰り返して基準カメラの撮像画像の色に合うように各カメラの撮像した撮像画像の補正画像を生成する。   In step S408a, a corrected image is generated. Specifically, the corrected image generation unit 209 generates a corrected image by matching the image of the object captured by each camera with the color of the image of the object captured by the reference camera. For example, it is assumed that a color correction parameter group as shown in FIG. At this time, the color of the image of the object captured by the camera G is converted so as to match the color of the captured image of the camera E, and then converted to match the color of the captured image of the camera B. Finally, the image of the camera A is captured. Converted to match the color of the image. In this way, color correction is repeated to generate a corrected image of the captured image captured by each camera so as to match the color of the captured image of the reference camera.

補正画像を記憶部202に記憶しておき、照合部205にて、オブジェクト画像の照合の際に用いるようにする。あるいは、補正画像から予め照合部205にて用いる属性情報を算出する。例えば、図3に示すカラー画像から抽出する画像特徴量を計算し直す。そして、それを記憶部202に記憶しておいてもよい。   The corrected image is stored in the storage unit 202 and used in the collation unit 205 when collating the object image. Alternatively, attribute information used in the collation unit 205 is calculated in advance from the corrected image. For example, the image feature amount extracted from the color image shown in FIG. 3 is recalculated. Then, it may be stored in the storage unit 202.

[色補正パラメータ算出処理]
次に、色補正パラメータ算出処理についてフローチャート図4(b)を用いて説明する。本処理は色補正パラメータ算出部208が主に実行する。この処理では、色補正パラメータ生成用オブジェクトの画像を用いて、カメラ間で基準カメラの画像に色を合わせる補正画像を生成するために、色補正パラメータを求める処理を行う。
[Color correction parameter calculation processing]
Next, the color correction parameter calculation process will be described with reference to the flowchart of FIG. This process is mainly executed by the color correction parameter calculation unit 208. In this process, a process for obtaining a color correction parameter is performed in order to generate a correction image that matches the color of the reference camera image between the cameras using the image of the color correction parameter generation object.

本処理の実行時には、色補正パラメータ生成用オブジェクトテーブルが与えられる。加えて、本処理には補正対象のカメラのリストが与えられる。また、カメラの色合わせ状態(基準カメラ・色合わせ済みカメラ・未処理カメラのいずれの状態にあるか)の情報も与えられる。加えて、基準カメラと色合わせ済みカメラがあるときは、その色補正パラメータも追加で与えられる。   When this processing is executed, a color correction parameter generation object table is provided. In addition, this process is given a list of cameras to be corrected. Information on the color matching state of the camera (whether it is in the state of the reference camera, the color-matched camera, or the unprocessed camera) is also given. In addition, when there is a reference camera and a color-matched camera, the color correction parameter is additionally given.

以下、具体的な処理内容について、図4(b)を用いて説明する。なお、以下の説明では、全てのカメラが未処理カメラであり、色補正パラメータ生成用オブジェクトテーブルとして図5(a)が与えられたものとして、説明を行う。   Hereinafter, specific processing contents will be described with reference to FIG. In the following description, it is assumed that all the cameras are unprocessed cameras and that FIG. 5A is given as the color correction parameter generation object table.

ステップS401bでは、基準カメラを決定する。具体的には、基準撮像装置決定部210によって、基準カメラが決定される。例えば、入力から基準カメラが与えられていれば、それを基準カメラとして用いる。基準カメラが与えられていないとき、いずれか一つのカメラを基準カメラに選択する。ここでは、図5(a)に示すカメラA〜Hのうち、カメラAが基準カメラとして選択されたものとする。   In step S401b, a reference camera is determined. Specifically, the reference imaging device determination unit 210 determines the reference camera. For example, if a reference camera is given from the input, it is used as the reference camera. When the reference camera is not given, one of the cameras is selected as the reference camera. Here, it is assumed that camera A is selected as the reference camera among cameras A to H shown in FIG.

ステップS402bでは、色補正パラメータ算出部208が、未処理カメラをリストアップする。例えば、図5(a)の基準カメラ以外のカメラB〜Hすべてが未処理カメラとしてリストアップされる。   In step S402b, the color correction parameter calculation unit 208 lists unprocessed cameras. For example, all cameras B to H other than the reference camera in FIG. 5A are listed as unprocessed cameras.

ステップS403bでは、色合わせ済みカメラと色補正パラメータ生成用オブジェクトを共通に映す未処理カメラがあるか否かを判定する。具体的には、判定結果がYESのとき、ステップS404bへ移る。それ以外のとき(NO)、本処理を終了する。例えば、図5(a)であれば、クエリQ1と類似する色補正パラメータ生成用オブジェクトの画像に着目すると、基準カメラAと色補正パラメータ生成用オブジェクトを共通に映す未処理カメラB〜Dがある。そのため、この判定はYESとなる。   In step S403b, it is determined whether there is an unprocessed camera that projects the color-matched camera and the color correction parameter generation object in common. Specifically, when the determination result is YES, the process proceeds to step S404b. In other cases (NO), this process is terminated. For example, in FIG. 5A, when attention is paid to the image of the color correction parameter generation object similar to the query Q1, there are unprocessed cameras B to D that commonly display the reference camera A and the color correction parameter generation object. . Therefore, this determination is YES.

ステップS404bでは、色補正パラメータ算出部208が、色合わせ済みカメラと色補正パラメータ生成用オブジェクトを共通に映す未処理カメラを選び、色補正パラメータを求める。   In step S404b, the color correction parameter calculation unit 208 selects an unprocessed camera that displays the color-matched camera and the color correction parameter generation object in common, and obtains a color correction parameter.

ステップS403bで未処理カメラB〜Dのうち一つを選択する。例えば、カメラBを選択したとする。そして、クエリQ1で検索されたカメラAの画像とカメラBの画像を色補正パラメータ生成用オブジェクトの画像として用いて、色補正パラメータ算出部208が、カメラAの画像の色にカメラBの画像の色を合わせる色補正パラメータを求める。   In step S403b, one of the unprocessed cameras B to D is selected. For example, assume that camera B is selected. Then, the color correction parameter calculation unit 208 uses the image of the camera B as the color of the image of the camera A by using the image of the camera A and the image of the camera B searched by the query Q1 as the image of the color correction parameter generation object. A color correction parameter for matching colors is obtained.

その後、カメラBを色合わせ済みカメラとして、ステップS403bで再度選択されないようにする。   Thereafter, the camera B is set as a color-matched camera and is not selected again in step S403b.

以上の処理を繰り返すことで、図5(c)に示すように、クエリQ1で検索された色補正パラメータ生成用オブジェクトの画像を使って、カメラAの画像の色にカメラB〜Dの画像の色を合わせる色補正パラメータが求められる。同様に、クエリQ2で検索された色補正パラメータ生成用オブジェクトの画像を用いて、カメラBの画像の色にカメラEの画像の色を合わせる色補正パラメータが求められる。最後に、クエリQ3で検索された色補正パラメータ生成用オブジェクトの画像を用いて、カメラEの画像の色にカメラF〜Hの画像の色を合わせる色補正パラメータが求められる。   By repeating the above processing, as shown in FIG. 5C, the image of the camera B to D is changed to the color of the image of the camera A by using the image of the color correction parameter generation object searched by the query Q1. A color correction parameter for matching colors is obtained. Similarly, a color correction parameter for matching the color of the image of the camera E with the color of the image of the camera B is obtained using the image of the color correction parameter generation object searched by the query Q2. Finally, using the image of the color correction parameter generation object searched in the query Q3, a color correction parameter that matches the colors of the images of the cameras F to H with the color of the image of the camera E is obtained.

なお、図5(a)の例では、全てのカメラを基準カメラに色合わせをすることができたが、基準カメラや色合わせ済みカメラと色補正パラメータ生成用オブジェクトを共通に映さないカメラがあるとき、そのカメラは未処理カメラとして残ることになる。   In the example of FIG. 5A, all cameras can be color-matched to the reference camera, but there are cameras that do not project the color correction parameter generation object in common with the reference camera or the color-matched camera. Sometimes the camera will remain as an unprocessed camera.

このとき、ステップS408aの処理を行わずに、図4(a)の処理を終了して、色合わせ処理をしないようにしてもよい。そして、しばらくカメラから映像を取得することを継続して、記憶部202のオブジェクトの画像を増やしてから、再びこれら処理を行ってもよい。これによって、全てのカメラを色合わせできる場合のみ、色合わせされるようになる。   At this time, the process of FIG. 4A may be terminated without performing the process of step S408a, and the color matching process may not be performed. Then, the video may be continuously acquired from the camera for a while to increase the number of images of the object in the storage unit 202, and then these processes may be performed again. As a result, color matching is performed only when all cameras can be color-matched.

あるいは、ステップS408aの処理では、色合わせ済みカメラから得たオブジェクトの画像のみを色合わせして、未処理カメラから得られたオブジェクトの画像は色合わせしないようにしてもよい。このとき、照合条件入力部203から比較元オブジェクトの画像と比較先オブジェクトの画像が入力されて、その照合を行うとき、片方が色合わせできない状態になることがある。このとき、色に依存しない特徴量を用いて照合を行うようにしてもよい。あるいは、色合わせできていないことを無視して、色に依存する特徴量も用いて照合するようにしてもよい。   Alternatively, in the process of step S408a, only the object image obtained from the color-matched camera may be color-matched, and the object image obtained from the unprocessed camera may not be color-matched. At this time, when the image of the comparison source object and the image of the comparison destination object are input from the collation condition input unit 203 and collation is performed, one of the colors may not be matched. At this time, matching may be performed using a feature quantity independent of color. Alternatively, it is possible to ignore the fact that color matching has not been performed and to perform collation using a characteristic amount depending on the color.

なお、本実施形態における未処理カメラが残る場合の処理は、これらに限定されるものではない。   Note that the processing when an unprocessed camera remains in the present embodiment is not limited to these.

以上によって、同一のオブジェクトを撮像した異なる撮像装置の画像の色の異なりによるオブジェクトの画像の照合精度の劣化が抑制される。例えば、監視カメラなどでは、設置環境が異なるため、物陰・日差し・光源違い等の影響によって、同一のオブジェクトでも、異なる監視カメラで撮像した画像の色が異なることが起こる。こうした影響による照合精度の劣化が抑制されることになる。   As described above, the deterioration of the collation accuracy of the image of the object due to the difference in the color of the image of the different imaging devices that captured the same object is suppressed. For example, since the installation environment of a monitoring camera is different, the color of images captured by different monitoring cameras may be different even for the same object due to the influence of shade, sunlight, light source, and the like. Degradation of collation accuracy due to such influence is suppressed.

加えて、色補正パラメータの生成に適したオブジェクトを基準カメラと共通に映さないカメラがあるときも、別のカメラとの色合わせを行い、そのカメラを介して基準カメラに色合わせすることができる。例えば、空港などの広域に設置されたカメラでは、全てのカメラに同じオブジェクトが撮像されることはまれである。そのため、色補正パラメータの生成に適したオブジェクトがカメラ間で得られないようなことが起こりえる。このような際に、別のカメラを介して基準カメラに色合わせすることは有効である。   In addition, even when there is a camera that does not display an object suitable for generating color correction parameters in common with the reference camera, color matching with another camera can be performed and color matching can be performed with the reference camera via the camera. . For example, in a camera installed in a wide area such as an airport, the same object is rarely captured by all cameras. Therefore, an object suitable for generating the color correction parameter may not be obtained between the cameras. In such a case, it is effective to perform color matching with the reference camera via another camera.

また、この色補正パラメータを用いて生成した補正画像は照合だけでなく、表示に用いてもよい。例えば、照合結果表示部204に結果を表示するときに、生成した補正画像を表示するようにしてもよい。このようにすることによって、同一のオブジェクトの表示画像の色の異なりがなくなり、閲覧者が快適に画像を見ることができる。   Further, the corrected image generated using the color correction parameter may be used not only for collation but also for display. For example, the generated correction image may be displayed when the result is displayed on the matching result display unit 204. By doing so, there is no difference in the color of the display image of the same object, and the viewer can comfortably view the image.

<第2実施形態>
第1実施形態において、色補正パラメータを誤って求めることがある。例えば、第1実施形態において、異なるオブジェクトの画像を色補正パラメータ生成用オブジェクトの画像としてしまったとき、色補正パラメータを誤って求めてしまう。第1実施形態では、オブジェクト画像の照合結果の類似度が所定以上であることをもって同一のオブジェクトの画像と判定していたが、その判定は必ずしも誤らないとは限らない。また、照合に用いた顔領域以外の胴体領域の画像を用いて色合わせすると、その胴体領域の画像は変わっている可能性がある。例えば、同じ人物が撮像された場合、照合に顔の属性・特徴量を用いてその人物の画像が正しく特定できたとする。一方、色補正パラメータの算出にその人物の胴体領域(服の部分)の色情報を用いると、服の着脱などが起きたときに、誤った色補正パラメータを求めてしまう。
Second Embodiment
In the first embodiment, the color correction parameter may be erroneously obtained. For example, in the first embodiment, when an image of a different object is used as an image of a color correction parameter generation object, the color correction parameter is erroneously obtained. In the first embodiment, it is determined that the images of the same object are obtained when the similarity of the collation results of the object images is equal to or greater than a predetermined value. However, the determination is not necessarily erroneous. Further, when color matching is performed using an image of a body region other than the face region used for collation, the image of the body region may have changed. For example, when the same person is imaged, it is assumed that the image of the person can be correctly specified by using the face attribute / feature amount for collation. On the other hand, if the color information of the person's torso area (clothing portion) is used to calculate the color correction parameter, an incorrect color correction parameter is obtained when the clothes are attached or detached.

そこで、本実施形態では、未処理カメラと色合わせ済みカメラの間に複数の色補正パラメータの候補を作成して、信頼性の高い色補正パラメータを決定する画像処理装置について述べる。   Therefore, in this embodiment, an image processing apparatus that creates a plurality of color correction parameter candidates between an unprocessed camera and a color-matched camera and determines a highly reliable color correction parameter will be described.

本実施形態の画像処理装置の構成は、第一実施形態の説明で示した図2の構成と基本的に同じである。ただし、色補正パラメータ決定部211が追加されている。第一実施形態と異なる部分について図6を参照して、以下で述べる。   The configuration of the image processing apparatus of the present embodiment is basically the same as the configuration of FIG. 2 shown in the description of the first embodiment. However, a color correction parameter determination unit 211 is added. Different parts from the first embodiment will be described below with reference to FIG.

色補正パラメータ決定部211は、未処理カメラと色合わせ済みカメラ間の複数の色補正パラメータから、信頼度の高い色補正パラメータを決定する。具体的には、基準カメラの画像の色に色を合わせたときに、複数の色補正パラメータを用いて、同一のカメラの複数の補正画像の色が同一と判定される場合、その同一の色補正結果を与える色補正パラメータの数を数え上げる。数え上げた色補正パラメータの割合が所定値以上であれば、数え上げた色補正パラメータの一つを決定する。   The color correction parameter determination unit 211 determines a highly reliable color correction parameter from a plurality of color correction parameters between the unprocessed camera and the color-matched camera. Specifically, when the color of a plurality of corrected images of the same camera is determined to be the same using a plurality of color correction parameters when the color is matched with the color of the image of the reference camera, the same color Count the number of color correction parameters that give the correction results. If the ratio of the counted color correction parameters is equal to or greater than a predetermined value, one of the counted color correction parameters is determined.

また、複数の同一のオブジェクトを撮像した場合、オブジェクトごとに同じ色補正結果を与える色補正パラメータ群の割合を得て、最も大きな割合を占める色補正パラメータ群を特定して、そのうちの一つを決定する。これによって、正しい色補正パラメータが、誤った色補正パラメータより多ければ、正しい色補正パラメータを選ぶことができる。   When a plurality of identical objects are imaged, the ratio of color correction parameter groups that give the same color correction result for each object is obtained, the color correction parameter group that occupies the largest ratio is identified, and one of them is selected. decide. Thus, if there are more correct color correction parameters than incorrect color correction parameters, the correct color correction parameters can be selected.

本実施形態の画像処理装置100の詳細な処理内容については、フローチャート図7を用いて後述する。   Detailed processing contents of the image processing apparatus 100 of this embodiment will be described later with reference to a flowchart of FIG.

この処理では、順に未処理カメラを色合わせ済みカメラにしていく。そのため、未処理カメラと色合わせ済みカメラ間の色補正パラメータ候補数は徐々に増えていく傾向にある。そのため、処理の初めに、十分な数の色補正パラメータがない未処理カメラであっても、処理が進むにつれて、十分な色補正パラメータが得られるようになる。そのため、「色補正パラメータ候補数が所定以上」であることを条件とすることは、正しい色補正パラメータを選択する確率をより向上させる効果がある。   In this process, the unprocessed camera is changed to a color-matched camera in order. Therefore, the number of color correction parameter candidates between the unprocessed camera and the color-matched camera tends to gradually increase. Therefore, even if an unprocessed camera does not have a sufficient number of color correction parameters at the beginning of the process, sufficient color correction parameters can be obtained as the process proceeds. Therefore, the condition that “the number of color correction parameter candidates is greater than or equal to a predetermined value” has the effect of further improving the probability of selecting the correct color correction parameter.

色補正パラメータが同一の色補正結果を与えるか否かは、同じカメラの撮像した画像に対して各々の色補正パラメータで色補正をした結果(補正画像)を得て、その結果同士を比較することで、同じ結果を与えるか否かを判定する。例えば、2つの補正画像の差分画像を得て、その差分値の和が所定以内であれば、同じであると判断してもよい。あるいは、2つの補正画像の色ヒストグラムなどを得て、そのヒストグラム類似度が所定以上であれば、2つの補正画像の色が同じであると判定してもよい。本実施形態における、補正画像の色が同一か否かの判定方法は、これらに限定されるものでない。   Whether or not the color correction parameters give the same color correction result is obtained by obtaining a result (corrected image) obtained by performing color correction on the image captured by the same camera with each color correction parameter, and comparing the results. Thus, it is determined whether or not the same result is given. For example, a difference image between two corrected images may be obtained, and the difference may be determined to be the same if the sum of the difference values is within a predetermined range. Alternatively, the color histograms or the like of two corrected images may be obtained, and it may be determined that the colors of the two corrected images are the same if the histogram similarity is greater than or equal to a predetermined value. The method for determining whether or not the colors of the corrected images are the same in this embodiment is not limited to these.

なお、本実施形態では、同一の色補正結果を与える色補正パラメータから一つを選択することで、信頼度の高い色補正パラメータを決定している。しかし、複数の色補正パラメータから平均的な色補正パラメータを生成してもよい。あるいは、色補正パラメータの元になった複数の色補正パラメータ生成用オブジェクトをもとに、新たな色補正パラメータを算出してもよい。   In the present embodiment, a highly reliable color correction parameter is determined by selecting one of the color correction parameters that give the same color correction result. However, an average color correction parameter may be generated from a plurality of color correction parameters. Alternatively, a new color correction parameter may be calculated based on a plurality of color correction parameter generation objects that are the basis of the color correction parameter.

例えば、特許文献1に示されるように、ルックアップテーブルを構成するとき、複数の色補正パラメータ生成用オブジェクトから対応点を得て、これをもとに色補正パラメータを求める。あるいは、複数のルックアップテーブルから平均的なルックアップテーブルを求めてもよい。例えば、全ての入力値を各ルックアップテーブルに与えた時の出力を平均した値を、入力値に対応付けたルックアップテーブルを構成する。   For example, as shown in Patent Document 1, when a lookup table is configured, corresponding points are obtained from a plurality of color correction parameter generation objects, and color correction parameters are obtained based on the corresponding points. Alternatively, an average lookup table may be obtained from a plurality of lookup tables. For example, a lookup table is configured in which values obtained by averaging outputs when all input values are given to each lookup table are associated with the input values.

あるいは、特許文献2に示されるように、色補正行列を求めるとき、複数の色補正パラメータ生成用オブジェクトから補正前後の色を複数得て、これらをなえるべく満たす色補正行列を最小二乗法などの方法で求める。あるいは、複数の色補正行列を用いて平均的な色補正行列を求めてもよい。例えば、行列の要素ごとに平均値を求めて、それを要素に有する色補正行列を得る。   Alternatively, as shown in Patent Document 2, when obtaining a color correction matrix, a plurality of colors before and after correction are obtained from a plurality of color correction parameter generation objects, and a color correction matrix satisfying these is obtained by a least square method or the like. Ask by method. Alternatively, an average color correction matrix may be obtained using a plurality of color correction matrices. For example, an average value is obtained for each element of the matrix, and a color correction matrix having this as an element is obtained.

このように、本実施形態における信頼度の高い色補正パラメータの決定方法は、いずれか一つを選択する方法に限定されるものではない。また、複数の色補正パラメータや複数の色補正パラメータ生成用オブジェクトから、新たな色補正パラメータを生成する方法もこれらに限定されるものではない。   As described above, the highly reliable color correction parameter determination method in the present embodiment is not limited to the method of selecting any one of them. Further, the method for generating a new color correction parameter from a plurality of color correction parameters and a plurality of color correction parameter generation objects is not limited to these.

基準撮像装置決定部210は、色合わせの基準となるカメラ(基準カメラ)を決定する。本実施形態では、カメラ間で共通に映る同一のオブジェクト(色補正パラメータ生成用オブジェクト)の数に基づいて基準カメラを決定する。具体的には、全ての2カメラ間で色補正パラメータ生成用オブジェクトとして、共通に撮像した異なるオブジェクトの数を数え上げて、共通オブジェクト数とする。そして、共通オブジェクト数が最も多いカメラの片方を基準カメラとして決定する。   The reference imaging device determination unit 210 determines a camera (reference camera) that is a reference for color matching. In the present embodiment, the reference camera is determined based on the number of the same objects (color correction parameter generation objects) that are shared by the cameras. Specifically, the number of different objects captured in common as the color correction parameter generation object between all two cameras is counted to obtain the common object number. Then, one of the cameras having the largest number of common objects is determined as a reference camera.

例えば、共通オブジェクト数は次のように数えられる。図8(b)に示すように、カメラAとカメラBとで、クエリQ1、Q2、Q3のそれぞれの人物(オブジェクト)を撮像し、撮像した画像が記憶部202に記憶されている。図8(a)に示す色補正パラメータ生成用オブジェクトテーブルに示すように、カメラAとカメラBとの間の共通オブジェクト数は、クエリQ1、Q2、Q3のそれぞれに対応するオブジェクト3つであるので、共通オブジェクト数を「3」として求まる。同様に、カメラBとカメラEとの間の共通オブジェクト数は、クエリQ4に対応するオブジェクト1つであるので、共通オブジェクト数を「1」となる。このように、全ての2カメラ間の共通オブジェクト数を得て、最も多い共通オブジェクト数を示すカメラの組を特定し、その片方を基準カメラに決定する。   For example, the number of common objects is counted as follows. As illustrated in FIG. 8B, the camera A and the camera B capture each person (object) of the queries Q1, Q2, and Q3, and the captured images are stored in the storage unit 202. As shown in the color correction parameter generation object table shown in FIG. 8A, the number of common objects between the camera A and the camera B is three objects corresponding to the queries Q1, Q2, and Q3, respectively. The number of common objects is obtained as “3”. Similarly, since the number of common objects between the camera B and the camera E is one object corresponding to the query Q4, the number of common objects is “1”. In this way, the number of common objects between all two cameras is obtained, a set of cameras showing the largest number of common objects is specified, and one of them is determined as a reference camera.

色補正パラメータ決定部211は、色補正パラメータ算出部208によって算出された色補正パラメータの数が多いほど、正しい色補正パラメータを選ぶことができる。共通オブジェクト数が多数であれば、色補正パラメータ算出部208が多数の色補正パラメータを算出することができる。基準撮像装置決定部210が共通オブジェクト数の多いカメラを基準カメラに選ぶことで、正しい色補正パラメータを選ぶことができるという効果が得られる。   The color correction parameter determination unit 211 can select a correct color correction parameter as the number of color correction parameters calculated by the color correction parameter calculation unit 208 increases. If the number of common objects is large, the color correction parameter calculation unit 208 can calculate a large number of color correction parameters. When the reference imaging device determination unit 210 selects a camera having a large number of common objects as a reference camera, an effect that a correct color correction parameter can be selected can be obtained.

なお、共通オブジェクト数は、2カメラ間ではなく、他のカメラ全てとの間の共通オブジェクト数として求めてもよい。例えば、図8(a)に示す色補正パラメータ生成用オブジェクトテーブルでは、カメラBの共通オブジェクト数は、クエリQ1〜Q4に対応するオブジェクトが他のカメラにも撮像されているので、共通オブジェクト数が「4」となる。同様に、カメラEもクエリQ4〜Q7に対応するオブジェクトを他のカメラが撮像しているので、共通オブジェクト数が「4」となる。この場合は、他のカメラとの組み合わせで求める必要がないので、より簡単に共通オブジェクト数を求めることができる。しかし、厳密に共通オブジェクト数を求めていないため、カメラEのように2カメラ間の共通オブジェクト数は少ないものが高い共通オブジェクト数を得てしまうこともある。そこで、これによって得た共通オブジェクト数の大きなカメラに対してのみ、さらに2カメラ間の共通オブジェクト数を求める等してもよい。これによって、全てのカメラの組み合わせに対して共通オブジェクト数を求める必要がなくなり、計算量が減少することが期待できる。   Note that the number of common objects may be obtained as the number of common objects between all other cameras, not between two cameras. For example, in the object table for color correction parameter generation shown in FIG. 8A, the number of common objects for camera B is the number of common objects because the objects corresponding to queries Q1 to Q4 are also captured by other cameras. “4”. Similarly, the camera E also captures the objects corresponding to the queries Q4 to Q7, so that the number of common objects is “4”. In this case, since it is not necessary to obtain a combination with another camera, the number of common objects can be obtained more easily. However, since the number of common objects is not strictly determined, a small number of common objects between two cameras, such as the camera E, may obtain a high number of common objects. Therefore, the number of common objects between the two cameras may be obtained only for the camera having the large number of common objects. This eliminates the need to determine the number of common objects for all camera combinations, and can be expected to reduce the amount of calculation.

あるいは、2カメラ間の共通オブジェクト数を求めたときに、同数の共通オブジェクト数であった場合に、他カメラ全てとの共通オブジェクト数が多い方を選択してもよい。他カメラ全てとの共通オブジェクト数が多いカメラは、そのカメラに直接色合わせできるカメラが多いことを示している。そのため、このようなカメラを基準カメラに選べば、色補正を適用する回数が減少することが期待される。そのため、色補正の誤差が低減することが期待できる。   Alternatively, when the number of common objects between two cameras is obtained, if the number of common objects is the same, the one having the larger number of common objects with all other cameras may be selected. A camera having a large number of common objects with all other cameras indicates that there are many cameras that can be color-matched directly to that camera. Therefore, if such a camera is selected as the reference camera, it is expected that the number of times of applying color correction is reduced. Therefore, it can be expected that the color correction error is reduced.

なお、上述の通りに基準カメラを決定することが望ましいが、この通りに基準カメラを決定してもよく、本実施形態における基準カメラの決定方法はこれらに限定されるものではない。   Although it is desirable to determine the reference camera as described above, the reference camera may be determined as described above, and the reference camera determination method in the present embodiment is not limited to these.

本実施形態における色合わせ処理は、フローチャート図4(a)を用いた第1実施例の説明と同様である。   The color matching process in the present embodiment is the same as the description of the first example using the flowchart FIG.

そこで、本実施形態における色補正パラメータ算出処理について、図7を用いて説明する。本処理は色補正パラメータ算出部208が主に実行する。この処理では、色補正パラメータ生成用オブジェクトの画像を用いて、カメラ間で基準カメラの画像に色を合わせる補正画像を生成するために、色補正パラメータを求める処理を行う。   Therefore, the color correction parameter calculation processing in this embodiment will be described with reference to FIG. This process is mainly executed by the color correction parameter calculation unit 208. In this process, a process for obtaining a color correction parameter is performed in order to generate a correction image that matches the color of the reference camera image between the cameras using the image of the color correction parameter generation object.

本処理の実行時には、色補正パラメータ生成用オブジェクトテーブルが与えられる。加えて、本処理には補正対象のカメラのリストが与えられる。また、カメラの色合わせ状態(基準カメラ・色合わせ済みカメラ・未処理カメラのいずれの状態にあるか)の情報も与えられる。加えて、基準カメラと色合わせ済みカメラがあるときは、その色補正パラメータも追加で与えられる。   When this processing is executed, a color correction parameter generation object table is provided. In addition, this process is given a list of cameras to be corrected. Information on the color matching state of the camera (whether it is in the state of the reference camera, the color-matched camera, or the unprocessed camera) is also given. In addition, when there is a reference camera and a color-matched camera, the color correction parameter is additionally given.

以下、具体的な処理内容について、図7を用いて説明する。なお、以下の説明では、全てのカメラが未処理カメラであり、色補正パラメータ生成用オブジェクトテーブルとして図8(a)が与えられたものとして、説明を行う。   Hereinafter, specific processing contents will be described with reference to FIG. In the following description, it is assumed that all the cameras are unprocessed cameras and FIG. 8A is given as the color correction parameter generation object table.

ステップS701では、基準カメラを決定する。具体的には、基準撮像装置決定部210によって、基準カメラが決定される。例えば、ユーザの入力から基準カメラが指定されていれば、それを基準カメラとして用いる。基準カメラが指定されていないとき、前記の基準撮像装置決定部210の説明で述べたように、2カメラ間の共通オブジェクト数が最も多いカメラを基準カメラに決定する。例えば、図8(a)では、カメラAとカメラB間の共通オブジェクト数が「3」と最大であるため、その片方のカメラであるカメラAが基準カメラとして決定されたとする。   In step S701, a reference camera is determined. Specifically, the reference imaging device determination unit 210 determines the reference camera. For example, if a reference camera is designated from the user input, it is used as the reference camera. When the reference camera is not designated, the camera having the largest number of common objects between the two cameras is determined as the reference camera, as described in the description of the reference imaging device determination unit 210. For example, in FIG. 8A, since the number of common objects between the camera A and the camera B is the maximum of “3”, it is assumed that the camera A which is one of the cameras is determined as the reference camera.

ステップS702では、未処理カメラをリストアップして、各未処理カメラと色合わせ済みカメラ群との間の共通オブジェクト数を求める。そして、リストアップした未処理カメラは未処理としておく。   In step S702, unprocessed cameras are listed, and the number of common objects between each unprocessed camera and the color-matched camera group is obtained. The unprocessed cameras listed are left unprocessed.

例えば、図8(a)では、未処理カメラB〜Hがリストアップされる。色合わせ済みカメラは基準カメラAのみであるため、カメラAとの共通オブジェクト数が求められる。具体的には、カメラB〜Dは共通オブジェクト数3、カメラE〜Hは共通オブジェクト数0と求まる。   For example, in FIG. 8A, unprocessed cameras B to H are listed. Since the color-matched camera is only the reference camera A, the number of common objects with the camera A is obtained. Specifically, the number of common objects is 3 for cameras B to D, and the number of common objects is 0 for cameras E to H.

ステップS703では、ステップS702でリストアップした未処理カメラの中に、未処理の未処理カメラがあるか否かを判定する。あるとき(YES)、ステップS704へ移る。ないとき(NO)、処理を終了する。   In step S703, it is determined whether there is an unprocessed unprocessed camera among the unprocessed cameras listed in step S702. If there is (YES), the process proceeds to step S704. If not (NO), the process is terminated.

ステップS704では、未処理の未処理カメラから、共通オブジェクト数が最も大きい未処理カメラを選ぶ。図8(a)の例では、カメラAとの共通オブジェクト数が3であるカメラB〜Dが最も共通オブジェクト数の大きい未処理カメラである。そのため、これらから一つを選択する。例えば、カメラBを選択したとする。なお、選択したカメラは色合わせ処理済みとして記憶する。   In step S704, an unprocessed camera having the largest number of common objects is selected from unprocessed unprocessed cameras. In the example of FIG. 8A, the cameras B to D whose number of common objects with the camera A is 3 are unprocessed cameras having the largest number of common objects. Therefore, one is selected from these. For example, assume that camera B is selected. The selected camera is stored as having undergone color matching processing.

ステップS705では、色補正パラメータ決定部212が、選ばれた未処理カメラを基準カメラに色を合わせたときに、同一の色補正結果を与える色補正パラメータの候補を数え上げる。   In step S705, the color correction parameter determination unit 212 counts color correction parameter candidates that give the same color correction result when the selected unprocessed camera is matched with the reference camera.

図8(a)の例では、未処理カメラBと基準カメラAとの間には3つの色補正パラメータを作ることができる。そこで、各色補正パラメータが同一の色補正結果を与えるか否かを判定する。この判定方法は、色補正パラメータ決定部211の説明において述べたように、補正画像を生成して比較して判定してもよいし、あるいは色補正パラメータ同士を比較して判定してもよい。同じと判断された色補正パラメータ同士をグループにしていくことで、同じ色補正結果を与えるパラメータ群をグループにすることができる。   In the example of FIG. 8A, three color correction parameters can be created between the unprocessed camera B and the reference camera A. Therefore, it is determined whether or not each color correction parameter gives the same color correction result. As described in the description of the color correction parameter determination unit 211, this determination method may be performed by generating and comparing corrected images, or by comparing color correction parameters. By grouping the color correction parameters determined to be the same, a group of parameters that give the same color correction result can be grouped.

ステップS706では、色補正パラメータ決定部211が、色補正パラメータ候補数が閾値以上であり、かつ同一の色補正結果を与える色補正パラメータの割合が閾値以上であるか否かを判定する。具体的には、ステップS705において得た、色補正パラメータの候補数と、同一の色補正結果を与えるパラメータ候補の割合を得る。   In step S706, the color correction parameter determination unit 211 determines whether the number of color correction parameter candidates is equal to or greater than a threshold and whether the ratio of color correction parameters that give the same color correction result is equal to or greater than the threshold. Specifically, the number of color correction parameter candidates obtained in step S705 and the ratio of parameter candidates that give the same color correction result are obtained.

例えば、図8(a)のカメラAとカメラBの間の色補正パラメータは3つある。同一の色補正結果を与えるパラメータ数がステップS705において2つであったとき、その割合は2/3となる。予め候補数の閾値が3以上であり、割合の閾値が6割以上のとき、これらは条件を満たすため、これら2つの色補正パラメータは正しいと判断される。   For example, there are three color correction parameters between camera A and camera B in FIG. When the number of parameters giving the same color correction result is two in step S705, the ratio is 2/3. When the threshold value for the number of candidates is 3 or more and the threshold value for the ratio is 60% or more in advance, these two conditions are satisfied, so that these two color correction parameters are determined to be correct.

ステップS706において閾値以上の割合を占めるとき(YES)、ステップS707へ移る。それ以外のとき(NO)、ステップS703へ移る。   When the ratio equal to or greater than the threshold is occupied in step S706 (YES), the process proceeds to step S707. Otherwise (NO), the process moves to step S703.

ステップS707では、色補正パラメータ決定部211が、補正画像を生成する際に使用する色補正パラメータを決定する。ステップS706で閾値以上の割合を占めていた色補正パラメータであって、最大の割合を占めていた色補正パラメータ群を特定する。そのうちの一つを選択して、補正画像を生成する際に使用する色補正パラメータとして決定する。あるいは、特定された複数の色補正パラメータ群を用いて、平均的な色補正パラメータを生成してもよい。   In step S707, the color correction parameter determination unit 211 determines a color correction parameter to be used when generating a corrected image. In step S706, the color correction parameter group that has occupied a ratio equal to or greater than the threshold value and that has occupied the maximum ratio is identified. One of them is selected and determined as a color correction parameter to be used when generating a corrected image. Alternatively, an average color correction parameter may be generated using a plurality of specified color correction parameter groups.

ステップS708では、ステップS704で選択したカメラを色合わせ済みカメラとする。図8(a)の例では、カメラBがまず色合わせ済みとなる。   In step S708, the camera selected in step S704 is set as a color-matched camera. In the example of FIG. 8A, the camera B is first color-matched.

ステップS709では、全てのカメラが色合わせ済みになったか否かを判定する。全てが色合わせ済みであるとき(YES)、処理を終了する。それ以外は(NO)、ステップS702へ移る。   In step S709, it is determined whether or not all cameras have been color-matched. When all the colors have been matched (YES), the process is terminated. Otherwise (NO), the process moves to step S702.

図8(a)の例では、カメラC〜Hまでが未処理であるため、処理が継続することになる。ここまでで、基準カメラAに対してカメラBに色補正パラメータが求まった状態となる。同様に、ステップS702〜ステップS709を適用することで、色合わせ済みカメラ(カメラAとカメラB)と共通オブジェクト数の多い、カメラC、Dに色補正パラメータが求まる。このときの色合わせ状態の一例を示すグラフを図8(c)に示す。基準カメラAに対して、カメラB〜Dに色補正パラメータが求まっている状態を示している。このとき、ステップS702〜ステップ709を適用すると、色合わせ済みカメラ(カメラA〜D)との共通オブジェクト数の多いカメラはEであることから、カメラEに対して色補正パラメータが求められる。この際の処理を詳細に述べる。   In the example of FIG. 8A, since the cameras C to H are unprocessed, the process continues. Up to this point, the color correction parameter is obtained for the camera B with respect to the reference camera A. Similarly, by applying Steps S702 to S709, color correction parameters can be obtained for the cameras C and D that have a large number of common objects with the color-matched cameras (Camera A and Camera B). A graph showing an example of the color matching state at this time is shown in FIG. A state in which color correction parameters are obtained for the cameras B to D with respect to the reference camera A is shown. At this time, when step S702 to step 709 are applied, the camera having a large number of common objects with the color-matched cameras (cameras A to D) is E, and therefore, a color correction parameter is obtained for the camera E. The processing at this time will be described in detail.

ステップS704では、色合わせ済みカメラ(カメラA〜D)との共通オブジェクト数は、カメラEが「3」であり、カメラF〜Hは「0」であることから、カメラEが処理対象として選ばれる。   In step S704, the number of common objects with the color-matched cameras (cameras A to D) is “3” for camera E and “0” for cameras F to H. Therefore, camera E is selected as the processing target. It is.

ステップS705では、未処理カメラEから、基準カメラAに至る色補正結果を求める。このとき、色補正パラメータ候補は図8(d)の破線で示すようにカメラEからカメラB〜Dに対して存在する。そこで、各色補正パラメータを介して基準カメラに色補正した結果が、同一になるか否かを判定する。具体的には、「カメラE→カメラB→カメラA」「カメラE→カメラC→カメラA」「カメラE→カメラD→カメラA」と色補正を行った結果が同一になるか否かを判定する。各々で補正画像を生成して比較してもよい。あるいは、色補正パラメータを連結できるとき、連結した色補正パラメータを直接比較してもよい。   In step S705, a color correction result from the unprocessed camera E to the reference camera A is obtained. At this time, color correction parameter candidates exist from the camera E to the cameras B to D as indicated by broken lines in FIG. Therefore, it is determined whether or not the result of color correction on the reference camera via each color correction parameter is the same. Specifically, it is determined whether or not the result of color correction is the same as “camera E → camera B → camera A”, “camera E → camera C → camera A”, “camera E → camera D → camera A”. judge. A corrected image may be generated and compared in each case. Alternatively, when color correction parameters can be connected, the connected color correction parameters may be directly compared.

ここでは、その結果として、カメラBとカメラCに対する色補正パラメータが同一であると分かったとする。   Here, as a result, it is assumed that the color correction parameters for the cameras B and C are found to be the same.

ステップS706では、2/3が同等と判断され、候補数の閾値(3個以上)と割合の閾値(6割以上)を満たすため、YESと判定される。   In step S706, it is determined that 2/3 is equivalent, and YES is determined to satisfy the threshold number of candidates (three or more) and the ratio threshold value (60% or more).

ステップS707では、カメラBとカメラCのうち、カメラBに対する色補正パラメータが選択されたとする。その結果、色合わせ状態の別例を示すグラフは図8(e)のようになる。   In step S707, it is assumed that the color correction parameter for the camera B is selected from the cameras B and C. As a result, a graph showing another example of the color matching state is as shown in FIG.

まだ、カメラF〜Hが未処理カメラとして残るので、本処理は継続される。しかし、カメラF〜Hは色合わせ済みカメラとの共通オブジェクト数が「1」と少ないため、ステップS706においてNOと判定され、色補正パラメータが決定されない。そのため、本処理の結果としては、図8(e)に示す色合わせ状態のグラフのようになる。   Since the cameras F to H still remain as unprocessed cameras, this processing is continued. However, since the cameras F to H have a small common object number of “1” with the color-matched cameras, NO is determined in step S706, and the color correction parameter is not determined. Therefore, the result of this processing is a graph of the color matching state shown in FIG.

なお、以上の図7のフローチャートでは、未処理カメラが残ることがある。このとき、未処理カメラと色合わせ済みカメラの間に、色補正パラメータ生成用オブジェクトがあるとき、その信頼性を考慮せずに、そのうちの1つを用いて色補正パラメータを求めるようにしてもよい。   In the above flowchart of FIG. 7, an unprocessed camera may remain. At this time, when there is a color correction parameter generation object between the unprocessed camera and the color-matched camera, the color correction parameter may be obtained using one of them without considering its reliability. Good.

あるいは、第1実施形態と同様に扱ってもよい。つまり、これら処理結果を破棄して、しばらくカメラからの映像取得を継続して、オブジェクトを増やしてから再びこれら処理を行ってもよい。あるいは、色補正できない状態にあるオブジェクトがあることを考慮して、照合を行うようにしてもよい。   Or you may handle similarly to 1st Embodiment. That is, these processing results may be discarded, and video acquisition from the camera may be continued for a while, and the processing may be performed again after increasing the number of objects. Alternatively, the collation may be performed considering that there is an object in a state where color correction cannot be performed.

なお、本実施形態における未処理カメラが残る場合の処理は、これらに限定されるものではない。   Note that the processing when an unprocessed camera remains in the present embodiment is not limited to these.

以上の処理によって、色補正パラメータ生成用オブジェクトから、色補正パラメータが誤って求められる場合があっても、正しい色補正パラメータを決定できるようになる。   With the above processing, even if the color correction parameter may be erroneously obtained from the color correction parameter generation object, the correct color correction parameter can be determined.

<第3実施形態>
第2実施形態において、基準カメラの画像の色へと色を合わせるときに、色補正パラメータの適用を複数回行うことがある。このとき、補正量が累積するので、色合わせの誤差が大きくなることがある。そこで、色補正パラメータの適用回数を小さくすることによって誤差が小さくなるように、基準カメラを決定する画像処理装置について述べる。
<Third Embodiment>
In the second embodiment, when the color is matched with the color of the image of the reference camera, the color correction parameter may be applied a plurality of times. At this time, since the correction amount is accumulated, an error in color matching may increase. Therefore, an image processing apparatus that determines the reference camera so that the error can be reduced by reducing the number of times the color correction parameter is applied will be described.

本実施形態の画像処理装置の構成は、第1実施形態又は第2実施形態で示した構成と同じであるが、基準撮像装置決定部210の振る舞いが異なる。   The configuration of the image processing apparatus of the present embodiment is the same as the configuration shown in the first embodiment or the second embodiment, but the behavior of the reference imaging device determination unit 210 is different.

基準撮像装置決定部210は、色合わせの基準となるカメラ(基準カメラ)を決定する。本実施形態では、色補正パラメータの適用回数を最小化するように、基準カメラを決定する。例えば、色補正パラメータの適用回数には「各カメラから基準カメラに至るまでに適用される色合わせ回数の総和」を用いる。あるいは、各カメラにおけるオブジェクトの出現頻度を加味して、色補正パラメータの適用回数には「出現頻度と色合わせ回数をかけた色合わせ頻度の総和」を用いる。あるいは、色補正誤差を小さくしたいカメラに大きな重みを設定して、重みをかけて適用回数を求めてもよい。本実施形態における色補正パラメータの適用回数の算出方法は、これらに限定されるものではない。   The reference imaging device determination unit 210 determines a camera (reference camera) that is a reference for color matching. In the present embodiment, the reference camera is determined so as to minimize the number of times the color correction parameter is applied. For example, “the sum of the number of times of color matching applied from each camera to the reference camera” is used as the number of times the color correction parameter is applied. Alternatively, in consideration of the appearance frequency of the object in each camera, “the sum of color matching frequencies obtained by multiplying the appearance frequency and the number of color matching” is used as the number of application times of the color correction parameter. Alternatively, a large weight may be set for the camera for which the color correction error is to be reduced, and the number of times of application may be obtained by applying the weight. The method for calculating the number of application times of color correction parameters in the present embodiment is not limited to these.

次に、本実施形態の画像処理装置100の基準カメラの決定処理について図9のフローチャートを用いて説明する。なお、本処理は、例えば、図4(a)で説明した色合わせ処理のステップS407aの直後において実行される。   Next, reference camera determination processing of the image processing apparatus 100 according to the present embodiment will be described with reference to the flowchart of FIG. Note that this processing is executed immediately after step S407a of the color matching processing described with reference to FIG.

ステップS901〜ステップS905は、色合わせ回数行列を生成するための処理である。例えば、カメラの色合わせ状態が図10(a)に示す状態であったとき、色合わせ回数行列は図10(b)に示すように求まる。例えば、カメラAとカメラBの間は1つの色補正パラメータでつなげられているため、色合わせ回数は1となる。そのため、行列中のカメラAとカメラBの該当箇所も「1」となっている。同様に、カメラAとカメラEの間は色補正パラメータが2つあるため「2」となる。   Steps S901 to S905 are processes for generating a color matching number matrix. For example, when the color matching state of the camera is the state shown in FIG. 10A, the color matching number matrix is obtained as shown in FIG. For example, since the camera A and the camera B are connected with one color correction parameter, the number of times of color matching is 1. Therefore, the corresponding portions of the camera A and the camera B in the matrix are also “1”. Similarly, since there are two color correction parameters between the camera A and the camera E, “2” is obtained.

ステップS906では、各カメラから基準カメラに至るまでに適用される色補正パラメータの適用回数を求める。具体的には、色合わせ回数行列の列ごとに和をとる。例えば、図10(b)であれば、図10(c)に示すように色合わせ回数の総和がカメラごとに得られ、これを色補正パラメータの適用回数とする。   In step S906, the number of application times of the color correction parameter applied from each camera to the reference camera is obtained. Specifically, the sum is calculated for each column of the color matching frequency matrix. For example, in the case of FIG. 10B, as shown in FIG. 10C, the total number of times of color matching is obtained for each camera, and this is set as the number of times of applying the color correction parameter.

あるいは、ここで各カメラにおけるオブジェクトの出現頻度を加味してもよい。例えば、カメラごとに単位時間当たりに観測されるオブジェクト数を求めておく。例えば、記憶部202に記憶されているオブジェクトの画像の数をカメラごとに集計して、1時間あたりに平均していくつのオブジェクトが出現するかを算出して、出現頻度とする。カメラごとに求めた出現頻度を図10(b)に示す色合わせ回数行列の各列の成分に、カメラごとの出現頻度を乗算して、列ごとに和をとることで適用回数を求めてもよい。あるいは、図10(b)を行列と考えて、1行に出現頻度を並べた行列を、左側からかけて求めてもよい。   Or you may consider the appearance frequency of the object in each camera here. For example, the number of objects observed per unit time is obtained for each camera. For example, the number of object images stored in the storage unit 202 is totaled for each camera, and how many objects appear on average per hour is calculated as the appearance frequency. The appearance frequency obtained for each camera can be obtained by multiplying the component of each column of the color matching frequency matrix shown in FIG. 10B by the appearance frequency for each camera and taking the sum for each column. Good. Alternatively, assuming that FIG. 10B is a matrix, a matrix in which appearance frequencies are arranged in one row may be obtained from the left side.

ステップS907では、最小の適用回数のカメラを基準カメラとして、色補正パラメータを求める。例えば、図10(c)ではカメラBとカメラEが最小値をとっているので、いずれか一方を選択する。ここでは、カメラBを基準カメラとして決定したとする。次に、カメラBを基準カメラとして、色補正パラメータを求める。具体的には、各色補正パラメータを求めるときに用いた色補正パラメータ生成用オブジェクトの画像を用いて、各撮像装置の色が合うように色補正パラメータを求める。例えば、図10(d)に示す状態になるように色補正パラメータが求められる。   In step S907, a color correction parameter is obtained using the camera with the minimum number of applications as a reference camera. For example, in FIG. 10C, since the camera B and the camera E have the minimum value, either one is selected. Here, it is assumed that the camera B is determined as the reference camera. Next, a color correction parameter is obtained using the camera B as a reference camera. Specifically, the color correction parameters are obtained so that the colors of the respective imaging devices match using the image of the color correction parameter generation object used when obtaining each color correction parameter. For example, the color correction parameter is obtained so that the state shown in FIG.

色補正パラメータ算出処理の中で、色補正パラメータを決定せずに、色補正パラメータ生成用オブジェクトの画像のみを決定しておく。そして、基準カメラを決定したのちに色合わせの方向に合わせて色補正パラメータを求めるようにして、少なく計算量でこの処理を実現することができる。   In the color correction parameter calculation process, only the image of the color correction parameter generation object is determined without determining the color correction parameter. Then, after determining the reference camera, the color correction parameter is obtained in accordance with the color matching direction, and this processing can be realized with a small amount of calculation.

以上によって、色補正パラメータの適用回数が最小化されるように基準カメラを決定したので、補正量の累積による色合わせ誤差の増大を抑制することができる。また、色補正パラメータの適用回数として、基準カメラまでの色補正パラメータの適用回数だけでなく、各カメラにおけるオブジェクトの出現頻度を加味すると、色合わせ頻度が少なくなるように基準カメラが決定される。その結果、誤差の蓄積の抑制だけでなく、計算量を抑えることも期待できる。   As described above, since the reference camera is determined so that the number of application times of the color correction parameter is minimized, an increase in color matching error due to accumulation of correction amounts can be suppressed. In addition to the number of application times of the color correction parameter up to the reference camera as the number of application times of the color correction parameter, the reference camera is determined so that the color matching frequency is reduced in consideration of the appearance frequency of the object in each camera. As a result, not only the accumulation of errors can be suppressed, but also the amount of calculation can be expected to be suppressed.

<その他の実施形態>
上記各実施形態では、オブジェクトとして人物を用いる例について説明した。しかしながら、オブジェクトは人物に限定されるものではない。オブジェクトとして、車・ポスター・看板等を用いても良い。あるいは、スーパーマーケットなどのカート等を用いてもよい。また、きぐるみなどのマスコットキャラクター等を用いてもよい。すなわち、上記各実施形態のようにオブジェクトとして人物を用いた場合には、同一オブジェクト(同一人物)を抽出し、その肌領域、服装等の色を用いて色補正を行うことになる。これに対して、オブジェクトとして人物以外のものを用いれば、同一種類のオブジェクトを選択しても、精度よく色補正を行うことができる。例えば、同じ種類の赤い車であれば、一般にその車の外装の色は同一であり、このような色情報を用いることにより、同一のオブジェクトでなくとも精度よく色補正を行うことができる。
<Other embodiments>
In each of the above embodiments, an example in which a person is used as an object has been described. However, the object is not limited to a person. A car, a poster, a signboard, or the like may be used as the object. Alternatively, a cart such as a supermarket may be used. Further, a mascot character such as a kigurumi may be used. That is, when a person is used as an object as in the above embodiments, the same object (same person) is extracted and color correction is performed using the color of the skin region, clothes, and the like. In contrast, if an object other than a person is used, color correction can be performed with high accuracy even when the same type of object is selected. For example, in the case of red cars of the same type, the color of the exterior of the car is generally the same. By using such color information, color correction can be performed with high accuracy even if the same object is not used.

こうした人物以外のオブジェクトを用いるとき、オブジェクト照合部205で用いたオブジェクトの特徴量としては、オブジェクトに適したものを使用することが望ましい。例えば、輝度画像から抽出した画像特徴量(図3の左上に該当)としては、SIFT特徴量などを用いることが考えられる。   When such an object other than a person is used, it is desirable to use an object feature amount used by the object matching unit 205 that is suitable for the object. For example, it is conceivable to use a SIFT feature amount or the like as the image feature amount extracted from the luminance image (corresponding to the upper left in FIG. 3).

また、輝度画像から抽出した属性(図3の右上に該当)としては、利用するオブジェクトによって決定する。例えば、車などであれば、ナンバープレートの文字列などを用いることが考えられる。また、車であれば、車種なども考えられる。また、ポスター・看板であれば出現する文字列等を用いることが考えられる。また、これらオブジェクトを同時に用いる場合は、そのオブジェクトの種別などを用いることも考えられる。   The attribute extracted from the luminance image (corresponding to the upper right in FIG. 3) is determined by the object to be used. For example, in the case of a car or the like, it is conceivable to use a license plate character string. Moreover, if it is a car, a vehicle type etc. can be considered. In addition, it is conceivable to use a character string that appears in the case of a poster / signboard. When these objects are used at the same time, the type of the object may be used.

なお、オブジェクトによっては色違いの同一形状のオブジェクトが存在することがある。例えば、車は色違いの同一車種が存在する。そのため、こうしたオブジェクトを用いるときは、属性情報が一致することで類似していると判断すべきである。例えば、車であればナンバープレートの番号が一致しているときのみ、類似していると判断する。   Depending on the object, there may be objects of the same shape with different colors. For example, there are the same types of cars with different colors. Therefore, when using such an object, it should be determined that the attribute information is similar and similar. For example, in the case of a car, it is determined that they are similar only when the numbers on the license plates match.

また、カラー画像から抽出した画像特徴量(図3の左下に該当)としては、オブジェクトの色ヒストグラムなどを用いることが考えられる。あるいは、領域ごとの色ヒストグラムを用いるようにしてもよい。例えば、車などであれば、領域としてボンネット・ドア・タイヤなどの領域を定義できるため、これら領域ごとに色ヒストグラムを得ることが考えられる。同様に、マスコットなども頭・胴体などの領域を定義して用いることも考えられる。   Further, as an image feature amount extracted from a color image (corresponding to the lower left in FIG. 3), it is conceivable to use a color histogram of an object. Alternatively, a color histogram for each region may be used. For example, in the case of a car or the like, regions such as bonnets, doors, and tires can be defined as regions, so it is conceivable to obtain a color histogram for each region. Similarly, a mascot or the like may be used by defining a region such as a head or a torso.

カラー画像から抽出した属性(図3の右下に該当)としては、例えば車であれば色まで特定した車種の情報を属性とすることが考えられる。   As an attribute extracted from the color image (corresponding to the lower right in FIG. 3), for example, in the case of a car, it is conceivable to use the information of the vehicle type specified to the color as the attribute.

なお、オブジェクトの特徴量としては、これら以外の特徴量を用いてもよく、本発明はこれら利用する特徴量に限定されるものではない。   Note that other feature quantities may be used as the feature quantities of the object, and the present invention is not limited to the feature quantities used.

色補正パラメータ算出部208では、オブジェクト同士の色味が合うように色補正パラメータを求める。人物であれば、肌領域や服領域などを用いていた。上記人物以外のオブジェクトにおいても、予め用いる領域を決定しておいてもよい。例えば、マスコットなどであれば、そのマスコットの種別などが特定されれば、色味が豊富なパーツがあれば、そのパーツを用いるようにすることなどが考えられる。あるいは、全領域を用いて色補正パラメータを求めるようにしてもよい。   The color correction parameter calculation unit 208 obtains color correction parameters so that the colors of objects match. In the case of a person, the skin area and the clothes area are used. An area to be used may be determined in advance for an object other than the person. For example, in the case of a mascot or the like, if the type of the mascot or the like is specified, if there is a part with a rich color, it is possible to use the part. Alternatively, the color correction parameter may be obtained using the entire region.

なお、色補正パラメータをこれら以外の方法で算出してもよく、本発明はこれら色補正パラメータの算出方法に限定されるものではない。   Note that the color correction parameters may be calculated by methods other than these, and the present invention is not limited to these color correction parameter calculation methods.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201 入力部
202 記憶部
203 照合条件入力部
204 照合結果表示部
205 照合部
206 クエリリスト作成部
207 特定部
208 色補正パラメータ算出部
209 補正画像生成部
210 基準撮像装置決定部
DESCRIPTION OF SYMBOLS 201 Input part 202 Storage part 203 Collation condition input part 204 Collation result display part 205 Collation part 206 Query list creation part 207 Identification part 208 Color correction parameter calculation part 209 Correction image generation part 210 Reference | standard imaging device determination part

Claims (9)

少なくとも1つの第一撮像装置と複数の第二撮像装置と少なくとも1つの第三撮像装置とのそれぞれが撮像した同一または同一種類のオブジェクトの撮像画像から、前記同一または同一種類のオブジェクトの画像領域を切りだして、前記同一または同一種類のオブジェクトの画像として入力する入力手段と、
前記第一撮像装置と前記第二撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像から、第一オブジェクトの画像を特定し、前記第二撮像画像と前記第三撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像から、第二オブジェクトの画像を特定する特定手段と、
前記第一撮像装置と前記第二撮像装置と前記第三撮像装置の何れか一つを基準撮像装置として決定する決定手段と、
前記第一撮像装置又は前記第二撮像装置の何れか一つが前記基準撮像装置として決定された場合、前記第一オブジェクトの画像の色情報に基づいて、前記基準撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色に、前記第一撮像装置と前記第二撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像の色を合わせた第一補正画像を生成し、
前記第一オブジェクトの画像の色情報と前記第二オブジェクトの画像の色情報との少なくとも1つに基づいて、前記基準撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色に、前記第三撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色を合わせた第二補正画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
From the captured images of the same or the same type of object captured by each of the at least one first imaging device, the plurality of second imaging devices, and the at least one third imaging device, the image region of the same or the same type of object is obtained. Input means for cutting out and inputting as an image of the same or same type of object;
From the images of the same or the same type of object captured by each of the first imaging device and the second imaging device, an image of the first object is specified, and the second captured image and the third imaging device A specifying means for specifying an image of the second object from the images of the same or the same type of object each imaged;
Determining means for determining any one of the first imaging device, the second imaging device, and the third imaging device as a reference imaging device;
When one of the first imaging device and the second imaging device is determined as the reference imaging device, the same or the same imaged by the reference imaging device based on color information of the image of the first object Generating a first corrected image in which the color of the image of the same type of object captured by each of the first imaging device and the second imaging device is matched with the color of the image of the type of object;
Based on at least one of the color information of the image of the first object and the color information of the image of the second object, the color of the image of the same or same type of object captured by the reference imaging device is changed to the first color. Generating means for generating a second corrected image in which the colors of the images of the same or the same type of object captured by the three imaging devices are combined;
An image processing apparatus comprising:
前記第一オブジェクトと前記第二オブジェクトとを撮像した前記第二撮像装置が複数あって、複数の前記第二撮像装置ごとに、前記第一オブジェクトの画像と前記第二オブジェクトの画像との前記色情報に基づいて、生成される複数の前記第二補正画像の内、色が同一と判定された前記第二補正画像の割合が所定値以上である場合は、
前記生成手段は、前記色が同一と判定された前記第二補正画像の何れか一つを生成することを特徴とする請求項1に記載の画像処理装置。
There are a plurality of the second imaging devices that image the first object and the second object, and the color of the image of the first object and the image of the second object for each of the plurality of second imaging devices. Based on the information, among the plurality of second correction images to be generated, when the ratio of the second correction image determined to have the same color is a predetermined value or more,
The image processing apparatus according to claim 1, wherein the generation unit generates any one of the second corrected images determined to have the same color.
前記特定手段は、一つの前記第二撮像装置の撮像した前記同一または同一種類のオブジェクトの画像から、前記第一オブジェクトの画像と前記第二オブジェクトの画像とを特定した場合、
前記決定手段は、該第二撮像装置を前記基準撮像装置として決定することを特徴とする請求項1又は2に記載の画像処理装置。
When the specifying unit specifies the image of the first object and the image of the second object from the images of the same or the same type of object captured by one second imaging device,
The image processing apparatus according to claim 1, wherein the determination unit determines the second imaging apparatus as the reference imaging apparatus.
前記第一オブジェクトは第一人物であって、前記第二オブジェクトは第二人物である場合、前記生成手段は、前記第一人物の画像における顔領域又は胴体領域の前記色情報に基づいて、前記第一補正画像を生成し、前記第二人物の画像における顔領域又は胴体領域の前記色情報に基づいて、前記第二補正画像を生成することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   In the case where the first object is a first person and the second object is a second person, the generating unit is configured to perform the operation based on the color information of a face area or a torso area in the image of the first person. The first corrected image is generated, and the second corrected image is generated based on the color information of the face area or the torso area in the image of the second person. The image processing apparatus according to item. 前記特定手段は、前記同一または同一種類のオブジェクトの画像の類似度に基づいて、前記第一オブジェクトの画像と前記第二オブジェクトの画像とを特定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。   The said specifying means specifies the image of said 1st object and the image of said 2nd object based on the similarity of the image of the said same or the same kind of object, Any one of Claim 1 thru | or 4 characterized by the above-mentioned. The image processing apparatus according to claim 1. 前記特定手段は、前記生成手段によって生成された前記第一補正画像と前記第二補正画像とから、色情報に依存する前記同一または同一種類のオブジェクトの画像特徴量を抽出し、抽出された前記画像特徴量に基づいて、同一または同一種類のオブジェクトの画像を改めて特定することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   The specifying unit extracts an image feature amount of the same or the same type of object depending on color information from the first corrected image and the second corrected image generated by the generating unit, and the extracted The image processing apparatus according to claim 1, wherein the image of the same or the same type of object is specified again based on the image feature amount. 前記特定手段は、前記生成手段によって生成された前記第一補正画像と前記第二補正画像とから、色情報に依存する前記同一または同一種類のオブジェクトの属性を抽出し、抽出された前記属性に基づいて、同一または同一種類のオブジェクトの画像を改めて特定することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。   The specifying unit extracts an attribute of the same or the same type of object depending on color information from the first corrected image and the second corrected image generated by the generating unit, and the extracted attribute is used as the extracted attribute. The image processing apparatus according to claim 1, wherein the image of the same or same type of object is specified again based on the image. 少なくとも1つの第一撮像装置と複数の第二撮像装置と少なくとも1つの第三撮像装置とのそれぞれが撮像した同一または同一種類のオブジェクトの撮像画像から、前記同一または同一種類のオブジェクトの画像領域を切りだして、前記同一または同一種類のオブジェクトの画像として入力する入力工程と、
前記第一撮像装置と前記第二撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像から、第一オブジェクトの画像を特定し、前記第二撮像画像と前記第三撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像から、第二オブジェクトの画像を特定する特定工程と、
前記第一撮像装置と前記第二撮像装置と前記第三撮像装置の何れか一つを基準撮像装置として決定する決定工程と、
前記第一撮像装置又は前記第二撮像装置の何れか一つが前記基準撮像装置として決定された場合、前記第一オブジェクトの画像の色情報に基づいて、前記基準撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色に、前記第一撮像装置と前記第二撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像の色を合わせた第一補正画像を生成し、
前記第一オブジェクトの画像の色情報と前記第二オブジェクトの画像の色情報との少なくとも1つに基づいて、前記基準撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色に、前記第三撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色を合わせた第二補正画像を生成する生成工程と、
を備えることを特徴とする画像処理方法。
From the captured images of the same or the same type of object captured by each of the at least one first imaging device, the plurality of second imaging devices, and the at least one third imaging device, the image region of the same or the same type of object is obtained. Cutting out and inputting as an image of the same or same type of object,
From the images of the same or the same type of object captured by each of the first imaging device and the second imaging device, an image of the first object is specified, and the second captured image and the third imaging device A specifying step of specifying an image of the second object from the images of the same or the same type of object each imaged;
A determination step of determining any one of the first imaging device, the second imaging device, and the third imaging device as a reference imaging device;
When one of the first imaging device and the second imaging device is determined as the reference imaging device, the same or the same imaged by the reference imaging device based on color information of the image of the first object Generating a first corrected image in which the color of the image of the same type of object captured by each of the first imaging device and the second imaging device is matched with the color of the image of the type of object;
Based on at least one of the color information of the image of the first object and the color information of the image of the second object, the color of the image of the same or same type of object captured by the reference imaging device is changed to the first color. A generation step of generating a second corrected image in which the colors of the images of the same or the same type of object imaged by the three imaging devices are combined;
An image processing method comprising:
少なくとも1つの第一撮像装置と複数の第二撮像装置と少なくとも1つの第三撮像装置とのそれぞれが撮像した同一または同一種類のオブジェクトの撮像画像から、前記同一または同一種類のオブジェクトの画像領域を切りだして、前記同一または同一種類のオブジェクトの画像として入力する入力ステップと、
前記第一撮像装置と前記第二撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像から、第一オブジェクトの画像を特定し、前記第二撮像画像と前記第三撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像から、第二オブジェクトの画像を特定する特定ステップと、
前記第一撮像装置と前記第二撮像装置と前記第三撮像装置の何れか一つを基準撮像装置として決定する決定ステップと、
前記第一撮像装置又は前記第二撮像装置の何れか一つが前記基準撮像装置として決定された場合、前記第一オブジェクトの画像の色情報に基づいて、前記基準撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色に、前記第一撮像装置と前記第二撮像装置とのそれぞれが撮像した前記同一または同一種類のオブジェクトの画像の色を合わせた第一補正画像を生成し、
前記第一オブジェクトの画像の色情報と前記第二オブジェクトの画像の色情報との少なくとも1つに基づいて、前記基準撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色に、前記第三撮像装置の撮像した前記同一または同一種類のオブジェクトの画像の色を合わせた第二補正画像を生成する生成ステップと、
をコンピュータに実行させることを特徴とするプログラム。
From the captured images of the same or the same type of object captured by each of the at least one first imaging device, the plurality of second imaging devices, and the at least one third imaging device, the image region of the same or the same type of object is obtained. Cutting out and inputting as an image of the same or same type of object;
From the images of the same or the same type of object captured by each of the first imaging device and the second imaging device, an image of the first object is specified, and the second captured image and the third imaging device A specifying step of specifying an image of the second object from the images of the same or the same type of object each imaged;
A determination step of determining any one of the first imaging device, the second imaging device, and the third imaging device as a reference imaging device;
When one of the first imaging device and the second imaging device is determined as the reference imaging device, the same or the same imaged by the reference imaging device based on color information of the image of the first object Generating a first corrected image in which the color of the image of the same type of object captured by each of the first imaging device and the second imaging device is matched with the color of the image of the type of object;
Based on at least one of the color information of the image of the first object and the color information of the image of the second object, the color of the image of the same or same type of object captured by the reference imaging device is changed to the first color. A generation step of generating a second corrected image in which the colors of the images of the same or the same type of object imaged by the three imaging devices are combined;
A program that causes a computer to execute.
JP2016111365A 2015-06-11 2016-06-02 Image processing equipment, image processing methods and programs Active JP6789676B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015118356 2015-06-11
JP2015118356 2015-06-11

Publications (2)

Publication Number Publication Date
JP2017005699A true JP2017005699A (en) 2017-01-05
JP6789676B2 JP6789676B2 (en) 2020-11-25

Family

ID=57754543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016111365A Active JP6789676B2 (en) 2015-06-11 2016-06-02 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6789676B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107982A (en) * 2018-12-27 2020-07-09 コニカミノルタ株式会社 Image processing device, color conversion method, and color conversion program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322178A (en) * 1996-05-24 1997-12-12 Nippon Hoso Kyokai <Nhk> Method for recognizing object for automatic photographic camera system
JP2004185132A (en) * 2002-11-29 2004-07-02 Canon Inc Image processing method and device
JP2004191083A (en) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp Person detection device
JP2007051976A (en) * 2005-08-19 2007-03-01 Fujifilm Corp On-vehicle camera system, object position detecting system and object position detection method
JP2007087253A (en) * 2005-09-26 2007-04-05 Fujifilm Corp Image correction method and device
JP2009538558A (en) * 2006-05-22 2009-11-05 アクシス アクチボラグ Method and apparatus for identifying characteristics of an object detected by a video surveillance camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322178A (en) * 1996-05-24 1997-12-12 Nippon Hoso Kyokai <Nhk> Method for recognizing object for automatic photographic camera system
JP2004185132A (en) * 2002-11-29 2004-07-02 Canon Inc Image processing method and device
JP2004191083A (en) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp Person detection device
JP2007051976A (en) * 2005-08-19 2007-03-01 Fujifilm Corp On-vehicle camera system, object position detecting system and object position detection method
JP2007087253A (en) * 2005-09-26 2007-04-05 Fujifilm Corp Image correction method and device
JP2009538558A (en) * 2006-05-22 2009-11-05 アクシス アクチボラグ Method and apparatus for identifying characteristics of an object detected by a video surveillance camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107982A (en) * 2018-12-27 2020-07-09 コニカミノルタ株式会社 Image processing device, color conversion method, and color conversion program
JP7230500B2 (en) 2018-12-27 2023-03-01 コニカミノルタ株式会社 Image processing device, color conversion method and color conversion program

Also Published As

Publication number Publication date
JP6789676B2 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
AU2022252799B2 (en) System and method for appearance search
KR102415632B1 (en) Information processing apparatus, information processing method, and storage medium
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US9092662B2 (en) Pattern recognition method and pattern recognition apparatus
JP6362674B2 (en) Video surveillance support apparatus, video surveillance support method, and program
KR101381455B1 (en) Biometric information processing device
US10242287B2 (en) Image processing apparatus, image processing method, and recording medium
US20090290791A1 (en) Automatic tracking of people and bodies in video
US10353954B2 (en) Information processing apparatus, method of controlling the same, and storage medium
US20040213460A1 (en) Method of human figure contour outlining in images
JP2017033547A (en) Information processing apparatus, control method therefor, and program
US10762133B2 (en) Information processing apparatus, method of controlling the same, and storage medium
JP6649232B2 (en) Search device, display device, and search method
AU2019303730B2 (en) Hash-based appearance search
JP7188566B2 (en) Information processing device, information processing method and program
JP6855175B2 (en) Image processing equipment, image processing methods and programs
JP6789676B2 (en) Image processing equipment, image processing methods and programs
JP2020047082A (en) Information processing apparatus, information processing method, and program
JP2005176339A (en) Moving image processing method, moving image processing apparatus, moving image processing program and recording medium with the program recorded thereon
JP2019103029A (en) Information processing device, color correction method, and computer program
US11847823B2 (en) Object and keypoint detection system with low spatial jitter, low latency and low power usage
JP2019121184A (en) Collation apparatus, collation method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201104

R151 Written notification of patent or utility model registration

Ref document number: 6789676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151