JP7346915B2 - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP7346915B2
JP7346915B2 JP2019103545A JP2019103545A JP7346915B2 JP 7346915 B2 JP7346915 B2 JP 7346915B2 JP 2019103545 A JP2019103545 A JP 2019103545A JP 2019103545 A JP2019103545 A JP 2019103545A JP 7346915 B2 JP7346915 B2 JP 7346915B2
Authority
JP
Japan
Prior art keywords
representative
image data
image processing
brightness
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019103545A
Other languages
Japanese (ja)
Other versions
JP2020102182A (en
Inventor
浩 水藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/701,219 priority Critical patent/US10970828B2/en
Publication of JP2020102182A publication Critical patent/JP2020102182A/en
Application granted granted Critical
Publication of JP7346915B2 publication Critical patent/JP7346915B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an image processing system, an image processing method, and a program.

近年、マンション等の不動産を現地に行かなくてもユーザが個人のPC等で内覧できる不動産内覧サービスが提供されている。このようなサービスにおいて、各部屋の画像を撮影し、撮影された複数の画像をつなぎ合わせて表示したり視点を切り替えたりすることにより、ユーザがあたかも室内を行き来しているかのようなバーチャル体験をさせることができる。 In recent years, real estate viewing services have been provided that allow users to preview real estate such as condominiums on their personal PCs without having to go to the site. In such services, users can create a virtual experience as if they are moving back and forth in the room by taking images of each room, stitching together multiple images, displaying them, and switching viewpoints. can be done.

さらに、このようなサービスにおいて、ユーザにとって違和感のない画像を表示させるためには、表示される複数の画像の間で、明るさや色味を揃えることが重要である。そこで、明るさや照明条件が異なる条件下で撮影された画像に対して、色味を補正するための技術が知られている(例えば、特許文献1)。 Furthermore, in such a service, in order to display images that do not feel strange to the user, it is important to match the brightness and color tone among the plurality of displayed images. Therefore, there is a known technique for correcting the tint of images captured under different brightness and lighting conditions (for example, Patent Document 1).

しかしながら、従来の方法は、事業者等によって提供されるサービスの用途やユーザのニーズに応じて、補正対象の画像の補正を行うことについては検討の余地があった。 However, in the conventional method, there is room for consideration in correcting the image to be corrected depending on the purpose of the service provided by the business operator or the like and the needs of the user.

請求項1に係る画像処理システムは、複数の画像データに基づいて、補正対象の画像データの色補正を行う画像処理装置と通信ネットワークを介して通信可能に接続され、被写体を撮影する撮影装置を含む撮影システムと、を備える画像処理システムであって、前記画像処理装置は、前記画像データに係る画像を構成する各画素の画素値に基づいて、当該画像データを代表する色に関する特徴を示す第1の代表色を、前記画像データごとに決定する代表色決定手段と、決定された複数の前記第1の代表色に基づいて、複数の画像データを代表する色に関する特徴を示す第2の代表色を算出する代表色算出手段と、前記補正対象の画像データに対応する前記第1の代表色と、前記第2の代表色とを用いて、当該補正対象の画像データの前記色補正に用いる補正パラメータを算出する補正パラメータ算出手段と、算出された前記補正パラメータを用いて、前記補正対象の画像データの前記色補正を行う補正手段と、前記画像データの画像サイズを縮小する画像処理手段と、前記縮小された縮小画像データに対して前記色補正が行われた複数のプレビュー画像データを、前記撮影システムへ送信する第1の送信手段と、を備え、前記撮影システムは、前記画像処理装置から送信された複数の前記プレビュー画像データのうち、特定のプレビュー画像データの選択を受け付ける受付手段と、前記受け付けられた前記特定のプレビュー画像データを、前記画像処理装置へ送信する第2の送信手段と、を備え、前記補正手段は、前記撮影システムから送信された前記特定のプレビュー画像データに対応する前記補正パラメータを用いて、前記色補正を行う。
The image processing system according to claim 1 includes a photographing device that is communicably connected via a communication network to an image processing device that performs color correction of image data to be corrected based on a plurality of image data, and that photographs a subject. An image processing system comprising: a photographing system including a photographing system, wherein the image processing apparatus includes a photographing system including a photographing system, the image processing apparatus comprising: a photographing system including a photographing system; representative color determining means for determining one representative color for each of the image data; and a second representative that indicates characteristics regarding colors representing the plurality of image data based on the plurality of determined first representative colors. A representative color calculating means for calculating a color, the first representative color corresponding to the image data to be corrected, and the second representative color to be used for the color correction of the image data to be corrected. a correction parameter calculation means for calculating a correction parameter; a correction means for performing the color correction of the image data to be corrected using the calculated correction parameter; and an image processing means for reducing the image size of the image data. , a first transmitting means for transmitting a plurality of preview image data obtained by performing the color correction on the reduced image data to the photographing system, the photographing system comprising: a receiving unit that receives a selection of specific preview image data from among the plurality of preview image data transmitted from the plurality of preview image data; and a second transmitting unit that transmits the accepted specific preview image data to the image processing device. and, the correction means performs the color correction using the correction parameter corresponding to the specific preview image data transmitted from the photographing system.

本発明によれば、事業者等によって提供されるサービスの用途やユーザのニーズに応じた画像補正を行うことができる。 According to the present invention, it is possible to perform image correction according to the purpose of a service provided by a business operator or the like and the needs of a user.

第1の実施形態に係る画像処理システムのシステム構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a system configuration of an image processing system according to a first embodiment. 第1の実施形態に係る画像処理システムの処理の概略の一例を示す図である。FIG. 2 is a diagram illustrating an example of a schematic process of the image processing system according to the first embodiment. 第1の実施形態に係る画像処理装置のハードウエア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the hardware configuration of an image processing apparatus according to a first embodiment. 第1の実施形態に係る撮影装置のハードウエア構成の一例を示す図であるIt is a diagram showing an example of the hardware configuration of the imaging device according to the first embodiment. 第1の実施形態に係る通信端末のハードウエア構成の一例を示す図である。It is a diagram showing an example of the hardware configuration of a communication terminal according to the first embodiment. 第1の実施形態に係る表示端末のハードウエア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the hardware configuration of a display terminal according to the first embodiment. 第1の実施形態に係る画像処理システムの機能構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a functional configuration of an image processing system according to a first embodiment. 第1の実施形態に係る算出部の詳細な機能構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a detailed functional configuration of a calculation unit according to the first embodiment. 第1の実施形態に係る代表色管理テーブルの一例を示す概念図である。FIG. 3 is a conceptual diagram showing an example of a representative color management table according to the first embodiment. 第1の実施形態に係る総合代表色管理テーブルの一例を示す概念図である。FIG. 3 is a conceptual diagram showing an example of a comprehensive representative color management table according to the first embodiment. 第1の実施形態に係る補正パラメータ管理テーブルの一例を示す概念図である。FIG. 3 is a conceptual diagram showing an example of a correction parameter management table according to the first embodiment. 第1の実施形態に係る画像処理システムにおける撮影画像の補正処理の一例を示すシーケンス図である。FIG. 2 is a sequence diagram illustrating an example of correction processing for captured images in the image processing system according to the first embodiment. 第1の実施形態に係る画像処理装置における補正パラメータの算出処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of a correction parameter calculation process in the image processing apparatus according to the first embodiment. 第1の実施形態に係る画像処理装置における代表色算出処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of representative color calculation processing in the image processing apparatus according to the first embodiment. 第1の実施形態に係る撮影画像の一例を示す図である。FIG. 3 is a diagram showing an example of a photographed image according to the first embodiment. 第1の実施形態に係る撮影画像に対してクラスタ処理を施した画像の一例を示す図である。FIG. 3 is a diagram showing an example of an image obtained by performing cluster processing on a photographed image according to the first embodiment. 第1の実施形態に係る画像処理装置における総合代表色算出処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of comprehensive representative color calculation processing in the image processing apparatus according to the first embodiment. 第1の実施形態に係る補正画像の一例を示す図である。FIG. 3 is a diagram showing an example of a corrected image according to the first embodiment. 第1の実施形態に係る通信端末におけるプレビュー画像の選択処理の一例を示すシーケンス図である。FIG. 3 is a sequence diagram illustrating an example of preview image selection processing in the communication terminal according to the first embodiment. 第1の実施形態に係るプレビュー画面の一例を示す図である。FIG. 3 is a diagram showing an example of a preview screen according to the first embodiment. 第2の実施形態に係る画像処理システムの処理の概略の一例を示す図である。FIG. 7 is a diagram illustrating an example of a schematic process of an image processing system according to a second embodiment. 第2の実施形態に係る算出部の詳細な機能構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a detailed functional configuration of a calculation unit according to a second embodiment. 第2の実施形態に係る代表輝度値管理テーブルの一例を示す概念図である。FIG. 7 is a conceptual diagram showing an example of a representative brightness value management table according to the second embodiment. 第2の実施形態に係る画像処理装置における補正パラメータの算出処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of correction parameter calculation processing in the image processing apparatus according to the second embodiment. 第2の実施形態に係る明るさ補正パラメータの一例を示す図である。FIG. 7 is a diagram showing an example of brightness correction parameters according to the second embodiment. 第2の実施形態に係るプレビュー画面の一例を示す図である。It is a figure which shows an example of the preview screen based on 2nd Embodiment. 第2の実施形態の変形例1に係る算出部の詳細な機能構成の一例を示す図である。It is a figure showing an example of detailed functional composition of a calculation part concerning modification 1 of a 2nd embodiment. 第2の実施形態の変形例1に係る総合代表輝度値管理テーブルの一例を示す概念図である。FIG. 7 is a conceptual diagram showing an example of a comprehensive representative brightness value management table according to Modification 1 of the second embodiment. 第2の実施形態の変形例1に係る補正パラメータ管理テーブルの一例を示す概念図である。FIG. 7 is a conceptual diagram showing an example of a correction parameter management table according to Modification 1 of the second embodiment. 第2の実施形態の変形例1に係る画像処理装置における補正パラメータの算出処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of a correction parameter calculation process in the image processing apparatus according to Modification 1 of the second embodiment. 第2の実施形態の変形例1に係る画像処理装置における総合代表輝度値算出処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of overall representative brightness value calculation processing in the image processing apparatus according to Modification 1 of the second embodiment. 第2の実施形態の変形例1に係る明るさ補正パラメータの一例を示す図である。FIG. 7 is a diagram illustrating an example of brightness correction parameters according to Modification 1 of the second embodiment. 第2の実施形態の変形例1に係る明るさ補正ゲインの一例を示す図である。FIG. 7 is a diagram illustrating an example of brightness correction gain according to Modification 1 of the second embodiment. 第3の実施形態に係る算出部の詳細な機能構成の一例を示す図である。It is a figure showing an example of detailed functional composition of a calculation part concerning a 3rd embodiment. 第3の実施形態の変形例1に係る算出部の詳細な機能構成の一例を示す図である。It is a figure showing an example of detailed functional composition of a calculation part concerning modification 1 of a 3rd embodiment. その他の実施形態に係る画像処理システムのシステム構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a system configuration of an image processing system according to another embodiment. その他の実施形態に係る画像処理システムの機能構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a functional configuration of an image processing system according to another embodiment. その他の実施形態に係る画像処理システムのシステム構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a system configuration of an image processing system according to another embodiment. その他の実施形態に係る画像処理システムの機能構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a functional configuration of an image processing system according to another embodiment.

以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。 Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In addition, in the description of the drawings, the same elements are given the same reference numerals, and overlapping description will be omitted.

●第1の実施形態●
●システム構成
図1は、第1の実施形態に係る画像処理システムのシステム構成の一例を示す図である。図1に示す画像処理システム1aは、撮影装置30によって撮影された拠点Pの任意の空間の画像を遠隔地に位置する表示端末90に表示させることによって、拠点Pの状況を閲覧者Yが確認することができるシステムである。
●First embodiment●
●System Configuration FIG. 1 is a diagram showing an example of the system configuration of an image processing system according to the first embodiment. The image processing system 1a shown in FIG. 1 allows a viewer Y to check the status of the base P by displaying an image of an arbitrary space of the base P captured by the imaging device 30 on a display terminal 90 located at a remote location. This is a system that allows you to

図1に示されているように、第1の実施形態に係る画像処理システム1aは、画像処理装置10a、撮影装置30、通信端末50、無線ルータ9および表示端末90によって構成されている。 As shown in FIG. 1, the image processing system 1a according to the first embodiment includes an image processing device 10a, a photographing device 30, a communication terminal 50, a wireless router 9, and a display terminal 90.

このうち、画像処理装置10aは、例えば、サーバコンピュータであり、通信ネットワーク5を介して、通信端末50および表示端末90とデータ通信を行なうことができる。画像処理装置10aは、通信端末50から送信された複数の撮影画像データ200に基づいて、補正対象の撮影画像データ200の色補正処理を行う。また、画像処理装置10aは、色補正処理によって生成された補正画像データを、表示端末90に提供する。なお、画像処理装置10aは、単一のサーバコンピュータによって構成されてもよいし、複数のサーバコンピュータによって構成されてもよい。 Among these, the image processing device 10a is, for example, a server computer, and can perform data communication with the communication terminal 50 and the display terminal 90 via the communication network 5. The image processing device 10a performs color correction processing on the photographed image data 200 to be corrected, based on the plurality of photographed image data 200 transmitted from the communication terminal 50. The image processing device 10a also provides the display terminal 90 with corrected image data generated by the color correction process. Note that the image processing device 10a may be configured by a single server computer, or may be configured by a plurality of server computers.

また、撮影装置30は、全天球(360°)パノラマ画像を得るためのデジタルカメラである。なお、この撮影装置30は、一般的なデジタルカメラであっても良く、通信端末50にカメラが付いている場合は、通信端末50がデジタルカメラとなりうる。通信端末50は、撮影装置30とのデータ送受信を行なう端末である。また、通信端末50は、撮影装置30とデータ通信を行なうことができるとともに、無線ルータ9および通信ネットワーク5を介して画像処理装置10aとデータ通信を行なうことができる。なお、通信ネットワーク5は、例えば、インターネットである。さらに、撮影装置30および通信端末50は、撮影システム7を構成する。なお、撮影装置30および通信端末50によって構成される撮影システム7は、撮影装置30および通信端末50の機能を備えた一台の装置または端末によって構成されてもよい。 Further, the photographing device 30 is a digital camera for obtaining a spherical (360°) panoramic image. Note that this photographing device 30 may be a general digital camera, and if the communication terminal 50 is equipped with a camera, the communication terminal 50 can be a digital camera. The communication terminal 50 is a terminal that transmits and receives data to and from the photographing device 30. Further, the communication terminal 50 can perform data communication with the photographing device 30 and can also perform data communication with the image processing device 10a via the wireless router 9 and the communication network 5. Note that the communication network 5 is, for example, the Internet. Further, the photographing device 30 and the communication terminal 50 constitute a photographing system 7. Note that the photographing system 7 configured by the photographing device 30 and the communication terminal 50 may be configured by one device or terminal having the functions of the photographing device 30 and the communication terminal 50.

さらに、表示端末90は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク5を介して、画像処理装置10aとデータ通信を行うことができる。表示端末90は、管理者Xによって提供されるサービスを利用するユーザ(閲覧者Y)が使用する端末である。なお、表示端末90は、ノートPCのみならず、スマートフォン、タブレット型PCまたはデスクトップPC等であってもよい。 Further, the display terminal 90 is, for example, a notebook PC (Personal Computer), and can perform data communication with the image processing device 10a via the communication network 5. The display terminal 90 is a terminal used by a user (viewer Y) who uses the service provided by the administrator X. Note that the display terminal 90 may be not only a notebook PC but also a smartphone, a tablet PC, a desktop PC, or the like.

撮影装置30、通信端末50および無線ルータ9は、管理者Xによる管理対象である拠点Pに設置される。拠点Pは、例えば、マンションもしくはアパート等の集合住宅、戸建て住宅、または店舗等である。画像処理システム1aは、撮影装置30によって撮影された拠点Pにおける空間(被写体)の撮影画像データ200に係る撮影画像800を用いた所定のサービスを、ユーザ(閲覧者Y)に提供する。表示端末90は、画像処理装置10aを介して送られて来る拠点Pの状況を表した画像を表示することで、閲覧者Yが拠点Pの空間(状況)を表した画像を閲覧することができる。 The photographing device 30, the communication terminal 50, and the wireless router 9 are installed at a base P that is managed by the administrator X. The base P is, for example, a housing complex such as a condominium or an apartment, a detached house, a store, or the like. The image processing system 1a provides a user (viewer Y) with a predetermined service using a photographed image 800 related to photographed image data 200 of a space (subject) at the base P photographed by the photographing device 30. The display terminal 90 displays the image representing the situation of the base P sent via the image processing device 10a, so that the viewer Y can view the image representing the space (situation) of the base P. can.

●概略
ここで、第1の実施形態に係る画像形成システムの処理の概略について説明する。なお、図2は、第1の実施形態に係る画像処理システムの概略を簡略的に説明したものであり、画像処理システム1aが実現する機能等の詳細は、後述する図面等を用いて説明する。
●Overview Here, an overview of the processing of the image forming system according to the first embodiment will be described. Note that FIG. 2 briefly explains the outline of the image processing system according to the first embodiment, and details such as functions realized by the image processing system 1a will be explained using drawings etc. described later. .

図2は、第1の実施形態に係る画像形成システムの処理の概略の一例を示す図である。画像処理システム1aは、撮影装置30によって撮影されて取得された複数の撮影画像データ200に基づいて、画像処理装置10aが補正対象の撮影画像データ200の色補正を行うシステムである。画像処理装置10aは、異なる被写体が撮影された複数の撮影画像データ200に係る撮影画像800に対して、色味を揃えた補正を行うことができる。 FIG. 2 is a diagram schematically illustrating an example of processing of the image forming system according to the first embodiment. The image processing system 1a is a system in which the image processing device 10a performs color correction of the captured image data 200 to be corrected, based on a plurality of captured image data 200 captured and acquired by the imaging device 30. The image processing device 10a can perform correction to match the color tone on a photographed image 800 related to a plurality of photographed image data 200 in which different subjects are photographed.

まず、画像処理装置10aは、撮影装置30によって異なる被写体が撮影された複数の撮影画像データ200(200a,200b,200c,200d)を取得する。画像処理装置10aは、取得された撮影画像データ200に係る撮影画像800の代表色を、撮影画像データ200ごとに決定する。ここで、代表色とは、撮影画像データ200に係る撮影画像800を構成する各画素の画素値に基づいて、撮影画像データ200を代表する色に関する特徴を示す画素値である。 First, the image processing device 10a acquires a plurality of photographed image data 200 (200a, 200b, 200c, 200d) in which different subjects are photographed by the photographing device 30. The image processing device 10a determines the representative color of the captured image 800 related to the acquired captured image data 200 for each captured image data 200. Here, the representative color is a pixel value that indicates a characteristic related to a color that represents the photographed image data 200 based on the pixel value of each pixel constituting the photographed image 800 related to the photographed image data 200.

次に、画像処理装置10aは、代表色決定処理によって決定された複数の代表色を用いて、複数の撮影画像データ200を代表する色に関する特徴を示す総合代表色を算出する。そして、画像処理装置10aは、総合代表色算出処理によって算出された総合代表色と、撮影画像データ200ごとに決定された代表色とを用いて、撮影画像データ200の色補正を行うための補正パラメータを算出する。 Next, the image processing device 10a uses the plurality of representative colors determined by the representative color determination process to calculate a comprehensive representative color that indicates characteristics related to colors representing the plurality of photographed image data 200. Then, the image processing device 10a performs correction for performing color correction of the photographed image data 200 using the comprehensive representative color calculated by the comprehensive representative color calculation process and the representative color determined for each photographed image data 200. Calculate parameters.

次に、画像処理装置10aは、補正パラメータ算出処理によって算出された補正パラメータを用いて、撮影画像データ200ごとに色補正処理を行う。そして、画像処理装置10aは、色補正処理が行われた補正画像データ250(250a,250b,250c,250d)を、表示端末90へ送信する。これにより、表示端末90は、受信した異なる被写体が撮影された複数の補正画像データ250を表示することによって、撮影装置30が位置する拠点Pの状況をユーザに確認させることができる。 Next, the image processing device 10a performs color correction processing for each photographed image data 200 using the correction parameters calculated by the correction parameter calculation processing. The image processing device 10a then transmits the corrected image data 250 (250a, 250b, 250c, 250d) on which the color correction process has been performed to the display terminal 90. Thereby, the display terminal 90 can allow the user to confirm the situation of the base P where the photographing device 30 is located by displaying the plurality of received corrected image data 250 in which different subjects are photographed.

画像処理システム1aが適用される不動産内覧サービスにおけるツアー表示では、不動産物件の部屋ごとに撮影された被写体の異なる複数の画像の間で色合いが揃っていることと、適切な明るさになっていることが好ましい。例えば、画像のそれぞれを単独で見れば違和感を生じないが、複数の画像を一連で見た場合、画像を閲覧するユーザ(例えば、図1の閲覧者Y)に違和感を生じさせる場合がある。 In a tour display in a real estate viewing service to which the image processing system 1a is applied, it is necessary to ensure that the colors are consistent and the brightness is appropriate among multiple images of different subjects taken for each room of the real estate property. It is preferable. For example, if each image is viewed individually, the user will not feel uncomfortable, but if a plurality of images are viewed in series, the user viewing the images (for example, viewer Y in FIG. 1) may feel uncomfortable.

しかし、従来の色補正を行う方法は、同一被写体の色再現性を高めるための手法であり、被写体が異なる画像に対して明るさや色味を補正するような画像処理を行うことは考慮されていない。例えば、ある光源下で撮影された画像データから補正対象の画素を抽出したとしても、被写体の異なる別の画像データに対して、補正対象の画素に対応する抽出領域を対応させることができなかった。さらに、従来の方法では、予め決められた観察光源(照明)下における理想的な原作(被写体)と同じ色を再現するための手法であるため、明るさや色味の異なる複数の画像に対して、狙いとなる明るさや色味をどのように決定し、どのように補正したら良いのか分からなかった。 However, conventional color correction methods are methods for improving color reproducibility for the same subject, and do not take into account image processing that corrects brightness and color for images with different subjects. do not have. For example, even if a pixel to be corrected is extracted from image data taken under a certain light source, it is not possible to match the extraction area corresponding to the pixel to be corrected to another image data of a different subject. . Furthermore, since the conventional method is a method for reproducing the same colors as the ideal original (subject) under a predetermined viewing light source (illumination), it is possible to reproduce multiple images with different brightness and color tone. , I didn't know how to determine the brightness and color tone I was aiming for, and how to correct them.

そこで、画像処理システム1aは、明るさや色味の異なる複数の撮影画像800からそれぞれの撮影画像800に対する代表色を決定し、さらに決定されたそれぞれの代表色を代表する一つの総合代表色を決定する。そして、画像処理システム1aは、それぞれの撮影画像800における代表色と、各撮影画像800に共通する総合代表色とを用いて、色補正に用いる補正パラメータを算出し、算出した補正パラメータを用いて、各撮影画像800の色補正を行う。これにより、画像処理システム1aは、異なる被写体が撮影されたことにより明るさや色味が異なる複数の撮影画像800に対して、明るさや色味を揃えた補正画像850を生成することができるので、複数の撮影画像800の明るさや色味を調整して画像を閲覧するユーザの利便性を向上させたいというサービス提供者やユーザのニーズに応じた画像補正を行うことができる。 Therefore, the image processing system 1a determines a representative color for each photographed image 800 from a plurality of photographed images 800 having different brightness and color, and further determines one overall representative color representing each of the determined representative colors. do. Then, the image processing system 1a calculates a correction parameter to be used for color correction using the representative color in each photographed image 800 and a general representative color common to each photographed image 800, and uses the calculated correction parameter to calculate a correction parameter to be used for color correction. , performs color correction on each captured image 800. As a result, the image processing system 1a can generate a corrected image 850 with uniform brightness and color tone for a plurality of captured images 800 that differ in brightness and color tone due to photographing different subjects. Image correction can be performed in accordance with the needs of service providers and users who wish to adjust the brightness and color of the plurality of captured images 800 to improve convenience for users who view the images.

●ハードウエア構成
続いて、図3乃至図5を用いて、第1の実施形態における画像処理装置10a、撮影装置30、通信端末50および表示端末90のハードウエア構成を説明する。なお、図3乃至図5に示すハードウエア構成は、各実施形態において同様の構成を備えていてもよく、必要に応じて構成要素が追加または削除されてもよい。
●Hardware Configuration Next, the hardware configuration of the image processing device 10a, the photographing device 30, the communication terminal 50, and the display terminal 90 in the first embodiment will be described using FIGS. 3 to 5. Note that the hardware configurations shown in FIGS. 3 to 5 may have the same configuration in each embodiment, and components may be added or deleted as necessary.

〇画像処理装置のハードウエア構成
まず、図3を用いて、画像処理装置10aのハードウエア構成を説明する。図3は、第1の実施形態に係る画像処理装置のハードウエア構成の一例を示す図である。
Hardware Configuration of Image Processing Apparatus First, the hardware configuration of the image processing apparatus 10a will be described using FIG. 3. FIG. 3 is a diagram illustrating an example of the hardware configuration of the image processing apparatus according to the first embodiment.

画像処理装置10aは、コンピュータによって構築されており、図3に示すように、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HD(Hard Disk)104、HDD(Hard Disk Drive)コントローラ105、記録メディア106、メディアI/F107、ネットワークI/F109、DVD-RW(Digital Versatile Disk Rewritable)ドライブ114、およびバスライン110を備えている。 The image processing device 10a is constructed by a computer, and as shown in FIG. , an HDD (Hard Disk Drive) controller 105, a recording medium 106, a media I/F 107, a network I/F 109, a DVD-RW (Digital Versatile Disk Rewritable) drive 114, and a bus line 110.

これらのうち、CPU101は、画像処理装置10a全体の動作を制御する。ROM102は、IPL(Initial Program Loader)等のCPU101の駆動に用いられるプログラムを記憶する。RAM103は、CPU101のワークエリアとして使用される。HD104は、プログラム等の各種データを記憶する。HDDコントローラ105は、CPU101の制御にしたがってHD104に対する各種データの読み出しまたは書き込みを制御する。メディアI/F107は、フラッシュメモリ等の記録メディア106に対するデータの読み出しまたは書き込み(記憶)を制御する。ネットワークI/F109は、通信ネットワーク5を利用してデータ通信をするためのインターフェースである。DVD-RWドライブ114は、着脱可能な記録媒体の一例としてのDVD-RW113に対する各種データの読み出しまたは書き込みを制御する。なお、DVD-RWに限らず、DVD-R等であってもよい。また、DVD-RWドライブ114は、ブルーレイディスク(登録商標)に対する各種データの読み出しまたは書き込みを制御するブルーレイドライブであってもよい。 Among these, the CPU 101 controls the entire operation of the image processing apparatus 10a. The ROM 102 stores programs used to drive the CPU 101, such as IPL (Initial Program Loader). RAM 103 is used as a work area for CPU 101. The HD 104 stores various data such as programs. The HDD controller 105 controls reading and writing of various data to the HD 104 under the control of the CPU 101. The media I/F 107 controls reading or writing (storage) of data to a recording medium 106 such as a flash memory. The network I/F 109 is an interface for data communication using the communication network 5. The DVD-RW drive 114 controls reading and writing of various data to and from a DVD-RW 113, which is an example of a removable recording medium. Note that it is not limited to DVD-RW, but may be DVD-R or the like. Further, the DVD-RW drive 114 may be a Blu-ray drive that controls reading and writing of various data on a Blu-ray Disc (registered trademark).

また、画像処理装置10aは、バスライン110を備えている。バスライン110は、図3に示されているCPU101等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The image processing device 10a also includes a bus line 110. The bus line 110 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 101 shown in FIG. 3.

〇撮影装置のハードウエア構成
まず、図4を用いて、撮影装置30のハードウエア構成を説明する。図4は、第1の実施形態に係る撮影装置のハードウエア構成の一例を示す図である。以下では、撮影装置30は、二つの撮像素子を使用した全天球(全方位)撮影装置とするが、撮像素子は、二つ以上いくつでもよい。また、撮影装置30は、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に撮影装置30と同じ機能を有するようにしてもよい。
Hardware configuration of photographing device First, the hardware configuration of the photographing device 30 will be explained using FIG. 4. FIG. 4 is a diagram showing an example of the hardware configuration of the imaging device according to the first embodiment. In the following, the photographing device 30 is assumed to be a spherical (omnidirectional) photographing device using two image sensors, but the number of image sensors may be any number greater than two. Furthermore, the photographing device 30 does not necessarily have to be a device exclusively for omnidirectional photography, and by attaching an aftermarket omnidirectional imaging unit to a normal digital camera, smartphone, etc., it can have substantially the same functions as the photographing device 30. It may be made to have.

図4に示すように、撮影装置30は、撮像ユニット301、画像処理ユニット304、撮像制御ユニット305、マイクロフォン308、音処理ユニット309、CPU311、ROM312、SRAM313、DRAM314、操作部315、入出力I/F316、近距離通信回路317、アンテナ317aおよび加速度・方位センサ318によって構成されている。 As shown in FIG. 4, the imaging device 30 includes an imaging unit 301, an image processing unit 304, an imaging control unit 305, a microphone 308, a sound processing unit 309, a CPU 311, a ROM 312, an SRAM 313, a DRAM 314, an operation unit 315, an input/output I/O It is composed of F316, short-range communication circuit 317, antenna 317a, and acceleration/direction sensor 318.

これらのうち、撮像ユニット301は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)302a,302bと、各広角レンズに対応させて設けられている二つの撮像素子303a,303bを備えている。撮像素子303a,303bは、広角レンズ302a,302bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の画像センサ、この画像センサの水平または垂直同期信号や画素クロック等を生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータ等が設定されるレジスタ群等を有している。 Among these, the imaging unit 301 includes wide-angle lenses (so-called fisheye lenses) 302a and 302b each having an angle of view of 180° or more for forming a hemispherical image, and two lenses provided corresponding to each wide-angle lens. It includes image sensors 303a and 303b. The image sensors 303a and 303b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images formed by wide-angle lenses 302a and 302b into electrical signal image data and output the image data. It has a timing generation circuit that generates horizontal or vertical synchronization signals and pixel clocks for the sensor, and a group of registers in which various commands, parameters, etc. necessary for the operation of this image sensor are set.

撮像素子303a,303bは、それぞれ画像処理ユニット304とパラレルI/Fバスで接続されている。また、撮像素子303a,303bは、それぞれ撮像制御ユニット305とシリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット304、撮像制御ユニット305および音処理ユニット309は、バスライン310を介してCPU311と接続される。さらに、バスライン310は、ROM312、SRAM313、DRAM314、操作部315、入出力I/F316、近距離通信回路317および加速度・方位センサ318等と接続される。 The image sensors 303a and 303b are each connected to an image processing unit 304 via a parallel I/F bus. Further, the imaging elements 303a and 303b are each connected to an imaging control unit 305 via a serial I/F bus (such as an I2C bus). Image processing unit 304, imaging control unit 305, and sound processing unit 309 are connected to CPU 311 via bus line 310. Further, the bus line 310 is connected to a ROM 312, an SRAM 313, a DRAM 314, an operation unit 315, an input/output I/F 316, a short-range communication circuit 317, an acceleration/direction sensor 318, and the like.

画像処理ユニット304は、撮像素子303a,303bから出力される画像データをパラレルI/Fバスを通して取り込む。そして、画像処理ユニット304は、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒射影画像のデータを作成する。 The image processing unit 304 takes in image data output from the image sensors 303a and 303b through the parallel I/F bus. Then, the image processing unit 304 performs predetermined processing on each image data, and then synthesizes these image data to create data of an equirectangular projection image.

撮像制御ユニット305は、一般に撮像制御ユニット305をマスタデバイス、撮像素子303a,303bをスレーブデバイスとして、I2Cバスを利用して、撮像素子303a,303bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU311から受け取る。また、撮像制御ユニット305は、同じくI2Cバスを利用して、撮像素子303a,303bのレジスタ群のステータスデータ等を取り込み、CPU311に送る。 Generally, the imaging control unit 305 uses the I2C bus to set commands and the like in register groups of the imaging devices 303a and 303b, using the imaging control unit 305 as a master device and the imaging devices 303a and 303b as slave devices. Necessary commands and the like are received from the CPU 311. The imaging control unit 305 also uses the I2C bus to take in status data and the like of the register groups of the imaging elements 303a and 303b, and sends it to the CPU 311.

また、撮像制御ユニット305は、操作部315のシャッターボタンが押下されたタイミングで、撮像素子303a,303bに画像データの出力を指示する。撮影装置30は、ディスプレイ(例えば、通信端末50のディスプレイ517)によるプレビュー表示機能、静止画や動画の表示に対応する機能を持つ場合もある。動画の場合は、撮像素子303a,303bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the imaging control unit 305 instructs the imaging elements 303a and 303b to output image data at the timing when the shutter button of the operation unit 315 is pressed. The photographing device 30 may have a preview display function on a display (for example, the display 517 of the communication terminal 50), and a function corresponding to the display of still images and moving images. In the case of a moving image, image data is output continuously from the image sensors 303a and 303b at a predetermined frame rate (frames/minute).

また、撮像制御ユニット305は、後述するように、CPU311と協働して撮像素子303a,303bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態において、撮影装置30は、ディスプレイが設けられていないが、表示部を設けてもよい。 The imaging control unit 305 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 303a and 303b in cooperation with the CPU 311, as will be described later. Note that in this embodiment, the photographing device 30 is not provided with a display, but may be provided with a display section.

マイクロフォン308は、それぞれ、撮影装置30の周辺環境から集音し、集音した音を音(信号)データに変換する。音処理ユニット309は、マイクロフォン308から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。マイクロフォン308は、それぞれ周辺環境から集音する集音手段を構成する。また、図4は、マイクロフォン308が撮影装置30に内蔵される場合のみを示すが、マイクロフォン308は、撮影装置30に外付けされてもよい。さらに、マイクロフォン308の数は、一つに限られず、所定の配置構成を有する複数のマイクロフォンを有していてもよい。好ましくは、マイクロフォン308は、アンビソニックス・マイクロフォンである。 The microphones 308 each collect sound from the surrounding environment of the photographing device 30 and convert the collected sound into sound (signal) data. The sound processing unit 309 takes in sound data output from the microphone 308 through the I/F bus, and performs predetermined processing on the sound data. The microphones 308 constitute sound collection means for collecting sounds from the surrounding environment. Further, although FIG. 4 shows only a case where the microphone 308 is built into the photographing device 30, the microphone 308 may be externally attached to the photographing device 30. Further, the number of microphones 308 is not limited to one, and may include a plurality of microphones having a predetermined arrangement. Preferably, microphone 308 is an ambisonics microphone.

CPU311は、撮影装置30の全体の動作を制御すると共に必要な処理を実行する。ROM312は、CPU311のための種々のプログラムを記憶している。SRAM313およびDRAM314はワークメモリであり、CPU311で実行するプログラムや処理途中のデータ等を記憶する。特に、DRAM314は、画像処理ユニット304での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 311 controls the overall operation of the photographing device 30 and executes necessary processing. ROM312 stores various programs for CPU311. The SRAM 313 and DRAM 314 are work memories that store programs executed by the CPU 311, data being processed, and the like. In particular, the DRAM 314 stores image data that is currently being processed by the image processing unit 304 and data of processed equirectangular projection images.

操作部315は、シャッターボタン315a等の操作ボタンの総称である。ユーザは、操作部315を操作することで、種々の撮影モードや撮影条件等を入力する。 The operation unit 315 is a general term for operation buttons such as the shutter button 315a. The user inputs various shooting modes, shooting conditions, etc. by operating the operation unit 315.

入出力I/F316は、SDカード等の外付けのメディアまたはパーソナルコンピュータ等とのインターフェース回路(USBI/F等)の総称である。入出力I/F316は、無線、有線を問わない。DRAM314に記憶された正距円筒射影画像のデータは、入出力I/F316を介して外付けのメディアに記録されたり、必要に応じて入出力I/F316を介して通信端末50等の外部端末(装置)に送信されたりする。 The input/output I/F 316 is a general term for an interface circuit (USB I/F, etc.) with external media such as an SD card or a personal computer. The input/output I/F 316 may be wireless or wired. The data of the equirectangular projection image stored in the DRAM 314 may be recorded on an external media via the input/output I/F 316, or may be sent to an external terminal such as the communication terminal 50 via the input/output I/F 316 as necessary. (device).

近距離通信回路317は、撮影装置30に設けられたアンテナ317aを介して、Wi-Fi(登録商標)、NFC(Near Field Communication)またはBluetooth(登録商標)等の近距離無線通信技術によって、通信端末50等の外部端末(装置)と通信を行う。近距離通信回路317は、正距円筒射影画像のデータを通信端末50等の外部端末(装置)に送信することができる。 The short-range communication circuit 317 performs communication via an antenna 317a provided in the photographing device 30 by short-range wireless communication technology such as Wi-Fi (registered trademark), NFC (Near Field Communication), or Bluetooth (registered trademark). It communicates with an external terminal (device) such as the terminal 50. The short-range communication circuit 317 can transmit data of the equirectangular projection image to an external terminal (device) such as the communication terminal 50.

加速度・方位センサ318は、地球の磁気から撮影装置30の方位を算出し、方位情報を出力する。方位情報は、Exif(Exchangeable image file format)に沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報は、画像の撮影日時、および画像データのデータ容量の各データを含む。 The acceleration/azimuth sensor 318 calculates the azimuth of the imaging device 30 from the earth's magnetism and outputs azimuth information. The orientation information is an example of related information (metadata) in accordance with Exif (Exchangeable image file format), and is used for image processing such as image correction of captured images. Note that the related information includes data such as the date and time when the image was taken and the data capacity of the image data.

〇通信端末のハードウエア構成
次に、図5を用いて、通信端末50のハードウエア構成を説明する。図5は、第1の実施形態に係る通信端末のハードウエア構成の一例を示す図である。
Hardware Configuration of Communication Terminal Next, the hardware configuration of the communication terminal 50 will be described using FIG. 5. FIG. 5 is a diagram illustrating an example of the hardware configuration of the communication terminal according to the first embodiment.

通信端末50は、CPU501、ROM502、RAM503、EEPROM(Electrically Erasable Programmable Read-Only Memory)504、CMOSセンサ505、撮像素子I/F513a、加速度・方位センサ506、メディアI/F508およびGPS受信部509を備えている。 The communication terminal 50 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM (Electrically Erasable Programmable Read-Only Memory) 504, a CMOS sensor 505, an image sensor I/F 513a, an acceleration/direction sensor 506, a media I/F 508, and a GPS receiver 509. ing.

これらのうち、CPU501は、通信端末50全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、通信端末用プログラム等の各種データの読み出しまたは書き込みを行う。 Among these, the CPU 501 controls the operation of the communication terminal 50 as a whole. The ROM 502 stores programs used to drive the CPU 501 such as IPL. RAM 503 is used as a work area for CPU 501. The EEPROM 504 reads or writes various data such as communication terminal programs under the control of the CPU 501.

CMOSセンサ505は、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F513aは、CMOSセンサ512の駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出しまたは書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。 The CMOS sensor 505 captures an image of a subject (mainly a self-portrait) under the control of the CPU 501 and obtains image data. The image sensor I/F 513a is a circuit that controls driving of the CMOS sensor 512. The acceleration/direction sensor 506 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect geomagnetism. A media I/F 508 controls reading or writing (storage) of data to a recording medium 507 such as a flash memory. GPS receiving section 509 receives GPS signals from GPS satellites.

また、通信端末50は、遠距離通信回路511、アンテナ511a、CMOSセンサ512、撮像素子I/F513b、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519aおよびタッチパネル521を備えている。 The communication terminal 50 also includes a long-distance communication circuit 511, an antenna 511a, a CMOS sensor 512, an image sensor I/F 513b, a microphone 514, a speaker 515, a sound input/output I/F 516, a display 517, an external device connection I/F 518, a nearby It includes a distance communication circuit 519, an antenna 519a of the short distance communication circuit 519, and a touch panel 521.

遠距離通信回路511は、通信ネットワーク5を介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513bは、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514およびスピーカ515との間で音信号の入出力を処理する回路である。 The long-distance communication circuit 511 is a circuit that communicates with other devices via the communication network 5. The CMOS sensor 512 is a type of built-in imaging means that images a subject and obtains image data under the control of the CPU 501. The image sensor I/F 513b is a circuit that controls driving of the CMOS sensor 512. The microphone 514 is a type of built-in sound collecting means for inputting audio. The sound input/output I/F 516 is a circuit that processes input/output of sound signals between the microphone 514 and the speaker 515 under the control of the CPU 501.

ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機EL等の表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi、NFC、またはBluetooth等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、通信端末50を操作する入力手段の一種である。また、通信端末50は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The display 517 is a type of display means such as a liquid crystal or an organic EL display that displays an image of a subject, various icons, and the like. External device connection I/F 518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as Wi-Fi, NFC, or Bluetooth. The touch panel 521 is a type of input means by which the user operates the communication terminal 50 by pressing the display 517. The communication terminal 50 also includes a bus line 510. The bus line 510 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 501.

〇表示端末のハードウエア構成
次に、図6を用いて、表示端末90のハードウエア構成を説明する。図6は、第1の実施形態に係る表示端末のハードウエア構成の一例を示す図である。
Hardware Configuration of Display Terminal Next, the hardware configuration of the display terminal 90 will be described using FIG. 6. FIG. 6 is a diagram illustrating an example of the hardware configuration of the display terminal according to the first embodiment.

表示端末90は、コンピュータによって構築されており、図6に示すように、CPU901、ROM902、RAM903、HD904、HDDコントローラ905、記録メディア906、メディアI/F907、ディスプレイ908、ネットワークI/F909、キーボード911、マウス912、DVD-RWドライブ914、およびバスライン910を備えている。 The display terminal 90 is constructed by a computer, and as shown in FIG. , a mouse 912, a DVD-RW drive 914, and a bus line 910.

これらのうち、CPU901は、表示端末90全体の動作を制御する。ROM902は、IPL等のCPU901の駆動に用いられるプログラムを記憶する。RAM903は、CPU901のワークエリアとして使用される。HD904は、プログラム等の各種データを記憶する。HDDコントローラ905は、CPU901の制御にしたがってHD904に対する各種データの読み出しまたは書き込みを制御する。メディアI/F907は、フラッシュメモリ等の記録メディア906に対するデータの読み出しまたは書き込み(記憶)を制御する。ディスプレイ908は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。ディスプレイ908は、表示部の一例である。ネットワークI/F909は、通信ネットワーク5を利用してデータ通信をするためのインターフェースである。キーボード911は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。マウス912は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。DVD-RWドライブ914は、着脱可能な記録媒体の一例としてのDVD-RW913に対する各種データの読み出しまたは書き込みを制御する。なお、DVD-RWに限らず、DVD-R等であってもよい。また、DVD-RWドライブ914は、ブルーレイディスクに対する各種データの読み出しまたは書き込みを制御するブルーレイドライブであってもよい。 Of these, the CPU 901 controls the overall operation of the display terminal 90. The ROM 902 stores programs used to drive the CPU 901 such as IPL. RAM903 is used as a work area for CPU901. The HD 904 stores various data such as programs. The HDD controller 905 controls reading and writing of various data to the HD 904 under the control of the CPU 901. A media I/F 907 controls reading or writing (storage) of data to a recording medium 906 such as a flash memory. A display 908 displays various information such as a cursor, menu, window, characters, or images. Display 908 is an example of a display unit. The network I/F 909 is an interface for data communication using the communication network 5. The keyboard 911 is a type of input means that includes a plurality of keys for inputting characters, numbers, various instructions, and the like. The mouse 912 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 914 controls reading and writing of various data on a DVD-RW 913, which is an example of a removable recording medium. Note that it is not limited to DVD-RW, but may be DVD-R or the like. Further, the DVD-RW drive 914 may be a Blu-ray drive that controls reading and writing of various data on a Blu-ray disc.

また、表示端末90は、バスライン910を備えている。バスライン910は、図6に示すCPU901等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The display terminal 90 also includes a bus line 910. The bus line 910 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 901 shown in FIG. 6.

なお、上記各プログラムが記憶されたHDやCD-ROM等の記録媒体は、いずれもプログラム製品(Program Product)として、国内または国外へ提供されることができる。 Note that recording media such as HDs and CD-ROMs in which the above programs are stored can be provided domestically or internationally as program products.

●機能構成
続いて、第1の実施形態に係る装置および端末の機能構成について説明する。図7は、第1の実施形態に係る画像処理システムの機能構成の一例を示す図である。
●Functional configuration Next, the functional configuration of the device and terminal according to the first embodiment will be described. FIG. 7 is a diagram illustrating an example of the functional configuration of the image processing system according to the first embodiment.

まず、画像処理装置10aの機能構成について説明する。画像処理装置10aによって実現される機能は、ネットワーク通信部11、画像処理部12、算出部13a、補正部14、判断部15、表示画面生成部16、記憶・読出部19および記憶部1000を含む。 First, the functional configuration of the image processing device 10a will be explained. The functions realized by the image processing device 10a include a network communication section 11, an image processing section 12, a calculation section 13a, a correction section 14, a judgment section 15, a display screen generation section 16, a storage/reading section 19, and a storage section 1000. .

ネットワーク通信部11は、通信ネットワーク5を介して、通信端末50または表示端末90との間で各種データ(または情報)の送受信を行う機能である。ネットワーク通信部11は、例えば、撮影システム7から送信された、撮影装置30によって撮影されて取得された撮影画像データ200を受信する。また、ネットワーク通信部11は、補正部14によって生成された補正画像データ250を、通信ネットワーク5を介して、表示端末90へ送信する。ネットワーク通信部11は、主に、図3に示したネットワークI/F109、およびCPU101の処理によって実現される。ネットワーク通信部11は、第1の送信手段の一例である。 The network communication unit 11 has a function of transmitting and receiving various data (or information) to and from the communication terminal 50 or the display terminal 90 via the communication network 5. The network communication unit 11 receives, for example, photographed image data 200 transmitted from the photographing system 7 and acquired by photographing with the photographing device 30. Further, the network communication unit 11 transmits the corrected image data 250 generated by the correction unit 14 to the display terminal 90 via the communication network 5. The network communication unit 11 is mainly realized by the network I/F 109 shown in FIG. 3 and the processing of the CPU 101. The network communication unit 11 is an example of a first transmitting means.

画像処理部12は、ネットワーク通信部11によって受信された撮影画像データ200に対して、各種処理を行う機能である。画像処理部12は、例えば、ネットワーク通信部11によって受信された撮影画像データ200を取得し、画素データとして展開する。また、画像処理部12は、取得した撮影画像データ200を任意のデータサイズ(画像サイズ)に変換する。具体的には、画像処理部12は、管理者X(図1参照)が閲覧するプレビュー画像として、取得した撮影画像データ200のデータサイズを縮小する。画像処理部12は、主に、図3に示したCPU101の処理によって実現される。画像処理部12は、画像処理手段の一例である。 The image processing unit 12 has a function of performing various processes on the captured image data 200 received by the network communication unit 11. The image processing unit 12, for example, acquires the captured image data 200 received by the network communication unit 11, and develops it as pixel data. The image processing unit 12 also converts the acquired captured image data 200 into an arbitrary data size (image size). Specifically, the image processing unit 12 reduces the data size of the acquired captured image data 200 as a preview image to be viewed by the administrator X (see FIG. 1). The image processing unit 12 is mainly realized by the processing of the CPU 101 shown in FIG. The image processing section 12 is an example of an image processing means.

算出部13aは、画像処理部12によって処理された撮影画像データ200の明るさまたは色味を補正するための補正パラメータを算出する機能である。算出部13aは、例えば、複数の撮影画像データ200に基づいて、後述する補正部14による補正対象の撮影画像データ200の色補正を行うための補正パラメータを算出する。算出部13aの詳細な説明は、後述する。算出部13aは、主に、図3に示したCPU101の処理によって実現される。 The calculation unit 13a has a function of calculating correction parameters for correcting the brightness or tint of the captured image data 200 processed by the image processing unit 12. The calculation unit 13a calculates, for example, a correction parameter for color correction of the photographed image data 200 to be corrected by the correction unit 14, which will be described later, based on a plurality of pieces of photographed image data 200. A detailed explanation of the calculation unit 13a will be given later. The calculation unit 13a is mainly realized by the processing of the CPU 101 shown in FIG.

補正部14は、算出部13aによって算出された補正パラメータを用いて、撮影画像データ200の色補正を行う機能である。補正部14は、例えば、撮影画像データ200の色補正を行うことによって補正画像データ250を生成する。補正部14は、主に、図3に示したCPU101の処理によって実現される。補正部14は、補正手段の一例である。 The correction unit 14 has a function of performing color correction on the captured image data 200 using the correction parameters calculated by the calculation unit 13a. The correction unit 14 generates corrected image data 250 by performing color correction on the captured image data 200, for example. The correction unit 14 is mainly realized by the processing of the CPU 101 shown in FIG. The correction unit 14 is an example of a correction means.

判断部15は、主に、図3に示したCPU101の処理によって実現され、各種判断を行う機能である。 The judgment unit 15 is mainly realized by the processing of the CPU 101 shown in FIG. 3, and has a function of making various judgments.

表示画面生成部16は、通信端末50または表示端末90に表示される各種表示画面を生成する機能である。表示画面生成部16は、例えば、通信端末50に表示させるためプレビュー画面を生成する。表示画面生成部16は、例えば、表示端末90に補正画像データを表示させるための表示画面を生成する。表示画面生成部16は、主に、図3に示したCPU101の処理によって実現される。 The display screen generation unit 16 has a function of generating various display screens to be displayed on the communication terminal 50 or the display terminal 90. The display screen generation unit 16 generates a preview screen for display on the communication terminal 50, for example. The display screen generation unit 16 generates, for example, a display screen for displaying the corrected image data on the display terminal 90. The display screen generation unit 16 is mainly realized by the processing of the CPU 101 shown in FIG.

記憶・読出部19は、記憶部1000に各種データを記憶させ、または記憶部1000から各種データを読み出す機能である。記憶・読出部19は、主に、図3に示したCPU101の処理によって実現される。記憶部1000は、主に、図3に示したROM102、HD104および記録メディア106によって実現される。また、記憶部1000には、画素値管理DB1001および補正パラメータ管理DB1003が構築されている。このうち、画素値管理DB1001は、後述の代表色管理テーブルおよび総合代表色管理テーブルによって構成されている。補正パラメータ管理DB1003は、後述の補正パラメータ管理テーブルによって構成されている。また、記憶部1000は、撮影画像データ200および補正画像データ250を記憶している。 The storage/reading unit 19 has a function of storing various data in the storage unit 1000 or reading various data from the storage unit 1000. The storage/reading section 19 is mainly realized by the processing of the CPU 101 shown in FIG. The storage unit 1000 is mainly realized by the ROM 102, HD 104, and recording medium 106 shown in FIG. Furthermore, a pixel value management DB 1001 and a correction parameter management DB 1003 are constructed in the storage unit 1000. Of these, the pixel value management DB 1001 is composed of a representative color management table and a comprehensive representative color management table, which will be described later. The correction parameter management DB 1003 is composed of a correction parameter management table, which will be described later. Furthermore, the storage unit 1000 stores photographed image data 200 and corrected image data 250.

ここで、図8を用いて、算出部13aの機能構成について詳細に説明する。図8は、第1の実施形態に係る算出部の詳細な機能構成の一例を示す図である。図8に示す算出部13aは、代表画素値算出部131a、代表色決定部132a、総合代表色算出部133aおよびRGBゲイン算出部134aを含む。 Here, the functional configuration of the calculation unit 13a will be described in detail using FIG. 8. FIG. 8 is a diagram illustrating an example of a detailed functional configuration of the calculation unit according to the first embodiment. The calculation unit 13a shown in FIG. 8 includes a representative pixel value calculation unit 131a, a representative color determination unit 132a, a comprehensive representative color calculation unit 133a, and an RGB gain calculation unit 134a.

代表画素値算出部131aは、撮影画像データ200に係る撮影画像800を構成する各画素の画素値のクラスタリング処理によって得られるクラスタを代表する色に関する特徴を示す代表画素値を算出する機能である。代表画素値算出部131は、例えば、画像処理部12によって読み込まれた撮影画像データ200に係る撮影画像800を構成する各画素の画素値をクラスタリング処理することによって、k個(kは自然数。k>0)のクラスタを生成する。そして、代表画素値算出部131は、生成されたクラスタの中心画素を、そのクラスタの代表画素値として算出する。クラスタの中心画素とは、クラスタを構成する画素群の重心となる画素値である。代表画素値算出部131aは、代表画素値算出手段の一例である。 The representative pixel value calculation unit 131a has a function of calculating a representative pixel value indicating a characteristic related to a color representing a cluster obtained by clustering processing of the pixel values of each pixel constituting the photographed image 800 related to the photographed image data 200. For example, the representative pixel value calculation unit 131 performs clustering processing on the pixel values of each pixel constituting the photographed image 800 related to the photographed image data 200 read by the image processing unit 12, and calculates k (k is a natural number) pixel values. >0) clusters are generated. Then, the representative pixel value calculation unit 131 calculates the center pixel of the generated cluster as the representative pixel value of the cluster. The center pixel of a cluster is a pixel value that is the center of gravity of a group of pixels forming the cluster. The representative pixel value calculation unit 131a is an example of representative pixel value calculation means.

代表色決定部132aは、撮影画像データ200に係る撮影画像800を構成する各画素の画素値に基づいて、撮影画像データ200を代表する色に関する特徴を示す代表色を、撮影画像データ200ごとに決定する機能である。代表色決定部132aは、例えば、代表画素値算出部131aによって算出されたクラスタごとの代表画素値のうち、クラスタに含まれる画素数が最も多い特定のクラスタに対応する代表画素値を代表色として決定する。代表色決定部132aによって決定される代表色は、第1の代表色の一例である。また、代表色決定部132aは、代表色決定手段の一例である。 The representative color determining unit 132a determines, for each piece of photographed image data 200, a representative color that indicates a characteristic related to a color that represents the photographed image data 200, based on the pixel value of each pixel constituting the photographed image 800 related to the photographed image data 200. It is a function to decide. For example, the representative color determining unit 132a determines, as the representative color, the representative pixel value corresponding to a specific cluster having the largest number of pixels included in the cluster, among the representative pixel values for each cluster calculated by the representative pixel value calculating unit 131a. decide. The representative color determined by the representative color determination unit 132a is an example of a first representative color. Further, the representative color determining unit 132a is an example of representative color determining means.

総合代表色算出部133aは、代表色決定部132aによって決定された代表色に基づいて、複数の撮影画像データ200を代表する色に関する特徴を示す総合代表色を算出する機能である。総合代表色算出部133aによって算出される総合代表色は、第2の代表色の一例である。また、総合代表色算出部133aは、代表色算出手段の一例である。 The overall representative color calculation unit 133a has a function of calculating an overall representative color that indicates characteristics related to colors that represent the plurality of captured image data 200, based on the representative colors determined by the representative color determination unit 132a. The comprehensive representative color calculated by the comprehensive representative color calculation unit 133a is an example of the second representative color. Further, the comprehensive representative color calculation unit 133a is an example of representative color calculation means.

RGBゲイン算出部134aは、代表色決定部132aによって決定された代表色と、総合代表色算出部133aによって算出された総合代表色とに基づいて、補正パラメータとなるRGBゲイン値を算出する。RGBゲイン算出部134aは、補正パラメータ算出手段の一例である。 The RGB gain calculation unit 134a calculates an RGB gain value to be a correction parameter based on the representative color determined by the representative color determination unit 132a and the overall representative color calculated by the overall representative color calculation unit 133a. The RGB gain calculation unit 134a is an example of a correction parameter calculation unit.

〇代表色管理テーブル
図9は、第1の実施形態に係る代表色管理テーブルの一例を示す概念図である。記憶部1000には、図9に示すような代表色管理テーブルによって構成されている画素値管理DB1001が構築されている。図9に示す代表色管理テーブルは、撮影画像データ200に係る撮影画像800を構成する各画素の画素値のクラスタリング処理の結果を、撮影画像データ200を識別するための画像IDごとに示す。代表色管理テーブルには、分割されたクラスタを識別するためのクラスタNoごとに、クラスタに含まれる画素数とクラスタの中心画素が関連づけて記憶されて管理されている。図9に示す処理結果を得るための具体的な処理については後述する。
〇Representative Color Management Table FIG. 9 is a conceptual diagram showing an example of the representative color management table according to the first embodiment. In the storage unit 1000, a pixel value management DB 1001 is constructed, which is constituted by a representative color management table as shown in FIG. The representative color management table shown in FIG. 9 shows the results of clustering processing of the pixel values of each pixel constituting the photographed image 800 related to the photographed image data 200, for each image ID for identifying the photographed image data 200. In the representative color management table, the number of pixels included in the cluster and the center pixel of the cluster are stored and managed in association with each other for each cluster number for identifying divided clusters. Specific processing for obtaining the processing results shown in FIG. 9 will be described later.

〇総合代表色管理テーブル
図10は、第1の実施形態に係る総合代表色管理テーブルの一例を示す概念図である。記憶部1000には、図10に示すような総合代表色管理テーブルによって構成されている画素値管理DB1001が構築されている。図10に示す総合代表色管理テーブルは、代表色決定部132aによって決定された複数の代表色のクラスタリング処理の結果を示す。総合代表色管理テーブルには、分割されたクラスタを識別するためのクラスタNoごとに、クラスタの中心(重心)であるクラスタ中心画素と当該クラスタに属する代表色に対応する撮影画像データ200を識別するための画像IDとが関連づけて記憶されて管理されている。図10の例において、クラスタNo「1」のクラスタには、クラスタ中心画素が(R,G,B)=(114,108,99)であり、画像ID「P01」,「P02」,「P04」によって識別される三つの撮影画像データ200のそれぞれに対応する代表色が属する。また、クラスタNo「2」のクラスタには、クラスタ中心画素(R,G,B)=(127,115,86)であり、画像ID「P03」によって識別される一つの撮影画像データ200に対応する代表色が属する。
Comprehensive Representative Color Management Table FIG. 10 is a conceptual diagram showing an example of the comprehensive representative color management table according to the first embodiment. In the storage unit 1000, a pixel value management DB 1001 is constructed, which is composed of a comprehensive representative color management table as shown in FIG. The comprehensive representative color management table shown in FIG. 10 shows the results of clustering processing of a plurality of representative colors determined by the representative color determining section 132a. In the general representative color management table, for each cluster number for identifying divided clusters, the cluster center pixel which is the center (center of gravity) of the cluster and the captured image data 200 corresponding to the representative color belonging to the cluster are identified. The image ID for the image is stored and managed in association with the image ID. In the example of FIG. 10, the cluster center pixel of the cluster No. "1" is (R, G, B) = (114, 108, 99), and the image IDs are "P01", "P02", "P04". ” belongs to each of the three photographed image data 200 that corresponds to the representative color. In addition, in the cluster No. "2", the cluster center pixel (R, G, B) = (127, 115, 86) corresponds to one photographed image data 200 identified by the image ID "P03". to which the representative color belongs.

〇補正パラメータ管理テーブル
図11は、第1の実施形態に係る補正パラメータ管理テーブルの一例を示す概念図である。記憶部1000には、図11に示すような補正パラメータ管理テーブルによって構成されている補正パラメータ管理DB1003が構築されている。図11に示す補正パラメータ管理テーブルは、撮影画像データ200を識別するための画像IDごとに、代表色決定部132aによって決定された代表色と、RGBゲイン算出部134aによって算出された補正パラメータとが関連づけて記憶されて管理されている。また、図11に示す補正パラメータ管理テーブルは、総合代表色算出部133aによって算出された総合代表色が、複数の画像IDに共通して記憶・管理されている。
- Correction Parameter Management Table FIG. 11 is a conceptual diagram showing an example of the correction parameter management table according to the first embodiment. In the storage unit 1000, a correction parameter management DB 1003 is constructed, which is composed of a correction parameter management table as shown in FIG. The correction parameter management table shown in FIG. 11 includes a representative color determined by the representative color determining unit 132a and a correction parameter calculated by the RGB gain calculating unit 134a for each image ID for identifying the captured image data 200. They are stored and managed in association with each other. Further, in the correction parameter management table shown in FIG. 11, the overall representative color calculated by the overall representative color calculation unit 133a is commonly stored and managed for a plurality of image IDs.

次に、図7に示されている撮影装置30の機能構成について説明する。撮影装置30によって実現される機能は、受付部31、撮影部32、画像処理部33、送受信部34、記憶・読出部39および記憶部3000を含む。 Next, the functional configuration of the photographing device 30 shown in FIG. 7 will be explained. The functions realized by the photographing device 30 include a receiving section 31, a photographing section 32, an image processing section 33, a transmitting/receiving section 34, a storage/reading section 39, and a storage section 3000.

受付部31は、ユーザ(例えば、図1に示した管理者X)からの操作入力を受け付ける機能である。受付部31は、主に、図4に示した操作部315およびCPU311の処理によって実現される。 The reception unit 31 has a function of accepting operation input from a user (for example, administrator X shown in FIG. 1). The reception section 31 is mainly realized by the processing of the operation section 315 and the CPU 311 shown in FIG.

撮影部32は、被写体や風景画像等を撮像し、撮影画像データ200を得る機能である。撮影画像データは、静止画のみならず、動画であってもよい。撮影部32は、主に、図4に示した撮像ユニット301、画像処理ユニット304および撮像制御ユニット305、並びにCPU311の処理によって実現される。 The photographing unit 32 has a function of photographing a subject, a landscape image, etc., and obtaining photographed image data 200. The captured image data may be not only still images but also moving images. The imaging unit 32 is mainly realized by the processing of the imaging unit 301, image processing unit 304, imaging control unit 305, and CPU 311 shown in FIG.

画像処理部33は、撮影部32によって得られた撮影画像データに対して、各種処理を行う機能である。画像処理部33は、例えば、撮影画像データに係る撮影画像800が全天球画像である場合、二つの撮像素子303a、303bのそれぞれによって得られた二つの半球画像データに基づいて、正距円筒射影画像データを作成する。画像処理部33は、主に、図4に示したCPU311からの命令によって実現される。 The image processing section 33 has a function of performing various processes on the photographed image data obtained by the photographing section 32. For example, when the photographed image 800 related to the photographed image data is a spherical image, the image processing unit 33 generates an equirectangular cylinder based on two hemispherical image data obtained by each of the two image sensors 303a and 303b. Create projection image data. The image processing unit 33 is mainly realized by instructions from the CPU 311 shown in FIG.

送受信部34は、Wi-Fi等による近距離無線通信技術によって通信端末50と通信を行う機能である。送受信部34は、主に、図4に示した近距離通信回路317およびアンテナ317a、並びにCPU311の処理によって実現される。 The transmitting/receiving unit 34 has a function of communicating with the communication terminal 50 using short-range wireless communication technology such as Wi-Fi. The transmitting/receiving unit 34 is mainly realized by the short-range communication circuit 317 and antenna 317a shown in FIG. 4, and the processing of the CPU 311.

記憶・読出部39は、記憶部3000に各種データを記憶させ、または記憶部3000から各種データを読み出す機能である。記憶・読出部39は、主に、図4に示したCPU311の処理によって実現される。記憶部3000は、主に、図4に示したROM312、SRAM313およびDRAM314によって実現される。 The storage/reading unit 39 has a function of storing various data in the storage unit 3000 or reading various data from the storage unit 3000. The storage/reading section 39 is mainly realized by the processing of the CPU 311 shown in FIG. The storage unit 3000 is mainly realized by the ROM 312, SRAM 313, and DRAM 314 shown in FIG.

次に、図7に示されている通信端末50によって実現される機能は、ネットワーク通信部51、送受信部52、受付部53、表示制御部54、記憶・読出部59および記憶部5000を含む。 Next, the functions realized by the communication terminal 50 shown in FIG. 7 include a network communication section 51, a transmission/reception section 52, a reception section 53, a display control section 54, a storage/reading section 59, and a storage section 5000.

ネットワーク通信部51は、通信ネットワーク5を介して、画像処理装置10aとの間で各種データ(または情報)の送受信を行う機能である。ネットワーク通信部51は、主に、図5に示した遠距離通信回路511およびアンテナ511a、並びにCPU501の処理によって実現される。ネットワーク通信部51は、第2の送信手段の一例である。 The network communication unit 51 has a function of transmitting and receiving various data (or information) to and from the image processing device 10a via the communication network 5. The network communication unit 51 is mainly realized by the long distance communication circuit 511 and antenna 511a shown in FIG. 5, and the processing of the CPU 501. The network communication unit 51 is an example of second transmitting means.

送受信部52は、Wi-Fi等による近距離無線通信技術によって撮影装置30と通信を行う機能である。送受信部52は、主に、図5に示した近距離通信回路519およびアンテナ519a、並びにCPU501の処理によって実現される。 The transmitting/receiving unit 52 has a function of communicating with the photographing device 30 using short-range wireless communication technology such as Wi-Fi. The transmitting/receiving unit 52 is mainly realized by the short-range communication circuit 519 and antenna 519a shown in FIG. 5, and the processing of the CPU 501.

受付部53は、図5に示したタッチパネル521等の入力手段に対するユーザ入力を受け付ける機能である。受付部53は、例えば、ディスプレイ517に表示されたプレビュー画面600a(図20参照)に示される表示画像のうち、特定の画像の選択を受け付ける。受付部53は、主に、図5に示したCPU501で実行されるプログラム等によって実現される。受付部53は、受付手段の一例である。 The receiving unit 53 has a function of receiving user input through input means such as the touch panel 521 shown in FIG. 5. For example, the receiving unit 53 receives a selection of a specific image from among the display images shown on the preview screen 600a (see FIG. 20) displayed on the display 517. The reception unit 53 is mainly realized by a program executed by the CPU 501 shown in FIG. 5. The reception unit 53 is an example of reception means.

表示制御部54は、図5に示したディスプレイ517に各種画面情報を表示させる機能である。表示制御部54は、例えば、ネットワーク通信部51によって受信されたプレビュー画像に係るプレビュー画面600aを、ディスプレイ517に表示させる。表示制御部54は、主に、図5に示したディスプレイ517およびCPU501で実行されるプログラム等によって実現される。 The display control unit 54 has a function of displaying various screen information on the display 517 shown in FIG. For example, the display control unit 54 causes the display 517 to display a preview screen 600a related to the preview image received by the network communication unit 51. The display control unit 54 is mainly realized by the display 517 shown in FIG. 5 and a program executed by the CPU 501.

記憶・読出部59は、記憶部5000に各種データを記憶させ、または記憶部5000から各種データを読み出す機能である。記憶・読出部59は、主に、図5に示したCPU501の処理によって実現される。記憶部5000は、主に、図4に示したROM502、RAM503およびEEPROM504によって実現される。 The storage/reading unit 59 has a function of storing various data in the storage unit 5000 or reading various data from the storage unit 5000. The storage/reading unit 59 is mainly realized by the processing of the CPU 501 shown in FIG. The storage unit 5000 is mainly realized by the ROM 502, RAM 503, and EEPROM 504 shown in FIG.

次に、図7に示されている表示端末90の機能構成について説明する。表示端末90によって実現される機能は、ネットワーク通信部91、受付部92、表示制御部93、記憶・読出部99および記憶部9000を含む。 Next, the functional configuration of the display terminal 90 shown in FIG. 7 will be explained. The functions realized by the display terminal 90 include a network communication section 91, a reception section 92, a display control section 93, a storage/reading section 99, and a storage section 9000.

ネットワーク通信部91は、通信ネットワーク5を介して、他の装置(例えば、画像処理装置10a)との間で、各種データまたは情報の送受信を行う機能である。ネットワーク通信部91は、例えば、画像処理装置10aによって処理された補正画像データを、画像処理装置10aから受信する。ネットワーク通信部91は、主に、図6に示したネットワークI/F909およびCPU901の処理によって実現される。 The network communication unit 91 has a function of transmitting and receiving various data or information to and from other devices (for example, the image processing device 10a) via the communication network 5. The network communication unit 91 receives, for example, corrected image data processed by the image processing device 10a from the image processing device 10a. The network communication unit 91 is mainly realized by the processing of the network I/F 909 and CPU 901 shown in FIG.

受付部92は、図6に示したキーボード911等の入力手段に対するユーザ入力を受け付ける機能である。受付部92は、主に、図6に示したキーボード911およびCPU901で実行されるプログラム等によって実現される。 The receiving unit 92 has a function of receiving user input through input means such as the keyboard 911 shown in FIG. 6. The reception unit 92 is mainly realized by the keyboard 911 shown in FIG. 6 and a program executed by the CPU 901.

表示制御部93は、図6に示したディスプレイ908に各種画面情報を表示させる機能である。表示制御部93は、例えば、ネットワーク通信部91によって受信された補正画像データに係る画像を、ディスプレイ908に表示させる。表示制御部93は、主に、図6に示したディスプレイ908およびCPU901で実行されるプログラム等によって実現される。表示制御部93は、表示制御手段の一例である。 The display control unit 93 has a function of displaying various screen information on the display 908 shown in FIG. For example, the display control unit 93 causes the display 908 to display an image related to the corrected image data received by the network communication unit 91. The display control unit 93 is mainly realized by a display 908 shown in FIG. 6 and a program executed by the CPU 901. The display control section 93 is an example of display control means.

記憶・読出部99は、記憶部9000に各種データを記憶させ、または記憶部9000から各種データを読み出す機能である。記憶・読出部99は、主に、図7に示したCPU901の処理によって実現される。記憶部9000は、主に、図7に示したROM902、HD904および記録メディア906によって実現される。 The storage/reading unit 99 has a function of storing various data in the storage unit 9000 or reading various data from the storage unit 9000. The storage/reading unit 99 is mainly realized by the processing of the CPU 901 shown in FIG. The storage unit 9000 is mainly realized by the ROM 902, HD 904, and recording medium 906 shown in FIG.

●第1の実施形態の処理または動作
続いて、図12乃至図20を用いて、第1の実施形態に係る画像処理システムにおける処理または動作について説明する。まず、図12に用いて、画像処理システムにおける処理または動作の全体的な流れについて説明する。図12は、第1の実施形態に係る画像処理システムにおける撮影画像の補正処理の一例を示すシーケンス図である。
●Processing or operation of the first embodiment Next, processing or operation in the image processing system according to the first embodiment will be described using FIGS. 12 to 20. First, the overall flow of processing or operation in the image processing system will be described using FIG. 12. FIG. 12 is a sequence diagram illustrating an example of correction processing for captured images in the image processing system according to the first embodiment.

まず、ステップS11において、撮影装置30は、撮影部32による撮影処理を実行する。撮影装置30の撮影部32は、撮影装置30が位置する拠点Pにおいて撮影された複数の撮影画像データ200を取得する。ここで、複数の撮影画像データ200は、撮影画像データ200ごとに被写体が異なる。異なる被写体とは、拠点P内に存在する明るさや照明等の環境が異なる条件で撮影される物体、人物、または空間のことである。ステップS12において、撮影装置30の送受信部34は、撮影部32によって取得された複数の撮影画像データ200を、通信端末50へ送信する。これにより、通信端末50の送受信部52は、撮影装置30から送信された複数の撮影画像データ200を受信する。 First, in step S11, the photographing device 30 causes the photographing section 32 to perform photographing processing. The photographing unit 32 of the photographing device 30 acquires a plurality of photographed image data 200 photographed at the base P where the photographing device 30 is located. Here, the plurality of photographed image data 200 have different subjects for each photographed image data 200. Different subjects are objects, people, or spaces that exist within the base P and are photographed under different environmental conditions such as brightness and illumination. In step S12, the transmitting/receiving unit 34 of the photographing device 30 transmits the plurality of photographed image data 200 acquired by the photographing unit 32 to the communication terminal 50. Thereby, the transmitting/receiving unit 52 of the communication terminal 50 receives the plurality of photographed image data 200 transmitted from the photographing device 30.

次に、ステップS13において、通信端末50のネットワーク通信部51は、送受信部52によって受信された複数の撮影画像データ200を、通信ネットワーク5を介して画像処理装置10aへ送信する。これにより、画像処理装置10aのネットワーク通信部11は、通信端末50から送信された複数の撮影画像データ200を受信する。以上の処理により、撮影装置30によって取得された撮影画像データ200は、画像処理装置10aへアップロードされる。なお、上記において、撮影装置30が通信端末50を経由して、撮影画像データ200を画像処理装置10aへ送信する構成を説明したが、撮影装置30が通信端末50のネットワーク通信部51に相当する機能を備えている場合には、撮影装置30は、通信端末50を経由せずに、直接に画像処理装置10aへ撮影画像データ200を送信(配信)する構成であってもよい。 Next, in step S13, the network communication unit 51 of the communication terminal 50 transmits the plurality of captured image data 200 received by the transmitting/receiving unit 52 to the image processing device 10a via the communication network 5. Thereby, the network communication unit 11 of the image processing device 10a receives the plurality of captured image data 200 transmitted from the communication terminal 50. Through the above processing, the photographed image data 200 acquired by the photographing device 30 is uploaded to the image processing device 10a. Note that although the configuration in which the photographing device 30 transmits the photographed image data 200 to the image processing device 10a via the communication terminal 50 has been described above, the photographing device 30 corresponds to the network communication section 51 of the communication terminal 50. When equipped with such a function, the photographing device 30 may be configured to directly transmit (distribute) the photographed image data 200 to the image processing device 10a without going through the communication terminal 50.

ステップS14において、画像処理装置10aは、ネットワーク通信部11によって受信された複数の撮影画像データ200を用いて、補正対象の撮影画像データ200の色補正に用いる補正パラメータを算出する。補正パラメータの算出方法については、後述する。 In step S14, the image processing device 10a uses the plurality of captured image data 200 received by the network communication unit 11 to calculate correction parameters used for color correction of the captured image data 200 to be corrected. The method for calculating the correction parameters will be described later.

ステップS15において、画像処理装置10aの補正部14は、ステップS14によって算出された補正パラメータを用いて、撮影画像データ200の色補正を行う。この場合、補正部14は、ステップS14によって撮影画像データ200ごとに算出された補正パラメータを用いて、複数の撮影画像データ200のそれぞれの色補正を行う。 In step S15, the correction unit 14 of the image processing device 10a performs color correction on the captured image data 200 using the correction parameters calculated in step S14. In this case, the correction unit 14 performs color correction on each of the plurality of photographed image data 200 using the correction parameters calculated for each photographed image data 200 in step S14.

ステップS16において、画像処理装置10aのネットワーク通信部11は、通信ネットワーク5を介して、表示端末90へ複数の補正画像データ250を送信する。これにより、表示端末90のネットワーク通信部91は、画像処理装置10aから送信された複数の補正画像データ250を受信する。 In step S16, the network communication unit 11 of the image processing device 10a transmits the plurality of corrected image data 250 to the display terminal 90 via the communication network 5. Thereby, the network communication unit 91 of the display terminal 90 receives the plurality of corrected image data 250 transmitted from the image processing device 10a.

ステップS17において、表示端末90の表示制御部93は、複数の補正画像データ250のそれぞれに係る補正画像(図18参照)を、ディスプレイ908に表示させる。これによって、画像処理システム1aは、画像処理装置10aによって生成された色味を揃えた複数の補正画像を、ユーザ(閲覧者Y)が使用する表示端末90に表示させることができる。 In step S17, the display control unit 93 of the display terminal 90 causes the display 908 to display a corrected image (see FIG. 18) for each of the plurality of corrected image data 250. Thereby, the image processing system 1a can display a plurality of corrected images with the same color tone generated by the image processing device 10a on the display terminal 90 used by the user (viewer Y).

〇補正パラメータの算出処理
次に、図13乃至図20を用いて、画像処理装置10aによる補正パラメータの算出処理の詳細について説明する。図13は、第1の実施形態に係る画像処理装置における補正パラメータの算出処理の一例を示すフローチャートである。
- Correction Parameter Calculation Process Next, details of the correction parameter calculation process by the image processing device 10a will be described using FIGS. 13 to 20. FIG. 13 is a flowchart illustrating an example of a correction parameter calculation process in the image processing apparatus according to the first embodiment.

まず、ステップS101aにおいて、画像処理装置10aの画像処理部12は、ネットワーク通信部11によって受信された撮影画像データ200の読込処理を行う。具体的には、画像処理部12は、撮影画像データ200を画素データとして展開してRGBの画素値を取得する。例えば、撮影画像データ200がJPEG(Joint Photographic Experts Group)画像である場合、JPEGデコーダによってJPEG画像を復号し、復号されたYCbCr形式の画像データを、JPEGとして規定されている変換方法に従ってRGB形式の画像データに変換する。また、画像処理部12は、変換された画像データの画像サイズの縮小処理を行う。ここでは、画像処理部12が、変換された画像のピクセル数を400×200(横×縦)にリサイズ(縮小)するものとして説明する。なお、画像処理部12による画像サイズの縮小処理を行わずに、ネットワーク通信部11によって受信された撮影画像データ200の画像サイズによって以下の処理が行われる構成であってもよい。 First, in step S101a, the image processing unit 12 of the image processing device 10a performs a process of reading the captured image data 200 received by the network communication unit 11. Specifically, the image processing unit 12 develops the captured image data 200 as pixel data and obtains RGB pixel values. For example, if the captured image data 200 is a JPEG (Joint Photographic Experts Group) image, the JPEG image is decoded by a JPEG decoder, and the decoded YCbCr format image data is converted into RGB format according to the conversion method specified as JPEG. Convert to image data. The image processing unit 12 also performs image size reduction processing of the converted image data. Here, a description will be given assuming that the image processing unit 12 resizes (reduces) the number of pixels of the converted image to 400 x 200 (horizontal x vertical). Note that the following processing may be performed depending on the image size of the captured image data 200 received by the network communication unit 11 without performing the image size reduction process by the image processing unit 12.

ステップS102aにおいて、画像処理装置10aの算出部13aは、画像処理部12によって読み込まれた撮影画像データ200に対して、代表画素値の算出を行う。代表画素値とは、撮影画像データ200に係る撮影画像800を構成する各画素の画素値のクラスタリング処理によって得られるクラスタを代表する色に関する特徴を示す画素値である。 In step S102a, the calculation unit 13a of the image processing device 10a calculates a representative pixel value for the captured image data 200 read by the image processing unit 12. The representative pixel value is a pixel value indicating a characteristic related to a color representing a cluster obtained by clustering processing of the pixel values of each pixel constituting the photographed image 800 related to the photographed image data 200.

ここで、図14を用いて、代表画素値の算出処理の詳細を説明する。図14は、第1の実施形態に係る画像処理装置における代表色算出処理の一例を示すフローチャートである。まず、ステップS102a-1において、代表画素値算出部131aは、画像処理部12によって読み込まれた撮影画像データ200に係る撮影画像800を構成する各画素の画素値を算出する。 Here, details of the representative pixel value calculation process will be explained using FIG. 14. FIG. 14 is a flowchart illustrating an example of representative color calculation processing in the image processing apparatus according to the first embodiment. First, in step S102a-1, the representative pixel value calculation section 131a calculates the pixel value of each pixel constituting the photographed image 800 related to the photographed image data 200 read by the image processing section 12.

ステップS102a-2において、代表画素値算出部131aは、算出した画素値のクラスタリング処理によって、撮影画像データ200を複数のクラスタに分割する。クラスタリング処理は、例えば、算出した画素値を用いた教師なし学習によって行われる。教師なし学習(unsupervised learning)とは、所定のデータをラベリング等の外的基準なしに分類する手法である。教師なし学習は、例えば、K-meansクラスタリング(K-平均法)等の手法である。代表画素値算出部131aは、同じクラスタに属する領域が同様の色で表現されるように、予め指定されたクラスタ数に、撮影画像データ200に係る撮影画像800を構成する画素の画素値を分割する。ここで、図15および図16を用いて、ステップS102-2aのクラスタリング処理について説明する。図15は、第1の実施形態に係る撮影画像の一例を示す図である。図16は、第1の実施形態に係る撮影画像に対してクラスタ処理を施した画像の一例を示す図である。図16に示す処理画像810a~810dは、異なる撮影画像データ200a~200dに係る撮影画像800a~800d(図15参照)を、画素値を入力データとして複数のクラスタ(領域)にクラスタリングした状態を示す。代表画素値算出部131aは、それぞれの撮影画像800a~800dにおいて、画素値を所定の距離尺度に基づいて近似するものにグルーピングする。ここでの距離尺度は、各画素における画素値(RGB値)の空間上の距離が用いられる。 In step S102a-2, the representative pixel value calculation unit 131a divides the captured image data 200 into a plurality of clusters by clustering the calculated pixel values. The clustering process is performed, for example, by unsupervised learning using the calculated pixel values. Unsupervised learning is a method of classifying predetermined data without external criteria such as labeling. Unsupervised learning is, for example, a method such as K-means clustering (K-means method). The representative pixel value calculation unit 131a divides the pixel values of pixels constituting the captured image 800 related to the captured image data 200 into a pre-specified number of clusters so that areas belonging to the same cluster are expressed in similar colors. do. Here, the clustering process in step S102-2a will be explained using FIGS. 15 and 16. FIG. 15 is a diagram showing an example of a photographed image according to the first embodiment. FIG. 16 is a diagram showing an example of an image obtained by performing cluster processing on the photographed image according to the first embodiment. Processed images 810a to 810d shown in FIG. 16 show a state in which captured images 800a to 800d (see FIG. 15) related to different captured image data 200a to 200d are clustered into a plurality of clusters (regions) using pixel values as input data. . The representative pixel value calculation unit 131a groups the pixel values in each of the captured images 800a to 800d into similar ones based on a predetermined distance measure. As the distance measure here, the spatial distance of pixel values (RGB values) of each pixel is used.

次に、ステップS102a-3において、代表画素値算出部131aは、分割した各クラスタを代表する画素値である代表画素値を算出する。代表画素値算出部131aは、ステップS102a-2の処理によってグルーピングされたクラスタの中心であるクラスタ中心画素を、代表画素値として算出する。また、代表画素値算出部131aは、グルーピングされた各クラスタに属する画素数を算出する。これは、ステップS102a-2の処理によるK-平均法を用いたクラスタリング処理の過程において、それぞれの画素(画素値)がどのクラスタに所属するかの情報を保持することによって実現される。画素(画素値)とクラスタの対応関係は、ラベリング情報と称される。代表画素値算出部131aは、このラベリング情報に基づいて、各クラスタに属する画素数を算出する。 Next, in step S102a-3, the representative pixel value calculation unit 131a calculates a representative pixel value that is a pixel value that represents each divided cluster. The representative pixel value calculation unit 131a calculates the cluster center pixel, which is the center of the cluster grouped by the process of step S102a-2, as a representative pixel value. Further, the representative pixel value calculation unit 131a calculates the number of pixels belonging to each grouped cluster. This is achieved by holding information on which cluster each pixel (pixel value) belongs to during the clustering process using the K-means method in step S102a-2. The correspondence between pixels (pixel values) and clusters is called labeling information. The representative pixel value calculation unit 131a calculates the number of pixels belonging to each cluster based on this labeling information.

ステップS102a-4において、記憶・読出部19は、クラスタごとに画素数と代表画素値とを関連づけて、画素値管理DB1001に記憶する。画素値管理DB1001は、図9に示したように、クラスタ番号ごとに、クラスタに含まれる画素数と代表画素値であるクラスタ中心画素とを関連づけて代表色管理テーブルに記憶・管理する。 In step S102a-4, the storage/readout unit 19 associates the number of pixels and the representative pixel value for each cluster and stores them in the pixel value management DB 1001. As shown in FIG. 9, the pixel value management DB 1001 stores and manages the number of pixels included in a cluster and the cluster center pixel, which is a representative pixel value, in association with each other in a representative color management table for each cluster number.

これにより、画像処理装置10aは、撮影画像データ200に係る撮影画像800ごとに、撮影画像800を構成する各画素の画素値のクラスタリング処理によって形成されたクラスタを代表する色に関する特徴である代表画素値を、撮影画像800に含まれるクラスタごとに算出することができる。 Thereby, the image processing device 10a selects, for each captured image 800 related to the captured image data 200, a representative pixel that is a characteristic related to a color representing a cluster formed by clustering processing of the pixel values of each pixel constituting the captured image 800. The value can be calculated for each cluster included in the captured image 800.

図13に戻り、補正パラメータの算出処理の説明を続ける。ステップS103aにおいて、画像処理装置10aの代表色決定部132aは、代表画素値算出部131aによって算出された代表画素値のうち、最も画素数の多いクラスタの代表画素値を、撮影画像データ200の代表色として決定する。代表色とは、撮影画像データ200に係る撮影画像800を構成する各画素の画素値に基づいて、撮影画像データ200を代表する色に関する特徴を示す画素値である。例えば、図9に示した代表色管理テーブルに示される処理結果の場合、画像ID「P01」によって識別される撮影画像データ200(例えば、図15に示す撮影画像800a)の代表色は、クラスタNo「1」のクラスタ中心画素(代表画素値)である(R,G,B)=(109,107,100)である。また、画像ID「P02」によって識別される撮影画像データ200(例えば、図15に示す撮影画像800b)の代表色は、クラスタNo「1」のクラスタ中心画素(代表画素値)である(R,G,B)=(118,108,96)である。さらに、画像ID「P03」によって識別される撮影画像データ200(例えば、図15に示す撮影画像800c)の代表色は、クラスタNo「3」のクラスタ中心画素(代表画素値)である(R,G,B)=(127,115,86)である。また、画像ID「P04」によって識別される撮影画像データ200(例えば、図15に示す撮影画像800d)の代表色は、クラスタNo「2」のクラスタ中心画素(代表画素値)である(R,G,B)=(115,110,102)である。なお、代表色の算出方法についてはこれに限られず、各クラスタのクラスタ中心画素(代表画素値)を、各クラスタに含まれる画素数によって加重平均することによって、撮影画像データ200の代表色を決定する構成であってもよい。また、代表色決定部132aは、例えば、画素数が最も多いクラスタが複数存在する場合、該当するクラスタに係るクラスタ中心画素(代表画素値)の平均値または中央値を代表色として決定してもよい。 Returning to FIG. 13, the explanation of the correction parameter calculation process will be continued. In step S103a, the representative color determination unit 132a of the image processing device 10a selects the representative pixel value of the cluster with the largest number of pixels from among the representative pixel values calculated by the representative pixel value calculation unit 131a as the representative color of the captured image data 200. Decide as a color. The representative color is a pixel value that indicates a characteristic related to a color that represents the photographed image data 200 based on the pixel value of each pixel constituting the photographed image 800 related to the photographed image data 200. For example, in the case of the processing results shown in the representative color management table shown in FIG. 9, the representative color of the photographed image data 200 (for example, the photographed image 800a shown in FIG. The cluster center pixel (representative pixel value) of “1” is (R, G, B)=(109,107,100). Further, the representative color of the photographed image data 200 (for example, the photographed image 800b shown in FIG. 15) identified by the image ID "P02" is the cluster center pixel (representative pixel value) of the cluster No. "1" (R, G, B)=(118,108,96). Further, the representative color of the photographed image data 200 (for example, the photographed image 800c shown in FIG. 15) identified by the image ID "P03" is the cluster center pixel (representative pixel value) of cluster No. "3" (R, G, B)=(127,115,86). Further, the representative color of the photographed image data 200 (for example, the photographed image 800d shown in FIG. 15) identified by the image ID "P04" is the cluster center pixel (representative pixel value) of cluster No. "2" (R, G, B)=(115,110,102). Note that the method for calculating the representative color is not limited to this, and the representative color of the captured image data 200 is determined by weighted averaging of the cluster center pixel (representative pixel value) of each cluster depending on the number of pixels included in each cluster. The configuration may be such that For example, if there are multiple clusters with the largest number of pixels, the representative color determining unit 132a may determine the average value or median value of the cluster center pixels (representative pixel values) of the relevant clusters as the representative color. good.

ステップS104aにおいて、記憶・読出部19は、代表色決定部132aによって決定された代表色を、補正パラメータ管理DB1003に記憶する。補正パラメータ管理DB1003は、図11に示したように、撮影画像データ200を識別するための画像IDごとに、当該撮影画像データ200に対応する代表色の画素値を補正パラメータ管理テーブルに記憶・管理する。 In step S104a, the storage/reading unit 19 stores the representative color determined by the representative color determining unit 132a in the correction parameter management DB 1003. As shown in FIG. 11, the correction parameter management DB 1003 stores and manages pixel values of representative colors corresponding to the photographed image data 200 in a correction parameter management table for each image ID for identifying the photographed image data 200. do.

ステップS105aにおいて、画像処理装置10aは、ネットワーク通信部11によって受信された撮影画像データ200を全て読み込んだ場合、処理をステップS106aに移行させる。一方で、画像処理装置10aは、ネットワーク通信部11によって受信された撮影画像データ200のうち読み込まれていない撮影画像データ200が存在する場合、ステップS101aからの処理を繰り返す。 In step S105a, if the image processing device 10a has read all of the captured image data 200 received by the network communication unit 11, the image processing device 10a moves the process to step S106a. On the other hand, if there is unread photographed image data 200 among the photographed image data 200 received by the network communication unit 11, the image processing device 10a repeats the process from step S101a.

ステップS106aにおいて、画像処理装置10aの算出部13aは、ステップS103aの処理によって決定された代表色を用いて、総合代表色を算出する。総合代表色とは、複数の撮影画像データ200の代表色に基づいて、複数の撮影画像データ200を代表する色に関する特徴を示す画素値である。 In step S106a, the calculation unit 13a of the image processing device 10a calculates the overall representative color using the representative color determined by the process in step S103a. The comprehensive representative color is a pixel value that indicates a characteristic related to a color that represents the plurality of photographed image data 200 based on the representative color of the plurality of photographed image data 200.

ここで、図17を用いて、総合代表色の算出処理の詳細を説明する。図17は、第1の実施形態に係る画像処理装置における総合代表色算出処理の一例を示すフローチャートである。 Here, details of the overall representative color calculation process will be explained using FIG. 17. FIG. 17 is a flowchart illustrating an example of comprehensive representative color calculation processing in the image processing apparatus according to the first embodiment.

ステップS106a-1において、総合代表色算出部133aは、代表色決定部132aによって決定された代表色が示す画素値のクラスタリング処理によって複数のクラスタに分類する。クラスタリング処理は、代表画素値算出部131aによるクラスタリング処理(ステップS102a-2参照)と同様に、K-平均法を用いて行われる。この場合の入力データは、代表色決定部132aによって決定された複数の代表色の画素値であり、画素値(RGB値)の空間上の距離を用いて、クラスタにグルーピングされる。 In step S106a-1, the comprehensive representative color calculation unit 133a classifies the pixel values indicated by the representative colors determined by the representative color determination unit 132a into a plurality of clusters by clustering processing. The clustering process is performed using the K-means method, similar to the clustering process by the representative pixel value calculation unit 131a (see step S102a-2). The input data in this case are pixel values of a plurality of representative colors determined by the representative color determination unit 132a, and are grouped into clusters using the spatial distances of the pixel values (RGB values).

ステップS106a-2において、総合代表色算出部133aは、分類した各クラスタを代表する画素値である代表画素値を算出する。総合代表色算出部133aは、ステップS106a-1の処理によってグルーピングされたクラスタの中心であるクラスタ中心画素を、代表画素値として算出する。 In step S106a-2, the comprehensive representative color calculation unit 133a calculates a representative pixel value that is a pixel value that represents each classified cluster. The overall representative color calculation unit 133a calculates the cluster center pixel, which is the center of the cluster grouped by the process of step S106a-1, as a representative pixel value.

ステップS106a-3において、記憶・読出部19は、クラスタごとに各クラスタが属する代表色に係る画像IDと、代表画素値とを関連づけて画素値管理DB1001に記憶させる。画素値管理DB1001は、図10に示すように、クラスタごとにクラスタ中心画素と、画像IDとを関連づけて総合代表色管理テーブルに記憶・管理する。 In step S106a-3, the storage/reading unit 19 associates the image ID of the representative color to which each cluster belongs with the representative pixel value for each cluster and stores them in the pixel value management DB 1001. As shown in FIG. 10, the pixel value management DB 1001 stores and manages cluster center pixels and image IDs in association with each other in a general representative color management table for each cluster.

ステップS106a-4において、記憶・読出部19は、所属する代表色の数が最も多いクラスタに関連づけられた代表画素値を、総合代表色として補正パラメータ管理DB1003に記憶させる。補正パラメータ管理DB1003は、図11に示すように、複数の撮影画像データ200を代表する色に関する特徴を示す総合代表色を、補正パラメータ管理テーブルに記憶・管理する。例えば、図10に示した総合代表色管理テーブルに示される処理結果の場合、クラスタNo「1」のクラスタ中心画素である(R,G,B)=(114,108,99)が総合代表色となる。 In step S106a-4, the storage/reading unit 19 stores the representative pixel value associated with the cluster to which the largest number of representative colors belongs in the correction parameter management DB 1003 as the overall representative color. As shown in FIG. 11, the correction parameter management DB 1003 stores and manages comprehensive representative colors that indicate characteristics related to colors representative of a plurality of captured image data 200 in a correction parameter management table. For example, in the case of the processing results shown in the comprehensive representative color management table shown in FIG. becomes.

これにより、総合代表色算出部133aは、画像処理部12によって取得された全ての撮影画像データ200の代表色を用いて、複数の撮影画像データを代表する色に関する特徴を示す総合代表色を算出することができる。なお、総合代表色の算出方法は、図17に示した方法に限られず、例えば、代表色決定部132aによって決定された複数の代表色の単純平均によって総合代表色を算出してもよい。また、総合代表色算出部133aは、代表色決定部132aによって決定された複数の代表色のうち、明るさ、色味または彩度が一定の基準の範囲内に該当する代表色のみを用いて、総合代表色の算出処理を行ってもよい。 As a result, the overall representative color calculation unit 133a uses the representative colors of all the captured image data 200 acquired by the image processing unit 12 to calculate an overall representative color that indicates characteristics related to colors that represent the plurality of captured image data. can do. Note that the method for calculating the overall representative color is not limited to the method shown in FIG. 17, and, for example, the overall representative color may be calculated by a simple average of a plurality of representative colors determined by the representative color determination unit 132a. Further, the overall representative color calculation unit 133a uses only representative colors whose brightness, hue, or saturation falls within a certain standard range from among the plurality of representative colors determined by the representative color determination unit 132a. , a comprehensive representative color calculation process may be performed.

図13に戻り、補正パラメータの算出処理の説明を続ける。ステップS107aにおいて、RGBゲイン算出部134aは、代表色決定部132aによって決定された代表色と総合代表色算出部133aによって算出された総合代表色とを用いて、補正パラメータであるRGBゲイン値を算出する。具体的には、RGBゲイン算出部134aは、総合代表色を代表色で除算することによって補正パラメータを算出する。ここで、補正パラメータは、撮影画像データ200に係る撮影画像800を構成する各画素の画素値に乗算するRGBゲイン値であり、それぞれの撮影画像データ200ごとに算出される。また、総合代表色は、各撮影画像データ200を代表する代表色に基づいて算出された一つの代表色であるので、複数の撮影画像データ200のデータセットを代表する画素値と言える。つまり、画像処理装置10aは、総合代表色算出部133aによって算出された総合代表色を明るさ色味補正の目標値と捉え、それぞれの撮影画像800の画素値を補正することで、複数の撮影画像データ200に基づいた明るさ色味補正処理を行うことができる。 Returning to FIG. 13, the explanation of the correction parameter calculation process will be continued. In step S107a, the RGB gain calculation unit 134a calculates an RGB gain value, which is a correction parameter, using the representative color determined by the representative color determination unit 132a and the comprehensive representative color calculated by the comprehensive representative color calculation unit 133a. do. Specifically, the RGB gain calculation unit 134a calculates the correction parameter by dividing the overall representative color by the representative color. Here, the correction parameter is an RGB gain value that is multiplied by the pixel value of each pixel constituting the photographed image 800 related to the photographed image data 200, and is calculated for each photographed image data 200. Further, since the overall representative color is one representative color calculated based on the representative color representing each photographed image data 200, it can be said to be a pixel value that represents a data set of a plurality of photographed image data 200. In other words, the image processing device 10a regards the comprehensive representative color calculated by the comprehensive representative color calculation unit 133a as the target value for brightness/tint correction, and corrects the pixel value of each captured image 800, thereby allowing multiple captured images to be processed. Brightness and color correction processing can be performed based on the image data 200.

以上説明したように、図12のステップS15の処理において、補正部14は、複数の撮影画像データ200のそれぞれに対する色補正が行う。補正部14は、撮影画像データ200に係る撮影画像800を構成する各画素の画素値に対して、補正パラメータであるRGBゲイン値を乗算することで、明るさと色味が補正された補正画像データを生成する。各画素のRGB値は、明るさと色味の両方の情報を有するので、補正パラメータであるRGBゲイン値を乗算することで、色味だけでなく明るさも変化する。また、乗算結果が8bit画像の最大値255を超えるような値が発生した場合、補正部14は、255にクリップする処理を実行してもよい。 As described above, in the process of step S15 in FIG. 12, the correction unit 14 performs color correction on each of the plurality of captured image data 200. The correction unit 14 multiplies the pixel value of each pixel constituting the photographed image 800 related to the photographed image data 200 by an RGB gain value, which is a correction parameter, to obtain corrected image data whose brightness and color tone have been corrected. generate. Since the RGB value of each pixel has information on both brightness and tint, not only the tint but also the brightness changes by multiplying by the RGB gain value, which is a correction parameter. Furthermore, if the multiplication result exceeds the maximum value of 255 for an 8-bit image, the correction unit 14 may perform a process of clipping it to 255.

ここで、表示端末90に表示される補正画像について説明する。図18は、第1の実施形態に係る補正画像の一例を示す図である。図18(a)~(d)に示す補正画像850a~850dは、撮影画像800a~800d(図15参照)のそれぞれに対して色補正が行われた画像である。図18に示すように、補正画像850は、明るさや色味を揃えたことによって複数の画像の間で違和感のない表示を行うことができる。 Here, the corrected image displayed on the display terminal 90 will be explained. FIG. 18 is a diagram illustrating an example of a corrected image according to the first embodiment. Corrected images 850a to 850d shown in FIGS. 18A to 18D are images obtained by performing color correction on each of the photographed images 800a to 800d (see FIG. 15). As shown in FIG. 18, the corrected image 850 can be displayed without any discomfort among the plurality of images by matching the brightness and color tone.

〇プレビュー画像の表示処理
ここで、図19および図20を用いて、通信端末50を使用する利用者(図1に示す管理者X)に、ユーザ(図1に示す閲覧者Y)に提供する画像を事前に確認させるための処理について説明する。図19は、第1の実施形態に係る通信端末におけるプレビュー画像の表示処理の一例を示すシーケンス図である。図19に示す処理は、図12に示すステップS14の処理が行われた後に実行される。なお、図19に示す処理は、行われなくてもよい。
〇Preview image display processing Here, using FIGS. 19 and 20, the preview image is provided to the user (administrator X shown in FIG. 1) using the communication terminal 50 (the viewer Y shown in FIG. 1). Processing for checking images in advance will be explained. FIG. 19 is a sequence diagram illustrating an example of preview image display processing in the communication terminal according to the first embodiment. The process shown in FIG. 19 is executed after the process in step S14 shown in FIG. 12 is performed. Note that the process shown in FIG. 19 does not have to be performed.

ステップS151において、画像処理装置10aの表示画面生成部16は、プレビュー画像データを生成する。具体的には、まず、画像処理装置10aの補正部14は、算出部13aによって補正パラメータが算出された場合、図13のステップS101aによって所定されたリサイズ(縮小)された画像データを用いて、画像データの色補正を行う。そして、表示画面生成部16は、補正パラメータによって色補正が行われた画像データを含むプレビュー画像データを生成する。 In step S151, the display screen generation unit 16 of the image processing device 10a generates preview image data. Specifically, first, when the correction parameter is calculated by the calculation unit 13a, the correction unit 14 of the image processing device 10a uses the predetermined resized (reduced) image data in step S101a of FIG. Performs color correction of image data. Then, the display screen generation unit 16 generates preview image data including image data subjected to color correction using the correction parameters.

ステップS152において、画像処理装置10aのネットワーク通信部11は、通信ネットワーク5を介して、プレビュー画像データを通信端末50へ送信する。これにより、通信端末50のネットワーク通信部51は、プレビュー画面データを受信する。 In step S152, the network communication unit 11 of the image processing device 10a transmits the preview image data to the communication terminal 50 via the communication network 5. Thereby, the network communication unit 51 of the communication terminal 50 receives the preview screen data.

ステップS153において、通信端末50の表示制御部54は、ネットワーク通信部51によって受信されたプレビュー画像データに係るプレビュー画面600aを、ディスプレイ908に表示させる。 In step S153, the display control unit 54 of the communication terminal 50 causes the display 908 to display a preview screen 600a related to the preview image data received by the network communication unit 51.

ここで、図20を用いて、プレビュー画面600aについて説明する。図20は、第1の実施形態に係るプレビュー画面の一例を示す図である。図20に示すプレビュー画面600aには、ユーザ(閲覧者Y)に提供する画像を選択可能な表示画像選択領域620a、選択された画像に対応する色補正を実行する場合に押下されるOKボタン611、および選択処理を中止する場合に押下されるキャンセルボタン615を含む。表示画像選択領域620aには、色補正の前後のプレビュー画像データが選択可能に表示されており、図20の例では、ステップS151による色補正が行われる前の補正前画像(例えば、図15の撮影画像800)と、色補正が行われた後の補正画像(例えば、図18の補正画像850)が表示されている。これにより、通信端末50を使用する利用者(例えば、図1に示す管理者X)は、ディスプレイ517に表示されたプレビュー画面600aを確認することによって、明るさや色味の異なる画像のうち、ユーザ(図1に示す閲覧者Y)にどの画像を提供するかを選択することができる。なお、図20では、1つの撮影画像800に係る補正前画像および補正画像を示しているが、複数の撮影画像800に係る補正前画像および補正画像をそれぞれ並べて表示することで、複数の撮影画像800の明るさや色味の違いが分かりやすくなるように表示してもよい。 Here, the preview screen 600a will be explained using FIG. 20. FIG. 20 is a diagram showing an example of a preview screen according to the first embodiment. A preview screen 600a shown in FIG. 20 includes a display image selection area 620a in which an image to be provided to the user (viewer Y) can be selected, and an OK button 611 to be pressed when performing color correction corresponding to the selected image. , and a cancel button 615 that is pressed to cancel the selection process. In the display image selection area 620a, preview image data before and after color correction are selectively displayed. In the example of FIG. A photographed image 800) and a corrected image after color correction (for example, corrected image 850 in FIG. 18) are displayed. As a result, the user using the communication terminal 50 (for example, the administrator (Viewer Y shown in FIG. 1) can select which image to provide. Although FIG. 20 shows a pre-correction image and a corrected image related to one captured image 800, by displaying the pre-correction image and corrected image related to a plurality of captured images 800 side by side, a plurality of captured images 800 can be displayed. 800 may be displayed so that the difference in brightness and color tone can be easily understood.

ステップS154において、通信端末50の受付部53は、プレビュー画面600aの表示画像選択領域620aおよびOKボタン611の選択を受け付ける。図20の例では、受付部53は、例えば、補正画像の選択を受け付ける。 In step S154, the receiving unit 53 of the communication terminal 50 receives the selection of the display image selection area 620a of the preview screen 600a and the OK button 611. In the example of FIG. 20, the receiving unit 53 receives, for example, selection of a corrected image.

ステップS155において、通信端末50のネットワーク通信部51は、受付部53による選択結果の情報を、通信ネットワーク5を介して画像処理装置10aへ送信する。画像処理装置10aのネットワーク通信部11は、選択結果の情報を受信する。これにより、画像処理装置10aは、図13のステップS15に示したように、受信された選択結果に係る画像に対応する補正パラメータを用いて、撮影画像データ200の色補正を行う。 In step S155, the network communication unit 51 of the communication terminal 50 transmits information on the selection result by the reception unit 53 to the image processing device 10a via the communication network 5. The network communication unit 11 of the image processing device 10a receives information on the selection result. Thereby, the image processing device 10a performs color correction on the photographed image data 200 using the correction parameters corresponding to the image related to the received selection result, as shown in step S15 of FIG.

なお、画像処理装置10aは、同一の撮影画像データ200に対して異なる補正パラメータを算出し、異なる補正パラメータによって色補正が行われた複数の補正画像をプレビュー画面600aに表示させてもよい。この場合、通信端末50の利用者は、色補正が行われた複数のパターンの画像のうち、最適な色補正が行われた画像を選択することができる。また、上記異なる補正パラメータは、拠点Pの明るさ等の環境条件や撮影装置30の撮影条件等に応じて、調整(設定)可能であってもよい。さらに、図19に示す処理は、プレビュー画面600aを通信端末50に表示させる例を説明したが、画像処理システム1aは、プレビュー画面600aを表示端末90に表示させる構成であってもよい。また、図19の処理は、リサイズ(縮小)された画像データを用いてプレビュー画像データを生成する例を説明したが、画像処理装置10aは、実画像データ(撮影画像データ200)を用いてプレビュー画像データを生成する構成であってもよい。 Note that the image processing device 10a may calculate different correction parameters for the same captured image data 200, and display a plurality of corrected images on which color correction has been performed using the different correction parameters on the preview screen 600a. In this case, the user of the communication terminal 50 can select an image that has been optimally color-corrected among a plurality of color-corrected patterns of images. Further, the different correction parameters may be adjustable (set) according to environmental conditions such as brightness of the base P, photographing conditions of the photographing device 30, and the like. Further, in the process shown in FIG. 19, an example in which the preview screen 600a is displayed on the communication terminal 50 has been described, but the image processing system 1a may be configured to display the preview screen 600a on the display terminal 90. Further, in the process of FIG. 19, an example has been described in which preview image data is generated using resized (reduced) image data, but the image processing device 10a uses real image data (captured image data 200) to generate preview image data. It may also be configured to generate image data.

●第1の実施形態の効果
したがって、第1の実施形態に係る画像処理システム1aは、明るさや色味の異なる複数の撮影画像データ200に係る撮影画像800からそれぞれの撮影画像800に対する代表色を決定し、決定されたそれぞれの代表色を代表する一つの総合代表色を算出する。そして、画像処理システム1aは、それぞれの撮影画像800における代表色と、複数の撮影画像800に共通する総合代表色とを用いて、色補正に用いる補正パラメータを撮影画像データ200ごとに算出し、算出した補正パラメータを用いて、撮影画像データ200の色補正を行う。そのため、画像処理システム1aは、明るさや色味の異なる複数の撮影画像データ200に対して、明るさや色味を揃えた補正画像データ250を生成することができる。
●Effects of the first embodiment Therefore, the image processing system 1a according to the first embodiment calculates the representative color for each photographed image 800 from the photographed images 800 related to a plurality of photographed image data 200 having different brightness and color tone. Then, one comprehensive representative color representing each of the determined representative colors is calculated. Then, the image processing system 1a calculates a correction parameter to be used for color correction for each photographed image data 200, using the representative color in each photographed image 800 and the overall representative color common to the plurality of photographed images 800, Color correction of the captured image data 200 is performed using the calculated correction parameters. Therefore, the image processing system 1a can generate corrected image data 250 with uniform brightness and color tone for a plurality of captured image data 200 with different brightness and color tone.

●第2の実施形態●
次に、第2の実施形態に係る画像処理システムついて説明する。なお、第1の実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。第2の実施形態に係る画像処理システム1bは、画像処理システム1aにおける総合代表色に基づいて算出された補正パラメータを用いた色補正に変えて、撮影画像データ200に係る撮影画像800の輝度値を用いて、明るさ補正を行うシステムである。
●Second embodiment●
Next, an image processing system according to a second embodiment will be described. Note that the same configurations and functions as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted. The image processing system 1b according to the second embodiment corrects the brightness value of the photographed image 800 according to the photographed image data 200 instead of the color correction using the correction parameters calculated based on the overall representative color in the image processing system 1a. This is a system that performs brightness correction using

●概略
図21は、第2の実施形態に係る画像処理システムの処理の概略の一例を示す図である。なお、図21は、第2の実施形態に係る画像処理システムの概略を簡略的に説明したものであり、画像処理システム1bが実現する機能等の詳細は、後述する図面等を用いて説明する。
●Outline FIG. 21 is a diagram illustrating an example of an outline of processing of the image processing system according to the second embodiment. Note that FIG. 21 briefly explains the outline of the image processing system according to the second embodiment, and details such as functions realized by the image processing system 1b will be explained using drawings etc. described later. .

まず、画像処理装置10bは、撮影装置30によって異なる被写体が撮影された複数の撮影画像データ200(200a,200b,200c,200d)を取得する。画像処理装置10bは、取得された撮影画像データ200に係る撮影画像800を構成する各画素の画素値のクラスタリング処理によって得られるクラスタを代表する色に関する特徴を示す代表画素値を、クラスタごとに算出する。 First, the image processing device 10b acquires a plurality of photographed image data 200 (200a, 200b, 200c, 200d) in which different subjects are photographed by the photographing device 30. The image processing device 10b calculates, for each cluster, a representative pixel value indicating a characteristic related to a color representing the cluster obtained by clustering processing of the pixel values of each pixel constituting the photographed image 800 related to the acquired photographed image data 200. do.

次に、画像処理装置10bは、代表画素値算出処理によって算出された代表画素値を用いて、撮影画像データ200を代表する輝度に関する特徴を示す代表輝度値を、撮影画像データ200ごとに算出する。そして、画像処理装置10bは、代表輝度値算出処理によって算出された代表輝度値を用いて、撮影画像データ200の明るさ補正を行うための明るさ補正パラメータを、撮影画像データ200ごとに算出する。 Next, the image processing device 10b uses the representative pixel values calculated by the representative pixel value calculation process to calculate, for each piece of photographed image data 200, a representative brightness value that indicates a characteristic related to brightness that is representative of the photographed image data 200. . Then, the image processing device 10b calculates a brightness correction parameter for performing brightness correction of the photographed image data 200 for each photographed image data 200 using the representative brightness value calculated by the representative brightness value calculation process. .

次に、画像処理装置10bは、明るさ補正パラメータ算出処理によって算出された明るさ補正パラメータを用いて、撮影画像データ200ごとに明るさ補正処理を行う。そして、画像処理装置10bは、明るさ補正処理が行われた補正画像データ250(250a,250b,250c,250d)を、表示端末90へ送信する。これにより、表示端末90は、受信した異なる被写体が撮影された複数の補正画像データ250を表示することによって、撮影装置30が位置する拠点Pが撮影された画像をユーザに確認させることができる。 Next, the image processing device 10b performs a brightness correction process for each photographed image data 200 using the brightness correction parameter calculated by the brightness correction parameter calculation process. The image processing device 10b then transmits the corrected image data 250 (250a, 250b, 250c, 250d) on which the brightness correction process has been performed to the display terminal 90. Thereby, the display terminal 90 can display the plurality of received corrected image data 250 in which different subjects are photographed, thereby allowing the user to confirm the image in which the base P where the photographing device 30 is located is photographed.

したがって、画像処理システム1bは、撮影画像データ200に係る撮影画像800に対する代表輝度値を算出し、算出した代表輝度値を用いて、明るさ補正に用いる明るさ補正パラメータを算出する。そして、画像処理システム1aは、算出した明るさ補正パラメータを用いて、撮影画像800の明るさ補正を行う。これにより、画像処理システム1bは、撮影画像800の明るさのみを補正した補正画像850を生成することができるので、撮影画像800ごとの明るさを調整して画像を閲覧するユーザの利便性を向上させたいというサービス提供者やユーザのニーズに応じた画像補正を行うことができる。なお、図21に示したように、以下の説明において、画像処理装置10bが取得した複数の撮影画像データ200に係る撮影画像800の明るさ補正を行う構成を説明するが、第2の実施形態における明るさ補正は、撮影画像800ごとに行われるため、画像処理装置10bは、一つの撮影画像データ200のみを取得して、取得した撮影画像データ200に係る撮影画像800の明るさ補正を行う構成であってもよい。 Therefore, the image processing system 1b calculates a representative brightness value for the photographed image 800 related to the photographed image data 200, and uses the calculated representative brightness value to calculate a brightness correction parameter used for brightness correction. The image processing system 1a then corrects the brightness of the captured image 800 using the calculated brightness correction parameter. As a result, the image processing system 1b can generate a corrected image 850 in which only the brightness of the photographed image 800 is corrected, thereby increasing the convenience of the user who views the image by adjusting the brightness of each photographed image 800. Image correction can be performed in accordance with the needs of service providers and users who wish to improve the image. Note that, as shown in FIG. 21, in the following description, a configuration for correcting the brightness of a photographed image 800 related to a plurality of photographed image data 200 acquired by the image processing device 10b will be described; Since the brightness correction in is performed for each captured image 800, the image processing device 10b acquires only one captured image data 200 and performs the brightness correction of the captured image 800 related to the acquired captured image data 200. It may be a configuration.

●機能構成
ここで、第2の実施形態に係る画像処理システムの機能構成について説明する。なお、画像処理装置10bによって実行される機能である算出部13b以外の機能は、画像処理システム1aの機能(図7参照)と同様であるため、説明を省略する。
●Functional configuration Here, the functional configuration of the image processing system according to the second embodiment will be described. Note that the functions other than the calculation unit 13b, which are functions executed by the image processing device 10b, are the same as the functions of the image processing system 1a (see FIG. 7), so the description thereof will be omitted.

図22は、第2の実施形態に係る算出部の詳細な機能構成の一例を示す図である。図22に示す算出部13bは、代表画素値算出部131b、輝度値算出部132b、代表輝度値算出部133bおよび明るさ補正パラメータ算出部134bを含む。なお、代表画素値算出部131bは、代表画素値算出部131aと同様であるため説明を省略する。 FIG. 22 is a diagram illustrating an example of a detailed functional configuration of the calculation unit according to the second embodiment. The calculation unit 13b shown in FIG. 22 includes a representative pixel value calculation unit 131b, a brightness value calculation unit 132b, a representative brightness value calculation unit 133b, and a brightness correction parameter calculation unit 134b. Note that the representative pixel value calculation unit 131b is the same as the representative pixel value calculation unit 131a, so the description thereof will be omitted.

輝度値算出部132bは、代表画素値算出部131bによって算出された代表画素値に基づいて、輝度値を算出する機能である。輝度値算出部132bは、代表画素値算出部131によって算出された代表画素値のそれぞれを輝度値に変換する。 The brightness value calculation unit 132b has a function of calculating a brightness value based on the representative pixel value calculated by the representative pixel value calculation unit 131b. The brightness value calculation unit 132b converts each of the representative pixel values calculated by the representative pixel value calculation unit 131 into a brightness value.

代表輝度値算出部133bは、輝度値算出部132bによって算出された輝度値を用いて、撮影画像データ200ごとの代表輝度値を算出する機能である。代表輝度値とは、撮影画像データ200を代表する輝度に関する特徴を示す輝度値である。代表輝度値算出部133bによって算出される代表輝度値は、第1の代表輝度値の一例である。代表輝度値算出部133bは、代表輝度値決定手段の一例である。 The representative brightness value calculation unit 133b has a function of calculating a representative brightness value for each photographed image data 200 using the brightness value calculated by the brightness value calculation unit 132b. The representative brightness value is a brightness value that indicates a characteristic related to brightness that is representative of the captured image data 200. The representative brightness value calculated by the representative brightness value calculation unit 133b is an example of the first representative brightness value. The representative brightness value calculation unit 133b is an example of representative brightness value determining means.

明るさ補正パラメータ算出部134bは、代表輝度値算出部133bによって算出された代表輝度値を用いて、撮影画像800の明るさを補正するための明るさ補正パラメータを算出する機能である。明るさ補正パラメータ算出部134bは、代表輝度値と、記憶部1000に記憶されたLUT(Lookup table;ルックアップテーブル)(図25参照)を用いて、明るさ補正パラメータを算出する。明るさ補正パラメータ算出部134bは、補正パラメータ算出手段の一例である。 The brightness correction parameter calculation unit 134b has a function of calculating a brightness correction parameter for correcting the brightness of the captured image 800 using the representative brightness value calculated by the representative brightness value calculation unit 133b. The brightness correction parameter calculating unit 134b calculates brightness correction parameters using the representative brightness value and an LUT (Lookup table) (see FIG. 25) stored in the storage unit 1000. The brightness correction parameter calculation unit 134b is an example of correction parameter calculation means.

〇代表輝度値管理テーブル
図23は、第2の実施形態に係る代表輝度値管理テーブルの一例を示す概念図である。記憶部1000には、図23に示すような代表輝度値管理テーブルによって構成されている画素値管理DB1001が構築されている。図23に示す代表輝度値管理テーブルには、撮影画像データ200に係る撮影画像800を構成する各画素の画素値のクラスタリング処理の結果に基づいて算出される輝度値が、撮影画像データ200を識別するための画像IDごとに管理されている。代表輝度値管理テーブルには、分割されたクラスタを識別するためのクラスタNoごとに、クラスタに含まれる画素数、クラスタ中心画素、およびクラスタ中心画素を用いて算出される輝度値が関連づけて記憶されて管理されている。また、代表輝度値管理テーブルには、撮影画像データ200を代表する輝度に関する特徴を示す代表輝度値が撮影画像データ200ごとに記憶されて管理されている。図23に示す処理結果を得るための具体的な処理については後述する。
〇Representative Brightness Value Management Table FIG. 23 is a conceptual diagram showing an example of the representative brightness value management table according to the second embodiment. In the storage unit 1000, a pixel value management DB 1001 is constructed, which is constituted by a representative brightness value management table as shown in FIG. In the representative brightness value management table shown in FIG. It is managed for each image ID. In the representative brightness value management table, the number of pixels included in the cluster, the cluster center pixel, and the brightness value calculated using the cluster center pixel are stored in association with each other for each cluster number for identifying divided clusters. It is well managed. Further, in the representative brightness value management table, representative brightness values indicating characteristics related to brightness that represent the photographed image data 200 are stored and managed for each photographed image data 200. Specific processing for obtaining the processing results shown in FIG. 23 will be described later.

●第2の実施形態の処理または動作
続いて、図24および図26を用いて、第2の実施形態に係る画像処理システム1bの処理または動作について説明する。なお、図12のステップS14に示した補正パラメータの算出処理以外は、画像処理システム1aの処理または動作と同様であるため、説明を省略する。
●Processing or operation of second embodiment Next, processing or operation of the image processing system 1b according to the second embodiment will be described using FIGS. 24 and 26. Note that the processing other than the correction parameter calculation processing shown in step S14 in FIG. 12 is the same as the processing or operation of the image processing system 1a, so the explanation will be omitted.

図24は、第2の実施形態に係る画像処理装置における補正パラメータの算出処理の一例を示すフローチャートである。なお、ステップS101bの処理とステップS102bの処理は、図13に示したステップS101aとステップS102aと同様であるため説明を省略する。 FIG. 24 is a flowchart illustrating an example of correction parameter calculation processing in the image processing apparatus according to the second embodiment. Note that the processing in step S101b and the processing in step S102b are the same as step S101a and step S102a shown in FIG. 13, so their explanation will be omitted.

ステップS103bにおいて、算出部13bの輝度値算出部132bは、代表画素値算出部131bによって算出されたクラスタ中心画素を用いて、各クラスタにおける輝度値を算出する。具体的には、輝度値算出部132bは、公知の変換式を用いて、RGBの画素値から輝度値を算出する。一例として、輝度値算出部132bは、下記式1に示すITU-R BT.601の変換式を用いる。 In step S103b, the brightness value calculation unit 132b of the calculation unit 13b calculates the brightness value in each cluster using the cluster center pixel calculated by the representative pixel value calculation unit 131b. Specifically, the brightness value calculation unit 132b calculates the brightness value from the RGB pixel values using a known conversion formula. As an example, the brightness value calculation unit 132b uses the ITU-R BT.601 conversion formula shown in Equation 1 below.

なお、より適切には、RGBの画素値がどういう色空間として算出された値なのかによって変換式が変わってくるので、輝度値算出部132bは、適切な変換式を選択して輝度値を算出することが好ましい。 More appropriately, since the conversion formula changes depending on the color space in which the RGB pixel value is calculated, the brightness value calculation unit 132b selects an appropriate conversion formula to calculate the brightness value. It is preferable to do so.

ステップS104bにおいて、記憶・読出部19は、代表画素値算出部131bによって算出されたクラスタに含まれる画素数およびクラスタ中心画素、並びに輝度値算出部132bによって算出された輝度値を画素値管理DB1001に記憶する。画素値管理DB1001は、図23に示すように、クラスタごとに画素数、クラスタ中心画素、および輝度値を、画像IDと関連づけて代表輝度値管理テーブルに記憶・管理する。 In step S104b, the storage/readout unit 19 stores the number of pixels included in the cluster and the cluster center pixel calculated by the representative pixel value calculation unit 131b, and the brightness value calculated by the brightness value calculation unit 132b in the pixel value management DB 1001. Remember. As shown in FIG. 23, the pixel value management DB 1001 stores and manages the number of pixels, cluster center pixel, and brightness value for each cluster in a representative brightness value management table in association with the image ID.

ステップS105bにおいて、代表輝度値算出部133bは、輝度値算出部132bによって算出された輝度値を用いて、撮影画像データ200を代表する輝度に関する特徴を示す代表輝度値を算出する。具体的には、代表輝度値算出部133bは、輝度値算出部132bによって算出されたk個の輝度値と、対応するクラスタに属する画素数とを用いて、撮影画像データ200の代表輝度値を算出する。この場合、代表輝度値算出部133bは、k個の輝度値と対応するクラスタに属する画素数を用いた加重平均によって、代表輝度値を算出する。なお、ここでは、加重平均を用いて代表輝度値を算出する例を説明するが、純粋な画素数による加重だけでなく、画素数の多いクラスタの加重を増やしたり、画画素数の少ないクラスタの加重を減らしたりして代表輝度値を算出する構成であってもよい。 In step S105b, the representative brightness value calculation unit 133b calculates a representative brightness value indicating characteristics related to brightness representative of the captured image data 200 using the brightness value calculated by the brightness value calculation unit 132b. Specifically, the representative brightness value calculation unit 133b calculates the representative brightness value of the captured image data 200 using the k brightness values calculated by the brightness value calculation unit 132b and the number of pixels belonging to the corresponding cluster. calculate. In this case, the representative brightness value calculation unit 133b calculates the representative brightness value by weighted averaging using the k brightness values and the number of pixels belonging to the corresponding cluster. Note that here we will explain an example of calculating the representative brightness value using a weighted average, but in addition to weighting based on the pure number of pixels, it is also possible to increase the weighting of clusters with a large number of pixels, or to increase the weighting of clusters with a small number of pixels. The configuration may be such that the representative brightness value is calculated by reducing the weight.

ステップS106bにおいて、記憶・読出部19は、代表輝度値算出部133bによって算出された代表輝度値を画素値管理DB1001に記憶する。画素値管理DB1001は、図23に示したように、撮影画像データ200を識別するための画像IDごとに、当該撮影画像データ200に対応する代表輝度値を代表輝度値管理テーブルに記憶・管理する。 In step S106b, the storage/reading unit 19 stores the representative brightness value calculated by the representative brightness value calculation unit 133b in the pixel value management DB 1001. As shown in FIG. 23, the pixel value management DB 1001 stores and manages representative brightness values corresponding to the photographed image data 200 in a representative brightness value management table for each image ID for identifying the photographed image data 200. .

ステップS107bにおいて、明るさ補正パラメータ算出部134bは、代表輝度値算出部133bによって算出された代表輝度値を用いて、撮影画像データ200の明るさを補正するための明るさ補正パラメータを算出する。ここで、図25を用いて、明るさ補正パラメータの算出処理について説明する。図25は、第2の実施形態に係る明るさ補正パラメータの一例を示す図である。図25は、明るさ補正パラメータとして、代表輝度値算出部133bによって算出された代表輝度値に応じて、撮影画像の明るさを変更するためのLUTを算出する例を示す。図25には、明るさ補正パラメータの例として三つのLUTが示されている。LUTは、入力データを処理に適した形に変換するために用いられるものであり、横軸が入力、縦軸が出力の値を示している。この場合の入力データは、それぞれの撮影画像データ200の明るさ(輝度値)であり、図25には、画素値の取りうる範囲と出力の関係が0-1の値に規格化されて示されている。example1は、低輝度から高輝度まで大きく持ち上がるようなLUTであり、example2は、example1に対して変換を半分程度にしたLUT、example3は、入出力が変化しないようなリニアなLUTである。 In step S107b, the brightness correction parameter calculation unit 134b calculates a brightness correction parameter for correcting the brightness of the captured image data 200 using the representative brightness value calculated by the representative brightness value calculation unit 133b. Here, the brightness correction parameter calculation process will be described using FIG. 25. FIG. 25 is a diagram illustrating an example of brightness correction parameters according to the second embodiment. FIG. 25 shows an example of calculating an LUT for changing the brightness of a photographed image according to the representative brightness value calculated by the representative brightness value calculation unit 133b as a brightness correction parameter. FIG. 25 shows three LUTs as examples of brightness correction parameters. The LUT is used to convert input data into a form suitable for processing, and the horizontal axis represents input values and the vertical axis represents output values. The input data in this case is the brightness (luminance value) of each photographed image data 200, and FIG. 25 shows the relationship between the possible range of pixel values and the output, standardized to a value of 0-1. has been done. Example 1 is a LUT that greatly increases the brightness from low to high brightness, example 2 is a LUT that has about half the conversion of example 1, and example 3 is a linear LUT where input and output do not change.

明るさ補正パラメータ算出部134bは、代表輝度値算出部133bによって算出された代表輝度値に応じて、どのLUTを使用するかを決定する。例えば、代表輝度値が100より小さい場合は、暗い画像であると判断してexample1のLUTを算出(採用)する。また、代表輝度値が150より大きい場合は、明るい画像であると判断してexample3を算出(採用)する。さらに、代表輝度値が100以上150以下の場合は、その値(代表輝度値)に応じて傾きを変更したLUTを算出(採用)する。例えば、example2のLUTは、代表輝度値が125の場合のLUTの例を示している。 The brightness correction parameter calculation unit 134b determines which LUT to use according to the representative brightness value calculated by the representative brightness value calculation unit 133b. For example, if the representative brightness value is smaller than 100, it is determined that the image is dark, and the LUT of example1 is calculated (adopted). Furthermore, if the representative brightness value is greater than 150, it is determined that the image is bright and example 3 is calculated (adopted). Furthermore, if the representative brightness value is 100 or more and 150 or less, an LUT whose slope is changed according to the value (representative brightness value) is calculated (adopted). For example, the LUT of example2 shows an example of the LUT when the representative brightness value is 125.

ここでは、明るさ補正パラメータ算出部134bは、記憶部1000に予め記憶された複数のLUTを用いて、代表輝度値算出部133bによって算出された代表輝度値に応じて、適切なLUTを明るさ補正パラメータとして選択する。なお、明るさ補正パラメータ算出部134bは、例えば、シグモイド曲線(シグモイド関数)を用いることで、算出された代表輝度値に応じて、当該画像の明るさ補正に好ましいS字形の入出力特性を有するLUTを動的に算出する構成であってもよい。また、図25は、三つのLUT(example1~example3)の例を示したが、明るさ補正パラメータ算出部134bは、四つ以上のLUTを用いて、より精細に明るさ補正パラメータを算出する構成であってもよい。 Here, the brightness correction parameter calculation unit 134b uses a plurality of LUTs stored in advance in the storage unit 1000 to select an appropriate LUT according to the representative brightness value calculated by the representative brightness value calculation unit 133b. Select as correction parameter. Note that the brightness correction parameter calculation unit 134b has an S-shaped input/output characteristic suitable for brightness correction of the image according to the calculated representative brightness value by using, for example, a sigmoid curve (sigmoid function). The configuration may be such that the LUT is dynamically calculated. Although FIG. 25 shows an example of three LUTs (example 1 to example 3), the brightness correction parameter calculation unit 134b has a configuration that calculates brightness correction parameters more precisely using four or more LUTs. It may be.

ステップS108bにおいて、画像処理装置10bは、ネットワーク通信部11によって受信された撮影画像データ200を画像処理部12によって全て読み込んでいない場合、ステップS101bからの処理を繰り返す。一方で、画像処理装置10bは、ネットワーク通信部11によって受信された撮影画像データ200を画像処理部12によって全て読み込んだ場合、処理を終了する。 In step S108b, if the image processing unit 12 has not read all of the captured image data 200 received by the network communication unit 11, the image processing device 10b repeats the processing from step S101b. On the other hand, when the image processing unit 12 reads all of the captured image data 200 received by the network communication unit 11, the image processing device 10b ends the process.

これによって、画像処理装置10bの補正部14は、図12のステップS15に示したように、算出部13bによって算出された明るさ補正パラメータを用いて、撮影画像データ200の明るさ補正を行う。明るさ補正パラメータ(LUT)を用いた明るさ補正は、撮影画像データ200がRGBデータである場合、例えば、RGBの画像形式を輝度と色差を表すYCbCrの画像形式に変換し、明るさ補正パラメータ(LUT)を輝度のみに適応することで、色味を保ったまま明るさを変更することができる。なお、RGBの画素のそれぞれに明るさ補正パラメータ(LUT)を適応した場合、多少の色味の変化は生じるが、概ね期待通りの明るさに変化した画像を生成することができる。 Thereby, the correction unit 14 of the image processing device 10b performs brightness correction on the captured image data 200 using the brightness correction parameter calculated by the calculation unit 13b, as shown in step S15 of FIG. When the captured image data 200 is RGB data, brightness correction using a brightness correction parameter (LUT) is performed by converting the RGB image format to a YCbCr image format representing brightness and color difference, and applying the brightness correction parameter. By applying (LUT) only to the brightness, it is possible to change the brightness while maintaining the color tone. Note that when a brightness correction parameter (LUT) is applied to each of the RGB pixels, although some color changes occur, it is possible to generate an image whose brightness has generally changed as expected.

ここで、図26を用いて、プレビュー画面600bについて説明する。図26は、第2の実施形態に係るプレビュー画面の一例を示す図である。図26に示すプレビュー画面600bに含まれる表示画像選択領域620bは、図20に示した表示画像選択領域620aと異なり、複数の撮影画像データ200に係るプレビュー画像データが表示されている。また、プレビュー画面600bには、それぞれの撮影画像データ200ごとに、明るさ補正前の補正前画像または明るさ補正後の補正画像のそれぞれが選択可能に表示されている。これにより、通信端末50を使用する利用者(例えば、図1に示す管理者X)は、ディスプレイ517に表示されたプレビュー画面600bを確認することによって、明るさの異なる画像(補正前後の画像)のうち、ユーザにどの画像を提供するかを選択することができる。また、通信端末50を使用する利用者は、複数の撮影画像データ200に係る補正前後の画像を同時に確認することによって、例えば、複数の撮影画像800をユーザに閲覧させるような場合にユーザに違和感が生じさせないように、各撮影画像800に係るプレビュー画像データを選択することができる。なお、画像処理装置10bは、図20に示したプレビュー画面600aのように、一つの撮影画像データ200に係る補正前後の画像のみを表示させる構成であってもよい。同様に、第1の実施形態に係る画像処理装置10aは、図26に示したプレビュー画面600bのように、複数の撮影画像データ200に係る補正前後の画像を表示させる構成であってもよい。 Here, the preview screen 600b will be explained using FIG. 26. FIG. 26 is a diagram showing an example of a preview screen according to the second embodiment. A display image selection area 620b included in the preview screen 600b shown in FIG. 26 differs from the display image selection area 620a shown in FIG. 20 in that preview image data related to a plurality of captured image data 200 is displayed. In addition, on the preview screen 600b, for each piece of photographed image data 200, a pre-correction image before brightness correction or a corrected image after brightness correction is selectably displayed. As a result, the user using the communication terminal 50 (for example, the administrator It is possible to select which image to provide to the user. In addition, the user who uses the communication terminal 50 can simultaneously check the images before and after correction related to a plurality of photographed image data 200, thereby making the user feel uncomfortable when, for example, the user is allowed to view a plurality of photographed images 800. Preview image data related to each captured image 800 can be selected so as to prevent this from occurring. Note that the image processing device 10b may be configured to display only images before and after correction related to one captured image data 200, as in the preview screen 600a shown in FIG. 20. Similarly, the image processing device 10a according to the first embodiment may be configured to display images before and after correction regarding a plurality of captured image data 200, as in the preview screen 600b shown in FIG.

●第2の実施形態の効果
したがって、第2の実施形態に係る画像処理システム1bは、撮影画像データ200に係る撮影画像800に対する代表輝度値を算出し、算出した代表輝度値を用いて、明るさ補正に用いる明るさ補正パラメータを算出し、算出された明るさ補正パラメータを用いて、撮影画像800の明るさ補正を行う。そのため、画像処理システム1bは、撮影画像データ200に対して、明るさのみが補正された補正画像データ250を生成することができる。
●Effects of the second embodiment Therefore, the image processing system 1b according to the second embodiment calculates the representative brightness value for the photographed image 800 according to the photographed image data 200, and uses the calculated representative brightness value to calculate the brightness. A brightness correction parameter used for the brightness correction is calculated, and the brightness of the captured image 800 is corrected using the calculated brightness correction parameter. Therefore, the image processing system 1b can generate corrected image data 250 in which only the brightness is corrected for the captured image data 200.

●第2の実施形態の変形例1●
次に、第2の実施形態の変形例1に係る画像処理システムついて説明する。第2の実施形態の変形例1に係る画像処理システム1bbは、複数の撮影画像データを代表する輝度に関する特徴を示す総合代表輝度値を用いて、複数の撮影画像データの明るさ補正を行うシステムである。画像処理システム1bbは、個別の撮影画像800の代表輝度値を用いて撮影画像800ごとの明るさ補正を行う場合と比較して、複数の撮影画像800の明るさに関する特徴を踏まえた明るさ補正を行うことできるので、複数の撮影画像800をユーザに閲覧させる際の複数の撮影画像800間における明るさの調整を自動的に行うことができる。なお、上記の画像処理システム1bでは、画像処理装置10bによって取得される撮影画像データ200が複数または一つであってもよい旨を説明したが、画像処理システム1bbは、複数の撮影画像800の間で明るさを揃えることを目的とするため、第2の実施形態の変形例1に係る画像処理装置10bbによって複数の撮影画像データ200が取得されるものとする。
●Variation example 1 of the second embodiment●
Next, an image processing system according to Modification 1 of the second embodiment will be described. The image processing system 1bb according to the first modification of the second embodiment is a system that corrects the brightness of a plurality of photographed image data using a comprehensive representative brightness value that indicates a characteristic related to brightness that is representative of the plurality of photographic image data. It is. The image processing system 1bb performs brightness correction based on brightness-related characteristics of a plurality of captured images 800, compared to performing brightness correction for each captured image 800 using representative brightness values of individual captured images 800. Therefore, when the user is allowed to view the plurality of captured images 800, the brightness between the plurality of captured images 800 can be automatically adjusted. Note that in the image processing system 1b described above, it has been explained that the number of captured image data 200 acquired by the image processing device 10b may be plural or one; It is assumed that a plurality of photographed image data 200 are acquired by the image processing apparatus 10bb according to the first modification of the second embodiment in order to make the brightness uniform among the images.

●機能構成
ここで、第2の実施形態の変形例1に係る画像処理システムの機能構成について説明する。なお、画像処理装置10bbによって実行される機能である算出部13bb以外の機能は、画像処理システム1aの機能(図7参照)と同様であるため、説明を省略する。
●Functional Configuration Here, the functional configuration of the image processing system according to Modification 1 of the second embodiment will be described. Note that the functions other than the calculation unit 13bb, which are functions executed by the image processing device 10bb, are the same as the functions of the image processing system 1a (see FIG. 7), so the description thereof will be omitted.

図27は、第2の実施形態の変形例1に係る算出部の詳細な機能構成の一例を示す図である。図27に示す算出部13bbは、図22に示した算出部13bの構成に加えて、総合代表輝度値算出部135bを有する。 FIG. 27 is a diagram illustrating an example of a detailed functional configuration of a calculation unit according to Modification 1 of the second embodiment. In addition to the configuration of the calculation unit 13b shown in FIG. 22, the calculation unit 13bb shown in FIG. 27 includes a comprehensive representative brightness value calculation unit 135b.

総合代表輝度値算出部135bは、代表輝度値算出部133bによって算出された代表輝度値を用いて、複数の撮影画像データ200を代表する輝度に関する特徴を示す総合代表輝度値を算出する機能である。総合代表輝度値算出部135bによって算出される総合代表輝度値は、第2の代表輝度値の一例である。総合代表輝度値算出部135bは、代表輝度値算出手段の一例である。 The overall representative brightness value calculation unit 135b has a function of calculating an overall representative brightness value that indicates characteristics related to brightness that represent the plurality of captured image data 200, using the representative brightness value calculated by the representative brightness value calculation unit 133b. . The overall representative brightness value calculated by the overall representative brightness value calculation unit 135b is an example of the second representative brightness value. The comprehensive representative brightness value calculation unit 135b is an example of representative brightness value calculation means.

また、算出部13bbにおける明るさ補正パラメータ算出部134bは、代表輝度値算出部133bによって算出された代表輝度値と、総合代表輝度値算出部135bによって算出された総合代表輝度値とに基づいて、撮影画像800ごとの明るさ補正パラメータを算出する。 Further, the brightness correction parameter calculation unit 134b in the calculation unit 13bb calculates, based on the representative brightness value calculated by the representative brightness value calculation unit 133b and the total representative brightness value calculated by the total representative brightness value calculation unit 135b, A brightness correction parameter for each photographed image 800 is calculated.

〇総合代表輝度値管理テーブル
図28は、第2の実施形態の変形例1に係る総合代表輝度値管理テーブルの一例を示す概念図である。記憶部1000には、図28に示すような総合代表輝度値管理テーブルによって構成されている画素値管理DB1001が構築されている。図28に示す総合代表輝度値管理テーブルは、代表輝度値算出部133bによって算出された複数の代表輝度値のクラスタリング処理の結果を示す。総合代表輝度値管理テーブルには、分割されたクラスタを識別するためのクラスタNoごとに、クラスタの中心(重心)であるクラスタ中心輝度と当該クラスタに属する代表輝度値に対応する撮影画像データ200を識別するための画像IDとが関連づけて記憶されて管理されている。図28の例において、クラスタNo「1」のクラスタには、クラスタ中心輝度が「117.31771」であり、画像ID「P01」によって識別される一つの撮影画像データ200に対応する代表輝度値が属する。また、クラスタNo「2」のクラスタには、クラスタ中心輝度が「122.58848」であり、画像ID「P02」,「P03」,「P04」によって識別される三つの撮影画像データ200のそれぞれに対応する代表輝度値が属する。
Comprehensive Representative Brightness Value Management Table FIG. 28 is a conceptual diagram showing an example of a comprehensive representative brightness value management table according to Modification 1 of the second embodiment. In the storage unit 1000, a pixel value management DB 1001 is constructed, which is composed of a comprehensive representative brightness value management table as shown in FIG. The comprehensive representative brightness value management table shown in FIG. 28 shows the results of clustering processing of a plurality of representative brightness values calculated by the representative brightness value calculation unit 133b. The comprehensive representative brightness value management table includes photographed image data 200 corresponding to the cluster center brightness, which is the center (center of gravity) of the cluster, and the representative brightness value belonging to the cluster, for each cluster number for identifying divided clusters. An image ID for identification is stored and managed in association with the image ID. In the example of FIG. 28, the cluster with cluster number "1" has a cluster center luminance of "117.31771" and a representative luminance value corresponding to one photographed image data 200 identified by image ID "P01". belong to In addition, the cluster No. 2 has a cluster center luminance of 122.58848, and each of the three photographed image data 200 identified by the image IDs "P02", "P03", and "P04" has a cluster center brightness of "122.58848". The corresponding representative luminance value belongs.

〇補正パラメータ管理テーブル
図29は、第2の実施形態の変形例1に係る補正パラメータ管理テーブルの一例を示す概念図である。記憶部1000には、図29に示すような補正パラメータ管理テーブルによって構成されている補正パラメータ管理DB1003が構築されている。図29に示す補正パラメータ管理テーブルは、撮影画像データ200を識別するための画像IDごとに、代表輝度値算出部133bによって算出された代表輝度値が記憶されて管理されている。また、図29に示す補正パラメータ管理テーブルは、総合代表輝度値算出部135bによって算出された総合代表輝度値が、複数の画像IDに共通して記憶・管理されている。
- Correction Parameter Management Table FIG. 29 is a conceptual diagram showing an example of a correction parameter management table according to Modification 1 of the second embodiment. In the storage unit 1000, a correction parameter management DB 1003 is constructed, which is composed of a correction parameter management table as shown in FIG. In the correction parameter management table shown in FIG. 29, representative brightness values calculated by the representative brightness value calculation unit 133b are stored and managed for each image ID for identifying the captured image data 200. Further, in the correction parameter management table shown in FIG. 29, the overall representative brightness value calculated by the overall representative brightness value calculation unit 135b is commonly stored and managed for a plurality of image IDs.

●第2の実施形態の変形例1の処理または動作
続いて、図30および図33を用いて、第2の実施形態の変形例1に係る画像処理システム1bbの処理または動作について説明する。図30は、第2の実施形態の変形例1に係る画像処理装置における補正パラメータの算出処理の一例を示すフローチャートである。なお、図30のステップS101bb~ステップS106bbの処理は、図24に示したステップS101b~ステップS106bの処理と同様であるため、説明を省略する。
Processing or Operation of Modification 1 of Second Embodiment Next, processing or operation of the image processing system 1bb according to Modification 1 of the second embodiment will be described using FIGS. 30 and 33. FIG. 30 is a flowchart illustrating an example of correction parameter calculation processing in the image processing apparatus according to Modification 1 of the second embodiment. Note that the processing from step S101bb to step S106bb in FIG. 30 is the same as the processing from step S101b to step S106b shown in FIG. 24, so the description thereof will be omitted.

ステップS107bbにおいて、画像処理装置10bbは、ネットワーク通信部11によって受信された複数の撮影画像データ200を画像処理部12によって全て読み込んでいない場合、ステップS101bbからの処理を繰り返す。一方で、画像処理装置10bbは、ネットワーク通信部11によって受信された複数の撮影画像データ200を画像処理部12によって全て読み込んだ場合、処理をステップS108bbへ移行させる。 In step S107bb, if the image processing unit 12 has not read all of the plurality of captured image data 200 received by the network communication unit 11, the image processing device 10bb repeats the processing from step S101bb. On the other hand, when the image processing unit 12 reads all of the plurality of captured image data 200 received by the network communication unit 11, the image processing device 10bb shifts the process to step S108bb.

ステップS108bbにおいて、画像処理装置10bbの算出部13bbは、ステップS105bbの処理によって算出された代表輝度値を用いて、総合代表輝度値を算出する。ここで、図31を用いて、総合代表輝度値の算出処理の詳細を説明する。図31は、第2の実施形態の変形例1に係る画像処理装置における総合代表輝度値算出処理の一例を示すフローチャートである。 In step S108bb, the calculation unit 13bb of the image processing device 10bb calculates a total representative brightness value using the representative brightness value calculated in the process of step S105bb. Here, details of the calculation process of the overall representative brightness value will be explained using FIG. 31. FIG. 31 is a flowchart illustrating an example of overall representative brightness value calculation processing in the image processing apparatus according to Modification 1 of the second embodiment.

ステップS108bb-1において、総合代表輝度値算出部135bは、代表輝度値算出部133bによって算出された代表輝度値のクラスタリング処理によって複数のクラスタに分類する。総合代表輝度値算出部135bによるクラスタリング処理は、代表画素値算出部131bによるクラスタリング処理と同様に、K-平均法を用いて行われる。この場合の入力データは、代表輝度値算出部133bによって算出された複数の代表輝度値であり、輝度値の空間上の距離を用いて、クラスタにグルーピングされる。 In step S108bb-1, the overall representative brightness value calculation unit 135b classifies the representative brightness values calculated by the representative brightness value calculation unit 133b into a plurality of clusters by clustering processing. The clustering process by the overall representative brightness value calculation unit 135b is performed using the K-means method, similar to the clustering process by the representative pixel value calculation unit 131b. The input data in this case is a plurality of representative brightness values calculated by the representative brightness value calculation unit 133b, and is grouped into clusters using the spatial distances of the brightness values.

ステップS108bb-2において、総合代表輝度値算出部135bは、分類した各クラスタを代表する輝度値であるクラスタ中心輝度を算出する。総合代表輝度値算出部135bは、ステップS108bb-1の処理によってグルーピングされたクラスタの中心の輝度値を、クラスタ中心輝度として算出する。 In step S108bb-2, the overall representative brightness value calculation unit 135b calculates cluster center brightness, which is a brightness value representative of each classified cluster. The overall representative brightness value calculation unit 135b calculates the brightness value of the center of the cluster grouped by the process of step S108bb-1 as the cluster center brightness.

ステップS108bb-3において、記憶・読出部19は、クラスタごとに各クラスタに属する代表輝度値に係る画像IDと、クラスタ中心輝度とを関連づけて画素値管理DB1001に記憶させる。画素値管理DB1001は、図28に示すように、クラスタごとにクラスタ中心輝度と、画像IDとを関連づけて総合代表輝度値管理テーブルに記憶・管理する。 In step S108bb-3, the storage/reading unit 19 stores the image ID related to the representative brightness value belonging to each cluster and the cluster center brightness in the pixel value management DB 1001 in association with each other for each cluster. As shown in FIG. 28, the pixel value management DB 1001 stores and manages cluster center brightness and image ID in association with each other in a comprehensive representative brightness value management table for each cluster.

ステップS108bb-4において、記憶・読出部19は、所属する代表輝度値の数が最も多いクラスタに関連づけられたクラスタ中心輝度を、総合代表輝度値として補正パラメータ管理DB1003に記憶させる。補正パラメータ管理DB1003は、図29に示すように、複数の撮影画像データ200を代表する輝度に関する特徴を示す総合代表輝度値を、補正パラメータ管理テーブルに記憶・管理する。例えば、図28に示した総合代表輝度値管理テーブルに示される処理結果の場合、クラスタNo「2」のクラスタ中心輝度である「122.58848」が総合代表輝度値となる。 In step S108bb-4, the storage/reading unit 19 stores the cluster center brightness associated with the cluster having the largest number of representative brightness values in the correction parameter management DB 1003 as a comprehensive representative brightness value. As shown in FIG. 29, the correction parameter management DB 1003 stores and manages comprehensive representative brightness values indicating characteristics related to brightness representative of a plurality of captured image data 200 in a correction parameter management table. For example, in the case of the processing results shown in the overall representative brightness value management table shown in FIG. 28, "122.58848", which is the cluster center brightness of cluster No. "2", becomes the comprehensive representative brightness value.

これにより、総合代表輝度値算出部135bは、画像処理部12によって取得された全ての撮影画像データ200の代表輝度値を用いて、複数の撮影画像データを代表する輝度に関する特徴を示す総合代表輝度値を算出することができる。なお、総合代表輝度値の算出方法は、図31に示した方法に限られず、例えば、代表輝度値算出部133bによって算出された複数の代表輝度値の単純平均によって総合代表輝度値を算出してもよい。 Thereby, the overall representative brightness value calculation unit 135b uses the representative brightness values of all the captured image data 200 acquired by the image processing unit 12 to calculate the overall representative brightness value that indicates the characteristics related to the brightness that is representative of the plurality of captured image data. The value can be calculated. Note that the method for calculating the overall representative brightness value is not limited to the method shown in FIG. 31; for example, the overall representative brightness value may be calculated by a simple average of a plurality of representative brightness values calculated by the representative brightness value calculation unit 133b. Good too.

図30に戻り、補正パラメータの算出処理の説明を続ける。ステップS109bbにおいて、明るさ補正パラメータ算出部134bは、代表輝度値算出部133bによって算出された代表輝度値と総合代表輝度値算出部135bによって算出された総合代表輝度値とを用いて、撮影画像データ200の明るさを補正するための明るさ補正パラメータを算出する。ここで、図32および図33を用いて、明るさ補正パラメータの算出処理について説明する。図32は、第2の実施形態の変形例1に係る明るさ補正パラメータの一例を示す図である。図33は、第2の実施形態の変形例1に係る明るさ補正ゲインの一例を示す図である。図32および図33は、明るさ補正パラメータとして、代表輝度値算出部133bによって算出された代表輝度値および総合代表輝度値算出部135bによって算出された総合代表輝度値に応じて、撮影画像の明るさを変更するためのLUTを算出する例を示す。図32には、明るさ補正パラメータの例として四つのLUTが示されている。なお、図32は、example4のLUTが追加されているほかは、図25に示した例と同様です。 Returning to FIG. 30, the explanation of the correction parameter calculation process will be continued. In step S109bb, the brightness correction parameter calculation unit 134b uses the representative brightness value calculated by the representative brightness value calculation unit 133b and the total representative brightness value calculated by the total representative brightness value calculation unit 135b to calculate the captured image data. A brightness correction parameter for correcting the brightness of 200 is calculated. Here, the brightness correction parameter calculation process will be described using FIGS. 32 and 33. FIG. 32 is a diagram illustrating an example of brightness correction parameters according to Modification 1 of the second embodiment. FIG. 33 is a diagram illustrating an example of brightness correction gain according to Modification 1 of the second embodiment. 32 and 33 show that the brightness of a photographed image is adjusted as a brightness correction parameter according to the representative brightness value calculated by the representative brightness value calculation unit 133b and the total representative brightness value calculated by the total representative brightness value calculation unit 135b. An example of calculating an LUT for changing the brightness will be shown below. FIG. 32 shows four LUTs as examples of brightness correction parameters. Note that Figure 32 is the same as the example shown in Figure 25, except that the LUT of example 4 is added.

明るさ補正パラメータ算出部134bは、代表輝度値算出部133bによって算出された代表輝度値および総合代表輝度値算出部135bによって算出された総合代表輝度値を用いて、どのLUTを使用するかを決定する。例えば、代表輝度値が100より小さい場合は、暗い画像であると判断してexample1のLUTを算出(採用)する。また、代表輝度値が150より大きい場合は、明るい画像であると判断してexample3を算出(採用)する。さらに、代表輝度値が100以上150以下の場合は、その値(代表輝度値)と総合代表輝度値に応じて傾きを変更したLUTを算出(採用)する。 The brightness correction parameter calculation unit 134b uses the representative brightness value calculated by the representative brightness value calculation unit 133b and the overall representative brightness value calculated by the overall representative brightness value calculation unit 135b to determine which LUT to use. do. For example, if the representative brightness value is smaller than 100, it is determined that the image is dark, and the LUT of example1 is calculated (adopted). Furthermore, if the representative brightness value is greater than 150, it is determined that the image is bright and example 3 is calculated (adopted). Further, when the representative brightness value is between 100 and 150, an LUT whose slope is changed according to that value (representative brightness value) and the overall representative brightness value is calculated (adopted).

図33(a)および(b)には、明るさ補正パラメータを決定するために利用されるパラメータである明るさ補正ゲインが示されている。明るさ補正ゲインとは、明るさ補正パラメータであるLUTの傾きを算出するためのパラメータであり、LUTの傾きは、図33(a)に示されている第1の明るさ補正ゲイン、および図33(b)に示されている第2の明るさ補正ゲインに基づいて算出される。図33(a)は、画素値の取りうる範囲と明るさ補正ゲイン値(第1の明るさ補正ゲイン値)の関係が0-1に規格化されて示されており、総合代表輝度値を代表輝度値で除算した値と明るさ補正ゲイン値(第2の明るさ補正ゲイン値)の関係が示されている。 FIGS. 33(a) and 33(b) show the brightness correction gain, which is a parameter used to determine the brightness correction parameter. The brightness correction gain is a parameter for calculating the slope of the LUT, which is a brightness correction parameter, and the slope of the LUT is determined by the first brightness correction gain shown in FIG. It is calculated based on the second brightness correction gain shown in 33(b). In FIG. 33(a), the relationship between the possible range of pixel values and the brightness correction gain value (first brightness correction gain value) is shown normalized to 0-1, and the overall representative brightness value is The relationship between the value divided by the representative brightness value and the brightness correction gain value (second brightness correction gain value) is shown.

ここで、一例として、代表輝度値が125であり、総合代表輝度値が100である場合の明るさ補正パラメータの算出方法を説明する。明るさを補正する対象となる撮影画像800が8ビット画像である場合、まず、明るさ補正パラメータ算出部134bは、0-1に規格化された輝度が「125/255=0.5」であるため、図33(a)を用いて、第1の明るさ補正ゲイン値を3.0として算出する。一方で、明るさ補正パラメータ算出部134bは、総合代表輝度値が100であるため、図33(b)を用いて、「100(総合代表輝度値)/125(代表輝度値)=0.8」に対応する第2の明るさ補正ゲイン値を0.6として算出する。そして、明るさ補正パラメータ算出部134bは、第1の明るさ補正ゲイン値と第2の明るさ補正ゲイン値を乗算した値(「3.0×0.8=2.4」を、LUTの傾きとして算出する。 Here, as an example, a method of calculating the brightness correction parameter when the representative brightness value is 125 and the overall representative brightness value is 100 will be described. When the photographed image 800 whose brightness is to be corrected is an 8-bit image, first, the brightness correction parameter calculation unit 134b calculates that the brightness normalized to 0-1 is "125/255=0.5". Therefore, using FIG. 33(a), the first brightness correction gain value is calculated as 3.0. On the other hand, since the overall representative brightness value is 100, the brightness correction parameter calculation unit 134b uses FIG. The second brightness correction gain value corresponding to " is calculated as 0.6. Then, the brightness correction parameter calculation unit 134b calculates the value obtained by multiplying the first brightness correction gain value and the second brightness correction gain value (“3.0×0.8=2.4”) into the LUT. Calculate as a slope.

このように、明るさ補正パラメータ算出部134bは、代表輝度値算出部133bによって算出された代表輝度値のみならず、総合代表輝度値算出部135bによって算出された総合代表輝度値を用いて、明るさ補正パラメータを算出する。つまり、上記第2の実施形態で示したように、代表輝度値のみを用いる場合、明るさ補正パラメータ算出部134bは、example2のLUTを明るさ補正パラメータとして算出するが、明るさ補正パラメータ算出部134bは、総合代表輝度値を用いることで、example4のLUTを明るさ補正パラメータとして算出する。 In this way, the brightness correction parameter calculation unit 134b uses not only the representative brightness value calculated by the representative brightness value calculation unit 133b but also the overall representative brightness value calculated by the overall representative brightness value calculation unit 135b to adjust the brightness. Calculate the correction parameters. In other words, as shown in the second embodiment, when only the representative brightness value is used, the brightness correction parameter calculation unit 134b calculates the LUT of example2 as the brightness correction parameter, but the brightness correction parameter calculation unit 134b calculates the LUT of example 4 as a brightness correction parameter by using the overall representative brightness value.

なお、明るさ補正パラメータ算出部134bは、上述したように記憶部1000に予め記憶された複数のLUTを用いて、明るさ補正ゲイン値に応じたLUTを明るさ補正パラメータとして選択してもよいし、シグモイド曲線(シグモイド関数)を用いることで、当該画像の明るさ補正に好ましいS字形の入出力特性を有するLUTを動的に算出する構成であってもよい。また、第2の実施形態に示したような代表輝度値のみを用いた明るさ補正を行う場合、明るさ補正パラメータ算出部134bは、図33(a)に示した第1の明るさ補正ゲイン値のみを用いて、該当する傾き(第1の明るさ補正ゲイン値)を有するLUTを明るさパラメータとして算出する構成であってもよい。 Note that the brightness correction parameter calculation unit 134b may select an LUT according to the brightness correction gain value as the brightness correction parameter using a plurality of LUTs stored in advance in the storage unit 1000 as described above. However, by using a sigmoid curve (sigmoid function), a configuration may be adopted in which an LUT having an S-shaped input/output characteristic suitable for correcting the brightness of the image is dynamically calculated. Further, when performing brightness correction using only the representative brightness value as shown in the second embodiment, the brightness correction parameter calculation unit 134b calculates the first brightness correction gain shown in FIG. 33(a). A configuration may be adopted in which an LUT having a corresponding slope (first brightness correction gain value) is calculated as a brightness parameter using only the values.

これによって、画像処理装置10bbの補正部14は、図12のステップS15に示したように、算出部13bbによって算出された明るさ補正パラメータを用いて、複数の撮影画像データ200の明るさ補正を行うため、複数の撮影画像データ200から算出された基準(総合代表輝度値)となる明るさに近づけるように、各補正画像データ250を生成することができるので、複数の撮影画像800の明るさを調整して画像を閲覧するユーザの利便性を向上させたいというサービス提供者やユーザのニーズに応じた画像補正を行うことができる。 Thereby, the correction unit 14 of the image processing device 10bb corrects the brightness of the plurality of captured image data 200 using the brightness correction parameter calculated by the calculation unit 13bb, as shown in step S15 of FIG. Therefore, each corrected image data 250 can be generated so that the brightness of the plurality of captured images 800 approaches the reference brightness (total representative brightness value) calculated from the plurality of captured image data 200. It is possible to perform image correction according to the needs of service providers and users who wish to improve the convenience of users who view images by adjusting the images.

●第2の実施形態の変形例2●
次に、第2の実施形態の変形例2に係る画像処理システムついて説明する。第2の実施形態の変形例2に係る画像処理システム1bbbは、上記変形例1における総合代表輝度値の算出処理(図31参照)に用いる代表輝度値を選別するシステムである。例えば、不動産の内覧サービスに用いる画像に、ベランダからの夜景の画像が混在しているような場合において、複数の撮影画像800間で極端に明るさの差が生じることがある。このような画像に対して上記変形例1のような総合代表輝度値を用いた明るさ補正処理を行うと、撮影画像800間の明るさは平準化されるが、明るさが適正でない画像の影響で、他の画像の明るさが悪化してしまう可能性がある。そこで、第2の実施形態の変形例2に係る画像処理システム1bbbは、総合代表輝度値の算出処理に用いる代表輝度値に所定の条件を設け、所定の条件を満たす輝度値のみを用いて処理を行う。
●Modification 2 of the second embodiment●
Next, an image processing system according to a second modification of the second embodiment will be described. The image processing system 1bbb according to the second modification of the second embodiment is a system that selects representative brightness values used in the overall representative brightness value calculation process (see FIG. 31) in the first modification. For example, in a case where images used for a real estate preview service include images of a night view from a balcony, there may be an extreme difference in brightness between the plurality of captured images 800. If such an image is subjected to brightness correction processing using the comprehensive representative brightness value as in Modified Example 1 above, the brightness between the captured images 800 will be equalized, but the brightness of the image whose brightness is not appropriate will be As a result, the brightness of other images may deteriorate. Therefore, the image processing system 1bbb according to the second modification of the second embodiment sets a predetermined condition for the representative brightness value used in the calculation process of the overall representative brightness value, and performs the process using only the brightness value that satisfies the predetermined condition. I do.

具体的には、第2の実施形態の変形例2に係る算出部13bbbの総合代表輝度値算出部135bは、図31に示したステップS108bb-1の前処理として、代表輝度値算出部133bによって算出された代表輝度値のそれぞれに対して、所定の輝度の範囲内であるかを判断する。そして、総合代表輝度値算出部135bは、所定の輝度の範囲内であると判断された代表輝度値を用いて、ステップS108bb-1以降の処理を行う。なお、所定の輝度の範囲外であると判断された代表輝度値であり、総合代表輝度値算出部135bによる処理に用いられなかった代表輝度値に対応する撮影画像800に対しては、明るさ補正を行わないものとする。これにより、第2の実施形態の変形例2に係る画像処理装置10bbbは、複数の撮影画像800を用いて明るさ補正を行う場合であっても、明るさが適正でない画像の輝度値を総合代表輝度値の算出に使用せずに、例えば、補正を行いたい画像の輝度値のみを総合代表輝度値の算出に用いることできる。そのため、画像処理装置10bbbは、複数の撮影画像800間の明るさを調整する場合であっても、サービス提供者やユーザのニーズに見合う適切な明るさ補正を行うことができる。 Specifically, the overall representative brightness value calculation unit 135b of the calculation unit 13bbb according to the second modification of the second embodiment performs the calculation by the representative brightness value calculation unit 133b as pre-processing of step S108bb-1 shown in FIG. It is determined whether each of the calculated representative brightness values is within a predetermined brightness range. Then, the overall representative brightness value calculation unit 135b performs the processes from step S108bb-1 onwards using the representative brightness value determined to be within the predetermined brightness range. Note that for the photographed image 800 corresponding to the representative brightness value that was determined to be outside the predetermined brightness range and was not used in the processing by the comprehensive representative brightness value calculation unit 135b, the brightness No correction shall be made. As a result, the image processing device 10bbb according to the second modification of the second embodiment can integrate the luminance values of images whose brightness is not appropriate even when performing brightness correction using a plurality of captured images 800. For example, only the brightness value of the image to be corrected can be used for calculating the overall representative brightness value without using it for calculating the representative brightness value. Therefore, even when adjusting the brightness between a plurality of captured images 800, the image processing device 10bbb can perform appropriate brightness correction that meets the needs of the service provider and the user.

●第3の実施形態●
次に、第3の実施形態に係る画像処理システムついて説明する。なお、第1の実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。第3の実施形態に係る画像処理システム1cは、画像処理装置10cが第1の実施形態で示したような補正パラメータと第2の実施形態で示したような明るさ補正パラメータの双方を算出可能な機能を有するシステムである。
●Third embodiment●
Next, an image processing system according to a third embodiment will be described. Note that the same configurations and functions as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted. The image processing system 1c according to the third embodiment allows the image processing device 10c to calculate both the correction parameters as shown in the first embodiment and the brightness correction parameters as shown in the second embodiment. It is a system with many functions.

●機能構成
ここで、第3の実施形態に係る画像処理システムの機能構成について説明する。なお、画像処理装置10cによって実行される機能である算出部13c以外の機能は、画像処理システム1aの機能(図7参照)と同様であるため、説明を省略する。
●Functional Configuration Here, the functional configuration of the image processing system according to the third embodiment will be described. Note that the functions executed by the image processing device 10c, other than the calculation unit 13c, are the same as the functions of the image processing system 1a (see FIG. 7), and therefore the description thereof will be omitted.

図34は、第3の実施形態に係る算出部の詳細な機能構成の一例を示す図である。図34に示す算出部13cは、代表画素値算出部131c、代表色決定部132c、総合代表色算出部133c、RGBゲイン算出部134c、輝度値算出部135c、代表輝度値算出部136cおよび明るさ補正パラメータ算出部137cを含む。 FIG. 34 is a diagram illustrating an example of a detailed functional configuration of the calculation unit according to the third embodiment. The calculation unit 13c shown in FIG. 34 includes a representative pixel value calculation unit 131c, a representative color determination unit 132c, a comprehensive representative color calculation unit 133c, an RGB gain calculation unit 134c, a brightness value calculation unit 135c, a representative brightness value calculation unit 136c, and a brightness value calculation unit 135c. It includes a correction parameter calculation unit 137c.

代表画素値算出部131c、代表色決定部132c、総合代表色算出部133cおよびRGBゲイン算出部134cは、代表画素値算出部131a、代表色決定部132a、総合代表色算出部133aおよびRGBゲイン算出部134aと同様の機能である。また、輝度値算出部135c、代表輝度値算出部136cおよび明るさ補正パラメータ算出部137cは、輝度値算出部132b、代表輝度値算出部133bおよび明るさ補正パラメータ算出部134bと同様の機能である。算出部13cは、ユーザからの指定および予め記憶された設定に基づいて、RGBゲイン算出部134cによるRGBゲイン値の算出および明るさ補正パラメータ算出部137cによる明るさ補正パラメータの算出のいずれか、またはこれらの両方を行うことができる。画像処理装置10cは、RGBゲイン算出部134cによって算出された補正パラメータ、および明るさ補正パラメータ算出部137cによって算出された明るさ補正パラメータのいずれか、またはこれらの両方を用いて、撮影画像データ200に係る撮影画像800の画像補正を行うことができる。 The representative pixel value calculation section 131c, the representative color determination section 132c, the comprehensive representative color calculation section 133c, and the RGB gain calculation section 134c are the representative pixel value calculation section 131a, the representative color determination section 132a, the comprehensive representative color calculation section 133a, and the RGB gain calculation section 134c. This function is similar to that of the section 134a. Further, the brightness value calculation unit 135c, the representative brightness value calculation unit 136c, and the brightness correction parameter calculation unit 137c have the same functions as the brightness value calculation unit 132b, the representative brightness value calculation unit 133b, and the brightness correction parameter calculation unit 134b. . The calculation unit 13c calculates either the RGB gain value by the RGB gain calculation unit 134c or the brightness correction parameter by the brightness correction parameter calculation unit 137c, based on the user's designation and pre-stored settings, or You can do both of these. The image processing device 10c uses either or both of the correction parameters calculated by the RGB gain calculation unit 134c and the brightness correction parameters calculated by the brightness correction parameter calculation unit 137c to process the captured image data 200. Image correction of the captured image 800 can be performed.

●第3の実施形態の効果
したがって、第3の実施形態に係る画像処理システム1cは、画像処理装置10cの算出部13cによってRGBゲイン値である補正パラメータと明るさ補正パラメータの双方を算出することができる。画像処理装置10cは、これら二つの補正パラメータを算出することにより、RGBゲイン値により主に色合いを補正し、明るさ補正パラメータにより撮影画像800の明るさを補正することができる。不動産内覧サービスにおけるツアー表示では、上述のように表示される画像の色合いが揃っていることと、適切な明るさになっていることが好ましいため、画像処理装置10cは、色合いと明るさの両方を補正(調整)することで、より好ましい画像を表示端末90に表示させることができる。さらに、画像処理装置10cは、色合い補正を主目的とするRGBゲイン値と、明るさ補正を主目的とするLUTをそれぞれ有しているので、これらの組み合わせで撮影画像800の状態に応じた最適な補正処理を行うことができる。つまり、画像処理装置10cは、色味と明るさを補正する、色味のみを補正する、明るさのみを補正するといった異なる補正処理を行うことができる。さらに、画像処理装置10cは、RGBゲイン算出部134cによって算出されたRGBゲイン値を乗算した結果を用いて輝度値算出部135cにより算出された輝度値と、代表輝度値算出部136cによって算出された代表輝度値との平均値を算出することによって、RGBゲイン値の乗算による補正結果を代表輝度値の算出にも加味することもできる。
●Effects of the third embodiment Therefore, the image processing system 1c according to the third embodiment calculates both the correction parameter, which is the RGB gain value, and the brightness correction parameter by the calculation unit 13c of the image processing device 10c. I can do it. By calculating these two correction parameters, the image processing device 10c can mainly correct the hue using the RGB gain value and correct the brightness of the captured image 800 using the brightness correction parameter. When displaying a tour in a real estate viewing service, it is preferable that the displayed images have the same color tone and have appropriate brightness as described above, so the image processing device 10c is capable of adjusting both color and brightness. By correcting (adjusting), a more preferable image can be displayed on the display terminal 90. Furthermore, the image processing device 10c has RGB gain values whose main purpose is color correction, and an LUT whose main purpose is brightness correction. correction processing can be performed. In other words, the image processing device 10c can perform different correction processes such as correcting color and brightness, correcting only color, and correcting only brightness. Furthermore, the image processing device 10c uses the result of multiplying the RGB gain value calculated by the RGB gain calculation unit 134c to the brightness value calculated by the brightness value calculation unit 135c, and the brightness value calculated by the representative brightness value calculation unit 136c. By calculating the average value with the representative brightness value, the correction result by multiplication of the RGB gain value can also be taken into consideration in calculating the representative brightness value.

●第3の実施形態の変形例1●
次に、第3の実施形態の変形例1に係る画像処理システムについて説明する。第3の実施形態の変形例1に係る画像処理システム1ccは、画像処理装置10ccが第1の実施形態で示したような補正パラメータと、第2の実施形態の変形例1または変形例2で示したような明るさ補正パラメータの双方を算出可能な機能を有するシステムである。
●Variation 1 of the third embodiment●
Next, an image processing system according to modification 1 of the third embodiment will be described. In the image processing system 1cc according to the first modification of the third embodiment, the image processing device 10cc uses the correction parameters as shown in the first embodiment and the modification 1 or 2 of the second embodiment. This system has the function of being able to calculate both of the brightness correction parameters as shown.

●機能構成
ここで、第3の実施形態の変形例1に係る画像処理システムの機能構成について説明する。なお、画像処理装置10ccによって実行される機能である算出部13cc以外の機能は、画像処理システム1aの機能(図7参照)と同様であるため、説明を省略する。
●Functional Configuration Here, the functional configuration of the image processing system according to Modification 1 of the third embodiment will be described. Note that the functions other than the calculation unit 13cc, which are functions executed by the image processing device 10cc, are the same as the functions of the image processing system 1a (see FIG. 7), so a description thereof will be omitted.

図35は、第3の実施形態の変形例1に係る算出部の詳細な機能構成の一例を示す図である。図35に示す算出部13ccは、図34に示した算出部13cの構成に加えて、総合代表輝度値算出部138cを有する。総合代表輝度値算出部138cは、総合代表輝度値算出部135bと同様の機能である。算出部13ccは、第3の実施形態に示した算出部13cと同様に、ユーザからの指定および予め記憶された設定に基づいて、RGBゲイン算出部134cによるRGBゲイン値の算出および明るさ補正パラメータ算出部137cによる明るさ補正パラメータの算出のいずれか、またはこれらの両方を行うことができる。また、画像処理装置10ccは、RGBゲイン算出部134cによって算出された補正パラメータ、および明るさ補正パラメータ算出部137cによって算出された明るさ補正パラメータのいずれか、またはこれらの両方を用いて、撮影画像データ200に係る撮影画像800の画像補正を行うことができる。 FIG. 35 is a diagram illustrating an example of a detailed functional configuration of a calculation unit according to Modification 1 of the third embodiment. In addition to the configuration of the calculation unit 13c shown in FIG. 34, the calculation unit 13cc shown in FIG. 35 includes a comprehensive representative brightness value calculation unit 138c. The overall representative brightness value calculation unit 138c has the same function as the overall representative brightness value calculation unit 135b. Similar to the calculation unit 13c shown in the third embodiment, the calculation unit 13cc calculates the RGB gain value and the brightness correction parameter by the RGB gain calculation unit 134c based on the user's designation and pre-stored settings. Either or both of the brightness correction parameter calculations by the calculation unit 137c can be performed. In addition, the image processing device 10cc uses either or both of the correction parameters calculated by the RGB gain calculation unit 134c and the brightness correction parameters calculated by the brightness correction parameter calculation unit 137c. Image correction of the captured image 800 related to the data 200 can be performed.

●その他の実施形態●
続いて、その他の実施形態に係る画像処理システムの構成について説明する。なお、上記の各実施形態と同一の構成および同一の機能は、同一の符号を付して、その説明を省略する。
●Other embodiments●
Next, the configuration of an image processing system according to another embodiment will be described. Note that the same configurations and the same functions as in each of the above embodiments are denoted by the same reference numerals, and the description thereof will be omitted.

まず、図36および図37に示すように、画像処理システム1dは、撮影画像データ200の色補正または明るさ補正を行う画像処理装置40aが、拠点P内に存在する場合のシステムである。図36は、その他の実施形態に係る画像処理システムのシステム構成の一例を示す図である。図36に示す画像処理システム1dの上述の実施形態(例えば、図1参照)と異なる点は、画像処理装置40aおよびWebサーバ70を備える点である。 First, as shown in FIGS. 36 and 37, the image processing system 1d is a system in which an image processing device 40a that performs color correction or brightness correction of photographed image data 200 is present within a base P. FIG. 36 is a diagram illustrating an example of a system configuration of an image processing system according to another embodiment. The image processing system 1d shown in FIG. 36 differs from the above-described embodiment (for example, see FIG. 1) in that it includes an image processing device 40a and a web server 70.

画像処理装置40aは、上述の画像処理装置10a,10b,10bb, 10bbb,10c,10ccと同様に、通信端末50から送信された複数の撮影画像データ200に基づいて、補正対象の撮影画像データ200の補正処理を行う。Webサーバ70は、通信ネットワーク5を介して、所定のWebアプリケーションを提供するWebサーバである。Webサーバ70は、画像処理装置40aによって補正処理が行われた画像を、表示端末90へ表示させるためのWebアプリケーションを提供する。なお、画像処理装置40aおよびWebサーバ70は、例えば、図3に示した画像処理装置10aと同様のハードウエア構成を有するものとして説明する。 The image processing device 40a, like the image processing devices 10a, 10b, 10bb, 10bbb, 10c, and 10cc described above, calculates the captured image data 200 to be corrected based on the plurality of captured image data 200 transmitted from the communication terminal 50. Performs correction processing. The web server 70 is a web server that provides a predetermined web application via the communication network 5. The web server 70 provides a web application for displaying, on the display terminal 90, the image that has been corrected by the image processing device 40a. Note that the image processing device 40a and the Web server 70 will be described as having the same hardware configuration as the image processing device 10a shown in FIG. 3, for example.

図37は、その他の実施形態に係る画像処理システムの機能構成の一例を示す図である。画像処理装置40aによって実現される機能は、ネットワーク通信部41、送受信部42、画像処理部43、算出部44、補正部45、判断部46、記憶・読出部49および記憶部4000を含む。なお、ネットワーク通信部41、画像処理部43、補正部45、判断部46、記憶・読出部49および記憶部4000は、上述のネットワーク通信部11、画像処理部12、補正部14、判断部15、記憶・読出部19および記憶部1000と同様の構成であるため説明を省略する。また、算出部44は、上述の算出部13a,算出部13b,算出部13bb,算出部13bbb,算出部13c,算出部13ccのいずれの機能を備えていてもよい。 FIG. 37 is a diagram illustrating an example of a functional configuration of an image processing system according to another embodiment. The functions realized by the image processing device 40a include a network communication section 41, a transmission/reception section 42, an image processing section 43, a calculation section 44, a correction section 45, a judgment section 46, a storage/reading section 49, and a storage section 4000. Note that the network communication section 41, image processing section 43, correction section 45, judgment section 46, storage/reading section 49, and storage section 4000 are the same as the network communication section 11, image processing section 12, correction section 14, and judgment section 15 described above. , the configuration is similar to that of the storage/reading section 19 and the storage section 1000, so the explanation will be omitted. Further, the calculation unit 44 may include any of the functions of the calculation unit 13a, calculation unit 13b, calculation unit 13bb, calculation unit 13bbb, calculation unit 13c, and calculation unit 13cc described above.

送受信部42は、Wi-Fi等による近距離無線通信技術によって通信端末50と通信を行う機能である。送受信部42は、主に、図3に示したネットワークI/F109およびCPU101の処理によって実現される。 The transmitting/receiving unit 42 has a function of communicating with the communication terminal 50 using short-range wireless communication technology such as Wi-Fi. The transmitting/receiving unit 42 is mainly realized by the processing of the network I/F 109 and the CPU 101 shown in FIG.

Webサーバ70によって実現される機能は、ネットワーク通信部71および表示画面生成部72を含む。ネットワーク通信部71は、通信ネットワーク5を介して、画像処理装置40a、通信端末50または表示端末90との間で各種データ(または情報)の送受信を行う機能である。ネットワーク通信部71は、例えば、画像処理装置40aから送信された、画像処理装置40aによって補正された補正画像データ250を受信する。また、ネットワーク通信部71は、画像処理装置40aによって送信された補正画像データ250を、通信ネットワーク5を介して、表示端末90へ送信する。ネットワーク通信部71は、主に、図3に示したネットワークI/F109、およびCPU101の処理によって実現される。 The functions realized by the web server 70 include a network communication section 71 and a display screen generation section 72. The network communication unit 71 has a function of transmitting and receiving various data (or information) to and from the image processing device 40a, the communication terminal 50, or the display terminal 90 via the communication network 5. The network communication unit 71 receives, for example, corrected image data 250 transmitted from the image processing device 40a and corrected by the image processing device 40a. Further, the network communication unit 71 transmits the corrected image data 250 transmitted by the image processing device 40a to the display terminal 90 via the communication network 5. The network communication unit 71 is mainly realized by the network I/F 109 shown in FIG. 3 and the processing of the CPU 101.

表示画面生成部72は、Webアプリケーションを用いて、通信端末50または表示端末90に表示される各種表示画面を生成する機能である。表示画面生成部72は、例えば、通信端末50に表示させるためプレビュー画面を生成する。表示画面生成部72は、例えば、表示端末90に補正画像データを表示させるための表示画面を生成する。表示画面生成部72は、主に、図3に示したCPU101の処理によって実現される。 The display screen generation unit 72 has a function of generating various display screens to be displayed on the communication terminal 50 or the display terminal 90 using a web application. The display screen generation unit 72 generates a preview screen for display on the communication terminal 50, for example. The display screen generation unit 72 generates, for example, a display screen for displaying the corrected image data on the display terminal 90. The display screen generation unit 72 is mainly realized by the processing of the CPU 101 shown in FIG.

これにより、画像処理システム1dは、拠点Pに位置する画像処理装置40aを用いて上述の本発明に係る補正処理を行うことができるともに、Webサーバ70を介して表示端末90に補正画像を表示させることができる。 Thereby, the image processing system 1d can perform the above-described correction processing according to the present invention using the image processing device 40a located at the base P, and display the corrected image on the display terminal 90 via the Web server 70. can be done.

続いて、図38および図39を用いて、その他の実施形態に係る画像処理システムの別の例を説明する。図38は、その他の実施形態に係る画像処理システムのシステム構成の一例を示す図である。図38に示す画像処理システム1eは、撮影画像データ200の色補正または明るさ補正を行う画像処理装置40bが拠点P内に存在するとともに、通信端末50が画像処理装置40bによって補正された補正画像を表示する場合のシステムである。 Next, another example of an image processing system according to another embodiment will be described using FIGS. 38 and 39. FIG. 38 is a diagram illustrating an example of a system configuration of an image processing system according to another embodiment. In the image processing system 1e shown in FIG. 38, an image processing device 40b that performs color correction or brightness correction of photographed image data 200 exists within a base P, and a communication terminal 50 generates a corrected image corrected by the image processing device 40b. This is a system for displaying.

図39は、その他の実施形態に係る画像処理システムの機能構成の一例を示す図である。画像処理装置40bによって実現される機能の画像処理装置40a(図37参照)と異なる点は、表示画面生成部47をさらに含む点である。表示画面生成部47は、通信端末50に表示される各種表示画面を生成する機能である。表示画面生成部47は、例えば、通信端末50に表示させるためプレビュー画面を生成する。表示画面生成部72は、例えば、通信端末50に補正画像データを表示させるための表示画面を生成する。表示画面生成部47は、主に、図3に示したCPU101の処理によって実現される。 FIG. 39 is a diagram illustrating an example of a functional configuration of an image processing system according to another embodiment. The function realized by the image processing device 40b is different from the image processing device 40a (see FIG. 37) in that it further includes a display screen generation section 47. The display screen generation unit 47 has a function of generating various display screens to be displayed on the communication terminal 50. The display screen generation unit 47 generates a preview screen for display on the communication terminal 50, for example. The display screen generation unit 72 generates, for example, a display screen for displaying the corrected image data on the communication terminal 50. The display screen generation unit 47 is mainly realized by the processing of the CPU 101 shown in FIG.

これにより、画像処理システム1eは、通信ネットワーク5を介さずに、画像処理システム1eが提供するサービスを利用することができる。 Thereby, the image processing system 1e can use the services provided by the image processing system 1e without going through the communication network 5.

また、上記各実施形態において、画像処理装置(10a,10b,10bb,10bbb,10c,10cc,40a,40b)は、取得した撮影画像データ200(撮影画像800)に基づいて算出された補正パラメータまたは明るさパラメータを用いて、その取得した撮影画像データ200の画像補正を行う例を説明したが、画像処理装置は、算出したパラメータを記憶部1000または記憶部4000に記憶し、新たに取得した撮影画像データ200に対して、記憶されたパラメータを用いて画像補正を行う構成であってもよい。この場合、画像処理装置は、例えば、撮影シーンが共通するような撮影画像800の画像補正を行う際に、毎回補正パラメータ等を算出する必要がないため、処理負担を低減させることができる。 In each of the embodiments described above, the image processing apparatuses (10a, 10b, 10bb, 10bbb, 10c, 10cc, 40a, 40b) may be configured to use correction parameters or Although an example has been described in which image correction is performed on the acquired photographic image data 200 using the brightness parameter, the image processing device stores the calculated parameters in the storage unit 1000 or the storage unit 4000, and performs image correction on the newly acquired photographic image data 200. The configuration may be such that image correction is performed on the image data 200 using stored parameters. In this case, the image processing apparatus does not need to calculate correction parameters and the like each time, for example, when performing image correction on the captured images 800 that share a common shooting scene, so that the processing load can be reduced.

●まとめ●
以上説明したように、本発明の一実施形態に係る画像処理装置は、複数の撮影画像データ200(画像データの一例)に基づいて、補正対象の撮影画像データ200の色補正を行う画像処理装置10a,10c,10cc,40a,40bであって、撮影画像データ200に係る撮影画像800を構成する各画素の画素値に基づいて、当該撮影画像データ200を代表する色に関する特徴を示す代表色(第1の代表色の一例)を撮影画像データ200ごとに決定し、決定された複数の代表色に基づいて、複数の撮影画像データ200を代表する色に関する特徴を示す総合代表色(第2の代表色の一例)を算出する。そして、画像処理装置10a,10c,10cc,40a,40bは、補正対象の撮影画像データ200に対応する代表色と、総合代表色とを用いて、補正対象の撮影画像データ200の色補正に用いる補正パラメータを算出し、算出された補正パラメータを用いて、補正対象の撮影画像データ200の色補正を行う。これにより、画像処理装置10a,10c,10cc,40a,40bは、異なる被写体が撮影された複数の撮影画像データ200に対して、明るさや色味を揃えた補正を行うことができる。また、撮影画像としては、全天球(360°)パノラマ画像を例に示してきたが、通常のデジタルカメラやスマートフォンで撮影できる、一般的な写真画像であっても、本発明の画像処理装置は実施可能である。
●Summary●
As described above, an image processing apparatus according to an embodiment of the present invention is an image processing apparatus that performs color correction of photographed image data 200 to be corrected based on a plurality of photographed image data 200 (an example of image data). 10a, 10c, 10cc, 40a, 40b, based on the pixel value of each pixel constituting the captured image 800 related to the captured image data 200, a representative color ( An example of a first representative color) is determined for each photographed image data 200, and based on the determined representative colors, a comprehensive representative color (an example of a second representative color) is determined for each photographed image data 200. An example of a representative color) is calculated. Then, the image processing devices 10a, 10c, 10cc, 40a, and 40b use the representative color corresponding to the photographed image data 200 to be corrected and the overall representative color for color correction of the photographed image data 200 to be corrected. A correction parameter is calculated, and the color correction of the photographed image data 200 to be corrected is performed using the calculated correction parameter. Thereby, the image processing apparatuses 10a, 10c, 10cc, 40a, and 40b can perform correction to make the brightness and color tone uniform for a plurality of photographed image data 200 in which different subjects are photographed. Furthermore, although a spherical (360°) panoramic image has been shown as an example of a photographed image, the image processing apparatus of the present invention can also take a general photographic image that can be taken with a normal digital camera or smartphone. is possible.

また、本発明の一実施形態に係る画像処理装置は、画素値のクラスタリング処理によって得られるクラスタを代表する色に関する特徴を示す代表画素値を、クラスタごとに算出し、当該クラスタに含まれる最も画素数の多い特定のクラスタに対応する代表画素値を、撮影画像データ200(画像データの一例)を代表する色に関する特徴を示す代表色(第1の代表色の一例)として決定する。これにより、画像処理装置10a,10c,10cc,40a,40bは、撮影画像データ200に係る撮影画像800ごとに、撮影画像800を構成する各画素の画素値に基づいて形成されたクラスタを代表する色に関する特徴である代表画素値を、撮影画像800に含まれるクラスタごとに算出することで、撮影画像データ200の色補正に用いる補正パラメータを算出することができる。 Further, the image processing device according to an embodiment of the present invention calculates, for each cluster, a representative pixel value indicating a characteristic related to a color representing the cluster obtained by clustering processing of pixel values, and A representative pixel value corresponding to a specific cluster with a large number of clusters is determined as a representative color (an example of a first representative color) that indicates a characteristic related to a color that represents the captured image data 200 (an example of image data). Thereby, the image processing devices 10a, 10c, 10cc, 40a, and 40b represent clusters formed based on the pixel values of each pixel constituting the captured image 800 for each captured image 800 related to the captured image data 200. By calculating representative pixel values, which are characteristics related to color, for each cluster included in the photographed image 800, correction parameters used for color correction of the photographed image data 200 can be calculated.

さらに、本発明の一実施形態に係る画像処理装置は、複数の撮影画像データ200(画像データの一例)を代表する色に関する特徴を示す代表色(第1の代表色の一例)のクラスタリング処理によって得られるクラスタのうち、当該クラスタに含まれる代表色が最も多い特定のクラスタを代表する色に関する代表画素値を、複数の撮影画像データ200を代表する色に関する特徴を示す総合代表色(第2の代表色の一例)として算出する。これにより、画像処理装置10a,10c,10cc,40a,40bは、複数の撮影画像データ200で共通して用いる総合代表色を明るさ色味補正の目標値と捉え、それぞれの撮影画像データ200に係る撮影画像800の画素値を補正することで、複数の撮影画像データ200に基づいた明るさ色味補正処理を行うことができる。 Furthermore, the image processing device according to an embodiment of the present invention performs clustering processing on a representative color (an example of a first representative color) showing characteristics related to a color representative of a plurality of captured image data 200 (an example of image data). Among the obtained clusters, the representative pixel value of the color representing the specific cluster that contains the most representative colors in the cluster is determined by the general representative color (second An example of a representative color). As a result, the image processing devices 10a, 10c, 10cc, 40a, and 40b regard the overall representative color commonly used in a plurality of photographed image data 200 as the target value for brightness and color correction, and apply the same to each photographed image data 200. By correcting the pixel values of the captured image 800, brightness and color correction processing can be performed based on the plurality of captured image data 200.

また、本発明の一実施形態に係る画像処理装置は、複数の撮影画像データ200(画像データの一例)を代表する色に関する特徴を示す総合代表色(第2の代表色の一例)を、複数の撮影画像データ200を代表する色に関する特徴を示す代表色(第1の代表色の一例)で除算することによって、RGBゲイン値である補正パラメータを算出する。これにより、画像処理装置10a,10c,10cc,40a,40bは、撮影画像データ200ごとに算出された代表色と、複数の撮影画像データ200で共通して用いる総合代表色とを用いて、異なる被写体が撮影された複数の撮影画像データ200に対して、明るさや色味を揃えた補正を行うことができる。 Further, the image processing device according to an embodiment of the present invention can process a plurality of comprehensive representative colors (an example of a second representative color) that indicate characteristics related to colors representative of the plurality of captured image data 200 (an example of image data). A correction parameter, which is an RGB gain value, is calculated by dividing the captured image data 200 of 200 by a representative color (an example of a first representative color) that indicates a characteristic related to a representative color. As a result, the image processing devices 10a, 10c, 10cc, 40a, and 40b use the representative color calculated for each photographed image data 200 and the overall representative color commonly used for a plurality of photographed image data 200 to Correction can be performed on a plurality of photographed image data 200 in which a subject is photographed so that the brightness and color tone are uniform.

さらに、本発明の一実施形態に係る画像処理装置は、補正対象の撮影画像データ200(画像データの一例)に係る画像を構成する各画素の画素値に基づいて、補正対象の撮影画像データ200を代表する輝度に関する特徴を示す代表輝度値を決定し、決定された代表輝度値を用いて、補正対象の撮影画像データ200の明るさ補正を行うための明るさ補正パラメータを算出し、補正対象の撮影画像データ200の色補正に用いる補正パラメータおよび明るさ補正パラメータを用いて、補正対象の撮影画像データ200の色補正および明るさ補正を行う。これにより、画像処理装置10c,40a,40bは、異なる被写体が撮影された複数の撮影画像データ200に対する明るさ補正を行うことができる。 Furthermore, the image processing apparatus according to an embodiment of the present invention processes the photographed image data 200 to be corrected based on the pixel value of each pixel constituting the image related to the photographed image data 200 to be corrected (an example of image data). A representative brightness value indicating characteristics related to brightness that is representative of the brightness is determined, and using the determined representative brightness value, a brightness correction parameter for performing brightness correction of the photographed image data 200 to be corrected is calculated. The color correction and brightness correction of the photographed image data 200 to be corrected are performed using the correction parameters and brightness correction parameters used for color correction of the photographed image data 200 of. Thereby, the image processing devices 10c, 40a, and 40b can perform brightness correction on a plurality of photographed image data 200 in which different subjects are photographed.

また、本発明の一実施形態に係る画像処理システム1a,1c,1dは、画像処理装置10a,10c,40aと、画像処理装置10a,10c,10cc,40aと通信ネットワーク5を介して通信可能に接続され、被写体を撮影する撮影装置30を含む撮影システム7と、を備える。画像処理装置10a,10c,10cc,40aは、撮影画像データ200(画像データの一例)の画像サイズを縮小し、縮小された縮小画像データに対して色補正が行われた複数のプレビュー画像データを、撮影システム7へ送信する。また、撮影システム7は、画像処理装置10a,10c,10cc,40aから送信された複数のプレビュー画像データのうち、特定のプレビュー画像データの選択を受け付け、受け付けられた特定のプレビュー画像データを、画像処理装置10a,10c,10cc,40aへ送信する。そして、画像処理装置10a,10c,10cc,40aは、撮影システム7から送信された特定のプレビュー画像データに対応する補正パラメータを用いて、撮影画像データ200の色補正を行う。これにより、画像処理システム1a,1c,1dは、撮影システム7を使用する利用者(例えば、図1に示す管理者X)にプレビュー画面600aを確認させることによって、明るさや色味の異なる画像のうち、ユーザ(図1に示す閲覧者Y)にどの画像を提供するかを選択させることができる。 Further, the image processing systems 1a, 1c, and 1d according to an embodiment of the present invention can communicate with the image processing devices 10a, 10c, and 40a via the communication network 5. A photographing system 7 including a photographing device 30 connected to the camera and photographing a subject is provided. The image processing devices 10a, 10c, 10cc, and 40a reduce the image size of photographed image data 200 (an example of image data), and generate a plurality of preview image data in which color correction has been performed on the reduced image data. , is transmitted to the photographing system 7. The photographing system 7 also accepts selection of specific preview image data from among the plurality of preview image data transmitted from the image processing devices 10a, 10c, 10cc, and 40a, and converts the received specific preview image data into an image. It is transmitted to the processing devices 10a, 10c, 10cc, and 40a. Then, the image processing devices 10a, 10c, 10cc, and 40a perform color correction on the photographed image data 200 using the correction parameters corresponding to the specific preview image data transmitted from the photographing system 7. As a result, the image processing systems 1a, 1c, and 1d allow the user using the imaging system 7 (for example, the administrator Among them, the user (viewer Y shown in FIG. 1) can be allowed to select which image to provide.

さらに、本発明の一実施形態に係る画像処理システム1a,1c,1dは、画像処理装置10a,10c,10cc,40aと通信ネットワーク5を介して通信可能な表示端末90を備え、画像処理装置10a,10c,10cc,40aは、色補正が行われた複数の補正画像データ250を、表示端末90へ送信する。そして、表示端末90は、画像処理装置10a,10c,10cc,40aから送信された複数の補正画像データ250を、ディスプレイ908(表示部の一例)に表示させる。これにより、画像処理システム1a,1c,1dは、画像処理装置10a,10c,10cc,40aによって補正された、明るさや色味を揃えた複数の補正画像を、表示端末90に表示させることができる。 Further, the image processing systems 1a, 1c, and 1d according to an embodiment of the present invention include a display terminal 90 that can communicate with the image processing devices 10a, 10c, 10cc, and 40a via the communication network 5. , 10c, 10cc, and 40a transmit a plurality of corrected image data 250 on which color correction has been performed to the display terminal 90. Then, the display terminal 90 displays the plurality of corrected image data 250 transmitted from the image processing devices 10a, 10c, 10cc, and 40a on the display 908 (an example of a display unit). Thereby, the image processing systems 1a, 1c, and 1d can display on the display terminal 90 a plurality of corrected images that have been corrected by the image processing devices 10a, 10c, 10cc, and 40a and have the same brightness and color tone. .

また、本発明の一実施形態に係る画像処理方法は、複数の撮影画像データ200(画像データの一例)に基づいて、補正対象の撮影画像データ200の色補正を行う画像処理装置10a,10c,10cc,40a,40bが実行する画像処理方法であって、撮影画像データ200に係る撮影画像800を構成する各画素の画素値に基づいて、当該撮影画像データ200を代表する色に関する特徴を示す代表色(第1の代表色の一例)を、撮影画像データ200ごとに決定する代表色決定ステップと、決定された複数の代表色に基づいて、複数の撮影画像データ200を代表する色に関する特徴を示す総合代表色(第2の代表色の一例)を算出する代表色算出ステップと、補正対象の撮影画像データ200に対応する代表色と、代表色算出ステップによって算出された総合代表色とを用いて、補正対象の撮影画像データ200の色補正に用いる補正パラメータを算出する補正パラメータ算出ステップと、算出された補正パラメータを用いて、補正対象の撮影画像データ200の色補正を行う補正ステップと、を実行する。これによって、本発明の一実施形態に係る画像処理方法は、異なる被写体が撮影された複数の撮影画像データ200に対して、明るさや色味を揃えた補正を行うことができる。 Further, the image processing method according to an embodiment of the present invention includes image processing apparatuses 10a, 10c, and 10cc, 40a, 40b executes an image processing method, which is a representative method that indicates characteristics related to colors representative of the photographed image data 200 based on the pixel values of each pixel constituting the photographed image 800 related to the photographed image data 200. A representative color determining step of determining a color (an example of a first representative color) for each photographed image data 200, and a characteristic related to the color representing the plurality of photographed image data 200 based on the plurality of determined representative colors. A representative color calculation step for calculating a comprehensive representative color (an example of a second representative color) shown in FIG. a correction parameter calculation step of calculating a correction parameter to be used for color correction of the photographed image data 200 to be corrected; a correction step of performing color correction of the photographed image data 200 to be corrected using the calculated correction parameters; Execute. As a result, the image processing method according to the embodiment of the present invention can perform correction to make the brightness and color tone uniform for a plurality of photographed image data 200 in which different subjects are photographed.

さらに、本発明の一実施形態に係る画像処理装置は、撮影画像データ200(画像データの一例)の明るさ補正を行う画像処理装置10b,10c,40a,40bであって。撮影画像データ200に係る撮影画像800を構成する各画素の画素値のクラスタリング処理によって得られるクラスタを代表する色に関する特徴を示す代表画素値をクラスタごとに算出し、算出された代表画素値に基づいて、撮影画像データ200を代表する輝度に関する特徴を示す代表輝度値(第1の代表輝度値の一例)を決定する。そして、画像処理装置10b,10c,40a,40bは、決定された代表輝度値を用いて、撮影画像データ200の明るさ補正を行うための明るさ補正パラメータを算出し、算出された明るさ補正パラメータを用いて、撮影画像データ200の明るさ補正を行う。これにより、画像処理装置10b,10c,40a,40bは、撮影画像データ200に対する明るさ補正を行うことができる。 Further, the image processing apparatus according to an embodiment of the present invention is the image processing apparatuses 10b, 10c, 40a, and 40b that perform brightness correction of photographed image data 200 (an example of image data). A representative pixel value indicating a characteristic related to a color representative of the cluster obtained by clustering processing of the pixel values of each pixel constituting the photographed image 800 related to the photographed image data 200 is calculated for each cluster, and based on the calculated representative pixel value. Then, a representative brightness value (an example of a first representative brightness value) indicating a characteristic related to brightness representative of the captured image data 200 is determined. Then, the image processing devices 10b, 10c, 40a, and 40b calculate brightness correction parameters for performing brightness correction of the captured image data 200 using the determined representative brightness values, and correct the calculated brightness. The brightness of the captured image data 200 is corrected using the parameters. Thereby, the image processing devices 10b, 10c, 40a, and 40b can perform brightness correction on the captured image data 200.

●補足●
なお、各実施形態の機能は、アセンブラ、C、C++、C#、Java(登録商標)等のレガシープログラミング言語やオブジェクト指向プログラミング言語等で記述されたコンピュータ実行可能なプログラムにより実現でき、各実施形態の機能を実行するためのプログラムは、電気通信回線を通じて頒布することができる。
●Supplement●
Note that the functions of each embodiment can be realized by a computer-executable program written in a legacy programming language such as assembler, C, C++, C#, Java (registered trademark), or an object-oriented programming language. A program for performing the functions of can be distributed over telecommunications lines.

また、各実施形態の機能を実行するためのプログラムは、ROM、EEPROM(Electrically Erasable Programmable Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、フラッシュメモリ、フレキシブルディスク、CD(Compact Disc)-ROM、CD-RW(Re-Writable)、DVD-ROM、DVD-RAM、DVD-RW、ブルーレイディスク、SDカード、MO(Magneto-Optical disc)等の装置可読な記録媒体に格納して頒布することもできる。 In addition, programs for executing the functions of each embodiment include ROM, EEPROM (Electrically Erasable Programmable Read-Only Memory), EPROM (Erasable Programmable Read-Only Memory), flash memory, flexible disk, CD (Compact Disc). Distribute by storing in device-readable recording media such as ROM, CD-RW (Re-Writable), DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO (Magneto-Optical disc), etc. You can also do it.

さらに、各実施形態の機能の一部または全部は、例えばFPGA(Field Programmable Gate Array)等のプログラマブル・デバイス(PD)上に実装することができ、またはASICとして実装することができ、各実施形態の機能をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog-HDL等により記述されたデータとして記録媒体により配布することができる。 Furthermore, some or all of the functions of each embodiment can be implemented on a programmable device (PD) such as an FPGA (Field Programmable Gate Array), or as an ASIC, and each embodiment circuit configuration data (bitstream data) to be downloaded to the PD in order to implement the functions on the PD, HDL (Hardware Description Language) for generating circuit configuration data, VHDL (Very High Speed Integrated Circuits Hardware Description Language), It can be distributed on a recording medium as data written in Verilog-HDL or the like.

これまで本発明の一実施形態に係る画像処理装置、画像処理システム、画像処理方法およびプログラムについて説明してきたが、本発明は、上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although an image processing device, an image processing system, an image processing method, and a program according to an embodiment of the present invention have been described so far, the present invention is not limited to the embodiment described above, and can be applied to other embodiments. Additions, changes, deletions, and other changes can be made within the scope of those skilled in the art, and any aspect is included within the scope of the present invention as long as the functions and effects of the present invention are achieved.

1a,1b,1bb,1bbb,1c,1cc,1d,1e 画像処理システム
5 通信ネットワーク
7 撮影システム
10a,10b,10bb,10bbb,10c,10cc 画像処理装置
11 ネットワーク通信部(第1の送信手段の一例)
12 画像処理部(画像処理手段の一例)
13a,13b,13bb,13bbb,13c,13cc 算出部
14 補正部(補正手段の一例)
30 撮影装置
40a,40b 画像処理装置
43 画像処理部(画像処理手段の一例)
44 算出部
45 補正部(補正手段の一例)
50 通信端末
51 ネットワーク通信部(第2の送信手段の一例)
53 受付部(受付手段の一例)
70 Webサーバ
90 表示端末
93 表示制御部(表示制御手段の一例)
131a,131b,131c 代表画素値算出部(代表画素値算出手段の一例)
132a,132c 代表色決定部(代表色決定手段の一例)
133a,133c 総合代表色算出部(代表色算出手段の一例)
134a,134c RGBゲイン算出部(補正パラメータ算出手段の一例)
132b,135c 輝度値算出部
133b,136c 代表輝度値算出部(代表輝度値決定手段の一例)
134b,137c 明るさ補正パラメータ算出部(補正パラメータ算出手段の一例)
135b,138c 総合代表輝度値算出部(代表輝度値算出手段の一例)
908 ディスプレイ(表示部の一例)
1a, 1b, 1bb, 1bbb, 1c, 1cc, 1d, 1e Image processing system 5 Communication network 7 Photographing system 10a, 10b, 10bb, 10bbb, 10c, 10cc Image processing device 11 Network communication unit (an example of a first transmission means) )
12 Image processing unit (an example of image processing means)
13a, 13b, 13bb, 13bbb, 13c, 13cc Calculation unit 14 Correction unit (an example of correction means)
30 Photographing devices 40a, 40b Image processing device 43 Image processing unit (an example of image processing means)
44 Calculation unit 45 Correction unit (an example of correction means)
50 Communication terminal 51 Network communication unit (an example of second transmission means)
53 Reception Department (an example of reception means)
70 Web server 90 Display terminal 93 Display control unit (an example of display control means)
131a, 131b, 131c Representative pixel value calculation unit (an example of representative pixel value calculation means)
132a, 132c Representative color determining unit (an example of representative color determining means)
133a, 133c Comprehensive representative color calculation unit (an example of representative color calculation means)
134a, 134c RGB gain calculation unit (an example of correction parameter calculation means)
132b, 135c Brightness value calculation unit 133b, 136c Representative brightness value calculation unit (an example of representative brightness value determining means)
134b, 137c Brightness correction parameter calculation unit (an example of correction parameter calculation means)
135b, 138c Comprehensive representative brightness value calculation unit (an example of representative brightness value calculation means)
908 Display (example of display part)

特開2010-268430号公報Japanese Patent Application Publication No. 2010-268430

Claims (15)

複数の画像データに基づいて、補正対象の画像データの色補正を行う画像処理装置と通信ネットワークを介して通信可能に接続され、被写体を撮影する撮影装置を含む撮影システムと、を備える画像処理システムであって、
前記画像処理装置は、
前記画像データに係る画像を構成する各画素の画素値に基づいて、当該画像データを代表する色に関する特徴を示す第1の代表色を、前記画像データごとに決定する代表色決定手段と、
決定された複数の前記第1の代表色に基づいて、複数の画像データを代表する色に関する特徴を示す第2の代表色を算出する代表色算出手段と、
前記補正対象の画像データに対応する前記第1の代表色と、前記第2の代表色とを用いて、当該補正対象の画像データの前記色補正に用いる補正パラメータを算出する補正パラメータ算出手段と、
算出された前記補正パラメータを用いて、前記補正対象の画像データの前記色補正を行う補正手段と、
前記画像データの画像サイズを縮小する画像処理手段と、
前記縮小された縮小画像データに対して前記色補正が行われた複数のプレビュー画像データを、前記撮影システムへ送信する第1の送信手段と、を備え、
前記撮影システムは、
前記画像処理装置から送信された複数の前記プレビュー画像データのうち、特定のプレビュー画像データの選択を受け付ける受付手段と、
前記受け付けられた前記特定のプレビュー画像データを、前記画像処理装置へ送信する第2の送信手段と、を備え、
前記補正手段は、前記撮影システムから送信された前記特定のプレビュー画像データに対応する前記補正パラメータを用いて、前記色補正を行う画像処理システム。
An image processing system comprising: an image processing device that performs color correction of image data to be corrected based on a plurality of image data; and a photographing system that is communicatively connected via a communication network and includes a photographing device that photographs a subject. And,
The image processing device includes:
representative color determining means for determining, for each image data, a first representative color indicating a characteristic related to a color representative of the image data, based on the pixel value of each pixel constituting the image related to the image data;
representative color calculation means for calculating a second representative color indicating a characteristic related to a color representing a plurality of image data based on the plurality of determined first representative colors;
a correction parameter calculation means for calculating a correction parameter to be used for the color correction of the image data to be corrected, using the first representative color and the second representative color corresponding to the image data to be corrected; ,
a correction unit that performs the color correction of the image data to be corrected using the calculated correction parameter;
image processing means for reducing the image size of the image data;
a first transmitting means for transmitting a plurality of preview image data in which the color correction has been performed on the reduced image data to the photographing system;
The photographing system includes:
A receiving unit that receives a selection of specific preview image data from among the plurality of preview image data transmitted from the image processing device;
a second transmitting means for transmitting the accepted specific preview image data to the image processing device;
The correction means is an image processing system that performs the color correction using the correction parameter corresponding to the specific preview image data transmitted from the photographing system.
請求項1に記載の画像処理システムであって、更に、
前記画素値のクラスタリング処理によって得られるクラスタを代表する色に関する特徴を示す代表画素値を、前記クラスタごとに算出する代表画素値算出手段を備え、
前記代表色決定手段は、当該クラスタに含まれる画素数が最も多い特定のクラスタに対応する前記代表画素値を、前記第1の代表色として決定する画像処理システム。
The image processing system according to claim 1, further comprising:
comprising a representative pixel value calculation means for calculating, for each cluster, a representative pixel value indicating a characteristic related to a color representative of the cluster obtained by the clustering process of the pixel values;
In the image processing system, the representative color determining means determines, as the first representative color, the representative pixel value corresponding to a specific cluster having the largest number of pixels included in the cluster.
前記代表色算出手段は、複数の前記第1の代表色のクラスタリング処理によって得られるクラスタのうち、当該クラスタに含まれる前記第1の代表色が最も多い特定のクラスタを代表する色に関する代表画素値を、前記第2の代表色として算出する請求項1または2に記載の画像処理システム。 The representative color calculation means calculates a representative pixel value regarding a color representing a specific cluster in which the first representative color included in the cluster is the largest among clusters obtained by clustering processing of the plurality of first representative colors. The image processing system according to claim 1 or 2, wherein: is calculated as the second representative color. 前記補正パラメータ算出手段は、前記第2の代表色を前記第1の代表色で除算することによって前記補正パラメータを算出する請求項1乃至3のいずれか一項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 3, wherein the correction parameter calculation means calculates the correction parameter by dividing the second representative color by the first representative color. 前記補正パラメータは、RGBゲイン値である請求項1乃至4のいずれか一項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 4, wherein the correction parameter is an RGB gain value. 請求項1乃至5のいずれか一項に記載の画像処理システムであって、前記画像処理装置は更に、
前記補正対象の画像データに係る画像を構成する各画素の画素値に基づいて、当該補正
対象の画像データを代表する輝度に関する特徴を示す第1の代表輝度値を決定する代表輝度値決定手段を備え、
前記補正パラメータ算出手段は、決定された前記第1の代表輝度値を用いて、前記補正対象の画像データの明るさ補正を行うための明るさ補正パラメータを算出し、
前記補正手段は、前記補正パラメータおよび前記明るさ補正パラメータを用いて、前記補正対象の画像データの前記色補正および前記明るさ補正を行う画像処理システム。
The image processing system according to any one of claims 1 to 5, wherein the image processing device further comprises:
representative brightness value determining means for determining a first representative brightness value indicating a characteristic regarding brightness representative of the image data to be corrected, based on the pixel value of each pixel constituting the image related to the image data to be corrected; Prepare,
The correction parameter calculating means calculates a brightness correction parameter for performing brightness correction of the image data to be corrected, using the determined first representative brightness value,
The correction means is an image processing system that performs the color correction and the brightness correction of the image data to be corrected using the correction parameter and the brightness correction parameter.
請求項1に記載の画像処理システムであって、更に、
前記画像処理装置と前記通信ネットワークを介して通信可能な表示端末を備え、
前記画像処理装置の前記第1の送信手段は、
前記補正手段によって前記色補正が行われた複数の補正画像データを、前記表示端末へ送信し、
前記表示端末は、
前記画像処理装置から送信された前記複数の補正画像データを、表示部に表示させる表示制御手段を備える画像処理システム。
The image processing system according to claim 1, further comprising:
comprising a display terminal capable of communicating with the image processing device via the communication network,
The first transmitting means of the image processing device includes:
transmitting a plurality of corrected image data subjected to the color correction by the correction means to the display terminal;
The display terminal is
An image processing system comprising a display control means for displaying the plurality of corrected image data transmitted from the image processing device on a display unit.
複数の画像データに基づいて、補正対象の画像データの色補正を行う画像処理装置と通信ネットワークを介して通信可能に接続され、被写体を撮影する撮影装置を含む撮影システムと、を備える画像処理システムが実行する画像処理方法であって、
前記画像処理装置は、
前記画像データに係る画像を構成する各画素の画素値に基づいて、当該画像データを代表する色に関する特徴を示す第1の代表色を、前記画像データごとに決定する代表色決定ステップと、
決定された複数の前記第1の代表色に基づいて、複数の画像データを代表する色に関する特徴を示す第2の代表色を算出する代表色算出ステップと、
前記補正対象の画像データに対応する前記第1の代表色と、前記代表色算出ステップによって算出された前記第2の代表色とを用いて、当該補正対象の画像データの前記色補正に用いる補正パラメータを算出する補正パラメータ算出ステップと、
算出された前記補正パラメータを用いて、前記補正対象の画像データの前記色補正を行う補正ステップと、
前記画像データの画像サイズを縮小する画像処理ステップと、
前記縮小された縮小画像データに対して前記色補正が行われた複数のプレビュー画像データを、前記撮影システムへ送信する第1の送信ステップと、を実行し、
前記撮影システムは、
前記画像処理装置から送信された複数の前記プレビュー画像データのうち、特定のプレビュー画像データの選択を受け付ける受付ステップと、
前記受け付けられた前記特定のプレビュー画像データを、前記画像処理装置へ送信する第2の送信ステップと、を実行し、
前記画像処理装置が実行する前記補正ステップは、前記撮影システムから送信された前記特定のプレビュー画像データに対応する前記補正パラメータを用いて、前記色補正を行う、
画像処理方法。
An image processing system comprising: an image processing device that performs color correction of image data to be corrected based on a plurality of image data; and a photographing system that is communicatively connected via a communication network and includes a photographing device that photographs a subject. An image processing method performed by
The image processing device includes:
a representative color determining step of determining, for each of the image data, a first representative color indicating a characteristic related to a color representative of the image data, based on the pixel value of each pixel constituting the image related to the image data;
a representative color calculating step of calculating a second representative color indicating a characteristic regarding a color representing a plurality of image data based on the plurality of determined first representative colors;
Correction used for the color correction of the image data to be corrected using the first representative color corresponding to the image data to be corrected and the second representative color calculated by the representative color calculation step. a correction parameter calculation step for calculating parameters;
a correction step of performing the color correction of the image data to be corrected using the calculated correction parameter;
an image processing step of reducing the image size of the image data;
a first transmission step of transmitting a plurality of preview image data in which the color correction has been performed on the reduced image data to the photographing system;
The photographing system includes:
a reception step of accepting a selection of specific preview image data from among the plurality of preview image data transmitted from the image processing device;
a second sending step of sending the accepted specific preview image data to the image processing device;
The correction step executed by the image processing device performs the color correction using the correction parameter corresponding to the specific preview image data transmitted from the imaging system.
Image processing method.
画像データの明るさ補正を行う画像処理装置と、通信ネットワークを介して通信可能に接続され、被写体を撮影する撮影装置を含む撮影システムと、を備える画像処理システムであって、
前記画像処理装置は、
前記画像データに係る画像を構成する各画素の画素値のクラスタリング処理によって得られるクラスタを代表する色に関する特徴を示す代表画素値を、前記クラスタごとに算出する代表画素値算出手段と、
前記代表画素値に基づいて、前記画像データを代表する輝度に関する特徴を示す第1の代表輝度値を決定する代表輝度値決定手段と、
決定された前記第1の代表輝度値を用いて、前記画像データの前記明るさ補正を行うための明るさ補正パラメータを算出する補正パラメータ算出手段と、
算出された前記明るさ補正パラメータを用いて、前記画像データの前記明るさ補正を行う補正手段と、
前記画像データの画像サイズを縮小する画像処理手段と、
前記縮小された縮小画像データに対して前記明るさ補正が行われた複数のプレビュー画像データを、前記撮影システムへ送信する第1の送信手段と、を備え、
前記撮影システムは、
前記画像処理装置から送信された複数の前記プレビュー画像データのうち、特定のプレビュー画像データの選択を受け付ける受付手段と、
前記受け付けられた前記特定のプレビュー画像データを、前記画像処理装置へ送信する第2の送信手段と、を備え、
前記補正手段は、前記撮影システムから送信された前記特定のプレビュー画像データに対応する前記明るさ補正パラメータを用いて、前記明るさ補正を行う、
画像処理システム。
An image processing system comprising: an image processing device that performs brightness correction of image data; and a photographing system that is communicably connected via a communication network and includes a photographing device that photographs a subject.
The image processing device includes:
representative pixel value calculation means for calculating, for each cluster, a representative pixel value indicating a characteristic related to a color representative of a cluster obtained by clustering processing of pixel values of each pixel constituting an image related to the image data;
representative brightness value determining means for determining a first representative brightness value indicating a characteristic regarding brightness representative of the image data based on the representative pixel value;
correction parameter calculation means for calculating a brightness correction parameter for performing the brightness correction of the image data using the determined first representative brightness value;
a correction unit that performs the brightness correction of the image data using the calculated brightness correction parameter;
image processing means for reducing the image size of the image data;
a first transmitting means for transmitting a plurality of preview image data in which the brightness correction has been performed on the reduced image data to the photographing system;
The photographing system includes:
A receiving unit that receives a selection of specific preview image data from among the plurality of preview image data transmitted from the image processing device;
a second transmitting means for transmitting the accepted specific preview image data to the image processing device;
The correction means performs the brightness correction using the brightness correction parameter corresponding to the specific preview image data transmitted from the photographing system.
Image processing system.
前記補正パラメータ算出手段は、前記決定された前記第1の代表輝度値に応じたLUT(Lookup table)を用いて前記明るさ補正パラメータを算出する請求項9に記載の画像処理システム。 The image processing system according to claim 9, wherein the correction parameter calculation means calculates the brightness correction parameter using an LUT (Lookup table) according to the determined first representative brightness value. 請求項9に記載の画像処理システムであって、
前記代表輝度値決定手段は、前記第1の代表輝度値を、前記画像データごとに決定し、
更に、
決定された複数の前記第1の代表輝度値に基づいて、複数の画像データを代表する輝度に関する特徴を示す第2の代表輝度値を算出する代表輝度値算出手段を備え、
前記補正パラメータ算出手段は、補正対象の画像データに対応する前記第1の代表輝度値と、前記代表輝度値算出手段によって算出された前記第2の代表輝度値とを用いて、当該補正対象の画像データの前記明るさ補正に用いる前記明るさ補正パラメータを算出し、
前記補正手段は、算出された前記明るさ補正パラメータを用いて、前記補正対象の画像データの前記明るさ補正を行う画像処理システム。
The image processing system according to claim 9,
The representative brightness value determining means determines the first representative brightness value for each of the image data,
Furthermore,
comprising representative brightness value calculation means for calculating a second representative brightness value indicating a characteristic related to brightness representing a plurality of image data based on the plurality of determined first representative brightness values;
The correction parameter calculation means uses the first representative brightness value corresponding to the image data to be corrected and the second representative brightness value calculated by the representative brightness value calculation means to calculate the correction parameter of the image data to be corrected. Calculating the brightness correction parameter used for the brightness correction of image data,
The correction means is an image processing system that performs the brightness correction of the image data to be corrected using the calculated brightness correction parameter.
前記代表輝度値算出手段は、前記代表輝度値決定手段によって決定された複数の前記第1の代表輝度値のうち、所定の輝度の範囲内である第1の代表輝度値を用いて、前記第2の代表輝度値を算出する請求項11に記載の画像処理システム。 The representative brightness value calculating means calculates the first representative brightness value by using a first representative brightness value that is within a predetermined brightness range among the plurality of first representative brightness values determined by the representative brightness value determining means. The image processing system according to claim 11 , wherein the image processing system calculates the representative brightness value of 2. 前記代表輝度値算出手段は、複数の前記第1の代表輝度値のクラスタリング処理によって得られるクラスタのうち、当該クラスタに含まれる前記第1の代表輝度値が最も多い特定のクラスタを代表する輝度値を、前記第2の代表輝度値として算出する請求項11に記載の画像処理システム。 The representative brightness value calculation means calculates a brightness value representing a specific cluster in which the first representative brightness values included in the cluster are the largest among clusters obtained by clustering processing of the plurality of first representative brightness values. The image processing system according to claim 11 , wherein: is calculated as the second representative brightness value. 前記補正対象の画像データに対応する前記第1の代表輝度値が所定の輝度の範囲内である場合、前記補正パラメータ算出手段は、当該第1の代表輝度値および前記第2の代表輝度値を用いて前記明るさ補正パラメータを算出し、
前記補正対象の画像データに対応する前記第1の代表輝度値が所定の輝度の範囲外である場合、前記補正パラメータ算出手段は、当該第1の代表輝度値を用いて前記明るさ補正パラメータを算出する請求項11に記載の画像処理システム。
When the first representative brightness value corresponding to the image data to be corrected is within a predetermined brightness range, the correction parameter calculation means calculates the first representative brightness value and the second representative brightness value. calculate the brightness correction parameter using
When the first representative brightness value corresponding to the image data to be corrected is outside a predetermined brightness range, the correction parameter calculation means calculates the brightness correction parameter using the first representative brightness value. The image processing system according to claim 11 , wherein the image processing system calculates.
請求項9に記載の画像処理システムであって、前記画像処理装置は、更に、
前記画像データに係る画像を構成する各画素の画素値に基づいて、当該画像データを代表する色に関する特徴を示す第1の代表色を、前記画像データごとに決定する代表色決定手段と、
決定された複数の前記第1の代表色に基づいて、複数の画像データを代表する色に関する特徴を示す第2の代表色を算出する代表色算出手段と、を備え、
前記補正パラメータ算出手段は、補正対象の画像データに対応する前記第1の代表色と、前記第2の代表色とを用いて、当該補正対象の画像データの色補正に用いる補正パラメータを算出し、
前記補正手段は、前記明るさ補正パラメータおよび前記補正パラメータを用いて、前記補正対象の画像データの前記明るさ補正および前記色補正を行う画像処理システム。
The image processing system according to claim 9, wherein the image processing device further comprises:
representative color determining means for determining, for each image data, a first representative color indicating a characteristic related to a color representative of the image data, based on the pixel value of each pixel constituting the image related to the image data;
representative color calculation means for calculating a second representative color indicating a characteristic related to a color representing a plurality of image data based on the plurality of determined first representative colors;
The correction parameter calculating means calculates a correction parameter to be used for color correction of the image data to be corrected, using the first representative color and the second representative color corresponding to the image data to be corrected. ,
The correction means is an image processing system that uses the brightness correction parameter and the correction parameter to perform the brightness correction and the color correction of the image data to be corrected.
JP2019103545A 2018-12-21 2019-06-03 Image processing system and image processing method Active JP7346915B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/701,219 US10970828B2 (en) 2018-12-21 2019-12-03 Image processing apparatus, image processing system, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018239569 2018-12-21
JP2018239569 2018-12-21

Publications (2)

Publication Number Publication Date
JP2020102182A JP2020102182A (en) 2020-07-02
JP7346915B2 true JP7346915B2 (en) 2023-09-20

Family

ID=71139722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019103545A Active JP7346915B2 (en) 2018-12-21 2019-06-03 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP7346915B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259969A (en) 2000-12-25 2002-09-13 Matsushita Electric Ind Co Ltd Image detector, program and recording medium
JP2006343977A (en) 2005-06-08 2006-12-21 Fujifilm Holdings Corp Image processor and image composition apparatus; and image processing program and image composition program
JP2009290822A (en) 2008-06-02 2009-12-10 Ricoh Co Ltd Image processing apparatus, image processing method, program and recording medium
JP2010148026A (en) 2008-12-22 2010-07-01 Ricoh Co Ltd Image processing method, image processing device, program, and recording media
JP2015094973A (en) 2013-11-08 2015-05-18 株式会社リコー Image processor, image processing method, image processing program, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259969A (en) 2000-12-25 2002-09-13 Matsushita Electric Ind Co Ltd Image detector, program and recording medium
JP2006343977A (en) 2005-06-08 2006-12-21 Fujifilm Holdings Corp Image processor and image composition apparatus; and image processing program and image composition program
JP2009290822A (en) 2008-06-02 2009-12-10 Ricoh Co Ltd Image processing apparatus, image processing method, program and recording medium
JP2010148026A (en) 2008-12-22 2010-07-01 Ricoh Co Ltd Image processing method, image processing device, program, and recording media
JP2015094973A (en) 2013-11-08 2015-05-18 株式会社リコー Image processor, image processing method, image processing program, and recording medium

Also Published As

Publication number Publication date
JP2020102182A (en) 2020-07-02

Similar Documents

Publication Publication Date Title
US20200244879A1 (en) Imaging system, developing system, and imaging method
US9536479B2 (en) Image display device and method
WO2013172335A1 (en) Image shooting system
KR102146855B1 (en) Photographing apparatus and method for sharing setting values, and a sharing system
WO2008075745A1 (en) Development server, development client, development system, and development method
JP6108755B2 (en) Shooting device, shot image transmission method, and shot image transmission program
JP2015109563A (en) Video signal processing device and control method thereof
JP5279636B2 (en) Imaging device
CN103258557B (en) Display control unit and display control method
JP4618803B2 (en) File setting system for image processing
CN110392205B (en) Image processing apparatus, information display apparatus, control method, and storage medium
US10084956B2 (en) Imaging apparatus, and imaging system
JP2021072600A (en) Imaging apparatus, information processing device, control method thereof, imaging apparatus system, and program
JP7492344B2 (en) Image processing device and image processing method
JP7346915B2 (en) Image processing system and image processing method
US10970828B2 (en) Image processing apparatus, image processing system, image processing method, and recording medium
JP7005215B2 (en) Image processing equipment, image processing method, computer program
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
US11825186B2 (en) Program, information processing device, and information processing system
US10217196B2 (en) Image processing apparatus having image refocusing function, control method for image processing apparatus, and storage medium
JP7243711B2 (en) IMAGING DEVICE, DISPLAY CONTROL METHOD, AND PROGRAM
CN110800285B (en) Image processing apparatus, image processing method, and storage medium
JP2012195760A (en) Shooting setting adjustment system, information processing unit, and control method and control program therefor
JP4743922B2 (en) Parameter setting system, imaging apparatus, control method thereof, control program, and computer-readable storage medium
JP2019033470A (en) Image processing system, imaging apparatus, image processing apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7346915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151