JP2017072945A - Image processor, image processing method - Google Patents
Image processor, image processing method Download PDFInfo
- Publication number
- JP2017072945A JP2017072945A JP2015198794A JP2015198794A JP2017072945A JP 2017072945 A JP2017072945 A JP 2017072945A JP 2015198794 A JP2015198794 A JP 2015198794A JP 2015198794 A JP2015198794 A JP 2015198794A JP 2017072945 A JP2017072945 A JP 2017072945A
- Authority
- JP
- Japan
- Prior art keywords
- image
- captured
- unit
- image processing
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims 3
- 238000012937 correction Methods 0.000 claims abstract description 123
- 238000012545 processing Methods 0.000 claims abstract description 62
- 238000003384 imaging method Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 abstract description 43
- 238000004364 calculation method Methods 0.000 description 41
- 230000008569 process Effects 0.000 description 18
- 230000008859 change Effects 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 8
- 230000004397 blinking Effects 0.000 description 8
- 230000036541 health Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000003796 beauty Effects 0.000 description 6
- 239000002131 composite material Substances 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000003702 image correction Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理技術に関し、特に、画像の色や階調を補正する技術に関するものである。 The present invention relates to an image processing technique, and more particularly to a technique for correcting the color and gradation of an image.
近年、カメラ、重力センサ、ジャイロセンサ、ディスプレイなどの多様な機器を搭載したスマートフォンやタブレットPC等の普及により、それらの機能を組み合わせたシステムを容易に開発できるようになった。例えば、ディスプレイ正面に付帯するカメラを用いて顔や表情を定期的に撮影して分析することによって健康管理システム、美容管理システムを構築することができる。このようなシステムは常駐アプリケーションとして動作させておき、スマートフォン操作中の顔や表情を撮影・収集することによって、利用者を拘束せずに多数の分析画像が得られる。ただし、日常生活を送る上で、常に撮影に適した照明条件であるとは限らない。 In recent years, with the widespread use of smartphones and tablet PCs equipped with various devices such as cameras, gravity sensors, gyro sensors, and displays, it has become possible to easily develop systems that combine these functions. For example, a health management system and a beauty management system can be constructed by periodically photographing and analyzing a face and an expression using a camera attached to the front of the display. Such a system is operated as a resident application, and a large number of analysis images can be obtained without restraining the user by photographing and collecting faces and facial expressions during operation of the smartphone. However, the lighting conditions are not always suitable for photographing in order to live daily life.
このような問題に対し、適切な補正のための色合い及び階調の補正マップデータを事前に複数用意しておき、撮影状況の光源計測・推定結果と被写体検知結果とを用いて適切な補正マップデータを選択して適用する方法が一般的である。 To deal with such problems, prepare multiple correction map data for hue and gradation for appropriate correction in advance, and use the light source measurement / estimation result of the shooting situation and the subject detection result to obtain an appropriate correction map. The method of selecting and applying data is common.
撮影状況の光源計測を行って画像を補正する手法は、例えば、特許文献1に開示されている。コンビニエンスストア等における監視カメラによる撮影においては、カメラ画角内領域の固定物(窓、障害物等)の影響によって、画角内を移動する被写体の光源に対する順光・逆光が変化する。特許文献1に開示されている技術は、光源を複数枚の撮影画像から画像内領域ごとに計測した上で、追尾した同一被写体の複数箇所における撮影画像を均質な色・階調に補正するものである。このようにすることで、撮影画像を用いた分析精度を向上させることができるため、例えば、事後に色を条件に用いた被写体検索の精度を上げることができる。一方で、光源そのものを能動的に制御することで補正画像を得る手法として、特許文献2に開示されている技術がある。この技術は、カメラのストロボを予め決めておいた時系列明滅変化パターンで発光させるのと同期して連続撮影を行い、それらを合成してブレを補正した補正画像を得るものである。 For example, Patent Literature 1 discloses a technique for correcting an image by measuring a light source in a shooting state. When photographing with a surveillance camera in a convenience store or the like, the follow / backlight to the light source of the subject moving within the angle of view changes due to the influence of a fixed object (window, obstacle, etc.) in the area within the angle of view of the camera. The technique disclosed in Patent Document 1 corrects captured images at a plurality of locations of the same subject tracked to a uniform color and gradation after measuring a light source for each region in the image from a plurality of captured images. It is. In this way, since the analysis accuracy using the captured image can be improved, for example, the accuracy of subject search using color as a condition after the fact can be increased. On the other hand, as a technique for obtaining a corrected image by actively controlling the light source itself, there is a technique disclosed in Patent Document 2. In this technique, continuous shooting is performed in synchronism with flashing a camera strobe in a predetermined time-series blinking change pattern, and these are combined to obtain a corrected image in which blurring is corrected.
しかしながら、特許文献1、特許文献2の何れに開示されている技術も、計測または制御できる光源を前提にしている。そのため特許文献1,2に開示されている技術では、暗所等において、計測又は制御できる光源とは別の予測困難な発光デバイス(任意操作によって変動するディスプレイ等)が存在する状況に対しては画像の補正が困難である。例えば、就寝前、夜間の野外などの暗所における撮影においては、適切な光量を得られないことに加え、スマートフォンのディスプレイ等の発光影響を受ける。ディスプレイ等の発光影響を強く受けた撮影画像は、色合いや階調が偏るため、補正が十分に行えない場合がある。健康管理や美容管理において、補正が十分ではない画像を用いると、分析精度が低くなる。 However, the techniques disclosed in both Patent Document 1 and Patent Document 2 are based on a light source that can be measured or controlled. Therefore, in the techniques disclosed in Patent Documents 1 and 2, for a situation where there is a light-emitting device that is difficult to predict (a display that varies depending on an arbitrary operation) other than a light source that can be measured or controlled in a dark place Image correction is difficult. For example, in photographing in a dark place such as before going to bed or at night, an appropriate amount of light cannot be obtained, and in addition, the display is affected by light emitted from a smartphone display or the like. A photographed image that is strongly influenced by light emission, such as a display, may not be sufficiently corrected because the hue and gradation are biased. If an image that is not sufficiently corrected is used in health management or beauty management, analysis accuracy is lowered.
本発明はこのような問題に鑑みてなされたものであり、撮像画像を、表示部からの光や外界の光源からの光などを考慮して、白色光源下相当の画像に補正するための技術を提供する。 The present invention has been made in view of such problems, and a technique for correcting a captured image into an image equivalent to that under a white light source in consideration of light from a display unit, light from an external light source, and the like. I will provide a.
本発明の一様態は、画像処理装置であって、被写体の撮像画像を取得する取得手段と、前記撮像画像の撮像時に表示部に表示されていた画像の色特性に基づいて、該色特性を相殺する色補正を行うための色補正情報を生成する生成手段と、前記色補正情報に基づいて前記撮像画像を補正する補正手段とを備えることを特徴とする。 One aspect of the present invention is an image processing apparatus, which obtains a color characteristic based on an acquisition unit that acquires a captured image of a subject and a color characteristic of an image displayed on a display unit when the captured image is captured. The image processing apparatus includes a generation unit that generates color correction information for performing color correction to cancel, and a correction unit that corrects the captured image based on the color correction information.
本発明の構成によれば、撮像画像を、表示部からの光や外界の光源からの光などを考慮して、白色光源下相当の画像に補正することができる。 According to the configuration of the present invention, the captured image can be corrected to an image equivalent to that under a white light source in consideration of light from the display unit, light from an external light source, and the like.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
本実施形態では、被写体の撮像画像を取得し、撮像画像の撮像時に表示部に表示されていた画像の色特性に基づいて、該色特性を相殺する色補正を行うための色補正情報を生成し、色補正情報に基づいて撮像画像を補正する画像処理装置の一例について説明する。先ず、本実施形態に係る画像処理装置の構成例について、図1のブロック図を用いて説明する。
[First Embodiment]
In this embodiment, a captured image of a subject is acquired, and color correction information for performing color correction that cancels the color characteristic is generated based on the color characteristic of the image displayed on the display unit when the captured image is captured. An example of an image processing apparatus that corrects a captured image based on color correction information will be described. First, a configuration example of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG.
演算部101は、RAM108に格納されているコンピュータプログラムやデータを用いて各種の処理を実行することで、画像処理装置100全体の操作制御を行うと共に、画像処理装置100が行うものとして後述する各処理を実行若しくは制御する。
The
表示部102は、CRTや液晶画面などにより構成されており、演算部101による処理結果を画像や文字などでもって表示することができる。なお、画像処理装置100がプロジェクタなどの投影装置であった場合には、投影対象となる画像や文字を表示する表示部と、該表示部に表示した画像や文字をスクリーンなどに投影する投影部と、を有するものとなる。このように、表示部102は、画像を観察者に対して画像や文字などを提示するものである。
The
撮影部103は、静止画像若しくは動画像を撮像するものである。本実施形態では、表示部102に表示されている画面の光の影響を受ける被写体の画像を撮像するので、撮影部103は、「表示部102に表示されている画面の光の影響を受ける被写体の画像を撮像可能な位置」に取り付けられたものとなる。
The
操作入力部104は、マウスやキーボード等のユーザインターフェースであり、画像処理装置100のユーザが操作することで各種の指示を演算部101に入力するためのものである。なお、表示部102と操作入力部104とを一体化させてタッチパネル画面を構成しても良い。また、表示部102と操作入力部104とを組み合わせてタッチパネル画面及びハードキーを構成しても良い。
The
通信部105は、外部機器との間のデータ通信を行うためのものであり、LAN、3G、4G、Bluetooth(登録商標)、RFID(Radio Frequency IDentification)等に対応するネットワークコントローラ等である。
The
計測部106は、照度センサ、カメラ、GPS(Global Positioning System)センサ、電子コンパス、ジャイロセンサ等を組み合わせたもので、画像処理装置100に対する外部光源の相対位置や方角、動き、照度などを計測する。
The
RAM108は、外部記憶部109からロードされたコンピュータプログラムやデータ、通信部105を介して外部から受信したコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM108は、演算部101が各種の処理を実行するためのワークエリアを有する。これらのエリアの一例として、図1の「各種ワーク領域」を利用することができる。このように、RAM108は、各種のエリアを適宜提供することができる。
The
外部記憶部109は、フラッシュメモリ、ハードディスクドライブ(HDD)等の不揮発性メモリである。外部記憶部109には、例えば、OS(オペレーティングシステム)や、以下に説明する各種の処理において用いられるコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、ブートプログラム、撮影プログラム、表示制御プログラム、撮影画像補正プログラム、が含まれている。また、このデータには、表示情報、色補正マップデータ、階調補正基準画像、光源パラメータ、撮影画像データ、各種のテーブルデータ、が含まれている。
The
外部記憶部109に保存されているコンピュータプログラムやデータは、演算部101による制御に従って適宜RAM108にロードされ、演算部101による処理対象となる。なお、外部記憶部109は、光学ディスクや磁気ディスクなどの記憶媒体に対する情報の読み書きを行う装置であっても良い。
Computer programs and data stored in the
上記のような構成を有する画像処理装置100は、操作入力部104からの各種の入力や通信部105から供給されるネットワーク経由の各種入力に応じて作動する。すなわち、操作入力部104や通信部105からの入力が供給されると、まず、インタラプト信号が演算部101に送られる。そして、演算部101が外部記憶部109に保存されているコンピュータプログラムやデータを実行することで各種の制御信号を発行し、それらの制御信号に従って、各種の制御が行われる。
The
なお、図1には、以下の説明で要する主要な構成を示しただけであり、全ての構成を示したわけではない。また、以下に説明する各処理を実現可能な構成であれば、図1に示した構成に限らず、他の構成を採用しても構わない。 Note that FIG. 1 only shows the main configuration required in the following description, and does not show all the configurations. In addition, as long as each processing described below can be realized, the configuration is not limited to the configuration illustrated in FIG. 1, and other configurations may be employed.
次に、暗所にてユーザ(被写体)が表示部102を閲覧している状態で撮影部103が撮像した該ユーザの撮像画像を、表示部102からの光や外界の光源(外部光源)からの光等を考慮して補正する一連の処理について図4のフローチャートに従って説明する。
Next, the user's (subject) viewing the
ステップS401以降の処理は、演算部101が、本装置のユーザが操作入力部104を操作して撮像開始指示を入力したり、通信部105が外部から撮像開始指示を受信したりしたことを検知した場合に行われるものである。然るに、演算部101がこのような検知を行わない限りは待機状態にあり、このような検知を行った場合にステップS401以降の処理が行われる。
In the processing after step S401, the
ステップS401以降の処理を開始するためのトリガは、これらに限るものではなく、例えば、健康管理、美容管理等の分析アプリケーションの起動指示をトリガにしても良い。 The trigger for starting the processing after step S401 is not limited to these, and for example, an activation instruction for an analysis application such as health management or beauty management may be used as a trigger.
また、以下では具体例を挙げて説明するために、画像処理装置100はスマートフォンやタブレット端末などの携帯機器であり、画像や文字などを含む表示画面(表示情報)を表示している表示部102と同じ面に撮影部103が設けられているものとする。そして以下では、このような表示部102の表示画面をユーザが閲覧している状態において、撮影部103が該ユーザを撮像し、該撮像により得られる撮像画像を、表示部102からの光や外部光源からの光などを考慮して補正する。このようなシステムとしては、例えば、健康管理システムや、美容管理システム等がある。
In addition, in order to describe with specific examples below, the
<ステップS401>
演算部101が撮影プログラムを実行することで撮影部103を制御し、撮影部103は、演算部101による制御の元、撮像を開始する。分析対象となる撮像画像を一定量集めるために、撮像は定期的に且つ自動的に行われることを想定しているが、撮像はユーザ操作を介して行っても良く、分析に適した撮像画像が収集できるのであれば、如何なる形態を採用しても構わない。何れにせよ、ステップS401では、撮影部103は、連続してユーザを撮像することによって、複数枚の(ユーザの)撮像画像を撮像する。
<Step S401>
The
上記の通り撮影部103は「表示部102に表示されている画面の光の影響を受けるユーザの画像を撮像可能な位置」に取り付けられているので、この撮像により「表示部102に表示されている画面の光の影響を受けるユーザ」の画像が撮像されることになる。図2(A)の場合、撮影部103は、表示画面203を表示中の表示部102からの光を受けているユーザ202を撮像することになる。201は外部光源である。
As described above, the
<ステップS402>
演算部101は、計測部106による計測結果を取得する。この場合、計測部106は、画像処理装置100に対する外部光源201の相対位置や照度(環境光の強度)等、外部光源201に係るパラメータ(光源パラメータ)を含む、画像処理装置100による撮像環境に係るパラメータを計測する。
<Step S402>
The
<ステップS403>
演算部101は、ステップS402で取得したパラメータのうち光源パラメータを参照し、該光源パラメータに含まれている「外部光源201による光の強度」が規定の強度以上であるか否かを判断する。すなわち、撮像画像が規定量以上の光量の下で撮像されたか否かを判断する。この判断の結果、「外部光源201による光の強度」が規定の強度以上であれば、外部光源201は非弱光源と判断して処理はステップS407に進む。一方、「外部光源201による光の強度」が規定の強度未満である場合には、外部光源201は弱光源と判断して処理はステップS404に進む。一例としては、計測部106に含まれている照度センサを用いて得た照度が閾値(200ルクス等)を下回る場合には、外部光源201は弱光源と判断する。
<Step S403>
The
なお、外部光源201が弱光源であるか否かの判断方法については、他の方法を採用しても構わない。例えば、ステップS401における画像撮像でもって取得した撮像画像中に現れる表示画面の明度の明滅と、撮像画像中に写っている被写体表面の照度(輝度値等)と、の間の相関を数値化し、閾値判定する方法を採用しても構わない。
Note that other methods may be adopted as a method of determining whether or not the external
<ステップS404>
演算部101は、ステップS401における画像撮像でもって取得した撮像画像を用いて、画像処理装置100に対するユーザ202の相対的な位置D、角度θを求める。例えば、演算部101は、ステップS401で取得した撮像画像に含まれているユーザ202の顔の位置と向きを認識し、該認識した顔の位置と向きから「画像処理装置100に対するユーザ202の顔の相対角度θ」を求める。また、演算部101は、ステップS401で取得した撮像画像に含まれているユーザ202の顔の大きさを求め、該求めた大きさと予め対応付けられている距離値を「画像処理装置100に対するユーザ202の相対位置D」として求める。なお、画像処理装置100に対するユーザ202の相対的な位置、角度を求める方法は、これに限るものではない。例えば、ユーザ202の顔以外を対象とする場合には、事前にマーカを対象に付与しておき、撮像画像中のマーカに基づいて相対位置D、相対角度θを求める方法や、各種センサによって相対位置D及び相対角度θを求めても良い。
<Step S404>
The
<ステップS405>
演算部101は、ステップS401における画像撮像時に表示部102に表示していた表示画面のスクリーンショット(表示画面のコピー画像)、ステップS401における画像撮像時における表示部102のバックライトの輝度、を取得する。そのために演算部101は、外部記憶部109に保存されている、図3(A)に例示するテーブル(表示情報テーブル)を参照する。
<Step S405>
The
演算部101は、画像の撮像が行われるたびに、該撮像した画像と、該撮像時に表示部102に表示していた画面のスクリーンショットと、を外部記憶部109に保存すると共に、以下の情報群を表示情報テーブルに登録する。表示情報テーブルの各行には、演算部101が撮像のたびに収集した情報群が登録されている。
Every time an image is captured, the
表示情報ID … 画像撮像時に表示部102に表示していた表示画面に固有のID
表示日時 … 画像撮像時に表示部102に表示していた表示画面のスクリーンショットの保存日時
スクリーンショット … 画像撮像時に表示部102に表示していた表示画面のスクリーンショットのファイル名(パス名でも良い)
輝度 … 画像撮像時における表示部102のバックライトの輝度
平均色 … 画像撮像時に表示部102に表示していた表示画面のスクリーンショットの平均色
傾き … 画像撮像時における画像処理装置100の傾き
方角 … 画像撮像時における画像処理装置100の方角
画像撮像時における画像処理装置100の傾き、方角、は何れも、計測部106に含まれている重力センサ、廃炉センサ、電子コンパスなどを用いて測定されたものである。なお、このような表示情報テーブルへの情報登録は、演算部101の計算能力や外部記憶部109の容量に余裕が有る場合には、画像撮像にかかわらずに定期的に行うようにしても構わない。
Display information ID: ID unique to the display screen displayed on the
Display date and time: Save date and time of screen shot of display screen displayed on
Luminance: Brightness of backlight of
然るにステップS405では演算部101は、図3(A)の表示情報テーブルにおいて、ステップS401における画像撮像の撮像日時に最も近い表示日時の行に登録されている「スクリーンショット」の値(ファイル名)、「輝度」の値を取得する。そして演算部101は、画像撮像のたびに(若しくは定期的に)外部記憶部109に記録されるスクリーンショットのうち、該取得したファイル名に対応するスクリーンショットを外部記憶部109から読み出す。
However, in step S405, the
<ステップS406>
演算部101は、ステップS404で求めた相対角度θ及び相対位置Dを用いて、ユーザの顔に対する「表示部102に表示されている表示画面からの光の影響」の度合い(影響度)を推定する。例えば、ステップS405で取得したバックライトの輝度をPとすると、影響度(P,θ,D)を以下の式によって求めることができる。
<Step S406>
The
F(P,θ,D)=P×cosθ/D2
更に演算部101は、スクリーンショットの色特性を分析する。例えば、スクリーンショットの全画素のR成分の平均輝度値(若しくは中間値)、G成分の平均輝度値(若しくは中間値)、B成分の平均輝度値(若しくは中間値)を、スクリーンショットの色特性として収集する。すなわち、ステップS401での画像撮像時における表示部102における発光色の偏りを表すものを収集する。
F (P, θ, D) = P × cos θ / D 2
Further, the
図2(B)の左側に示す如く、R,G,Bのうち赤成分(R)及び青成分(B)が緑成分(G)よりも比較的強い色特性207を有する表示画面206が表示部102に表示されているとする。このような色特性207を有する表示画面206を表示中の表示部102からは、該色特性207を有する光が発せられる。そのため、色特性207を有する表示画面206を表示中の表示部102を暗所にて閲覧しているユーザ202を撮影部103が撮像した撮像画像208の色特性209は、色特性207と同様、R,G,BのうちR及びBが比較的Gよりも強い色特性となる。
As shown on the left side of FIG. 2B, a
また、図2(B)の右側に示す如く、R,G,BのうちBがR,Gよりも比較的強い色特性211を有する表示画面210が表示部102に表示されているとする。このような色特性211を有する表示画面210を表示中の表示部102からは、該色特性211を有する光が発せられる。そのため、色特性211を有する表示画面210を表示中の表示部102を暗所にて閲覧しているユーザ202を撮影部103が撮像した撮像画像212の色特性213は、色特性211と同様、R,G,BのうちBがR,Gよりも比較的強い色特性となっている。
Further, as shown on the right side of FIG. 2B, it is assumed that a
本実施形態では、撮像画像の撮像時に表示部102に表示されていた表示画面の色特性に応じた影響を補正するので、本ステップでは、撮像画像の撮像時に表示部102に表示されていた表示画面のスクリーンショットの色特性を取得する。
In this embodiment, since the influence according to the color characteristic of the display screen displayed on the
<ステップS407>
演算部101は、ステップS406において取得した表示画面の色特性による影響を相殺する色補正を行う色補正マップデータAを取得(生成)する。例えば、ステップS406において取得した色特性が(R1,G1,B1)である場合には、色補正マップデータAとして(1/R1,1/G1,1/B1)を生成する。この色補正マップデータAは、補正対象の画像の各画素について、該画素のRの画素値に1/R1を乗じ、該画素のGの画素値に1/G1を乗じ、該画素のBの画素値に1/B1を乗じることで該画素の画素値を補正するためのものである。なお、色補正マップデータAの生成方法は特定の生成方法に限るものではなく、撮像画像に現れる「ステップS406において取得した表示画面の色特性による影響」を相殺する色補正を行うものを生成するのであれば、如何なる生成方法を採用しても構わない。
<Step S407>
The
図2(C)では、色特性207を有する表示画面206を表示中の表示部102を暗所にて閲覧しているユーザ202の撮像画像208の色特性209に対する色特性207の影響を相殺するための色補正マップデータA214を生成している。このような色補正マップデータA214を撮像画像208に適用することで、白色光源下相当の色特性216を有する撮像画像215を得ることができる。なお、図2(C)の場合、撮像画像に対する外部光源201からの光の影響については考慮されていない。そこで本ステップでは更に、演算部101は、撮像画像に対する外部光源からの光の影響を補正するための色補正マップデータBを取得(生成)する。色補正マップデータBの生成方法については、例えば、環境光推定等を用いた周知の技術を用いる方法がある。
In FIG. 2C, the influence of the
そして演算部101は、色補正マップデータAと色補正マップデータBとを、影響度Fに応じた比率でもって合成して合成色補正マップデータを生成する。例えば、影響度Fを100で除して0〜1の値に正規化した場合に、合成色補正マップデータ=(1−F)×色補正マップデータA+F×色補正マップデータBとして生成することができる。このような合成色補正マップデータは、図2(C)に示す如く、外部光源201及び表示画面206による色偏りを補正し、白色光源下の色合いに補正するための色補正マップデータとなる。以降では、合成色補正マップデータを単に色補正マップデータと呼称する場合がある。
Then, the
<ステップS408>
演算部101は、ステップS401で得た撮像画像を合成色補正マップデータを用いて色補正を行った補正済み撮像画像の階調特性を、基準階調特性に補正するための階調補正マップデータ(階調補正情報)を生成する。被写体が明確に限定できる場合には、顔領域において目・鼻・頬といった部位で複数枚の撮像画像間で一致する階調特性を持つように、部位毎に階調補正マップを作成してもよい。
<Step S408>
The
図2(D)の場合、ステップS401で得た撮像画像を合成色補正マップデータを用いて色補正を行った補正済み撮像画像225の階調特性217を、階調補正基準画像218と同等の階調特性に補正するための階調補正マップデータ219を生成する。撮像画像225は、撮像画像215と同じ画像である。階調補正基準画像とは、任意の被写体について、白色光源下における階調及び色合いの基準となる画像であり、屋外における撮像画像等を用いる。撮像画像225の階調特性217を階調補正マップデータ219を用いて補正することで、白色光源下相当の階調特性221を有する撮像画像220が得られる。
In the case of FIG. 2D, the
なお、色や階調の補正対象は、画像全体でも良いし、画像中の被写体でも良い。画像全体に対しては光源推定及び被写体検知などにより、固定のプリセットから適切な階調補正マップを取得する。一方で、顔や身体等、予め被写体を限定できる場合(健康管理・美肌管理等)には、顔検知機能等を用いて領域を絞って、領域毎に適切な階調補正を行う。 Note that the color and gradation correction target may be the entire image or the subject in the image. For the entire image, an appropriate gradation correction map is acquired from a fixed preset by light source estimation and subject detection. On the other hand, when the subject can be limited in advance, such as the face and body (health management, skin care management, etc.), the area is narrowed down using a face detection function or the like, and appropriate gradation correction is performed for each area.
なお、以上説明したステップS407,S408の処理は、S403→S404→S405→S406→S407→S408と処理が進んだ場合におけるものである。S403→S407→S408と処理が進んだ場合、ステップS407,S408ではそれぞれ、従来通りの色補正用の補正マップデータ、階調補正用の補正マップデータを取得する。 Note that the processing in steps S407 and S408 described above is performed when the processing proceeds from S403 → S404 → S405 → S406 → S407 → S408. When the process proceeds from S403 to S407 to S408, the conventional correction map data for color correction and correction map data for gradation correction are acquired in steps S407 and S408, respectively.
ここで、上記のようなステップS408の処理を行うためには、階調補正基準画像を取得する必要がある。そのために演算部101は、図3(B)に例示するテーブルを参照する。
Here, in order to perform the process of step S408 as described above, it is necessary to acquire a gradation correction reference image. Therefore, the
「補正被写体ID」は、階調補正基準画像に含まれている被写体に固有のIDである。「作成日時」は、階調補正基準画像の作成日時である。「階調補正基準画像ファイル」は、階調補正基準画像のファイル名(パス名でも良い)である。「属性ラベル」は、階調補正基準画像に含まれている被写体に対して割り当てられているラベルである。然るにステップS408では、ステップS401で取得した撮像画像中の被写体のIDと同じ補正被写体IDと同じ行の「階調補正基準画像のファイル名」を取得し、該取得したファイル名の階調補正基準画像を取得する。 The “corrected subject ID” is an ID unique to the subject included in the gradation correction reference image. “Creation date / time” is the creation date / time of the gradation correction reference image. The “gradation correction reference image file” is a file name (or a path name) of the gradation correction reference image. The “attribute label” is a label assigned to the subject included in the gradation correction reference image. However, in step S408, a “gradation correction reference image file name” in the same row as the correction subject ID same as the subject ID in the captured image acquired in step S401 is acquired, and the gradation correction reference of the acquired file name is acquired. Get an image.
<ステップS409>
ステップS408において使用する階調補正基準画像は常に入手可能であるとは限らない。例えば、白色光源下かつ十分な照度で撮像した階調補正基準画像(「被写体の照度が閾値(200ルクス等)を上回る」、「輝度値分布非白飛び・非黒つぶれ面積が全体の80%以上である」等の基準を満たす画像)がまだ存在しない場合などが該当する。そのため、演算部101は、ステップS409で階調補正基準画像が取得できたことで階調補正マップデータの取得に成功したか否かを判断する。この判断の結果、階調補正基準画像が取得できたことで階調補正マップデータの取得に成功した場合には、処理はステップS411に進む。一方、階調補正基準画像が取得できなかったことで階調補正マップデータの取得に失敗した場合には、処理はステップS410に進む。
<Step S409>
The gradation correction reference image used in step S408 is not always available. For example, a gradation correction reference image captured under a white light source and with sufficient illuminance (“the illuminance of the subject exceeds a threshold (200 lux, etc.)”, “the brightness value distribution non-whiteout / non-blackout area is 80% of the whole This corresponds to a case where there is no image that satisfies the criteria such as “the above”. Therefore, the
<ステップS410>
先ず、演算部101は、過去に撮像された複数枚の撮像画像(ステップS401で取得した撮像画像と同じ被写体を含む)を外部記憶部109から取得する。そして演算部101は、取得したそれぞれの撮像画像について、上記のようにして色補正マップデータAを生成し、該撮像画像を該生成した色補正マップデータAを用いて補正する。そして演算部101は、補正したそれぞれの撮像画像の平均画像(画素ごとに、それぞれの撮像画像の画素値の平均画素値を有する)を、階調補正基準画像として生成する。補正したそれぞれの撮像画像には、照度不足によって被写体の各部位に黒つぶれ・白つぶれ等の情報損失が起こる。これらを補うため、このような平均画像を生成する。なお、平均画像の代わりに中間画像(画素ごとに、それぞれの撮像画像の画素値の中央値を有する)を生成しても良い。そして演算部101は、該生成した階調補正基準画像を用いて上記のようにして階調補正マップデータを生成する。
<Step S410>
First, the
<ステップS411>
演算部101は、ステップS401で取得した撮像画像に対して、ステップS407で求めた色補正マップデータを用いた色補正を行うことで、色補正済み撮像画像を生成する。そして更に演算部101は、色補正済み撮像画像に対して、ステップS408若しくはステップS410で求めた階調補正マップデータを用いた階調補正を行うことで、階調補正済み撮像画像を生成する。
<Step S411>
The
なお、演算部101は、上記の処理の過程で、図3(C)、(D)のテーブルを作成、更新している。
Note that the
図3(C)のテーブルにおいて、「補正前画像ファイル名」は、撮像画像のファイル名である。「撮影日時」は、該撮像画像の撮像日時である。「対応表示情報ID」は、該撮像画像の撮像時に表示部102に表示されていた表示画面(スクリーンショット)に固有のIDである。「光源相対位置」は、ステップS402で測定された、画像処理装置100に対する外部光源の相対位置である。「光源強度」は、ステップS402で測定された、外部光源の光の強度(照度)である。「光源拡散値」は、ステップS402で測定された、外部光源の光の拡散値である。「光源環境値」は、ステップS402で測定された、外部光源の光の環境値である。
In the table of FIG. 3C, “pre-correction image file name” is the file name of the captured image. “Shooting date / time” is the shooting date / time of the captured image. The “corresponding display information ID” is an ID unique to the display screen (screen shot) displayed on the
図3(D)のテーブルにおいて、「補正前画像ファイル名」は、撮像画像のファイル名である。「補正被写体ID」は、撮像画像に含まれている被写体に固有のIDである。「画像領域内座標」は、撮像画像内で被写体の領域(矩形領域)の中心若しくは4隅の何れかの座標と幅及び高さである。「回転」は、撮像画像に対する被写体の領域の回転角度である。「抽出ファイル名」は、撮像画像において画像補正を行った領域について別途保存する際のファイル名であり、簡便に健康管理等の分析処理を行うために保存するファイルのファイル名である。 In the table of FIG. 3D, “pre-correction image file name” is the file name of the captured image. The “corrected subject ID” is an ID unique to the subject included in the captured image. “Image area coordinates” are the coordinates, width, and height of the center or four corners of the object area (rectangular area) in the captured image. “Rotation” is the rotation angle of the subject area with respect to the captured image. The “extracted file name” is a file name when separately storing a region where image correction has been performed on the captured image, and is a file name of a file to be stored for simple analysis processing such as health management.
ところで、ステップS410において、階調補正基準画像を逐次更新する例を上記に挙げたが、更新された場合には、補正済の画像を遡って再補正するとよい。こうすることによって、階調補正基準画像が不足する被写体に対しても、全ての撮影画像を均一に補正できる。逐次遡って補正する処理が高負荷になる場合には、画像処理装置100が低負荷である状況にまとめて補正するとよい。
By the way, although the example in which the gradation correction reference image is sequentially updated in step S410 has been described above, when it is updated, the corrected image may be recorrected retroactively. In this way, all captured images can be corrected uniformly even for a subject that lacks the gradation correction reference image. In the case where the processing of correcting retroactively becomes a high load, the
なお、表示部の変化以外に、画角外の外部光源の明滅がある場合においても、撮像画像に対応する光源パラメータが適切に取得できていれば上記の処理を適用可能である。さらに、スクリーンショットを用いる以外にも、描画ハードウェア(ディスプレイコントローラ、GPU等)またはオペレーティングシステムが持つ描画バッファを用いることでも同様の効果が得られる。ところで、表示部102に表示する画面と、表示部102となる発光デバイスと、の間には、色および階調特性等が異なる場合がある。この問題を解決するために、色・階調プロファイルを用意し、色と階調の変換を行って補正を行うとよい。なお、階調補正マップデータによる補正だけでは白飛び、黒つぶれが発生し、所望の階調を得られない場合がある。この場合には、階調補正マップデータに加えて、撮影部103に対してカメラの絞り値、シャッタースピード、ISO感度などの露光条件を加えることによって所望の階調が得るように撮影を行うとよい。なお、上記では、撮像画像は非圧縮画像であったが、圧縮による劣化が許容される場合には、JPEG画像等の圧縮画像であっても構わない。また、上記では、画像処理装置100が有する表示部の数が1であったが、複数であっても構わない。その場合、それぞれの表示部102におけるスクリーンショットの色特性を合成したものを用いて色補正マップデータAを生成すればよい。
In addition to the change in the display unit, even when there is blinking of an external light source outside the angle of view, the above processing can be applied if the light source parameter corresponding to the captured image can be acquired appropriately. Furthermore, in addition to using a screen shot, the same effect can be obtained by using drawing hardware (display controller, GPU, etc.) or a drawing buffer of an operating system. By the way, there are cases where colors, gradation characteristics, and the like are different between the screen displayed on the
このように、本実施形態によれば、例えば、暗所等において、人物による操作等によって表示が変化するディスプレイのような発光デバイス下における撮影においても、色合いと階調を複数枚の撮影画像に対して均一に補正できる。そのため、補正した撮影画像を用いた被写体検索や、健康管理、美容管理等の分析の精度を高めることができる。なお、上記の例ではスマートフォン等、カメラとディスプレイが一体化した装置の例を挙げたが、撮影部と表示部がネットワーク回線等を介して同一システム内に存在し、互いに発光と撮影で干渉する構成であればこれに限定されない。例えば、デジタルサイネージの近傍に設置された監視カメラによる撮影において、被写体画像を用いた人物検索を行う場合に、本実施形態を適用することによって、同一被写体の複数枚の画像がいずれも白色光源下相当に補正される。そのため、服装の色を検索条件に用いた検索を正確に行えるようになる。また、低照度の室内におけるプロジェクタとカメラを用いた遠隔会議システム、コミュニケーション用システム等が挙げられる。発光するディスプレイの方向を見る人物をカメラで捉える構成は、スマートフォンと同様であるため、本実施形態の例と同様に適用可能である。再生される映像が均一な色、階調に補正されることによって、映像視聴者にとって視認性が高まる効果がある。 As described above, according to the present embodiment, for example, even in shooting in a dark place or the like under a light emitting device such as a display whose display changes due to an operation by a person, the color and gradation are converted into a plurality of shot images. On the other hand, it can be corrected uniformly. Therefore, it is possible to improve the accuracy of analysis such as subject search using the corrected photographed image, health management, and beauty management. In the above example, an example of a device such as a smartphone in which a camera and a display are integrated has been described. However, the photographing unit and the display unit exist in the same system via a network line or the like, and interfere with each other in light emission and photographing. If it is a structure, it will not be limited to this. For example, when performing a person search using a subject image in shooting with a surveillance camera installed in the vicinity of digital signage, by applying this embodiment, a plurality of images of the same subject are all under a white light source. It is corrected considerably. Therefore, it is possible to accurately perform a search using clothes color as a search condition. In addition, a remote conference system using a projector and a camera in a low illuminance room, a communication system, and the like can be given. Since the configuration in which the person who sees the direction of the display that emits light is captured by the camera is the same as that of the smartphone, it can be applied in the same manner as the example of the present embodiment. By correcting the reproduced video to have a uniform color and gradation, there is an effect of improving visibility for the video viewer.
[第2の実施形態]
第1の実施形態に係る画像処理装置100の構成において、撮影部103と画像処理装置100とがネットワークを介して互いに離れた場所に設置されているような構成を考える。この場合、ネットワーク経路の状況や様々な処理の負荷等によって、撮影部103による撮像画像が画像処理装置100に転送されて保存されるまでに通常よりも多くの時間を要するようなケースが発生しうる。このようなケースが発生した場合、撮像画像は、実際に撮像した時刻よりもΔt(>0)だけ後の撮像時刻の撮像画像として画像処理装置100に登録される。然るに、時刻tにおいて表示部102に表示した表示画面による光の影響を受けた被写体の撮像画像の撮像時刻は(t+Δt)となってしまい、このような撮像画像及び表示画面のスクリーンショットを用いて生成した補正マップデータは適切なものではない。そこで本実施形態では、このようなケースの場合には、撮像画像に表示部102の表示画面が含まれている場合には、この表示画面のスクリーンショットを、既に記録したスクリーンショットから抽出して、色補正マップデータの生成に用いる。
[Second Embodiment]
In the configuration of the
以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。 In the following, differences from the first embodiment will be described mainly, and unless otherwise noted, the same as the first embodiment.
次に、暗所にてユーザ(被写体)が表示部102を閲覧している状態で撮影部103が撮像した該ユーザの撮像画像を、表示部102からの光や外界の光源(外部光源)からの光等を考慮して補正する一連の処理について図5のフローチャートに従って説明する。
Next, the user's (subject) viewing the
ステップS501〜S504、S509〜S513はそれぞれ、図4のステップS401〜S403,S405,S407〜S411と同様であるため、これらのステップに係る説明は省略する。 Steps S501 to S504 and S509 to S513 are the same as steps S401 to S403, S405, and S407 to S411 in FIG.
<ステップS505>
演算部101は、ステップS501で得た撮像画像中に写っている被写体を識別する。
<Step S505>
The
<ステップS506>
演算部101は、表示部102の表示画面の一部若しくは全部が含まれているか否かを判断する。この判断は、例えば、表示部102の表示面の枠部など、表示部102において画面を表示する面を認識するための特徴量を予め保持しておき、撮像画像にこの特徴量が存在するか否かを判断することで行う。他にも、例えば、表示面を認識するために表示部102に空間マーカを取り付けてこれを認識する方法や、撮像画像からの輪郭抽出や明滅変化を用いた領域分割等を用いても良い。もちろん、ステップS506における判断処理を実現するための技術はこれに限るものではない。
<Step S506>
The
この判断の結果、撮像画像中に、表示部102の表示画面の一部若しくは全部が含まれている場合には、処理はステップS507に進み、含まれていない場合には、処理はステップS508に進む。
As a result of the determination, if the captured image includes a part or all of the display screen of the
<ステップS507>
演算部101は、ステップS401で取得した撮像画像の撮像日時から規定量だけ過去の日時に作成されて外部記憶部109に記録されたスクリーンショットを、外部記憶部109に既に記録されているスクリーンショットから選択する。この規定量については、例えば、表示画面に明滅変化を起こさせながら複数枚の撮影を試行し、実際の明滅変化のタイミングと、それが撮像されているタイミングと、のずれを上記の規定量として求めて外部記憶部109に保存しておく。
<Step S507>
The
<ステップS508>
演算部101は、S506→S507と処理が進んだ場合には、ステップS507で選択したスクリーンショットを用いて、上記のステップS404及びステップS406の処理を行う。一方、演算部101は、S506→S508と処理が進んだ場合には、ステップS504で選択したスクリーンショットを用いて、上記のステップS404及びステップS406の処理を行う。これにより、明滅の増幅(ハウリング)を防止することもできる。例えば、プロジェクタを用いた会議システム等において、相互に明滅変換が伝搬してしまい、視認性が下がる問題を解決できる。
<Step S508>
When the process proceeds from S506 to S507, the
上記の例では、タイミングの修正について述べたが、これ以外にも、表示画面の輝度変化と実際の表示部の明滅変化による照度変化を計測することによって、階調補正の精度を高める処理を行っても良い。更に、表示部、被写体、撮影部の相対位置を取得した結果、補正対象被写体が逆光時になることが判明した場合においては、撮影画像内の補正対象被写体の領域のみに色補正、階調補正、および露光補正を適用する。こうすることによって、補正対象被写体を適切な露出で撮影した撮影画像を得られる。 In the above example, timing correction was described, but in addition to this, a process for improving the accuracy of gradation correction is performed by measuring the illuminance change due to the luminance change of the display screen and the blinking change of the actual display unit. May be. Furthermore, when it is determined that the subject to be corrected is backlit as a result of acquiring the relative positions of the display unit, the subject, and the photographing unit, only color correction, tone correction, And apply exposure correction. By doing so, it is possible to obtain a photographed image obtained by photographing the correction target subject with an appropriate exposure.
[第3の実施形態]
表示画面の時間軸方向の変化(表示内容、輝度、明度などの変化)が大きい期間が予め分かっている場合や、変化量が大きいと判断した時点で、撮影部103による画像撮像の間隔を短くして単位時間あたりの撮像枚数を増やしても良い。このようにして得た撮像画像を用いることで、暗いものから明るいものまで様々な照度条件の撮像画像が得られるため、それらを合成することによってダイナミックレンジの広い撮像画像を得られる。具体的には、表示情報のスクリーンショット、画面輝度、被写体との相対位置のいずれかの時間変化を差分値等によって定量化した上で、それが閾値以上になった場合に、撮影頻度を高めるとよい。そして、このようにして得られる合成撮像画像を用いて、図4や図5のフローチャートに従った処理を行う。
[Third Embodiment]
When the time period in which the change in the time axis direction of the display screen (change in display content, brightness, brightness, etc.) is large is known in advance, or when it is determined that the amount of change is large, the interval between image capturing by the photographing
また、第1の実施形態では、ステップS410において複数枚の画像から階調補正マップデータを推定したが、階調補正基準画像の精度を高めるよう、表示画面の変化を誘導してもよい。これにより、階調補正基準画像の精度向上を促進させられる。具体的には、階調補正基準画像内の黒つぶれ面積過多の場合は照度が上がる表示画面を、白飛び面積過多の場合は照度が下がる表示画面を誘導するように画面変化を促す。具体的には、スマートフォン等において、実行中の複数アプリケーションのうち、階調補正基準画像取得のために適切な照度や利用者の姿勢が得られるアプリケーションを選定し、切り替えるよう利用者に推薦通知を行う。こうすることによって、表示画面の輝度が変化し、階調補正基準画像取得に適切な被写体の撮像画像を得ることができる。その結果、階調補正基準画像の推定精度を高めることに繋げられる。以上説明した実施形態や変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。 In the first embodiment, tone correction map data is estimated from a plurality of images in step S410. However, a change in the display screen may be induced so as to improve the accuracy of the tone correction reference image. Thereby, improvement in accuracy of the gradation correction reference image can be promoted. Specifically, a screen change is prompted so as to guide a display screen in which the illuminance increases when the blackout area is excessive in the gradation correction reference image, and a display screen in which the illuminance decreases when the overexposed area is excessive. Specifically, on a smartphone or the like, a recommendation notification is sent to the user to select and switch an application that can obtain an appropriate illuminance or user posture for acquiring the gradation correction reference image from a plurality of applications being executed. Do. By doing so, the brightness of the display screen changes, and a captured image of the subject suitable for obtaining the gradation correction reference image can be obtained. As a result, it is possible to improve the estimation accuracy of the gradation correction reference image. A part or all of the embodiments and modifications described above may be used in appropriate combination.
また、上記の実施形態や変形例によれば、暗所にてユーザが表示部を閲覧している状態において撮影部が撮像した該ユーザの撮像画像を、表示部からの光や外界の光源からの光などを考慮して白色光源下相当の画像に補正することができる。これにより、撮像画像を用いた被写体検索や、健康管理、美容管理等の分析の精度を高めることができる。 Further, according to the above-described embodiment and modification, the user's captured image captured by the imaging unit in a state where the user is browsing the display unit in a dark place can be obtained from light from the display unit or an external light source. Can be corrected to an image equivalent to that under a white light source. Thereby, the accuracy of analysis such as subject search using the captured image, health management, and beauty management can be improved.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101:演算部 102:表示部 101: Calculation unit 102: Display unit
Claims (9)
被写体の撮像画像を取得する取得手段と、
前記撮像画像の撮像時に表示部に表示されていた画像の色特性に基づいて、該色特性を相殺する色補正を行うための色補正情報を生成する生成手段と、
前記色補正情報に基づいて前記撮像画像を補正する補正手段と
を備えることを特徴とする画像処理装置。 An image processing apparatus,
Acquisition means for acquiring a captured image of a subject;
Generating means for generating color correction information for performing color correction to cancel the color characteristics based on the color characteristics of the image displayed on the display unit at the time of capturing the captured image;
An image processing apparatus comprising: a correcting unit that corrects the captured image based on the color correction information.
前記撮像画像が規定量以上の光量の下で撮像されたか否かを判断する手段を備え、
前記生成手段及び前記補正手段は、前記撮像画像が規定量より少ない光量の下で撮像された場合に、それぞれ前記生成及び前記補正を行うことを特徴とする請求項1に記載の画像処理装置。 Furthermore,
Means for determining whether or not the captured image has been captured with a light amount equal to or greater than a specified amount;
The image processing apparatus according to claim 1, wherein the generation unit and the correction unit perform the generation and the correction, respectively, when the captured image is captured with a light amount less than a predetermined amount.
前記色補正情報を、前記撮像画像に対する外部光源からの光の影響を補正するための色補正情報と合成することを特徴とする請求項1又は2に記載の画像処理装置。 The generating means further includes
The image processing apparatus according to claim 1, wherein the color correction information is combined with color correction information for correcting an influence of light from an external light source on the captured image.
前記画像処理装置と前記被写体との間の相対位置と相対角度とに応じた比率でもって前記合成を行うことを特徴とする請求項3に記載の画像処理装置。 The generating means includes
The image processing apparatus according to claim 3, wherein the composition is performed at a ratio according to a relative position and a relative angle between the image processing apparatus and the subject.
前記撮像画像の階調特性を、白色光源下における階調及び色合いの基準となる画像である基準画像の階調特性に補正するための階調補正情報を生成する手段を備え、
前記補正手段は、前記色補正情報に基づいて前記撮像画像を補正し、該補正による撮像画像を、前記階調補正情報に基づいて補正することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 Furthermore,
Means for generating gradation correction information for correcting the gradation characteristics of the captured image to the gradation characteristics of a reference image that is an image serving as a reference for gradation and hue under a white light source;
The correction unit corrects the captured image based on the color correction information, and corrects the captured image based on the correction based on the gradation correction information. The image processing apparatus according to item.
過去の複数の撮像画像のそれぞれについて、対応する色補正情報を生成し、該撮像画像を該撮像画像に対して生成した色補正情報に基づいて補正し、該補正したそれぞれの撮像画像に基づいて前記基準画像を生成する手段を備えることを特徴とする請求項5に記載の画像処理装置。 Furthermore,
For each of a plurality of past captured images, corresponding color correction information is generated, the captured image is corrected based on the color correction information generated for the captured image, and based on the corrected captured images. The image processing apparatus according to claim 5, further comprising means for generating the reference image.
前記画像処理装置の取得手段が、被写体の撮像画像を取得する取得工程と、
前記画像処理装置の生成手段が、前記撮像画像の撮像時に表示部に表示されていた画像の色特性に基づいて、該色特性を相殺する色補正を行うための色補正情報を生成する生成工程と、
前記画像処理装置の補正手段が、前記色補正情報に基づいて前記撮像画像を補正する補正工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
An acquisition step in which an acquisition unit of the image processing apparatus acquires a captured image of a subject;
A generation step in which the generation unit of the image processing device generates color correction information for performing color correction that cancels the color characteristic based on the color characteristic of the image displayed on the display unit when the captured image is captured. When,
An image processing method comprising: a correction unit that corrects the captured image based on the color correction information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015198794A JP2017072945A (en) | 2015-10-06 | 2015-10-06 | Image processor, image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015198794A JP2017072945A (en) | 2015-10-06 | 2015-10-06 | Image processor, image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017072945A true JP2017072945A (en) | 2017-04-13 |
Family
ID=58537744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015198794A Pending JP2017072945A (en) | 2015-10-06 | 2015-10-06 | Image processor, image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017072945A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115278190A (en) * | 2021-04-30 | 2022-11-01 | 卡莱特云科技股份有限公司 | Calibration method, calibration equipment and calibration system for video data display colors |
US11783472B2 (en) | 2020-08-07 | 2023-10-10 | Toyota Jidosha Kabushiki Kaisha | Color tone correction system and color tone correction method |
-
2015
- 2015-10-06 JP JP2015198794A patent/JP2017072945A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11783472B2 (en) | 2020-08-07 | 2023-10-10 | Toyota Jidosha Kabushiki Kaisha | Color tone correction system and color tone correction method |
CN115278190A (en) * | 2021-04-30 | 2022-11-01 | 卡莱特云科技股份有限公司 | Calibration method, calibration equipment and calibration system for video data display colors |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107635101B (en) | Shooting method, shooting device, storage medium and electronic equipment | |
CN107743197B (en) | Screen light supplementing method and device and mobile terminal | |
JP6445844B2 (en) | Imaging device and method performed in imaging device | |
US20190277624A1 (en) | Information processing device, length measurement method, and program storage medium | |
CN105744175B (en) | A kind of screen light compensation method, device and mobile terminal | |
US20130162864A1 (en) | Capturing apparatus and method of capturing image | |
US9218681B2 (en) | Image processing apparatus and image processing method | |
CN105450932B (en) | Backlight photographic method and device | |
CN104811660A (en) | Control apparatus and control method | |
JP2015201839A (en) | Image processing system and control method and program of the same | |
US11328439B2 (en) | Information processing device, object measurement system, object measurement method, and program storage medium | |
WO2020237565A1 (en) | Target tracking method and device, movable platform and storage medium | |
US20120099002A1 (en) | Face image replacement system and method implemented by portable electronic device | |
US10058237B2 (en) | Image processing device, image processing method, and program | |
US10547792B2 (en) | Control device, control method, and program for controlling light intensities | |
US9256793B2 (en) | Apparatus and method for extracting object image | |
JP2020008929A (en) | Height calculation system, information processing apparatus, and program | |
US20200027231A1 (en) | Information processing device, information processing method, and program storage medium | |
JP6525740B2 (en) | INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND PROGRAM | |
JP2019135810A (en) | Image processing apparatus, image processing method, and program | |
CN108289170B (en) | Photographing apparatus, method and computer readable medium capable of detecting measurement area | |
US11120533B2 (en) | Information processing method and information processing apparatus | |
JP2009288945A (en) | Image display unit and image display method | |
JP2017072945A (en) | Image processor, image processing method | |
WO2024174625A1 (en) | Image processing method and electronic device |