JP2017072945A - Image processor, image processing method - Google Patents

Image processor, image processing method Download PDF

Info

Publication number
JP2017072945A
JP2017072945A JP2015198794A JP2015198794A JP2017072945A JP 2017072945 A JP2017072945 A JP 2017072945A JP 2015198794 A JP2015198794 A JP 2015198794A JP 2015198794 A JP2015198794 A JP 2015198794A JP 2017072945 A JP2017072945 A JP 2017072945A
Authority
JP
Japan
Prior art keywords
image
captured
unit
image processing
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015198794A
Other languages
Japanese (ja)
Inventor
邦彦 三好
Kunihiko Miyoshi
邦彦 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015198794A priority Critical patent/JP2017072945A/en
Publication of JP2017072945A publication Critical patent/JP2017072945A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique to correct a pick-up image to an image which is equivalent to an image picked up under a white light source while considering light from a display unit and light from an external light source.SOLUTION: The image processor performs series of processing: acquires a pick-up image of a subject; generates a piece of color correction information for color correction to cancel color characteristics based on the color characteristics of the image which is displayed on a display unit when picking up the image; and corrects the pick-up image based on the color correction information.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理技術に関し、特に、画像の色や階調を補正する技術に関するものである。   The present invention relates to an image processing technique, and more particularly to a technique for correcting the color and gradation of an image.

近年、カメラ、重力センサ、ジャイロセンサ、ディスプレイなどの多様な機器を搭載したスマートフォンやタブレットPC等の普及により、それらの機能を組み合わせたシステムを容易に開発できるようになった。例えば、ディスプレイ正面に付帯するカメラを用いて顔や表情を定期的に撮影して分析することによって健康管理システム、美容管理システムを構築することができる。このようなシステムは常駐アプリケーションとして動作させておき、スマートフォン操作中の顔や表情を撮影・収集することによって、利用者を拘束せずに多数の分析画像が得られる。ただし、日常生活を送る上で、常に撮影に適した照明条件であるとは限らない。   In recent years, with the widespread use of smartphones and tablet PCs equipped with various devices such as cameras, gravity sensors, gyro sensors, and displays, it has become possible to easily develop systems that combine these functions. For example, a health management system and a beauty management system can be constructed by periodically photographing and analyzing a face and an expression using a camera attached to the front of the display. Such a system is operated as a resident application, and a large number of analysis images can be obtained without restraining the user by photographing and collecting faces and facial expressions during operation of the smartphone. However, the lighting conditions are not always suitable for photographing in order to live daily life.

このような問題に対し、適切な補正のための色合い及び階調の補正マップデータを事前に複数用意しておき、撮影状況の光源計測・推定結果と被写体検知結果とを用いて適切な補正マップデータを選択して適用する方法が一般的である。   To deal with such problems, prepare multiple correction map data for hue and gradation for appropriate correction in advance, and use the light source measurement / estimation result of the shooting situation and the subject detection result to obtain an appropriate correction map. The method of selecting and applying data is common.

撮影状況の光源計測を行って画像を補正する手法は、例えば、特許文献1に開示されている。コンビニエンスストア等における監視カメラによる撮影においては、カメラ画角内領域の固定物(窓、障害物等)の影響によって、画角内を移動する被写体の光源に対する順光・逆光が変化する。特許文献1に開示されている技術は、光源を複数枚の撮影画像から画像内領域ごとに計測した上で、追尾した同一被写体の複数箇所における撮影画像を均質な色・階調に補正するものである。このようにすることで、撮影画像を用いた分析精度を向上させることができるため、例えば、事後に色を条件に用いた被写体検索の精度を上げることができる。一方で、光源そのものを能動的に制御することで補正画像を得る手法として、特許文献2に開示されている技術がある。この技術は、カメラのストロボを予め決めておいた時系列明滅変化パターンで発光させるのと同期して連続撮影を行い、それらを合成してブレを補正した補正画像を得るものである。   For example, Patent Literature 1 discloses a technique for correcting an image by measuring a light source in a shooting state. When photographing with a surveillance camera in a convenience store or the like, the follow / backlight to the light source of the subject moving within the angle of view changes due to the influence of a fixed object (window, obstacle, etc.) in the area within the angle of view of the camera. The technique disclosed in Patent Document 1 corrects captured images at a plurality of locations of the same subject tracked to a uniform color and gradation after measuring a light source for each region in the image from a plurality of captured images. It is. In this way, since the analysis accuracy using the captured image can be improved, for example, the accuracy of subject search using color as a condition after the fact can be increased. On the other hand, as a technique for obtaining a corrected image by actively controlling the light source itself, there is a technique disclosed in Patent Document 2. In this technique, continuous shooting is performed in synchronism with flashing a camera strobe in a predetermined time-series blinking change pattern, and these are combined to obtain a corrected image in which blurring is corrected.

WO2014080613WO20140806613 特開2011−78074号公報JP 2011-78074 A

しかしながら、特許文献1、特許文献2の何れに開示されている技術も、計測または制御できる光源を前提にしている。そのため特許文献1,2に開示されている技術では、暗所等において、計測又は制御できる光源とは別の予測困難な発光デバイス(任意操作によって変動するディスプレイ等)が存在する状況に対しては画像の補正が困難である。例えば、就寝前、夜間の野外などの暗所における撮影においては、適切な光量を得られないことに加え、スマートフォンのディスプレイ等の発光影響を受ける。ディスプレイ等の発光影響を強く受けた撮影画像は、色合いや階調が偏るため、補正が十分に行えない場合がある。健康管理や美容管理において、補正が十分ではない画像を用いると、分析精度が低くなる。   However, the techniques disclosed in both Patent Document 1 and Patent Document 2 are based on a light source that can be measured or controlled. Therefore, in the techniques disclosed in Patent Documents 1 and 2, for a situation where there is a light-emitting device that is difficult to predict (a display that varies depending on an arbitrary operation) other than a light source that can be measured or controlled in a dark place Image correction is difficult. For example, in photographing in a dark place such as before going to bed or at night, an appropriate amount of light cannot be obtained, and in addition, the display is affected by light emitted from a smartphone display or the like. A photographed image that is strongly influenced by light emission, such as a display, may not be sufficiently corrected because the hue and gradation are biased. If an image that is not sufficiently corrected is used in health management or beauty management, analysis accuracy is lowered.

本発明はこのような問題に鑑みてなされたものであり、撮像画像を、表示部からの光や外界の光源からの光などを考慮して、白色光源下相当の画像に補正するための技術を提供する。   The present invention has been made in view of such problems, and a technique for correcting a captured image into an image equivalent to that under a white light source in consideration of light from a display unit, light from an external light source, and the like. I will provide a.

本発明の一様態は、画像処理装置であって、被写体の撮像画像を取得する取得手段と、前記撮像画像の撮像時に表示部に表示されていた画像の色特性に基づいて、該色特性を相殺する色補正を行うための色補正情報を生成する生成手段と、前記色補正情報に基づいて前記撮像画像を補正する補正手段とを備えることを特徴とする。   One aspect of the present invention is an image processing apparatus, which obtains a color characteristic based on an acquisition unit that acquires a captured image of a subject and a color characteristic of an image displayed on a display unit when the captured image is captured. The image processing apparatus includes a generation unit that generates color correction information for performing color correction to cancel, and a correction unit that corrects the captured image based on the color correction information.

本発明の構成によれば、撮像画像を、表示部からの光や外界の光源からの光などを考慮して、白色光源下相当の画像に補正することができる。   According to the configuration of the present invention, the captured image can be corrected to an image equivalent to that under a white light source in consideration of light from the display unit, light from an external light source, and the like.

画像処理装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image processing apparatus. 画像補正について説明する図。The figure explaining image correction. テーブル群を示す図。The figure which shows a table group. 画像処理装置が行う処理のフローチャート。6 is a flowchart of processing performed by the image processing apparatus. 画像処理装置が行う処理のフローチャート。6 is a flowchart of processing performed by the image processing apparatus.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態では、被写体の撮像画像を取得し、撮像画像の撮像時に表示部に表示されていた画像の色特性に基づいて、該色特性を相殺する色補正を行うための色補正情報を生成し、色補正情報に基づいて撮像画像を補正する画像処理装置の一例について説明する。先ず、本実施形態に係る画像処理装置の構成例について、図1のブロック図を用いて説明する。
[First Embodiment]
In this embodiment, a captured image of a subject is acquired, and color correction information for performing color correction that cancels the color characteristic is generated based on the color characteristic of the image displayed on the display unit when the captured image is captured. An example of an image processing apparatus that corrects a captured image based on color correction information will be described. First, a configuration example of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG.

演算部101は、RAM108に格納されているコンピュータプログラムやデータを用いて各種の処理を実行することで、画像処理装置100全体の操作制御を行うと共に、画像処理装置100が行うものとして後述する各処理を実行若しくは制御する。   The arithmetic unit 101 executes various kinds of processing using computer programs and data stored in the RAM 108, thereby controlling the operation of the entire image processing apparatus 100 and each of which will be described later as what the image processing apparatus 100 performs. Execute or control processing.

表示部102は、CRTや液晶画面などにより構成されており、演算部101による処理結果を画像や文字などでもって表示することができる。なお、画像処理装置100がプロジェクタなどの投影装置であった場合には、投影対象となる画像や文字を表示する表示部と、該表示部に表示した画像や文字をスクリーンなどに投影する投影部と、を有するものとなる。このように、表示部102は、画像を観察者に対して画像や文字などを提示するものである。   The display unit 102 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the calculation unit 101 with an image or a character. When the image processing apparatus 100 is a projection device such as a projector, a display unit that displays an image or character to be projected, and a projection unit that projects the image or character displayed on the display unit onto a screen or the like And having the following. As described above, the display unit 102 presents an image, characters, and the like to the observer.

撮影部103は、静止画像若しくは動画像を撮像するものである。本実施形態では、表示部102に表示されている画面の光の影響を受ける被写体の画像を撮像するので、撮影部103は、「表示部102に表示されている画面の光の影響を受ける被写体の画像を撮像可能な位置」に取り付けられたものとなる。   The imaging unit 103 captures a still image or a moving image. In the present embodiment, an image of a subject that is affected by the light of the screen displayed on the display unit 102 is captured. It is attached to the “position where the image of the image can be taken”.

操作入力部104は、マウスやキーボード等のユーザインターフェースであり、画像処理装置100のユーザが操作することで各種の指示を演算部101に入力するためのものである。なお、表示部102と操作入力部104とを一体化させてタッチパネル画面を構成しても良い。また、表示部102と操作入力部104とを組み合わせてタッチパネル画面及びハードキーを構成しても良い。   The operation input unit 104 is a user interface such as a mouse or a keyboard, and is used for inputting various instructions to the calculation unit 101 by a user of the image processing apparatus 100. The display unit 102 and the operation input unit 104 may be integrated to form a touch panel screen. Further, the display unit 102 and the operation input unit 104 may be combined to form a touch panel screen and hard keys.

通信部105は、外部機器との間のデータ通信を行うためのものであり、LAN、3G、4G、Bluetooth(登録商標)、RFID(Radio Frequency IDentification)等に対応するネットワークコントローラ等である。   The communication unit 105 is for performing data communication with an external device, and is a network controller or the like corresponding to LAN, 3G, 4G, Bluetooth (registered trademark), RFID (Radio Frequency IDentification), or the like.

計測部106は、照度センサ、カメラ、GPS(Global Positioning System)センサ、電子コンパス、ジャイロセンサ等を組み合わせたもので、画像処理装置100に対する外部光源の相対位置や方角、動き、照度などを計測する。   The measurement unit 106 is a combination of an illuminance sensor, a camera, a GPS (Global Positioning System) sensor, an electronic compass, a gyro sensor, and the like, and measures the relative position, direction, movement, illuminance, and the like of an external light source with respect to the image processing apparatus 100. .

RAM108は、外部記憶部109からロードされたコンピュータプログラムやデータ、通信部105を介して外部から受信したコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM108は、演算部101が各種の処理を実行するためのワークエリアを有する。これらのエリアの一例として、図1の「各種ワーク領域」を利用することができる。このように、RAM108は、各種のエリアを適宜提供することができる。   The RAM 108 has an area for storing computer programs and data loaded from the external storage unit 109 and computer programs and data received from the outside via the communication unit 105. Further, the RAM 108 has a work area for the arithmetic unit 101 to execute various processes. As an example of these areas, the “various work areas” in FIG. 1 can be used. Thus, the RAM 108 can provide various areas as appropriate.

外部記憶部109は、フラッシュメモリ、ハードディスクドライブ(HDD)等の不揮発性メモリである。外部記憶部109には、例えば、OS(オペレーティングシステム)や、以下に説明する各種の処理において用いられるコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、ブートプログラム、撮影プログラム、表示制御プログラム、撮影画像補正プログラム、が含まれている。また、このデータには、表示情報、色補正マップデータ、階調補正基準画像、光源パラメータ、撮影画像データ、各種のテーブルデータ、が含まれている。   The external storage unit 109 is a nonvolatile memory such as a flash memory or a hard disk drive (HDD). The external storage unit 109 stores, for example, an OS (Operating System) and computer programs and data used in various processes described below. The computer program includes a boot program, a shooting program, a display control program, and a shot image correction program. Further, this data includes display information, color correction map data, gradation correction reference image, light source parameter, photographed image data, and various table data.

外部記憶部109に保存されているコンピュータプログラムやデータは、演算部101による制御に従って適宜RAM108にロードされ、演算部101による処理対象となる。なお、外部記憶部109は、光学ディスクや磁気ディスクなどの記憶媒体に対する情報の読み書きを行う装置であっても良い。   Computer programs and data stored in the external storage unit 109 are appropriately loaded into the RAM 108 under the control of the calculation unit 101 and are processed by the calculation unit 101. The external storage unit 109 may be a device that reads / writes information from / to a storage medium such as an optical disk or a magnetic disk.

上記のような構成を有する画像処理装置100は、操作入力部104からの各種の入力や通信部105から供給されるネットワーク経由の各種入力に応じて作動する。すなわち、操作入力部104や通信部105からの入力が供給されると、まず、インタラプト信号が演算部101に送られる。そして、演算部101が外部記憶部109に保存されているコンピュータプログラムやデータを実行することで各種の制御信号を発行し、それらの制御信号に従って、各種の制御が行われる。   The image processing apparatus 100 having the above configuration operates in response to various inputs from the operation input unit 104 and various inputs via a network supplied from the communication unit 105. That is, when an input from the operation input unit 104 or the communication unit 105 is supplied, an interrupt signal is first sent to the calculation unit 101. The arithmetic unit 101 issues various control signals by executing computer programs and data stored in the external storage unit 109, and various controls are performed in accordance with these control signals.

なお、図1には、以下の説明で要する主要な構成を示しただけであり、全ての構成を示したわけではない。また、以下に説明する各処理を実現可能な構成であれば、図1に示した構成に限らず、他の構成を採用しても構わない。   Note that FIG. 1 only shows the main configuration required in the following description, and does not show all the configurations. In addition, as long as each processing described below can be realized, the configuration is not limited to the configuration illustrated in FIG. 1, and other configurations may be employed.

次に、暗所にてユーザ(被写体)が表示部102を閲覧している状態で撮影部103が撮像した該ユーザの撮像画像を、表示部102からの光や外界の光源(外部光源)からの光等を考慮して補正する一連の処理について図4のフローチャートに従って説明する。   Next, the user's (subject) viewing the display unit 102 in a dark place, the user's captured image captured by the imaging unit 103 is transmitted from the light from the display unit 102 or an external light source (external light source). A series of processing for correction in consideration of the light and the like will be described with reference to the flowchart of FIG.

ステップS401以降の処理は、演算部101が、本装置のユーザが操作入力部104を操作して撮像開始指示を入力したり、通信部105が外部から撮像開始指示を受信したりしたことを検知した場合に行われるものである。然るに、演算部101がこのような検知を行わない限りは待機状態にあり、このような検知を行った場合にステップS401以降の処理が行われる。   In the processing after step S401, the calculation unit 101 detects that the user of the apparatus operates the operation input unit 104 to input an imaging start instruction, or the communication unit 105 receives an imaging start instruction from the outside. This is what happens. However, unless the calculation unit 101 performs such detection, the calculation unit 101 is in a standby state. When such a detection is performed, the processing from step S401 is performed.

ステップS401以降の処理を開始するためのトリガは、これらに限るものではなく、例えば、健康管理、美容管理等の分析アプリケーションの起動指示をトリガにしても良い。   The trigger for starting the processing after step S401 is not limited to these, and for example, an activation instruction for an analysis application such as health management or beauty management may be used as a trigger.

また、以下では具体例を挙げて説明するために、画像処理装置100はスマートフォンやタブレット端末などの携帯機器であり、画像や文字などを含む表示画面(表示情報)を表示している表示部102と同じ面に撮影部103が設けられているものとする。そして以下では、このような表示部102の表示画面をユーザが閲覧している状態において、撮影部103が該ユーザを撮像し、該撮像により得られる撮像画像を、表示部102からの光や外部光源からの光などを考慮して補正する。このようなシステムとしては、例えば、健康管理システムや、美容管理システム等がある。   In addition, in order to describe with specific examples below, the image processing apparatus 100 is a mobile device such as a smartphone or a tablet terminal, and the display unit 102 displays a display screen (display information) including images and characters. It is assumed that the photographing unit 103 is provided on the same surface. In the following, in a state where the user is viewing the display screen of the display unit 102, the imaging unit 103 captures the user, and the captured image obtained by the imaging is used as light from the display unit 102 or external Correct the light considering the light from the light source. Examples of such a system include a health management system and a beauty management system.

<ステップS401>
演算部101が撮影プログラムを実行することで撮影部103を制御し、撮影部103は、演算部101による制御の元、撮像を開始する。分析対象となる撮像画像を一定量集めるために、撮像は定期的に且つ自動的に行われることを想定しているが、撮像はユーザ操作を介して行っても良く、分析に適した撮像画像が収集できるのであれば、如何なる形態を採用しても構わない。何れにせよ、ステップS401では、撮影部103は、連続してユーザを撮像することによって、複数枚の(ユーザの)撮像画像を撮像する。
<Step S401>
The calculation unit 101 controls the shooting unit 103 by executing the shooting program, and the shooting unit 103 starts imaging under the control of the calculation unit 101. In order to collect a certain amount of captured images to be analyzed, it is assumed that imaging is performed regularly and automatically. However, imaging may be performed through a user operation and is suitable for analysis. Any form may be adopted as long as it can be collected. In any case, in step S401, the imaging unit 103 captures a plurality of (user's) captured images by continuously capturing images of the user.

上記の通り撮影部103は「表示部102に表示されている画面の光の影響を受けるユーザの画像を撮像可能な位置」に取り付けられているので、この撮像により「表示部102に表示されている画面の光の影響を受けるユーザ」の画像が撮像されることになる。図2(A)の場合、撮影部103は、表示画面203を表示中の表示部102からの光を受けているユーザ202を撮像することになる。201は外部光源である。   As described above, the imaging unit 103 is attached to “a position where an image of a user affected by the light of the screen displayed on the display unit 102 can be captured”. The image of the “user who is affected by the light on the screen” is captured. In the case of FIG. 2A, the photographing unit 103 captures an image of the user 202 receiving light from the display unit 102 displaying the display screen 203. 201 is an external light source.

<ステップS402>
演算部101は、計測部106による計測結果を取得する。この場合、計測部106は、画像処理装置100に対する外部光源201の相対位置や照度(環境光の強度)等、外部光源201に係るパラメータ(光源パラメータ)を含む、画像処理装置100による撮像環境に係るパラメータを計測する。
<Step S402>
The calculation unit 101 acquires the measurement result obtained by the measurement unit 106. In this case, the measurement unit 106 includes a parameter (light source parameter) relating to the external light source 201 such as a relative position of the external light source 201 with respect to the image processing apparatus 100 and illuminance (environment light intensity). Measure such parameters.

<ステップS403>
演算部101は、ステップS402で取得したパラメータのうち光源パラメータを参照し、該光源パラメータに含まれている「外部光源201による光の強度」が規定の強度以上であるか否かを判断する。すなわち、撮像画像が規定量以上の光量の下で撮像されたか否かを判断する。この判断の結果、「外部光源201による光の強度」が規定の強度以上であれば、外部光源201は非弱光源と判断して処理はステップS407に進む。一方、「外部光源201による光の強度」が規定の強度未満である場合には、外部光源201は弱光源と判断して処理はステップS404に進む。一例としては、計測部106に含まれている照度センサを用いて得た照度が閾値(200ルクス等)を下回る場合には、外部光源201は弱光源と判断する。
<Step S403>
The calculation unit 101 refers to the light source parameter among the parameters acquired in step S402, and determines whether or not the “light intensity by the external light source 201” included in the light source parameter is equal to or greater than a predetermined intensity. That is, it is determined whether or not the captured image is captured with a light amount equal to or greater than a specified amount. If the result of this determination is that “the intensity of light from the external light source 201” is equal to or greater than the prescribed intensity, the external light source 201 is determined to be a non-weak light source and the process proceeds to step S407. On the other hand, if “the intensity of light from the external light source 201” is less than the prescribed intensity, the external light source 201 is determined to be a weak light source, and the process proceeds to step S404. As an example, when the illuminance obtained using the illuminance sensor included in the measurement unit 106 is lower than a threshold (200 lux or the like), the external light source 201 is determined to be a weak light source.

なお、外部光源201が弱光源であるか否かの判断方法については、他の方法を採用しても構わない。例えば、ステップS401における画像撮像でもって取得した撮像画像中に現れる表示画面の明度の明滅と、撮像画像中に写っている被写体表面の照度(輝度値等)と、の間の相関を数値化し、閾値判定する方法を採用しても構わない。   Note that other methods may be adopted as a method of determining whether or not the external light source 201 is a weak light source. For example, the correlation between the flickering of the brightness of the display screen that appears in the captured image acquired by the image capturing in step S401 and the illuminance (luminance value, etc.) of the subject surface that appears in the captured image is quantified, You may employ | adopt the method of determining a threshold value.

<ステップS404>
演算部101は、ステップS401における画像撮像でもって取得した撮像画像を用いて、画像処理装置100に対するユーザ202の相対的な位置D、角度θを求める。例えば、演算部101は、ステップS401で取得した撮像画像に含まれているユーザ202の顔の位置と向きを認識し、該認識した顔の位置と向きから「画像処理装置100に対するユーザ202の顔の相対角度θ」を求める。また、演算部101は、ステップS401で取得した撮像画像に含まれているユーザ202の顔の大きさを求め、該求めた大きさと予め対応付けられている距離値を「画像処理装置100に対するユーザ202の相対位置D」として求める。なお、画像処理装置100に対するユーザ202の相対的な位置、角度を求める方法は、これに限るものではない。例えば、ユーザ202の顔以外を対象とする場合には、事前にマーカを対象に付与しておき、撮像画像中のマーカに基づいて相対位置D、相対角度θを求める方法や、各種センサによって相対位置D及び相対角度θを求めても良い。
<Step S404>
The calculation unit 101 obtains the relative position D and angle θ of the user 202 with respect to the image processing apparatus 100 using the captured image acquired by the image capturing in step S401. For example, the calculation unit 101 recognizes the position and orientation of the face of the user 202 included in the captured image acquired in step S401, and determines “the face of the user 202 with respect to the image processing apparatus 100 from the recognized face position and orientation”. Relative angle θ ”. In addition, the calculation unit 101 obtains the size of the face of the user 202 included in the captured image acquired in step S401, and calculates a distance value associated with the obtained size in advance as “the user for the image processing apparatus 100”. 202, relative position D ". Note that the method for obtaining the relative position and angle of the user 202 with respect to the image processing apparatus 100 is not limited to this. For example, when a target other than the face of the user 202 is targeted, a marker is given to the target in advance, and a relative position D and a relative angle θ are obtained based on the marker in the captured image, or relative by various sensors. The position D and the relative angle θ may be obtained.

<ステップS405>
演算部101は、ステップS401における画像撮像時に表示部102に表示していた表示画面のスクリーンショット(表示画面のコピー画像)、ステップS401における画像撮像時における表示部102のバックライトの輝度、を取得する。そのために演算部101は、外部記憶部109に保存されている、図3(A)に例示するテーブル(表示情報テーブル)を参照する。
<Step S405>
The calculation unit 101 acquires a screen shot of the display screen (copy image of the display screen) displayed on the display unit 102 at the time of image capturing in step S401, and the backlight brightness of the display unit 102 at the time of image capturing in step S401. To do. For this purpose, the calculation unit 101 refers to a table (display information table) illustrated in FIG. 3A stored in the external storage unit 109.

演算部101は、画像の撮像が行われるたびに、該撮像した画像と、該撮像時に表示部102に表示していた画面のスクリーンショットと、を外部記憶部109に保存すると共に、以下の情報群を表示情報テーブルに登録する。表示情報テーブルの各行には、演算部101が撮像のたびに収集した情報群が登録されている。   Every time an image is captured, the calculation unit 101 stores the captured image and a screen shot of the screen displayed on the display unit 102 at the time of the image capture in the external storage unit 109, and the following information Register the group in the display information table. In each row of the display information table, an information group collected every time the imaging unit 101 captures an image is registered.

表示情報ID … 画像撮像時に表示部102に表示していた表示画面に固有のID
表示日時 … 画像撮像時に表示部102に表示していた表示画面のスクリーンショットの保存日時
スクリーンショット … 画像撮像時に表示部102に表示していた表示画面のスクリーンショットのファイル名(パス名でも良い)
輝度 … 画像撮像時における表示部102のバックライトの輝度
平均色 … 画像撮像時に表示部102に表示していた表示画面のスクリーンショットの平均色
傾き … 画像撮像時における画像処理装置100の傾き
方角 … 画像撮像時における画像処理装置100の方角
画像撮像時における画像処理装置100の傾き、方角、は何れも、計測部106に含まれている重力センサ、廃炉センサ、電子コンパスなどを用いて測定されたものである。なお、このような表示情報テーブルへの情報登録は、演算部101の計算能力や外部記憶部109の容量に余裕が有る場合には、画像撮像にかかわらずに定期的に行うようにしても構わない。
Display information ID: ID unique to the display screen displayed on the display unit 102 at the time of image capturing
Display date and time: Save date and time of screen shot of display screen displayed on display unit 102 at the time of image capture Screen shot ... File name of screen shot of display screen displayed on display unit 102 at the time of image capture (may be a path name)
Luminance: Brightness of backlight of display unit 102 at the time of image capture Average color: Average color of screen shot of display screen displayed on display unit 102 at the time of image capture Inclination ... Inclination direction of image processing apparatus 100 at the time of image capture ... Direction of the image processing apparatus 100 at the time of image capturing The inclination and direction of the image processing apparatus 100 at the time of image capturing are both measured using a gravity sensor, a decommissioning sensor, an electronic compass, and the like included in the measurement unit 106. It is a thing. It should be noted that such information registration in the display information table may be periodically performed regardless of image capturing when there is a surplus in the calculation capability of the calculation unit 101 and the capacity of the external storage unit 109. Absent.

然るにステップS405では演算部101は、図3(A)の表示情報テーブルにおいて、ステップS401における画像撮像の撮像日時に最も近い表示日時の行に登録されている「スクリーンショット」の値(ファイル名)、「輝度」の値を取得する。そして演算部101は、画像撮像のたびに(若しくは定期的に)外部記憶部109に記録されるスクリーンショットのうち、該取得したファイル名に対応するスクリーンショットを外部記憶部109から読み出す。   However, in step S405, the calculation unit 101 sets the value (file name) of “screen shot” registered in the row of the display date and time closest to the imaging date and time of image capturing in step S401 in the display information table of FIG. , To obtain the value of “luminance”. Then, the calculation unit 101 reads a screen shot corresponding to the acquired file name from the external storage unit 109 out of the screen shots recorded in the external storage unit 109 each time an image is captured (or periodically).

<ステップS406>
演算部101は、ステップS404で求めた相対角度θ及び相対位置Dを用いて、ユーザの顔に対する「表示部102に表示されている表示画面からの光の影響」の度合い(影響度)を推定する。例えば、ステップS405で取得したバックライトの輝度をPとすると、影響度(P,θ,D)を以下の式によって求めることができる。
<Step S406>
The calculation unit 101 uses the relative angle θ and the relative position D obtained in step S404 to estimate the degree (influence level) of “the influence of light from the display screen displayed on the display unit 102” on the user's face. To do. For example, assuming that the backlight brightness acquired in step S405 is P, the degree of influence (P, θ, D) can be obtained by the following equation.

F(P,θ,D)=P×cosθ/D
更に演算部101は、スクリーンショットの色特性を分析する。例えば、スクリーンショットの全画素のR成分の平均輝度値(若しくは中間値)、G成分の平均輝度値(若しくは中間値)、B成分の平均輝度値(若しくは中間値)を、スクリーンショットの色特性として収集する。すなわち、ステップS401での画像撮像時における表示部102における発光色の偏りを表すものを収集する。
F (P, θ, D) = P × cos θ / D 2
Further, the calculation unit 101 analyzes the color characteristics of the screen shot. For example, the average luminance value (or intermediate value) of the R component of all the pixels of the screen shot, the average luminance value (or intermediate value) of the G component, and the average luminance value (or intermediate value) of the B component are used as the color characteristics of the screenshot. Collect as. That is, the information representing the deviation of the emission color in the display unit 102 at the time of image capturing in step S401 is collected.

図2(B)の左側に示す如く、R,G,Bのうち赤成分(R)及び青成分(B)が緑成分(G)よりも比較的強い色特性207を有する表示画面206が表示部102に表示されているとする。このような色特性207を有する表示画面206を表示中の表示部102からは、該色特性207を有する光が発せられる。そのため、色特性207を有する表示画面206を表示中の表示部102を暗所にて閲覧しているユーザ202を撮影部103が撮像した撮像画像208の色特性209は、色特性207と同様、R,G,BのうちR及びBが比較的Gよりも強い色特性となる。   As shown on the left side of FIG. 2B, a display screen 206 having a color characteristic 207 in which the red component (R) and the blue component (B) of R, G, and B are relatively stronger than the green component (G) is displayed. It is assumed that it is displayed on the part 102. Light having the color characteristic 207 is emitted from the display unit 102 displaying the display screen 206 having such a color characteristic 207. Therefore, the color characteristic 209 of the captured image 208 captured by the imaging unit 103 of the user 202 viewing the display unit 102 displaying the display screen 206 having the color characteristic 207 in a dark place is the same as the color characteristic 207. Among R, G, and B, R and B have relatively stronger color characteristics than G.

また、図2(B)の右側に示す如く、R,G,BのうちBがR,Gよりも比較的強い色特性211を有する表示画面210が表示部102に表示されているとする。このような色特性211を有する表示画面210を表示中の表示部102からは、該色特性211を有する光が発せられる。そのため、色特性211を有する表示画面210を表示中の表示部102を暗所にて閲覧しているユーザ202を撮影部103が撮像した撮像画像212の色特性213は、色特性211と同様、R,G,BのうちBがR,Gよりも比較的強い色特性となっている。   Further, as shown on the right side of FIG. 2B, it is assumed that a display screen 210 having a color characteristic 211 in which B of R, G, and B is relatively stronger than R and G is displayed on the display unit 102. Light having the color characteristic 211 is emitted from the display unit 102 that is displaying the display screen 210 having such a color characteristic 211. Therefore, the color characteristic 213 of the captured image 212 obtained by the imaging unit 103 capturing the user 202 viewing the display unit 102 displaying the display screen 210 having the color characteristic 211 in a dark place is the same as the color characteristic 211. Among R, G, and B, B has relatively stronger color characteristics than R and G.

本実施形態では、撮像画像の撮像時に表示部102に表示されていた表示画面の色特性に応じた影響を補正するので、本ステップでは、撮像画像の撮像時に表示部102に表示されていた表示画面のスクリーンショットの色特性を取得する。   In this embodiment, since the influence according to the color characteristic of the display screen displayed on the display unit 102 when the captured image is captured is corrected, in this step, the display displayed on the display unit 102 when the captured image is captured. Get screen shot color characteristics.

<ステップS407>
演算部101は、ステップS406において取得した表示画面の色特性による影響を相殺する色補正を行う色補正マップデータAを取得(生成)する。例えば、ステップS406において取得した色特性が(R1,G1,B1)である場合には、色補正マップデータAとして(1/R1,1/G1,1/B1)を生成する。この色補正マップデータAは、補正対象の画像の各画素について、該画素のRの画素値に1/R1を乗じ、該画素のGの画素値に1/G1を乗じ、該画素のBの画素値に1/B1を乗じることで該画素の画素値を補正するためのものである。なお、色補正マップデータAの生成方法は特定の生成方法に限るものではなく、撮像画像に現れる「ステップS406において取得した表示画面の色特性による影響」を相殺する色補正を行うものを生成するのであれば、如何なる生成方法を採用しても構わない。
<Step S407>
The calculation unit 101 acquires (generates) color correction map data A for performing color correction that cancels the influence of the color characteristics of the display screen acquired in step S406. For example, when the color characteristic acquired in step S406 is (R1, G1, B1), (1 / R1, 1 / G1, 1 / B1) is generated as the color correction map data A. For each pixel of the image to be corrected, this color correction map data A multiplies the R pixel value of the pixel by 1 / R1, multiplies the G pixel value of the pixel by 1 / G1, and This is for correcting the pixel value of the pixel by multiplying the pixel value by 1 / B1. Note that the generation method of the color correction map data A is not limited to a specific generation method, and a method for generating a color correction that cancels out “the influence of the color characteristic of the display screen acquired in step S406” that appears in the captured image is generated. If so, any generation method may be employed.

図2(C)では、色特性207を有する表示画面206を表示中の表示部102を暗所にて閲覧しているユーザ202の撮像画像208の色特性209に対する色特性207の影響を相殺するための色補正マップデータA214を生成している。このような色補正マップデータA214を撮像画像208に適用することで、白色光源下相当の色特性216を有する撮像画像215を得ることができる。なお、図2(C)の場合、撮像画像に対する外部光源201からの光の影響については考慮されていない。そこで本ステップでは更に、演算部101は、撮像画像に対する外部光源からの光の影響を補正するための色補正マップデータBを取得(生成)する。色補正マップデータBの生成方法については、例えば、環境光推定等を用いた周知の技術を用いる方法がある。   In FIG. 2C, the influence of the color characteristic 207 on the color characteristic 209 of the captured image 208 of the user 202 viewing the display unit 102 displaying the display screen 206 having the color characteristic 207 in a dark place is offset. The color correction map data A214 for this is generated. By applying such color correction map data A214 to the captured image 208, a captured image 215 having a color characteristic 216 equivalent to that under a white light source can be obtained. In the case of FIG. 2C, the influence of light from the external light source 201 on the captured image is not considered. Therefore, in this step, the calculation unit 101 further acquires (generates) color correction map data B for correcting the influence of the light from the external light source on the captured image. As a method for generating the color correction map data B, for example, there is a method using a known technique using ambient light estimation or the like.

そして演算部101は、色補正マップデータAと色補正マップデータBとを、影響度Fに応じた比率でもって合成して合成色補正マップデータを生成する。例えば、影響度Fを100で除して0〜1の値に正規化した場合に、合成色補正マップデータ=(1−F)×色補正マップデータA+F×色補正マップデータBとして生成することができる。このような合成色補正マップデータは、図2(C)に示す如く、外部光源201及び表示画面206による色偏りを補正し、白色光源下の色合いに補正するための色補正マップデータとなる。以降では、合成色補正マップデータを単に色補正マップデータと呼称する場合がある。   Then, the calculation unit 101 synthesizes the color correction map data A and the color correction map data B at a ratio corresponding to the degree of influence F to generate combined color correction map data. For example, when the influence F is divided by 100 and normalized to a value of 0 to 1, it is generated as composite color correction map data = (1−F) × color correction map data A + F × color correction map data B. Can do. Such composite color correction map data is color correction map data for correcting a color deviation caused by the external light source 201 and the display screen 206 and correcting the color under the white light source, as shown in FIG. Hereinafter, the composite color correction map data may be simply referred to as color correction map data.

<ステップS408>
演算部101は、ステップS401で得た撮像画像を合成色補正マップデータを用いて色補正を行った補正済み撮像画像の階調特性を、基準階調特性に補正するための階調補正マップデータ(階調補正情報)を生成する。被写体が明確に限定できる場合には、顔領域において目・鼻・頬といった部位で複数枚の撮像画像間で一致する階調特性を持つように、部位毎に階調補正マップを作成してもよい。
<Step S408>
The calculation unit 101 performs gradation correction map data for correcting the gradation characteristics of the corrected captured image obtained by performing color correction on the captured image obtained in step S401 using the composite color correction map data to reference gradation characteristics. (Tone correction information) is generated. If the subject can be clearly defined, a tone correction map may be created for each part so that the face area has a tone characteristic that matches between the plurality of captured images at the part such as the eyes, nose, and cheeks. Good.

図2(D)の場合、ステップS401で得た撮像画像を合成色補正マップデータを用いて色補正を行った補正済み撮像画像225の階調特性217を、階調補正基準画像218と同等の階調特性に補正するための階調補正マップデータ219を生成する。撮像画像225は、撮像画像215と同じ画像である。階調補正基準画像とは、任意の被写体について、白色光源下における階調及び色合いの基準となる画像であり、屋外における撮像画像等を用いる。撮像画像225の階調特性217を階調補正マップデータ219を用いて補正することで、白色光源下相当の階調特性221を有する撮像画像220が得られる。   In the case of FIG. 2D, the gradation characteristic 217 of the corrected captured image 225 obtained by performing color correction on the captured image obtained in step S401 using the composite color correction map data is equivalent to the gradation correction reference image 218. Tone correction map data 219 for correcting the tone characteristics is generated. The captured image 225 is the same image as the captured image 215. The gradation correction reference image is an image that serves as a reference for gradation and hue under a white light source for an arbitrary subject, and uses an image taken outdoors. By correcting the gradation characteristic 217 of the captured image 225 using the gradation correction map data 219, the captured image 220 having the gradation characteristic 221 equivalent to that under the white light source is obtained.

なお、色や階調の補正対象は、画像全体でも良いし、画像中の被写体でも良い。画像全体に対しては光源推定及び被写体検知などにより、固定のプリセットから適切な階調補正マップを取得する。一方で、顔や身体等、予め被写体を限定できる場合(健康管理・美肌管理等)には、顔検知機能等を用いて領域を絞って、領域毎に適切な階調補正を行う。   Note that the color and gradation correction target may be the entire image or the subject in the image. For the entire image, an appropriate gradation correction map is acquired from a fixed preset by light source estimation and subject detection. On the other hand, when the subject can be limited in advance, such as the face and body (health management, skin care management, etc.), the area is narrowed down using a face detection function or the like, and appropriate gradation correction is performed for each area.

なお、以上説明したステップS407,S408の処理は、S403→S404→S405→S406→S407→S408と処理が進んだ場合におけるものである。S403→S407→S408と処理が進んだ場合、ステップS407,S408ではそれぞれ、従来通りの色補正用の補正マップデータ、階調補正用の補正マップデータを取得する。   Note that the processing in steps S407 and S408 described above is performed when the processing proceeds from S403 → S404 → S405 → S406 → S407 → S408. When the process proceeds from S403 to S407 to S408, the conventional correction map data for color correction and correction map data for gradation correction are acquired in steps S407 and S408, respectively.

ここで、上記のようなステップS408の処理を行うためには、階調補正基準画像を取得する必要がある。そのために演算部101は、図3(B)に例示するテーブルを参照する。   Here, in order to perform the process of step S408 as described above, it is necessary to acquire a gradation correction reference image. Therefore, the arithmetic unit 101 refers to the table illustrated in FIG.

「補正被写体ID」は、階調補正基準画像に含まれている被写体に固有のIDである。「作成日時」は、階調補正基準画像の作成日時である。「階調補正基準画像ファイル」は、階調補正基準画像のファイル名(パス名でも良い)である。「属性ラベル」は、階調補正基準画像に含まれている被写体に対して割り当てられているラベルである。然るにステップS408では、ステップS401で取得した撮像画像中の被写体のIDと同じ補正被写体IDと同じ行の「階調補正基準画像のファイル名」を取得し、該取得したファイル名の階調補正基準画像を取得する。   The “corrected subject ID” is an ID unique to the subject included in the gradation correction reference image. “Creation date / time” is the creation date / time of the gradation correction reference image. The “gradation correction reference image file” is a file name (or a path name) of the gradation correction reference image. The “attribute label” is a label assigned to the subject included in the gradation correction reference image. However, in step S408, a “gradation correction reference image file name” in the same row as the correction subject ID same as the subject ID in the captured image acquired in step S401 is acquired, and the gradation correction reference of the acquired file name is acquired. Get an image.

<ステップS409>
ステップS408において使用する階調補正基準画像は常に入手可能であるとは限らない。例えば、白色光源下かつ十分な照度で撮像した階調補正基準画像(「被写体の照度が閾値(200ルクス等)を上回る」、「輝度値分布非白飛び・非黒つぶれ面積が全体の80%以上である」等の基準を満たす画像)がまだ存在しない場合などが該当する。そのため、演算部101は、ステップS409で階調補正基準画像が取得できたことで階調補正マップデータの取得に成功したか否かを判断する。この判断の結果、階調補正基準画像が取得できたことで階調補正マップデータの取得に成功した場合には、処理はステップS411に進む。一方、階調補正基準画像が取得できなかったことで階調補正マップデータの取得に失敗した場合には、処理はステップS410に進む。
<Step S409>
The gradation correction reference image used in step S408 is not always available. For example, a gradation correction reference image captured under a white light source and with sufficient illuminance (“the illuminance of the subject exceeds a threshold (200 lux, etc.)”, “the brightness value distribution non-whiteout / non-blackout area is 80% of the whole This corresponds to a case where there is no image that satisfies the criteria such as “the above”. Therefore, the calculation unit 101 determines whether the gradation correction map data has been successfully acquired because the gradation correction reference image has been acquired in step S409. As a result of this determination, when the gradation correction reference image has been acquired and the gradation correction map data has been successfully acquired, the process proceeds to step S411. On the other hand, if acquisition of the gradation correction map data fails because the gradation correction reference image cannot be acquired, the process proceeds to step S410.

<ステップS410>
先ず、演算部101は、過去に撮像された複数枚の撮像画像(ステップS401で取得した撮像画像と同じ被写体を含む)を外部記憶部109から取得する。そして演算部101は、取得したそれぞれの撮像画像について、上記のようにして色補正マップデータAを生成し、該撮像画像を該生成した色補正マップデータAを用いて補正する。そして演算部101は、補正したそれぞれの撮像画像の平均画像(画素ごとに、それぞれの撮像画像の画素値の平均画素値を有する)を、階調補正基準画像として生成する。補正したそれぞれの撮像画像には、照度不足によって被写体の各部位に黒つぶれ・白つぶれ等の情報損失が起こる。これらを補うため、このような平均画像を生成する。なお、平均画像の代わりに中間画像(画素ごとに、それぞれの撮像画像の画素値の中央値を有する)を生成しても良い。そして演算部101は、該生成した階調補正基準画像を用いて上記のようにして階調補正マップデータを生成する。
<Step S410>
First, the calculation unit 101 acquires, from the external storage unit 109, a plurality of captured images captured in the past (including the same subject as the captured image acquired in step S401). The calculation unit 101 generates the color correction map data A for each acquired captured image as described above, and corrects the captured image using the generated color correction map data A. Then, the calculation unit 101 generates the corrected average image of each captured image (having the average pixel value of the pixel value of each captured image for each pixel) as the gradation correction reference image. In each of the corrected captured images, information loss such as blackout or whiteout occurs in each part of the subject due to insufficient illuminance. In order to compensate for these, such an average image is generated. Instead of the average image, an intermediate image (having the median pixel value of each captured image for each pixel) may be generated. Then, the calculation unit 101 generates gradation correction map data as described above using the generated gradation correction reference image.

<ステップS411>
演算部101は、ステップS401で取得した撮像画像に対して、ステップS407で求めた色補正マップデータを用いた色補正を行うことで、色補正済み撮像画像を生成する。そして更に演算部101は、色補正済み撮像画像に対して、ステップS408若しくはステップS410で求めた階調補正マップデータを用いた階調補正を行うことで、階調補正済み撮像画像を生成する。
<Step S411>
The calculation unit 101 generates a color-corrected captured image by performing color correction using the color correction map data obtained in step S407 on the captured image acquired in step S401. Further, the calculation unit 101 performs gradation correction using the gradation correction map data obtained in step S408 or step S410 on the color-corrected captured image, thereby generating a gradation-corrected captured image.

なお、演算部101は、上記の処理の過程で、図3(C)、(D)のテーブルを作成、更新している。   Note that the arithmetic unit 101 creates and updates the tables shown in FIGS. 3C and 3D in the course of the above processing.

図3(C)のテーブルにおいて、「補正前画像ファイル名」は、撮像画像のファイル名である。「撮影日時」は、該撮像画像の撮像日時である。「対応表示情報ID」は、該撮像画像の撮像時に表示部102に表示されていた表示画面(スクリーンショット)に固有のIDである。「光源相対位置」は、ステップS402で測定された、画像処理装置100に対する外部光源の相対位置である。「光源強度」は、ステップS402で測定された、外部光源の光の強度(照度)である。「光源拡散値」は、ステップS402で測定された、外部光源の光の拡散値である。「光源環境値」は、ステップS402で測定された、外部光源の光の環境値である。   In the table of FIG. 3C, “pre-correction image file name” is the file name of the captured image. “Shooting date / time” is the shooting date / time of the captured image. The “corresponding display information ID” is an ID unique to the display screen (screen shot) displayed on the display unit 102 when the captured image is captured. The “light source relative position” is a relative position of the external light source with respect to the image processing apparatus 100 measured in step S402. “Light source intensity” is the light intensity (illuminance) of the external light source measured in step S402. The “light source diffusion value” is the light diffusion value of the external light source measured in step S402. The “light source environmental value” is the environmental value of the light of the external light source measured in step S402.

図3(D)のテーブルにおいて、「補正前画像ファイル名」は、撮像画像のファイル名である。「補正被写体ID」は、撮像画像に含まれている被写体に固有のIDである。「画像領域内座標」は、撮像画像内で被写体の領域(矩形領域)の中心若しくは4隅の何れかの座標と幅及び高さである。「回転」は、撮像画像に対する被写体の領域の回転角度である。「抽出ファイル名」は、撮像画像において画像補正を行った領域について別途保存する際のファイル名であり、簡便に健康管理等の分析処理を行うために保存するファイルのファイル名である。   In the table of FIG. 3D, “pre-correction image file name” is the file name of the captured image. The “corrected subject ID” is an ID unique to the subject included in the captured image. “Image area coordinates” are the coordinates, width, and height of the center or four corners of the object area (rectangular area) in the captured image. “Rotation” is the rotation angle of the subject area with respect to the captured image. The “extracted file name” is a file name when separately storing a region where image correction has been performed on the captured image, and is a file name of a file to be stored for simple analysis processing such as health management.

ところで、ステップS410において、階調補正基準画像を逐次更新する例を上記に挙げたが、更新された場合には、補正済の画像を遡って再補正するとよい。こうすることによって、階調補正基準画像が不足する被写体に対しても、全ての撮影画像を均一に補正できる。逐次遡って補正する処理が高負荷になる場合には、画像処理装置100が低負荷である状況にまとめて補正するとよい。   By the way, although the example in which the gradation correction reference image is sequentially updated in step S410 has been described above, when it is updated, the corrected image may be recorrected retroactively. In this way, all captured images can be corrected uniformly even for a subject that lacks the gradation correction reference image. In the case where the processing of correcting retroactively becomes a high load, the image processing apparatus 100 may be corrected together in a situation where the load is low.

なお、表示部の変化以外に、画角外の外部光源の明滅がある場合においても、撮像画像に対応する光源パラメータが適切に取得できていれば上記の処理を適用可能である。さらに、スクリーンショットを用いる以外にも、描画ハードウェア(ディスプレイコントローラ、GPU等)またはオペレーティングシステムが持つ描画バッファを用いることでも同様の効果が得られる。ところで、表示部102に表示する画面と、表示部102となる発光デバイスと、の間には、色および階調特性等が異なる場合がある。この問題を解決するために、色・階調プロファイルを用意し、色と階調の変換を行って補正を行うとよい。なお、階調補正マップデータによる補正だけでは白飛び、黒つぶれが発生し、所望の階調を得られない場合がある。この場合には、階調補正マップデータに加えて、撮影部103に対してカメラの絞り値、シャッタースピード、ISO感度などの露光条件を加えることによって所望の階調が得るように撮影を行うとよい。なお、上記では、撮像画像は非圧縮画像であったが、圧縮による劣化が許容される場合には、JPEG画像等の圧縮画像であっても構わない。また、上記では、画像処理装置100が有する表示部の数が1であったが、複数であっても構わない。その場合、それぞれの表示部102におけるスクリーンショットの色特性を合成したものを用いて色補正マップデータAを生成すればよい。   In addition to the change in the display unit, even when there is blinking of an external light source outside the angle of view, the above processing can be applied if the light source parameter corresponding to the captured image can be acquired appropriately. Furthermore, in addition to using a screen shot, the same effect can be obtained by using drawing hardware (display controller, GPU, etc.) or a drawing buffer of an operating system. By the way, there are cases where colors, gradation characteristics, and the like are different between the screen displayed on the display unit 102 and the light-emitting device serving as the display unit 102. In order to solve this problem, it is preferable to prepare a color / gradation profile and perform correction by converting the color and gradation. It should be noted that there are cases in which a desired gradation is not obtained due to occurrence of overexposure and blackout due to only correction using gradation correction map data. In this case, when shooting is performed so that a desired gradation is obtained by adding exposure conditions such as a camera aperture value, shutter speed, and ISO sensitivity to the photographing unit 103 in addition to the gradation correction map data. Good. In the above description, the captured image is an uncompressed image, but may be a compressed image such as a JPEG image if deterioration due to compression is allowed. In the above description, the number of display units included in the image processing apparatus 100 is one, but a plurality of display units may be provided. In this case, the color correction map data A may be generated using a combination of screen shot color characteristics in each display unit 102.

このように、本実施形態によれば、例えば、暗所等において、人物による操作等によって表示が変化するディスプレイのような発光デバイス下における撮影においても、色合いと階調を複数枚の撮影画像に対して均一に補正できる。そのため、補正した撮影画像を用いた被写体検索や、健康管理、美容管理等の分析の精度を高めることができる。なお、上記の例ではスマートフォン等、カメラとディスプレイが一体化した装置の例を挙げたが、撮影部と表示部がネットワーク回線等を介して同一システム内に存在し、互いに発光と撮影で干渉する構成であればこれに限定されない。例えば、デジタルサイネージの近傍に設置された監視カメラによる撮影において、被写体画像を用いた人物検索を行う場合に、本実施形態を適用することによって、同一被写体の複数枚の画像がいずれも白色光源下相当に補正される。そのため、服装の色を検索条件に用いた検索を正確に行えるようになる。また、低照度の室内におけるプロジェクタとカメラを用いた遠隔会議システム、コミュニケーション用システム等が挙げられる。発光するディスプレイの方向を見る人物をカメラで捉える構成は、スマートフォンと同様であるため、本実施形態の例と同様に適用可能である。再生される映像が均一な色、階調に補正されることによって、映像視聴者にとって視認性が高まる効果がある。   As described above, according to the present embodiment, for example, even in shooting in a dark place or the like under a light emitting device such as a display whose display changes due to an operation by a person, the color and gradation are converted into a plurality of shot images. On the other hand, it can be corrected uniformly. Therefore, it is possible to improve the accuracy of analysis such as subject search using the corrected photographed image, health management, and beauty management. In the above example, an example of a device such as a smartphone in which a camera and a display are integrated has been described. However, the photographing unit and the display unit exist in the same system via a network line or the like, and interfere with each other in light emission and photographing. If it is a structure, it will not be limited to this. For example, when performing a person search using a subject image in shooting with a surveillance camera installed in the vicinity of digital signage, by applying this embodiment, a plurality of images of the same subject are all under a white light source. It is corrected considerably. Therefore, it is possible to accurately perform a search using clothes color as a search condition. In addition, a remote conference system using a projector and a camera in a low illuminance room, a communication system, and the like can be given. Since the configuration in which the person who sees the direction of the display that emits light is captured by the camera is the same as that of the smartphone, it can be applied in the same manner as the example of the present embodiment. By correcting the reproduced video to have a uniform color and gradation, there is an effect of improving visibility for the video viewer.

[第2の実施形態]
第1の実施形態に係る画像処理装置100の構成において、撮影部103と画像処理装置100とがネットワークを介して互いに離れた場所に設置されているような構成を考える。この場合、ネットワーク経路の状況や様々な処理の負荷等によって、撮影部103による撮像画像が画像処理装置100に転送されて保存されるまでに通常よりも多くの時間を要するようなケースが発生しうる。このようなケースが発生した場合、撮像画像は、実際に撮像した時刻よりもΔt(>0)だけ後の撮像時刻の撮像画像として画像処理装置100に登録される。然るに、時刻tにおいて表示部102に表示した表示画面による光の影響を受けた被写体の撮像画像の撮像時刻は(t+Δt)となってしまい、このような撮像画像及び表示画面のスクリーンショットを用いて生成した補正マップデータは適切なものではない。そこで本実施形態では、このようなケースの場合には、撮像画像に表示部102の表示画面が含まれている場合には、この表示画面のスクリーンショットを、既に記録したスクリーンショットから抽出して、色補正マップデータの生成に用いる。
[Second Embodiment]
In the configuration of the image processing apparatus 100 according to the first embodiment, a configuration in which the photographing unit 103 and the image processing apparatus 100 are installed at locations separated from each other via a network is considered. In this case, depending on the status of the network path, various processing loads, etc., a case may occur in which it takes more time than usual for the captured image by the imaging unit 103 to be transferred to the image processing apparatus 100 and stored. sell. When such a case occurs, the captured image is registered in the image processing apparatus 100 as a captured image at an imaging time that is Δt (> 0) after the actual imaging time. However, the imaging time of the captured image of the subject affected by the light on the display screen displayed on the display unit 102 at time t is (t + Δt), and the captured image and the screen shot of the display screen are used. The generated correction map data is not appropriate. Therefore, in this embodiment, in such a case, when the captured image includes the display screen of the display unit 102, a screen shot of the display screen is extracted from the already recorded screen shot. Used to generate color correction map data.

以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。   In the following, differences from the first embodiment will be described mainly, and unless otherwise noted, the same as the first embodiment.

次に、暗所にてユーザ(被写体)が表示部102を閲覧している状態で撮影部103が撮像した該ユーザの撮像画像を、表示部102からの光や外界の光源(外部光源)からの光等を考慮して補正する一連の処理について図5のフローチャートに従って説明する。   Next, the user's (subject) viewing the display unit 102 in a dark place, the user's captured image captured by the imaging unit 103 is transmitted from the light from the display unit 102 or an external light source (external light source). A series of processing for correction in consideration of the light and the like will be described with reference to the flowchart of FIG.

ステップS501〜S504、S509〜S513はそれぞれ、図4のステップS401〜S403,S405,S407〜S411と同様であるため、これらのステップに係る説明は省略する。   Steps S501 to S504 and S509 to S513 are the same as steps S401 to S403, S405, and S407 to S411 in FIG.

<ステップS505>
演算部101は、ステップS501で得た撮像画像中に写っている被写体を識別する。
<Step S505>
The calculation unit 101 identifies the subject that is shown in the captured image obtained in step S501.

<ステップS506>
演算部101は、表示部102の表示画面の一部若しくは全部が含まれているか否かを判断する。この判断は、例えば、表示部102の表示面の枠部など、表示部102において画面を表示する面を認識するための特徴量を予め保持しておき、撮像画像にこの特徴量が存在するか否かを判断することで行う。他にも、例えば、表示面を認識するために表示部102に空間マーカを取り付けてこれを認識する方法や、撮像画像からの輪郭抽出や明滅変化を用いた領域分割等を用いても良い。もちろん、ステップS506における判断処理を実現するための技術はこれに限るものではない。
<Step S506>
The calculation unit 101 determines whether a part or all of the display screen of the display unit 102 is included. For this determination, for example, a feature amount for recognizing a surface on which the screen is displayed on the display unit 102 such as a frame portion of the display surface of the display unit 102 is held in advance, and whether the feature amount exists in the captured image. This is done by judging whether or not. In addition, for example, a method of attaching a space marker to the display unit 102 for recognizing the display surface and recognizing the display surface, extracting a contour from a captured image, or dividing an area using a blinking change may be used. Of course, the technique for realizing the determination process in step S506 is not limited to this.

この判断の結果、撮像画像中に、表示部102の表示画面の一部若しくは全部が含まれている場合には、処理はステップS507に進み、含まれていない場合には、処理はステップS508に進む。   As a result of the determination, if the captured image includes a part or all of the display screen of the display unit 102, the process proceeds to step S507. If not, the process proceeds to step S508. move on.

<ステップS507>
演算部101は、ステップS401で取得した撮像画像の撮像日時から規定量だけ過去の日時に作成されて外部記憶部109に記録されたスクリーンショットを、外部記憶部109に既に記録されているスクリーンショットから選択する。この規定量については、例えば、表示画面に明滅変化を起こさせながら複数枚の撮影を試行し、実際の明滅変化のタイミングと、それが撮像されているタイミングと、のずれを上記の規定量として求めて外部記憶部109に保存しておく。
<Step S507>
The calculation unit 101 creates a screen shot that has been created in the past date and time and recorded in the external storage unit 109 from the shooting date and time of the captured image acquired in step S401 and has already been recorded in the external storage unit 109. Select from. For this specified amount, for example, a plurality of images are shot while causing a blinking change on the display screen, and the difference between the actual blinking change timing and the timing at which it is imaged is defined as the above prescribed amount. It is obtained and stored in the external storage unit 109.

<ステップS508>
演算部101は、S506→S507と処理が進んだ場合には、ステップS507で選択したスクリーンショットを用いて、上記のステップS404及びステップS406の処理を行う。一方、演算部101は、S506→S508と処理が進んだ場合には、ステップS504で選択したスクリーンショットを用いて、上記のステップS404及びステップS406の処理を行う。これにより、明滅の増幅(ハウリング)を防止することもできる。例えば、プロジェクタを用いた会議システム等において、相互に明滅変換が伝搬してしまい、視認性が下がる問題を解決できる。
<Step S508>
When the process proceeds from S506 to S507, the calculation unit 101 performs the processes of steps S404 and S406 using the screen shot selected in step S507. On the other hand, when the process proceeds from S506 to S508, the calculation unit 101 performs the processes of steps S404 and S406 using the screen shot selected in step S504. Thereby, the amplification (howling) of blinking can also be prevented. For example, in a conference system using a projector, the problem that the blinking conversion propagates to each other and the visibility is lowered can be solved.

上記の例では、タイミングの修正について述べたが、これ以外にも、表示画面の輝度変化と実際の表示部の明滅変化による照度変化を計測することによって、階調補正の精度を高める処理を行っても良い。更に、表示部、被写体、撮影部の相対位置を取得した結果、補正対象被写体が逆光時になることが判明した場合においては、撮影画像内の補正対象被写体の領域のみに色補正、階調補正、および露光補正を適用する。こうすることによって、補正対象被写体を適切な露出で撮影した撮影画像を得られる。   In the above example, timing correction was described, but in addition to this, a process for improving the accuracy of gradation correction is performed by measuring the illuminance change due to the luminance change of the display screen and the blinking change of the actual display unit. May be. Furthermore, when it is determined that the subject to be corrected is backlit as a result of acquiring the relative positions of the display unit, the subject, and the photographing unit, only color correction, tone correction, And apply exposure correction. By doing so, it is possible to obtain a photographed image obtained by photographing the correction target subject with an appropriate exposure.

[第3の実施形態]
表示画面の時間軸方向の変化(表示内容、輝度、明度などの変化)が大きい期間が予め分かっている場合や、変化量が大きいと判断した時点で、撮影部103による画像撮像の間隔を短くして単位時間あたりの撮像枚数を増やしても良い。このようにして得た撮像画像を用いることで、暗いものから明るいものまで様々な照度条件の撮像画像が得られるため、それらを合成することによってダイナミックレンジの広い撮像画像を得られる。具体的には、表示情報のスクリーンショット、画面輝度、被写体との相対位置のいずれかの時間変化を差分値等によって定量化した上で、それが閾値以上になった場合に、撮影頻度を高めるとよい。そして、このようにして得られる合成撮像画像を用いて、図4や図5のフローチャートに従った処理を行う。
[Third Embodiment]
When the time period in which the change in the time axis direction of the display screen (change in display content, brightness, brightness, etc.) is large is known in advance, or when it is determined that the amount of change is large, the interval between image capturing by the photographing unit 103 is shortened. Thus, the number of images taken per unit time may be increased. By using the captured image obtained in this way, captured images with various illuminance conditions from dark to bright can be obtained. Therefore, by combining them, a captured image with a wide dynamic range can be obtained. Specifically, after quantifying the time change of the screen shot of the display information, screen brightness, or relative position with the subject using a difference value or the like, the frequency of shooting is increased when it exceeds a threshold value. Good. And the process according to the flowchart of FIG.4 and FIG.5 is performed using the composite picked-up image obtained in this way.

また、第1の実施形態では、ステップS410において複数枚の画像から階調補正マップデータを推定したが、階調補正基準画像の精度を高めるよう、表示画面の変化を誘導してもよい。これにより、階調補正基準画像の精度向上を促進させられる。具体的には、階調補正基準画像内の黒つぶれ面積過多の場合は照度が上がる表示画面を、白飛び面積過多の場合は照度が下がる表示画面を誘導するように画面変化を促す。具体的には、スマートフォン等において、実行中の複数アプリケーションのうち、階調補正基準画像取得のために適切な照度や利用者の姿勢が得られるアプリケーションを選定し、切り替えるよう利用者に推薦通知を行う。こうすることによって、表示画面の輝度が変化し、階調補正基準画像取得に適切な被写体の撮像画像を得ることができる。その結果、階調補正基準画像の推定精度を高めることに繋げられる。以上説明した実施形態や変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。   In the first embodiment, tone correction map data is estimated from a plurality of images in step S410. However, a change in the display screen may be induced so as to improve the accuracy of the tone correction reference image. Thereby, improvement in accuracy of the gradation correction reference image can be promoted. Specifically, a screen change is prompted so as to guide a display screen in which the illuminance increases when the blackout area is excessive in the gradation correction reference image, and a display screen in which the illuminance decreases when the overexposed area is excessive. Specifically, on a smartphone or the like, a recommendation notification is sent to the user to select and switch an application that can obtain an appropriate illuminance or user posture for acquiring the gradation correction reference image from a plurality of applications being executed. Do. By doing so, the brightness of the display screen changes, and a captured image of the subject suitable for obtaining the gradation correction reference image can be obtained. As a result, it is possible to improve the estimation accuracy of the gradation correction reference image. A part or all of the embodiments and modifications described above may be used in appropriate combination.

また、上記の実施形態や変形例によれば、暗所にてユーザが表示部を閲覧している状態において撮影部が撮像した該ユーザの撮像画像を、表示部からの光や外界の光源からの光などを考慮して白色光源下相当の画像に補正することができる。これにより、撮像画像を用いた被写体検索や、健康管理、美容管理等の分析の精度を高めることができる。   Further, according to the above-described embodiment and modification, the user's captured image captured by the imaging unit in a state where the user is browsing the display unit in a dark place can be obtained from light from the display unit or an external light source. Can be corrected to an image equivalent to that under a white light source. Thereby, the accuracy of analysis such as subject search using the captured image, health management, and beauty management can be improved.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:演算部 102:表示部   101: Calculation unit 102: Display unit

Claims (9)

画像処理装置であって、
被写体の撮像画像を取得する取得手段と、
前記撮像画像の撮像時に表示部に表示されていた画像の色特性に基づいて、該色特性を相殺する色補正を行うための色補正情報を生成する生成手段と、
前記色補正情報に基づいて前記撮像画像を補正する補正手段と
を備えることを特徴とする画像処理装置。
An image processing apparatus,
Acquisition means for acquiring a captured image of a subject;
Generating means for generating color correction information for performing color correction to cancel the color characteristics based on the color characteristics of the image displayed on the display unit at the time of capturing the captured image;
An image processing apparatus comprising: a correcting unit that corrects the captured image based on the color correction information.
更に、
前記撮像画像が規定量以上の光量の下で撮像されたか否かを判断する手段を備え、
前記生成手段及び前記補正手段は、前記撮像画像が規定量より少ない光量の下で撮像された場合に、それぞれ前記生成及び前記補正を行うことを特徴とする請求項1に記載の画像処理装置。
Furthermore,
Means for determining whether or not the captured image has been captured with a light amount equal to or greater than a specified amount;
The image processing apparatus according to claim 1, wherein the generation unit and the correction unit perform the generation and the correction, respectively, when the captured image is captured with a light amount less than a predetermined amount.
前記生成手段は更に、
前記色補正情報を、前記撮像画像に対する外部光源からの光の影響を補正するための色補正情報と合成することを特徴とする請求項1又は2に記載の画像処理装置。
The generating means further includes
The image processing apparatus according to claim 1, wherein the color correction information is combined with color correction information for correcting an influence of light from an external light source on the captured image.
前記生成手段は、
前記画像処理装置と前記被写体との間の相対位置と相対角度とに応じた比率でもって前記合成を行うことを特徴とする請求項3に記載の画像処理装置。
The generating means includes
The image processing apparatus according to claim 3, wherein the composition is performed at a ratio according to a relative position and a relative angle between the image processing apparatus and the subject.
更に、
前記撮像画像の階調特性を、白色光源下における階調及び色合いの基準となる画像である基準画像の階調特性に補正するための階調補正情報を生成する手段を備え、
前記補正手段は、前記色補正情報に基づいて前記撮像画像を補正し、該補正による撮像画像を、前記階調補正情報に基づいて補正することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
Furthermore,
Means for generating gradation correction information for correcting the gradation characteristics of the captured image to the gradation characteristics of a reference image that is an image serving as a reference for gradation and hue under a white light source;
The correction unit corrects the captured image based on the color correction information, and corrects the captured image based on the correction based on the gradation correction information. The image processing apparatus according to item.
更に、
過去の複数の撮像画像のそれぞれについて、対応する色補正情報を生成し、該撮像画像を該撮像画像に対して生成した色補正情報に基づいて補正し、該補正したそれぞれの撮像画像に基づいて前記基準画像を生成する手段を備えることを特徴とする請求項5に記載の画像処理装置。
Furthermore,
For each of a plurality of past captured images, corresponding color correction information is generated, the captured image is corrected based on the color correction information generated for the captured image, and based on the corrected captured images. The image processing apparatus according to claim 5, further comprising means for generating the reference image.
前記取得手段は前記被写体を撮像する撮像手段であり、前記表示部の画面を閲覧する被写体を撮像可能な位置に設けられていることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。   7. The acquisition unit according to claim 1, wherein the acquisition unit is an imaging unit that images the subject, and is provided at a position where the subject browsing the screen of the display unit can be imaged. Image processing apparatus. 画像処理装置が行う画像処理方法であって、
前記画像処理装置の取得手段が、被写体の撮像画像を取得する取得工程と、
前記画像処理装置の生成手段が、前記撮像画像の撮像時に表示部に表示されていた画像の色特性に基づいて、該色特性を相殺する色補正を行うための色補正情報を生成する生成工程と、
前記画像処理装置の補正手段が、前記色補正情報に基づいて前記撮像画像を補正する補正工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
An acquisition step in which an acquisition unit of the image processing apparatus acquires a captured image of a subject;
A generation step in which the generation unit of the image processing device generates color correction information for performing color correction that cancels the color characteristic based on the color characteristic of the image displayed on the display unit when the captured image is captured. When,
An image processing method comprising: a correction unit that corrects the captured image based on the color correction information.
コンピュータを、請求項1乃至7の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 7.
JP2015198794A 2015-10-06 2015-10-06 Image processor, image processing method Pending JP2017072945A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015198794A JP2017072945A (en) 2015-10-06 2015-10-06 Image processor, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015198794A JP2017072945A (en) 2015-10-06 2015-10-06 Image processor, image processing method

Publications (1)

Publication Number Publication Date
JP2017072945A true JP2017072945A (en) 2017-04-13

Family

ID=58537744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015198794A Pending JP2017072945A (en) 2015-10-06 2015-10-06 Image processor, image processing method

Country Status (1)

Country Link
JP (1) JP2017072945A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115278190A (en) * 2021-04-30 2022-11-01 卡莱特云科技股份有限公司 Calibration method, calibration equipment and calibration system for video data display colors
US11783472B2 (en) 2020-08-07 2023-10-10 Toyota Jidosha Kabushiki Kaisha Color tone correction system and color tone correction method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11783472B2 (en) 2020-08-07 2023-10-10 Toyota Jidosha Kabushiki Kaisha Color tone correction system and color tone correction method
CN115278190A (en) * 2021-04-30 2022-11-01 卡莱特云科技股份有限公司 Calibration method, calibration equipment and calibration system for video data display colors

Similar Documents

Publication Publication Date Title
CN107635101B (en) Shooting method, shooting device, storage medium and electronic equipment
CN107743197B (en) Screen light supplementing method and device and mobile terminal
JP6445844B2 (en) Imaging device and method performed in imaging device
US20190277624A1 (en) Information processing device, length measurement method, and program storage medium
CN105744175B (en) A kind of screen light compensation method, device and mobile terminal
US20130162864A1 (en) Capturing apparatus and method of capturing image
US8570403B2 (en) Face image replacement system and method implemented by portable electronic device
CN105450932B (en) Backlight photographic method and device
JP2015201839A (en) Image processing system and control method and program of the same
US9218681B2 (en) Image processing apparatus and image processing method
CN104811660A (en) Control apparatus and control method
CN110418069B (en) Light supplementing control method, mobile terminal and computer readable storage medium
WO2020237565A1 (en) Target tracking method and device, movable platform and storage medium
US11328439B2 (en) Information processing device, object measurement system, object measurement method, and program storage medium
US10058237B2 (en) Image processing device, image processing method, and program
US10547792B2 (en) Control device, control method, and program for controlling light intensities
US9256793B2 (en) Apparatus and method for extracting object image
WO2019045091A1 (en) Information processing device, counter system, counting method, and program storage medium
JP6525740B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND PROGRAM
JP2019135810A (en) Image processing apparatus, image processing method, and program
US11120533B2 (en) Information processing method and information processing apparatus
US20200027231A1 (en) Information processing device, information processing method, and program storage medium
CN111879414A (en) Infrared temperature measurement method and device, computer equipment and medium
US8090253B2 (en) Photographing control method and apparatus using strobe
JP2009288945A (en) Image display unit and image display method