JP2008140107A - Image processor, image processing method, control program, and recording medium - Google Patents

Image processor, image processing method, control program, and recording medium Download PDF

Info

Publication number
JP2008140107A
JP2008140107A JP2006325277A JP2006325277A JP2008140107A JP 2008140107 A JP2008140107 A JP 2008140107A JP 2006325277 A JP2006325277 A JP 2006325277A JP 2006325277 A JP2006325277 A JP 2006325277A JP 2008140107 A JP2008140107 A JP 2008140107A
Authority
JP
Japan
Prior art keywords
image
shadow
light source
face
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006325277A
Other languages
Japanese (ja)
Inventor
Takashi Hiuga
崇 日向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006325277A priority Critical patent/JP2008140107A/en
Publication of JP2008140107A publication Critical patent/JP2008140107A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a composite image having a more natural finish without troubling a user. <P>SOLUTION: This image processor includes detecting an object included in an image, detecting a light source direction with respect to the object or a shading direction as the direction of shading to be generated by the rays of light, and selects the image of an object having the same or approximate light source direction or shading direction, and executes image composition by using the selected image of the object. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、制御プログラム及び記録媒体に係り、特に人
物の顔などのオブジェクトを用いて画像合成を行うための画像処理装置、画像処理方法、
制御プログラム及び記録媒体に関する。
The present invention relates to an image processing apparatus, an image processing method, a control program, and a recording medium, and in particular, an image processing apparatus, an image processing method for performing image composition using an object such as a human face,
The present invention relates to a control program and a recording medium.

従来、複数の画像から人物の顔画像を切り取って、所定のテンプレートや装飾フレーム
と合成して合成画像を生成することで面白みのある写真プリントを提供する方法が知られ
ている。
例えば、特許文献1記載の技術においては、集合写真等の画像データに写されている人
物の顔画像を検出し、隣り合う人物の顔の間の距離を計測して、距離が近い者同士の顔画
像をグルーピングする。
そして得られたグループを合成位置に貼り付けて合成データを作成することで、一定の
関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡略に生成する
ことができるというのものである。
2. Description of the Related Art Conventionally, there has been known a method of providing an interesting photo print by cutting a human face image from a plurality of images and synthesizing it with a predetermined template or decoration frame to generate a composite image.
For example, in the technique described in Patent Document 1, a face image of a person captured in image data such as a group photo is detected, the distance between the faces of adjacent persons is measured, and the distance between persons close to each other is measured. Group face images.
Then, by pasting the obtained group at the composition position and creating composite data, it is possible to simply generate composite image data in which face images of persons having a certain relationship are arranged and arranged It is.

特開2006−121661号公報JP 2006-121661 A

しかしながら、上記従来技術において、人物の顔画像を切り出して合成画像を生成する
際に考慮されている点は、人物同士の家族や友人、カップルなどのグループを形成する関
係のみで、合成画像としての出来栄え、例えば、より自然な合成画像を生成するといった
観点はなかった。
したがって、あからさまに合成画像と分かる不自然な違和感のある仕上がりを有する写
真が得られてしまうという問題点があった。
そこで、本発明の目的は、ユーザの手間を煩わすことなく、より自然な仕上がりを有す
る合成画像を得ることが可能な画像処理装置、画像処理方法および制御プログラムを提供
することにある。
However, in the above-described prior art, the point that is taken into account when generating a composite image by cutting out a person's face image is only the relationship of forming a group such as a family, a friend, or a couple of persons. There was no point of view of performance, for example, generating a more natural composite image.
Therefore, there is a problem that a photograph having an unnatural and uncomfortable finish that can be clearly seen as a composite image is obtained.
Accordingly, an object of the present invention is to provide an image processing apparatus, an image processing method, and a control program capable of obtaining a composite image having a more natural finish without bothering the user.

上記課題を解決するため、画像処理装置は、画像に含まれるオブジェクトを検出するオ
ブジェクト検出部と、前記オブジェクトに対する光源方向あるいは光源からの光により生
じる陰影の方向である陰影方向を検出する方向検出部と、同一または近似の前記光源方向
あるいは前記陰影方向を有するオブジェクトの画像を選択するオブジェクト選択部と、前
記選択されたオブジェクトの画像を用いて画像合成を行う画像合成部と、を備えたことを
特徴としている。
上記構成によれば、オブジェクト検出部は、画像に含まれるオブジェクトを検出する。
方向検出部は、オブジェクトに対する光源方向あるいは光源からの光により生じる陰影
の方向である陰影方向を検出する。
これらの結果、オブジェクト選択部は、同一または近似の光源方向あるいは陰影方向を
有するオブジェクトの画像を選択し、画像合成部は、選択されたオブジェクトの画像を用
いて画像合成を行う。
したがって、合成される画像には、同一または近似の光源方向あるいは陰影方向を有す
るオブジェクトの画像だけが含まれることとなり、違和感の少ない合成画像を得ることが
できる。
In order to solve the above problems, an image processing apparatus includes an object detection unit that detects an object included in an image, and a direction detection unit that detects a shadow direction that is a direction of a light source with respect to the object or a shadow generated by light from the light source. An object selection unit that selects an image of an object having the same or approximate light source direction or shadow direction, and an image composition unit that performs image composition using the image of the selected object. It is a feature.
According to the above configuration, the object detection unit detects an object included in the image.
The direction detection unit detects a shadow direction that is a light source direction with respect to an object or a direction of a shadow generated by light from the light source.
As a result, the object selection unit selects an image of an object having the same or approximate light source direction or shadow direction, and the image composition unit performs image composition using the image of the selected object.
Therefore, the synthesized image includes only the image of the object having the same or approximate light source direction or shadow direction, and a synthesized image with less sense of incongruity can be obtained.

この場合において、前記画像合成部は、前記選択されたオブジェクトの画像を所定の背
景画像と合成するものであり、前記オブジェクト選択部は、前記背景画像と同一または近
似の前記光源方向あるいは前記陰影方向を有するオブジェクトの画像を選択するようにし
てもよい。
上記構成によれば、合成されるオブジェクトの画像及び背景画像が同一または近似の光
源方向(あるいは陰影方向)を有することとなり、鑑賞者にとって違和感の少ない合成画
像が得られる。
また、検出された前記オブジェクトと、前記光源方向あるいは前記陰影方向と、を対応
づけて記憶する顔画像選別処理テーブルを備え、前記オブジェクト選択部は、前記顔画像
選別処理テーブルを参照して、オブジェクトの画像を選択するようにしてもよい。
上記構成によれば、画像合成に際し、顔画像選別処理テーブルを参照することにより、
最適なオブジェクトを簡易かつ迅速に選択することができる。
In this case, the image synthesis unit is configured to synthesize the image of the selected object with a predetermined background image, and the object selection unit is the same or approximate to the light source direction or the shadow direction as the background image. You may make it select the image of the object which has.
According to the above configuration, the image of the object to be synthesized and the background image have the same or approximate light source direction (or shadow direction), and a synthesized image with less discomfort for the viewer can be obtained.
A face image selection processing table that stores the detected object and the light source direction or the shadow direction in association with each other, and the object selection unit refers to the face image selection processing table to The image may be selected.
According to the above configuration, by referring to the face image selection processing table at the time of image composition,
An optimal object can be selected easily and quickly.

さらに、前記方向検出部は、所定の光源方向あるいは所定の陰影方向における前記オブ
ジェクトの陰影の変化状態を表す陰影テンプレートを予め複数記憶し、前記オブジェクト
の画像に対し、前記陰影の変化状態がもっとも一致する陰影テンプレートに対応する前記
光源方向あるいは前記陰影方向を前記オブジェクトの画像の光源方向あるいは陰影方向と
することを特徴としている。
上記構成によれば、方向検出部は、少ない演算処理で、オブジェクトの画像の光源方向
あるいは陰影方向を確実に検出することができる。
さらにまた、前記オブジェクトは、顔であるようにしてもよい。
Further, the direction detection unit stores in advance a plurality of shadow templates representing the change state of the shadow of the object in a predetermined light source direction or a predetermined shadow direction, and the change state of the shadow most closely matches the image of the object. The light source direction or the shadow direction corresponding to the shadow template to be used is the light source direction or shadow direction of the image of the object.
According to the above configuration, the direction detection unit can reliably detect the light source direction or the shadow direction of the object image with a small amount of arithmetic processing.
Furthermore, the object may be a face.

また、画像処理方法は、画像に含まれるオブジェクトを検出するオブジェクト検出過程
と、前記オブジェクトに対する光源方向あるいは光源からの光により生じる陰影の方向で
ある陰影方向を検出する方向検出過程と、同一または近似の前記光源方向あるいは前記陰
影方向を有するオブジェクトの画像を選択するオブジェクト選択過程と、前記選択された
オブジェクトの画像を用いて画像合成を行う画像合成過程と、を備えるようにしてもよい

上記構成によれば、合成される画像には、同一または近似の光源方向あるいは陰影方向
を有するオブジェクトの画像だけが含まれることとなり、違和感の少ない合成画像を得る
ことができる。
Further, the image processing method is the same as or similar to an object detection process for detecting an object included in an image and a direction detection process for detecting a shadow direction that is a direction of a light source with respect to the object or a shadow generated by light from the light source. An object selection process for selecting an image of the object having the light source direction or the shadow direction, and an image synthesis process for performing image synthesis using the image of the selected object.
According to the above configuration, the synthesized image includes only the image of the object having the same or approximate light source direction or shadow direction, and a synthesized image with less sense of discomfort can be obtained.

また、入力された画像の処理を行う画像処理装置をコンピュータにより制御するための
制御プログラムにおいて、画像に含まれるオブジェクトを検出させ、前記オブジェクトに
対する光源方向あるいは光源からの光により生じる陰影の方向である陰影方向を検出させ
、同一または近似の前記光源方向あるいは前記陰影方向を有するオブジェクトの画像を選
択させ、前記選択させたオブジェクトの画像を用いて画像合成を行わせる、ことを特徴と
している。
上記構成によれば、合成される画像には、同一または近似の光源方向あるいは陰影方向
を有するオブジェクトの画像だけが含まれることとなり、違和感の少ない合成画像を得る
ことができる。
また、上記制御プログラムをコンピュータ読取可能な記録媒体に記録するようにしても
よい。
Further, in a control program for controlling an image processing apparatus that performs processing of an input image by a computer, an object included in the image is detected, and a light source direction with respect to the object or a direction of a shadow caused by light from the light source A shadow direction is detected, an image of an object having the same or approximate light source direction or the shadow direction is selected, and image composition is performed using the image of the selected object.
According to the above configuration, the synthesized image includes only the image of the object having the same or approximate light source direction or shadow direction, and a synthesized image with less sense of discomfort can be obtained.
The control program may be recorded on a computer-readable recording medium.

次に図面を参照して本発明の好適な実施の形態について説明する。
図1は、実施形態の画像処理装置の概要構成ブロック図である。
画像処理装置10は、画像処理装置全体を制御するCPU11と、画像処理プログラム
を含む各種制御プログラムを格納するROM12と、各種データを一時的に格納するRA
M13と、各種インタフェース動作を行うインタフェース部14と、を備え、CPU11
、ROM12、RAM13及びインタフェース部14は、バス15を介して互いに接続さ
れている。
Next, preferred embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration block diagram of an image processing apparatus according to an embodiment.
The image processing apparatus 10 includes a CPU 11 that controls the entire image processing apparatus, a ROM 12 that stores various control programs including an image processing program, and an RA that temporarily stores various data.
M13 and an interface unit 14 for performing various interface operations, and the CPU 11
The ROM 12, the RAM 13, and the interface unit 14 are connected to each other via a bus 15.

さらに、インタフェース部14には、ユーザが各種データを入力するためのキーボード
、マウス、画像をスキャンするためのスキャナ、画像を撮像するためのディジタルカメラ
、デジタルビデオなどの各種の入力装置16が接続されている。さらにインタフェース部
14には、ディスプレイ、プリンタなどの出力装置17が接続されている。さらにまた、
インタフェース部14には、フレキシブルディスク、ハードディスクなどの磁気記録媒体
に記録を行う磁気記録装置、光ディスクなどの光記録媒体に記録を行う光ディスク記録装
置、半導体メモリカードなどの半導体記録媒体に記録を行うメモリ記録装置などの補助記
憶装置18が接続されている。
なお、入力装置16としては、通信インタフェースを介してネットワーク(LAN、イ
ンターネットなど)から画像データを入力するように構成することも可能である。
Further, the interface unit 14 is connected to various input devices 16 such as a keyboard for inputting various data by a user, a mouse, a scanner for scanning images, a digital camera for capturing images, and a digital video. ing. Further, an output device 17 such as a display or a printer is connected to the interface unit 14. Furthermore,
The interface unit 14 includes a magnetic recording device for recording on a magnetic recording medium such as a flexible disk and a hard disk, an optical disk recording device for recording on an optical recording medium such as an optical disk, and a memory for recording on a semiconductor recording medium such as a semiconductor memory card. An auxiliary storage device 18 such as a recording device is connected.
The input device 16 may be configured to input image data from a network (LAN, Internet, etc.) via a communication interface.

図2は、実施形態の画像処理装置の機能ブロック図である。
画像処理装置10は、大別すると、外部より画像データを入力する画像入力部21と、
入力された画像データに対応する画像から、オブジェクトである顔画像を検出する顔検出
部22と、検出された顔画像がどの人物の顔画像であるかを認識する顔認識部23と、検
出された顔画像に生じている陰影の方向である陰影方向を判定する陰影判定部24と、陰
影判定部24によって判定された陰影方向と同一あるいは近似の陰影方向を有する画像を
選別する顔画像選別部25と、画像入力部21を介して入力された背景画像を格納する背
景画像格納部26と、ユーザの指示に基づいて、背景画像格納部26から読み出した背景
画像に対し、顔画像選別部25により選別した顔画像を合成する画像合成部27と、画像
合成部27により合成された合成画像を出力する画像出力部28と、を備えて構成されて
いる。
FIG. 2 is a functional block diagram of the image processing apparatus according to the embodiment.
The image processing apparatus 10 is roughly classified into an image input unit 21 for inputting image data from the outside,
From the image corresponding to the input image data, a face detection unit 22 for detecting a face image as an object, a face recognition unit 23 for recognizing which person's face image the detected face image is detected, are detected. A shadow determination unit 24 that determines a shadow direction that is a direction of a shadow generated in the face image, and a face image selection unit that selects an image having the same or approximate shadow direction as the shadow direction determined by the shadow determination unit 24 25, a background image storage unit 26 for storing a background image input via the image input unit 21, and a face image selection unit 25 for the background image read from the background image storage unit 26 based on a user instruction. And an image output unit 28 that outputs the combined image combined by the image combining unit 27.

以下、各機能についてより詳細に説明する。
画像入力部21は、ユーザが指定した画像を取り込む機能を持っており、各種データフ
ォーマットあるいは圧縮フォーマットに対応している。
顔検出部22は、画像を解析して顔領域を検出する機能を有している。この場合におい
て、人物を撮影した画像から顔を検出する方法は、公知技術を用いるもので構わない。顔
検出技術の一例としては、予め顔画像を多数収集し、この収集した顔画像を元に特定の大
きさの画像を顔画像と顔以外に識別する顔検出器を構成するようにすればよい。例えば、
顔を表現するには、明度やエッジから生成される画像特徴量を用いている。また、検出器
は多層ニューラルネットワーク、サポートベクトルマシンや判別分析等の統計的な手法に
より実現することが出来る。
それ以外の手法としては、参考文献を挙げると、以下のものがある。
「背景と顔の方向に依存しない顔の検出と顔方向の推定」信学技報、PRMU2001
−217、pp。87−94(2002−01)、荒木祐一、島田伸敬、白井良明
本文献記載の技術は、顔の部位を確率付きで求め、弛緩法を用いて顔の検出を行い、さ
らに、部位の検出結果を用いて、顔方向の検出を行うものであるが、本実施形態では、本
文献記載の技術のうち、顔の検出方法のみを用いればよく、顔の方向検出については、行
う必要はない。
Hereinafter, each function will be described in more detail.
The image input unit 21 has a function of capturing an image designated by the user, and supports various data formats or compression formats.
The face detection unit 22 has a function of detecting a face region by analyzing an image. In this case, a known technique may be used as a method of detecting a face from an image obtained by photographing a person. As an example of the face detection technique, a large number of face images may be collected in advance, and a face detector that identifies an image having a specific size other than the face image and the face based on the collected face images may be configured. . For example,
In order to express a face, image feature amounts generated from brightness and edges are used. The detector can be realized by a statistical method such as a multilayer neural network, a support vector machine, or discriminant analysis.
As other methods, the following are cited as references.
"Detection of face and estimation of face direction independent of background and face direction" IEICE Tech. Report, PRMU2001
-217, pp. 87-94 (2002-01), Yuichi Araki, Nobutaka Shimada, Yoshiaki Shirai The technique described in this document obtains the face part with probability, detects the face using the relaxation method, and further detects the part. Although the face direction is detected using the result, in the present embodiment, only the face detection method may be used among the techniques described in this document, and it is not necessary to perform the face direction detection. .

顔認識部23は、顔検出部22によって検出された顔(オブジェクト)が誰の顔である
かを認識する。この場合において、人物の顔画像が誰の顔に相当するのかを認識する方法
としては、公知技術を用いるもので構わない。一例としては、予め顔画像を収集し、この
収集した顔画像を元に判別分析等の統計的な手法により個人を特定する手法が適用可能で
ある。また、ニューラルネットワークを用いた学習により、個人を特定する識別器を実現
するようにしてもよい。さらに、他の手法としては、特開平9−251534号公報に示
されている「人物認証装置及び人物認証方法」が挙げられる。この特許文献に開示の技術
によれば、明度変化などに影響されずに、入力画像から目、鼻などの特徴点を安定に抽出
して人物認証を高精度に行うことが可能となっている。
The face recognition unit 23 recognizes who the face (object) detected by the face detection unit 22 is. In this case, a publicly known technique may be used as a method for recognizing who the person's face image corresponds to. As an example, a method of collecting face images in advance and identifying an individual by a statistical method such as discriminant analysis based on the collected face images can be applied. Moreover, you may make it implement | achieve the discriminator which pinpoints an individual by learning using a neural network. Furthermore, as another technique, “person authentication device and person authentication method” disclosed in Japanese Patent Laid-Open No. 9-251534 can be cited. According to the technique disclosed in this patent document, it is possible to perform highly accurate human authentication by stably extracting feature points such as eyes and nose from an input image without being affected by changes in brightness. .

陰影判定部24は、光源方向が変化することにより顔に形成された陰影(影)から光源
方向を判定する機能を有している。より具体的には、2次元画像における対象物の反射光
から、光源方向を判定する処理の一例を挙げると、顔検出部22において、検出した位置
を切り出し、顔画像に線形関数を当てはめ、最もフィットする線形関数により光源方向を
判定するようにすればよい。なお、以下の説明では、光源方向を特定する構成で説明を行
っているが、逆に陰影方向を検出するようにしてもよい。
The shadow determination unit 24 has a function of determining the light source direction from the shadow (shadow) formed on the face when the light source direction changes. More specifically, as an example of processing for determining the light source direction from the reflected light of the object in the two-dimensional image, the face detection unit 22 cuts out the detected position, applies a linear function to the face image, What is necessary is just to determine a light source direction with the linear function to fit. In the following description, the configuration is described in which the light source direction is specified, but the shadow direction may be detected conversely.

顔画像選別部25は、顔認識部23の認識結果および陰影判定部24の判定結果に基づ
いて、ユーザが指示した背景(フレームなど)画像に合成する顔画像を選び出すものであ
る。この場合の合成条件について、一般的には、合成の自然さを損なわないという観点か
ら以下の条件を満たすようにされている。
(1) 一の合成画像について、同一人物が2人以上含まれない。
(2) 光源方向が1方向のみである。
したがって、顔画像選別部25は、上記条件に当てはまる顔画像の組み合わせを選び出
すこととなる。
The face image selection unit 25 selects a face image to be combined with a background (such as a frame) image designated by the user based on the recognition result of the face recognition unit 23 and the determination result of the shadow determination unit 24. As for the synthesis conditions in this case, generally, the following conditions are satisfied from the viewpoint of not impairing the naturalness of synthesis.
(1) Two or more same persons are not included in one composite image.
(2) The light source direction is only one direction.
Therefore, the face image selection unit 25 selects a combination of face images that meets the above conditions.

より具体的には、例えば、顔認識結果と光源方向結果とを対応づけてテーブルを作成し
、条件にあった顔画像を選別することとなる。さらに、複数の組み合わせが存在する場合
には、できる限り陰影の濃さが等しい顔画像を選び出したり、顔の向きが出来るだけ正面
向きのものを選び出すなど、所定の重み付けをした評価をすることで選び出すこととなる

背景画像格納部26は、ユーザが指定した背景画像を一時的に格納している。
画像合成部27は、顔画像選別部25によって選別された顔画像をフレームなどの背景
画像上で貼り付ける位置を決定し、顔画像を背景画像上に設定された合成位置に貼り付け
、合成画像を生成する。この場合において、設定された合成位置の選択としては、テンプ
レートなど決められた箇所に画像をランダムに挿入する方法でも構わないし、ユーザによ
って手動で合成位置(合成領域)を選択させる構成でも構わない。具体的には、出力装置
を構成するディスプレイに、合成候補位置としての楕円領域を複数表示し、表示した複数
の楕円領域からユーザが顔画像の合成位置として選択させるための画面を表示させて、ユ
ーザに楕円領域を選択させたり、所望の楕円領域に顔画像をドラッグ&ドロップさせたり
する構成とすることも可能である。
More specifically, for example, a table is created by associating the face recognition result with the light source direction result, and the face image that meets the condition is selected. Furthermore, when there are multiple combinations, it is possible to select a face image with the same shade density as much as possible, or to select a face image with the face direction as much as possible. It will be selected.
The background image storage unit 26 temporarily stores a background image designated by the user.
The image composition unit 27 determines a position at which the face image selected by the face image selection unit 25 is pasted on a background image such as a frame, and pastes the face image at a composition position set on the background image. Is generated. In this case, selection of the set combination position may be a method of inserting an image at a predetermined position such as a template, or a configuration in which a combination position (synthesis region) is manually selected by the user. Specifically, on the display constituting the output device, a plurality of elliptical areas are displayed as composition candidate positions, and a screen for allowing the user to select a composite position of the face image from the displayed plurality of elliptical areas is displayed. A configuration in which the user selects an elliptical area or drags and drops a face image on a desired elliptical area is also possible.

画像出力部28は、画像合成部27により合成した合成画像をユーザが視認出来るよう
にディスプレイに出力表示したり、プリンタに出力したりする機能を有している。
次に実施形態の動作について説明する。
The image output unit 28 has a function of outputting and displaying the synthesized image synthesized by the image synthesizing unit 27 on a display so that the user can visually recognize it, or outputting it to a printer.
Next, the operation of the embodiment will be described.

図3は、実施形態の処理フローチャートである。
図4は、実施形態の処理説明図である。
まず、CPU11は、入力装置16およびインタフェース部14を介してユーザが入力
(指定)した複数の画像G1〜Gnについて、以下に述べる合成画像生成処理を実施する
(ステップS11)。
次にCPU11は、複数枚の画像G1〜Gnのうちから、順次一つの画像Gi(i:1
〜n)を読み込んで、顔検出部22として機能して、画像内に含まれるオブジェクトであ
る顔画像を検出する(ステップS12)。この場合において、CPU11は、検出した顔
画像について、元の画像ファイル名、元の画像中における位置(x、y座標)、顔の輪郭
を含めたサイズ等の基本情報を記憶しておくこととなる。
続いてCPU11は、ステップS12の処理において検出した顔画像が誰の顔であるか
を認識する(ステップS13)。図4の例においては、CPU11は、顔画像を人物A〜
Dの4人に分類している。
FIG. 3 is a processing flowchart of the embodiment.
FIG. 4 is a process explanatory diagram of the embodiment.
First, the CPU 11 performs a composite image generation process described below on a plurality of images G1 to Gn input (designated) by the user via the input device 16 and the interface unit 14 (step S11).
Next, the CPU 11 sequentially selects one image Gi (i: 1) from the plurality of images G1 to Gn.
˜n) are read and function as the face detection unit 22 to detect a face image which is an object included in the image (step S12). In this case, the CPU 11 stores basic information such as an original image file name, a position (x and y coordinates) in the original image, and a size including the outline of the face for the detected face image. Become.
Subsequently, the CPU 11 recognizes who the face image detected in the process of step S12 is (step S13). In the example of FIG. 4, the CPU 11 captures the face images from person A to person A.
It is classified into four people of D.

より具体的には、CPU11は、予め登録しておいたユーザらの顔画像を元にして顔認
識部として機能し、各顔画像に対応する個人を特定し、得られた認識結果を人物タグ情報
としてRAM13あるいは補助記憶装置18に記録しておく。以上の説明は、認識対象の
顔画像が予め登録しておいた人物の顔画像である場合のものであるが、予め登録しておい
た人物の顔画像であると特定できなかった場合には、CPU11は、出力装置を構成する
ディスプレイにその旨をユーザに伝えるためメッセージを出力し、当該顔画像について追
加登録を促すなどの処理を行うようにされている。これにより、次回より、当該登録され
た人物についてもある程度認識が可能となる。
More specifically, the CPU 11 functions as a face recognition unit based on face images of users registered in advance, identifies individuals corresponding to each face image, and uses the obtained recognition result as a person tag. Information is recorded in the RAM 13 or the auxiliary storage device 18 as information. The above description is for the case where the face image to be recognized is a face image of a person registered in advance, but when the face image of a person registered in advance cannot be specified The CPU 11 outputs a message to inform the user of that fact on the display constituting the output device, and performs processing such as prompting additional registration for the face image. Thereby, the registered person can be recognized to some extent from the next time.

続いてCPU11は、顔検出、顔認識を経て得られた顔画像について陰影判定部として
機能し、顔画像が検出された画像における撮影時の光源方向を推定し、判定する(ステッ
プS14)。そして、CPU11は、推定し判定した光源方向の判定結果をRAM13あ
るいは補助記憶装置18に記録しておく。
ここで、光源方向の判定処理について説明する。
本実施形態においては、光源方向の判定処理に、陰影テンプレートと呼ばれる画像デー
タを用いている。
Subsequently, the CPU 11 functions as a shadow determination unit for the face image obtained through face detection and face recognition, and estimates and determines the light source direction at the time of shooting in the image from which the face image is detected (step S14). Then, the CPU 11 records the determination result of the light source direction estimated and determined in the RAM 13 or the auxiliary storage device 18.
Here, the light source direction determination process will be described.
In the present embodiment, image data called a shadow template is used for the determination process of the light source direction.

図5は、陰影の形成状態から光源方向を判定する場合の例である。
顔画像F1は、逆光状態のものであり、この場合には、顔画像全体を陰影が覆う状態と
なっている。
したがって、対応する陰影テンプレートT1としては、一面が低明度状態(暗部)とな
っている画像が用いられる。
顔画像F2は、光源方向が図面右側方向のものであり、この場合には、顔画像の図面上
、左側を陰影が覆う状態となっている。
したがって、対応する陰影テンプレートT2としては、図面に向かって、左側が低明度
状態(暗部)、右側が高明度状態(明部)となっているグラデーション画像が用いられる

顔画像F3は、光源方向が図面左側方向のものであり、この場合には、顔画像の図面上
、右側を陰影が覆う状態となっている。
FIG. 5 shows an example in which the light source direction is determined from the shadow formation state.
The face image F1 is in a backlit state, and in this case, the entire face image is covered with shadows.
Therefore, as the corresponding shadow template T1, an image in which one surface is in a low brightness state (dark part) is used.
The face image F2 has a light source direction on the right side of the drawing. In this case, the shadow image covers the left side of the face image in the drawing.
Therefore, as the corresponding shadow template T2, a gradation image is used in which the left side is in the low brightness state (dark part) and the right side is in the high brightness state (bright part) as viewed in the drawing.
The face image F3 has a light source direction on the left side of the drawing. In this case, the shadow image covers the right side of the face image in the drawing.

したがって、対応する陰影テンプレートT3としては、図面に向かって、右側が低明度
状態(暗部)、左側が高明度状態(明部)となっているグラデーション画像が用いられる

顔画像F4は、光源方向が図面下方向のものであり、この場合には、顔画像の図面上、
上側を陰影が覆う状態となっている。
したがって、対応する陰影テンプレートT4としては、図面に向かって、上側が低明度
状態(暗部)、下側が高明度状態(明部)となっているグラデーション画像が用いられる

以下、同様にして、光源方向に対して、顔画像の逆方向に陰影が覆うこととなっている
ので、陰影テンプレートは、光源側が高明度状態(明部)、光源から離れる側が低明度状
態(暗部)となっているグラデーション画像が用いられる。
Therefore, as the corresponding shading template T3, a gradation image is used in which the right side is in a low brightness state (dark part) and the left side is in a high brightness state (bright part) as viewed in the drawing.
The face image F4 has a light source direction below the drawing, and in this case, on the face image drawing,
The upper side is covered with a shadow.
Therefore, as the corresponding shading template T4, a gradation image is used in which the upper side is in a low brightness state (dark part) and the lower side is in a high brightness state (bright part).
In the same manner, since the shadow is covered in the opposite direction of the face image with respect to the light source direction, the shadow template has a high lightness state (bright part) on the light source side and a low lightness state on the side away from the light source ( A gradation image that is a dark part) is used.

したがって、CPU11は、ある顔画像に対し、陰影テンプレートにより近いものを当
該顔画像に対応する陰影テンプレート(最適陰影テンプレート)であると判定し、当該最
適陰影テンプレートに対応する光源方向を当該顔画像の光源方向としている。
次にCPU11は、フォトフレームのような背景画像と合成する顔画像の選別を行う(
ステップS15)。
具体的には、CPU11は、ステップS12、S13、S14で得られた顔画像の検出
結果、各顔画像の認識結果及び光源方向の判定結果を記録した顔画像選別処理テーブルを
元にして、合成した際に不自然ではないような顔画像の組み合わせを選び出すこととなる
Therefore, the CPU 11 determines that a face image closer to the shadow template is a shadow template (optimum shadow template) corresponding to the face image, and determines the light source direction corresponding to the optimal shadow template of the face image. The light source direction.
Next, the CPU 11 selects a face image to be combined with a background image such as a photo frame (
Step S15).
Specifically, the CPU 11 performs synthesis based on the face image selection processing table in which the detection results of the face images obtained in steps S12, S13, and S14, the recognition results of each face image, and the determination results of the light source direction are recorded. In such a case, a combination of face images that is not unnatural is selected.

図6は、顔画像選別処理テーブルの一例を説明するための図である。
顔画像選別処理テーブル31は、人物を特定するための人物タグデータ32、顔画像が
含まれる画像ファイルを特定するための画像ファイル名データ33および光源方向特定デ
ータ34を備えている。
CPU11は、顔画像選別処理テーブル31の人物タグデータ32を参照することによ
り、どの画像ファイル名の画像に当該人物タグデータ32に対応する人物が含まれている
(写っている)かが容易に判別できる。
ところで、各顔画像について、光源方向が必ず一つは決まるので、光源方向特定データ
34に推定された光源方向が格納されることとなっている。図6においては、理解の容易
のため、「○」印が顔画像の推定された光源方向を示している。また、理解の容易のため
、図6においては、光源方向の矢印と陰影テンプレートがそれぞれ対応させた状態で表示
しているが、実際には、これらに対応している旨のデータのみが格納されている。
FIG. 6 is a diagram for explaining an example of the face image selection processing table.
The face image selection processing table 31 includes person tag data 32 for specifying a person, image file name data 33 for specifying an image file including a face image, and light source direction specifying data 34.
By referring to the person tag data 32 in the face image selection processing table 31, the CPU 11 can easily determine which image file name includes the person corresponding to the person tag data 32 (shown). Can be determined.
By the way, since one light source direction is always determined for each face image, the estimated light source direction is stored in the light source direction specifying data 34. In FIG. 6, for easy understanding, the mark “◯” indicates the estimated light source direction of the face image. Further, for easy understanding, in FIG. 6, the arrow of the light source direction and the shadow template are displayed in correspondence with each other, but actually, only data indicating that they correspond to these are stored. ing.

例えば、人物タグAに対応する画像ファイル名N001の画像ファイルには、人物Aが
左側からの光源を受けて撮影された顔画像が含まれていることが分かる。
この顔画像選別処理テーブル31を参照して、CPU11は、選別の条件(同一人物が
2人以上含まれないこと、光源方向が1方向のみ)である組み合わせを選び出す。
より詳細には、合成画像の光源方向が左側方向である場合には、それに対応した顔画像
である、画像ファイル名N001の画像ファイルに含まれる人物A、画像ファイル名N0
03の画像ファイルに含まれる人物B、あるいは、画像ファイル名N005の画像ファイ
ルに含まれる人物Cの顔画像が選別結果とされる。以上の説明は、同一の光源方向の顔画
像が存在する場合のものであったが、同一の光源方向の顔画像が存在しない場合や選別対
象を拡大する場合などには、光源方向が近似する顔画像も選別結果に含めるようにするこ
とも可能である。図6の場合には、符号A1で含む、図面に向かって左上方向の光源方向
に対応する顔画像、あるいは、左下方向の光源方向に対応する顔画像も選別対象とするこ
ととなる。なお、この選別対象の選定は、ユーザが任意に設定するように構成することも
可能である。
For example, it can be seen that the image file with the image file name N001 corresponding to the person tag A includes a face image taken by the person A receiving the light source from the left side.
With reference to the face image selection processing table 31, the CPU 11 selects a combination that has a selection condition (two or more same persons are not included and the light source direction is only one direction).
More specifically, when the light source direction of the composite image is the left direction, the person A and the image file name N0 included in the image file with the image file name N001, which are corresponding face images.
The face image of the person B included in the image file of 03 or the person C included in the image file of the image file name N005 is used as the selection result. The above description is for the case where face images in the same light source direction exist, but the light source direction approximates when there is no face image in the same light source direction or when the selection target is enlarged. It is also possible to include a face image in the selection result. In the case of FIG. 6, the face image corresponding to the light source direction in the upper left direction or the face image corresponding to the light source direction in the lower left direction, which is indicated by reference numeral A1, is selected. The selection of the selection target can be configured so that the user arbitrarily sets the selection target.

そして、CPU11は、選別した顔画像を特定するための情報を、RAM13に格納す
る。
次にCPU11は、ステップS15で選別した顔画像をフォトフレームなどの背景画像
と合成する(ステップS16)。
この場合に、背景画像にはめ込む顔画像の位置については、自動的に所定位置に配置し
たり、ユーザに選択させ、確定させるなどの処理を行うこととなる。これに伴いCPU1
1は、背景画像内のはめ込み先の領域のサイズに合うように顔画像のサイズを拡大縮小す
るなどの各種画像処理を同時に行うこととなっている。
Then, the CPU 11 stores information for specifying the selected face image in the RAM 13.
Next, the CPU 11 combines the face image selected in step S15 with a background image such as a photo frame (step S16).
In this case, the position of the face image to be inserted into the background image is automatically arranged at a predetermined position, or the user selects and confirms the process. Along with this, CPU1
In 1, various types of image processing such as enlarging / reducing the size of the face image so as to fit the size of the inset area in the background image are performed simultaneously.

図7は、画像合成指示画面の説明図である。
CPU11は、出力装置17としてのディスプレイに、はめ込み合成候補位置としての
複数の楕円領域R1〜R3を表示する。そして、ディスプレイに、はめ込み対象の顔画像
を表示して、ユーザの選択操作を促すこととなる。
これにより、ユーザは、入力装置16としてのマウスを使用して、所望の楕円領域R1
〜R3に顔画像G1〜G3を一つずつドラッグ&ドロップすることとなる。
この結果、CPU11は、画像サイズの調整などを行って、合成した画像をディスプレ
イ、あるいは必要時応じてはプリンタに出力することとなる(ステップS17)。
FIG. 7 is an explanatory diagram of an image composition instruction screen.
The CPU 11 displays a plurality of elliptical regions R1 to R3 as inset synthesis candidate positions on the display as the output device 17. Then, the face image to be fitted is displayed on the display, and the user's selection operation is prompted.
As a result, the user uses the mouse as the input device 16 to use the desired elliptical region R1.
The face images G1 to G3 are dragged and dropped one by one on -R3.
As a result, the CPU 11 adjusts the image size and the like, and outputs the synthesized image to the display or, if necessary, to the printer (step S17).

図8は、合成結果の説明図である。
合成が終了すると、CPU11は、図8に示すように、背景画像Bに顔画像G1〜G3
が合成された合成画像FGを表示あるいはプリントアウトすることとなる。
以上の説明のように、本実施形態によれば、ユーザの手間を煩わすことなく、背景画像
と顔画像の光源方向に違和感がなく、より自然な仕上がりを有する合成画像を得ることが
できる。
FIG. 8 is an explanatory diagram of the synthesis result.
When the composition is finished, the CPU 11 adds the face images G1 to G3 to the background image B as shown in FIG.
Is displayed or printed out.
As described above, according to the present embodiment, a synthesized image having a more natural finish can be obtained without bothering the user and without a sense of incongruity between the light source directions of the background image and the face image.

すなわち、方向性を持つ照明によって顔の横から照らした場合など、鼻などの局所的な
凹凸で陰影が発生することとなるが、合成画像を作成する際、さまざまな照明方向を持っ
た画像を合成すると、自然な感じを損なった仕上がりになるが、本実施形態によれば照明
条件の変化による局所的な陰影を顔画像から判定した上で、合成する顔画像を選別し、合
成画像を生成することで、より自然な感じの画像が生成できるのである。
In other words, shadows may occur due to local unevenness such as the nose when illuminated from the side of the face with directional lighting, but when creating a composite image, images with various illumination directions When combined, the result is a loss of natural feeling, but according to the present embodiment, a local shadow due to a change in lighting conditions is determined from the face image, and then the face image to be combined is selected to generate a combined image By doing so, an image with a more natural feeling can be generated.

以上の説明においては、合成対象のオブジェクトとして、顔画像の場合について説明し
たが、人物の全身(全体)画像や、車両、建物などのものについてもオブジェクトとして
同様に適用することが可能である。
In the above description, the case of a face image has been described as the object to be synthesized. However, the present invention can be similarly applied to an object such as a whole body (whole) image of a person, a vehicle, a building, or the like.

以上の説明においては、光源方向を判定する場合について述べたが、光源からの光によ
る陰影の方向である陰影方向を判定するように構成することも可能である。
以上の説明においては、制御プログラムがROMに予め格納されている場合について述
べたが、フレキシブルディスク、磁気ディスク、光ディスク、半導体メモリカードなどの
記録媒体に記録するようにすることも可能である。
In the above description, the case of determining the light source direction has been described, but it is also possible to determine to determine the shadow direction that is the direction of the shadow caused by the light from the light source.
In the above description, the case where the control program is stored in the ROM in advance has been described. However, the control program can be recorded on a recording medium such as a flexible disk, a magnetic disk, an optical disk, or a semiconductor memory card.

さらに、通信インタフェースとしてネットワークインタフェースを設け、ネットワーク
を介して制御プログラムをダウンロードして実行するように構成することも可能である。
Further, a network interface may be provided as a communication interface, and the control program may be downloaded and executed via the network.

実施形態の画像処理装置の概要構成ブロック図である。1 is a schematic configuration block diagram of an image processing apparatus according to an embodiment. 実施形態の画像処理装置の機能ブロック図である。It is a functional block diagram of the image processing apparatus of an embodiment. 実施形態の処理フローチャートである。It is a processing flowchart of an embodiment. 実施形態の処理説明図である。It is processing explanatory drawing of embodiment. 光源方向の判定処理説明図である。It is determination processing explanatory drawing of a light source direction. 顔画像選別処理テーブルの一例を説明するための図である。It is a figure for demonstrating an example of a face image selection process table. 画像合成指示画面の説明図である。It is explanatory drawing of an image composition instruction | indication screen. 合成結果の説明図である。It is explanatory drawing of a synthetic result.

符号の説明Explanation of symbols

10…画像処理装置、11…CPU、12…ROM、13…RAM、14…インタフェ
ース部、15…バス、16…入力装置、17…出力装置、18…補助記憶装置、21…画
像入力部、22…顔検出部、23…顔認識部、24…陰影判定部、25…顔画像選別部、
26…背景画像格納部、27…画像合成部、28…画像出力部、31…顔画像選別処理テ
ーブル、32…人物タグデータ、33…画像ファイル名データ、34…光源方向特定デー
タ、FG…合成画像、T1〜T4…陰影テンプレート。
DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Interface part, 15 ... Bus, 16 ... Input device, 17 ... Output device, 18 ... Auxiliary storage device, 21 ... Image input part, 22 ... face detection unit, 23 ... face recognition unit, 24 ... shadow determination unit, 25 ... face image selection unit,
26 ... Background image storage unit, 27 ... Image composition unit, 28 ... Image output unit, 31 ... Face image selection processing table, 32 ... Person tag data, 33 ... Image file name data, 34 ... Light source direction specifying data, FG ... Composition Image, T1 to T4 ... shadow template.

Claims (8)

画像に含まれるオブジェクトを検出するオブジェクト検出部と、
前記オブジェクトに対する光源方向あるいは光源からの光により生じる陰影の方向であ
る陰影方向を検出する方向検出部と、
同一または近似の前記光源方向あるいは前記陰影方向を有するオブジェクトの画像を選
択するオブジェクト選択部と、
前記選択されたオブジェクトの画像を用いて画像合成を行う画像合成部と、
を備えたことを特徴とする画像処理装置。
An object detection unit for detecting an object included in the image;
A direction detection unit for detecting a shadow direction which is a light source direction with respect to the object or a shadow direction caused by light from the light source;
An object selection unit that selects an image of an object having the same or approximate light source direction or shadow direction;
An image composition unit that performs image composition using an image of the selected object;
An image processing apparatus comprising:
請求項1記載の画像処理装置において、
前記画像合成部は、前記選択されたオブジェクトの画像を所定の背景画像と合成するも
のであり、
前記オブジェクト選択部は、前記背景画像と同一または近似の前記光源方向あるいは前
記陰影方向を有するオブジェクトの画像を選択する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image combining unit combines the image of the selected object with a predetermined background image;
The object selection unit selects an image of an object having the light source direction or the shadow direction that is the same as or similar to the background image.
An image processing apparatus.
請求項1または請求項2記載の画像処理装置において、
検出された前記オブジェクトと、前記光源方向あるいは前記陰影方向と、を対応づけて
記憶する顔画像選別処理テーブルを備え、
前記オブジェクト選択部は、前記顔画像選別処理テーブルを参照して、オブジェクトの画
像を選択することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
A face image selection processing table for storing the detected object in association with the light source direction or the shadow direction;
The image processing apparatus, wherein the object selection unit selects an image of an object with reference to the face image selection processing table.
請求項1ないし請求項3のいずれかに記載の画像処理装置において、 前記方向検出部
は、所定の光源方向あるいは所定の陰影方向における前記オブジェクトの陰影の変化状態
を表す陰影テンプレートを予め複数記憶し、前記オブジェクトの画像に対し、前記陰影の
変化状態がもっとも一致する陰影テンプレートに対応する前記光源方向あるいは前記陰影
方向を前記オブジェクトの画像の光源方向あるいは陰影方向とすることを特徴とする画像
処理装置。
4. The image processing apparatus according to claim 1, wherein the direction detection unit stores in advance a plurality of shadow templates representing a change state of the shadow of the object in a predetermined light source direction or a predetermined shadow direction. An image processing apparatus, wherein the light source direction or the shadow direction corresponding to the shadow template that most closely matches the shadow change state with respect to the object image is set as the light source direction or the shadow direction of the object image. .
請求項1ないし請求項4のいずれかに記載の画像処理装置において、
前記オブジェクトは、顔であることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
An image processing apparatus, wherein the object is a face.
画像に含まれるオブジェクトを検出するオブジェクト検出過程と、
前記オブジェクトに対する光源方向あるいは光源からの光により生じる陰影の方向であ
る陰影方向を検出する方向検出過程と、
同一または近似の前記光源方向あるいは前記陰影方向を有するオブジェクトの画像を選
択するオブジェクト選択過程と、
前記選択されたオブジェクトの画像を用いて画像合成を行う画像合成過程と、
を備えたことを特徴とする画像処理方法。
An object detection process for detecting objects included in the image;
A direction detection process for detecting a shadow direction which is a light source direction with respect to the object or a shadow direction caused by light from the light source;
An object selection process for selecting an image of an object having the same or approximate light source direction or shadow direction;
An image composition process for performing image composition using an image of the selected object;
An image processing method comprising:
入力された画像の処理を行う画像処理装置をコンピュータにより制御するための制御プ
ログラムにおいて、
画像に含まれるオブジェクトを検出させ、
前記オブジェクトに対する光源方向あるいは光源からの光により生じる陰影の方向であ
る陰影方向を検出させ、
同一または近似の前記光源方向あるいは前記陰影方向を有するオブジェクトの画像を選
択させ、
前記選択させたオブジェクトの画像を用いて画像合成を行わせる、
ことを特徴とする制御プログラム。
In a control program for controlling an image processing apparatus for processing an input image by a computer,
Lets you detect objects in the image,
Detecting a shadow direction which is a light source direction with respect to the object or a shadow direction caused by light from the light source;
Selecting an image of an object having the same or approximate light source direction or shadow direction;
Image synthesis is performed using the image of the selected object.
A control program characterized by that.
請求項7記載の制御プログラムを記録したことを特徴とするコンピュータ読取可能な記
録媒体。
8. A computer-readable recording medium on which the control program according to claim 7 is recorded.
JP2006325277A 2006-12-01 2006-12-01 Image processor, image processing method, control program, and recording medium Withdrawn JP2008140107A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006325277A JP2008140107A (en) 2006-12-01 2006-12-01 Image processor, image processing method, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006325277A JP2008140107A (en) 2006-12-01 2006-12-01 Image processor, image processing method, control program, and recording medium

Publications (1)

Publication Number Publication Date
JP2008140107A true JP2008140107A (en) 2008-06-19

Family

ID=39601499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006325277A Withdrawn JP2008140107A (en) 2006-12-01 2006-12-01 Image processor, image processing method, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP2008140107A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014207991A1 (en) * 2013-06-28 2014-12-31 日本電気株式会社 Teaching data generating device, method, and program, and crowd state recognition device, method, and program
US8976255B2 (en) 2011-02-28 2015-03-10 Olympus Imaging Corp. Imaging apparatus
US9392192B2 (en) 2013-06-14 2016-07-12 Sony Corporation Image processing device, server, and storage medium to perform image composition
WO2018084480A1 (en) * 2016-11-07 2018-05-11 Samsung Electronics Co., Ltd. Display device and displaying method
CN108734754A (en) * 2018-05-28 2018-11-02 北京小米移动软件有限公司 Image processing method and device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8976255B2 (en) 2011-02-28 2015-03-10 Olympus Imaging Corp. Imaging apparatus
US9392192B2 (en) 2013-06-14 2016-07-12 Sony Corporation Image processing device, server, and storage medium to perform image composition
US10515294B2 (en) 2013-06-28 2019-12-24 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
JP6008045B2 (en) * 2013-06-28 2016-10-19 日本電気株式会社 Teacher data generation device, method, program, and crowd state recognition device, method, program
US9875431B2 (en) 2013-06-28 2018-01-23 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US10223620B2 (en) 2013-06-28 2019-03-05 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
WO2014207991A1 (en) * 2013-06-28 2014-12-31 日本電気株式会社 Teaching data generating device, method, and program, and crowd state recognition device, method, and program
US10776674B2 (en) 2013-06-28 2020-09-15 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US11132587B2 (en) 2013-06-28 2021-09-28 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US11836586B2 (en) 2013-06-28 2023-12-05 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
WO2018084480A1 (en) * 2016-11-07 2018-05-11 Samsung Electronics Co., Ltd. Display device and displaying method
US10395605B2 (en) 2016-11-07 2019-08-27 Samsung Electronics Co., Ltd. Display device and displaying method
US10685608B2 (en) 2016-11-07 2020-06-16 Samsung Electronics Co., Ltd. Display device and displaying method
CN108734754A (en) * 2018-05-28 2018-11-02 北京小米移动软件有限公司 Image processing method and device
CN108734754B (en) * 2018-05-28 2022-05-06 北京小米移动软件有限公司 Image processing method and device

Similar Documents

Publication Publication Date Title
JP4762827B2 (en) Electronic album generation apparatus, electronic album generation method, and program thereof
JP4718952B2 (en) Image correction method and image correction system
JP4344925B2 (en) Image processing apparatus, image processing method, and printing system
JP2006331393A (en) Album creating apparatus, album creating method and program
JP2008305275A (en) Album creation device, method and program
JP2005202469A (en) Image processor, image processing method and program
JP2010072934A (en) Album creation device and album creation method
JP2002152492A (en) Image processing device, its method, and recording medium
JP2010074405A (en) Image processing apparatus and method
JP2007158824A (en) Image processor, flesh tone adjusting method, and program
JP2008140107A (en) Image processor, image processing method, control program, and recording medium
US8203772B2 (en) Image output method, apparatus, and program using one or more attention levels
JP4348028B2 (en) Image processing method, image processing apparatus, imaging apparatus, and computer program
JP2008217479A (en) Image arrangement method and device
JP2006350936A (en) Image forming device and image forming program
JP2005316958A (en) Red eye detection device, method, and program
WO2018192244A1 (en) Shooting guidance method for intelligent device
JP2012003324A (en) Image processing system, imaging apparatus, image processing program and memory medium
JP2007048108A (en) Image evaluation system, image evaluation method and image evaluation program
JP2015087726A (en) Image projector
JP2006086732A (en) Image processor and image processing method
JP2007272428A (en) Device for automatically creating electronic album
JP2013197827A (en) Photography auxiliary device and method, and photographing device and camera-equipped portable terminal mounting the photography auxiliary device
JP5009864B2 (en) Candidate image display method, apparatus, and program
JP4507673B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100202