JP6248863B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP6248863B2 JP6248863B2 JP2014169412A JP2014169412A JP6248863B2 JP 6248863 B2 JP6248863 B2 JP 6248863B2 JP 2014169412 A JP2014169412 A JP 2014169412A JP 2014169412 A JP2014169412 A JP 2014169412A JP 6248863 B2 JP6248863 B2 JP 6248863B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- original image
- data
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
Description
本明細書では、原画像データを用いて得られる対象データと、テンプレートデータと、を合成するための画像処理を実行する画像処理装置を開示する。 The present specification discloses an image processing apparatus that executes image processing for combining target data obtained using original image data and template data.
特許文献1〜4には、写真画像とテンプレートとを合成して、合成画像を生成する技術が開示されている。例えば、特許文献1の技術では、複数個のテンプレートの中からユーザによって1個のテンプレートが選択される。また、写真画像内の1個以上の顔領域が検出され、1個以上の顔領域の全てを含むトリミング基準領域が決定される。次いで、テンプレート内の画像挿入領域のレイアウト枠の情報、トリミング基準領域等に基づいて、写真画像のうちの一部のトリミングが実行される。そして、トリミングされた画像がテンプレート内の画像挿入領域に合成される。 Patent Documents 1 to 4 disclose techniques for generating a composite image by combining a photographic image and a template. For example, in the technique of Patent Document 1, one template is selected by a user from a plurality of templates. Further, one or more face areas in the photographic image are detected, and a trimming reference area including all of the one or more face areas is determined. Next, trimming of a part of the photographic image is executed based on the layout frame information of the image insertion area in the template, the trimming reference area, and the like. Then, the trimmed image is combined with the image insertion area in the template.
本明細書では、原画像からテンプレートデータに応じて、原画像から、顔領域の少なくとも一部を含む部分領域を抽出するための新規な手法を提供し、この結果、対象データとテンプレートデータとを合成して、処理済み画像データを適切に生成し得る技術を提供する。 In the present specification, a novel method for extracting a partial area including at least a part of a face area from an original image according to template data from the original image is provided. A technique capable of appropriately generating processed image data by combining the images is provided.
本明細書によって開示される画像処理装置は、テンプレートデータ取得部と、原画像データ取得部と、選択結果情報取得部と、生成部と、出力部と、を備える。テンプレートデータ取得部は、複数個のテンプレートデータを取得する。原画像データ取得部は、原画像を表わす原画像データを取得する。選択結果情報取得部は、複数個のテンプレートデータのうちのいずれがユーザによって選択されたのかを示す選択結果情報を取得する。生成部は、原画像データと、複数個のテンプレートデータのうち、選択結果情報によって示される選択済みテンプレートデータと、を利用した画像処理を実行して、処理済み画像データを生成する。出力部は、処理済み画像データを外部に出力する。生成部は、特定試行部と、部分領域抽出部と、合成部と、を備える。特定試行部は、原画像から、選択結果情報に応じた所定の条件を満たす顔領域を特定することを試行する。所定の条件は、原画像内の領域が顔領域であると特定するための条件である。選択済みテンプレートデータによって表わされる選択済みテンプレート画像が第1種の領域を含む場合に、所定の条件は、第1の条件である。選択済みテンプレート画像が第2種の領域を含む場合に、所定の条件は、第1の条件とは異なる第2の条件である。部分領域抽出部は、原画像から顔領域が特定される場合に、原画像から、顔領域の少なくとも一部を含む第1の部分領域を抽出する。合成部は、原画像から顔領域が特定される場合に、原画像データのうちの第1の部分領域を表わす第1の部分領域データを用いて得られる第1の対象データと、選択済みテンプレートデータと、を合成するための画像処理を実行して、第1の処理済み画像を表わす第1の処理済み画像データを生成する。選択済みテンプレート画像が第1種の領域を含む場合に、第1の処理済み画像では、第1の対象データによって表わされる第1の対象画像が選択済みテンプレート画像内の第1種の領域に合成されている。選択済みテンプレート画像が第2種の領域を含む場合に、第1の処理済み画像では、第1の対象画像が選択済みテンプレート画像内の第2種の領域に合成されている。 The image processing apparatus disclosed in this specification includes a template data acquisition unit, an original image data acquisition unit, a selection result information acquisition unit, a generation unit, and an output unit. The template data acquisition unit acquires a plurality of template data. The original image data acquisition unit acquires original image data representing the original image. The selection result information acquisition unit acquires selection result information indicating which one of the plurality of template data is selected by the user. The generating unit generates processed image data by executing image processing using the original image data and selected template data indicated by the selection result information among the plurality of template data. The output unit outputs the processed image data to the outside. The generation unit includes a specific trial unit, a partial region extraction unit, and a synthesis unit. The specifying trial unit attempts to specify a face area that satisfies a predetermined condition corresponding to the selection result information from the original image. The predetermined condition is a condition for specifying that the area in the original image is a face area. When the selected template image represented by the selected template data includes the first type region, the predetermined condition is the first condition. When the selected template image includes the second type region, the predetermined condition is a second condition that is different from the first condition. When the face area is specified from the original image, the partial area extracting unit extracts a first partial area including at least a part of the face area from the original image. When the face area is specified from the original image, the synthesizing unit includes the first target data obtained using the first partial area data representing the first partial area of the original image data, and the selected template. Image processing is performed to synthesize the data and first processed image data representing the first processed image is generated. When the selected template image includes the first type region, the first target image represented by the first target data is combined with the first type region in the selected template image in the first processed image. Has been. In the case where the selected template image includes the second type region, in the first processed image, the first target image is combined with the second type region in the selected template image.
上記の構成によると、画像処理装置は、選択済みテンプレート画像が第1種の領域を含む場合に、原画像から第1の条件を満たす顔領域を特定することを試行し、選択済みテンプレート画像が第2種の領域を含む場合に、原画像から第1の条件とは異なる第2の条件を満たす顔領域を特定することを試行する。このように、画像処理装置は、原画像から顔領域を特定するための条件を選択済みテンプレートデータに応じて変えるという新規な手法を採用している。そして、画像処理装置は、原画像から顔領域が特定される場合に、当該顔領域の少なくとも一部を含む第1の部分領域を抽出する。即ち、画像処理装置は、新規な手法を利用して、原画像から選択済みテンプレートデータに応じた第1の部分領域を抽出する。この結果、画像処理装置は、原画像データのうち、抽出済みの第1の部分領域を表わす第1の部分領域データを用いて得られる第1の対象データと、選択済みテンプレートデータと、を合成して、第1の処理済み画像データを適切に生成し得る。 According to the above configuration, when the selected template image includes the first type area, the image processing apparatus tries to specify a face area that satisfies the first condition from the original image, and the selected template image is When the second type region is included, an attempt is made to specify a face region satisfying a second condition different from the first condition from the original image. As described above, the image processing apparatus employs a novel method of changing a condition for specifying a face region from an original image according to selected template data. Then, when the face area is specified from the original image, the image processing apparatus extracts a first partial area including at least a part of the face area. In other words, the image processing apparatus extracts the first partial region corresponding to the selected template data from the original image using a novel method. As a result, the image processing apparatus synthesizes the first target data obtained by using the first partial area data representing the extracted first partial area in the original image data and the selected template data. Thus, the first processed image data can be appropriately generated.
本明細書によって開示される他の画像処理装置は、テンプレートデータ取得部と、原画像データ取得部と、選択結果情報取得部と、生成部と、出力部と、を備える。テンプレートデータ取得部は、複数個のテンプレートデータを取得する。原画像データ取得部は、原画像を表わす原画像データを取得する。選択結果情報取得部は、複数個のテンプレートデータのうちのいずれがユーザによって選択されたのかを示す選択結果情報を取得する。生成部は、原画像データと、複数個のテンプレートデータのうち、選択結果情報によって示される選択済みテンプレートデータと、を利用した画像処理を実行して、処理済み画像データを生成する。出力部は、処理済み画像データを外部に出力する。生成部は、特定試行部と、部分領域抽出部と、合成部と、を備える。特定試行部は、原画像から顔領域を特定することを試行する。部分領域抽出部は、原画像から顔領域が特定される場合に、原画像から、顔領域の少なくとも一部を含む第1の部分領域を抽出する。合成部は、原画像から顔領域が特定される場合に、原画像データのうちの第1の部分領域を表わす第1の部分領域データを用いて得られる第1の対象データと、選択済みテンプレートデータと、を合成するための画像処理を実行して、第1の処理済み画像を表わす第1の処理済み画像データを生成する。選択済みテンプレートデータによって表わされる選択済みテンプレート画像が第1種の領域を含む場合に、第1の処理済み画像では、第1の対象データによって表わされる第1の対象画像が選択済みテンプレート画像内の第1種の領域に合成されている。選択済みテンプレート画像が第2種の領域を含む場合に、第1の処理済み画像では、第1の対象画像が選択済みテンプレート画像内の第2種の領域に合成されている。部分領域抽出部は、選択済みテンプレート画像が第1種の領域を含み、かつ、原画像から顔領域が特定される場合に、顔領域と第1の部分領域との面積比が所定の第1の比に一致するように、原画像から第1の部分領域を抽出し、選択済みテンプレート画像が第2種の領域を含み、かつ、原画像から顔領域が特定される場合に、顔領域と第1の部分領域との面積比が所定の第2の比であって、第1の比とは異なる第2の比に一致するように、原画像から第1の部分領域を抽出する。 Another image processing apparatus disclosed in this specification includes a template data acquisition unit, an original image data acquisition unit, a selection result information acquisition unit, a generation unit, and an output unit. The template data acquisition unit acquires a plurality of template data. The original image data acquisition unit acquires original image data representing the original image. The selection result information acquisition unit acquires selection result information indicating which one of the plurality of template data is selected by the user. The generating unit generates processed image data by executing image processing using the original image data and selected template data indicated by the selection result information among the plurality of template data. The output unit outputs the processed image data to the outside. The generation unit includes a specific trial unit, a partial region extraction unit, and a synthesis unit. The specifying trial unit tries to specify the face area from the original image. When the face area is specified from the original image, the partial area extracting unit extracts a first partial area including at least a part of the face area from the original image. When the face area is specified from the original image, the synthesizing unit includes the first target data obtained using the first partial area data representing the first partial area of the original image data, and the selected template. Image processing is performed to synthesize the data and first processed image data representing the first processed image is generated. When the selected template image represented by the selected template data includes the first type region, the first target image represented by the first target data is included in the selected template image in the first processed image. It is synthesized in the first type region. In the case where the selected template image includes the second type region, in the first processed image, the first target image is combined with the second type region in the selected template image. The partial area extraction unit has a predetermined first area ratio between the face area and the first partial area when the selected template image includes the first type area and the face area is specified from the original image. When the first partial region is extracted from the original image so as to match the ratio of the image, the selected template image includes the second type region, and the face region is specified from the original image, The first partial region is extracted from the original image so that the area ratio with the first partial region is a predetermined second ratio and matches a second ratio different from the first ratio.
上記の構成によると、画像処理装置は、選択済みテンプレート画像が第1種の領域を含み、かつ、原画像から顔領域が特定される場合に、顔領域と第1の部分領域との面積比が第1の比に一致するように、原画像から第1の部分領域を抽出し、選択済みテンプレート画像が第2種の領域を含み、かつ、原画像から顔領域が特定される場合に、顔領域と第1の部分領域との面積比が第1の比とは異なる第2の比に一致するように、原画像から第1の部分領域を抽出する。このように、画像処理装置は、原画像から第1の部分領域を抽出する際に、選択済みテンプレートデータに応じた面積比を利用するという新規な手法を採用している。この結果、画像処理装置は、原画像データのうち、抽出済みの第1の部分領域を表わす第1の部分領域データを用いて得られる第1の対象データと、選択済みテンプレートデータと、を合成して、第1の処理済み画像データを適切に生成し得る。 According to the above configuration, the image processing apparatus includes an area ratio between the face area and the first partial area when the selected template image includes the first type area and the face area is specified from the original image. When the first partial region is extracted from the original image such that the selected template image includes the second type region and the face region is specified from the original image, The first partial region is extracted from the original image so that the area ratio between the face region and the first partial region matches a second ratio that is different from the first ratio. As described above, the image processing apparatus employs a novel method of using the area ratio according to the selected template data when extracting the first partial region from the original image. As a result, the image processing apparatus synthesizes the first target data obtained by using the first partial area data representing the extracted first partial area in the original image data and the selected template data. Thus, the first processed image data can be appropriately generated.
上記の各画像処理装置を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを記憶するコンピュータ読取可能記録媒体も、新規で有用である。 A control method, a computer program, and a computer-readable recording medium storing the computer program for realizing each of the image processing apparatuses described above are also novel and useful.
(第1実施例)
(通信システム2の構成;図1)
通信システム2は、サーバSRと、プリンタPRと、を備える。サーバSRとプリンタPRとは、インターネットを介して、相互に通信可能である。
(First embodiment)
(Configuration of communication system 2; FIG. 1)
The communication system 2 includes a server SR and a printer PR. The server SR and the printer PR can communicate with each other via the Internet.
(サーバSRの構成)
サーバSRは、プリンタPRのベンダによってインターネット上に設置される。サーバSRは、プリンタPRから取得される指示に従った画像処理を実行して、処理済み画像データをプリンタPRに供給する。サーバSRは、ネットワークインターフェース20と、制御部30と、を備える。ネットワークインターフェース20は、図示省略のLANを介して、インターネットに接続される。
(Configuration of server SR)
The server SR is installed on the Internet by the vendor of the printer PR. The server SR executes image processing in accordance with an instruction acquired from the printer PR, and supplies processed image data to the printer PR. The server SR includes a
制御部30は、CPU32と、メモリ34と、を備える。CPU32は、メモリ34に格納されているプログラム36に従って、様々な処理を実行するプロセッサである。メモリ34は、RAM、ROM等によって構成される。メモリ34は、プログラム36のみならず、テンプレート情報38を予め格納している。なお、以下では、テンプレートのことを「TP」と記載する。
The
TP情報38は、複数個のTPデータ41〜43を含む。各TPデータ41〜43は、プリンタPRから取得される原画像データを用いて得られる対象データが合成されるべきデータである。また、TP情報38は、第1種のTPデータ41に対応付けられている第1の比情報41aと、第2種のTPデータ42に対応付けられている第2の比情報42aと、を含む。各比情報41a,42aは、原画像データによって表わされる原画像から部分領域が特定される際に利用される面積比を示す情報である。なお、第3種のTPデータ43には、比情報が対応付けられていない。
The
第1種のTPデータ41によって表わされる第1種のTP画像TP1は、動物を模したオブジェクトを含むと共に、当該オブジェクト内に対象画像が合成されるべき円形の合成領域CA1を含む。合成領域CA1は、動物の顔の位置に相当する領域であり、原画像内のヒトの顔を示す対象画像が必ず合成されるべき領域である。従って、原画像内にヒトの顔が存在しない場合には、当該原画像が第1種のTP画像TP1に合成されない。
The first type TP image TP1 represented by the first
第2種のTPデータ42によって表わされる第2種のTP画像TP2は、対象画像が合成されるべき矩形の合成領域CA2を含む。合成領域CA2は、合成領域CA1とは異なり、動物の顔の位置に相当する領域ではないので、原画像内のヒトの顔を示す対象画像が必ずしも合成されるべき領域でない。即ち、原画像内にヒトの顔が存在する場合には、ヒトの顔を示す対象画像が合成領域CA2に合成されるが、原画像内にヒトの顔が存在しない場合でも、原画像から得られる対象画像(例えば風景のみを示す画像)が合成領域CA2に合成される。
The second type TP image TP2 represented by the second
第3種のTPデータ43によって表わされる第3種のTP画像TP3は、対象画像が合成されるべき矩形の合成領域CA3を含む。合成領域CA3は、合成領域CA2よりも大きく、原画像内のヒトの顔を示す対象画像が必ずしも合成されるべき領域でない。
The third type TP image TP3 represented by the third
(サーバのメイン処理;図2)
続いて、図2を参照して、サーバSRのCPU32が実行するメイン処理の内容について説明する。メイン処理は、サーバSRの電源がONされることをトリガとして実行される。
(Server main processing; Fig. 2)
Next, the content of the main process executed by the
S2では、サーバSRのCPU32は、プリンタPRからの要求に応じて、複数個のTPデータ41〜43に対応する複数個のサムネイルTP情報をプリンタPRに供給する。各サムネイルTP情報は、対応するTPデータから生成される縮小画像データであるサムネイルTPデータと、対応するTPデータを識別するためのTP識別情報(例えばID)と、を含む。
In S2, the
プリンタPRは、サーバSRから複数個のサムネイルTP情報を取得すると、複数個のサムネイルTPデータによって表わされる複数個のサムネイルTP画像を含むTP選択画面を表示する。そして、プリンタPRは、複数個のサムネイルTP画像のうちの1個のサムネイルTP画像がユーザによって選択される場合に、選択済みサムネイルTP画像に対応するTP識別情報を含む選択結果情報をサーバSRに供給する。即ち、選択結果情報は、複数個のTPデータ41〜43のうちのいずれがユーザによって選択されたのかを示す。以下では、ユーザによって選択されたTPデータ、当該TPデータによって表わされるTP画像のことを、それぞれ、「選択済みTPデータ」、「選択済みTP画像」と呼ぶ。
When the printer PR acquires a plurality of thumbnail TP information from the server SR, the printer PR displays a TP selection screen including a plurality of thumbnail TP images represented by the plurality of thumbnail TP data. Then, when one thumbnail TP image of the plurality of thumbnail TP images is selected by the user, the printer PR sends selection result information including TP identification information corresponding to the selected thumbnail TP image to the server SR. Supply. That is, the selection result information indicates which one of the plurality of
S4では、サーバSRのCPU32は、プリンタPRから選択結果情報を取得するまで待機する。そして、CPU32は、プリンタPRから選択結果情報を取得する場合(S4でYES)に、S6に進む。
In S4, the
一方、プリンタPRは、さらに、例えば、プリンタPRに挿入されている外部メモリ(例えばUSBメモリ、カードメモリ等)内の1個以上の画像データに対応する1個以上のサムネイル画像を表示する。そして、プリンタPRは、1個以上のサムネイル画像のうちの1個のサムネイル画像がユーザによって選択される場合に、選択済みサムネイル画像に対応する画像データをサーバSRに供給する。以下では、当該画像データのことを「原画像データ」と呼ぶ。 On the other hand, the printer PR further displays, for example, one or more thumbnail images corresponding to one or more image data in an external memory (for example, a USB memory, a card memory, etc.) inserted in the printer PR. Then, when one thumbnail image among the one or more thumbnail images is selected by the user, the printer PR supplies image data corresponding to the selected thumbnail image to the server SR. Hereinafter, the image data is referred to as “original image data”.
S6では、サーバSRのCPU32は、プリンタPRから原画像データを取得するまで待機する。そして、CPU32は、プリンタPRから原画像データを取得する場合(S6でYES)に、S8に進む。なお、図2には、原画像データによって表わされる原画像OI1の一例が示されている。原画像OI1は、ヒトの顔を含む。
In S6, the
S8では、サーバSRのCPU32は、S6で取得された原画像データに対して部分領域抽出処理(後述の図3参照)を実行して、原画像から矩形の部分領域を抽出する。図2の例では、原画像OI1からヒトの顔の一部を含む部分領域PA1が抽出される。
In S8, the
次いで、S10では、CPU32は、まず、S6で取得された原画像データから、S8で抽出された部分領域を表わす部分領域データを取得する。そして、CPU32は、部分領域データを用いて得られる対象データと、S4で取得された選択結果情報によって示される選択済みTPデータと、を合成して、処理済み画像データを生成する。図2の例では、選択済みTP画像が第1種のTP画像TP1であり、部分領域PA1に対応する対象画像が合成領域CA1に合成される。これにより、処理済み画像PI1を表わす処理済み画像データが生成される。
Next, in S10, the
次いで、S12では、CPU32は、S10で生成された処理済み画像データをプリンタPRに供給する。これにより、プリンタPRは、サーバSRから処理済み画像データを取得し、処理済み画像データによって表わされる処理済み画像の印刷を実行する。この結果、処理済み画像が印刷された印刷媒体をユーザに提供することができる。
Next, in S12, the
(部分領域抽出処理;図3)
続いて、図3を参照して、図2のS8で実行される部分領域抽出処理の内容について説明する。S102では、CPU32は、図2のS4で取得された選択結果情報内のTP識別情報を利用して、選択済みTPデータの種類を特定する。CPU32は、第1種のTPデータ41を特定する場合に、S104に進み、第2種のTPデータ42を特定する場合に、S114に進み、第3種のTPデータ43を特定する場合に、S122に進む。
(Partial region extraction processing; FIG. 3)
Next, the content of the partial region extraction process executed in S8 of FIG. 2 will be described with reference to FIG. In S102, the
S104(S102で「第1種のTPデータ」)では、CPU32は、第1の顔領域特定処理(後述の図4参照)を実行して、原画像から1個以上の矩形の顔領域を特定することを試行する。
In S104 (“first type TP data” in S102), the
次いで、S106では、CPU32は、S104で特定された顔領域の個数を特定する。CPU32は、S104で1個の顔領域も特定することができなかった場合に、S108に進む。また、CPU32は、S104で2個以上の顔領域を特定した場合に、S110に進み、S104で1個の顔領域のみを特定した場合に、S110をスキップしてS112に進む。
Next, in S106, the
S108では、CPU32は、原画像データを利用した合成処理を実行不可能であることを示すエラー通知をプリンタPRに供給する。上述したように、第1種のTPデータ41によって表わされる第1種のTP画像TP1は、ヒトの顔を示す対象画像が必ず合成されるべき合成領域CA1を含む。S104で1個の顔領域も特定されない場合(S106で「0個」の場合)には、合成領域CA1にヒトの顔を示す対象画像を合成することができない。このために、CPU32は、エラー通知をプリンタPRに供給する。S108が終了すると、図3の処理が終了し、図2のS6に戻る。
In S108, the
プリンタPRは、サーバSRからエラー通知を取得する場合に、プリンタPRに挿入されている外部メモリ内の1個以上の画像データに対応する1個以上のサムネイル画像を再表示する。これにより、ユーザは、前回に選択したサムネイル画像とは異なる1個のサムネイル画像を新たに選択することができる。プリンタPRは、ユーザによって新たに選択されたサムネイル画像に対応する画像データをサーバSRに供給する。この結果、サーバSRのCPU32は、プリンタPRから取得される当該画像データを新たな原画像データとして扱って、図2のS8以降の処理を実行する。
When acquiring an error notification from the server SR, the printer PR redisplays one or more thumbnail images corresponding to one or more image data in the external memory inserted in the printer PR. Thus, the user can newly select one thumbnail image different from the previously selected thumbnail image. The printer PR supplies image data corresponding to the thumbnail image newly selected by the user to the server SR. As a result, the
S110では、CPU32は、S104で特定された2個以上の顔領域のうち、最大の面積を有する1個の顔領域を選択する。ここで、「面積」は、顔領域を示す画素数に相当する。即ち、CPU32は、上記の2個以上の顔領域のそれぞれについて、当該顔領域を示す画素数を算出し、上記の2個以上の顔領域のうち、最大の画素数を有する1個の顔領域を選択する。これにより、最大の面積を有する顔領域に対応する対象画像が第1種のTP画像TP1内の合成領域CA1(図1参照)に合成される(図2のS10)。詳しくは後述するが、合成領域CA1の面積に対する顔領域の面積の比は一定となる。そのため、最大の面積を有する顔領域が選択される場合、処理済み画像では、顔領域に対応する対象画像は比較的高画質となる。このために、適切な処理済み画像をユーザに提供し得る。なお、以下でも、画像又は領域の「面積」という用語を利用する場合には、当該領域の画素数を意味する。
In S110, the
S112では、CPU32は、第1種のTPデータ41に対応付けてメモリ34に格納されている第1の比情報41a(図1参照)に従って、原画像から矩形の部分領域を抽出する。CPU32は、1個の顔領域のみを特定する場合(S106で「1個」)には、当該1個の顔領域に基づいて、原画像から部分領域を特定する。また、CPU32は、2個以上の顔領域を特定する場合(S106で「2個以上」)には、S110で選択された最大の面積を有する1個の顔領域に基づいて、原画像から部分領域を特定する。S112が終了すると、図3の処理が終了し、図2のS10に進む。
In S112, the
また、S114(S102で「第2種のTPデータ」)では、CPU32は、第2の顔領域特定処理(後述の図7参照)を実行して、原画像から1個以上の矩形の顔領域を特定することを試行する。
In S114 (“second type of TP data” in S102), the
次いで、S116では、CPU32は、S114で特定された顔領域の個数を特定する。CPU32は、S114で1個の顔領域も特定することができなかった場合、又は、2個以上の顔領域を特定した場合に、S122に進む。また、CPU32は、S114で1個の顔領域のみを特定した場合に、S120に進む。
Next, in S116, the
S120では、CPU32は、第2種のTPデータ42に対応付けてメモリ34に格納されている第2の比情報42a(図1参照)に従って、1個の顔領域に基づいて、原画像から矩形の部分領域を抽出する。S120が終了すると、図3の処理が終了し、図2のS10に進む。
In S120, the
上述したように、選択済みTPデータが第2種のTPデータ42である場合(S102で「第2種のTPデータ」)において、1個の顔領域も特定されない場合(S116で「0個」)、又は、2個以上の顔領域が特定される場合(S116で「2個以上」)に、S122が実行される。また、選択済みTPデータが第3種のTPデータ43である場合(S102で「第3種のTPデータ」)も、S122が実行される。S122では、CPU32は、選択済みTPデータ(即ち、第2種のTPデータ42又は第3種のTPデータ43)に応じて、原画像から部分領域を抽出する。S122が終了すると、図3の処理が終了し、図2のS10に進む。
As described above, when the selected TP data is the second type TP data 42 (“second type TP data” in S102), one face area is not specified (“0” in S116). ), Or when two or more face regions are specified (“two or more” in S116), S122 is executed. Further, when the selected TP data is the third type TP data 43 (“third type TP data” in S102), S122 is also executed. In S122, the
(第1の顔領域特定処理;図4〜図6)
続いて、図4〜図6を参照して、図3のS104で実行される第1の顔領域特定処理の内容について説明する。図4のS202では、CPU32は、原画像から1個以上の顔候補領域を特定することを試行する。具体的には、CPU32は、原画像から3×M(Mは1以上の整数)個の画素を一辺とする正方形の領域(以下では「正方形領域」と呼ぶ)を特定する。ここで、CPU32は、M=1を採用し、原画像の左上の頂点を含む正方形領域を最初に特定する。次いで、CPU32は、正方形領域が顔候補領域であるのか否かを判断する顔判断処理を実行して、正方形領域が顔候補領域であると判断する場合に、正方形領域を顔候補領域として特定する。顔判断処理の詳細については後述する。
(First face region specifying process; FIGS. 4 to 6)
Next, the content of the first face area specifying process executed in S104 of FIG. 3 will be described with reference to FIGS. In S202 of FIG. 4, the
CPU32は、原画像内において正方形領域の位置を1画素ずつずらして、原画像内の各正方形領域について顔判断処理を実行する。CPU32は、M=1の場合に、原画像内の全ての正方形領域について顔判断処理を実行すると、Mの値を「1」だけインクリメントして、前回の正方形領域よりも大きい新たな正方形領域を特定する。そして、CPU32は、原画像内の新たな各正方形領域について顔判断処理を実行する。CPU32は、正方形領域を特定することができなくなるまでMの値をインクリメントして、顔判断処理を実行することを繰り返す。そして、CPU32は、正方形領域を特定することができなくなると、即ち、正方形領域の一辺が原画像の短辺の長さより大きくなると、S202を終了する。S202では、CPU32は、1個以上の顔候補領域を特定し得る。
The
次いで、図5を参照して、顔判断処理の内容について説明する。図5は、原画像OI1内の1個の正方形領域SAを示す。CPU32は、まず、正方形領域SAを9個の注目領域OAに分割する。次いで、CPU32は、9個の注目領域OAのうちの1個の注目領域を特定する。CPU32は、特定済みの注目領域を構成する全ての画素のそれぞれについて、当該画素の画素値(即ち、R値、G値、B値)から輝度値Yを算出する。輝度値Yは、0.298912×R値+0.586611×G値+0.114478×B値によって得られる。なお、以下では、原画像OI1内において、座標(u,v)に位置する画素の輝度値をY(u,v)と記載する。
Next, the content of the face determination process will be described with reference to FIG. FIG. 5 shows one square area SA in the original image OI1. The
次いで、CPU32は、特定済みの注目領域に含まれる全ての画素のそれぞれについて、式1に従って勾配強度m(u,v)を算出し、さらに、式2に従って勾配方向θ(u,v)を算出する。ただし、fu(u,v)=Y(u+1,v)−Y(u−1,v)であると共に、fv(u,v)=Y(u,v+1)−Y(u,v−1)である。また、勾配方向θ(u,v)は、0°以上180°未満である。
Next, the
次いで、CPU32は、特定済みの注目領域内の各画素の各輝度値の勾配方向ヒストグラムを生成する。具体的には、CPU32は、まず、各画素の勾配方向のそれぞれを、0〜160°のうちの20°間隔の9個の値(0,20,40・・・160°)のうちの最も近い値に変換する。例えば、ある画素の勾配方向が31°である場合には、当該画素の勾配方向が40°に変換される。この結果、特定済みの注目領域内の各画素が、勾配方向に基づいて9個のグループに分類される。そして、CPU32は、各グループに属する各画素の勾配強度の和を算出することによって、勾配方向ヒストグラムを生成する。
Next, the
次いで、CPU32は、勾配方向ヒストグラムを利用して、特定済みの注目領域のHOG(Histograms of Oriented Gradientsの略)特徴量V1を算出する。勾配方向ヒストグラムにおいて、各勾配方向に対応する各勾配強度の和がm0,m20,m40,m60,m80,m100,m120,m140,m160である場合に、HOG特徴量V1は、(m0,m20,m40,m60,m80,m100,m120,m140,m160)で表現される。
Next, the
また、CPU32は、9個の注目領域OAのうちの他の1個の注目領域を新たに特定し、特定済みの新たな注目領域について、HOG特徴量を同様に算出する。これにより、CPU32は、1個の正方形領域内の9個の注目領域OAに対応する9個のHOG特徴量V1〜V9を算出する。そして、CPU32は、AdaBoost(Adaptive Boostingの略)と呼ばれる機械学習アルゴリズムによって取得される強識別器に9個のHOG特徴量V1〜V9を入力し、出力値を取得する。CPU32は、出力値が所定値Th1以上である場合に、正方形領域SAが顔候補領域であると判断し、出力値が所定値Th1未満である場合に、正方形領域SAが顔候補領域でないと判断する。なお、変形例では、CPU32は、HOG特徴量とは異なる指標値を利用して、顔候補領域を特定してもよい。即ち、例えば、CPU32は、SIFT(Scale-invariant Feature Transformの略)特徴量、PCA(Principal Component Analysisの略)−SIFT特徴量、BSIFT(Background and Scale-invariant Feature Transformの略)特徴量等の指標値を利用して顔候補領域を特定してもよい。
In addition, the
上記のように、CPU32は、原画像内の正方形領域SAが顔候補領域であるのか否かを判断することができ、この結果、原画像から1個以上の顔候補領域を特定し得る。図6には、ヒトの顔を示す領域を含む原画像OI2から2個の顔候補領域FC1,FC2が特定される例が示されている。
As described above, the
図4のS204では、CPU32は、S202で1個以上の顔候補領域を特定したのか否かを判断する。CPU32は、S202で1個以上の顔候補領域を特定した場合(S204でYES)に、S206に進む。一方において、CPU32は、S202で1個の顔候補領域も特定することができなかった場合(S204でNO)に、S206以降の処理を実行せずに、図4の処理を終了する。この場合、1個の顔領域も特定することができないので(図4のS212が実行されないので)、図3のS106で「0個」と判断される。
In S204 of FIG. 4, the
S206では、CPU32は、1組以上の重複候補領域群を特定することを試行する。ここで、S206の「1組の重複候補領域群」は、重複する2個以上の顔候補領域を意味する。例えば、1個の顔候補領域が他のいずれの顔候補領域にも重複していない場合には、当該1個の顔候補領域は、重複候補領域群として特定されない。また、例えば、3個の顔候補領域が互いに重複している場合には、当該3個の顔候補領域が1組の重複候補領域群として特定される。図6の例では、2個の顔候補領域FC1,FC2が重複しているので、2個の顔候補領域FC1,FC2が1組の重複候補領域群として特定される。
In S206, the
S208では、CPU32は、1組以上の重複候補領域群を特定することができたのか否かを判断する。CPU32は、1組以上の重複候補領域群を特定することができた場合に、S210に進む。一方において、CPU32は、1組の重複候補領域群も特定することができなかった場合に、S210以降の処理を実行せずに、図4の処理を終了する。この場合、1個の顔領域も特定することができないので(図4のS212が実行されないので)、図3のS106で「0個」と判断される。
In S208, the
S210では、CPU32は、S208で特定された1組以上の重複候補領域群を利用して、1個以上の中間領域を特定する。具体的には、CPU32は、1組以上の重複領域候補群のうちの1組の重複候補領域群を選択し、選択済みの1組の重複候補領域群に含まれる2個以上の顔候補領域のそれぞれについて、左上の頂点の座標を特定する。そして、CPU32は、2個以上の左上の頂点の座標の平均値を算出し、算出済みの平均値の座標を中間領域の左上の頂点の座標として特定する。例えば、図6の例では、CPU32は、座標P1と座標P2を利用して、中間領域の左上の頂点の座標PMを特定する。同様に、CPU32は、中間領域の右上、左下、及び、右下の各頂点の各座標を特定する。これにより、CPU32は、1組の重複候補領域群から1個の中間領域MA1を特定することができる。同様に、CPU32は、他の1組の重複候補領域群が存在する場合には、当該他の重複候補領域群から1個の中間領域を特定する。これにより、CPU32は、1個以上の中間領域を特定する。
In S210, the
図4のS212では、CPU32は、S210で特定された1個以上の中間領域を1個以上の顔領域として特定する。図6の例では、中間領域MA1が顔領域FA1として特定される。S212が終了すると、図4の処理が終了する。この場合、1個以上の顔領域が特定されるので、図3のS106で「1個」又は「2個以上」と判断される。上述したように、1個の顔領域のみが特定される場合(S106で「1個」)には、S112において、当該1個の顔領域に基づいて、原画像から部分領域が特定される。また、2個以上の顔領域が特定される場合(S106で「2個以上」)には、S110において、最大の面積を有する1個の顔領域が選択され、S112において、当該1個の顔領域に基づいて、原画像から部分領域が特定される。原画像から部分領域を特定するためのS112の処理の詳細について、次に説明する。
In S212 of FIG. 4, the
図6に示されるように、原画像OI2から1個の顔領域FA1のみが特定される(図3のS106で「1個」)。S112では、CPU32は、第1のTPデータ41に対応付けられている第1の比情報41a(図1参照)に従って、原画像OI2から部分領域PA2を抽出する。具体的には、CPU32は、原画像OI2から、以下の条件(1)〜(3)を満たす部分領域PA2を抽出する。条件(1)では、部分領域PA2の面積は、顔領域FA1の面積と第1の比情報41aとによって決定される面積である。第1の比情報41aは、決定されるべき部分領域の面積に対する顔領域の面積の比(例えば「1.3/1」)である。例えば、顔領域FA1の面積が130画素であり、かつ、第1の比情報41aが「1.3/1」を示す場合には、部分領域PA2の面積は、100画素である。ここで、第1の比情報41aは、部分領域PA2の面積が顔領域FA1の面積よりも小さくなる面積比を示す。このように、部分領域PA2の面積が顔領域FA1の面積よりも小さくなると、部分領域PA2を用いて得られる対象画像が第1種のTP画像TP1内の合成領域CA1(図1参照)に合成される場合に、合成領域CA1内において顔の各パーツ(目、鼻、口等)が大きくなる。この結果、適切な処理済み画像をユーザに提供することができる。条件(2)では、部分領域PA2の重心は、顔領域FA1の重心に一致する。条件(3)では、部分領域PA2のアスペクト比は、第1種のTP画像TP1内の円形の合成領域CA1(図1参照)に外接する矩形(即ち正方形)のアクペクト比に等しい。即ち、部分領域PA2は、正方形の領域である。なお、条件(1)で部分領域PA2の面積として正方形に適合しない面積(例えば90画素等)が算出される場合には、算出済みの面積よりも大きい面積であって、正方形に適合する最も小さい面積(例えば100画素)が採用される。S112で部分領域PA2が抽出されると、図2のS10で合成処理が実行される。当該合成処理の内容について、次に説明する。
As shown in FIG. 6, only one face area FA1 is specified from the original image OI2 (“1” in S106 of FIG. 3). In S112, the
CPU32は、まず、原画像データから、部分領域PA2を表わす部分領域データを取得する。次いで、CPU32は、部分領域データのサイズを変更して、変更済み画像を表わす変更済み画像データを生成する。具体的には、CPU32は、部分領域データを単純拡大又は単純縮小して、第1種のTP画像TP1内の円形の合成領域CA1に外接する矩形に一致するサイズを有する変更済み画像を表わす変更済み画像データを生成する。ここで、単純拡大又は単純縮小は、部分領域PA2を対角線方向に拡大又は縮小することを意味する。そして、CPU32は、変更済み画像データを用いて得られる対象データを第1種のTPデータ41に合成して、処理済み画像PI2を表わす処理済み画像データを生成する。当該対象データは、変更済み画像データのうち、変更済み画像の矩形に内接する円形の対象画像TI1を表わすデータである。CPU32は、第1種のTP画像TP1内の合成領域CA1を構成する各画素の画素値を、上記の対象画像TI1を構成する各画素の各画素値に置換することによって、上記の合成処理を実行する。
First, the
(第2の顔領域特定処理;図7〜図10)
続いて、図7〜図10を参照して、図3のS114で実行される第2の顔領域特定処理の内容について説明する。S302,S304は、それぞれ、図4のS202,S204と同様である。図9の例では、3個の顔を含む原画像OI3から、12個の顔候補領域FC3〜FC14が特定されるので、S304でYESと判断される。
(Second face region specifying process; FIGS. 7 to 10)
Next, the content of the second face area specifying process executed in S114 of FIG. 3 will be described with reference to FIGS. S302 and S304 are the same as S202 and S204 in FIG. 4, respectively. In the example of FIG. 9, since 12 face candidate areas FC3 to FC14 are specified from the original image OI3 including three faces, YES is determined in S304.
S306では、CPU32は、1組以上の重複候補領域群を特定することを試行する。ここで、上述したように、図4のS206の「1組の重複候補領域群」が重複する2個以上の顔候補領域を意味するのに対し、S306の「1組の重複候補領域群」は、重複する5個以上の顔候補領域を意味する。これは、図4のS206では重複候補領域群が特定され易く、S306では重複候補領域群が特定され難いことを意味する。その理由は、以下のとおりである。即ち、本実施例では、第1種のTP画像TP1内の合成領域CA1(図1参照)には、顔を示す対象画像が必ず合成される必要がある。従って、図4の第1の顔領域特定処理のS206では、重複候補領域群を特定するための基準が緩くなっており、この結果、顔領域が特定され易くなっている。一方、第2種のTP画像TP2内の合成領域CA2(図1参照)には、顔を示す対象画像が必ずしも合成される必要がない。従って、正確に顔領域を特定することを目的として、S306では、重複候補領域群を特定するための基準が厳しくなっている。図9の例では、5個の顔候補領域FC3〜FC7が1組の重複候補領域群として特定されると共に、5個の顔候補領域群FC10〜FC14が1組の重複候補領域群として特定される。なお、2個の顔候補領域FC8,FC9は、5個以上の顔候補領域が重複しないので、重複候補領域群として特定されない。例えば、帽子をかぶっているヒトの顔、眼鏡をかけているヒトの顔等は、顔候補領域として特定され難い。従って、図9に示されるように、帽子をかぶっているヒトの顔を示す2個の顔候補領域FC8,FC9は、ヒトの顔を示す領域であるにも関わらず、重複候補領域群として特定されない。
In S306, the
S308は、図4のS208と同様である。図9の例では、2組の重複候補領域群が特定されるので、S308でYESと判断される。また、S310は、図4のS210と同様である。図9の例では、2組の重複候補領域群から2個の中間領域MA2,MA3が特定される。 S308 is the same as S208 of FIG. In the example of FIG. 9, since two sets of overlapping candidate area groups are specified, YES is determined in S308. Moreover, S310 is the same as S210 of FIG. In the example of FIG. 9, two intermediate regions MA2 and MA3 are specified from two sets of overlapping candidate region groups.
S312では、CPU32は、S310で特定された1個以上の中間領域の中に1個以上の対象中間領域が存在するのか否かを判断する。対象中間領域は、原画像の面積に対する面積の比が所定値Th2よりも大きい中間領域である。図9の例では、原画像OI3の面積に対する中間領域MA2の面積の比は、所定値Th2よりも大きくなるので中間領域MA2は対象中間領域である。一方において、原画像OI3の面積に対する中間領域MA3の面積の比は、所定値Th2以下であるので、中間領域MA3は対象中間領域ではない。この結果、中間領域MA3は、顔領域として特定されず、中間領域MA3を示す画像が、第2種のTP画像TP2内の合成領域CA2(図1参照)に合成されない。これにより、比較的に小さい顔を示す画像が合成されるのを抑制することができ、この結果、適切な処理済み画像をユーザに提供することができる。なお、第2種のTP画像TP2内の合成領域CA2には、顔を示す対象画像が必ずしも合成される必要がないため、比較的に小さい顔を示す画像が特定されなくてもよい。
In S312, the
CPU32は、1個以上の対象中間領域が存在すると判断する場合(S312でYES)に、S314において、当該1個以上の対象中間領域を1個以上の顔領域として特定する。図9の例では、中間領域MA2が顔領域FA2として特定される。次いで、図8のS316に進む。一方において、CPU32は、1個の対象中間領域も存在しないと判断する場合(S312でNO)に、顔領域を特定することなく(即ちS314を実行せずに)、図8のS316に進む。
If the
図8のS316では、CPU32は、図7の各処理で1個以上の顔領域を特定したのか否かを判断する。CPU32は、1個の顔領域も特定することができなかった場合(S316でNO)に、図8の処理を終了する。この場合、図3のS116で「0個」と判断され、S122に進む。一方において、CPU32は、1個以上の顔領域を特定した場合(S316でYES)に、S318に進む。S318以降では、特定済みの顔領域の周辺に他の顔領域が存在するのか否かが判断される。例えば、図9に示されるように、S314では、左側のヒトの顔を示す顔領域FA2が特定されるが、その顔領域FA2の周辺に他の顔領域(即ち中央のヒトの顔を示す顔領域)が存在する。このような状況では、ユーザは、左側のヒトの顔と中央のヒトの顔との双方を示す対象画像が合成されることを望む可能性が高い。このために、中央のヒトの顔を特定するためにS318以降が実行される。
In S316 of FIG. 8, the
S318は、図4のS206と同様である。即ち、「1組の重複候補領域群」は、重複する2個以上の顔候補領域を意味し、図7のS306よりも重複候補領域群を特定するための基準が緩い。なお、S318では、CPU32は、図7のS306で特定済みの重複候補領域群と同一の重複候補領域群を再び特定しない。図9の例では、S318において、2個の顔候補領域FC8,9が1組の重複領域群として特定される。
S318 is the same as S206 of FIG. That is, “a set of overlapping candidate area groups” means two or more face candidate areas that overlap, and the criteria for specifying the overlapping candidate area groups are looser than those in S306 of FIG. In S318, the
S319では、CPU32は、S318で1組以上の重複候補領域群を特定することができたか否かを判断する。CPU32は、1組以上の重複候補領域群を特定することができた場合(S319でYES)に、S320に進む。S320は、図4のS210と同様である。図9の例では、1個の中間領域MA4が特定される。一方において、CPU32は、S318で1組の重複候補領域群も特定することができなかった場合(S319でNO)に、図8の処理を終了する。
In S319, the
S322では、CPU32は、S320で特定された1個以上の中間領域の中に1個以上の重複中間領域が存在するのか否かを判断する。重複中間領域は、図7のS314で特定された1個以上の顔領域の1個以上の周辺領域に重複する中間領域である。具体的には、CPU32は、図7のS314で特定された1個以上の顔領域のそれぞれについて、以下の条件(4)〜(6)を満たす周辺領域を特定する。条件(4)では、周辺領域の面積は、顔領域の面積を所定の倍率だけ拡大した面積である。条件(5)では、周辺領域の重心は、顔領域の重心に一致する。条件(6)では、周辺領域のアスペクト比は、顔領域のアスペクト比に等しい。図9の例では、顔領域FA2に対応する周辺領域NAが特定される。次いで、CPU32は、S320で特定された1個以上の中間領域のうち、1個以上の周辺領域のいずれかに重複する中間領域が存在する場合に、当該中間領域を重複中間領域として特定する。図9の例では、周辺領域NAに中間領域MA4が重複するので、中間領域MA4が重複中間領域として特定される。
In S322, the
S324では、CPU32は、S322で特定された1個以上の重複中間領域の中に1個以上の対象中間領域が存在するのか否かを判断する。ここでの判断は、図7のS312と同様である。図9の例では、原画像OI3の面積に対する重複中間領域MA4の面積の比は、所定値Th2よりも大きいので、重複中間領域MA4が対象中間領域として特定される。
In S324, the
CPU32は、1個以上の対象中間領域が存在すると判断する場合(S324でYES)に、S326において、当該1個以上の対象中間領域を1個以上の顔領域として特定する。図9の例では、中間領域MA4が顔領域FA3として特定される。即ち、図7のS314で顔領域FA2が特定され、図8のS326で顔領域FA3が特定され、結果として、2個の顔領域FA2,FA3が特定される。CPU32は、S326を終えると、図8の処理を終了する。この場合、2個以上の顔領域が特定されるので、図3のS116で「2個以上」と判断されてS122が実行される。一方において、CPU32は、1個の対象中間領域も存在しないと判断する場合(S324でNO)に、顔領域を特定することなく、図8の処理を終了する。この場合、1個以上の顔領域が特定されるので、図3のS116で「1個」と判断されてS120が実行されるか、S116で「2個以上」と判断されてS122が実行される。
When determining that one or more target intermediate areas exist (YES in S324), the
続いて、図3のS120において、1個の顔領域に基づいて、原画像から部分領域を特定する処理の内容を説明する。例えば、図7及び図8の処理において、図9の原画像OI3から、1個の顔領域FA2のみが特定される状況(即ち、図9の顔領域FA3が特定されない状況)を想定する。この場合、図10に示されるように、S120では、CPU32は、第2のTPデータ42に対応付けられている第2の比情報42a(図1参照)に従って、原画像OI3から部分領域PA3を抽出する。具体的には、CPU32は、原画像OI3から、以下の条件(7)〜(9)を満たす部分領域PA3を抽出する。条件(7)では、部分領域PA3の面積は、顔領域FA2と第2の比情報42aとによって決定される面積である。第1の比情報42aは、決定されるべき部分領域の面積に対する顔領域の面積の比(例えば「0.4/1」)である。ここで、第2の比情報42aは、部分領域PA3の面積が顔領域FA2の面積よりも大きくなる面積比を示す。このように、部分領域PA3の面積が顔領域FA2の面積よりも大きくなると、第2種のTP画像TP2内の合成領域CA2(図1参照)に部分領域PA3に基づく対象画像が合成される場合に、合成領域CA2内に顎、耳等を含む顔の全体が含まれることになる。この結果、適切な処理済み画像をユーザに提供することができる。条件(8)では、部分領域PA3の重心は、顔領域FA2の重心に一致する。条件(9)では、部分領域PA3のアスペクト比は、第2種のTP画像TP2内の合成領域CA2(図1参照)のアクペクト比に等しい。S122で部分領域PA3が抽出されると、図2のS10で合成処理が実行される。当該合成処理の内容について、次に説明する。
Next, the content of the process of specifying a partial area from the original image based on one face area in S120 of FIG. 3 will be described. For example, in the processing of FIGS. 7 and 8, a situation is assumed in which only one face area FA2 is specified from the original image OI3 in FIG. 9 (that is, a situation in which the face area FA3 in FIG. 9 is not specified). In this case, as shown in FIG. 10, in S120, the
CPU32は、まず、原画像データから、部分領域PA3を表わす部分領域データを取得する。次いで、CPU32は、部分領域データを単純拡大又は単純縮小して、第2種のTP画像TP2内の矩形の合成領域CA2のサイズに一致するサイズを有する対象画像TI2を表わす対象データを生成する。そして、CPU32は、対象データを第2種のTPデータ42に合成して、処理済み画像PI3を表わす処理済み画像データを生成する。CPU32は、第2種のTP画像TP2内の合成領域CA2を構成する各画素の画素値を、上記の対象画像TI2を構成する各画素の各画素値に置換することによって、上記の合成処理を実行する。
First, the
続いて、図3のS116で「2個以上」と判断されて実行されるS122の処理の内容を説明する。図10に示されるように、原画像OI3から2個の顔領域FA2,FA3が特定される状況を想定する。この場合、S122では、CPU32は、第2のTPデータ42に従って、原画像OI3から部分領域PA4を抽出する。具体的には、CPU32は、原画像OI3から、以下の条件(10)〜(12)を満たす部分領域PA4を抽出する。条件(10)では、部分領域PA4のアスペクト比は、合成領域CA2のアスペクト比に一致する。条件(11)では、部分領域PA4の重心は、原画像OI3の重心に一致する。条件(12)では、部分領域PA4は、原画像OI3に内接する。これにより、CPU32は、合成領域CA2のアスペクト比に一致するという条件(10)の下で、最大の面積を有する部分領域PA4を抽出することができる。この結果、部分領域PA4は、原画像OI3に含まれる比較的多くのオブジェクト(即ち2人のヒト)を含み得る。このために、第2種のTP画像TP2内の合成領域CA2(図1参照)に部分領域PA4に基づく対象画像が合成される場合に、合成領域CA2内に比較的多くのオブジェクトが含まれることになる。この結果、適切な処理済み画像をユーザに提供することができる。S122で部分領域PA4が抽出されると、上記と同様に、図2のS10の合成処理が実行される。即ち、部分領域PA4が単純縮小された対象画像TI3が合成領域CA2に合成されて、処理済み画像PI4を表わす処理済み画像データが生成される。
Next, the content of the process of S122 that is executed when it is determined as “two or more” in S116 of FIG. 3 will be described. As shown in FIG. 10, a situation is assumed in which two face areas FA2 and FA3 are specified from the original image OI3. In this case, in S122, the
(第3種のTPデータ43が選択される場合;図11)
続いて、図11を参照して、選択済みTPデータが第3種のTPデータ43であるケース(図3のS102で「第3種のTPデータ」)を説明する。選択済みTPデータが第3種のTPデータ43である場合には、S122が実行される。この場合、図11の例では、CPU32は、図6の原画像OI2と同じ原画像OI2から、顔候補領域及び顔領域を特定しない(即ちS104又はS114を実行しない)。CPU32は、第3種のTPデータ43に応じた上記の条件(10)〜(12)に従って、原画像OI2から部分領域PA5を抽出する(S122)。即ち、条件(10)では、部分領域PA5のアスペクト比は、第3種のTP画像TP3内の合成領域CA3のアスペクト比に一致する。条件(11)では、部分領域PA5の重心は、原画像OI2の重心に一致する。条件(12)では、部分領域PA5は、原画像OI2に内接する。S122で部分領域PA5が抽出されると、上記と同様に、図2のS10の合成処理が実行される。即ち、部分領域PA5が単純縮小された対象画像TI4が合成領域CA3に合成されて、処理済み画像PI5を表わす処理済み画像データが生成される。
(When the third
Next, a case where the selected TP data is the third type TP data 43 (“third type TP data” in S102 of FIG. 3) will be described with reference to FIG. If the selected TP data is the third
(同じ原画像に対して異なるTPデータが選択される具体例;図12)
図12は、ヒトの顔を含む原画像OI2に対して各TPデータ41〜43が選択される様子を示す。選択済みTPデータが第1種のTPデータ41である場合(図3のS102で「第1種のTPデータ」)には、図6を参照して説明したように、原画像OI2から2個の顔候補領域FC1,FC2が特定され(図4のS202)、この結果、原画像OI2から1個の顔領域FA1が特定される(S212)。次いで、原画像OI2から、顔領域FA1の少なくとも一部を含む部分領域PA2が抽出される(図3のS112)。そして、部分領域PA2のうちの円形の対象画像TI1が第1種のTP画像TP1内の合成領域CA1に合成され、処理済み画像PI2が生成される(図2のS10)。
(Specific example in which different TP data is selected for the same original image; FIG. 12)
FIG. 12 shows how the
また、選択済みTPデータが第2種のTPデータ42である場合(図3のS102で「第2種のTPデータ」)には、原画像OI2から2個の顔候補領域FC1,FC2が特定されるが(図7のS302)、5個以上の顔候補領域が重複しないので(S306参照)、顔領域が特定されない(S308でNO)。従って、原画像OI2から、第2種のTPデータ42に応じた部分領域PA7が抽出される(図3のS122)。そして、部分領域PA7が単純縮小された対象画像TI6が第2種のTP画像TP2内の合成領域CA2に合成され、処理済み画像PI7が生成される(図2のS10)。このように、原画像が同じであっても、選択済みTPデータが第1種のTPデータ41である場合では、顔領域が特定され、選択済みTPデータが第2種のTPデータ42である場合では、顔領域が特定されない。
When the selected TP data is the second type TP data 42 (“second type TP data” in S102 of FIG. 3), the two face candidate areas FC1 and FC2 are identified from the original image OI2. However, since five or more face candidate areas do not overlap (see S306), no face area is specified (NO in S308). Therefore, the partial area PA7 corresponding to the second
また、選択済みTPデータが第3種のTPデータ43である場合(図3のS102で「第3種のTPデータ」)には、図11を参照して説明したように、原画像OI2から顔候補領域及び顔領域が特定されない(図3のS104又はS114が実行されない)。従って、原画像OI2から、第3種のTPデータ43に応じた部分領域PA5が抽出される(図3のS122)。そして、部分領域PA5が単純縮小された対象画像TI4が第3種のTP画像TP3内の合成領域CA3に合成され、処理済み画像PI5が生成される(図2のS10)。
If the selected TP data is the third type TP data 43 (“third type TP data” in S102 of FIG. 3), as described with reference to FIG. The face candidate area and the face area are not specified (S104 or S114 in FIG. 3 is not executed). Therefore, the partial area PA5 corresponding to the third
(同じ原画像に対して異なるTPデータが選択される具体例;図13)
図13は、ヒトの顔を含まない原画像OI4に対して各TPデータ41〜43が選択される様子を示す。選択済みTPデータが第1種のTPデータ41である場合(図3のS102で「第1種のTPデータ」)には、原画像OI4から顔候補領域及び顔領域が特定されない(図4のS204でNO、図3のS106で「0個」)。このために、エラー通知がプリンタPRに供給され(S108)、原画像OI4を利用した合成処理が実行されない。
(Specific example in which different TP data is selected for the same original image; FIG. 13)
FIG. 13 shows how the
また、選択済みTPデータが第2種のTPデータ42である場合(図3のS102で「第2種のTPデータ」)には、原画像OI4から顔候補領域及び顔領域が特定されない(図7のS304でNO、S316でNO,図3のS116で「0個」)。従って、原画像OI4から、第2種のTPデータ42に応じた部分領域PA8が抽出される(図3のS122)。そして、部分領域PA8が単純縮小された対象画像TI7が第2種のTP画像TP2内の合成領域CA2に合成され、処理済み画像PI8が生成される(図2のS10)。
When the selected TP data is the second type TP data 42 (“second type TP data” in S102 of FIG. 3), the face candidate area and the face area are not specified from the original image OI4 (FIG. No. 7 in S304, NO in S316, “0” in S116 of FIG. Accordingly, the partial area PA8 corresponding to the second
また、選択済みTPデータが第3種のTPデータ43である場合(図3のS102で「第3種のTPデータ」)には、原画像OI4から顔候補領域及び顔領域が特定されない(図3のS104又はS114が実行されない)。従って、原画像OI4から、第3種のTPデータ43に応じた部分領域PA9が抽出される(図3のS122)。そして、部分領域PA9が単純縮小された対象画像TI8が第3種のTP画像TP3内の合成領域CA3に合成され、処理済み画像PI9が生成される(図2のS10)。
When the selected TP data is the third type TP data 43 (“third type TP data” in S102 of FIG. 3), the face candidate area and the face area are not specified from the original image OI4 (FIG. 3 S104 or S114 is not executed). Therefore, the partial area PA9 corresponding to the third
上述したように、サーバSRは、選択済みテンプレート画像が合成領域CA1を含む場合に、図4の第1の顔領域特定処理で顔領域を特定するための条件を満たす顔領域を原画像から特定することを試行する。一方において、サーバSRは、選択済みテンプレート画像が合成領域CA2を含む場合に、上記の条件とは異なる、図7及び図8の第2の顔領域特定処理で顔領域を特定するための条件を満たす顔領域を原画像から特定することを試行する。このように、サーバSRは、原画像から顔領域を特定するための条件を選択済みテンプレートデータに応じて変えるという新規な手法を採用している。そして、サーバSRは、原画像から顔領域が特定される場合に、当該顔領域の少なくとも一部を含む部分領域を抽出する。即ち、サーバSRは、新規な手法を利用して、原画像から選択済みテンプレートデータに応じた部分領域を抽出する。この結果、サーバSRは、原画像データのうち、抽出済みの部分領域を表わす部分領域データを用いて得られる対象データと、選択済みテンプレートデータと、を合成して、処理済み画像データを適切に生成し得る。 As described above, when the selected template image includes the synthesis area CA1, the server SR specifies a face area that satisfies the conditions for specifying the face area in the first face area specifying process of FIG. 4 from the original image. Try to do. On the other hand, when the selected template image includes the composite area CA2, the server SR sets conditions for specifying a face area in the second face area specifying process of FIGS. 7 and 8 that are different from the above conditions. An attempt is made to identify the face area to be satisfied from the original image. As described above, the server SR employs a novel method of changing the condition for specifying the face area from the original image according to the selected template data. Then, when the face area is specified from the original image, the server SR extracts a partial area including at least a part of the face area. That is, the server SR extracts a partial region corresponding to the selected template data from the original image using a new method. As a result, the server SR combines the target data obtained by using the partial area data representing the extracted partial area of the original image data and the selected template data, and appropriately processes the processed image data. Can be generated.
また、上述したように、サーバSRは、選択済みテンプレート画像が合成領域CA1を含み、かつ、原画像から顔領域が特定される場合に、顔領域と部分領域との面積比が第1の比情報41aの値に一致するように、原画像から部分領域を抽出する。一方において、サーバSRは、選択済みテンプレート画像が合成領域CA2を含み、かつ、原画像から顔領域が特定される場合に、顔領域と部分領域との面積比が第1の比情報41aの値とは異なる第2の比情報42aの値に一致するように、原画像から部分領域を抽出する。このように、サーバSRは、原画像から部分領域を抽出する際に、選択済みテンプレートデータに応じた面積比を利用するという新規な手法を採用している。この結果、サーバSRは、原画像データのうち、抽出済みの部分領域を表わす部分領域データを用いて得られる対象データと、選択済みテンプレートデータと、を合成して、処理済み画像データを適切に生成し得る。
Further, as described above, when the selected template image includes the synthesis area CA1 and the face area is specified from the original image, the server SR determines that the area ratio between the face area and the partial area is the first ratio. A partial region is extracted from the original image so as to match the value of the
(対応関係)
プリンタPRが、「画像処理装置」の一例である。合成領域CA1、合成領域CA2が、それぞれ、「第1種の領域」、「第2種の領域」の一例である。部分領域PA2が、「第1の部分領域」の一例である。部分領域PA7,PA8が、「第2の部分領域」の一例である。図4の第1の顔領域特定処理で顔領域を特定するための条件(即ちS202〜S212)が、「第1の条件」の一例である。図7及び図8の第2の顔領域特定処理で顔領域を特定するための条件(即ちS302〜S326)が、「第2の条件」の一例である。複数個のTPデータ41〜43が、「複数個のテンプレートデータ」の一例である。第1の比情報41aによって示される比、第2の比情報42aによって示される比が、それぞれ、「第1の比」、「第2の比」の一例である。図3のS116を経て実行されるS122で抽出される部分領域のサイズが「所定のサイズ」の一例である。図7のS312及びS324のTh2が、「所定値」の一例である。
(Correspondence)
The printer PR is an example of an “image processing apparatus”. The synthesis area CA1 and the synthesis area CA2 are examples of “first type area” and “second type area”, respectively. The partial area PA2 is an example of a “first partial area”. The partial areas PA7 and PA8 are examples of the “second partial area”. The conditions for specifying the face area in the first face area specifying process of FIG. 4 (ie, S202 to S212) are examples of the “first condition”. The conditions (that is, S302 to S326) for specifying the face area in the second face area specifying process of FIGS. 7 and 8 are examples of the “second condition”. The plurality of
図2のS4の処理、S6の処理、S10の処理が、それぞれ、「選択結果情報取得部」、「原画像データ取得部」、「合成部」によって実行される処理の一例である。図3のS104,S114の処理が、「特定試行部」によって実行される処理の一例である。S112,S120,S122の処理が、「部分領域抽出部」によって実行される処理の一例である。 The processes in S4, S6, and S10 in FIG. 2 are examples of processes executed by the “selection result information acquisition unit”, “original image data acquisition unit”, and “synthesis unit”, respectively. The processing of S104 and S114 in FIG. 3 is an example of processing executed by the “specific trial unit”. The processing of S112, S120, and S122 is an example of processing executed by the “partial region extraction unit”.
(第2実施例;図14)
本実施例では、CPU32は、図3のS116で顔領域の個数が「1個」であると判断する場合に、S118の比情報変更処理を実行する。比情報変更処理は、第2の比情報42aに従って部分領域を抽出するのが不適切である場合に、第2の比情報42aの値を変更するための処理である。
(Second embodiment; FIG. 14)
In this embodiment, when the
図14を参照して、比情報変更処理の内容を説明する。S402では、CPU32は、拡縮率Rが所定値Th3よりも大きいのか否かを判断する。具体的には、まず、CPU32は、図3のS114で特定された1個の顔領域の面積と第2の比情報42aとを利用して、候補部分領域の面積を算出する。例えば、図14の原画像OI5内の顔領域FA4の面積が40画素であり、メモリ34内の第2の比情報42aが「0.4/1」を示す場合には、候補部分領域CPAの面積は100画素である。次いで、CPU32は、第2種のTP画像TP2内の合成領域CA2の面積を候補部分領域CPAの面積(例えば100画素)で除算することによって、拡縮率Rを算出する。即ち、拡縮率Rは、合成領域CA2に対象画像を合成するために、候補部分領域CPAをどれだけ拡大又は縮小すべきかを示す値である。そして、CPU32は、拡縮率Rが所定値Th3よりも大きいと判断する場合(S402でYES)、即ち、候補部分領域CPAを比較的大きく拡大すべき場合に、S404に進む。一方において、CPU32は、拡縮率Rが所定値Th3未満であると判断する場合(S402でNO)、即ち、候補部分領域CPAを大きく拡大せずに済む場合に、S404を実行せずに、図14の処理を終了する。この場合、メモリ34内の第2の比情報42aに従って、第1実施例の図3のS120と同様に、部分領域が抽出される。
The content of the ratio information change process will be described with reference to FIG. In S402, the
S404では、CPU32は、メモリ34内の第2の比情報42aの値を変更する。具体的には、CPU32は、変更後の第2の比情報の値が、「(所定値Th3×顔領域FA4の面積)/合成領域CA2の面積」によって得られる値に一致するように、変更後の第2の比情報の値を算出する。即ち、変更後の第2の比情報の値は、拡縮率Rが所定値Th3に一致するように決定される。
In S404, the
CPU32は、S404を経て図14の処理を終了すると、図3のS120において、変更後の第2の比情報に従って、原画像から部分領域を抽出する。図14の例では、CPU32は、変更後の第2の比情報に従って、原画像OI5から部分領域PA10を抽出する。そして、CPU32は、部分領域PA10が拡大された対象画像TI9を第2種のTP画像TP2内の合成領域CA2に合成して、処理済み画像PI10を表わす処理済み画像データを生成する。
When the processing of FIG. 14 is completed through S404, the
(本実施例の効果)
仮に、図14の候補部分領域CPAを拡大して合成領域CA2に合成する手法を採用すると、候補部分領域CPAを比較的に大きく拡大する必要があり、処理済み画像が低画質になる可能性がある。これに対し、本実施例では、S404で変更後の第2の比情報が算出されるので、変更後の第2の比情報に従って抽出される部分領域PA10の面積は、候補部分領域CPAの面積よりも大きくなる。このために、部分領域PA10をそれほど大きく拡大しなくても、部分領域PA10を用いて得られる対象画像TI9を合成領域CA2に合成することができる。この結果、処理済み画像PI10が低画質になるのを抑制することができる。なお、本実施例では、図14のS404で算出される変更後の第2の比情報の値が、「第3の比」の一例である。S402の判断の基準が「所定の基準」の一例である。
(Effect of this embodiment)
If the method of enlarging the candidate partial area CPA of FIG. 14 and synthesizing the candidate partial area CPA into the synthesis area CA2 is necessary, the candidate partial area CPA needs to be enlarged relatively large, and the processed image may have low image quality. is there. On the other hand, in the present embodiment, since the second ratio information after the change is calculated in S404, the area of the partial area PA10 extracted according to the second ratio information after the change is the area of the candidate partial area CPA. Bigger than. Therefore, the target image TI9 obtained using the partial area PA10 can be combined with the combining area CA2 without enlarging the partial area PA10 so much. As a result, it is possible to suppress the processed image PI10 from having a low image quality. In the present embodiment, the value of the changed second ratio information calculated in S404 of FIG. 14 is an example of the “third ratio”. The criterion of the determination in S402 is an example of “predetermined criterion”.
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には以上に例示した具体例を様々に変形、変更したものが含まれる。上記の実施例の変形例を以下に列挙する。 Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The modifications of the above embodiment are listed below.
(変形例1)上記の各実施例では、図4のS206の「1組の重複候補領域群」は、重複する2個以上の顔候補領域を意味し、図7のS306の「1組の重複候補領域群」は、重複する5個以上の顔候補領域を意味する。ただし、これらの「2個」及び「5個」という数値は、後者の数値が前者の数値よりも大きければ、適宜変更可能である。一般的に言うと、「第1の条件」と「第2の条件」とが異なるものであればよい。 (Modification 1) In each of the above-described embodiments, “one set of overlapping candidate area group” in S206 of FIG. 4 means two or more face candidate areas that overlap, and “one set of face groups” in S306 of FIG. The “overlapping candidate area group” means five or more overlapping face candidate areas. However, the numerical values “2” and “5” can be appropriately changed as long as the latter numerical value is larger than the former numerical value. Generally speaking, it is sufficient if the “first condition” and the “second condition” are different.
(変形例2)上記の各実施例では、図2のS12において、CPU32は、処理済み画像データをプリンタPRに供給するが、これに代えて、例えば、サーバSRの図示省略の表示部に処理済み画像を表示させてもよい。即ち、「出力部」が処理済み画像データを外部に出力することは、処理済み画像データをプリンタPRに供給することに限られない。
(Modification 2) In each of the above-described embodiments, the
(変形例3)上記の各実施例では、CPU32は、第1種のTPデータ41を特定する場合(図3のS102で「第1種のTPデータ」)に、S104で第1の顔領域特定処理を実行する。一方において、CPU32は、第2種のTPデータ42を特定する場合(S102で「第2種のTPデータ」)に、S114で第2の顔領域特定処理を実行する。変形例では、第1の顔領域特定処理と第2の顔領域特定処理とは同一の処理であってもよい。即ち、「特定試行部」は、原画像から顔領域を特定することを試行すればよい。
(Modification 3) In each of the embodiments described above, when the
(変形例4)上記の各実施例では、CPU32は、第1種のTPデータ41を特定する場合(図3のS102で「第1種のTPデータ」)に、S112で第1の比情報41aに従って、原画像から部分領域を抽出する。一方において、CPU32は、第2種のTPデータ42を特定する場合(S102で「第2種のTPデータ」)に、S120で第2の比情報42aに従って、原画像から部分領域を抽出する。変形例では、第1の比情報41aの値と第2の比情報42aの値とが同一の値であってもよい。即ち、「部分領域抽出部」は、原画像から顔領域が特定される場合に、原画像から、顔領域の少なくとも一部を含む部分領域を抽出すればよい。
(Modification 4) In each of the above embodiments, when the
(変形例5)上記の各実施例では、第1種のTPデータ41は、1個の合成領域CA1を含む。変形例では、第1種のTPデータ41は、複数個の合成領域を含んでいてもよく、例えば、2個の合成領域CA1,CA2を含んでいてもよい。この場合、以下の処理が実行されてもよい。まず、CPU32は、第1種のTPデータ41を示す選択結果情報をプリンタPRから取得し(図2のS4でYES)、2個の原画像を表わす2個の原画像データを取得する(S6でYES)。次いで、CPU32は、図3のS104〜S112を実行することによって、2個の原画像のうちの第1の原画像から部分領域を抽出し、S114〜S120を実行することによって、2個の原画像のうちの第2の原画像から部分領域を抽出する。次いで、CPU32は、第1,2の原画像から抽出済みの2個の部分領域を表わす2個の部分領域データを用いて得られる2個の対象データと、第1種のTPデータ41と、を合成する(図2のS10)。具体的には、CPU32は、第1の原画像に対応する対象画像が合成領域CA1に合成され、第2の原画像に対応する対象画像が合成領域CA2に合成されるように、各データを合成する。これにより、処理済み画像を表わす処理済み画像データが生成される。即ち、「複数個のテンプレートデータ」のうちの少なくとも1個のテンプレートデータによって表わされる少なくとも1個のテンプレート画像は、「第1種の領域」と「第2種の領域」と双方を含んでいてもよい。
(Modification 5) In each of the above embodiments, the first
(変形例6)上記の第2実施例では、CPU32は、図14のS402において、拡縮率Rが所定値Th3よりも大きいか否かを判断するが、これに代えて、例えば、原画像の長辺の長さが所定の長さよりも短いか否かを判断してもよい。CPU32は、原画像の長辺の長さが所定の長さよりも短いと判断する場合に、S404を実行し、原画像の長辺の長さが所定の長さ以上であると判断する場合に、S404を実行しなくてもよい。即ち、「所定の基準」は、S402の判断基準に限られない。
(Modification 6) In the second embodiment, the
(変形例7)図7のS312と図8のS324とは省略してもよい。即ち、「特定試行部」は、選択済みテンプレートデータが第2種の領域を含む場合に、小面積領域を顔領域として特定してもよい。 (Modification 7) S312 in FIG. 7 and S324 in FIG. 8 may be omitted. That is, the “specific trial part” may specify the small area as the face area when the selected template data includes the second type area.
(変形例8)図8のS316〜S326は省略してもよい。即ち、図3のS114の第2の顔領域特定処理では、CPU32は、図7のS302〜S314のみを実行してもよい。
(Modification 8) S316 to S326 in FIG. 8 may be omitted. That is, in the second face area specifying process of S114 of FIG. 3, the
(変形例9)上記の各実施例では、図3のS116で「2個以上」と判断されて実行されるS122では、CPU32は、第2種のTPデータ42に応じて、部分領域を抽出する。即ち、CPU32は、上述した条件(10)〜(12)を満たす部分領域を抽出する。変形例では、CPU32は、条件(10)〜(12)のうち、部分領域が原画像に内接するという条件(12)に代えて、例えば、部分領域の面積が所定の面積以下となるという条件を満たす部分領域を抽出してもよい。即ち、「所定サイズ」はS122で決定されるサイズに限られない。
(Variation 9) In each of the above embodiments, in S122, which is executed after being determined as “two or more” in S116 of FIG. 3, the
(変形例10)上記の各実施例では、図3のS110において、CPU32は、特定された2個以上の顔領域のうち、最大の面積を有する1個の顔領域を選択する。これに代えて、CPU32は、以下のように1個の顔領域を選択してもよい。即ち、CPU32は、2個以上の顔領域のそれぞれについて、当該顔領域に対応する1組の重複候補領域群(図4のS206)を構成する顔候補領域の数を特定する。そして、CPU32は、2個以上の顔領域のうち、特定済みの顔候補領域の数が最も多い顔領域を選択してもよい。
(Modification 10) In each of the embodiments described above, in S110 of FIG. 3, the
(変形例11)サーバSRのCPU32によって実行される図2〜図4、図7、図8、及び、図14の各処理は、プリンタPRによって実行されてもよい。この場合、プリンタPRが「画像処理装置」である。また、「画像処理装置」は、例えば、PC等であってもよい。一般的に言うと、「画像処理装置」は、処理済み画像データを生成し、処理済み画像データを外部に出力可能なあらゆるデバイスを含む。
(Modification 11) Each process of FIGS. 2 to 4, 7, 8, and 14 executed by the
(変形例12)上記の各実施例では、サーバSRのCPU32がプログラム(即ちソフトウェア)を実行することによって、図2〜図4、図7、図8、及び、図14の各処理が実現される。これに代えて、図2〜図4、図7、図8、及び、図14の各処理のうちの少なくとも1つの処理は、論理回路等のハードウェアによって実現されてもよい。
(Modification 12) In each of the above embodiments, the
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。 The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.
2:通信システム、20:ネットワークインターフェース、30:制御部、32:CPU、34:メモリ、36:プログラム、38:テンプレート情報、41〜43:テンプレートデータ、CA1〜CA3:合成領域、CPA:候補部分領域、FA1〜FA4:顔領域、FC1〜FC14:顔候補領域、MA1〜MA4:中間領域、NA:周辺領域、OA:注目領域、OI1〜OI5:原画像、P1〜P2,PM:座標、PA1〜PA10:部分領域、PI1〜PI10:処理済み画像、PR:プリンタ、SA:正方形領域、SR:サーバ、TI1〜TI9:対象画像、TP1〜TP3:テンプレート画像 2: Communication system, 20: Network interface, 30: Control unit, 32: CPU, 34: Memory, 36: Program, 38: Template information, 41-43: Template data, CA1-CA3: Composite area, CPA: Candidate part Area, FA1-FA4: face area, FC1-FC14: face candidate area, MA1-MA4: intermediate area, NA: peripheral area, OA: attention area, OI1-OI5: original image, P1-P2, PM: coordinates, PA1 ~ PA10: partial area, PI1 to PI10: processed image, PR: printer, SA: square area, SR: server, TI1 to TI9: target image, TP1 to TP3: template image
Claims (12)
複数個のテンプレートデータを取得するテンプレートデータ取得部と、
原画像を表わす原画像データを取得する原画像データ取得部と、
前記複数個のテンプレートデータのうちのいずれがユーザによって選択されたのかを示す選択結果情報を取得する選択結果情報取得部と、
前記原画像データと、前記複数個のテンプレートデータのうち、前記選択結果情報によって示される選択済みテンプレートデータと、を利用した画像処理を実行して、処理済み画像データを生成する生成部と、
前記処理済み画像データを外部に出力する出力部と、を備え、
前記生成部は、
前記原画像から、前記選択結果情報に応じた所定の条件を満たす顔領域を特定することを試行する特定試行部であって、前記所定の条件は、前記原画像内の領域が前記顔領域であると特定するための条件であり、前記選択済みテンプレートデータによって表わされる選択済みテンプレート画像が第1種の領域を含む場合に、前記所定の条件は、第1の条件であり、前記選択済みテンプレート画像が第2種の領域を含む場合に、前記所定の条件は、前記第1の条件とは異なる第2の条件である、前記特定試行部と、
前記原画像から前記顔領域が特定される場合に、前記原画像から、前記顔領域の少なくとも一部を含む第1の部分領域を抽出する部分領域抽出部と、
前記原画像から前記顔領域が特定される場合に、前記原画像データのうちの前記第1の部分領域を表わす第1の部分領域データを用いて得られる第1の対象データと、前記選択済みテンプレートデータと、を合成するための前記画像処理を実行して、第1の処理済み画像を表わす第1の処理済み画像データを生成する合成部であって、前記選択済みテンプレート画像が前記第1種の領域を含む場合に、前記第1の処理済み画像では、前記第1の対象データによって表わされる第1の対象画像が前記選択済みテンプレート画像内の前記第1種の領域に合成されており、前記選択済みテンプレート画像が前記第2種の領域を含む場合に、前記第1の処理済み画像では、前記第1の対象画像が前記選択済みテンプレート画像内の前記第2種の領域に合成されている、前記合成部と、を備える、画像処理装置。 An image processing apparatus,
A template data acquisition unit for acquiring a plurality of template data;
An original image data acquisition unit for acquiring original image data representing the original image;
A selection result information acquisition unit for acquiring selection result information indicating which one of the plurality of template data is selected by the user;
A generation unit that executes image processing using the original image data and the selected template data indicated by the selection result information among the plurality of template data, and generates processed image data;
An output unit for outputting the processed image data to the outside,
The generator is
A specific trial unit that attempts to identify a face area that satisfies a predetermined condition corresponding to the selection result information from the original image, wherein the predetermined condition is that the area in the original image is the face area. A condition for specifying that the selected template image represented by the selected template data includes a first type area, the predetermined condition is a first condition, and the selected template When the image includes a second type of area, the predetermined condition is a second condition different from the first condition;
A partial region extraction unit that extracts a first partial region including at least a part of the facial region from the original image when the facial region is specified from the original image;
When the face area is specified from the original image, the first target data obtained by using the first partial area data representing the first partial area of the original image data, and the selected A combining unit that executes image processing for combining template data and generates first processed image data representing a first processed image, wherein the selected template image is the first processed image data; In the case of including the seed region, in the first processed image, the first target image represented by the first target data is synthesized with the first type region in the selected template image. When the selected template image includes the second type area, in the first processed image, the first target image is in the second type area in the selected template image. It is made, and a said combining unit, the image processing apparatus.
前記選択済みテンプレート画像が前記第1種の領域を含み、かつ、前記原画像から前記顔領域が特定される場合に、前記顔領域と前記第1の部分領域との面積比が所定の第1の比に一致するように、前記原画像から前記第1の部分領域を抽出し、
前記選択済みテンプレート画像が前記第2種の領域を含み、かつ、前記原画像から前記顔領域が特定される場合に、前記顔領域と前記第1の部分領域との面積比が所定の第2の比であって、前記第1の比とは異なる前記第2の比に一致するように、前記原画像から前記第1の部分領域を抽出する、請求項1に記載の画像処理装置。 The partial region extraction unit
When the selected template image includes the first type region and the face region is specified from the original image, the area ratio between the face region and the first partial region is a predetermined first value. To extract the first partial region from the original image so as to match the ratio of
When the selected template image includes the second type area and the face area is specified from the original image, the area ratio between the face area and the first partial area is a predetermined second value. The image processing apparatus according to claim 1, wherein the first partial region is extracted from the original image so as to coincide with the second ratio different from the first ratio.
前記原画像を表わす前記原画像データが取得される第1の場合において、前記選択済みテンプレート画像が前記第1種の領域を含む場合に、前記原画像から、前記第1の条件を満たす前記顔領域を特定し、
前記第1の場合と同じ前記原画像データが取得される第2の場合において、前記選択済みテンプレート画像が前記第2種の領域を含む場合に、前記原画像内に前記第2の条件を満たす顔領域が存在しないことに起因して、前記原画像から顔領域を特定しない、請求項1又は2に記載の画像処理装置。 The specific trial part is:
In the first case where the original image data representing the original image is acquired, when the selected template image includes the first type region, the face satisfying the first condition is determined from the original image. Identify the area,
In the second case where the same original image data as in the first case is acquired, the second condition is satisfied in the original image when the selected template image includes the second type region. The image processing apparatus according to claim 1, wherein no face area is specified from the original image due to the absence of a face area.
複数個のテンプレートデータを取得するテンプレートデータ取得部と、
原画像を表わす原画像データを取得する原画像データ取得部と、
前記複数個のテンプレートデータのうちのいずれがユーザによって選択されたのかを示す選択結果情報を取得する選択結果情報取得部と、
前記原画像データと、前記複数個のテンプレートデータのうち、前記選択結果情報によって示される選択済みテンプレートデータと、を利用した画像処理を実行して、処理済み画像データを生成する生成部と、
前記処理済み画像データを外部に出力する出力部と、を備え、
前記生成部は、
前記原画像から顔領域を特定することを試行する特定試行部と、
前記原画像から前記顔領域が特定される場合に、前記原画像から、前記顔領域の少なくとも一部を含む第1の部分領域を抽出する部分領域抽出部と、
前記原画像から前記顔領域が特定される場合に、前記原画像データのうちの前記第1の部分領域を表わす第1の部分領域データを用いて得られる第1の対象データと、前記選択済みテンプレートデータと、を合成するための前記画像処理を実行して、第1の処理済み画像を表わす第1の処理済み画像データを生成する合成部であって、前記選択済みテンプレートデータによって表わされる選択済みテンプレート画像が第1種の領域を含む場合に、前記第1の処理済み画像では、前記第1の対象データによって表わされる第1の対象画像が前記選択済みテンプレート画像内の前記第1種の領域に合成されており、前記選択済みテンプレート画像が第2種の領域を含む場合に、前記第1の処理済み画像では、前記第1の対象画像が前記選択済みテンプレート画像内の前記第2種の領域に合成されている、前記合成部と、を備え、
前記部分領域抽出部は、
前記選択済みテンプレート画像が前記第1種の領域を含み、かつ、前記原画像から前記顔領域が特定される場合に、前記顔領域と前記第1の部分領域との面積比が所定の第1の比に一致するように、前記原画像から前記第1の部分領域を抽出し、
前記選択済みテンプレート画像が前記第2種の領域を含み、かつ、前記原画像から前記顔領域が特定される場合に、前記顔領域と前記第1の部分領域との面積比が所定の第2の比であって、前記第1の比とは異なる前記第2の比に一致するように、前記原画像から前記第1の部分領域を抽出する、画像処理装置。 An image processing apparatus,
A template data acquisition unit for acquiring a plurality of template data;
An original image data acquisition unit for acquiring original image data representing the original image;
A selection result information acquisition unit for acquiring selection result information indicating which one of the plurality of template data is selected by the user;
A generation unit that executes image processing using the original image data and the selected template data indicated by the selection result information among the plurality of template data, and generates processed image data;
An output unit for outputting the processed image data to the outside,
The generator is
A specific trial unit that attempts to identify a face region from the original image;
A partial region extraction unit that extracts a first partial region including at least a part of the facial region from the original image when the facial region is specified from the original image;
When the face area is specified from the original image, the first target data obtained by using the first partial area data representing the first partial area of the original image data, and the selected A synthesis unit that executes the image processing for synthesizing template data and generates first processed image data representing a first processed image, the selection represented by the selected template data When the completed template image includes a first type region, the first target image represented by the first target data in the first processed image is the first type image in the selected template image. When the selected template image includes a second type of region, the first target image is the selected target image in the first processed image. Have been synthesized in the second type of region in the plate image, and a said combining unit,
The partial region extraction unit
When the selected template image includes the first type region and the face region is specified from the original image, the area ratio between the face region and the first partial region is a predetermined first value. To extract the first partial region from the original image so as to match the ratio of
When the selected template image includes the second type area and the face area is specified from the original image, the area ratio between the face area and the first partial area is a predetermined second value. The first partial region is extracted from the original image so as to coincide with the second ratio different from the first ratio.
前記複数個のテンプレートデータを格納するメモリであって、前記複数個のテンプレートデータのうち、前記第1種の領域を含む1個以上のテンプレートデータに対応付けて、前記第1の比を示す第1の比情報を格納し、前記複数個のテンプレートデータのうち、前記第2種の領域を含む1個以上のテンプレートデータに対応付けて、前記第2の比を示す第2の比情報を格納する、前記メモリを備え、
前記部分領域抽出部は、
前記選択済みテンプレート画像が前記第1種の領域を含み、かつ、前記原画像から前記顔領域が特定される場合に、前記メモリ内の前記第1の比情報を利用して、前記原画像から前記第1の部分領域を抽出し、
前記選択済みテンプレート画像が前記第2種の領域を含み、かつ、前記原画像から前記顔領域が特定される場合に、前記メモリ内の前記第2の比情報を利用して、前記原画像から前記第1の部分領域を抽出する、請求項4に記載の画像処理装置。 The image processing apparatus further includes:
A memory for storing the plurality of template data, the first ratio indicating the first ratio in association with one or more template data including the first type region among the plurality of template data; 1 ratio information is stored, and among the plurality of template data, second ratio information indicating the second ratio is stored in association with one or more template data including the second type region. Comprising the memory,
The partial region extraction unit
When the selected template image includes the first type area and the face area is specified from the original image, the first ratio information in the memory is used to determine the face area from the original image. Extracting the first partial region;
When the selected template image includes the second type of area and the face area is specified from the original image, the second ratio information in the memory is used to determine from the original image. The image processing apparatus according to claim 4, wherein the first partial region is extracted.
前記選択済みテンプレート画像が前記第2種の領域を含み、かつ、前記原画像から前記顔領域が特定され、かつ、前記原画像が所定の基準を満たす場合に、前記顔領域と前記第1の部分領域との面積比が前記第2の比に一致するように、前記原画像から前記第1の部分領域を抽出し、
前記選択済みテンプレート画像が前記第2種の領域を含み、かつ、前記原画像から前記顔領域が特定され、かつ、前記原画像が前記所定の基準を満たさない場合に、前記顔領域と前記第1の部分領域との面積比が所定の第3の比であって、前記第1の比及び第2の比とは異なる前記第3の比に一致するように、前記原画像から前記第1の部分領域を抽出する、請求項4又は5に記載の画像処理装置。 The partial region extraction unit
When the selected template image includes the second type area, the face area is specified from the original image, and the original image satisfies a predetermined criterion, the face area and the first area Extracting the first partial region from the original image so that the area ratio with the partial region matches the second ratio;
When the selected template image includes the second type area, the face area is specified from the original image, and the original image does not satisfy the predetermined criterion, the face area and the first area The first ratio from the original image is such that the area ratio with respect to the first partial region is a predetermined third ratio that is different from the first ratio and the second ratio. The image processing apparatus according to claim 4, wherein the partial area is extracted.
前記合成部は、さらに、前記選択済みテンプレート画像が前記第2種の領域を含み、かつ、前記原画像から前記顔領域が特定されない場合に、前記原画像データのうちの前記第2の部分領域を表わす第2の部分領域データを用いて得られる第2の対象データと、前記選択済みテンプレートデータと、を合成するための前記画像処理を実行して、第2の処理済み画像を表わす第2の処理済み画像データを生成する、請求項1から6のいずれか一項に記載の画像処理装置。 The partial area extraction unit further includes a second size having a predetermined size from the original image when the selected template image includes the second type area and the face area is not specified from the original image. Extract a partial region of
The combining unit further includes the second partial region of the original image data when the selected template image includes the second type region and the face region is not specified from the original image. The second target data obtained by using the second partial area data representing the second target data and the selected template data are subjected to the image processing to synthesize the second processed data representing the second processed image. The image processing apparatus according to claim 1, wherein the processed image data is generated.
前記小面積領域は、前記原画像の面積に対する面積の比が所定値以下である領域である、請求項1から9のいずれか一項に記載の画像処理装置。 The specifying trial unit does not specify a small area of the original image as the face area when the selected template image includes the second type area,
The image processing apparatus according to claim 1, wherein the small area area is an area in which a ratio of an area to an area of the original image is a predetermined value or less.
前記コンピュータプログラムは、前記画像処理装置に搭載されるコンピュータに、以下の各処理、即ち、
複数個のテンプレートデータを取得するテンプレートデータ取得処理と、
原画像を表わす原画像データを取得する原画像データ取得処理と、
前記複数個のテンプレートデータのうちのいずれがユーザによって選択されたのかを示す選択結果情報を取得する選択結果情報取得処理と、
前記原画像データと、前記複数個のテンプレートデータのうち、前記選択結果情報によって示される選択済みテンプレートデータと、を利用した画像処理を実行して、処理済み画像データを生成する生成処理と、
前記処理済み画像データを外部に出力する出力処理と、を実行させ、
前記生成処理は、
前記原画像から、前記選択結果情報に応じた所定の条件を満たす顔領域を特定することを試行する特定試行処理であって、前記所定の条件は、前記原画像内の領域が前記顔領域であると特定するための条件であり、前記選択済みテンプレートデータによって表わされる選択済みテンプレート画像が第1種の領域を含む場合に、前記所定の条件は、第1の条件であり、前記選択済みテンプレート画像が第2種の領域を含む場合に、前記所定の条件は、前記第1の条件とは異なる第2の条件である、前記特定試行処理と、
前記原画像から前記顔領域が特定される場合に、前記原画像から、前記顔領域の少なくとも一部を含む第1の部分領域を抽出する部分領域抽出処理と、
前記原画像から前記顔領域が特定される場合に、前記原画像データのうちの前記第1の部分領域を表わす第1の部分領域データを用いて得られる第1の対象データと、前記選択済みテンプレートデータと、を合成するための前記画像処理を実行して、第1の処理済み画像を表わす第1の処理済み画像データを生成する合成処理であって、前記選択済みテンプレート画像が前記第1種の領域を含む場合に、前記第1の処理済み画像では、前記第1の対象データによって表わされる第1の対象画像が前記選択済みテンプレート画像内の前記第1種の領域に合成されており、前記選択済みテンプレート画像が前記第2種の領域を含む場合に、前記第1の処理済み画像では、前記第1の対象画像が前記選択済みテンプレート画像内の前記第2種の領域に合成されている、前記合成処理と、
を含む、コンピュータプログラム。 A computer program for an image processing apparatus,
The computer program stores the following processes on a computer mounted on the image processing apparatus, that is,
A template data acquisition process for acquiring a plurality of template data;
Original image data acquisition processing for acquiring original image data representing the original image;
A selection result information acquisition process for acquiring selection result information indicating which of the plurality of template data has been selected by the user;
A generation process for generating processed image data by executing image processing using the original image data and the selected template data indicated by the selection result information among the plurality of template data;
An output process for outputting the processed image data to the outside,
The generation process includes
A specific trial process for trying to specify a face area satisfying a predetermined condition according to the selection result information from the original image, wherein the predetermined condition is that the area in the original image is the face area. A condition for specifying that the selected template image represented by the selected template data includes a first type area, the predetermined condition is a first condition, and the selected template When the image includes a second type region, the predetermined condition is a second condition different from the first condition;
A partial region extraction process for extracting a first partial region including at least a part of the facial region from the original image when the facial region is specified from the original image;
When the face area is specified from the original image, the first target data obtained by using the first partial area data representing the first partial area of the original image data, and the selected The image processing for combining with template data is executed to generate first processed image data representing a first processed image, wherein the selected template image is the first processed image data. In the case of including the seed region, in the first processed image, the first target image represented by the first target data is synthesized with the first type region in the selected template image. When the selected template image includes the second type area, in the first processed image, the first target image is the second type area in the selected template image. Have been synthesized, and the synthesis processing,
Including computer programs.
前記コンピュータプログラムは、前記画像処理装置に搭載されるコンピュータに、以下の各処理、即ち、
複数個のテンプレートデータを取得するテンプレートデータ取得処理と、
原画像を表わす原画像データを取得する原画像データ取得処理と、
前記複数個のテンプレートデータのうちのいずれがユーザによって選択されたのかを示す選択結果情報を取得する選択結果情報取得処理と、
前記原画像データと、前記複数個のテンプレートデータのうち、前記選択結果情報によって示される選択済みテンプレートデータと、を利用した画像処理を実行して、処理済み画像データを生成する生成処理と、
前記処理済み画像データを外部に出力する出力処理と、を実行させ、
前記生成処理は、
前記原画像から顔領域を特定することを試行する特定試行処理と、
前記原画像から前記顔領域が特定される場合に、前記原画像から、前記顔領域の少なくとも一部を含む第1の部分領域を抽出する部分領域抽出処理と、
前記原画像から前記顔領域が特定される場合に、前記原画像データのうちの前記第1の部分領域を表わす第1の部分領域データを用いて得られる第1の対象データと、前記選択済みテンプレートデータと、を合成するための前記画像処理を実行して、第1の処理済み画像を表わす第1の処理済み画像データを生成する合成処理であって、前記選択済みテンプレートデータによって表わされる選択済みテンプレート画像が第1種の領域を含む場合に、前記第1の処理済み画像では、前記第1の対象データによって表わされる第1の対象画像が前記選択済みテンプレート画像内の前記第1種の領域に合成されており、前記選択済みテンプレート画像が第2種の領域を含む場合に、前記第1の処理済み画像では、前記第1の対象画像が前記選択済みテンプレート画像内の前記第2種の領域に合成されている、前記合成処理と、を含み、
前記部分領域抽出処理では、
前記選択済みテンプレート画像が前記第1種の領域を含み、かつ、前記原画像から前記顔領域が特定される場合に、前記顔領域と前記第1の部分領域との面積比が所定の第1の比に一致するように、前記原画像から前記第1の部分領域を抽出し、
前記選択済みテンプレート画像が前記第2種の領域を含み、かつ、前記原画像から前記顔領域が特定される場合に、前記顔領域と前記第1の部分領域との面積比が所定の第2の比であって、前記第1の比とは異なる前記第2の比に一致するように、前記原画像から前記第1の部分領域を抽出する、コンピュータプログラム。 A computer program for an image processing apparatus,
The computer program stores the following processes on a computer mounted on the image processing apparatus, that is,
A template data acquisition process for acquiring a plurality of template data;
Original image data acquisition processing for acquiring original image data representing the original image;
A selection result information acquisition process for acquiring selection result information indicating which of the plurality of template data has been selected by the user;
A generation process for generating processed image data by executing image processing using the original image data and the selected template data indicated by the selection result information among the plurality of template data;
An output process for outputting the processed image data to the outside,
The generation process includes
A specific trial process that attempts to identify a face region from the original image;
A partial region extraction process for extracting a first partial region including at least a part of the facial region from the original image when the facial region is specified from the original image;
When the face area is specified from the original image, the first target data obtained by using the first partial area data representing the first partial area of the original image data, and the selected A combination process for generating first processed image data representing a first processed image by executing the image processing for combining the template data with the selection represented by the selected template data When the completed template image includes a first type region, the first target image represented by the first target data in the first processed image is the first type image in the selected template image. In the first processed image, the first target image is already selected when the selected template image includes a second type of region. Have been synthesized in the second type of region within PLATES image, wherein the said combining process,
In the partial area extraction process,
When the selected template image includes the first type region and the face region is specified from the original image, the area ratio between the face region and the first partial region is a predetermined first value. To extract the first partial region from the original image so as to match the ratio of
When the selected template image includes the second type area and the face area is specified from the original image, the area ratio between the face area and the first partial area is a predetermined second value. The computer program extracts the first partial region from the original image so as to coincide with the second ratio different from the first ratio.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014169412A JP6248863B2 (en) | 2014-08-22 | 2014-08-22 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014169412A JP6248863B2 (en) | 2014-08-22 | 2014-08-22 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016046667A JP2016046667A (en) | 2016-04-04 |
JP6248863B2 true JP6248863B2 (en) | 2017-12-20 |
Family
ID=55636842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014169412A Active JP6248863B2 (en) | 2014-08-22 | 2014-08-22 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6248863B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009135720A (en) * | 2007-11-30 | 2009-06-18 | Sanyo Electric Co Ltd | Image composing device |
US8300064B2 (en) * | 2008-03-26 | 2012-10-30 | Fujifilm Corporation | Apparatus and method for forming a combined image by combining images in a template |
-
2014
- 2014-08-22 JP JP2014169412A patent/JP6248863B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016046667A (en) | 2016-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018223994A1 (en) | Method and device for synthesizing chinese printed character image | |
EP3454250A1 (en) | Facial image processing method and apparatus and storage medium | |
CN107507217B (en) | Method and device for making certificate photo and storage medium | |
Hwang et al. | Content-aware image resizing using perceptual seam carving with human attention model | |
JP2018022484A (en) | Method of detecting object in image, and object detection system | |
KR100896643B1 (en) | Method and system for modeling face in three dimension by means of aam, and apparatus applied to the same | |
CN112651953B (en) | Picture similarity calculation method and device, computer equipment and storage medium | |
KR101992044B1 (en) | Information processing apparatus, method, and computer program | |
US20150070714A1 (en) | Image forming device, printing method, and computer-readable recording medium | |
JP2011078076A (en) | Image processing apparatus, method, and program | |
CN106997580B (en) | Picture processing method and device | |
US9756220B2 (en) | Image data generating apparatus, printer, image data generating method, and non-transitory computer readable medium for extracting one or more pixels corresponding to a metallic-color region | |
JP5201184B2 (en) | Image processing apparatus and program | |
JP2005071344A (en) | Image processing method, image processor and recording medium recording image processing program | |
JP6202938B2 (en) | Image recognition apparatus and image recognition method | |
JP2013076986A (en) | Image processing apparatus, image processing method, and program | |
CN108062785A (en) | The processing method and processing device of face-image, computing device | |
WO2023173826A1 (en) | Image processing method and apparatus, and storage medium, electronic device and product | |
JP6248863B2 (en) | Image processing device | |
JP6546385B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
JP2017138743A (en) | Image processing apparatus, image processing method, and program | |
JP2020004166A (en) | Region specification device and program | |
WO2017203705A1 (en) | Image processing device, image processing method, and image processing program | |
JP4966946B2 (en) | Spatiotemporal image separation device, spatiotemporal image separation method, and spatiotemporal image separation program | |
JP2009225446A (en) | Image processing apparatus, image processing method, and image forming apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6248863 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |