JP2013140559A - Image processing device, imaging device and program - Google Patents
Image processing device, imaging device and program Download PDFInfo
- Publication number
- JP2013140559A JP2013140559A JP2012206296A JP2012206296A JP2013140559A JP 2013140559 A JP2013140559 A JP 2013140559A JP 2012206296 A JP2012206296 A JP 2012206296A JP 2012206296 A JP2012206296 A JP 2012206296A JP 2013140559 A JP2013140559 A JP 2013140559A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sentence
- captured image
- template
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置、及び、プログラムに関するものである。 The present invention relates to an image processing device, an imaging device, and a program.
従来、特定の人物の誕生日、イベントの日時などを予め登録しておくことによって、撮像日時に対応する誕生日の人物名、撮像日時に対応するイベント名などの文字情報を撮像画像に付与する技術が開示されている(例えば、特許文献1参照)。 Conventionally, character information such as a birthday person name corresponding to an imaging date and an event name corresponding to an imaging date is given to a captured image by registering a birthday of the specific person, an event date and the like in advance. A technique is disclosed (for example, see Patent Document 1).
しかしながら、従来技術は、ユーザが事前に登録した文字情報しか撮像画像に付与することができないという問題がある。従来技術が有する問題に鑑み、本発明の目的は、撮像画像に対し、より柔軟な文字情報を付与することができる技術を提供することにある。 However, the conventional technology has a problem that only character information registered in advance by the user can be added to the captured image. In view of the problems of the prior art, an object of the present invention is to provide a technique that can give more flexible character information to a captured image.
上記問題を解決するために、本発明の一態様である画像処理装置は、撮像画像を入力する画像入力部と、所定の空欄部に単語を挿入して文章を完成させる文章テンプレートとして、人物が被写体である人物画像に対する文章の作成に用いられる人物画像用テンプレートと、風景が被写体である風景画像に対する文章の作成に用いられる風景画像用テンプレートとを記憶する記憶部と、前記撮像画像が、前記人物画像であるか前記風景画像であるかを判定する判定部と、前記撮像画像に対する前記判定部による判定結果に応じて、前記人物画像用テンプレート又は前記風景画像用テンプレートの何れかの前記文章テンプレートを前記記憶部から読み出し、読み出した前記文章テンプレートの前記空欄部に前記撮像画像の特徴量又は撮像条件に応じた単語を挿入して当該撮像画像に対する文章を作成する文章作成部とを備えることを特徴とする。 In order to solve the above problems, an image processing apparatus according to an aspect of the present invention includes an image input unit that inputs a captured image, and a sentence template that completes a sentence by inserting a word into a predetermined blank part. A storage unit for storing a person image template used for creating a sentence for a person image that is a subject, a landscape image template used for creating a sentence for a landscape image whose landscape is a subject, and the captured image, A determination unit that determines whether the image is a person image or the landscape image, and the sentence template that is either the person image template or the landscape image template according to a determination result by the determination unit for the captured image Is read from the storage unit, and the blank portion of the read text template corresponds to the feature amount or the imaging condition of the captured image. It was inserted words, characterized in that it comprises a sentence creation unit for creating a sentence with respect to the captured image.
上記問題を解決するために、本発明の他の態様である画像処理装置は、撮像画像が入力される画像入力部と、前記撮像画像の特徴量、及び、前記撮像画像の撮像条件の少なくとも一方に対応するテキストを決定する決定部と、前記撮像画像が第1種別の画像であるか、前記第1種別とは異なる第2種別の画像であるかを判定する判定部と、前記第1種別に用いられる文章の構文である第1構文と、前記第2種別に用いられる文章の構文である第2構文とを記憶する記憶部と、前記撮像画像が前記第1種別の画像であると前記判定部により判定されたとき、前記決定部が決定した前記テキストを用いて前記第1構文の文章を作成し、前記撮像画像が前記第2種別の画像であると前記判定部により判定されたとき、前記決定部が決定した前記テキストを用いて前記第2構文の文章を作成する文章作成部とを含むことを特徴とする。 In order to solve the above problems, an image processing apparatus according to another aspect of the present invention includes an image input unit to which a captured image is input, a feature amount of the captured image, and an imaging condition of the captured image. A determination unit that determines a text corresponding to the first type, a determination unit that determines whether the captured image is a first type image or a second type image different from the first type, and the first type A storage unit that stores a first syntax that is a syntax of a sentence used for the second type and a second syntax that is a syntax of a sentence that is used for the second type, and the captured image is the image of the first type When the determination unit determines that the sentence of the first syntax is created using the text determined by the determination unit, and the determination unit determines that the captured image is the second type image The text determined by the determination unit Characterized in that it comprises a sentence creation unit for creating a sentence of the second syntax using preparative.
また、本発明の他の態様である撮像装置は、被写体を撮像して撮像画像を生成する撮像部と、所定の空欄部に単語を挿入して文章を完成させる文章テンプレートとして、人物が被写体である人物画像に対する文章の作成に用いられる人物画像用テンプレートと、風景が被写体である風景画像に対する文章の作成に用いられる風景画像用テンプレートとを記憶する記憶部と、前記撮像画像が、前記人物画像であるか前記風景画像であるかを判定する判定部と、前記撮像画像に対する前記判定部による判定結果に応じて、前記人物画像用テンプレート又は前記風景画像用テンプレートの何れかの前記文章テンプレートを前記記憶部から読み出し、読み出した前記文章テンプレートの前記空欄部に前記撮像画像の特徴量又は撮像条件に応じた単語を挿入して当該撮像画像に対する文章を作成する文章作成部とを備えることを特徴とする。 In addition, an imaging apparatus according to another aspect of the present invention includes an imaging unit that captures a subject and generates a captured image, and a sentence template that completes a sentence by inserting a word into a predetermined blank part and a person is the subject. A storage unit that stores a person image template used for creating a sentence for a certain person image and a landscape image template used for creating a sentence for a landscape image whose scenery is a subject, and the captured image includes the person image. The sentence template, which is either the person image template or the landscape image template, is determined according to a determination result by the determination unit that determines whether the image is a landscape image or the landscape image. A word corresponding to the feature amount or the imaging condition of the captured image is read from the storage unit and the blank part of the sentence template that has been read out. Input to characterized in that it comprises a sentence creation unit for creating a sentence with respect to the captured image.
また、本発明の他の態様であるプログラムは、所定の空欄部に単語を挿入して文章を完成させる文章テンプレートとして、人物が被写体である人物画像に対する文章の作成に用いられる人物画像用テンプレートと、風景が被写体である風景画像に対する文章の作成に用いられる風景画像用テンプレートとを記憶する記憶部を備える画像処理装置のコンピュータに、撮像画像を入力する画像入力ステップと、前記撮像画像が、前記人物画像であるか前記風景画像であるかを判定する判定ステップと、前記撮像画像に対する前記判定ステップによる判定結果に応じて、前記人物画像用テンプレート又は前記風景画像用テンプレートの何れかの前記文章テンプレートを前記記憶部から読み出し、読み出した前記文章テンプレートの前記空欄部に前記撮像画像の特徴量又は撮像条件に応じた単語を挿入して当該撮像画像に対する文章を作成する文章作成ステップとを実行させることを特徴とする。 A program according to another aspect of the present invention includes a person image template used for creating a sentence for a person image in which a person is a subject as a sentence template for completing a sentence by inserting a word into a predetermined blank space. An image input step of inputting a captured image to a computer of an image processing apparatus including a storage unit for storing a landscape image template used for creating a sentence for a landscape image in which the landscape is a subject; and The sentence template of either the person image template or the landscape image template according to a determination step for determining whether the image is a person image or the landscape image, and a determination result of the determination step for the captured image Is read from the storage unit, and the blank part of the read sentence template Characterized in that to execute the sentence generating step of generating a sentence by inserting a word corresponding to the feature amount or the imaging condition of the image the image with respect to the captured image.
また、本発明の一態様である画像処理装置は、撮像画像から所定の意味を有する文字を決定する決定部と、前記撮像画像が人物画像であるか、前記人物画像とは異なる画像であるかを判定する判定部と、前記人物画像に用いられる文章の構文である第1構文と、前記人物画像とは異なる画像に用いられる文章の構文である第2構文とを記憶する記憶部と、前記撮像画像が前記人物画像であると前記判定部により判定されたとき、前記所定の意味を有する文字を用いて前記第1構文の文章を出力し、前記撮像画像が前記人物画像とは異なる画像であると前記判定部により判定されたとき、前記所定の意味を有する文字を用いて前記第2構文の文章を出力する出力部とを有することを特徴とする。 An image processing apparatus according to one aspect of the present invention includes a determination unit that determines a character having a predetermined meaning from a captured image, and whether the captured image is a person image or an image different from the person image. A storage unit that stores a determination unit that determines a first syntax that is a sentence syntax used for the person image, and a second syntax that is a sentence syntax used for an image different from the person image; When the determination unit determines that the captured image is the person image, the first syntax sentence is output using characters having the predetermined meaning, and the captured image is an image different from the person image. And an output unit that outputs the sentence of the second syntax using the character having the predetermined meaning when it is determined by the determination unit.
本発明によれば、撮像画像に対し、より柔軟な文字情報を付与することができるようになる。 According to the present invention, more flexible character information can be given to a captured image.
(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態による画像処理装置1の機能ブロック図の一例である。図2は、記憶部90に記憶される文章テンプレートの一例である。図3は、記憶部90に記憶される単語の一例である。図4は、撮像画像の配色パターンの抽出について説明するための説明図である。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an example of a functional block diagram of an
画像処理装置1は、図1に示すように、画像入力部10、判定部20、文章作成部30、文章付加部40及び記憶部90を備える。画像入力部10は、例えば、ネットワーク又は記憶媒体を介して、撮像画像を入力する。画像入力部10は、撮像画像を判定部20に出力する。
As illustrated in FIG. 1, the
記憶部90は、所定の空欄部に単語を挿入して文章を完成させる文章テンプレートを記憶する。具体的には、記憶部90は、文章テンプレートとして、人物が被写体である画像(以下、人物画像という)に対する文章の作成に用いられる人物画像用テンプレートと、風景(第2種別とも称する)が被写体である画像(以下、風景画像という)に対する文章の作成に用いられる風景画像用テンプレートとを記憶する。なお、人物画像の一例は、ポートレート(第1種別とも称する)である。
The
例えば、記憶部90は、図2(a)(b)に示すような2種類の人物画像用テンプレートを記憶する。なお、図2(a)(b)に示す人物画像用テンプレートは、被写体の人数に応じた単語を挿入する空欄部(空欄部{人数}と表記)、及び、撮像画像の配色パターンに応じた単語を挿入する空欄部(空欄部{形容詞}と表記)を有している。
For example, the
また例えば、記憶部90は、図2(c)(d)に示すような2種類の風景画像用テンプレートを記憶する。なお、図2(c)に示す風景画像用テンプレートは、撮像画像の撮像条件(日時)に応じた単語を挿入する空欄部(空欄部{日時})、及び、撮像画像の配色パターンに応じた単語を挿入する空欄部を有している。また、図2(d)に示す風景画像用テンプレートは、撮像画像の撮像条件(場所)に応じた単語を挿入する空欄部(空欄部{場所}と表記)、及び、撮像画像の配色パターンに応じた単語を挿入する空欄部を有している。
Further, for example, the
なお、上述の人物画像用テンプレートは、被写体として撮像された人物に焦点をあててイメージされるような文章テンプレート、つまり、被写体として撮像された人物の視点による文章に空欄部を設定した文章テンプレートである。例えば、図2(a)の人物画像用テンプレートの文言「過ごした」、図2(b)の人物画像用テンプレートの文言「ポーズ」は撮像された人物の視点を表現している。また、上述の風景画像用テンプレートは、撮像画像全体からイメージされるような文章テンプレート、つまり、被写体を撮像した撮影者の視点による文章に空欄部を設定した文章テンプレートである。例えば、図2(c)の風景画像用テンプレートの文言「一枚」、図2(d)の風景画像用テンプレートの文言「景色」は撮影者の視点を表現している。 The person image template described above is a sentence template that is focused on a person imaged as a subject, that is, a sentence template in which a blank portion is set in a sentence from the viewpoint of a person imaged as a subject. is there. For example, the word “pause” of the person image template in FIG. 2A and the word “pose” of the person image template in FIG. 2B express the viewpoint of the imaged person. The landscape image template described above is a text template that is imaged from the entire captured image, that is, a text template in which a blank portion is set in text from the viewpoint of the photographer who captured the subject. For example, the word “scene” in the landscape image template in FIG. 2C and the word “scenery” in the landscape image template in FIG. 2D express the viewpoint of the photographer.
さらに、記憶部90は、文章テンプレート(人物画像用テンプレート、風景画像用テンプレート)に加え、文章テンプレートの各空欄部に挿入する単語を記憶する。例えば、記憶部90は、図3(a)に示すように、撮像画像の被写体の人数に対応付けて、空欄部{人数}に挿入する単語として人数に関連する単語を記憶する。
Further, the
例えば、人物画像用テンプレートを使用する場合に、被写体の人数が「1」であったときは、人物画像用テンプレートの空欄部{人数}には単語「ひとり」が挿入される。なお、文章作成部30が、使用する文章テンプレートを記憶部90から読み出して、空欄部に単語を挿入する(後述)。
For example, when the person image template is used and the number of subjects is “1”, the word “one person” is inserted into the blank portion {number of persons] of the person image template. Note that the
また、記憶部90は、図3(b)に示すように、撮像画像の配色パターンに対応付けて、人物画像用テンプレートの空欄部{形容詞}又は風景画像用テンプレートの空欄部{形容詞}に挿入する単語として人物画像用の形容詞及び風景画像用の形容詞を記憶する。
Further, as shown in FIG. 3B, the
例えば、人物画像用テンプレートを使用する場合に、撮像画像の全領域の配色パターンが、図4(a)に示す、第1色「色1」、第2色「色2」、第3色「色3」であったときは、人物画像用テンプレートの空欄部{形容詞}には単語「クールな」が挿入される。また、風景画像用テンプレートを使用する場合に、撮像画像の全領域の配色パターンが、図4(b)に示す、第1色「色2」、第2色「色1」、第3色「色4」であったときは、風景画像用テンプレートの空欄部{形容詞}には単語「賑やかな」が挿入される。
For example, when a person image template is used, the color arrangement pattern of the entire region of the captured image is the first color “
上述の色1〜色5は、撮像画像において実際に表現されている個々の色を、例えば、暖色系/寒色系などの基準によって5色(5つの代表色)に分類したものである。換言すれば、撮像画像の各画素の画素値を、例えば、暖色系/寒色系などの基準によって5色に分類したものが、上述の色1〜色5である。
また、配色パターンを構成する、第1色は色1〜色5のうち当該撮像画像において最も多く表現されている色、第2色は色1〜色5のうち当該撮像画像において2番目に多く表現されている色、第3色は色1〜色5のうち当該撮像画像において3番目に多く表現されている色である。換言すれば、色1〜色5に画素値を分類したときに分類された画素数が最も多い色が第1色、色1〜色5に画素値を分類したときに分類された画素数が2番目に多い色が第2色、色1〜色5に画素値を分類したときに分類された画素数が3番目に多い色が第3色である。
なお、文章作成部30が、撮像画像から配色パターンを抽出する。
The above-mentioned
The first color constituting the color arrangement pattern is the color most expressed in the captured image among
Note that the
なお、撮像画像の全領域の配色パターンに代えて、撮像画像上の一部の領域における配色パターンを用いてもよい。つまり、文章作成部30は、撮像画像上の一部の領域の配色パターンに応じた形容詞を空欄部に挿入してもよい。具体的には、文章作成部30は、撮像画像が人物画像であるか風景画像であるかに応じて撮像画像上の所定領域を決定し、決定した撮像画像上の所定領域の配色パターンに応じた形容詞を空欄部に挿入してもよい。
例えば、文章作成部30は、図4(c)に示すように撮像画像が人物画像であるときは、当該人物画像の中央部の領域を所定領域として決定し、中央部の領域の配色パターンを抽出し、抽出した配色パターンに応じた形容詞を空欄部に挿入してもよい。また、文章作成部30は、図4(d)に示すように撮像画像が風景画像であるときは、当該風景画像の上部の領域を所定領域として決定し、上記の領域の配色パターンを抽出し、抽出した配色パターンに応じた形容詞を空欄部に挿入してもよい。
Note that a color arrangement pattern in a partial area on the captured image may be used instead of the color arrangement pattern in the entire area of the captured image. That is, the
For example, when the captured image is a person image as shown in FIG. 4C, the
また、図示は省略したが、記憶部90は、撮像日時に対応付けて、空欄部{日時}に挿入する単語として日時に関連する単語(例えば、時刻、“おはよう”、“夕暮れ”、“真夏!!”、…)を記憶する。また、記憶部90は、撮影場所に対応付けて、空欄部{場所}に挿入する単語として場所に関連する単語(例えば、“北国”、“古都”“富士山”、“雷門”、…)を記憶する。
Although not shown, the
判定部20は、画像入力部10から撮像画像を取得する。判定部20は、取得した撮像画像が人物画像であるか風景画像であるかを判定する。以下、判定部20による人物画像/風景画像の判定について詳細に説明する。なお、第1の閾値(Flowとも称する)は、第2の閾値(Fhighとも称する)よりも小さい値である。
The
判定部20は、撮像画像内の顔領域の認識を試みる。
(顔領域=0の場合)
判定部20は、撮像画像内に1つも顔領域を認識しなかった場合、当該撮像画像は風景画像であると判定する。
The
(When face area = 0)
When no face area is recognized in the captured image, the
(顔領域=1の場合)
判定部20は、撮像画像内に1つの顔領域を認識した場合、下記式(1)に従って、撮像画像の大きさに対する顔領域の大きさの割合Rを算出する。
R=Sf/Sp…(1)
上記式(1)のSpは、撮像画像の大きさであって、具体的には、撮像画像の長手方向の長さを用いる。上記式(1)のSfは、顔領域の大きさであって、具体的には、顔領域に外接する矩形の長手方向の長さ(若しくは、顔領域を囲む楕円の長軸の長さ(長径))を用いる。
(When face area = 1)
When the
R = Sf / Sp (1)
Sp in the above formula (1) is the size of the captured image, and specifically, the length in the longitudinal direction of the captured image is used. Sf in the above formula (1) is the size of the face area. Specifically, the length in the longitudinal direction of the rectangle circumscribing the face area (or the length of the major axis of the ellipse surrounding the face area ( Long diameter)) is used.
割合Rを算出した判定部20は、割合Rと第1の閾値Flowとを比較する。判定部20は、割合Rが第1の閾値Flow未満であると判定した場合、当該撮像画像は風景画像であると判定する。一方、判定部20は、割合Rが第1の閾値Flow以上であると判定した場合、割合Rと第2の閾値Fhighとを比較する。
The
判定部20は、割合Rが第2の閾値Fhigh以上であると判定した場合、当該撮像画像は人物画像であると判定する。一方、判定部20は、割合Rが第2の閾値Fhigh未満であると判定した場合、当該撮像画像は風景画像であると判定する。
If the
(顔領域≧2の場合)
判定部20は、撮像画像内に複数の顔領域を認識した場合、下記式(2)に従って、撮像画像の大きさに対する各顔領域の大きさの割合R(i)を算出する。
R(i)=Sf(i)/Sp…(2)
上記式(2)のSpは、上記式(1)と同様である。上記式(2)のSf(i)は、i番目の顔領域の大きさであって、具体的には、i番目の顔領域に外接する矩形の長手方向の長さ(若しくは、顔領域を囲む楕円の長軸の長さ(長径))を用いる。
(If face area ≧ 2)
When the
R (i) = Sf (i) / Sp (2)
Sp in the above formula (2) is the same as that in the above formula (1). Sf (i) in the above formula (2) is the size of the i-th face area. Specifically, the length of the rectangle circumscribing the i-th face area (or the face area is The major axis length (major axis) of the enclosing ellipse is used.
R(i)を算出した判定部20は、R(i)の最大値(Rmax)を算出する。即ち、判定部20は、撮像画像の大きさに対する最大の顔領域の大きさの割合Rmaxを算出する。
The
割合Rmaxを算出した判定部20は、割合Rmaxと第1の閾値Flowとを比較する。判定部20は、割合Rmaxが第1の閾値Flow未満であると判定した場合、当該撮像画像は風景画像であると判定する。一方、判定部20は、割合Rmaxが第1の閾値Flow以上であると判定した場合、割合Rmaxと第2の閾値Fhighとを比較する。
The
判定部20は、割合Rmaxが第2の閾値Fhigh以上であると判定した場合、当該撮像画像は人物画像であると判定する。一方、判定部20は、割合Rmaxが第2の閾値Fhigh未満であると判定した場合、R(i)の標準偏差σを算出する。下記式(3)は、標準偏差σの算出式である。
If the
標準偏差σを算出した判定部20は、標準偏差σと第3の閾値(Fstdevとも称する)とを比較する。判定部20は、標準偏差σが第3の閾値Fstdev未満であると判定した場合、当該撮像画像は人物画像であると判定する。一方、判定部20は、標準偏差σが第3の閾値Fstdev以上であると判定した場合、当該撮像画像は風景画像であると判定する。
The
以上のように、判定部20は、撮像画像内に複数の顔領域を認識した場合、当該撮像画像の大きさに対する最大の顔領域の大きさの割合Rmaxが第2の閾値Fhigh以上であるときは、当該撮像画像は人物画像であると判定する。また、判定部20は、割合Rmaxが第2の閾値Fhigh未満であっても、割合Rmaxが第1の閾値Flow以上であるときは、複数の顔領域の割合R(i)の標準偏差σが第3の閾値Fstdev未満であるときは、当該撮像画像は人物画像であると判定する。
As described above, when the
なお、判定部20は、複数の顔領域の割合R(i)の標準偏差σと第3の閾値Fstdevによる判定に代えて、複数の顔領域の割合R(i)の分散λと、分散λ用の閾値とを用いて判定をしてもよい。また、判定部20は、複数の顔領域の割合R(i)の標準偏差(若しくは分散)に代えて、複数の顔領域Sf(i)の標準偏差(若しくは分散)を使用してもよい(当該場合、顔領域Sf(i)用の閾値を用いる)。
Note that the
また、判定部20は、撮像画像を人物画像と判定した場合には、第1の閾値Flow以上の割合R(i)である顔領域の数に基づいて被写体の人数を判定(計数)する。つまり、判定部20は、第1の閾値Flow以上の割合R(i)である顔領域の1つひとつを被写体一人ひとりと判定し、第1の閾値Flow以上の顔領域の数を被写体の人数とする。
If the
判定部20は、判定結果を文章作成部30に出力する。具体的には、判定部20は、撮像画像を人物画像と判定した場合には、人物画像である旨の判定結果を示す画像判定結果情報、及び、被写体人数の判定結果を示す人数判定結果情報を文章作成部30に出力する。一方、判定部20は、撮像画像を風景画像と判定した場合には、風景画像である旨の判定結果を示す画像判定結果情報を文章作成部30に出力する。
また、判定部20は画像入力部10から取得した当該撮像画像を文章作成部30に出力する。
The
In addition, the
文章作成部30は、判定部20から判定結果及び撮像画像を取得する。文章作成部30は、取得した判定結果に応じて、人物画像用テンプレート又は風景画像用テンプレートの何れかの文章テンプレートを記憶部90から読み出す。具体的には、文章作成部30は、人物画像である旨の判定結果を示す画像判定結果情報を取得した場合には、記憶部90に記憶されている2種類の人物画像用テンプレートの中からランダムに選択された一方の人物画像用テンプレートを読み出す。また、文章作成部30は、風景画像である旨の判定結果を示す画像判定結果情報を取得した場合には、記憶部90に記憶されている2種類の風景画像用テンプレートの中からランダムに選択された一方の人物画像用テンプレートを読み出す。
The
文章作成部30は、読み出した文章テンプレート(人物画像用テンプレート又は風景画像用テンプレート)の空欄部に撮像画像の特徴量又は撮像条件に応じた単語を挿入して当該撮像画像に対する文章を作成する。特徴量に応じた単語とは、撮像画像の配色パターンに応じた形容詞、又は、被写体の人数に応じた単語(人数に関連する単語)である。また、撮像画像の撮像条件に応じた単語とは、撮像日時に応じた単語(日時に関連する単語)、又は、撮像場所に応じた単語(場所に関連する単語)である。
The
一例として、文章作成部30は、図2(a)に示す人物画像用テンプレートを読み出した場合には、人数判定結果情報から当該撮像画像の被写体の人数を取得し、当該人数に対応付けて記憶されている単語(人数に関連する単語)を記憶部90から読み出して空欄部{人数}に挿入し、当該撮像画像の配色パターンを抽出し、抽出した配色パターンに対応付けて記憶されている単語(人物画像用の形容詞)を記憶部90から読み出して空欄部{形容詞}に挿入し、当該撮像画像に対する文章を作成する。具体的には、被写体の人数が「1」、配色パターンが第1色「色1」、第2色「色2」、第3色「色3」であるならば、文章作成部30は、文章『ひとりですごしたクールな思い出』を作成する。
As an example, when the person image template shown in FIG. 2A is read, the
他の例として、文章作成部30は、図2(b)に示す人物画像用テンプレートを読み出した場合には、図2(a)の場合と同様、記憶部90から人数に関連する単語を読み出して空欄部{人数}に挿入し、記憶部90から人物画像用の形容詞を読み出して空欄部{形容詞}に挿入し、当該撮像画像に対する文章を作成する。具体的には、被写体の人数が「10」、配色パターンが第1色「色5」、第2色「色4」、第3色「色2」であるならば、文章作成部30は、文章『熱い感じで?大勢でポーズ!!』を作成する。
As another example, when the person image template shown in FIG. 2B is read out, the
他の例として、文章作成部30は、図2(c)に示す風景画像用テンプレートを読み出した場合には、当該撮像画像の付加情報(例えばExif)から撮像日時を取得し、取得した撮像日時に対応付けて記憶されている単語(日時に関連する単語)を記憶部90から読み出して空欄部{日時}に挿入し、当該撮像画像の配色パターンを抽出し、抽出した配色パターンに対応付けて記憶されている単語(風景画像用の形容詞)を記憶部90から読み出して空欄部{形容詞}に挿入し、当該撮像画像に対する文章を作成する。
具体的には、記憶部90に8月に対応付けて単語「真夏!!」が記憶されている場合に、撮像日時が2011年8月10日、配色パターンが第1色「色5」、第2色「色4」、第3色「色2」であるならば、文章作成部30は、文章『真夏!!。暑い感じの一枚』を作成する。
As another example, when the landscape image template shown in FIG. 2C is read, the
Specifically, when the word “Midsummer !!!” is stored in the
他の例として、文章作成部30は、図2(d)に示す風景画像用テンプレートを読み出した場合には、当該撮像画像の付加情報から撮像場所を取得し、取得した撮像場所に対応付けて記憶されている単語(場所に関連する単語)を記憶部90から読み出して空欄部{場所}に挿入し、当該撮像画像の配色パターンを抽出し、抽出した配色パターンに対応付けて記憶されている単語(風景画像用の形容詞)を記憶部90から読み出して空欄部{形容詞}に挿入し、当該撮像画像に対する文章を作成する。
具体的には、記憶部90に京都駅に対応付けて単語「古都」が記憶されている場合に、撮像場所が京都駅前、配色パターンが第1色「色1」、第2色「色2」、第3色「色5」であるならば、文章作成部30は、文章『古都。あのときの柔らかい景色!』を作成する。
As another example, when the landscape image template shown in FIG. 2D is read, the
Specifically, when the word “old city” is stored in the
文章を作成した文章作成部30は、作成した文章、及び、撮像画像を文章付加部40に出力する。文章付加部40は、文章作成部30から文章及び撮像画像を取得する。文章付加部40は、当該撮像画像に当該文章を付加(合成)する。
The
続いて、画像処理装置1の動作を説明する。図5及び図6は、画像処理装置1の動作の一例を示すフローチャートである。
Subsequently, the operation of the
図5において、画像入力部10は、撮像画像を入力する(ステップS10)。画像入力部10は、撮像画像を判定部20に出力する。判定部20は、撮像画像内に顔領域が1つ以上あるか否かを判定する(ステップS12)。判定部20は、撮像画像内に顔領域が1つ以上あると判定した場合(ステップS12:Yes)、撮像画像の大きさに対する顔領域の大きさの割合を顔領域毎に算出し(ステップS14)、当該割合の最大値を算出する(ステップS16)。
In FIG. 5, the
ステップS16に続いて、判定部20は、ステップS16にて算出した最大値が第1の閾値以上であるか否かを判定する(ステップS20)。判定部20は、ステップS16にて算出した最大値が第1の閾値以上であると判定した場合(ステップS20:Yes)、当該最大値が第2の閾値以上であるか否かを判定する(ステップS22)。判定部20は、当該最大値が第2の閾値以上であると判定した場合(ステップS22:Yes)、撮像画像は人物画像であると判定する(ステップS30)。ステップS30に続いて、判定部20は、第1の閾値以上の割合である顔領域の数を被写体の人数として計数する(ステップ32)。ステップS32に続いて、判定部20は、判定結果(人物画像である旨の判定結果を示す画像判定結果情報、及び、被写体人数の判定結果を示す人数判定結果情報)、及び、撮像画像を文章作成部30に出力する。
Subsequent to step S16, the
一方、ステップS22において、最大値が第2の閾値未満であると判定した場合(ステップS22:No)、判定部20は、撮像画像内に顔領域が2つ以上あるか否かを判定する(ステップS40)。判定部20は、撮像画像内に顔領域が2つ以上あると判定した場合(ステップS40:Yes)、ステップS14にて算出した割合の標準偏差を算出し(ステップS42)、当該標準偏差が第3の閾値未満であるか否かを判定する(ステップS44)。判定部20は、当該標準偏差が第3の閾値未満であると判定した場合(ステップS44:Yes)、処理をステップS30に進める。
On the other hand, when it is determined in step S22 that the maximum value is less than the second threshold (step S22: No), the
一方、ステップS12において、撮像画像内に顔領域が1つもないと判定した場合(ステップS12:No)、又は、ステップS20において、最大値が第1の閾値未満であると判定した場合(ステップS20:No)、又は、ステップS40において、撮像画像内に顔領域が1つしかないと判定した場合(ステップS40:No)、判定部20は、撮像画像は風景画像であると判定する(ステップS50)。ステップS50に続いて、判定部20は、判定結果(風景画像である旨の判定結果を示す画像判定結果情報)を文章作成部30に出力する。
On the other hand, when it is determined in step S12 that there is no face area in the captured image (step S12: No), or when it is determined in step S20 that the maximum value is less than the first threshold (step S20). : No), or when it is determined in step S40 that there is only one face area in the captured image (step S40: No), the
なお、上述のステップS40は、顔領域が1つである撮像画像が、人物画像であると常に判定されるのを防止するための処理である。また、上述のステップS40では、撮像画像内に、撮像画像の大きさに対する顔領域の大きさの割合が最大の顔領域の他に、大きさが揃った非常に小さい顔領域が非常に多数存在していれば、標準偏差は小さくなるため、人物画像であると判定される可能性がある。従って、上述のような判定をなるべく減らすために、判定部20は、所定の大きさの顔領域が2以上あるか否かを判定してもよい。例えば、判定部20は、上述の割合が第1の閾値以上である顔領域が2つ以上あるか否かを判定してもよい。
The above-described step S40 is a process for preventing a captured image with one face area from being always determined to be a person image. In step S40 described above, there are a very large number of very small face areas with the same size in addition to the face area having the largest ratio of the size of the face area to the size of the captured image. If so, the standard deviation is small, so that it may be determined that the image is a person image. Therefore, in order to reduce the above-described determination as much as possible, the
ステップS32又はステップS50に続いて、文章作成部30は、判定部20から取得した判定結果に応じて、人物画像用テンプレート又は風景画像用テンプレートの何れかの文章テンプレートを記憶部90から読み出して、読み出した文章テンプレートの空欄部に撮像画像の特徴量又は撮像条件に応じた単語を挿入して当該撮像画像に対する文章を作成する(ステップS100)。
Subsequent to step S32 or step S50, the
図6は、ステップS100の詳細である。図6において、文章作成部30は、撮像画像が人物画像であるか否かを判断する(ステップS102)。具体的には、文章作成部30は、判定部20から判定結果として、人物画像である旨の判定結果を示す画像判定結果情報を取得していた場合には、撮像画像が人物画像であると判断し、風景画像である旨の判定結果を示す画像判定結果情報を取得していた場合には、撮像画像が人物画像でないと判断する。
FIG. 6 shows details of step S100. In FIG. 6, the
文章作成部30は、撮像画像が人物画像であると判断した場合(ステップS102:Yes)、記憶部90から人物画像用テンプレートを読み出す(ステップS104)。具体的には、文章作成部30は、記憶部90に記憶されている2種類の人物画像用テンプレートの中からランダムに選択された一方の人物画像用テンプレートを読み出す。
When the
ステップS104に続いて、文章作成部30は、被写体の人数に応じた単語を人物画像用テンプレートの空欄部{人数}に挿入する(ステップS110)。具体的には、文章作成部30は、人数判定結果情報から被写体の人数を取得し、当該人数に対応付けて記憶されている単語(人数に関連する単語)を記憶部90から読み出して人物画像用テンプレートの空欄部{人数}に挿入する。
Subsequent to step S104, the
ステップS110に続いて、文章作成部30は、撮像画像(人物画像)の配色パターンに応じた単語を人物画像用テンプレートの空欄部{形容詞}に挿入する(ステップS120)。具体的には、文章作成部30は、撮像画像(人物画像)の中央部の領域の配色パターンを抽出し、当該配色パターンに対応付けて記憶されている単語(人物画像用の形容詞)を記憶部90から読み出して人物画像用テンプレートの空欄部{形容詞}に挿入する。
Subsequent to step S110, the
一方、ステップS102において、文章作成部30は、撮像画像が風景画像であると判断した場合(ステップS102:No)、記憶部90から風景画像用テンプレートを読み出す(ステップS106)。具体的には、文章作成部30は、記憶部90に記憶されている2種類の風景画像用テンプレートの中からランダムに選択された一方の風景画像用テンプレートを読み出す。
On the other hand, when the
ステップS106に続いて、文章作成部30は、撮像画像(風景画像)の配色パターンに応じた単語を風景画像用テンプレートの空欄部{形容詞}に挿入する(ステップS130)。具体的には、文章作成部30は、撮像画像(風景画像)の上部の領域の配色パターンを抽出し、当該配色パターンに対応付けて記憶されている単語(風景画像用の形容詞)を記憶部90から読み出して風景画像用テンプレートの空欄部{形容詞}に挿入する。
Subsequent to step S106, the
ステップS120又はステップS130に続いて、文章作成部30は、読み出した文章テンプレートに空欄部{日時}が存在するか否かを判断する(ステップS132)。本実施例の場合、図2に示したように、図2(c)の風景画像用テンプレートには空欄部{日時}が存在するが、図2(a)(b)の人物画像用テンプレート及び図2(d)の風景画像用テンプレートには空欄部{日時}が存在しない。従って、文章作成部30は、ステップS106にて図2(c)の風景画像用テンプレートを読み出していた場合には、空欄部{日時}が存在すると判断し、ステップS104にて図2(a)若しくは図2(b)の人物画像用テンプレートを読み出していた場合、又は、ステップS106にて図2(d)の風景画像用テンプレートを読み出していた場合には、空欄部{日時}が存在しないと判断する。
Subsequent to step S120 or step S130, the
文章作成部30は、読み出した文章テンプレートに空欄部{日時}が存在すると判断した場合(ステップS132:Yes)、撮像画像の撮像条件(日時)に応じた単語を文章テンプレートの空欄部{日時}に挿入する(ステップS140)。具体的には、文章作成部30は、撮像画像(風景画像)の付加情報から撮像日時を取得し、当該撮像日時に対応付けて記憶されている単語(日時に関連する単語)を記憶部90から読み出して風景画像用テンプレートの空欄部{日時}に挿入する。一方、文章作成部30は、読み出した文章テンプレートに空欄部{日時}が存在しないと判断した場合(ステップS132:No)、ステップS140を飛ばして処理をステップS142に進める。
When the
ステップS132(No)又はステップS140に続いて、文章作成部30は、読み出した文章テンプレートに空欄部{場所}が存在するか否かを判断する(ステップS142)。本実施例の場合、図2に示したように、図2(d)の風景画像用テンプレートには空欄部{場所}が存在するが、図2(a)(b)の人物画像用テンプレート及び図2(c)の風景画像用テンプレートには空欄部{場所}が存在しない。従って、文章作成部30は、ステップS106にて図2(d)の風景画像用テンプレートを読み出していた場合には、空欄部{場所}が存在すると判断し、ステップS104にて図2(a)若しくは図2(b)の人物画像用テンプレートを読み出していた場合、又は、ステップS106にて図2(c)の風景画像用テンプレートを読み出していた場合には、空欄部{場所}が存在しないと判断する。
Subsequent to step S132 (No) or step S140, the
文章作成部30は、読み出した文章テンプレートに空欄部{場所}が存在すると判断した場合(ステップS142:Yes)、撮像画像の撮像条件(場所)に応じた単語を文章テンプレートの空欄部{場所}に挿入する(ステップS150)。具体的には、文章作成部30は、撮像画像(風景画像)の付加情報から撮像場所を取得し、当該撮像場所に対応付けて記憶されている単語(場所に関連する単語)を記憶部90から読み出して風景画像用テンプレートの空欄部{場所}に挿入する。そして、図6に示すフローチャートは終了し、図5に示すフローチャートに戻る。一方、文章作成部30は、読み出した文章テンプレートに空欄部{場所}が存在しないと判断した場合(ステップS142:No)、ステップS150は飛ばして、図5に示すフローチャートに戻る。
When the
図5に戻って、文章を作成した文章作成部30は、作成した文章、及び、撮像画像を文章付加部40に出力する。文章付加部40は、文章作成部30から文章及び撮像画像を取得する。文章付加部40は、文章作成部30から取得した撮像画像に、文章作成部30から取得した文章を付加(合成)する。そして、図5に示すフローチャートは終了する。
Returning to FIG. 5, the
図7は、文章付加部40によって文章を付加された撮像画像の一例である。図7(a)の撮像画像は、1人の顔が大きく写っているので人物画像であると判定されている。即ち、当該撮像画像は、撮像画像の大きさに対する顔領域の大きさの割合の最大値(当該1つの顔領域の割合)が第2の閾値以上であると判定されている(ステップS22(Yes))。図7(b)の撮像画像は、2人の顔が大きく写っているので人物画像であると判定されている。即ち、当該撮像画像は、撮像画像の大きさに対する顔領域の大きさの割合の最大値が第2の閾値以上であると判定されている(ステップS22(Yes))。
FIG. 7 is an example of a captured image to which a sentence is added by the
図7(c)の撮像画像は、ある程度の大きさの顔が写っていて、かつ、大きさも揃っているので、人物画像であると判定されている。即ち、当該撮像画像は、撮像画像の大きさに対する顔領域の大きさの割合の最大値が、第1の閾値以上かつ第2の閾値未満であるが(ステップS22(No))、標準偏差が第3の閾値未満であると判定されている(ステップS44(Yes))。 The captured image in FIG. 7C is determined to be a person image because a face of a certain size is captured and the size is uniform. That is, in the captured image, the maximum value of the ratio of the size of the face area to the size of the captured image is greater than or equal to the first threshold and less than the second threshold (step S22 (No)), but the standard deviation is larger. It is determined that it is less than the third threshold (step S44 (Yes)).
図7(d)の撮像画像は、ある程度の大きさの顔が写っているが、大きさが揃っていないので、風景画像であると判定されている。即ち、当該撮像画像は、撮像画像の大きさに対する顔領域の大きさの割合の最大値が、第1の閾値以上かつ第2の閾値未満であるが(ステップS22(No))、標準偏差が第3の閾値以上であると判定されている(ステップS44(No))。図7(e)の撮像画像は、顔が何も写っていないので、風景画像であると判定されている(ステップS12(No))。 The captured image in FIG. 7D shows a face of a certain size, but the size is not uniform, so it is determined to be a landscape image. That is, in the captured image, the maximum value of the ratio of the size of the face area to the size of the captured image is greater than or equal to the first threshold and less than the second threshold (step S22 (No)), but the standard deviation is larger. It is determined that it is greater than or equal to the third threshold (step S44 (No)). The captured image in FIG. 7E is determined to be a landscape image because no face is captured (step S12 (No)).
以上、画像処理装置1によれば、撮像画像に対し、より柔軟な文字情報を付与することができる。即ち、画像処理装置1は、撮像画像を人物画像と風景画像とに分類し、人物画像に対しては、予め記憶している人物画像用テンプレートを使用して人物画像用の文章を作成し、風景画像に対しては、予め記憶している風景画像用テンプレートを使用して風景画像用の文章を作成するため、撮像内容に応じて、より柔軟な文字情報を付与することができる。
As described above, according to the
なお、上記実施例では、画像入力部10は、撮像画像の入力時に当該撮像画像を判定部20に出力する例を説明したが、判定部20が撮像画像を取得する態様はこれに限定されない。例えば、画像入力部10は撮像画像の入力時に当該撮像画像を記憶部90に記憶し、判定部20は必要時に記憶部90から所望の撮像画像を読み出して取得してもよい。
In the above-described embodiment, the
なお、上記実施例では、配色パターンを構成する第1色の色数は、色1〜色5の5色を用いる例を説明したが、説明の便宜上であって、6色以上であってもよい。第2色、第3色についても同様である。また、上記実施例では、第1色〜第3色の3色から構成される配色パターンを用いる例を説明したが、配色パターンを構成する色数はこれに限定されない。例えば、2色又は4色以上から構成される配色パターンを用いてもよい。
In the above-described embodiment, the example in which the number of colors of the first color constituting the color arrangement pattern uses five colors of
なお、上記実施例では、文章作成部30は、撮像画像が人物画像である場合に、記憶部90に記憶されている2種類の中からランダムに選択された一方の人物画像用テンプレートを読み出す例を説明したが、2種類の人物画像用テンプレートの中から読み出す一方を選択する態様はこれに限定されない。例えば、文章作成部30は、操作部(非図示)を介してユーザが指定した一方の人物画像テンプレートを選択してもよい。同様に、文章作成部30は、指定受付部を介してユーザが指定した一方の風景画像テンプレートを選択してもよい。
In the above embodiment, when the captured image is a person image, the
また、上記実施例では、選択したテンプレートの空欄部に挿入するべき単語を記憶部90から常に得られる例を説明したが、選択したテンプレートの空欄部に挿入するべき単語が記憶部90から得られないときは、他のテンプレートを選択し直してもよい。例えば、ある撮像画像の文章を作成用に、空欄部{場所}を有する図2(d)の風景画像用テンプレートを選択したが、当該撮像画像の付加情報から撮像場所を取得できなかったときは、空欄部{場所}を有しない図2(c)に風景画像用テンプレートを選択しなおしてもよい。
In the above-described embodiment, an example has been described in which a word to be inserted into the blank portion of the selected template is always obtained from the
また、上記実施例では、画像処理装置1は、空欄部{人数}及び空欄部{形容詞}を有する人物画像用テンプレートを記憶部90に記憶する例を説明したが、人物画像用テンプレートが有する空欄部の数、種類はこれに限定されない。例えば、人物画像用テンプレートは、空欄部{人数}及び空欄部{形容詞}に加え、空欄部{日時}又は空欄部{場所}の何れか一方又は両方を有していてもよい。また、画像処理装置1が各種センサを備える場合、人物画像用テンプレートは、撮像画像の撮像条件(照度)に応じた単語を挿入する空欄部{空欄部{照度})、撮像画像の撮像条件(温度)に応じた単語を挿入する空欄部{空欄部{温度})などを有していてもよい。
In the above embodiment, the
また、人物画像用テンプレートは、必ずしも空欄部{人数}を有していなくてもよい。人物画像用テンプレートが空欄部{人数}を有しない場合の一例は、人物画像に対し、被写体の人数に応じた単語を含む文章を作成しない場合である。人物画像に対し、被写体の人数に応じた単語を含む文章を作成しない場合には、当然に、画像処理装置1は、空欄部{人数}を有する人物画像用テンプレートを記憶部90に記憶する必要はない。
人物画像用テンプレートが空欄部{人数}を有しない場合の他の例は、被写体の人数に応じた複数の人物画像用テンプレートを記憶部90に記憶する場合である。被写体の人数に応じた複数の人物画像用テンプレートを記憶部90に記憶する場合には、画像処理装置1は、人物画像に対し、被写体の人数に応じた単語を空欄部{人数}に挿入して、被写体の人数に応じた単語を含む文章を作成するのではなく、被写体の人数に応じた人物画像用テンプレートを記憶部90から読み出して、被写体の人数に応じた単語を含む文章を作成する。
Further, the person image template does not necessarily have a blank portion {number of people}. An example of the case where the person image template does not have a blank portion {number of people} is a case where a sentence including words corresponding to the number of subjects is not created for the person image. When a sentence including words corresponding to the number of subjects is not created for a person image, the
Another example of the case where the person image template does not have the blank portion {number of people} is a case where a plurality of person image templates corresponding to the number of subjects are stored in the
また、上記実施例では、画像処理装置1は、空欄部{日時}及び空欄部{形容詞}を有する風景画像用テンプレート、及び、空欄部{場所}及び空欄部{形容詞}を有する風景画像用テンプレートを記憶部90に記憶する例を説明したが、風景画像用テンプレートが有する空欄部の数、種類はこれに限定されない。例えば、画像処理装置1が各種センサを備える場合、上述の空欄部{照度}、空欄部{温度}などを有していてもよい。
In the above embodiment, the
また、上記実施例では、画像処理装置1は、2種類の人物画像用テンプレートを記憶部90に記憶する例を説明したが、1種類又は3種類以上の人物画像テンプレートを記憶部90に記憶してもよい。同様に、画像処理装置1は、1種類又は3種類以上の風景画像テンプレートを記憶部90に記憶してもよい。
In the above embodiment, the
また、上記実施例では、画像処理装置1は、撮像画像に対する文章を作成した場合に当該文章を当該撮像画像に付加する例を説明したが、撮像画像に対する文章を作成した場合に当該文章を当該撮像画像と対応付けて記憶部90に記憶してもよい。
In the above-described embodiment, the
また、記憶部90は、第1種別(例えば、ポートレート)の画像に用いられる文章の構文である第1構文と、第2種別(例えば、風景)の画像に用いられる文章の構文である第2構文とを記憶してもよい。
The
文章作成部30は、記憶部90内に第1構文及び第2構文が記憶されている場合、撮像画像が第1種別の画像であると判定部20により判定されたときは(即ち、判定部20が人物画像であると判定したときは)、所定のテキストを用いて第1構文の文章を作成し、撮像画像が第2種別の画像であると判定部20により判定されたときは(即ち、判定部20が風景画像であると判定したときは)、所定のテキストを用いて第2構文の文章を作成してもよい。
When the first syntax and the second syntax are stored in the
また、画像処理装置1は、撮像画像の特徴量及び撮像条件の少なくとも一方に対応するテキスト(撮像画像の特徴量又は/及び撮像条件に応じたテキスト)を決定する決定部(非図示)を備えるようにしてもよい。例えば、決定部は、画像入力部10が撮像画像を入力(取得)した場合に、文書作成に用いる所定のテキストとして、当該撮像画像の特徴量又は/及び撮像条件に応じたテキストを決定する。より詳細には、例えば、特徴量及び撮像条件に対応付けて複数のテキストを記憶部90に予め記憶しておき、決定部は、記憶部90内の複数のテキストのなかから、特徴量又は/及び撮像条件に応じたテキストを選択する。
The
つまり、文章作成部30は、撮像画像が第1種別の画像であると判定部20により判定されたときは、決定部が上述の如く決定したテキストを用いて第1構文の文章を作成し、撮像画像が第2種別の画像であると判定部20により判定されたとき、決定部が上述の如く決定したテキストを用いて第2構文の文章を作成する。
That is, when the
(第2の実施形態)
続いて、図面を参照しながら本発明の第2の実施形態について説明する。図8は、本発明の第2の実施形態による撮像装置100の機能ブロック図の一例である。
(Second Embodiment)
Subsequently, a second embodiment of the present invention will be described with reference to the drawings. FIG. 8 is an example of a functional block diagram of the
撮像装置100は、図8に示すように、撮像部110、バッファメモリ部130、画像処理部140、表示部150、記憶部160、通信部170、操作部180及びCPU(Central processing unit)190を備える。
なお、撮像装置100の画像処理部140は、第1の実施形態による画像処理装置1の判定部20、文章作成部30及び文章付加部40に相当する。また、撮像装置100の記憶部160は、第1の実施形態による画像処理装置1の記憶部90に相当する。
As illustrated in FIG. 8, the
Note that the
撮像部110は、光学系111、撮像素子119及びA/D変換部120を備える。光学系111は、1又は2以上のレンズを備える。
The
撮像素子119は、例えば、受光面に結像した光学像を電気信号に変換して、A/D変換部120に出力する。
For example, the
また、撮像素子119は、操作部180を介して撮像指示を受け付けた際に得られる画像データを、撮像された静止画の撮像画像データとして、A/D変換部120や画像処理部140を介して、記憶媒体200に記憶させる。
Further, the
また、撮像素子119は、例えば、操作部180を介して撮像指示を受け付けていない状態において、連続的に得られる画像データをスルー画データ(撮像画像)として、A/D変換部120や画像処理部140を介して、表示部150に連続的に出力する。
In addition, for example, the
なお、光学系111は、撮像装置100に取り付けられて一体とされていてもよいし、撮像装置100に着脱可能に取り付けられてもよい。
Note that the
A/D変換部120は、撮像素子119によって変換された電子信号をアナログ/デジタル変換し、この変換したデジタル信号である撮像画像データ(撮像画像)を出力する。
The A /
即ち、撮像部110は、設定された撮像条件(例えば絞り値、露出値等)に基づいてCPU190により制御され、光学系111を介した光学像を撮像素子119に結像させ、A/D変換部120によりデジタル信号に変換された当該光学像に基づく撮像画像を生成する。
That is, the
操作部180は、例えば、電源スイッチ、シャッターボタン、十字キー、確定ボタン、および、その他の操作キーを含み、ユーザによって操作されることでユーザの操作入力を受け付け、CPU190に出力する。
The
画像処理部140は、記憶部160に記憶されている画像処理条件に基づいて、バッファメモリ部130に記憶されている画像データに対して画像処理を実行する。例えば、画像処理部140は、第1の実施形態による画像処理装置1の判定部20、文章作成部30及び文章付加部40の処理を実行する。なお、バッファメモリ部130に記憶されている画像データとは、画像処理部140に入力される画像データのことであり、例えば、上述した撮像画像データ、スルー画データ、または、記憶媒体200から読み出された撮像画像データのことである。
The
表示部150は、例えば液晶ディスプレイであって、画像データ、操作画面などを表示する。例えば、表示部150は、画像処理部140によって文章が付加された撮像画像を表示する。
The
記憶部160は、種々の情報を記憶する。具体的には、記憶部160は、少なくとも、第1の実施形態による画像処理装置1の記憶部90が記憶する情報を記憶する。
The
バッファメモリ部130は、撮像部110によって撮像された画像データを、一時的に記憶する。通信部170は、カードメモリ等の取り外しが可能な記憶媒体200と接続され、この記憶媒体200への撮影画像データの書込み、読み出し、または消去を行う。
The
記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であり、例えば、撮像部110によって生成された撮影画像データを記憶する。CPU190は、撮像装置100が備える各構成を制御する。バス300は、撮像部110と、CPU190と、操作部180と、画像処理部140と、表示部150と、記憶部160と、バッファメモリ部130と、通信部170とに接続され、各部から出力された画像データや制御信号等を転送する。
The
なお、上記第1の実施形態による画像処理装置1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上記画像処理装置1の各処理に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
A program for executing each process of the
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
図9は、画像上に配置される文章を決定するために用いられる撮像画像の特徴量を抽出するプロセスの一例を模式的に示す図である。図9の例において、画像処理装置の判定部は、撮像画像のシーンを人物画像又は風景画像に分類する。次に、画像処理装置は、そのシーンに応じて、撮像画像の特徴量を抽出する。特徴量は、人物画像の場合には、顔の数(被写体の人数)及び平均色(配色パターン)とすることができ、風景画像の場合には、平均色(配色パターン)とすることができる。これらの特徴量を基に、人物画像用テンプレート又は風景画像用テンプレートに挿入される単語(形容詞等)が決定される。 FIG. 9 is a diagram schematically illustrating an example of a process for extracting a feature amount of a captured image used for determining a sentence arranged on an image. In the example of FIG. 9, the determination unit of the image processing apparatus classifies the scene of the captured image into a person image or a landscape image. Next, the image processing apparatus extracts a feature amount of the captured image according to the scene. The feature amount can be the number of faces (number of subjects) and the average color (color arrangement pattern) in the case of a person image, and can be the average color (color arrangement pattern) in the case of a landscape image. . Based on these feature quantities, words (adjectives and the like) to be inserted into the person image template or the landscape image template are determined.
ここで、図9の例では、配色パターンは、撮像画像を構成する代表的な複数の色の組み合わせで構成されている。したがって、配色パターンは、撮像画像の平均的な色(平均色)を表すことができる。一例において、配色パターンとして、「第1色」、「第2色」、「第3色」を規定し、これら3種類の色の組み合わせ、すなわち3種類の平均的な色に基づいて、人物画像用、又は風景画像用の文章テンプレートに挿入される単語(形容詞)を決定することができる。 Here, in the example of FIG. 9, the color arrangement pattern is configured by a combination of a plurality of representative colors constituting the captured image. Therefore, the color arrangement pattern can represent the average color (average color) of the captured image. In one example, “first color”, “second color”, and “third color” are defined as a color arrangement pattern, and based on a combination of these three colors, that is, based on three average colors, a person image Or a word (adjective) to be inserted into a text template for a landscape image.
図9の例において、撮像画像のシーンは2種類(人物画像及び風景画像)に分類される。他の例において、撮像画像のシーンは、3種類以上(3、4、5、6、7、8、9、又は10種類以上)に分類することができる。 In the example of FIG. 9, the scene of the captured image is classified into two types (person image and landscape image). In another example, the scene of the captured image can be classified into three or more types (3, 4, 5, 6, 7, 8, 9, or 10 types or more).
図10は、画像上に配置される文章を決定するために用いられる撮像画像の特徴量を抽出するプロセスの別の一例を模式的に示す図である。図10の例において、撮像画像のシーンを3種類以上に分類することができる。 FIG. 10 is a diagram schematically illustrating another example of the process of extracting the feature amount of the captured image used for determining the text arranged on the image. In the example of FIG. 10, the scene of the captured image can be classified into three or more types.
図10の例において、画像処理装置の判定部は、撮像画像が人物画像(第1モード画像)、遠景画像(第2モード画像)、又はその他の画像(第3モード画像)いずれであるかを判定する。まず、判定部は、図9の例と同様に、撮像画像が人物画像であるか、人物画像とは異なる画像であるかを判定する。 In the example of FIG. 10, the determination unit of the image processing apparatus determines whether the captured image is a person image (first mode image), a distant view image (second mode image), or another image (third mode image). judge. First, as in the example of FIG. 9, the determination unit determines whether the captured image is a person image or an image different from the person image.
次に、撮像画像が人物画像とは異なる画像である場合、判定部は、撮像画像が遠景画像(第2モード画像)又はその他の画像(第3モード画像)のうちいずれであるか、を判定する。この判定は、例えば、撮像画像に付与された画像識別情報の一部を用いて行うことができる。 Next, when the captured image is an image different from the human image, the determination unit determines whether the captured image is a distant view image (second mode image) or another image (third mode image). To do. This determination can be performed using, for example, a part of the image identification information given to the captured image.
具体的には、撮像画像が遠景画像かどうかを判定するために、画像識別情報の一部である焦点距離を用いることができる。判定部は、焦点距離が、あらかじめ設定された基準距離以上である場合、撮像画像を遠景画像と判定し、焦点距離が基準距離未満である場合、撮像画像をその他の画像と判定する。以上により、撮像画像が、人物画像(第1モード画像)、遠景画像(第2モード画像)、又はその他の画像(第3モード画像)の3種類にシーン分類される。なお、遠景画像(第2モード画像)の例は、海や山などの風景画像等を含み、その他の画像(第3モード画像)の例は、花及びペット等を含む。 Specifically, in order to determine whether the captured image is a distant view image, a focal length that is a part of the image identification information can be used. The determination unit determines that the captured image is a distant view image when the focal distance is greater than or equal to a preset reference distance, and determines the captured image as another image when the focal distance is less than the reference distance. As described above, the captured image is classified into three types of scenes: a person image (first mode image), a distant view image (second mode image), or another image (third mode image). Note that examples of distant view images (second mode images) include landscape images such as the sea and mountains, and examples of other images (third mode images) include flowers and pets.
図10の例においても、撮像画像のシーンが分類された後、画像処理装置は、そのシーンに応じて、撮像画像の特徴量を抽出する。 Also in the example of FIG. 10, after the scene of the captured image is classified, the image processing apparatus extracts the feature amount of the captured image in accordance with the scene.
図10の例において、撮像画像が人物画像(第1シーン画像)の場合、画像上に配置される文章を決定するために用いられる撮像画像の特徴量として、顔の数(被写体の人数)及び/又は笑顔レベルを用いることができる。すなわち、撮像画像が人物画像の場合、顔の数(被写体の人数)の判定結果に加え、又は代えて笑顔レベルの判定結果に基づいて、人物画像用テンプレートに挿入される単語を決定することができる。以下、笑顔レベルの判定方法の一例について、図11を用いて説明する。 In the example of FIG. 10, when the captured image is a person image (first scene image), the number of faces (number of subjects) and the feature amount of the captured image used for determining the text arranged on the image are A smile level can be used. That is, when the captured image is a human image, a word to be inserted into the human image template may be determined based on the determination result of the smile level in addition to or instead of the determination result of the number of faces (number of subjects). it can. Hereinafter, an example of a smile level determination method will be described with reference to FIG.
図11の例において、画像処理装置の判定部は、人物画像に対して、顔認識などの方法により顔領域を検出する(ステップS5001)。一例において、口角部分の上り具合を数値化することにより、人物画像の笑顔度が算出される。なお、笑顔度の算出には例えば、顔認識にかかる公知の様々な技術を用いることができる。 In the example of FIG. 11, the determination unit of the image processing apparatus detects a face area from a person image by a method such as face recognition (step S5001). In one example, the degree of smile of a person image is calculated by digitizing the degree of ascending of the mouth corner. For example, various known techniques for face recognition can be used for calculating the smile level.
次に、判定部は、あらかじめ設定された第1の笑顔閾値αと、笑顔度を比較する(ステップS5002)。笑顔度がα以上と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:大」であると判定する。 Next, the determination unit compares the smile level with the first smile threshold α set in advance (step S5002). When it is determined that the smile level is greater than or equal to α, the determination unit determines that the smile level of the person image is “smile: large”.
一方、笑顔度がα未満と判定された場合、判定部は、あらかじめ設定された第2の笑顔閾値βと笑顔度を比較する(ステップS5003)。笑顔度がβ以上と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:中」であると判定する。さらに、笑顔度がβ未満と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:小」であると判定する。 On the other hand, when it is determined that the smile level is less than α, the determination unit compares the smile level with a second smile threshold value β set in advance (step S5003). When it is determined that the smile level is β or more, the determination unit determines that the smile level of this person image is “smile: medium”. Furthermore, when it is determined that the smile level is less than β, the determination unit determines that the smile level of the person image is “smile: small”.
人物画像の笑顔レベルの判定結果に基づき、人物画像用テンプレートに挿入される単語が決定される。ここで、「笑顔:大」の笑顔レベルに対応する単語の例としては、「喜びいっぱいの」、「とてもいい」等が挙げられる。「笑顔:中」の笑顔レベルに対応する単語の例としては、「嬉しそうな」、「いい穏やかな」等が挙げられる。「笑顔:小」の笑顔レベルに対応する単語の例としては、「真剣そうな」、「クールな」等が挙げられる。 A word to be inserted into the person image template is determined based on the determination result of the smile level of the person image. Here, examples of the word corresponding to the smile level of “smile: large” include “full of joy” and “very good”. Examples of words that correspond to the smile level of “smile: medium” include “joyful” and “good calm”. Examples of words corresponding to the smile level of “smile: small” include “seriously seems” and “cool”.
なお、上記では、人物画像用テンプレートに挿入される単語が、連体形である場合について説明したが、これに限ることはなく、例えば終止形であってもよい。この場合、「笑顔:大」の笑顔レベルに対応する単語の例としては、「笑顔が素敵」、「すごくいい笑顔だね」等が挙げられる。「笑顔:中」の笑顔レベルに対応する単語の例としては、「にこやかだね」、「いい表情」等が挙げられる。「笑顔:小」の笑顔レベルに対応する単語の例としては、「真剣そうです」、「真面目そうです」等が挙げられる。 In the above description, the case where the word inserted into the person image template is a continuous form has been described. However, the present invention is not limited to this, and may be an end form, for example. In this case, examples of words corresponding to the smile level of “smile: large” include “smile is nice”, “it is a very good smile”, and the like. Examples of words corresponding to the smile level of “smile: medium” include “smiley” and “good expression”. Examples of words corresponding to a smile level of “smile: small” include “looks serious” and “looks serious”.
図12Aは、画像処理装置の動作結果を示す出力画像の一例であり、この出力画像は、図9の例に基づいて決定された文章を有する。図12Aの例において、撮像画像は人物画像であると判定され、特徴量としては被写体の人数、及び配色パターン(平均色)が抽出されている。また、配色パターンに応じて、人物画像用テンプレートに挿入される単語が、「重厚な」と決定されている。その結果、図12Aに示す出力結果が得られている。すなわち、図12Aの例では、撮像画像の平均色に基づいて、「重厚な」の単語(形容詞、連体形)が決定されている。 FIG. 12A is an example of an output image showing the operation result of the image processing apparatus, and this output image has a sentence determined based on the example of FIG. In the example of FIG. 12A, the captured image is determined to be a person image, and the number of subjects and the color arrangement pattern (average color) are extracted as the feature amount. Further, the word inserted into the person image template is determined as “heavy” according to the color arrangement pattern. As a result, the output result shown in FIG. 12A is obtained. That is, in the example of FIG. 12A, the word “heavy” (adjective, combined form) is determined based on the average color of the captured image.
図12Bは、画像処理装置の動作結果を示す出力画像の別一例であり、この出力画像は、図10の例に基づいて決定された文章を有する。図12Bの例において、撮像画像は人物画像であると判定され、特徴量としては被写体の人数、及び笑顔レベルが抽出されている。また、笑顔レベルに応じて、人物画像用テンプレートに挿入される単語が、「いい表情」と決定されている。その結果、図12Bに示す出力結果が得られている。すなわち、図12Bの例では、撮像画像における人物の笑顔レベルに基づいて、「いい表情」の単語(終止形)が決定されている。図12Bの出力結果のように、人物画像に対して笑顔レベルを用いた単語出力を用いることで、画像から受ける印象に比較的近い文字情報を添付することができる。 FIG. 12B is another example of an output image showing the operation result of the image processing apparatus, and this output image has a sentence determined based on the example of FIG. In the example of FIG. 12B, the captured image is determined to be a person image, and the number of subjects and the smile level are extracted as the feature amount. Further, according to the smile level, the word inserted into the person image template is determined as “good expression”. As a result, the output result shown in FIG. 12B is obtained. That is, in the example of FIG. 12B, the word (end form) of “good expression” is determined based on the smile level of the person in the captured image. Like the output result of FIG. 12B, by using the word output using the smile level for the person image, it is possible to attach character information that is relatively close to the impression received from the image.
図10に戻り、撮像画像が風景画像(第2シーン画像)又はその他の画像(第3シーン画像)の場合、画像上に配置される文章を決定するために用いられる撮像画像の特徴量として、平均色に代えて、代表色を用いることができる。代表色としては、配色パターンにおける「第1色」、すなわち撮像画像において最も頻度の多い色を用いることができる。あるいは、代表色は、以下に説明するように、クラスタリングを用いて決定することができる。 Returning to FIG. 10, when the captured image is a landscape image (second scene image) or another image (third scene image), as a feature amount of the captured image used to determine the text arranged on the image, A representative color can be used instead of the average color. As the representative color, the “first color” in the color arrangement pattern, that is, the most frequently used color in the captured image can be used. Alternatively, the representative color can be determined using clustering as described below.
図13は、撮像装置に含まれる画像処理部の内部構成を表す概略ブロック図である。図13の例において、画像処理装置の画像処理部5040は、画像データ入力部5042と、解析部5044と、文章作成部5052と、文章付加部5054とを有する。画像処理部5040は、撮像部等で生成された画像データについて、各種の解析処理を行うことにより、画像データの内容に関する各種の情報を取得し、画像データの内容と整合性の高いテキストを作成し、画像データにテキストを付加することができる。
FIG. 13 is a schematic block diagram illustrating an internal configuration of an image processing unit included in the imaging apparatus. In the example of FIG. 13, the
解析部5044は、色情報抽出部5046、領域抽出部5048、クラスタリング部5050を有しており、画像データに対して解析処理を行う。色情報抽出部5046は、画像データから、画像データに含まれる各画素の色情報に関する第1情報を抽出する。典型的には、第1情報は、画像データに含まれる全ての画素のHSV値を、集計したものである。ただし、第1情報は、類似性が関連づけられた(例えば所定の色空間に関連付けされた)所定の色について、この所定の色が画像中に表れる頻度(画素単位での頻度、面積割合等)を示す情報であればよく、色の解像度や、色空間の種類は限定されない。
The
例えば、第1情報は、HSV空間ベクトル(HSV値)やRGB値で表されるそれぞれの色について、それぞれの色の画素が、画像データに幾つずつ含まれるか、を表す情報であっても良い。ただし、第1情報における色解像度は、演算処理の負担等を考慮して適宜変更すれば良く、また、色空間の種類もHSVやRGBに限られず、CMY、CMYK等であっても良い。 For example, the first information may be information indicating how many pixels of each color are included in the image data for each color represented by an HSV space vector (HSV value) or RGB value. . However, the color resolution in the first information may be changed as appropriate in consideration of the burden of calculation processing, and the type of color space is not limited to HSV or RGB, and may be CMY, CMYK, or the like.
図14は、解析部5044において行われる代表色の決定の流れを表すフローチャートである。図14のステップS5101では、画像処理装置が、具体的な画像データ5060(撮像画像、図15参照)の代表色の算出を開始する。
FIG. 14 is a flowchart showing the flow of representative color determination performed in the
ステップS5102では、画像処理装置の画像データ入力部5042が、画像データを解析部5044に出力する。次に、解析部5044の色情報抽出部5046は、画像データに含まれる各画素の色情報に関する第1情報5062を算出する(図15参照)。
In step S5102, the image
図15は、ステップS5102において色情報抽出部5046が実施する第1情報5062の算出処理を表す概念図である。色情報抽出部5046は、画像データ5060に含まれる色情報を、各色毎(例えば256階調の各階調毎)に集計し、第1情報5062を得る。図15の下図に示すヒストグラムは、色情報抽出部5046によって算出された第1情報5062のイメージを表している。図15のヒストグラムの横軸は色であり、縦軸は、画像データ5060中に、所定の色の画素がいくつ含まれるかを表している。
FIG. 15 is a conceptual diagram illustrating a calculation process of the
図14のステップS5103では、解析部5044の領域抽出部5048が、画像データ5060における主要領域を抽出する。例えば、領域抽出部5048は、図15に示す画像データ5060の中からピントが合っている領域を抽出し、画像データ5060の中央部分を主要領域であると認定する(図16における主要領域5064参照)。
In step S5103 of FIG. 14, the
図14のステップS5104では、解析部5044の領域抽出部5048が、ステップS5105で実施されるクラスタリングの対象領域を決定する。例えば、領域抽出部5048は、図16の上部に示すように、ステップS5103において画像データ5060の一部を主要領域5064であると認識し、主要領域5064を抽出した場合、クラスタリングの対象を、主要領域5064に対応する第1情報5062(主要第1情報5066)とする。図16の下図に示すヒストグラムは、主要第1情報5066のイメージを表している。
In step S5104 in FIG. 14, the
一方、領域抽出部5048が、ステップS5103において画像データ5060における主要領域5064を抽出しなかった場合、領域抽出部5048は、図15に示すように、画像データ5060の全領域に対応する第1情報5062を、クラスタリングの対象に決定する。なお、クラスタリングの対象領域が異なることを除き、主要領域5064が抽出された場合と抽出されなかった場合とで、その後の処理に違いはないため、以下では、主要領域が抽出された場合を例に説明を行う。
On the other hand, if the
図14のステップS5105では、解析部5044のクラスタリング部5050が、ステップS5104で決定された領域の第1情報5062である主要第1情報5066に対して、クラスタリングを実施する。図17は、図16に示す主要領域5064の主要第1情報5066について、クラスタリング部5050が実施したクラスタリングの結果を表す概念図である。
In step S5105 of FIG. 14, the
クラスタリング部5050は、例えば、256階調の主要第1情報5066(図16参照)を、k−means法によって複数のクラスタに分類する。なお、クラスタリングは、k−means法(k平均法)に限定されない。他の例において、最短距離法等の他の方法を用いることができる。
For example, the
図17の上部は、各画素がどのクラスタに分類されたかを表しており、図17の下部に示すヒストグラムは、各クラスタに属する画素の数を示したものである。クラスタリング部5050によるクラスタリングによって、256階調の主要第1情報5066(図16)は、256より少ない(図17に示す例では3つの)クラスタに分類されている。クラスタリングの結果は、各クラスタの大きさに関する情報と、各クラスタの色(クラスタの色空間上の位置)に関する情報とを含むことができる。
The upper part of FIG. 17 shows to which cluster each pixel is classified, and the histogram shown in the lower part of FIG. 17 shows the number of pixels belonging to each cluster. By the clustering by the
ステップS5106は、解析部5044のクラスタリング部5050が、クラスタリングの結果に基づき、画像データ5060の代表色を決定する。一例において、クラスタリング部5050は、図17に示すようなクラスタリング結果を得た場合、算出された複数のクラスタのうち最も多くの画素を含む最大クラスタ5074に属する色を、画像データ5060の代表色とする。
In step S5106, the
代表色の算出が終了すると、文章作成部5052は、代表色に関する情報を用いてテキストを作成し、画像データ5060に付与する。
When the calculation of the representative color is completed, the
文章作成部5052は、例えば風景画像用の文章テンプレートを読み出し、文章テンプレートの{日時}に、画像データ5060の生成日時に対応する単語(例えば「2012/03/10」)を適用する。この場合、解析部5044は、画像データ5060の生成日時に関する情報を記憶媒体等から検索し、文章作成部5052に出力することができる。
The
また、文章作成部5052は、文章テンプレートの{形容詞}に、画像データ5060の代表色に対応する単語を適用する。文章作成部5052は、記憶部5028から対応情報を読み出して、文章テンプレートに適用する。一例において、記憶部5028には、シーン毎に色と単語とが関連付けられたテーブルが保存されている。文章作成部5052は、そのテーブルから読み出した単語を用いて文章(例えば「とてもきれいなものを見つけた」)を作成することができる。
In addition, the
図18は、上述した一連の処理によってテキストを付与された画像データ5080を表示したものである。
FIG. 18
図19は、シーンが遠景画像の場合に、上述と同様の一連の処理によってテキストを付与された画像データの例を示したものである。この場合、シーンが遠景画像に分類され、かつ代表色は青と判定されている。例えば、シーン毎に色と単語とが関連付けられたテーブルにおいて、代表色の「青」に対して単語「爽やかな」等が対応付けられている。 FIG. 19 shows an example of image data to which text is given by a series of processes similar to the above when the scene is a distant view image. In this case, the scene is classified as a distant view image, and the representative color is determined to be blue. For example, in a table in which colors and words are associated with each scene, the word “fresh” is associated with the representative color “blue”.
図20は、色と単語との対応情報を有するテーブルの一例を示す図である。図20のテーブルにおいて、人物画像(第1シーン画像)、遠景画像(第2シーン画像)、及びその他の画像(第3シーン画像)、のシーンごとに、色と単語とが関連付けられている。一例において、画像データの代表色が「青」であり、シーンがその他の画像(第3シーン画像)であるとき、文章作成部5052は、テーブルの対応情報から、代表色に対応する単語(例えば「上品な」)を選択し、文章テンプレートの{形容詞}に適用する。
FIG. 20 is a diagram illustrating an example of a table having correspondence information between colors and words. In the table of FIG. 20, a color and a word are associated with each scene of a person image (first scene image), a distant view image (second scene image), and another image (third scene image). In one example, when the representative color of the image data is “blue” and the scene is another image (third scene image), the
色と単語との対応テーブルは、例えば、PCCS表色系、CICC表色系、又はNCS表色系などのカラーチャートに基づき設定することができる。 The correspondence table between colors and words can be set based on a color chart such as a PCCS color system, CICC color system, or NCS color system.
図21は、CCIC表示系のカラーチャートを用いた、遠景画像(第2シーン画像)用の対応テーブルの一例を示す。図22は、CCIC表示系のカラーチャートを用いた、その他の画像(第3シーン画像)用の対応テーブルの一例を示す。 FIG. 21 shows an example of a correspondence table for a distant view image (second scene image) using a color chart of the CCIC display system. FIG. 22 shows an example of a correspondence table for other images (third scene images) using a CCIC display color chart.
図21において、横軸は、代表色の色相に、縦軸は代表色のトーンに対応している。単語の決定に図21のテーブルを用いることにより、代表色の色相の情報だけでなく、代表色のトーンの情報も併せて単語を決定し、人間が生じる感性に比較的近いテキストを付与することが可能となる。以下、図21のテーブルを用いた、遠景画像(第2シーン画像)の場合の具体的なテキストの設定例を説明する。なお、その他の画像(第3シーン画像)の場合、図22のテーブルを用いて同様に設定することができる。 In FIG. 21, the horizontal axis corresponds to the hue of the representative color, and the vertical axis corresponds to the tone of the representative color. By using the table of FIG. 21 to determine the word, not only the information on the hue of the representative color but also the information on the tone of the representative color is used to determine the word, and a text that is relatively close to the sensibility generated by humans is given. Is possible. Hereinafter, a specific text setting example in the case of a distant view image (second scene image) using the table of FIG. 21 will be described. In the case of other images (third scene images), the same setting can be made using the table of FIG.
図21において、代表色が領域A5001と判定された場合、その代表色の呼称(赤、橙、黄、青など)がそのままテキスト中の単語に適用される。例えば、代表色の色相が「赤(R)」、トーンが「ビビッド・トーン(V)」の場合、その色を表す形容詞「真っ赤な」等が選択される。 In FIG. 21, when it is determined that the representative color is the area A5001, the name of the representative color (red, orange, yellow, blue, etc.) is applied to the word in the text as it is. For example, if the hue of the representative color is “red (R)” and the tone is “Vivid Tone (V)”, the adjective “crimson” representing the color is selected.
また、代表色が領域A5002、A5003、A5004又はA5005の色と判定された場合、その色から連想する形容詞が、テキスト中の単語に適用される。例えば、代表色が領域A5003の色(緑)と判定された場合、緑から連想する形容詞である「心地良い」、「さわやかな」等が適用される。 When the representative color is determined to be the color of the region A5002, A5003, A5004, or A5005, an adjective associated with the color is applied to the word in the text. For example, when the representative color is determined to be the color (green) of the area A5003, the adjectives associated with green, such as “comfortable” and “fresh”, are applied.
なお、代表色が領域A5001〜A5005の色と判定され、且つそのトーンがビビッド・トーン(V)、ストロング・トーン(S)、ブライト・トーン(B)、又はペール・トーン(LT)の場合には、形容詞の前に程度を表す副詞(例:とても、かなり等)が適用される。 When the representative color is determined to be the color of the area A5001 to A5005 and the tone is a vivid tone (V), a strong tone (S), a bright tone (B), or a pale tone (LT). Applies adverbs that indicate the degree before the adjectives (eg, very, pretty, etc.).
代表色が領域A5006、すなわち「ホワイト・トーン(白)」と判定された場合、白から連想される単語である「清らかな」、「澄んだ」等が選択される。また、代表色が領域A5007、すなわちグレー系の色(ライト・グレイ・トーン:ltGY、ミディアム・グレイ・トーン:mGY、又はダーク・グレイ・トーン:dkGY)と判定された場合、無難な形容詞である「きれいな」、「すてきな」等が選択される。白、又はグレー系の色、すなわち無彩色が代表色となる画像においては、さまざまな色が画像全体に含まれる場合が多い。したがって、色とは関連性の少ない単語を用いることで、的外れな意味のテキストが付与されるのを防止し、画像から受けるイメージに比較的近いテキストを付与することができる。 When the representative color is determined to be the area A5006, that is, “white tone (white)”, “clean”, “clear”, and the like, which are words associated with white, are selected. Further, if the representative color is determined to be the area A5007, that is, a gray color (light gray tone: ltGY, medium gray tone: mGY, or dark gray tone: dkGY), it is a safe adjective. “Clean”, “nice”, etc. are selected. In an image in which a white or gray color, that is, an achromatic color is a representative color, various colors are often included in the entire image. Therefore, by using a word that is less related to color, it is possible to prevent a text having an inappropriate meaning from being added, and it is possible to provide a text that is relatively close to an image received from an image.
また、代表色が領域A5001〜A5007のいずれの領域にも属さない場合、すなわち代表色が低トーン(ダーク・グレイッシュ・トーン)、又は黒(ブラック・トーン)である場合、所定の意味を有する文字(単語、又は文章)をテキストとして選択することができる。所定の意味を有する文字は、例えば、「ここはどこ」、「あっ」等を含む。これらの単語や文章は、「つぶやき辞書」として画像処理装置の記憶部に保存しておくことができる。 Further, when the representative color does not belong to any of the areas A5001 to A5007, that is, when the representative color is a low tone (dark grayish tone) or black (black tone), characters having a predetermined meaning (Word or sentence) can be selected as text. Characters having a predetermined meaning include, for example, “where is here”, “a”, and the like. These words and sentences can be stored in the storage unit of the image processing apparatus as a “tweet dictionary”.
すなわち、代表色が低トーン、又は黒と判定されたとき、画像全体の色相の判定が困難なことがあるが、このような場合においても上記のように色とは関連性の少ない文字を用いることで、的外れな意味のテキストが付与されるのを防止し、画像から受けるイメージに近いテキストを付与することができる。 In other words, when the representative color is determined to be low tone or black, it may be difficult to determine the hue of the entire image. Even in such a case, characters having less relation to the color are used as described above. Thus, it is possible to prevent a text having an inappropriate meaning from being added, and to add a text close to an image received from an image.
また、上記の例では、シーンと代表色に応じて文章と単語が一義的に決定される場合について説明したが、これに限らず、文章と単語の選択において、時々、例外処理を行うこともできる。例えば、複数回に1回(例えば10回に1回)は、上記の「つぶやき辞書」からテキストを抽出してもよい。これにより、テキストの表示内容が必ずしもパターン化されることがないので、ユーザが表示内容に飽きるのを防止することができる。 In the above example, the case where the sentence and the word are uniquely determined according to the scene and the representative color has been described. However, the present invention is not limited to this, and exception processing is sometimes performed in the selection of the sentence and the word. it can. For example, the text may be extracted from the “tweet dictionary” once every plural times (for example, once every 10 times). As a result, the display content of the text is not necessarily patterned, so that the user can be prevented from getting bored with the display content.
なお、上記の例において、文章付加部は、文章作成部によって生成されたテキストを画像の上部、又は下部に配置する場合について説明したが、これに限らず、例えばテキストを画像の外(枠外)に配置することもできる。 In the above example, the case where the sentence adding unit arranges the text generated by the sentence creating unit at the upper part or the lower part of the image has been described. However, the present invention is not limited to this. It can also be arranged.
また、上記の例において、テキストの位置が画像内で固定されている場合について説明したが、これに限らず、例えば画像処理装置の表示部において、テキストを流れるように表示させることができる。これにより、入力画像がテキストにより影響を受けにくい、又はテキストの視認性が向上される。 In the above example, the case where the position of the text is fixed in the image has been described. However, the present invention is not limited to this. For example, the text can be displayed so as to flow on the display unit of the image processing apparatus. Thereby, the input image is not easily affected by the text, or the text visibility is improved.
なお、上記の例において、テキストが画像に必ず貼り付けられる場合について説明したが、これに限らず、例えば人物画像の場合には、テキストは貼り付けず、遠景画像又はその他の画像の場合にはテキストを貼り付けるようにしてもよい。 In the above example, the case where the text is always pasted on the image has been described. However, the present invention is not limited to this. For example, in the case of a person image, the text is not pasted, and in the case of a distant view image or other images. You may make it paste a text.
また、上記の例において、文章付加部は、文章作成部によって生成されたテキストの表示方法(フォント、色、表示位置など)を所定の方法で決定する場合について説明したが、これに限らず、テキストの表示方法は、多種多様に決定することができる。以下、これらの方法について、いくつかの例を示す。 In the above example, the sentence adding unit has described the case where the display method (font, color, display position, etc.) of the text generated by the sentence creating unit is determined by a predetermined method. A variety of text display methods can be determined. Hereinafter, some examples of these methods will be described.
一例においては、ユーザが画像処理装置の操作部を介して、テキストの表示方法(フォント、色、表示位置)を修正することができる。或いは、ユーザは、テキストの内容(単語)を変更、又は削除することができる。また、ユーザは、テキスト全体を表示させないように設定する、すなわちテキストの表示/非表示を選択することができる。 In one example, the user can correct the text display method (font, color, display position) via the operation unit of the image processing apparatus. Alternatively, the user can change or delete the contents (words) of the text. In addition, the user can select not to display the entire text, that is, display / non-display of the text.
また、一例においては、入力画像のシーンに応じてテキストの大きさを変更することができる。例えば、入力画像のシーンが人物画像の場合、テキストを小さくし、入力画像のシーンが遠景画像又はその他の画像の場合、テキストを大きくすることができる。 In one example, the size of the text can be changed according to the scene of the input image. For example, when the scene of the input image is a person image, the text can be reduced, and when the scene of the input image is a distant view image or other images, the text can be increased.
また、一例においては、テキストを強調表示して画像データに合成することもできる。例えば、入力画像が人物画像の場合、人物に吹き出しを付与し、その吹き出し中にテキストを配置することができる。 In one example, text can be highlighted and combined with image data. For example, when the input image is a person image, a balloon can be given to the person and text can be placed in the balloon.
また、一例においては、テキストの表示色は、入力画像の代表色を基準として設定することできる。具体的には、入力画像の代表色と色相は同じであり、且つトーンが異なる色を、テキストの表示色として用いることができる。これにより、テキストが過度に主張されることなく、入力画像とほどよく調和したテキストを付与することができる。 In one example, the display color of the text can be set with reference to the representative color of the input image. Specifically, a color having the same hue as the representative color of the input image and a different tone can be used as a text display color. As a result, it is possible to give a text that is in harmony with the input image without excessively claiming the text.
また、特に、入力画像の代表色が白の場合、テキストの表示色の決定において、例外処理を行ってもよい。ここで、例外処理では例えば、テキストの色を白とし、そのテキストの周辺部を黒に設定することができる。 In particular, when the representative color of the input image is white, exception processing may be performed in determining the text display color. Here, in the exception processing, for example, the text color can be set to white and the peripheral portion of the text can be set to black.
1…画像処理装置 10…画像入力部 20…判定部 30…文章作成部 40…文章付加部 90…記憶部 100…撮像装置 110…撮像部 111…光学系 119…撮像素子 120 AD変換部 130…バッファメモリ部 140…画像処理部 150…表示部 160…記憶部 170…通信部 180…操作部 190…CPU 200…記憶媒体 300…バス
DESCRIPTION OF
Claims (11)
所定の空欄部に単語を挿入して文章を完成させる文章テンプレートとして、人物が被写体である人物画像に対する文章の作成に用いられる人物画像用テンプレートと、風景が被写体である風景画像に対する文章の作成に用いられる風景画像用テンプレートとを記憶する記憶部と、
前記撮像画像が、前記人物画像であるか前記風景画像であるかを判定する判定部と、
前記撮像画像に対する前記判定部による判定結果に応じて、前記人物画像用テンプレート又は前記風景画像用テンプレートの何れかの前記文章テンプレートを前記記憶部から読み出し、読み出した前記文章テンプレートの前記空欄部に前記撮像画像の特徴量又は撮像条件に応じた単語を挿入して当該撮像画像に対する文章を作成する文章作成部と
を備えることを特徴とする画像処理装置。 An image input unit for inputting a captured image;
As a sentence template for completing a sentence by inserting a word into a predetermined blank space, a person image template used for creating a sentence for a person image with a person as a subject and a sentence for a landscape image with a landscape as a subject A storage unit for storing a landscape image template to be used;
A determination unit that determines whether the captured image is the person image or the landscape image;
According to a determination result by the determination unit for the captured image, the sentence template of either the person image template or the landscape image template is read from the storage unit, and the blank part of the read sentence template is stored in the blank part. An image processing apparatus comprising: a sentence creation unit that inserts a word corresponding to a feature amount or an imaging condition of a captured image and creates a sentence for the captured image.
前記記憶部は、
被写体として撮像された人物の視点による文章に前記空欄部を設定した前記文章テンプレートを前記人物画像用テンプレートとして記憶し、
被写体を撮像した撮像者の視点による文章に前記空欄部を設定した前記文章テンプレートを前記風景画像用テンプレートとして記憶することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The storage unit
Storing the sentence template in which the blank portion is set in a sentence from the viewpoint of a person imaged as a subject as the person image template;
An image processing apparatus, wherein the sentence template in which the blank portion is set in a sentence from a viewpoint of a photographer who has photographed a subject is stored as the landscape image template.
前記判定部は、
前記人物画像において、更に、前記特徴量として被写体の人数を判定し、
前記文章作成部は、
前記人物画像に対し、被写体の人数に応じた単語を前記空欄部に挿入して文章を作成することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The determination unit
In the person image, the number of subjects is further determined as the feature amount,
The sentence creation unit
An image processing apparatus, wherein a sentence is created by inserting a word corresponding to the number of subjects in the blank portion with respect to the person image.
前記判定部は、
前記撮像画像内に複数の顔領域を認識した場合において、
当該撮像画像の大きさに対する最大の顔領域の大きさの割合が第1の閾値以上であり、前記第1の閾値以上の値である第2閾値未満であって、かつ、複数の顔領域の割合の標準偏差若しくは分散又は複数の顔領域の大きさの標準偏差若しくは分散が第3の閾値未満であるとき、
又は、前記最大の顔領域の大きさの割合が前記第2閾値以上であるときは、
当該撮像画像は前記人物画像であると判定するとともに、前記第1の閾値以上の割合である顔領域の数に基づいて被写体の人数を判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
The determination unit
In the case where a plurality of face areas are recognized in the captured image,
The ratio of the size of the maximum face area to the size of the captured image is greater than or equal to a first threshold, less than a second threshold that is greater than or equal to the first threshold, and a plurality of face areas When the standard deviation or variance of the ratio or the standard deviation or variance of the sizes of the plurality of face regions is less than the third threshold,
Or, when the ratio of the size of the maximum face area is equal to or greater than the second threshold value,
An image processing apparatus characterized in that the captured image is determined to be the person image, and the number of subjects is determined based on the number of face areas having a ratio equal to or greater than the first threshold.
前記文章作成部は、
前記撮像画像の特徴量に応じた単語として、前記撮像画像の配色パターンに応じた形容詞を前記空欄部に挿入して文章を作成することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 4,
The sentence creation unit
An image processing apparatus, wherein a sentence is created by inserting an adjective corresponding to a color arrangement pattern of the captured image into the blank portion as a word corresponding to a feature amount of the captured image.
前記文章作成部は、
前記撮像画像が前記人物画像であるか前記風景画像であるかに応じて決定する前記撮像画像上の所定領域の配色パターンに応じた形容詞を前記空欄部に挿入して文章を作成することを特徴とする画像処理装置。 The image processing apparatus according to claim 5.
The sentence creation unit
A sentence is created by inserting an adjective in accordance with a color arrangement pattern of a predetermined area on the captured image determined according to whether the captured image is the person image or the landscape image into the blank section. An image processing apparatus.
前記撮像画像の特徴量、及び、前記撮像画像の撮像条件の少なくとも一方に対応するテキストを決定する決定部と、
前記撮像画像が第1種別の画像であるか、前記第1種別とは異なる第2種別の画像であるかを判定する判定部と、
前記第1種別に用いられる文章の構文である第1構文と、前記第2種別に用いられる文章の構文である第2構文とを記憶する記憶部と、
前記撮像画像が前記第1種別の画像であると前記判定部により判定されたとき、前記決定部が決定した前記テキストを用いて前記第1構文の文章を作成し、前記撮像画像が前記第2種別の画像であると前記判定部により判定されたとき、前記決定部が決定した前記テキストを用いて前記第2構文の文章を作成する文章作成部と
を含むことを特徴とする画像処理装置。 An image input unit for inputting a captured image;
A determination unit that determines text corresponding to at least one of the feature amount of the captured image and the imaging condition of the captured image;
A determination unit that determines whether the captured image is a first type image or a second type image different from the first type;
A storage unit for storing a first syntax that is a syntax of a sentence used for the first type and a second syntax that is a syntax of a sentence used for the second type;
When the determination unit determines that the captured image is the first type image, the sentence having the first syntax is created using the text determined by the determination unit, and the captured image is the second image. An image processing apparatus, comprising: a sentence creation unit that creates a sentence of the second syntax using the text determined by the determination unit when the determination unit determines that the image is a type image.
前記第1種別は、ポートレートであり、前記第2種別は、風景であることを特徴とする画像処理装置。 An image processing apparatus according to claim 7,
The image processing apparatus according to claim 1, wherein the first type is a portrait, and the second type is a landscape.
所定の空欄部に単語を挿入して文章を完成させる文章テンプレートとして、人物が被写体である人物画像に対する文章の作成に用いられる人物画像用テンプレートと、風景が被写体である風景画像に対する文章の作成に用いられる風景画像用テンプレートとを記憶する記憶部と、
前記撮像画像が、前記人物画像であるか前記風景画像であるかを判定する判定部と、
前記撮像画像に対する前記判定部による判定結果に応じて、前記人物画像用テンプレート又は前記風景画像用テンプレートの何れかの前記文章テンプレートを前記記憶部から読み出し、読み出した前記文章テンプレートの前記空欄部に前記撮像画像の特徴量又は撮像条件に応じた単語を挿入して当該撮像画像に対する文章を作成する文章作成部と
を備えることを特徴とする撮像装置。 An imaging unit that images a subject and generates a captured image;
As a sentence template for completing a sentence by inserting a word into a predetermined blank space, a person image template used for creating a sentence for a person image with a person as a subject and a sentence for a landscape image with a landscape as a subject A storage unit for storing a landscape image template to be used;
A determination unit that determines whether the captured image is the person image or the landscape image;
According to a determination result by the determination unit for the captured image, the sentence template of either the person image template or the landscape image template is read from the storage unit, and the blank part of the read sentence template is stored in the blank part. An imaging apparatus comprising: a sentence creation unit that inserts a word according to a feature amount or an imaging condition of a captured image and creates a sentence for the captured image.
撮像画像を入力する画像入力ステップと、
前記撮像画像が、前記人物画像であるか前記風景画像であるかを判定する判定ステップと、
前記撮像画像に対する前記判定ステップによる判定結果に応じて、前記人物画像用テンプレート又は前記風景画像用テンプレートの何れかの前記文章テンプレートを前記記憶部から読み出し、読み出した前記文章テンプレートの前記空欄部に前記撮像画像の特徴量又は撮像条件に応じた単語を挿入して当該撮像画像に対する文章を作成する文章作成ステップと
を実行させることを特徴とするプログラム。 As a sentence template for completing a sentence by inserting a word into a predetermined blank space, a person image template used for creating a sentence for a person image with a person as a subject and a sentence for a landscape image with a landscape as a subject In a computer of an image processing apparatus provided with a storage unit for storing a landscape image template to be used,
An image input step for inputting a captured image;
A determination step of determining whether the captured image is the person image or the landscape image;
According to the determination result of the determination step for the captured image, the sentence template of either the person image template or the landscape image template is read from the storage unit, and the blank section of the read sentence template is stored in the blank section. A program for executing a sentence creating step of creating a sentence for a captured image by inserting a word corresponding to a feature amount or an imaging condition of the captured image.
前記撮像画像が人物画像であるか、前記人物画像とは異なる画像であるかを判定する判定部と、
前記人物画像に用いられる文章の構文である第1構文と、前記人物画像とは異なる画像に用いられる文章の構文である第2構文とを記憶する記憶部と、
前記撮像画像が前記人物画像であると前記判定部により判定されたとき、前記所定の意味を有する文字を用いて前記第1構文の文章を出力し、前記撮像画像が前記人物画像とは異なる画像であると前記判定部により判定されたとき、前記所定の意味を有する文字を用いて前記第2構文の文章を出力する出力部とを有することを特徴とする画像処理装置。 A determining unit that determines a character having a predetermined meaning from the captured image;
A determination unit that determines whether the captured image is a person image or an image different from the person image;
A storage unit that stores a first syntax that is a syntax of a sentence used for the person image and a second syntax that is a syntax of a sentence used for an image different from the person image;
When the determination unit determines that the captured image is the person image, the first syntax sentence is output using the characters having the predetermined meaning, and the captured image is different from the person image. And an output unit that outputs the sentence of the second syntax using the character having the predetermined meaning when it is determined by the determination unit.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012206296A JP2013140559A (en) | 2011-12-05 | 2012-09-19 | Image processing device, imaging device and program |
US14/239,445 US20140198234A1 (en) | 2011-09-21 | 2012-09-21 | Image processing apparatus, program, image processing method, and imaging apparatus |
PCT/JP2012/074230 WO2013042768A1 (en) | 2011-09-21 | 2012-09-21 | Image processing device, program, image processing method, and imaging device |
CN201280039636.6A CN103718172A (en) | 2011-09-21 | 2012-09-21 | Image processing device, program, image processing method, and imaging device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011266143 | 2011-12-05 | ||
JP2011266143 | 2011-12-05 | ||
JP2012206296A JP2013140559A (en) | 2011-12-05 | 2012-09-19 | Image processing device, imaging device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013140559A true JP2013140559A (en) | 2013-07-18 |
Family
ID=49037916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012206296A Pending JP2013140559A (en) | 2011-09-21 | 2012-09-19 | Image processing device, imaging device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013140559A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015185879A (en) * | 2014-03-20 | 2015-10-22 | フリュー株式会社 | Management server, image management method, control program, and computer-readable recording medium |
JP2018190430A (en) * | 2018-06-14 | 2018-11-29 | 株式会社ニコン | Text generation device, electronic apparatus, and program |
-
2012
- 2012-09-19 JP JP2012206296A patent/JP2013140559A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015185879A (en) * | 2014-03-20 | 2015-10-22 | フリュー株式会社 | Management server, image management method, control program, and computer-readable recording medium |
JP2018190430A (en) * | 2018-06-14 | 2018-11-29 | 株式会社ニコン | Text generation device, electronic apparatus, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20140198234A1 (en) | Image processing apparatus, program, image processing method, and imaging apparatus | |
CN110163810B (en) | Image processing method, device and terminal | |
KR100762382B1 (en) | Method, apparatus and recording medium for image processing | |
US20040208114A1 (en) | Image pickup device, image pickup device program and image pickup method | |
JP2005176230A (en) | Image processor and print system | |
JP2013196369A (en) | Image processing apparatus, character recognition method and computer program | |
JP2005086516A (en) | Imaging device, printer, image processor and program | |
JP2012027687A (en) | Image processing apparatus and program | |
JP2007122533A (en) | Comment layout for image | |
CN105516590B (en) | A kind of image processing method and device | |
CN107424117B (en) | Image beautifying method and device, computer readable storage medium and computer equipment | |
JP4279083B2 (en) | Image processing method and apparatus, and image processing program | |
JP2009027385A (en) | Image processor, its method and computer program | |
JP2013140559A (en) | Image processing device, imaging device and program | |
JP2013141200A (en) | Image processor, program, image processing method, and imaging apparatus | |
JP2004297274A (en) | Portrait processing method, apparatus and system | |
JP4606304B2 (en) | Near-infrared face image creation device, near-infrared face image creation method, and face image collation device | |
JP6716906B2 (en) | Album creating apparatus, album creating method, and album creating program | |
JP6497030B2 (en) | Imaging system, information processing apparatus, imaging method, program, storage medium | |
JP2008140107A (en) | Image processor, image processing method, control program, and recording medium | |
JP4891123B2 (en) | Image display device, image display method, and program | |
JP2013080464A (en) | Image processing device, imaging device, and program | |
JP2014165876A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP3236488U (en) | A mobile terminal device that generates an AR image and a stamp used for it. | |
JP2007288409A (en) | Imaging apparatus with image data classifying function and program |