CN103718172A - 图像处理装置、程序、图像处理方法及摄像装置 - Google Patents

图像处理装置、程序、图像处理方法及摄像装置 Download PDF

Info

Publication number
CN103718172A
CN103718172A CN201280039636.6A CN201280039636A CN103718172A CN 103718172 A CN103718172 A CN 103718172A CN 201280039636 A CN201280039636 A CN 201280039636A CN 103718172 A CN103718172 A CN 103718172A
Authority
CN
China
Prior art keywords
image
text
color
data
view data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201280039636.6A
Other languages
English (en)
Inventor
小林宽子
村田司
松尾武史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012206297A external-priority patent/JP2013080464A/ja
Priority claimed from JP2012206296A external-priority patent/JP2013140559A/ja
Priority claimed from JP2012206298A external-priority patent/JP2013141199A/ja
Priority claimed from JP2012206299A external-priority patent/JP2013141200A/ja
Application filed by Nikon Corp filed Critical Nikon Corp
Priority claimed from PCT/JP2012/074230 external-priority patent/WO2013042768A1/ja
Publication of CN103718172A publication Critical patent/CN103718172A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2129Recording in, or reproducing from, a specific memory area or areas, or recording or reproducing at a specific moment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • H04N1/00328Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information
    • H04N1/00336Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information with an apparatus performing pattern recognition, e.g. of a face or a geographic feature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • H04N2201/3266Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of text or character information, e.g. text accompanying an image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3273Display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3274Storage or retrieval of prestored additional information

Abstract

图像处理装置具有:决定部,根据拍摄图像决定具有规定的意思的文字;判定部,判定所述拍摄图像是人物图像还是是与所述人物图像不同的图像;存储部,存储有所述人物图像所使用的文章的文章结构的第1文章结构、和与所述人物图像不同的图像所使用的文章的文章结构的第2文章结构;输出部,通过所述判定部判定为所述拍摄图像是所述人物图像时,使用具有所述规定的意思的文字输出所述第1文章结构的文章,通过所述判定部判定为所述拍摄图像是与所述人物图像不同的图像时,使用具有所述规定的意思的文字输出所述第2文章结构的文章。

Description

图像处理装置、程序、图像处理方法及摄像装置
技术领域
本发明涉及图像处理装置、程序、图像处理方法及摄像装置。
本申请基于2011年12月5日提出的日本特愿2011-266143号、2011年9月21日提出的日本特愿2011-206024号、2011年12月6日提出的日本特愿2011-266805号、2011年12月7日提出的日本特愿2011-267882号、2012年9月19日提出的日本特愿2012-206296号、2012年9月19日提出的日本特愿2012-206297号、2012年9月19日提出的日本特愿2012-206298号及2012年9月19日提出的日本特愿2012-206299号主张优先权,将其内容援引于此。
背景技术
以往公开了一种技术:通过预先登记特定人物的生日、事件的日期和时间等,将与摄像日期和时间对应的生日的人物名、与摄像日期和时间对应的事件名等的文字信息赋予拍摄图像(例如,参照专利文献1)。
另外,在对图像进行分类的现有技术的图像处理装置中,将图像分割成预先设定的图案的区域,生成与各区域的颜色相关的分布的直方图。而且,在现有技术的图像处理装置中,将超过特定的阈值的最频出颜色决定为该区域的代表区域色。进而,在现有技术的图像处理装置中,提取该区域的特征量,基于所决定的区域的特征量和代表色,定义提取了特征量的图像,并构建图像辞典。
在现有技术的图像处理装置中,例如,提取图像上部的较大区域的代表色,基于所提取的代表色,定义“蓝天”、“阴天”、“夜空”等并构成图像辞典(例如,参照专利文献2)。
另外,当前,公开了使与拍摄图像相关的文本与拍摄图像重叠的技术(例如,参照专利文献3)。在专利文献3记载的技术中,在拍摄图像中,使文本与相对重要的被摄物体所映现的重要区域以外的非重要区域重叠来生成合成图像。具体来说,将人物的映现区域分类成重要区域,使文本重叠在不包含图像中央的非重要区域中。
另外,公开了对图像数据施加规定的颜色转换的技术(例如,参照专利文献4)。在专利文献4记载的技术中,向打印机送出施加了规定的颜色转换的图像数据时,将图像数据划分成图形图像数据、文字图像数据及文字以外的非图形图像数据,对图形图像数据实施第1颜色转换,对文字图像数据实施第1颜色转换或第2颜色转换,对文字以外的非图形图像数据实施第1颜色转换或第2颜色转换。
现有技术文献
专利文献
专利文献1:日本特开平2-303282号公报
专利文献2:日本特开2001-160057号公报
专利文献3:日本特开2007-96816号公报
专利文献4:日本特开2008-293082号公报
发明内容
但是,专利文献1记载的现有技术只能将用户事先登记的文字信息赋予拍摄图像。
另外,在专利文献2记载的现有技术中,由于通过按预先设定的区域提取出的特征量和最频出颜色即代表色进行分类,所以对图像进行分类(贴标(labeling))的计算处理的负担大。
另外,在专利文献3记载的现有技术中,没有考虑使文本与图像重叠时的可读性。由此,例如,存在如下情况:文本与存在复杂纹理的区域重叠时,文本显示所使用的字体的轮廓和纹理的边缘重合,文本的可读性降低。即,文本难以读出。
另外,在专利文献4记载的现有技术中,使与图像相关的文本与该图像重叠的情况下,关于控制该文本的字体颜色这一内容,也没有进行充分的考虑。
例如,在固定字体颜色的情况下,根据所提供的图像的内容,文本的字体颜色和描绘有该文本的图像区域的颜色之间的对比几乎不存在,文本的可读性明显降低。
另外,固定字体颜色、或者作为字体颜色使用从图像信息算出的互补色的情况下,会大幅改变该图像的印象。
本发明的一方式的目的是提供能够对于拍摄图像附加更灵活的文字信息的技术。
其他目的是提供能够减轻用于对图像贴标的计算处理的负荷的图像处理装置、摄像装置及程序。
另外,其他目的是提供能够以使阅览者容易阅读文本的方式将文本合成在图像中的图像处理装置、程序、图像处理方法及摄像装置。
另外,其他目的是提供能够以适度的字体颜色将文本合成在图像中的图像处理装置、程序、图像处理方法及摄像装置。
本发明的一方式的图像处理装置,其特征在于,具有:图像输入部,输入拍摄图像;存储部,作为将单词插入到规定的空栏部来完成文章的文章模板存储有对于人物为被摄物体的人物图像生成文章所使用的人物图像用模板、和对于风景为被摄物体的风景图像生成文章所使用的风景图像用模板;判定部,判定所述拍摄图像是所述人物图像还是所述风景图像;文章生成部,根据所述判定部对所述拍摄图像的判定结果,从所述存储部读出所述人物图像用模板和所述风景图像用模板的某一个的所述文章模板,将与所述拍摄图像的特征量或拍摄条件相应的单词插入到所读出的所述文章模板的所述空栏部来生成对于所述拍摄图像的文章。
本发明的其他方式的图像处理装置,其特征在于,包括:图像输入部,输入拍摄图像;决定部,决定与所述拍摄图像的特征量及所述拍摄图像的拍摄条件的至少一方对应的文本;判定部,判定所述拍摄图像是第1类别的图像还是是与所述第1类别不同的第2类别的图像;存储部,存储有所述第1类别所使用的文章的文章结构的第1文章结构、和所述第2类别所使用的文章的文章结构的第2文章结构;文章生成部,通过所述判定部判定为所述拍摄图像是所述第1类别的图像时,使用所述决定部所决定的所述文本生成所述第1文章结构的文章,通过所述判定部判定为所述拍摄图像是所述第2类别的图像时,使用所述决定部所决定的所述文本生成所述第2文章结构的文章。
本发明的其他方式的摄像装置,其特征在于,具有:摄像部,拍摄被摄物体并生成拍摄图像;存储部,作为将单词插入到规定的空栏部来完成文章的文章模板,存储有对于人物为被摄物体的人物图像生成文章所使用的人物图像用模板、对于风景为被摄物体的风景图像生成文章所使用的风景图像用模板;判定部,判定所述拍摄图像是所述人物图像还是所述风景图像;文章生成部,根据所述判定部对所述拍摄图像的判定结果,从所述存储部读出所述人物图像用模板和所述风景图像用模板的某一个的所述文章模板,将与所述拍摄图像的特征量或拍摄条件相应的单词插入到所读出的所述文章模板的所述空栏部来生成对于所述拍摄图像的文章。
本发明的其他方式的程序,其特征在于,使图像处理装置的计算机执行步骤,其中,所述图像处理装置具有存储部,该存储部作为将单词插入到规定的空栏部来完成文章的文章模板而存储人物图像用模板和风景图像用模板,所述人物图像用模板用于对人物为被摄物体的人物图像生成文章,所述风景图像用模板用于对风景为被摄物体的风景图像生成文章,所述程序使所述图像处理装置的计算机执行的步骤为:输入拍摄图像的图像输入步骤;判定所述拍摄图像是所述人物图像还是所述风景图像的判定步骤;文章生成步骤,根据所述判定步骤对所述拍摄图像的判定结果,从所述存储部读出所述人物图像用模板和所述风景图像用模板的某一个的所述文章模板,将与所述拍摄图像的特征量或拍摄条件相应的单词插入到所读出的所述文章模板的所述空栏部来生成对于所述拍摄图像的文章。
本发明的其他方式的图像处理装置,其特征在于,具有:决定部,根据拍摄图像决定具有规定的意思的文字;判定部,判定所述拍摄图像是人物图像还是是与所述人物图像不同的图像;存储部,存储有所述人物图像所使用的文章的文章结构的第1文章结构、和与所述人物图像不同的图像所使用的文章的文章结构的第2文章结构;输出部,通过所述判定部判定为所述拍摄图像是所述人物图像时,使用具有所述规定的意思的文字输出所述第1文章结构的文章,通过所述判定部判定为所述拍摄图像是与所述人物图像不同的图像时,使用具有所述规定的意思的文字输出所述第2文章结构的文章。
本发明的其他方式的图像处理装置,其特征在于,具有:图像取得部,取得所拍摄的图像数据;场景判别部,从所述取得的图像数据判别场景;主色提取部,基于颜色信息的频率分布从所述取得的图像数据提取主色;存储部,按场景附带关联地预先存储有颜色信息和第1标签;第1标签生成部,从所述存储部读出与所述提取的主色和所述判别的场景附带关联地预先存储的所述第1标签,将所述读出的第1标签作为所述取得的图像数据的标签生成。
本发明的其他方式的摄像装置,其特征在于,具有上述记载的图像处理装置。
本发明的其他方式的程序,是使计算机执行具有摄像部的图像处理装置的图像处理的程序,其特征在于,使计算机执行如下步骤:图像取得步骤,取得所拍摄的图像数据;场景判别步骤,从所述取得的图像数据判别场景;主色提取步骤,基于颜色信息的频率分布从所述取得的图像数据提取主色;第1标签生成步骤,读出所述提取的主色、并从按场景附带关联地预先存储了颜色信息和第1标签的存储部读出所述第1标签,将所述读出的第1标签作为所述取得的图像数据的标签生成。
本发明的其他方式的图像处理装置,其特征在于,具有:场景判别部,判别是否是人物摄影场景;颜色提取部,通过所述场景判别部判别为不是人物摄影场景时,从所述图像数据提取颜色信息;存储部,附带关联地预先存储颜色信息和具有规定的意思的文字;读出部,通过所述场景判别部判别为不是人物摄影场景时,从所述存储部读出与由所述颜色提取部提取的所述颜色信息对应的具有所述规定的意思的文字。
本发明的其他方式的图像处理装置,其特征在于,包括:取得部,取得图像数据及文本数据;检测部,检测所述取得部所取得的所述图像数据的边缘;区域决定部,基于由所述检测部检测的边缘,决定所述图像数据中的配置所述文本数据的区域;图像生成部,生成在由所述区域决定部决定的区域中配置有所述文本数据的图像。
本发明的其他方式的图像处理装置,其特征在于,具有:图像输入部,输入图像数据;边缘检测部,检测通过所述图像输入部被输入的图像数据中的边缘;文本输入部,输入文本数据;区域决定部,基于通过所述边缘检测部检测的边缘,决定所述图像数据中的所述文本数据的合成区域;合成部,将所述文本数据合成到通过所述区域决定部决定的合成区域。
本发明的其他方式的程序,其特征在于,使计算执行如下步骤:输入图像数据的步骤;输入文本数据的步骤;检测所述输入的图像数据中的边缘的步骤;基于所述检测的边缘,决定所述图像数据中的所述文本数据的合成区域的步骤;将所述文本数据合成到所述决定的合成区域的步骤。
本发明的其他方式的图像处理方法,其特征在于,具有:图像处理装置输入图像数据的步骤;所述图像处理装置输入文本数据的步骤;所述图像处理装置检测所述输入的图像数据中的边缘的步骤;所述图像处理装置基于所述检测的边缘,决定所述图像数据中的所述文本数据的合成区域的步骤;所述图像处理装置将所述文本数据合成到所述决定的合成区域的步骤。
本发明的其他方式的摄像装置,其特征在于,具有上述图像处理装置。
本发明的其他方式的图像处理装置,其特征在于,包括:检测部,检测图像数据的边缘;区域决定部,基于由所述检测部检测的所述边缘的位置,决定所述图像数据中的配置文字的配置区域;图像生成部,生成在通过所述区域决定部决定的所述配置区域中配置有所述文字的图像。
本发明的其他方式的图像处理装置,其特征在于,具有:图像输入部,输入图像数据;文本设定部,决定文本的数据;文本合成区域设定部,设定在通过所述图像输入部输入的图像数据中合成通过所述文本设定部设定的文本的数据的区域即文本合成区域;字体设定部,包括字体颜色设定部,其对于基于通过所述图像输入部输入的图像数据及通过所述文本合成区域设定部设定的文本合成区域的、PCCS表色系的色调和色相,设定色相不变而变更了色调的字体颜色,并设定至少包含字体颜色的字体;合成图像生成部,使用通过所述字体设定部设定的至少包含字体颜色的字体,生成在通过所述图像输入部输入的图像数据的、通过所述文本合成区域设定部设定的文本合成区域中合成了通过所述文本设定部设定的文本的数据的图像的数据即合成图像的数据。
本发明的其他方式的程序,其特征在于,使计算机执行如下步骤:输入图像数据的步骤;设定文本的数据的步骤;设定在所述输入的图像数据中合成所述设定的文本的数据的区域即文本合成区域的步骤;对于基于所述输入的图像数据及所述设定的文本合成区域的、PCCS表色系的色调和色相,设定色相不变而变更了色调的字体颜色,并设定至少包含字体颜色的字体的步骤;使用所述设定的至少包含字体颜色的字体,生成在所述输入的图像数据的、所述设定的文本合成区域中合成了所述设定的文本的数据的图像的数据即合成图像的数据的步骤。
本发明的其他方式的图像处理方法,其特征在于,具有:图像处理装置输入图像数据的步骤;所述图像处理装置设定文本的数据的步骤;所述图像处理装置设定在所述输入的图像数据中合成所述设定的文本的数据的区域即文本合成区域的步骤;所述图像处理装置对于基于所述输入的图像数据及所述设定的文本合成区域的、PCCS表色系的色调和色相,设定色相不变而变更了色调的字体颜色,并设定至少包含字体颜色的字体的步骤;所述图像处理装置使用所述设定的至少包含字体颜色的字体,生成在所述输入的图像数据的、所述设定的文本合成区域中,合成了所述设定的文本的数据的图像的数据即合成图像的数据的步骤。
本发明的其他方式的摄像装置,其特征在于,具有上述图像处理装置。
本发明的其他方式的图像处理装置,其特征在于,包括:取得部,取得图像数据及文本数据;区域决定部,决定所述图像数据中的配置所述文本数据的文本配置区域;颜色设定部,对文本数据设定规定的颜色;图像生成部,生成在所述文本配置区域中配置了所述规定的颜色的所述文本数据的图像,所述图像数据的所述文本配置区域的色相值和所述文本数据的色相值之比,相较于所述图像数据的所述文本配置区域的色调值和所述文本数据的色调值之比,更接近1。
本发明的其他方式的图像处理装置,其特征在于,包括:决定部,决定图像数据中的配置文字的配置区域;颜色设定部,对文字设定规定颜色;图像生成部,生成在所述配置区域中配置有所述文字的图像,所述颜色设定部以如下方式设定所述规定颜色,即:所述配置区域的色相值和所述文字的色相值之比,相较于所述配置区域的色调值和所述文字的色调值之比,更接近1。
发明的效果
根据本发明的方式,能够对拍摄图像灵活地赋予文字信息。
另外,根据本发明的方式,能够实现适于图像的贴标。
另外,根据本发明的方式,能够以使阅览者容易阅读文本的方式,将文本合成到图像中。
另外,根据本发明的方式,能够以适度的字体颜色将文本合成到图像中。
附图说明
图1是本发明的一实施方式的图像处理装置的功能框图的一例。
图2A是存储在存储部的文章模板的一例。
图2B是存储在存储部的文章模板的一例。
图2C是存储在存储部的文章模板的一例。
图2D是存储在存储部的文章模板的一例。
图3A是存储在存储部的单词的一例。
图3B是存储在存储部的单词的一例。
图4A是用于说明拍摄图像的配色方案的提取的说明图。
图4B是用于说明拍摄图像的配色方案的提取的说明图。
图4C是用于说明拍摄图像的配色方案的提取的说明图。
图4D是用于说明拍摄图像的配色方案的提取的说明图。
图5是表示图像处理装置的工作的一例的流程图。
图6是表示图像处理装置的工作的一例的流程图。
图7A是通过文章添加部添加了文章的拍摄图像的一例。
图7B是通过文章添加部添加了文章的拍摄图像的一例。
图7C是通过文章添加部添加了文章的拍摄图像的一例。
图7D是通过文章添加部添加了文章的拍摄图像的一例。
图7E是通过文章添加部添加了文章的拍摄图像的一例。
图8是另一实施方式的摄像装置的功能框图的一例。
图9是表示另一实施方式的摄像系统的结构的概要框图。
图10是图像处理部的框图。
图11是用于说明与图像数据附带关联地存储在存储介质中的图像识别信息的一例的图。
图12是用于说明存储在表格存储部中的主色的组合和第1标签的一例的图。
图13是用于说明图像数据的主色的一例的图。
图14A是用于说明图13中被提取的主色的贴标(labeling)的一例的图。
图14B是用于说明图13中被提取的主色的贴标的一例的图。
图15A是体育的图像数据的一例。
图15B是表示图15A的体育的图像数据的颜色矢量的图。
图16A是肖像(portrait)的图像数据的一例。
图16B是表示图16A的肖像的图像数据的颜色矢量的图。
图17A是风景的图像数据的一例。
图17B是表示图17A的风景的图像数据的颜色矢量的图。
图18是用于说明每个场景的主色的组合的第1标签的一例的图。
图19是用于说明根据时刻、季节和颜色矢量产生的第1标签的例子的图。
图20是摄像装置所进行的标签生成的流程图。
图21是另一实施方式的图像处理部的框图。
图22是另一实施方式的图像处理部的框图。
图23是摄像装置所进行的标签生成的流程图。
图24是用于说明从另一实施方式的图像数据提取多个颜色矢量的一例的图。
图25是表示图像处理部的功能性结构的框图。
图26A是表示输入图像的一例的印象图。
图26B是表示全局成本图像的一例的印象图。
图26C是表示面部成本图像的一例的印象图。
图26D是表示边缘成本图像的一例的印象图。
图26E是表示最终成本图像的一例的印象图。
图26F是表示合成图像的一例的印象图。
图27是表示静态图像的合成处理的顺序的流程图。
图28是表示动态图像的合成处理的顺序的流程图。
图29是表示另一实施方式的图像处理部的功能性结构的框图。
图30是表示合成处理的顺序的流程图。
图31是表示另一实施方式的图像处理部的功能性结构的框图。
图32是表示合成处理的顺序的流程图。
图33是表示文本矩形区域内的成本的总和的算出方法的印象图。
图34是表示另一实施方式的图像处理部的功能性结构的框图。
图35是表示通过PCCS表色系中的色调进行的对比的协调关系的图。
图36是表示在图像处理部中进行的处理的顺序的流程图。
图37是表示在字体设定部中进行的处理的顺序的流程图。
图38是用印象图表示图像数据的一例的图。
图39是用印象图表示合成图像的数据的一例的图。
图40是用印象图表示合成图像的数据的一例的图。
图41是用灰色标度(gray scale)表示PCCS表色系的色相环的一例的图。
图42是用灰色标度表示PCCS表色系的色调的一例的图。
图43是表示12种有彩色的色调的图。
图44是表示5种无彩色的色调的图。
图45是示意地表示提取拍摄图像的特征量的过程的一例的图。
图46是示意地表示提取拍摄图像的特征量的过程的另一例的图。
图47是示意地表示笑脸等级的判定方法的流程图。
图48A是表示来自图像处理装置的输出图像的一例的图。
图48B是表示来自图像处理装置的输出图像的另一例的图。
图49是表示摄像装置的图像处理部的内部结构的概要框图。
图50是表示代表色的决定的流程的流程图。
图51是表示图像处理部中的处理的一例的概念图。
图52是表示图像处理部中的处理的一例的概念图。
图53是表示对于图52所示的主要区域实施的聚类(clustering)的结果的概念图。
图54是通过文章添加部添加了文章的图像的一例。
图55是通过文章添加部添加了文章的图像的另一例。
图56是表示颜色和单词的对应表格的一例的图。
图57是表示远景图像(第2场景图像)用的对应表格的一例的图。
图58是表示其他图像(第3场景图像)用的对应表格的一例的图。
具体实施方式
(第1实施方式)
以下,参照附图说明本发明的第1实施方式。图1是本发明的第1实施方式的图像处理装置1001的功能框图的一例。图2A~2D是存储在存储部1090中的文章模板的一例。图3A、3B是存储在存储部1090中的单词的一例。图4A~4D是用于说明拍摄图像的配色方案的提取的说明图。
如图1所示,图像处理装置1001具有图像输入部1010、判定部1020、文章生成部1030、文章添加部1040及存储部1090。图像输入部1010通过例如网络或存储介质输入拍摄图像。图像输入部1010将拍摄图像向判定部1020输出。
存储部1090存储将单词插入到规定的空栏部而完成文章的文章模板。具体来说,存储部1090作为文章模板而存储有:对于人物为被摄物体的图像(以下称为人物图像)来说的文章生成所使用的人物图像用模板;对于风景(也称为第2类别)为被摄物体的图像(以下称为风景图像)来说的文章生成所使用的风景图像用模板。此外,人物图像的一例是肖像(也称为第1类别)。
例如,存储部1090存储图2A、2B所示那样的两种人物图像用模板。此外,图2A、2B所示的人物图像用模板具有插入与被摄物体的人数相应的单词的空栏部(记作空栏部{人数})、及插入与拍摄图像的配色方案相应的单词的空栏部(记作空栏部{形容词})。
另外,例如,存储部1090存储图2C、2D所示那样的两种风景图像用模板。此外,图2C所示的风景图像用模板具有插入与拍摄图像的拍摄条件(日期和时间)相应的单词的空栏部(空栏部{日期和时间})、及插入与拍摄图像的配色方案相应的单词的空栏部。另外,图2D所示的风景图像用模板具有插入与拍摄图像的拍摄条件(场所)相应的单词的空栏部(记作空栏部{场所})、及插入与拍摄图像的配色方案相应的单词的空栏部。
此外,上述人物图像用模板是使焦点位于作为被摄物体被拍摄的人物而被制图这样的文章模板,也就是说,将空栏部设定在由作为被摄物体被拍摄的人物的视角产生的文章而成的文章模板。例如,图2A的人物图像用模板的措辞“度过了”、图2B的人物图像用模板的措辞“摆姿势”表现了被拍摄的人物的视角。另外,上述风景图像用模板是从拍摄图像整体被制图这样的文章模板,也就是说,将空栏部设定在由拍摄被摄物体的摄影者的视角产生的文章而成的文章模板。例如,图2C的风景图像用模板的措辞“一张”、图2D的风景图像用模板的措辞“景色”表现了摄影者的视角。
而且,存储部1090除了存储文章模板(人物图像用模板、风景图像用模板)以外,还存储插入在文章模板的各空栏部中的单词。例如,如图3A所示,存储部1090与拍摄图像的被摄物体的人数对应地,作为插入空栏部{人数}的单词而存储与人数相关的单词。
例如,使用人物图像用模板的情况下,被摄物体的人数为“1”时,在人物图像用模板的空栏部{人数}中插入单词“一人”。此外,文章生成部1030从存储部1090读出要使用的文章模板,将单词插入空栏部(后述)。
另外,如图3B所示,存储部1090与拍摄图像的配色方案对应地,作为插入人物图像用模板的空栏部{形容词}或风景图像用模板的空栏部{形容词}的单词而存储人物图像用的形容词及风景图像用的形容词。
例如,使用人物图像用模板的情况下,拍摄图像的整个区域的配色方案是图4A所示的第1色“色1”、第2色“色2”、第3色“色3”时,在人物图像用模板的空栏部{形容词}中插入单词“酷的”。另外,使用风景图像用模板的情况下,拍摄图像的整个区域的配色方案是图4B所示的第1色“色2”、第2色“色1”、第3色“色4”时,在风景图像用模板的空栏部{形容词}中插入单词“繁华的”。
上述色1~色5是将在拍摄图像中实际表现的各种颜色通过例如暖色系/冷色系等的基准分类成5种颜色(5个代表色)而成的。换言之,将拍摄图像的各像素的像素值通过例如暖色系/冷色系等的基准而分类成的5种颜色是上述色1~色5。
另外,构成配色方案的第1色是色1~色5中的在该拍摄图像中最多地被表现的颜色,第2色是色1~色5中的在该拍摄图像中第2多地被表现的颜色,第3色是色1~色5中的在该拍摄图像中第3多地被表现的颜色。换言之,将像素值分类成色1~色5时所被分类的像素数最多的颜色是第1色,将像素值分类成色1~色5时所被分类的像素数第2多的颜色是第2色,将像素值分类成色1~色5时所被分类的像素数第3多的颜色是第3色。
此外,文章生成部1030从拍摄图像提取配色方案。
此外,也可以代替拍摄图像的整个区域的配色方案,使用拍摄图像上的一部分区域中的配色方案。也就是说,文章生成部1030也可以在空栏部插入与拍摄图像上的一部分区域的配色方案相应的形容词。具体来说,文章生成部1030也可以与拍摄图像是人物图像还是风景图像相应地决定拍摄图像上的规定区域,将与所决定的拍摄图像上的规定区域的配色方案相应的形容词插入空栏部。
例如,文章生成部1030也可以如图4C所示地在拍摄图像是人物图像时,将该人物图像的中央部的区域决定为规定区域,提取中央部的区域的配色方案,将与所提取的配色方案相应的形容词插入空栏部。另外,文章生成部1030也可以如图4D所示地在拍摄图像是风景图像时,将该风景图像的上部的区域决定为规定区域,提取上述区域的配色方案,将与所提取的配色方案相应的形容词插入空栏部。
另外,虽然省略了图示,但存储部1090与摄像日期和时间建立对应地作为插入空栏部{日期和时间}的单词而存储与日期和时间相关的单词(例如,时刻、“早晨”、“黄昏”、“盛夏!!”、···)。另外,存储部1090与摄影场所附带对应关系地作为插入空栏部{场所}的单词而存储与场所相关的单词(例如,“北国”、“古都”、“富士山”、“雷门”、···)。
判定部1020从图像输入部1010取得拍摄图像。判定部1020判定所取得的拍摄图像是人物图像还是风景图像。以下,关于判定部1020对人物图像/风景图像的判定进行详细说明。此外,第1阈值(也被称为Flow)是比第2阈值(也被称为Fhigh)小的值。
判定部1020尝试拍摄图像内的面部区域的识别。
(面部区域=0的情况)
判定部1020在拍摄图像内连一个面部区域都没有识别出的情况下,判定该拍摄图像为风景图像。
(面部区域=1的情况)
判定部1020在拍摄图像内识别出了一个面部区域的情况下,根据下述式(1),算出面部区域的大小相对于拍摄图像的大小的比例R。
R=Sf/Sp···(1)
上述式(1)的Sp是拍摄图像的大小,具体来说,使用拍摄图像的长度方向的长度。上述式(1)的Sf是面部区域的大小,具体来说,使用与面部区域外接的矩形的长度方向的长度(或者,包围面部区域的椭圆的长轴的长度(长径))。
算出了比例R的判定部1020对比例R和第1阈值Flow进行比较。判定部1020在判定为比例R小于第1阈值Flow的情况下,判定为该拍摄图像是风景图像。另一方面,判定部1020在判定为比例R在第1阈值Flow以上的情况下,对比例R和第2阈值Fhigh进行比较。
判定部1020在判定为比例R在第2阈值Fhigh以上的情况下,判定为该拍摄图像是人物图像。另一方面,判定部1020在判定为比例R小于第2阈值Fhigh的情况下,判定为该拍摄图像是风景图像。
(面部区域≥2的情况)
判定部1020在拍摄图像内识别了多个面部区域的情况下,根据下述式(2),算出各面部区域的大小相对于拍摄图像的大小的比例R(i)。
R(i)=Sf(i)/Sp···(2)
上述式(2)的Sp与上述式(1)相同。上述式(2)的Sf(i)是第i个面部区域的大小,具体来说,使用与第i个面部区域外接的矩形的长度方向的长度(或者,包围面部区域的椭圆的长轴的长度(长径))。
算出了R(i)的判定部1020算出R(i)的最大值(Rmax)。即,判定部1020算出最大的面部区域的大小相对于拍摄图像的大小的比例Rmax。
算出了比例Rmax的判定部1020对比例Rmax和第1阈值Flow进行比较。判定部1020在判定为比例Rmax小于第1阈值Flow的情况下,判定为该拍摄图像是风景图像。另一方面,判定部1020在判定为比例Rmax在第1阈值Flow以上的情况下,对比例Rmax和第2阈值Fhigh进行比较。
判定部1020在判定为比例Rmax在第2阈值Fhigh以上的情况下,判定为该拍摄图像是人物图像。另一方面,判定部1020在判定为比例Rmax小于第2阈值Fhigh的情况下,算出R(i)的标准偏差σ。下述式(3)是标准偏差σ的算出式。
【数式1】
σ = 1 n Σ i = 1 n ( R ( i ) ) 2 - ( 1 n Σ i = 1 n ( R ( i ) ) ) 2 . . . ( 3 )
算出了标准偏差σ的判定部1020对标准偏差σ和第3阈值(也称为Fstdev)进行比较。判定部1020在判定为标准偏差σ小于第3阈值Fstdev的情况下,判定为该拍摄图像是人物图像。另一方面,判定部1020在判定为标准偏差σ在第3阈值Fstdev以上的情况下,判定为该拍摄图像是风景图像。
以上,判定部1020在拍摄图像内识别了多个面部区域的情况下,当最大的面部区域的大小相对于该拍摄图像的大小的比例Rmax为第2阈值Fhigh以上时,判定为该拍摄图像是人物图像。另外,判定部1020在比例Rmax小于第2阈值Fhigh但比例Rmax为第1阈值Flow以上时,且在多个面部区域的比例R(i)的标准偏差σ小于第3阈值Fstdev时,也判定为该拍摄图像是人物图像。
此外,判定部1020也可以代替通过多个面部区域的比例R(i)的标准偏差σ和第3阈值Fstdev进行的判定,使用多个面部区域的比例R(i)的方差λ和方差λ用的阈值来判定。另外,判定部1020也可以代替多个面部区域的比例R(i)的标准偏差(或者方差),使用多个面部区域Sf(i)的标准偏差(或者方差)(该情况下,使用面部区域Sf(i)用的阈值)。
另外,判定部1020在判定为拍摄图像是人物图像的情况下,基于第1阈值Flow以上的比例R(i)即面部区域的数量来判定(计数)被摄物体的人数。也就是说,判定部1020将第1阈值Flow以上的比例R(i)即面部区域的每一个判定为每一个被摄物体,将第1阈值Flow以上的面部区域的数量作为被摄物体的人数。
判定部1020将判定结果输出到文章生成部1030。具体来说,判定部1020在判定为拍摄图像为人物图像的情况下,将表示是人物图像的主旨的判定结果的图像判定结果信息、及表示被摄物体人数的判定结果的人数判定结果信息输出到文章生成部1030。另一方面,判定部1020在判定为拍摄图像是风景图像的情况下,将表示是风景图像的主旨的判定结果的图像判定结果信息输出到文章生成部1030。
另外,判定部1020将从图像输入部1010取得的拍摄图像输出到文章生成部1030。
文章生成部1030从判定部1020取得判定结果及拍摄图像。文章生成部1030根据所取得的判定结果,从存储部1090读出人物图像用模板和风景图像用模板中的某一个文章模板。具体来说,文章生成部1030在取得了表示是人物图像的主旨的判定结果的图像判定结果信息的情况下,从存储在存储部1090的两种人物图像用模板中读出随机地选择的一个人物图像用模板。另外,文章生成部1030在取得了表示是风景图像的主旨的判定结果的图像判定结果信息的情况下,从存储在存储部1090的两种风景图像用模板中读出随机地选择的一个人物图像用模板。
文章生成部1030将与拍摄图像的特征量或拍摄条件相应的单词插入所读出的文章模板(人物图像用模板或风景图像用模板)的空栏部,生成对于该拍摄图像的文章。与特征量相应的单词是指与拍摄图像的配色方案相应的形容词或与被摄物体的人数相应的单词(与人数相关的单词)。另外,与拍摄图像的拍摄条件相应的单词是指与摄像日期和时间相应的单词(与日期和时间相关的单词)或与拍摄场所相应的单词(与场所相关的单词)。
作为一例,文章生成部1030在读出图2A所示的人物图像用模板的情况下,从人数判定结果信息取得该拍摄图像的被摄物体的人数,从存储部1090读出与该人数附带对应关系地存储的单词(与人数相关的单词)并插入空栏部{人数},并提取该拍摄图像的配色方案,从存储部1090读出与所提取的配色方案附带对应关系地存储的单词(人物图像用的形容词)并插入空栏部{形容词},生成对于该拍摄图像的文章。具体来说,若被摄物体的人数为“1”、配色方案为第1色“色1”、第2色“色2”、第3色“色3”,则文章生成部1030生成文章“一个人度过的酷的回忆”。
作为其他例,文章生成部1030在读出了图2B所示的人物图像用模板的情况下,与图2A的情况同样地,从存储部1090读出与人数相关的单词并插入空栏部{人数},从存储部1090读出人物图像用的形容词并插入空栏部{形容词},生成对于该拍摄图像的文章。具体来说,若被摄物体的人数为“10”、配色方案为第1色“色5”、第2色“色4”、第3色“色2”,则文章生成部1030生成文章“热情感?多人摆姿势!!”。
作为其他例,文章生成部1030在读出图2C所示的风景图像用模板的情况下,从该拍摄图像的附加信息(例如Exif格式(Exif;Exchangeable Image File Format))取得摄像日期和时间,从存储部1090读出与所取得的摄像日期和时间附带对应关系地存储的单词(与日期和时间相关的单词)并插入空栏部{日期和时间},并提取该拍摄图像的配色方案,从存储部1090读出与所提取的配色方案附带对应关系地存储的单词(风景图像用的形容词)并插入空栏部{形容词},生成对于该拍摄图像的文章。
具体来说,在存储部1090中与8月附带对应关系地存储有单词“盛夏!!”的情况下,若摄像日期为2011年8月10日,配色方案为第1色“色5”、第2色“色4”、第3色“色2”,则文章生成部1030生成文章“盛夏!!。炎热感的一张”。
作为其他例,文章生成部1030在读出图2D所示的风景图像用模板的情况下,从该拍摄图像的附加信息取得拍摄场所,从存储部1090读出与所取得的拍摄场所附带对应关系地存储的单词(与场所相关的单词)并插入空栏部{场所},并提取该拍摄图像的配色方案,从存储部1090读出与所提取的配色方案附带对应关系地存储的单词(风景图像用的形容词)并插入空栏部{形容词},生成对于该拍摄图像的文章。
具体来说,在存储部1090中与京都站附带对应关系地存储有单词“古都”的情况下,若拍摄场所为京都站前,配色方案为第1色“色1”、第2色“色2”、第3色“色5”,则文章生成部1030生成文本“古都。那时柔美的景色!”。
生成了文章的文章生成部1030将生成的文章及拍摄图像输出到文章添加部1040。文章添加部1040从文章生成部1030取得文章及拍摄图像。文章添加部1040对该拍摄图像附加(合成)该文章。
接着,对图像处理装置1001的工作进行说明。图5及图6是表示图像处理装置1001的工作的一例的流程图。
在图5中,图像输入部1010输入拍摄图像(步骤S1010)。图像输入部1010将拍摄图像输出到判定部1020。判定部20判定在拍摄图像内是否存在1个以上的面部区域(步骤S1012)。判定部1020判定为在拍摄图像内存在1个以上面部区域的情况下(步骤S1012:是),按每个面部区域算出面部区域的大小相对于拍摄图像的大小的比例(步骤S1014),算出该比例的最大值(步骤S1016)。
接着步骤S1016,判定部1020判定由步骤S1016算出的最大值是否是第1阈值以上(步骤S1020)。判定部1020在判定为由步骤S1016算出的最大值是第1阈值以上的情况下(步骤S1020:是),判定为该最大值是否是第2阈值以上(步骤S1022)。判定部1020在判定为该最大值是第2阈值以上的情况下(步骤S1022:是),判定为拍摄图像是人物图像(步骤S1030)。接着步骤S1030,判定部1020将第1阈值以上的比例即面部区域的数量作为被摄物体的人数来计数(步骤1032)。接着步骤S1032,判定部1020将判定结果(表示是人物图像的主旨的判定结果的图像判定结果信息、及表示被摄物体人数的判定结果的人数判定结果信息)及拍摄图像输出到文章生成部1030。
另一方面,在步骤S1022中,在判定为最大值小于第2阈值的情况下(步骤S1022:否),判定部1020判定在拍摄图像内是否存在2个以上的面部区域(步骤S1040)。判定部1020在判定为在拍摄图像内存在2个以上面部区域的情况下(步骤S1040:是),算出由步骤S1014算出的比例的标准偏差(步骤S1042),判定该标准偏差是否小于第3阈值(步骤S1044)。判定部1020在判定为该标准偏差小于第3阈值的情况下(步骤S1044:是),使处理进入步骤S1030。
另一方面,在步骤S1012中,判定为在拍摄图像内面部区域连一个都没有的情况下(步骤S1012:否),或者,在步骤S1020中,判定为最大值小于第1阈值的情况下(步骤S1020:否),或者,在步骤S1040中,判定为在拍摄图像内仅有一个面部区域的情况下(步骤S1040:否),判定部1020判定为拍摄图像是风景图像(步骤S1050)。接着步骤S1050,判定部1020将判定结果(表示是风景图像的主旨的判定结果的图像判定结果信息)输出到文章生成部1030。
此外,上述步骤S1040是用于防止面部区域为一个的拍摄图像始终被判定为人物图像的处理。另外,在上述步骤S1040中,在拍摄图像内,除了面部区域的大小相对于拍摄图像的大小的比例为最大的面部区域以外,若非常大量地存在大小齐整、非常小的面部区域,则由于标准偏差变小,所以存在判定为是人物图像的可能性。因此,为尽量减少上述那样的判定,判定部1020也可以判定规定大小的面部区域是否是2个以上。例如,判定部1020也可以判定上述比例为第1阈值以上的面部区域是否是2个以上。
接着步骤S1032或步骤S1050,文章生成部1030根据从判定部1020取得的判定结果,从存储部1090读出人物图像用模板和风景图像用模板中的某一个文章模板,将与拍摄图像的特征量或拍摄条件相应的单词插入所读出的文章模板的空栏部并作出对于该拍摄图像的文章(步骤S1100)。
图6是步骤S1100的详细情况。在图6中,文章生成部1030判断拍摄图像是否是人物图像(步骤S1102)。具体来说,文章生成部1030在从判定部1020作为判定结果取得了表示是人物图像的主旨的判定结果的图像判定结果信息的情况下,判断为拍摄图像是人物图像,在取得了表示是风景图像的主旨的判定结果的图像判定结果信息的情况下,判断为拍摄图像不是人物图像。
文章生成部1030在判定为拍摄图像是人物图像的情况下(步骤S1102:是),从存储部1090读出人物图像用模板(步骤S1104)。具体来说,文章生成部1030从存储在存储部1090的两种人物图像用模板中读出随机地选择的一个人物图像用模板。
接着步骤S1104,文章生成部1030将与被摄物体的人数相应的单词插入人物图像用模板的空栏部{人数}(步骤S1110)。具体来说,文章生成部1030从人数判定结果信息取得被摄物体的人数,从存储部1090读出与该人数附带对应关系地存储的单词(与人数相关的单词)并插入人物图像用模板的空栏部{人数}。
接着步骤S1110,文章生成部1030将与拍摄图像(人物图像)的配色方案相应的单词插入人物图像用模板的空栏部{形容词}(步骤S1120)。具体来说,文章生成部1030提取拍摄图像(人物图像)的中央部的区域的配色方案,并从存储部1090读出与该配色方案附带对应关系地存储的单词(人物图像用的形容词)并插入人物图像用模板的空栏部{形容词}。
另一方面,在步骤S1102中,文章生成部1030在判断为拍摄图像是风景图像的情况下(步骤S1102:否),从存储部1090读出风景图像用模板(步骤S1106)。具体来说,文章生成部1030从存储在存储部1090的两种风景图像用模板中读出随机地选择的一个风景图像用模板。
接着步骤S1106,文章生成部1030将与拍摄图像(风景图像)的配色方案相应的单词插入风景图像用模板的空栏部{形容词}(步骤S1130)。具体来说,文章生成部1030提取拍摄图像(风景图像)的上部的区域的配色方案,从存储部1090读出与该配色方案附带对应关系地存储的单词(风景图像用的形容词)并插入风景图像用模板的空栏部{形容词}。
接着步骤S1120或步骤S1130,文章生成部1030判断所读出的文章模板中是否存在空栏部{日期和时间}(步骤S1132)。本实施例的情况下,如图2A~2D所示,在图2C的风景图像用模板中存在空栏部{日期和时间},但在图2A、2B的人物图像用模板及图2D的风景图像用模板中不存在空栏部{日期和时间}。因此,文章生成部1030在步骤S1106中读出图2C的风景图像用模板的情况下,判断为存在空栏部{日期和时间},在步骤S1104中读出图2A或者图2B的人物图像用模板的情况下,或者在步骤S1106中读出图2D的风景图像用模板的情况下,判断为不存在空栏部{日期和时间}。
文章生成部1030在判断为所读出的文章模板存在空栏部{日期和时间}的情况下(步骤S1132:是),将与拍摄图像的拍摄条件(日期和时间)相应的单词插入文章模板的空栏部{日期和时间}(步骤S1140)。具体来说,文章生成部1030从拍摄图像(风景图像)的附加信息取得摄像日期和时间,从存储部1090读出与该摄像日期和时间附带对应关系地存储的单词(与日期和时间相关的单词)并插入风景图像用模板的空栏部{日期和时间}。另一方面,文章生成部1030在判断为所读出的文章模板中不存在空栏部{日期和时间}的情况下(步骤S1132:否),跳过步骤S1140并使处理进入步骤S1142。
接着步骤S1132(否)或步骤S1140,文章生成部1030判断所读出的文章模板是否存在空栏部{场所}(步骤S1142)。本实施例的情况下,如图2A~2D所示,在图2D的风景图像用模板中存在空栏部{场所},但在图2A、2B的人物图像用模板及图2C的风景图像用模板中不存在空栏部{场所}。因此,文章生成部1030在步骤S1106中读出了图2D的风景图像用模板的情况下,判断为存在空栏部{场所},在步骤S1104中读出了图2A或者图2B的人物图像用模板的情况下,或者在步骤S1106中读出了图2C的风景图像用模板的情况下,判断为不存在空栏部{场所}。
文章生成部1030在判断为所读出的文章模板存在空栏部{场所}的情况下(步骤S1142:是),将与拍摄图像的拍摄条件(场所)相应的单词插入文章模板的空栏部{场所}(步骤S1150)。具体来说,文章生成部1030从拍摄图像(风景图像)的附加信息取得拍摄场所,从存储部1090读出与该拍摄场所附带对应关系地存储的单词(与场所相关的单词)并插入风景图像用模板的空栏部{场所}。然后,图6所示的流程图结束,返回图5所示的流程图。另一方面,文章生成部1030在判断为所读出的文章模板不存在空栏部{场所}的情况下(步骤S1142:否),跳过步骤S1150,返回图5所示的流程图。
返回图5,生成了文章的文章生成部1030将生成的文章及拍摄图像输出到文章添加部1040。文章添加部1040从文章生成部1030取得文章及拍摄图像。文章添加部1040将从文章生成部1030取得的文章附加(合成)到从文章生成部1030取得的拍摄图像。然后,图5所示的流程图结束。
图7A~7E是通过文章添加部1040而被附加了文章的拍摄图像的一例。由于图7A的拍摄图像将1个人的面部映现得较大,所以被判定为是人物图像。即,该拍摄图像被判定为面部区域的大小相对于拍摄图像的大小的比例的最大值(该一个面部区域的比例)在第2阈值以上(步骤S1022(是))。由于图7B的拍摄图像中2个人的面部映现得较大,所以被判定为是人物图像。即,该拍摄图像被判定为面部区域的大小相对于拍摄图像的大小的比例的最大值是第2阈值以上(步骤S1022(是))。
由于图7C的拍摄图像映现了某种程度大小的面部、且大小也齐整,所以被判定为是人物图像。即,该拍摄图像被判定为,虽然面部区域的大小相对于拍摄图像的大小的比例的最大值在第1阈值以上且小于第2阈值(步骤S1022(否)),但标准偏差小于第3阈值(步骤S1044(是))。
由于图7D的拍摄图像虽然映现了某种程度大小的面部,但大小不齐整,所以判断为是风景图像。即,该拍摄图像被判定为,虽然面部区域的大小相对于拍摄图像的大小的比例的最大值是第1阈值以上且小于第2阈值(步骤S1022(否)),但标准偏差是第3阈值以上(步骤S1044(否))。由于图7E的拍摄图像没有映现任何面部,所以被判定为是风景图像(步骤S1012(否))。
以上,根据图像处理装置1001,能够对拍摄图像赋予更灵活的文字信息。即,图像处理装置1001将拍摄图像分类成人物图像和风景图像,对于人物图像,使用预先存储的人物图像用模板生成人物图像用的文章,对于风景图像,使用预先存储的风景图像用模板生成风景图像用的文章,从而能够根据摄像内容赋予更灵活的文字信息。
此外,在上述实施例中,说明了图像输入部1010在拍摄图像的输入时将该拍摄图像输出到判定部1020的例子,但判定部1020取得拍摄图像的方式不限于此。例如,也可以是,图像输入部1010在拍摄图像的输入时将该拍摄图像存储在存储部1090中,判定部1020在需要时从存储部1090读出所期望的拍摄图像。
此外,在上述实施例中,说明了构成配色方案的第1色的颜色数量使用色1~色5这5种颜色的例子,但这是为了便于说明,也可以是6种颜色以上。关于第2色、第3色也是同样的。另外,在上述实施例中,说明了使用由第1色~第3色这3种颜色构成的配色方案的例子,但构成配色方案的颜色数量不限于此。例如,也可以使用由2种颜色或4种颜色以上构成的配色方案。
此外,在上述实施例中,文章生成部1030在拍摄图像是人物图像的情况下,说明了从存储在存储部1090的两种中读出随机被选择的一个人物图像用模板的例子,但选择从两种人物图像用模板中读出的一个模板的方式不限于此。例如,文章生成部1030也可以通过操作部(未图示)选择用户所指定的一个人物图像模板。同样地,文章生成部1030也可以通过指定受理部而选择用户所指定的一个风景图像模板。
另外,在上述实施例中,说明了从存储部1090始终得到应插入所选择的模板的空栏部的单词的例子,但从存储部1090不能得到应插入所选择的模板的空栏部的单词时,可以重新选择其他模板。例如,为生成某拍摄图像的文章,选择了具有空栏部{场所}的图2D的风景图像用模板,但从该拍摄图像的附加信息不能取得拍摄场所时,重新选择不具有空栏部{场所}的图2C的风景图像用模板即可。
另外,在上述实施例中,说明了图像处理装置1001将具有空栏部{人数}及空栏部{形容词}的人物图像用模板存储在存储部1090的例子,但人物图像用模板所具有的空栏部的数量、种类不限于此。例如,人物图像用模板除了空栏部{人数}及空栏部{形容词}以外,还可以具有空栏部{日期和时间}和空栏部{场所}的任意一方或双方。另外,图像处理装置1001具有各种传感器的情况下,人物图像用模板也可以具有插入与拍摄图像的拍摄条件(照度)相应的单词的空栏部(空栏部{照度})、和插入与拍摄图像的拍摄条件(温度)相应的单词的空栏部(空栏部{温度})等。
另外,人物图像用模板也不一定必须具有空栏部{人数}。人物图像用模板不具有空栏部{人数}的情况的一例是对于人物图像不生成包含与被摄物体的人数相应的单词在内的文章的情况。对于人物图像不生成包含与被摄物体的人数相应的单词在内的文章的情况下,当然,图像处理装置1001不需要将具有空栏部{人数}的人物图像用模板存储在存储部1090中。
人物图像用模板不具有空栏部{人数}的情况的其他例是将与被摄物体的人数相应的多个人物图像用模板存储在存储部1090中的情况。将与被摄物体的人数相应的多个人物图像用模板存储在存储部1090中的情况下,图像处理装置1001对于人物图像,不将与被摄物体的人数相应的单词插入空栏部{人数}来生成包含与被摄物体的人数相应的单词在内的文章,而从存储部1090读出与被摄物体的人数相应的人物图像用模板,生成包含与被摄物体的人数相应的单词在内的文章。
另外,在上述实施例中,说明了图像处理装置1001将具有空栏部{日期和时间}及空栏部{形容词}的风景图像用模板、及具有空栏部{场所}及空栏部{形容词}的风景图像用模板存储在存储部1090中的例子,但风景图像用模板所具有的空栏部的数量、种类不限于此。例如,图像处理装置1001具有各种传感器的情况下,也可以具有上述空栏部{照度}、空栏部{温度}等。
另外,在上述实施例中,说明了图像处理装置1001将两种人物图像用模板存储在存储部1090中的例子,但也可以将1种或3种以上的人物图像模板存储在存储部1090中。同样地,图像处理装置1001也可以将1种或3种以上的风景图像模板存储在存储部1090中。
另外,在上述实施例中,说明了图像处理装置1001在生成对于拍摄图像的文章的情况下将该文章附加到该拍摄图像的例子,但也可以在生成对于拍摄图像的文章的情况下将该文章与该拍摄图像附带对应关系地存储在存储部1090中。
另外,存储部1090也可以存储第1类别(例如,肖像)的图像所使用的文章的文章结构即第1文章结构、和第2类别(例如,风景)的图像所使用的文章的文章结构即第2文章结构。
文章生成部1030在存储部1090内存储有第1文章结构及第2文章结构的情况下,可以是,当通过判定部1020判定为拍摄图像是第1类别的图像时(即,判定部1020判定为是人物图像时),使用规定的文本生成第1文章结构的文章,当通过判定部1020判定为拍摄图像是第2类别的图像时(即,判定部1020判定为是风景图像时),使用规定的文本生成第2文章结构的文章。
另外,图像处理装置1001也可以具有决定与拍摄图像的特征量及拍摄条件的至少一方对应的文本(与拍摄图像的特征量或/和拍摄条件相应的文本)的决定部(未图示)。例如,决定部在图像输入部1010输入(取得)拍摄图像的情况下,作为文档生成所使用的规定的文本,决定与该拍摄图像的特征量或/和拍摄条件相应的文本。更详细来说,例如,预先与特征量及拍摄条件附带对应关系地将多个文本存储在存储部1090中,决定部从存储部1090内的多个文本中选择与特征量或/和拍摄条件相应的文本。
也就是说,文章生成部1030在通过判定部1020判定拍摄图像是第1类别的图像时,使用由决定部如上所述地决定的文本生成第1文章结构的文章,通过判定部1020判定拍摄图像是第2类别的图像时,使用由决定部如上所述地决定的文本生成第2文章结构的文章。
(第2实施方式)
接着,参照附图说明本发明的第2实施方式。图8是本发明的第2实施方式的摄像装置1100的功能框图的一例。
本实施方式的摄像装置1100如图8所示地具有摄像部1110、缓冲存储器部1130、图像处理部(图像处理装置)1140、显示部1150、存储部1160、通信部1170、操作部1180、CPU(Central processing unit:中央处理单元)1190及总线1300。
摄像部1110具有光学系统1111、摄像元件1119及A/D(Analog toDigital:模-数)转换部1120。光学系统1111具有1个或2个以上的透镜。
摄像元件1119例如将成像在受光面上的光学像转换成电气信号,并输出到A/D转换部1120。
另外,摄像元件1119将通过操作部1180而受理了静态图像摄像指示时得到的图像数据(电气信号)作为所拍摄的静态图像的拍摄图像数据(电气信号),输出到A/D转换部1120,或者通过A/D转换部1120或图像处理部1140,存储在存储介质1200中。
另外,摄像元件1119将通过操作部1180而受理了动态图像摄像指示时得到的以规定间隔连续地拍摄的动态图像的图像数据(电气信号),作为所拍摄的动态图像的拍摄图像数据(电气信号),输出到A/D转换部1120,或者通过A/D转换部1120或图像处理部1140,存储在存储介质1200中。
另外,摄像元件1119例如在未通过操作部1180而受理摄像指示的状态下,将连续地得到的图像数据(电气信号)作为实时取景数据(拍摄图像)(电气信号),输出到A/D转换部1120,或者通过A/D转换部1120或图像处理部1140,连续地输出到显示部1150。
此外,光学系统1111可以安装在摄像装置1100上而成为一体,也可以能够拆装地安装在摄像装置1100上。
A/D转换部1120对通过摄像元件1119被转换的图像的电气/电子信号(模拟信号)进行模拟/数字转换,并输出通过该转换而得到的数字信号的拍摄图像数据(拍摄图像)。
这里,摄像部1110基于通过操作部1180从用户受理的指示内容或所设定的拍摄条件而被CPU1190控制,使经由了光学系统1111的光学像成像在摄像元件1119,基于通过A/D转换部1120而被转换成数字信号的该光学像生成拍摄图像。
此外,拍摄条件例如光圈值或曝光值等那样地限定摄像时的条件。
拍摄条件例如存储在存储部1160中,并能够由CPU1190参照。
从A/D转换部1120输出的图像数据基于被设定的图像处理流程条件而被输入到例如图像处理部1140、显示部1150、缓冲存储器部1130、(通过通信部1170)存储介质1200中的1个以上。
此外,图像处理流程条件例如将从A/D转换部1120输出的图像数据通过图像处理部1140输出到存储介质1200等那样来限定对图像数据进行处理的流程(流向)的条件。图像处理流程条件例如存储在存储部1160中,并能够由CPU1190参照。
具体来说,进行如下流程等:摄像元件1119将通过操作部1180受理了静态图像摄像指示时得到的图像的电气信号作为所拍摄的静态图像的电气信号输出到A/D转换部1120的情况下,使从A/D转换部1120输出的静态图像的图像数据经由图像处理部1140而存储在存储介质1200中。
另外,进行如下流程等:摄像元件1119将通过操作部1180受理了动态图像摄像指示时得到的以规定间隔连续地拍摄的动态图像的电气信号作为所拍摄的动态图像的电气信号输出到A/D转换部1120的情况下,使从A/D转换部1120输出的动态图像的图像数据经由图像处理部1140,存储在存储介质1200中。
另外,进行如下流程等:摄像元件1119在没有通过操作部1180受理摄像指示的状态下,将连续地得到的图像的电气信号作为实时取景的电气信号输出到A/D转换部1120的情况下,使从A/D转换部1120输出的实时取景的图像数据经由图像处理部1140,连续地输出到显示部1150。
此外,作为使从A/D转换部1120输出的图像数据经由图像处理部1140的结构,可以采用例如将从A/D转换部1120输出的图像数据直接输入图像处理部1140的结构,或者,也可以采用将从A/D转换部1120输出的图像数据存储在缓冲存储器部1130中,并将存储在缓冲存储器部1130中的该图像数据输入图像处理部1140的结构。
图像处理部1140基于存储在存储部1160中的图像处理条件,对存储在缓冲存储器部1130中的图像数据执行图像处理。关于图像处理部1140的详细情况将在后面说明。此外,存储在缓冲存储器部1130中的图像数据是指要输入到图像处理部1140的图像数据,例如上述拍摄图像数据、实时取景数据或从存储介质1200读出的拍摄图像数据。
图像处理部1140对所输入的图像数据执行规定的图像处理。
这里,作为输入到图像处理部1140的图像数据,作为一例,有从A/D转换部1120输出的图像数据,作为其他例,还能够读出存储在缓冲存储器部1130中的图像数据并输入,另外,作为其他例,还能够通过通信部1170读出存储在存储介质1200中的图像数据并输入。
操作部1180例如包括电源开关、快门按钮、十字键、确定按钮及其他的操作键,通过被用户操作而受理用户的操作输入,并输出到CPU1190。
显示部1150是例如液晶显示器等,显示图像数据、操作画面等。例如,显示部1150显示通过图像处理部1140而被附加了文章的拍摄图像。
另外,例如,显示部1150能够输入并显示通过图像处理部1140而被执行了规定的图像处理的图像数据,另外,还能够输入并显示从A/D转换部1120输出的图像数据、从缓冲存储器部1130读出的图像数据或从存储介质1200读出的图像数据。
存储部1160存储各种信息。
缓冲存储器部1130临时存储通过摄像部1110拍摄的图像数据。
另外,缓冲存储器部1130临时存储从存储介质1200读出的图像数据。
通信部1170与存储卡等能够拆下的存储介质1200连接,进行摄影图像数据向该存储介质1200的写入(存储处理)、图像数据从该存储介质1200的读出或者存储在该存储介质1200中的图像数据的删除。
存储介质1200是相对于摄像装置1100能够拆装地连接的存储部,例如,存储由摄像部1110生成的图像数据(摄像/摄影图像数据)。
CPU1190控制摄像装置1100所具有的各构成部。总线1300被连接到摄像部1110、CPU1190、操作部1180、图像处理部1140、显示部1150、存储部1160、缓冲存储器部1130、通信部1170,并传送从各部输出的图像数据或控制信号等。
此外,摄像装置1100的图像处理部1140与第1实施方式的图像处理装置1001的判定部1020、文章生成部1030及文章添加部1040相当。
另外,摄像装置1100的存储部1160与第1实施方式的图像处理装置1001的存储部1090相当。
例如,图像处理部1140执行第1实施方式的图像处理装置1001的判定部1020、文章生成部1030及文章添加部1040的处理。
另外,具体来说,存储部1160至少存储第1实施方式的图像处理装置1001的存储部1090所存储的信息。
此外,将用于执行上述第1实施方式的图像处理装置1001的各处理的程序存储在计算机能够读取的存储介质,将存储在该存储介质中的程序读入计算机系统并执行,由此,也可以进行与上述图像处理装置1001的各处理相关的上述各种处理。此外,这里所谓的“计算机系统”是指包括OS(Operating System:操作系统)和周边设备等硬件的计算机系统。另外,“计算机系统”利用WWW系统的情况下,还包括主页提供环境(或者显示环境)。另外,“计算机能够读取的存储介质”是指软盘、光磁盘、ROM(Read Only Memory:只读存储器)、闪存等能够写入的非易失性存储器,CD(CompactDisc:光盘)-ROM等可移动介质,通过USB(Universal Serial Bus:通用串行总线)I/F(接口)连接的USB存储器,内置于计算机系统的硬盘等存储装置。
而且,“计算机能够读取的存储介质”还包括通过互联网等网络或电话线等通信线路发送程序的情况下的成为服务器或客户端的计算机系统内部的易失性存储器(例如DRAM(Dynamic RandomAccess Memory:动态随机访问存储器))这样的以一定时间保持程序的部件。另外,上述程序也可以从将该程序存储在存储装置等中的计算机系统,通过传送介质或者传送介质中的传送波传送到其他的计算机系统。这里,传送程序的“传送介质”是指互联网等网络(通信网)或电话线等通信线路(通信线)这样的具有传送信息的功能的介质。另外,上述程序也可以是用于实现前述的功能的一部分的程序。而且,也可以是与已经存储在计算机系统中的程序组合来实现前述功能的所谓的差分文件(差分程序)。
(第3实施方式)
图9是表示本实施方式的摄像系统2001的结构的概要框图。
图9所示的摄像装置2100具有摄像部2002、相机控制部2003、图像处理部2004、存储部2005、缓冲存储器部2006、显示部2007、操作部2011、通信部2012、电源部2013及总线2015。
摄像部2002具有透镜部2021、摄像元件2022及AD转换部2023,拍摄被摄物体并生成图像数据。该摄像部2002基于所设定的拍摄条件(例如光圈值、曝光等)被相机控制部2003控制,将通过透镜部2021输入的被摄物体的光学像成像在摄像元件2022的摄像面上。另外,摄像部2002将从摄像元件2022输出的模拟信号在AD转换部2023中转换成数字信号,并生成图像数据。
此外,上述透镜部2021可以安装在摄像装置2100中成为一体,也可以能够拆装地安装在摄像装置2100上。
摄像元件2022将对于成像在摄像面上的光学像进行了光电转换的模拟信号输出到AD转换部2023。AD转换部2023将从摄像元件2022输入的模拟信号转换成数字信号,并输出该转换的数字信号即图像数据。
例如,摄像部2002根据操作部2011中的静态图像摄影操作,输出所拍摄的静态图像的图像数据。另外,摄像部2002根据操作部2011中的动态图像摄影操作,输出以规定间隔连续地拍摄的动态图像的图像数据。而且,由摄像部2002拍摄的静态图像的图像数据及动态图像的图像数据通过相机控制部2003的控制,经由缓冲存储器部2006或图像处理部2004被存储在存储介质2200中。另外,摄像部2002是在操作部2011中没有摄影操作的摄影待机状态的情况下,将以规定间隔连续地得到的图像数据作为实时取景数据(实时取景)而输出。而且,由摄像部2002得到的实时取景数据通过相机控制部2003的控制,经由缓冲存储器部2006或图像处理部2004被显示在显示部2007。
图像处理部2004基于存储在存储部2005中的图像处理条件,对于存储在缓冲存储器部2006中的图像数据执行图像处理。这里,存储在缓冲存储器部2006或存储介质2200中的图像数据是指例如由摄像部2002拍摄的静态图像的图像数据、实时图像数据、动态图像的图像数据或从存储介质2200读出的图像数据。
在存储部2005中存储有用于控制摄像装置2100的预先设定的摄影条件、图像处理条件、再现控制条件、显示控制条件、存储控制条件及输出控制条件等。例如,存储部2005是ROM。
此外,在存储部2005中也可以存储所拍摄的动态图像的图像数据及静态图像的图像数据。该情况下,例如,存储部2005也可以是闪存等。
缓冲存储器部2006作为相机控制部2003控制摄像装置2100时的作业区域而被利用。由摄像部2002拍摄的静态图像的图像数据、实时图像数据、动态图像的图像数据或从存储介质2200读出的图像数据在基于相机控制部2003的控制下的图像处理的过程中临时存储在缓冲存储器部2006中。缓冲存储器部2006是例如RAM(RandomAccess Memory:随机存取存储器)。
显示部2007是例如液晶显示器,显示基于由摄像部2002拍摄的图像数据产生的图像、基于从存储介质2200读出的图像数据产生的图像、菜单画面或者与摄像装置2100的工作状态或设定相关的信息等。
操作部2011具有供操作者对摄像装置2100操作输入的操作开关。例如,操作部2011具有电源开关、释放开关、模式开关、菜单开关、上下左右选择开关、确定开关、取消开关及其他的操作开关。操作部2011所具有的上述各个开关与操作相应地,将与各个操作对应的操作信号输出到相机控制部2003。
存储卡等能够拆装的存储介质2200被插入通信部2012。
通过通信部2012,对该存储介质2200执行图像数据的写入、读出或删除。
存储介质2200是相对于摄像装置2100能够拆装地连接的存储部,存储例如由摄像部2002拍摄并生成的图像数据。此外,在本实施方式中,存储在存储介质2200中的图像数据是例如Exif格式(Exif)形式的文件。
电源部2013向摄像装置2100所具有的各部供给电力。电源部2013具有例如电池,将从该电池供给的电力的电压转换成上述各部中的工作电压。而且,电源部2013将所转换的工作电压的电力,基于摄像装置2100的工作模式(例如,摄影工作模式或休眠模式),通过相机控制部2003的控制向上述各部供给。
总线2015与摄像部2002、相机控制部2003、图像处理部2004、存储部2005、缓冲存储器部2006、显示部2007、操作部2011及通信部2012连接,并传送从各部输出的图像数据和控制信号等。
相机控制部2003控制摄像装置2100所具有的各部。
图10是本实施方式的图像处理部2004的框图。
如图10所示,图像处理部2004具有图像取得部2041、图像识别信息取得部2042(场景判别部)、颜色空间矢量生成部2043、主色提取部2044、表格存储部2045、第1标签生成部2046、第2标签生成部2047、标签输出部2048。
图像取得部2041通过总线2015从存储介质2200读出摄像部2002拍摄的图像数据和与图像数据附带关联地存储的图像识别信息。图像取得部2041所读出的图像数据是摄像系统2001的使用者通过操作部2011的操作所选择的图像数据。图像取得部2041将所取得的图像数据输出到颜色空间矢量生成部2043。图像取得部2041将所取得的图像识别信息输出到图像识别信息取得部2042。
图11是用于说明与图像数据附带关联地存储在本实施方式的存储介质2200中的图像识别信息的一例的图。
在图11中,左列是项目例,右列是信息例。如图11所示,与图像数据附带关联地存储的项目是摄像日期和时间、图像整体的分辨率、快门速度、光圈值(F值)、ISO感光度、测光模式、闪光灯使用的有无、场景模式、静态图像·动态图像等。这些图像识别信息是摄影者在摄像时通过摄像系统2001的操作部2011设定的信息和摄像装置2100自动地设定的信息。另外,这些图像识别信息也可以使用与图像数据附带关联地存储的Exif格式的信息。
在项目中,“场景”(也称为摄影模式)是指摄像装置2100中预先设定的快门速度、F值、ISO感光度及焦距等的组合方案。这些组合方案与拍摄的对象相匹配地预先设定,并存储在存储介质2200中,使用者从操作部2011手动选择。场景是例如肖像、风景、体育、夜景肖像、聚会、海滩、雪、夕阳、夜景、近拍、料理、美术馆、烟花、逆光、儿童、宠物等。
返回图10,图像识别信息取得部2042从图像取得部2041输出的图像识别信息,提取被设定在所拍摄的图像数据中的摄影信息,并将所提取的摄影信息输出到第1标签生成部2046。此外,摄影信息是指第1标签生成部2046生成第1标签所需的信息,例如场景、摄影日期和时间等。
颜色空间矢量生成部2043将图像取得部2041输出的图像数据转换成预先设定的颜色空间的矢量。预先设定的颜色空间是例如HSV(Hue(色相)、Saturation(饱和度)、Brightness(明度))。
颜色空间矢量生成部2043将图像数据的全像素按颜色矢量分类,并检测每个颜色矢量的频率,生成颜色矢量的频率分布。颜色空间矢量生成部2043将表示所生成的颜色矢量的频率分布的信息输出到主色提取部2044。
此外,图像数据为HSV的情况下,颜色矢量如下式(4)所示地表示。
【数式2】
H S V = i j k . . . ( 4 )
此外,在式(4)中,i、j、k是将色相标准化成0~100%的情况下,分别是0至100的自然数。
主色提取部2044从颜色空间矢量生成部2043输出的表示颜色矢量的频率分布的信息中按频率从高到低的顺序提取三种颜色来作为主色,将表示所提取的主色的信息输出到第1标签生成部2046。此外,频率高的颜色是相同的颜色矢量的像素数多的颜色。另外,表示主色的信息是指式(4)的颜色矢量和每个该颜色矢量的频率(像素数)。
此外,在本实施方式中,主色提取部2044也可以由颜色空间矢量生成部2043和主色提取部2044构成。
在表格存储部2045(存储部)中,按每个场景和主色的每种组合,预先附带关联地存储第1标签。
图12是用于说明本实施方式的存储在表格存储部2045中的主色的组合和第1标签的一例的图。
如图12所示,在从图像数据提取的主色中,按频率最高的第1色、接着第1色而频率第2高的第2色、接着第2色而频率第3高的第3色这三种颜色的每种组合和每个场景而预先定义第1标签,并存储在表格存储部2045中。例如,在第1色为色1、第2色为色2、第3色为色3的组合中,场景1的第1标签是标签(1,1),场景n的标签是标签(1,n)。同样地,在第1色为色m、第2色为色m、第3色为色m的组合中,场景1的第1标签是标签(m,1),场景n的标签是标签(m,n)。
像这样,预先通过实验或调查问卷等定义每个场景和主要三种颜色的每种组合的标签,并预先存储在表格存储部2045中。此外,第1色、第2色和第3色的频率的比率为1:1:1。
返回图10,第1标签生成部2046从表格存储部2045读出与图像识别信息取得部2042输出的摄影信息和主色提取部2044输出的表示主色的信息附带关联地存储的第1标签。第1标签生成部2046将表示读出的第1标签的信息和主色提取部2044输出的表示主色的信息输出到第2标签生成部2047。另外,第1标签生成部2046例如使用摄影信息即Exif所含有的信息等进行场景判别。
第2标签生成部2047从主色提取部2044输出的表示主色的信息提取按颜色矢量的频率,使用所提取的频率对3个颜色矢量的频率进行标准化,并算出3个主色的比率。第2标签生成部2047基于所算出的3个主色的比率,生成修饰第1标签的修饰标签(第3标签),将所生成的修饰标签修饰到第1标签生成部2046输出的第1标签中,由此修正第1标签,生成对于图像数据的第2标签。第2标签生成部2047将表示生成的第2标签的信息输出到标签输出部2048。
标签输出部2048将第2标签生成部2047输出的表示第2标签的信息与图像数据附带关联地存储在表格存储部2045中。或者,标签输出部2048将第2标签生成部2047输出的表示标签的信息与图像数据附带关联地存储在存储介质2200中。
图13是用于说明本实施方式的图像数据的主色的一例的图。
在图13中,横轴是颜色矢量,纵轴是颜色矢量(颜色信息)的频率。
图13的例子是颜色空间矢量生成部2043将图像数据分解成HSV的颜色矢量(HSV=(im,jm,km),其中m是0至100的自然数)的频率分布的图线。另外,图13是示意地按顺序排列左端为H(色相)=0、S(饱和度)=0、V(明度)=0,右端为H=100、S=100、V=100。而且,示意地表示按颜色矢量算出频率的结果。在图13的例子中,频率最高的第1色c2001是矢量HSV=(i1,j69,k100),玫瑰色(蔷薇色)。另外,频率接着第1色而第2高的第2色c2002是矢量HSV=(i13,j52,k100),淡黄色(硫磺色)。而且,频率接着第2色而第3高的第3色c2003是矢量HSV=(i40,j65,k80),艳绿色(祖母绿)。
图14A、14B是用于说明图13中提取的主色的贴标的一例的图。此外,图13及图14A、14B的颜色矢量采用例如场景模式为肖像的图像数据来说明。
图14A是图13中提取的第1色、第2色、第3色的例子。如图14A所示,示意地从左按图13所示的颜色矢量的顺序并列地表示。第1标签生成部2046从表格存储部2045读出与主色提取部2044提取的第1色、第2色、第3色的组合附带关联地存储的第1标签。该情况下,第1色、第2色、第3色的组合的第1标签作为“愉快的”而被存储。另外,如图14A所示,标准化前的第1色、第2色、第3色的各宽度为L2001、L2002及L2003,宽度L2001、L2002及L2003的长度相等。另外,长度L2010是各宽度L2001、L2002及L2003的合计。
图14B是以频率对提取的第1色、第2色、第3色进行标准化,并将第1色、第2色、第3色的各宽度如L2001’、L2002’、L2003’地修正之后的图。宽度的合计L2010与图14A相同。在图14B的例子中,第1色的频率比其他的第2色和第3色的频率高,从而第2标签生成部2047对于第1标签生成部2046读出的第1标签“愉快的”,基于预先设定的规则,生成修饰第1标签“愉快的”的修饰标签“非常”。预先设定的规则是指,在第1色与其他的第2色和第3色相比,频率比预先设定的阈值多的情况下,第2标签生成部2047生成修饰标签“非常”,将所生成的修饰标签修饰到第1标签“愉快的”中,由此修正第1标签,生成第2标签“非常愉快的”。此外,修饰标签是例如强调第1标签的单词。
以下,关于修饰标签的例子进行说明。
如图14A所示,标准化前,主色提取部2044提取的3个颜色的宽度或面积是1:1:1。而且,基于颜色矢量的频率被标准化之后,3个颜色的宽度或面积如图14B所示地被修正。例如,第1色的比率比整体L2010的约67%大的情况下,第2标签生成部2047作为修饰标签用“非常”修饰第1标签,由此修正第1标签而生成第2标签。另外,第1色的比率比整体L2010的约50%大且比67%小的情况下,第2标签生成部2047采用无修饰标签。即,第2标签生成部2047不修正第1标签地生成第2标签。另外,第1色的比率为整体L2010的约33%的情况下,第2标签生成部2047作为修饰标签用“有点儿”修正第1标签,由此修正第1标签而生成第2标签。
像这样,第2标签生成部2047根据第1标签,生成修饰的修饰标签。例如,也可以按每个第1标签,预先附带关联地将能够修饰的修饰标签存储在表格存储部2045中。
以下,关于按场景的主色的例子,使用图15A~图17B进行说明。
图15A、15B是本实施方式的体育的图像数据和颜色矢量的图。图15A是体育的图像数据,图15B是体育的颜色矢量的图线。图16A、16B是本实施方式的肖像的图像数据和颜色矢量的图。图16A是肖像的图像数据,图16B是肖像的颜色矢量的图线。图17A、17B是本实施方式的风景的图像数据和颜色矢量的图。图17A是风景的图像数据,图17B是风景的颜色矢量的图线。在图15B、图16B、图17B中,横轴是颜色矢量,纵轴是频率(像素数)。
如图15A和图15B所示,按像素将图15A的图像数据分解成颜色矢量,对各颜色矢量的频率(像素数)进行图形化后,成为图15B。主色提取部2044从这样的颜色矢量的信息提取例如像素数多的3种颜色c2011、c2012、c2013。
如图16A和图16B所示,按像素将图16A的图像数据分解成颜色矢量,对各颜色矢量的频率(像素数)进行图形化后,成为图16B。主色提取部2044从这样的颜色矢量的信息提取例如像素数多的3个颜色c2021、c2022、c2023。
如图17A和图17B所示,按像素将图17A的图像数据分解成颜色矢量,对各颜色矢量的频率(像素数)进行图形化后,成为图17B。主色提取部2044从这样的颜色矢量的信息提取例如像素数多的3个颜色c2031、c2032、c2033。
图18是用于说明本实施方式的按场景的主色的组合的第1标签的一例的图。在图18中,行表示场景,列表示颜色矢量。
在图18中,图像数据为HSV的情况下,色的组合(色1、色2、色3)的HSV的各色相、饱和度及强度是例如色1为(94,100,25)(栗色,褐红色),色2为(8,100,47)(卷烟色,咖啡棕色),色3为(81,100,28)(深紫色,暗紫色)。
另外,颜色矢量(色4,色5,色6)的HSV的各色相、饱和度及强度是例如色4为(1,69,100)(玫瑰色,蔷薇色),色5为(13,25,100)(象牙色,乳白色),色6为(52、36、91)(水色,水蓝色)。
另外,颜色矢量(色7,色8,色9)的HSV的各色相、饱和度及强度是例如色7为(40,65,80)(艳绿色、祖母绿),色8为(0、0、100)(白色、white),色9为(59、38、87)(鼠尾草色,丹参蓝(salvia blue))。
如图18所示,例如,色的组合是(色1,色2,色3)的情况下,场景为肖像的第1标签是“时髦的”并被存储在表格存储部2045中。在相同颜色的组合(色1,色2,色3)中,场景为风景的第1标签是“有趣的”并被存储在表格存储部2045中。另外,在相同颜色的组合(色1,色2,色3)中,场景为体育的第1标签是“(橄榄球风)英姿飒爽的”并被存储在表格存储部2045中。
另外,如图18所示,例如,颜色的组合是(色4,色5,色6)的情况下,场景为肖像的第1标签是“孩子气的”并被存储在表格存储部2045中。在相同颜色的组合(色4,色5,色6)中,场景为风景的第1标签是“柔美的”并被存储在表格存储部2045中。另外,在相同颜色的组合(色4,色5,色6)中,场景为体育的第1标签是“(网球风)活力的”并被存储在表格存储部2045中。
另外,如图18所示,例如,颜色的组合是(色7,色8,色9)的情况下,场景为肖像的第1标签是“年轻的”并被存储在表格存储部2045中。在相同颜色的组合(色7,色8,色9)中,场景为风景的第1标签是“(嫩绿的印象)清爽的”并被存储在表格存储部2045中。
另外,在相同颜色的组合(色7,色8,色9)中,场景为体育的第1标签是“(海上运动风)舒爽的”并被存储在表格存储部2045中。
另外,如图18所示,存储在表格存储部2045中的信息不仅附带关联地存储颜色的组合和形容词、副词的第1标签,还可以附带关联地存储表示印象的单词。此外,表示印象的单词是指例如橄榄球风、嫩绿的印象等。
图19是用于说明本实施方式的由时刻、季节和颜色矢量构成的第1标签的例子的图。在图19中,颜色矢量是图像数据为HSV且图18中说明的颜色的组合(色7,色8,色9)。在图19中,列表示时刻和季节,行表示各时刻和季节相对于颜色的组合(色7,色8,色9)的标签。
如图19所示,在时刻为早上的情况下,颜色的组合(色7,色8,色9)的第1标签是“清爽的”,在时刻为中午的情况下,颜色的组合(色7,色8,色9)的第1标签是“像要下雨的”,在时刻为晚上的情况下,颜色的组合(色7,色8,色9)的第1标签是“黎明前夕”,并存储在表格存储部2045中。
如图19所示,在季节为春季的情况下,颜色的组合(色7,色8,色9)的第1标签是“凉飕飕的”,在季节为夏季的情况下,颜色的组合(色7,色8,色9)的第1标签是“清凉的”,在季节为秋季的情况下,颜色的组合(色7,色8,色9)的第1标签是“凉飕飕的”,在季节为冬季的情况下,颜色的组合(色7,色8,色9)的第1标签是“寒冷的”,并被存储在表格存储部2045中。
关于这样的与时刻、季节相关的信息,基于图像识别信息取得部2042取得的图像识别信息所含有的摄影日期和时间,第1标签生成部2046从表格存储部2045读出第1标签。
另外,如图19所示,对于相同颜色的组合(色7,色8,色9),在春季和秋季中,第1标签也可以相同。
以下,关于摄像装置2100进行的标签生成处理,使用图20进行说明。图20是表示本实施方式的摄像装置2100进行的标签生成的流程图。
(步骤S2001)摄像装置2100的摄像部2002基于相机控制部2003的控制来拍摄图像。然后,摄像部2002将拍摄的图像数据通过AD转换部2023转换成数字数据,将所转换的图像数据存储在存储介质2200中。
然后,相机控制部2003将包含在摄像时通过操作部2011而由使用者设定或选择的摄影条件、及在摄像时摄像装置2100自动地设定或取得的信息等在内的图像识别信息,与拍摄的图像数据附带关联地存储在存储介质2200中。步骤S2001结束后,进入步骤S2002。
(步骤S2002)然后,图像处理部2004的图像取得部2041通过总线2015从存储介质2200读出摄像部2002拍摄的图像数据、与图像数据附带关联地存储的图像识别信息。此外,图像取得部2041读出的图像数据是摄像系统2001的使用者通过操作部2011的操作所选择的图像数据。
然后,图像取得部2041将取得的图像数据输出到颜色空间矢量生成部2043。然后,图像取得部2041将取得的图像识别信息输出到图像识别信息取得部2042。步骤S2002结束后,进入步骤S2003。
(步骤S2003)然后,图像识别信息取得部2042从图像取得部2041输出的图像识别信息提取设定在所拍摄的图像数据中的摄影信息,将所提取的摄影信息输出到第1标签生成部2046。步骤S2003结束后,进入步骤S2004。
(步骤S2004)然后,颜色空间矢量生成部2043将图像取得部2041输出的图像数据转换成预先设定的颜色空间的矢量。预先设定的颜色空间是例如HSV。然后,颜色空间矢量生成部2043按所生成的颜色矢量对图像数据的全像素进行分类,检测每个颜色矢量的频率,并生成颜色矢量的频率分布。然后,颜色空间矢量生成部2043将表示所生成的颜色矢量的频率分布的信息输出到主色提取部2044。步骤S2004结束后,进入步骤S2005。
(步骤S2005)然后,主色提取部2044从表示颜色空间矢量生成部2043输出的颜色矢量的频率分布的信息按频率从高到低的顺序将三种颜色作为主色提取,将表示所提取的主色的信息输出到第1标签生成部2046。步骤S2005结束后,进入步骤S2006。
(步骤S2006)然后,第1标签生成部2046从表格存储部2045读出与图像识别信息取得部2042输出的摄影信息和表示主色提取部2044输出的主色的信息附带关联地存储的第1标签。然后,第1标签生成部2046将表示所读出的第1标签的信息和表示主色提取部2044输出的主色的信息输出到第2标签生成部2047。
此外,第1标签生成部2046在与图像识别信息取得部2042输出的摄影信息和表示主色提取部2044输出的主色的信息附带关联地存储的第1标签没有存储在表格存储部2045中的情况下,例如,关于相同主色,判别是否存储了其他场景的第1标签。在判别为关于相同主色存储了其他场景的第1标签的情况下,第1标签生成部2046也可以关于相同主色从表格存储部2045读出其他场景的第1标签。另一方面,在判别为关于相同主色没有存储其他场景的第1标签的情况下,第1标签生成部2046也可以从表格存储部2045读出与如下颜色矢量附带关联地存储的标签,即:颜色矢量与主色的距离最接近且场景相同的颜色矢量。
步骤S2006结束后,进入步骤S2007。
(步骤S2007)然后,第2标签生成部2047从表示主色提取部2044输出的主色的信息对各颜色矢量的频率进行标准化,并算出3个主色的比率。步骤S2007结束后,进入步骤S2008。
(步骤S2008)然后,第2标签生成部2047基于算出的3个主色的比率,生成对第1标签生成部2046输出的第1标签进行修饰的修饰标签,利用所生成的修饰标签修饰第1标签,由此修正第1标签而生成第2标签。然后,第2标签生成部2047将表示所生成的第2标签的信息输出到标签输出部2048。步骤S2008结束后,进入步骤S2009。
(步骤S2009)然后,标签输出部2048将表示第2标签生成部2047输出的第2标签的信息与图像数据附带关联地存储在表格存储部2045中。
此外,在步骤S2006中,在表格存储部2045中没有存储与表示场景的信息和表示主色的信息附带关联地存储的第1标签的情况下,标签输出部2048也可以将步骤S2006中读出的第1标签和提取的主色附带关联地新存储到表格存储部2045。
以上,结束图像处理部2004进行的标签生成处理。
如上所述,与现有技术相比,本实施方式的摄像装置2100能够以更少的计算量提取作为图像数据的特征量的主色。而且,本实施方式的摄像装置2100使用Exif所含有的信息等进行场景判别,基于判别结果选择存储在表格存储部2045中的按场景的表格,从而能够以更少的计算量判别场景。其结果为,本实施方式的摄像装置2100与现有技术相比,针对图像数据能够以更少的计算处理和更少的选项来进行更大量的标签生成。
即,图像处理部2004从将图像数据转换成颜色空间的颜色矢量中提取频率多的3个主色,并提取与所提取的主色预先附带对应关系地存储的第1标签。如图18和图19所示,由于对于主色,按场景、按时刻和季节预先附带对应关系地存储第1标签,所以即使从图像数据提取的主色相同,图像处理部2004也能够按场景、按时刻和季节生成不同的第1标签,从而能够按场景生成最适于图像数据的标签。
而且,图像处理部2004对3个主色的频率进行标准化,并根据频率最多的第1色的比例,生成对所生成的第1标签进行修饰的修饰标签,并以所生成的修饰标签修饰第1标签,由此修正第1标签而生成第2标签。
其结果为,图像处理部2004基于图像数据的主色的配色的比例,以修饰标签修饰并修正第1标签,由此生成第2标签,从而与从图像数据提取主色并生成标签的情况相比,能够按场景生成更加适合图像数据的标签。
此外,在本实施方式中,说明了颜色空间矢量生成部2043对于图像数据在HSV的颜色空间中生成颜色矢量的例子,但也可以采用由RGB(红,绿,蓝)、亮度信号和2个色差信号构成的YCrCb或YPbPr,由色相、饱和度及亮度构成的HLS,互补颜色空间的一种即Lab,基于日本色研配色体系(PCCS;Practical Color Co-ordinate System)的颜色空间等。
另外,在本实施方式中,说明了颜色空间矢量生成部2043生成颜色矢量的频率分布、并将表示所生成的颜色矢量的频率分布的信息输出到主色提取部2044的例子,但颜色空间矢量生成部2043也可以检测每个颜色矢量的频率,将表示所检测到的每个颜色矢量的频率的信息输出到主色提取部2044。该情况下,例如,存储在表格存储部2045中的RGB的各值可以是表格生成者从每1个、每10个等的间隔中所选择的颜色。
另外,在本实施方式中,说明了标签输出部2048将表示标签的信息与图像数据附带关联地存储在表格存储部2045中的例子,但也可以将第2标签生成部2047输出的标签作为由文字信息(文本)构成的数据,与由使用者选择的图像数据重合地显示在显示部2007。
另外,在本实施方式中,说明了第1标签和第2标签是形容词和副词的例子,但第1标签和第2标签也可以是例如名词。该情况下,第1标签是例如“爽快”、“返老还童”、“时髦”等。
另外,在本实施方式中,说明了从图像数据算出主色的例子,但主色提取部2044也可以提取相邻的颜色矢量以预先设定的距离分离开的3个颜色。相邻的颜色矢量是指,在图15B中,例如,图像数据为HSV的情况下,是颜色矢量(50,50,50)和(50,50,51)。相邻的颜色的距离也可以基于人视觉上的能够识别颜色的公知的阈值设定。例如,可以使用在WEB中使用时推荐的WEB256色和能够用黑白表现的单色调256色等。
另外,主色提取部2044也可以在主色的算出之前,对颜色空间矢量生成部2043生成的颜色矢量的频率分布,使用公知的方法进行平滑化处理。或者,颜色空间矢量生成部2043也可以在生成颜色空间矢量之前,使用公知的方法进行减色处理。例如,颜色空间矢量生成部2043也可以将图像数据减色成WEB颜色。
另外,在本实施方式中,说明了主色提取部2044从图像数据将频率高的3个颜色作为主色提取的例子,但所提取的颜色的数量不限于三种颜色,只要为两种颜色以上即可。
另外,在本实施方式中,作为颜色矢量说明了使用HSV的例子。在表格存储部2045中如图12所示地存储3个颜色的组合的情况下,可以是,表格生成者从按每间隔1地设定HSV的各值而成的HSV=(0,0,0)、(1,0,0)、(1,1,0)···(100,100,99)、(100,100,100)中选择。或者,表格生成者也可以从每间隔10地设定HSV的各值而成的HSV=(0,0,0)、(10,0,0)、(10,10,0)···(100,100,90)、(100,100,100)中选择。像这样,通过使颜色矢量中的各值的间隔为10等而预先设定的值,能够减少存储在表格存储部2045中的容量,还能够进一步削减计算量。
(第4实施方式)
在第3实施方式中,说明了基于与图像数据附带关联地存储在存储介质2200中的图像识别信息判别由使用者选择的图像数据的场景的例子。在本实施方式中,说明了图像处理装置从所选择的图像数据判别场景并基于判别的结果生成标签的例子。
图21是本实施方式的图像处理部2004a的框图。
如图21所示,图像处理部2004a具有图像取得部2041a、图像识别信息取得部2042、颜色空间矢量生成部2043、主色提取部2044、表格存储部2045、第1标签生成部2046a、第2标签生成部2047、标签输出部2048、特征量提取部2241、场景判别部2242。此外,与第3实施方式具有相同功能的功能部使用相同的附图标记并省略说明。
图像取得部2041a通过总线2015从存储介质2200读出摄像部2002拍摄的图像数据和与图像数据附带关联地存储的图像识别信息。图像取得部2041a将所取得的图像数据输出到颜色空间矢量生成部2043、特征量提取部2241。图像取得部2041a将所取得的图像识别信息输出到图像识别信息取得部2242。
特征量提取部2241通过公知的方法从图像取得部2041a输出的图像数据提取特征量。公知的方法例如采用图像的2值化、平滑化、边缘检测、轮廓检测等的方法。特征量提取部2241将表示所提取的特征量的信息输出到场景判别部2242。
场景判别部2242基于表示特征量提取部2241输出的特征量的信息,使用公知的方法判别图像取得部2041a所取得的图像数据的场景。此外,场景判别所使用的公知的方法是指,例如专利文献2记载的现有技术那样地,场景判别部2242将图像数据分割成预先设定的多个区域,基于每个该区域的特征量,判别图像数据中是映现了人物还是映现了天空等。然后,基于判别结果,场景判别部2242判别图像数据的场景。
场景判别部2242将表示判别出的场景的信息输出到第1标签生成部2046a。
此外,在本实施方式中,场景判别部2242也可以由特征量提取部2241和场景判别部2242构成。
第1标签生成部2046a从表格存储部2045读出与表示场景判别部2242输出的场景的信息和表示主色提取部2044输出的主色的信息附带关联地存储的第1标签。第1标签生成部2046a将表示所读出的第1标签的信息和表示主色提取部2044输出的主色的信息输出到第2标签生成部2047。
以下,关于摄像装置2100的图像处理部2004a进行的标签生成处理,使用图20进行说明。摄像装置2100中与第3实施方式同样地进行步骤S2001和步骤S2002。
(步骤S2003)然后,特征量提取部2241通过公知的方法从图像取得部2041a输出的图像数据提取特征量,并将表示所提取的特征量的信息输出到场景判别部2242。
然后,场景判别部2242基于表示特征量提取部2241输出的特征量的信息,使用公知的方法提取并取得图像取得部2041a所取得的图像数据的摄影信息即场景,并将表示所取得的场景的信息输出到第1标签生成部2046a。步骤S2003结束后,进入步骤S2004。
图像处理部2004a与第3实施方式同样地进行步骤S2004和步骤S2005。步骤S2005结束后,进入步骤S2006。
(步骤S2006)然后,第1标签生成部2046a从表格存储部2045读出与表示场景判别部2242输出的场景的信息和表示主色提取部2044输出的主色的信息附带关联地存储的第1标签。然后,第1标签生成部2046a将表示所读出的第1标签的信息和表示主色提取部2044输出的主色的信息输出到第2标签生成部2047。步骤S2006结束后,图像处理部2004a与第3实施方式同样地进行步骤S2007~S2009。
如上所述,图像处理部2004a对于所拍摄的图像数据,使用预先设定的方法进行场景判别,基于判别出的场景和从图像数据提取的3个主色,与第3实施方式同样地生成标签。其结果为,在图像识别信息没有与图像数据附带关联地存储在存储介质2200中的情况下,图像处理部2004a也能够生成最适于图像数据的标签。
此外,在本实施方式中,说明了图像处理部2004a基于从图像数据判别的场景和所提取的主色来生成标签的例子,但也可以与第3实施方式同样地,还使用摄影信息来进行场景判别。图像处理部2004a例如也可以从图像识别信息提取表示所拍摄的日期和时间的信息,基于所提取的摄像日期和时间和从图像数据判别出的场景,生成标签。更具体来说,也可以是,在场景是“风景”,摄像日期和时间是“秋季”的情况下,读出将场景“风景”、“秋季”和主色附带关联地存储的第1标签,基于该读出的2个第1标签生成标签。
或者,也可以在表格存储部2045中对于场景预先存储为“秋天的风景”、并存储主色和第1标签。
(第5实施方式)
在第3实施方式和第4实施方式中,说明了基于从由使用者选择的图像数据整体提取的主色生成标签的例子。在本实施方式中,说明从所选择的图像数据判别场景,基于所判别的场景在预先设定的图像数据的区域中提取主色,基于所提取的主色生成标签的例子。
图22是本实施方式的实施方式的图像处理部2004b的框图。
如图22所示,图像处理部2004b具有图像取得部2041b、图像识别信息取得部2042b、颜色空间矢量生成部2043b、主色提取部2044、表格存储部2045、第1标签生成部2046、第2标签生成部2047、标签输出部2048、区域提取部2341。此外,与第3实施方式具有相同功能的功能部使用相同的附图标记并省略说明。
图像取得部2041b通过总线2015从存储介质2200读出摄像部2002拍摄的图像数据和与图像数据附带关联地存储的图像识别信息。图像取得部2041b将所取得的图像数据输出到区域提取部2341和颜色空间矢量生成部2043b。图像取得部2041b将所取得的图像识别信息输出到图像识别信息取得部2042b。
图像识别信息取得部2042b从图像取得部2041b输出的图像识别信息提取设定在所拍摄的图像数据中的摄影信息,并将所提取的摄影信息输出到第1标签生成部2046和区域提取部2341。
区域提取部2341基于图像识别信息取得部2042b输出的摄影信息,从图像识别信息取得部2042b输出的图像数据,使用预先设定的方法对提取主色的区域进行提取。区域提取部2341从图像识别信息取得部2042b输出的图像数据,提取所提取的提取主色的区域的图像数据,并将所提取的区域的图像数据输出到颜色空间矢量生成部2043b。
此外,提取预先设定的提取主色的区域的方法可以是例如,按场景预先设定从图像整体提取的区域。例如,在场景是“风景”的情况下,是图像数据的从上方起的3分之2的区域,在场景是“肖像”的情况下,是图像数据的中心部预先设定的大小的区域等。
或者,也可以与第4实施方式组合,基于从图像数据提取的特征量,将提取特征量的区域提取为提取主色的区域。该情况下,从图像数据提取的区域也可以是多个。例如,在判别为所拍摄的图像数据的场景是肖像的情况下,图21的场景判别部2242使用特征量提取等的方法进行面部检测。而且,场景判别部2242所检测的面部的区域是多个的情况下,场景判别部2242从该检测出的多个区域分别检测主色。而且,第1标签生成部2046和第2标签生成部2047也可以生成每个被检测的主色的多个标签。或者,场景判别部2242也可以以将包含被检测的全部面部区域在内的区域作为提取主色的区域使用的方式将判别结果输出到主色提取部2044。
返回图22,颜色空间矢量生成部2043b将区域提取部2341输出的图像数据转换成预先设定的颜色空间的矢量。预先设定的颜色空间是例如HSV。颜色空间矢量生成部2043b按所生成的颜色矢量对图像数据的全部像素进行分类,并检测每个颜色矢量的频率,生成颜色矢量的频率分布。
颜色空间矢量生成部2043b将表示所生成的颜色矢量的频率分布的信息输出到主色提取部2044。
然后,关于摄像装置2100的图像处理部2004b进行的标签生成处理,使用图23进行说明。图23是本实施方式的摄像装置2100进行的标签生成的流程图。摄像装置2100与第3实施方式同样地进行步骤S2001。步骤S2001结束后,进入步骤S2101。
(步骤S2101)然后,图像处理部2004b的图像取得部2041b通过总线2015从存储介质2200读出摄像部2002拍摄的图像数据和与图像数据附带关联地存储的图像识别信息。
然后,图像取得部2041b将取得的图像数据输出到区域提取部2341和颜色空间矢量生成部2043b。然后,图像取得部2041b将取得的图像识别信息输出到图像识别信息取得部2042b。步骤S2101结束后,进入步骤S2003。
(步骤S2003)图像处理部2004b与第3实施方式同样地进行步骤S2003。步骤S2003结束后,进入步骤S2102。
(步骤S2102)然后,区域提取部2341基于图像识别信息取得部2042b输出的摄影信息,从图像识别信息取得部2042b输出的图像数据,使用预先设定的方法对提取主色的区域进行提取。
然后,区域提取部2341从图像识别信息取得部2042b输出的图像数据,提取所提取的提取主色的区域的图像数据,将所提取的区域的图像数据输出到颜色空间矢量生成部2043b。步骤S2102结束后,进入步骤S2103。
(步骤S2103)然后,颜色空间矢量生成部2043b将区域提取部2341输出的区域的图像数据转换成预先设定的颜色空间的矢量。然后,颜色空间矢量生成部2043b按所生成的颜色矢量对图像数据的全部像素进行分类,并检测每个颜色矢量的频率,生成颜色矢量的频率分布。然后,颜色空间矢量生成部2043b将表示所生成的颜色矢量的频率分布的信息输出到主色提取部2044。步骤S2103结束后,进入步骤S2005。
以下,图像处理部2004b与第3实施方式同样地进行步骤S2005~S2009。
如上所述,图像处理部2004b从所拍摄的图像数据,基于场景等的摄影信息,对提取主色的区域进行提取。而且,图像处理部2004b基于从提取主色的区域的图像数据中提取的3个主色,与第3实施方式同样地生成标签。其结果为,图像处理部2004b从与场景相应的区域的图像数据提取主色,基于所提取的区域的主色生成标签,从而与第3实施方式和第4实施方式相比,能够生成对于更加适于场景的图像数据来说最佳的标签。
(第6实施方式)
在第3实施方式~第5实施方式中,说明了从由使用者选择的图像数据中将3个颜色作为主色来选择的例子。在本实施方式中,说明从所选择的图像数据中选择3个以上的颜色的例子。此外,关于图像处理部2004的结构与第3实施方式(图10)相同的情况进行说明。
图24是用于说明从本实施方式的图像数据提取多个颜色矢量的一例的图。在图24中,横轴表示颜色矢量,纵轴表示频率。
在图24中,以主色提取部2044与图16B同样地提取第1色的颜色矢量c2021、第2色的颜色矢量c2022、第3色的颜色矢量c2023来进行说明。
在图24中,颜色矢量c2024、c2025、c2026的频率为预先设定的范围内的情况下,主色提取部2044作为第4主色而提取颜色矢量c2024、c2025、c2026。该情况下,在表格存储部2045中预先存储除了图12中说明的第1色~第3色以外还包含第4色等的按场景的标签。
然后,在第4色被提取的情况下,主色提取部2044读出存储在表格存储部2045中的第1色~第4色的组合的第1标签,并提取所存储的第1标签。在第1色~第4色的组合的第1标签存储有多个的情况下,主色提取部2044可以例如选择最先从表格存储部2045读出的第1标签,或者也可以随机选择。
另外,主色提取部2044也可以从所提取的4个颜色中,将3个颜色选择为主色。该情况下,主色提取部2044可以算出所提取的4个颜色的近似度,将近似度低的3个颜色作为主色算出。关于颜色的近似度,例如,在图24中,假设颜色矢量c2022~c2025这4个颜色矢量作为第1色~第4色被提取来进行说明。主色提取部2044将所提取的4个颜色从8比特的颜色空间减色到例如7比特的颜色空间。减色之后,例如,在判别为颜色矢量c2024和c2025是相同的颜色的情况下,主色提取部2044将颜色矢量c2024和c2025判别为是近似色。然后,主色提取部2044作为第3主色而选择颜色矢量c2024和c2025中的任意一方。该情况下,在图24的频率分布中,主色提取部2044也可以选择第1色的颜色矢量c2022、第2色的颜色矢量c2023和在横轴方向上离开的距离较大一方的颜色矢量,还可以随机选择。
另外,即使减色到7比特的颜色空间,4个颜色矢量也是分离的情况下,颜色空间矢量生成部2043进行减色直到将4个颜色矢量整合到3个颜色矢量。
如上所述,由于预先按作为摄影信息的场景将4个以上的主色和第1标签存储在表格存储部2045中,从图像数据提取4个以上颜色的主色,基于所提取的主色和场景生成标签,从而与第3实施方式~第5实施方式相比,能够生成进一步最适于图像数据的标签。
即,在本实施方式中图像处理部2004从将图像数据转换成颜色空间的颜色矢量中,提取频率多的4个颜色,并提取预先与所提取的4个颜色附带对应关系地存储的第1标签。对于所提取的4个主颜色矢量,预先按摄影信息、例如场景、时刻和季节与第1标签附带对应关系地存储,从而即使从图像数据提取的主色相同,图像处理部2004也能够按场景、时刻和季节而生成不同的第1标签。而且,图像处理部2004对4个主色的频率进行标准化,与频率最多的第1色的比例相应地,对于所生成的第1标签附加强调第1标签的第2标签并生成标签。其结果为,与第3实施方式~第5实施方式相比,图像处理部2004基于4个主色而能够生成进一步最适于图像数据的标签。
另外,图像处理部2004从所提取的4个主色中,通过减色等提取3个主色,对于所提取的3个主色,与第3实施方式同样地进行标签生成处理。其结果为,即使是颜色矢量的频率差异小的图像数据,图像处理部2004也能够生成最适于图像数据的标签。
另外,在本实施方式中,说明了从图像数据提取4个主色的例子,但所提取的主色不限于4个颜色,也可以为4以上。该情况下,可以将与所提取的主色的色数相应的第1标签预先存储在表格存储部2045中。另外,例如,提取5种颜色的主色的情况下,主色提取部2044可以如上所述地进行减色并整合成近似色,再从所提取的多个主色中提取3个主色。另外,例如提取6个颜色的主色的情况下,主色提取部2044首先按频率从大到小的顺序分离成第1色~第3色的第1组和剩余的第4色~第6色的第2组。此外,第4色的像素数比第3色少但比第5色多,第5色的像素数比第4色少。
然后,第1标签生成部2046提取与第1组对应的第1标签和与第2组对应的第1标签。而且,第1标签生成部2046关于像这样提取的2个第1标签,可以与第3实施方式同样地根据第1色的频率使用修饰标签来修饰第1标签,或者根据第4色的频率使用修饰标签修饰第1标签,由此修正并生成多个标签。或者,第2标签生成部2047可以整合像这样生成的多个标签而生成一个标签。具体来说,在第1组的标签是“非常清爽的”、第2组的标签是“有点儿孩子气的”的情况下,第2标签生成部2047也可以生成“非常清爽的,有点儿孩子气的”这样的标签。在生成这样的2个标签的情况下,为了确认在第2标签生成部2047内先配置2个标签的哪一方才能够生成适当的标签,第2标签生成部2047可以具有未图示的进行语言解析处理的处理功能部。
另外,在第3实施方式~第6实施方式中,说明了对一个图像数据生成一个标签的例子,但生成的标签也可以是2个以上。该情况下,颜色空间矢量生成部2043(所包含的2043b)例如在图17A的图像数据中分割成上半部分和下半部分并按分割的区域生成颜色矢量的频率分布。主色提取部2044从所分割的每个区域的颜色矢量的频率分布,每三种颜色地提取各自的主色。然后,第1标签生成部2046可以从表格存储部2045提取按区域的标签。而且,标签输出部2048也可以将像这样生成的多个标签与图像数据附带关联地存储在存储介质2200中。
此外,在第3实施方式~第5实施方式中,说明了按场景将三种颜色的主色和第1标签附带关联地预先存储在表格存储部2045中的例子,但也可以例如按场景将单色和第1标签附带关联地存储在表格存储部2045中。该情况下,可以如第3实施方式中说明的那样,在表格存储部2045中预先按场景附带关联地存储三种颜色的主色和第1标签,而且,预先按场景附带关联地存储单色和第1标签。
通过这样的处理,对于图像数据是单色调、主色只能提取1个颜色那样的图像数据,也能够生成适当的标签。该情况下,例如也可以为,图像处理部2004(2004a、2004b)如第6实施方式那样将4个颜色作为主色检测,作为第1色~第3色的第1组、仅剩余的第4色的单色,从表格存储部2045读出标签。
另外,在图像数据的色调是单色调,主色仅能够提取2个颜色的情况下,例如,第1标签生成部2046读出所提取的2个主色(第1色和第2色)的各第1标签。然后,第2标签生成部2047可以基于所提取的2个主色的频率,对2个主色进行标准化,并基于第1色的比例对于第1色的标签生成修饰标签,使用所生成的修饰标签修饰并修正第1色的第1标签,由此生成第1色的第2标签。或者,第2标签生成部2047也可以生成像这样生成的第1色的第1标签和第2色的第1标签这2个标签,或者还可以整合第1色的第1标签和第2色的第1标签而生成一个标签。
另外,在第3实施方式~第6实施方式中,说明了从存储介质2200读出由使用者选择的图像数据的例子,但在存储介质2200中存储了RAW格式(RAW)数据和JPEG(Joint Photographic Experts Group:联合图象专家组)数据的情况下,标签生成处理所使用的图像数据可以使用RAW数据和JPEG数据中的任意一方。另外,在存储介质2200中存储了用于向显示部2007显示的缩小的缩略图(thumbnail)图像数据的情况下,也可以使用该缩略图图像数据生成标签。另外,即使缩略图图像数据没有存储在存储介质中,颜色空间矢量生成部2043(所含有的2043b)也可以生成将图像取得部2041(所含有的2041a、2041b)输出的图像数据的分辨率缩小到预先设定的分辨率的图像数据,并从该缩小的图像数据提取颜色矢量的频率或主色。
此外,可以将用于实现实施方式的图10的图像处理部2004、图21的图像处理部2004a或图22的图像处理部2004b的各部的功能的程序存储在计算机能够读取的存储介质中,并将存储在该存储介质中的程序读入计算机系统来执行,由此进行各部的处理。另外,上述程序可以实现前述功能的一部分,也可以进一步通过与已存储在计算机系统中的程序组合来实现前述的功能。
(第7实施方式)
本实施方式的摄像装置的功能框图与第2实施方式的图8所示的相同。
以下,关于与第2实施方式不同的部分进行详细说明。
图25是表示本实施方式的图像处理部3140(图8中的图像处理部1140)的功能性结构的框图。
图像处理部(图像处理装置)3140包括图像输入部3011、文本输入部3012、第1位置输入部3013、边缘检测部3014、面部检测部3015、文字大小决定部3016、成本算出部3017、区域决定部3018和合成部3019。
图像输入部3011输入静态图像的图像数据或动态图像的图像数据。图像输入部3011将输入的图像数据输出到边缘检测部3014及文字大小决定部3016。此外,图像输入部3011也可以例如通过网络或存储介质输入图像数据。以下,将输入到图像输入部3011的图像数据所表示的图像作为输入图像。另外,将输入图像中的四边形的图像格式的宽度方向作为X轴方向,将相对于X轴方向正交的方向(高度方向)作为Y轴方向,由此确定XY坐标系。
文本输入部3012输入与输入图像对应的文本数据。与输入图像对应的文本数据是指与要重叠于输入图像的文本相关的数据,包括文本、初始文字大小、改行位置、行数及列数等。初始文字大小是文本的文字的大小的初始值,是由用户指定的文字的大小。文本输入部3012将所输入的文本数据输出到文字大小决定部3016。
第1位置输入部3013受理输入图像中的重要的位置(以下称为重要位置(第1位置))的输入。例如,第1位置输入部3013将输入图像显示在显示部1150,将在设置于显示部1150的触摸面板中由用户指定的位置作为重要位置。或者,第1位置输入部3013也可以直接受理重要位置的坐标值(x0,y0)的输入。第1位置输入部3013将重要位置的坐标值(x0,y0)输出到成本算出部3017。此外,第1位置输入部3013在没有从用户进行重要位置的输入的情况下,将预先设定的规定位置(例如,输入图像的中央)作为重要位置。
边缘检测部3014使用例如Canny算法,检测从图像输入部3011输入的图像数据中的边缘。然后,边缘检测部3014将图像数据和表示从该图像数据检测到的边缘的位置的数据输出到成本算出部3017。此外,在本实施方式中,使用Canny算法检测边缘,但也可以采用例如基于使用了微分滤波器的边缘检测方法或进行了二次傅里叶变换的结果中的高频分量来检测边缘的方法等。
面部检测部3015通过模式匹配(pattern matching)等检测从图像输入部3011输入的图像数据中的人物的面部。然后,面部检测部3015将图像数据和表示从该图像数据检测到的人物的面部的位置的数据输出到成本算出部3017。
文字大小决定部3016基于从图像输入部3011输入的图像数据的图像大小(宽度及高度)和从文本输入部3012输入的文本数据的行数及列数,决定文本数据的文字大小。具体来说,文字大小决定部3016以能将文本数据中的全部文本合成为图像数据的方式,将满足下式(5)的f作为文字大小。
【数式3】
f×m<w且f{l+(l-1)L}<h…(5)
其中,m是文本数据的列数,l是文本数据的行数。另外,L(≥0)是表示行间相对于文字大小的比例的参数。另外,w是图像数据中的图像区域的宽度,h是图像数据中的图像区域的高度。式(5)表示文本的宽度比图像数据中的图像区域的宽度小、且文本的高度比图像数据中的图像区域的高度小的情况。
例如,文字大小决定部3016在文本数据所含有的初始文字大小不满足式(5)的情况下,逐渐缩小文字大小,直到满足式(5)。另一方面,文字大小决定部3016在文本数据所含有的初始文字大小满足式(5)的情况下,将文本数据所含有的初始文字大小作为文本数据的文字大小。然后,文字大小决定部3016将文本数据和该文本数据的文字大小输出到区域决定部3018。
成本算出部3017基于图像数据中的边缘的位置、人物的面部的位置和重要位置,算出图像数据中的各坐标位置(x,y)的成本。成本表示图像数据中的重要度。例如,成本算出部3017以由边缘检测部3014检测出的边缘的某位置的成本变高的方式算出各位置的成本。另外,成本算出部3017使成本越接近重要位置越高,越远离重要位置越低。另外,成本算出部3017使人物的面部所在区域的成本增高。
具体来说,首先,成本算出部3017通过例如下式(6)所示的高斯函数,生成表示基于重要位置(x0,y0)的成本的全局成本图像cg(x,y)。
【数式4】
c g ( x , y ) = exp [ - 1 S 1 ( x - x 0 ) 2 - 1 S 2 ( y - y 0 ) 2 ] . . . ( 6 )
其中,x0是重要位置的X坐标值,y0是重要位置的Y坐标值。另外,S1(>0)是决定宽度方向(X轴方向)上的成本增大方式的参数,S2(>0)是决定高度方向(Y轴方向)上的成本增大方式的参数。参数S1及参数S2能够通过例如设定画面等由用户设定。通过变更参数S1及参数S2,能够调整全局成本图像中的分布的方式。此外,在本实施方式中,通过高斯函数生成全局成本图像,但也可以使用例如余弦函数((cos(πx)+1)/2,其中-1≤x≤1)或以在原点x=0取最大值的三角形(山型)的直线来表示的函数或洛伦兹函数(1/(ax2+1),a是常数)等、越接近中心值越大的分布的函数来生成全局成本图像。
然后,成本算出部3017通过下式(7)及(8),生成表示基于人物面部位置的成本的面部成本图像cf(x,y)。
【数式5】
Figure BDA0000465741540000582
【数式6】
x ± = x ( i ) ± s ( i ) 2 , y ± = y ( i ) ± s ( i ) 2 . . . ( 8 )
其中,(x(i),y(i))是所检测的n个面部中的第i(1≤i≤n)个面部的中心位置,s(i)是该第i个面部的大小。即,成本算出部3017生成使人物的面部的区域中的像素值为“1”、且使面部以外的区域中的像素值为“0”的面部成本图像。
然后,成本算出部3017通过下式(9),生成表示基于边缘的成本的边缘成本图像ce(x,y)。
【数式7】
Figure BDA0000465741540000591
即,成本算出部3017生成使边缘部分的像素值为“1”、且使边缘以外的区域的像素值为“0”的边缘成本图像。此外,边缘部分也可以是具有边缘的位置,也可以是具有边缘的位置及包含其周边的区域。
然后,成本算出部3017通过下式(10),生成基于全局成本图像、面部成本图像和边缘成本图像的最终成本图像c(x,y)。
【数式8】
c ( x , y ) = C g c g ( x , y ) + C f c f ( x , y ) + C e c e ( x , y ) C g + C f + C e . . . ( 10 )
其中,Cg(≥0)是全局成本图像的加权系数的参数,Cf(≥0)是面部成本图像的加权系数的参数,Ce(≥0)是边缘成本图像的加权系数的参数。参数Cg、参数Ce及参数Cf之比能够通过设定画面等由用户设定变更。另外,式(10)所示的最终成本图像c(x,y)以成为0≤c(x,y)≤1的方式被标准化。成本算出部3017将图像数据和该图像数据的最终成本图像输出到区域决定部3018。此外,参数Cg、参数Ce及参数Cf也可以是1以下。
此外,图像处理部3140也可以根据输入图像自动地变更参数Cg、参数Ce及参数Cf之比。例如,在输入图像是风景图像的情况下,使参数Cg比其他参数大。另外,在输入图像是肖像(人物图像)的情况下,使参数Cf比其他参数大。另外,在输入图像是大厦等的建筑物较多的建筑物图像的情况下,使参数Ce比其他参数大。具体来说,成本算出部3017在通过面部检测部3015检测到人物的面部的情况下,将输入图像判定为肖像,使参数Cf比其他参数大。另一方面,成本算出部3017在通过面部检测部3015没有检测到人物的面部的情况下,将输入图像判定为风景图像,使参数Cg比其他参数大。另外,成本算出部3017在通过边缘检测部3014检测出的边缘比规定值大的情况下,将输入图像判定为建筑物图像,使参数Ce比其他参数大。
或者,图像处理部3140也可以具有风景图像的模式、肖像的模式及建筑物图像的模式,根据当前图像处理部3140中设定的模式来变更参数Cg、参数Ce及参数Cf之比。
另外,成本算出部3017在图像数据为动态图像的情况下,按坐标位置算出动态图像的图像数据所含有的多个帧图像的成本的平均值。具体来说,成本算出部3017以规定时间(例如,3秒)间隔取得动态图像的帧图像,按所取得的帧图像生成最终成本图像。而且,成本算出部3017生成对各帧图像的最终成本图像进行了平均的平均最终成本图像。平均最终成本图像中的各位置的像素值是各最终成本图像中的各位置的像素值的平均值。
此外,在本实施方式中,算出多个帧图像的成本的平均值,但也可以算出例如合计值。
区域决定部3018基于由成本算出部3017输入的最终成本图像和由文字大小决定部3016输入的文本数据的文字大小,决定合成图像数据中的文本的合成区域。具体来说,首先,区域决定部3018基于文本数据的行数、列数和文字大小,算出要显示文本的矩形区域即文本矩形区域的宽度wtext和高度htext。文本矩形区域是与合成区域对应的区域。接着,区域决定部3018通过下式(11),算出各坐标位置(x,y)处的文本矩形区域内的成本的总和c text(x,y)。
【数式9】
c text * ( x , y ) = Σ u = 0 w text - 1 Σ v = 0 h text - 1 c ( x + u , y + v ) . . . ( 11 )
然后,区域决定部3018将文本矩形区域内的成本的总和c text(x,y)成为最小的坐标位置(x,y)作为文本的合成位置。即,区域决定部3018将文本矩形区域内的成本的总和c text(x,y)最小的坐标位置(x,y)成为左上顶点的文本矩形区域作为文本的合成区域。区域决定部3018将图像数据、文本数据和表示文本的合成区域的数据输出到合成部3019。此外,在本实施方式中,区域决定部3018基于文本矩形区域内的成本的总和(合计值)来决定合成区域,但也可以例如将文本矩形区域内的成本的平均值最小的区域作为合成区域。或者,区域决定部3018也可以将对文本矩形区域的中心的权重进行了增大的成本的加权平均值最小的区域作为合成区域。
合成部3019将图像数据、文本数据和表示文本的合成区域的数据作为输入。合成部3019生成并输出将文本数据的文本重叠地合成在图像数据的合成区域而成的合成图像的图像数据。
图26A~26F是表示本实施方式的输入图像、成本图像、合成图像的一例的印象图。
图26A表示输入图像。图26B表示全局成本图像。在图26B所示的例子中,输入图像的中心是重要位置。如图26B所示,全局成本图像的像素值越接近中心而越接近“1”,越远离中心而越接近“0”。图26C表示面部成本图像。如图26C所示,关于面部成本图像的像素值,人的面部的区域为“1”,人的面部以外的区域为“0”。图26D表示边缘成本图像。如图26D所示,关于边缘成本图像的像素值,边缘部分为“1”,边缘部分以外的区域为“0”。
图26E表示组合全局成本图像、面部成本图像和边缘成本图像而成的最终成本图像。图26F表示将文本重叠在输入图像上而合成的合成图像。如图26F所示,文本数据的文本被重叠在最终成本图像中的成本的总和较小的区域。
以下,参照图27,说明图像处理部3140对静态图像的合成处理。
图27是表示本实施方式的静态图像的合成处理的顺序的流程图。
首先,在步骤S3101中,图像输入部3011受理静态图像的图像数据(以下,称为静态图像数据)的输入。
然后,在步骤S3102中,文本输入部3012受理与所输入的静态图像数据对应的文本数据的输入。
然后,在步骤S3103中,第1位置输入部3013受理所输入的静态图像数据中的重要位置的输入。
接着,在步骤S3104中,文字大小决定部3016基于所输入的静态图像数据的大小和所输入的文本数据的行数及列数,决定文本数据的文字大小。
然后,在步骤S3105中,面部检测部3015检测所输入的静态图像数据中的人物的面部的位置。
然后,在步骤S3106中,边缘检测部3014检测所输入的静态图像数据中的边缘的位置。
接着,在步骤S3107中,成本算出部3017基于被指定(输入)的重要位置而生成全局成本图像。即,成本算出部3017生成越接近重要位置成本越高、越远离重要位置成本越低的全局成本图像。
然后,在步骤S3108中,成本算出部3017基于被检测出的人物的面部的位置,生成面部成本图像。即,成本算出部3017生成人物的面部的区域的成本高、且人物的面部以外的区域的成本低的面部成本图像。
然后,在步骤S3109中,成本算出部3017基于被检测出的边缘的位置,生成边缘成本图像。即,成本算出部3017生成边缘部分的成本高、且边缘以外的区域的成本低的边缘成本图像。
接着,在步骤S3110中,成本算出部3017组合所生成的全局成本图像、面部成本图像和边缘成本图像,而生成最终成本图像。
然后,在步骤S3111中,区域决定部3018基于所生成的最终成本图像和所决定的文本数据的文字大小,来决定静态图像数据中的文本的合成区域。
最后,在步骤S3112中,合成部3019将文本数据的文本重叠在所决定的合成区域,而合成静态图像数据和文本数据。
然后,参照图28说明图像处理部3140对动态图像的合成处理。图28是表示本实施方式的动态图像的合成处理的顺序的流程图。
首先,在步骤S3201中,图像输入部3011受理动态图像的图像数据(以下,称为动态图像数据)的输入。
然后,在步骤S3202中,文本输入部3012受理与被输入的动态图像数据对应的文本数据的输入。
然后,在步骤S3203中,第1位置输入部3013受理被输入的动态图像数据中的重要位置的指定。
接着,在步骤S3204中,文字大小决定部3016基于动态图像数据的大小和文本数据的行数及列数,来决定文本数据的文字大小。
然后,在步骤S3205中,成本算出部3017从动态图像数据取得最初的帧图像。
接着,在步骤S3206中,面部检测部3015检测所取得的帧图像中的人物的面部的位置。
然后,在步骤S3207中,边缘检测部3014检测所取得的帧图像中的边缘的位置。
接着,在步骤S3208~步骤S3211中,成本算出部3017进行与图27的步骤S3107~步骤S3110同样的处理。
然后,在步骤S3212中,成本算出部3017判定当前的帧图像是否是动图像数据中的最后的帧图像。
在当前的帧图像不是最后的帧图像的情况下(步骤S3212:否),在步骤S3213中,成本算出部3017从动图像数据取得从当前的帧图像起经过了规定时间t秒(例如3秒)后的帧图像,并返回步骤S3206。
另一方面,在当前的帧图像是动图像数据中的最后的帧的情况下(步骤S3212:是),在步骤S3214中,成本算出部3017生成对各帧图像的最终成本图像进行了平均的平均最终成本图像。平均最终成本图像中的各坐标位置的像素值是各帧图像的最终成本图像中的各坐标位置的像素值的平均值。
然后,在步骤S3215中,区域决定部3018基于所生成的平均最终成本图像和所决定的文本数据的文字大小,来决定动态图像数据中的文本的合成区域。
最后,在步骤S3216中,合成部3019将文本数据的文本重叠在所决定的合成区域,而合成动态图像数据和文本数据。
此外,在本实施方式中,基于平均最终成本图像决定动态图像数据整体中的合成区域,但也可以按动态图像数据的规定时间决定合成区域。例如,图像处理部3140将基于最初的帧图像的合成区域r1作为从0秒到t-1秒的帧图像的合成区域,将基于t秒的帧图像的合成区域r2作为从t秒到2t-1秒的帧图像的合成区域,以下,同样地决定各帧图像的合成区域。由此,能够根据动态图像数据中的被摄物体的运动,将文本合成在最佳位置。
像这样,根据本实施方式,图像处理部3140基于表示图像数据中的与边缘相关的成本的边缘成本图像,决定合成文本的合成区域。由此,能够将文本合成在边缘较少的区域(即,不存在复杂的纹理的区域)。由此,由于能够防止文本显示所使用的字体的轮廓和纹理的边缘重合,所以能够以阅览者容易阅读文本的方式将文本合成在输入图像中。
另外,存在如下情况:在固定了显示文本的位置的情况下,根据输入图像的内容和文本的分量,文本与被摄物体或关注的人物、物体、背景等重合,使输入图像本来的印象变差。由于本实施方式的图像处理部3140基于表示图像数据中的与人物的面部相关的成本的面部成本图像来决定合成文本的合成区域,所以能够将文本合成在人物的面部以外的区域。另外,由于图像处理部3140基于表示图像数据中的与重要位置相关的成本的全局成本图像来决定合成文本的合成区域,所以能够将文本合成在从重要位置离开的区域。例如,在大量的图像中,由于在中央部分存在被摄物体,通过将中央部分作为重要位置,从而能够将文本合成在被摄物体以外的区域。另外,在本实施方式的图像处理部3140中,由于用户能够指定重要位置,所以在例如输入图像A中,将中央部分作为重要位置,在输入图像B中,将端部分作为重要位置等,能够按输入图像变更重要位置。
另外,根据本实施方式,图像处理部3140基于组合全局成本图像、面部成本图像和边缘成本图像而成的最终成本图像,来决定合成文本的合成区域,从而能够综合地将文本合成在最佳位置。
然而,存在如下情况:在固定了文字大小的情况下,根据输入图像的图像大小,文本相对于图像数据的相对大小极端地变化,有时对于阅览者来说成为不适当的文本显示。例如,在文本数据的文字大小相对于输入图像相对大的情况下,存在没有将全部的文本收纳于输入图像内而读取不到文本的情况。根据本实施方式,由于图像处理部3140根据输入图像的图像大小来变更文本数据的文字大小,所以能够将文本整体收敛于输入图像内。
另外,根据本实施方式,图像处理部3140对于动态图像的图像数据也能够合成文本。由此,例如,能够应用于在播放或通过互联网等发布来再现动态图像的过程中,动态地将来自用户的评价显示在图像中的服务等。另外,由于图像处理部3140使用多个帧图像的平均最终成本图像来决定合成区域,所以能够考虑到动态图像整体中的被摄物体的运动来综合地将文本合成在最佳区域。
(第8实施方式)
以下,关于本发明的第8实施方式的图像处理部(图像处理装置)3140a进行说明。
图29是表示本实施方式的图像处理部3140a的功能性结构的框图。在本图中,对与图25所示的图像处理部3140相同的部分标注相同的附图标记,并省略其说明。图像处理部3140a除了图25所示的图像处理部3140的结构以外,还具有第2位置输入部3021。
第2位置输入部3021受理在图像数据中合成文本的位置(以下,称为文本位置(第2位置))的输入。例如,第2位置输入部3021将被输入到图像输入部3011的图像数据显示在显示部1150,在设置于显示部1150的触摸面板中,将由用户指定的位置作为文本位置。或者,第2位置输入部3021也可以直接受理文本位置的坐标值(x1,y1)的输入。第2位置输入部3021将文本位置的坐标值(x1,y1)输出到成本算出部3017a。
成本算出部3017a基于通过第2位置输入部3021输入的文本位置(x1,y1)、图像数据中的边缘的位置、人物的面部的位置和重要位置,算出图像数据中的各坐标位置(x,y)的成本。具体来说,成本算出部3017a组合表示基于文本位置(x1,y1)的成本的文本位置成本图像、全局成本图像、面部成本图像和边缘成本图像而生成最终成本图像。全局成本图像、面部成本图像及边缘成本图像的生成方法与第7实施方式相同。
成本算出部3017a通过下式(12)生成文本位置成本图像ct(x,y)。
【数式10】
c t ( x , y ) = 1 - exp [ - 1 S 3 ( x - x 1 ) 2 - 1 S 4 ( y - y 1 ) 2 ] . . . ( 12 )
其中,S3(>0)是决定宽度方向(X轴方向)上的成本扩大方式的参数,S4(>0)是决定高度方向(Y轴方向)上的成本扩大方式的参数。文本位置成本图像是越接近文本位置(x1,y1)成本越低、越远离文本位置成本越高的图像。
然后,成本算出部3017a通过下式(13)生成最终成本图像c(x,y)。
【数式11】
c ( x , y ) = C g c g ( x , y ) + C f c f ( x , y ) + C e c e ( x , y ) + C t c t ( x , y ) C g + C f + C e + C t . . . ( 13 )
其中,Ct(≥0)是文本位置成本图像的加权系数的参数。
式(13)是将式(10)的分母加上Ct并将分子加上Ctct(x,y)而得到的式子。此外,成本算出部3017a在没有通过第2位置输入部3021指定文本位置的情况下,不生成文本位置成本图像,通过上述式(10)生成最终成本图像。另外,成本算出部3017a在没有通过第2位置输入部3021指定文本位置的情况下,参数Ct=0。
另外,成本算出部3017a在图像数据为动态图像的情况下,按坐标位置算出动态图像的图像数据所含有的多个帧图像的成本的平均值。具体来说,成本算出部3017a以规定时间(例如,3秒)间隔取得动态图像的帧图像,按所取得的帧图像生成最终成本图像。然后,成本算出部3017a生成对各帧图像的最终成本图像进行平均的平均最终成本图像。
以下,参照图30说明图像处理部3140a进行的合成处理。图30是表示本实施方式的合成处理的顺序的流程图。
步骤S3301至S3303所示的处理与上述的步骤S3101至S3103所示的处理相同。
接着步骤S3303,在步骤S3304中,第2位置输入部3021受理被输入的图像数据中的文本位置的指定。
步骤S3305至S3307所示的处理与上述的步骤S3104至S3106所示的处理相同。
接着步骤S3307,在步骤S3308中,成本算出部3017a基于被指定的文本位置生成文本位置成本图像。
步骤S3309至S3311所示的处理与上述的步骤S3107至S3109所示的处理相同。
接着步骤S3311,在步骤S3312中,成本算出部3017a组合文本位置成本图像、全局成本图像、面部成本图像和边缘成本图像而生成最终成本图像。
然后,在步骤S3313中,区域决定部3018基于所生成的最终成本图像和所决定的文本数据的文字大小,决定图像数据中的文本的合成区域。
最后,在步骤S3314中,合成部3019将文本数据的文本重叠在所决定的合成区域,并合成图像数据和文本数据。
此外,在本实施方式中,在第2位置输入部3021中指定了文本位置,但也可以指定例如想要合成文本的区域。该情况下,成本算出部3017a生成使所指定的区域的像素值为“0”、且使除此以外的区域的像素值为“1”的文本位置成本图像。即,成本算出部3017a降低所指定的区域的成本。
像这样,根据本实施方式,用户能够指定合成文本的位置,图像处理部3140a降低所指定的文本位置的成本并决定合成区域。由此,不仅能够得到与第7实施方式同样的效果,还能够优先地将用户所指定的位置选择为文本数据的合成区域。
(第9实施方式)
以下,关于本发明的第9实施方式的图像处理部(图像处理装置)3140b进行说明。
图31是表示本实施方式的图像处理部3140b的功能性结构的框图。在本图中,对与图25所示的图像处理部3140相同的部分标注相同的附图标记,并省略其说明。图像处理部3140b除了图25所示的图像处理部3140的结构以外还具有第2位置输入部3031。
第2位置输入部3031受理X轴方向(宽度方向)和Y轴方向(高度方向)的任意一方的文本位置(第2位置)的输入。文本位置是指在图像数据中合成文本的位置。例如,第2位置输入部3031将被输入到图像输入部3011的图像数据显示在显示部1150,在设置于显示部1150的触摸面板中将由用户指定的位置作为文本位置。或者,第2位置输入部3031也可以直接受理文本位置的X坐标值x2或Y坐标值y2的输入。第2位置输入部3031将文本位置的X坐标值x2或Y坐标值y2输出到区域决定部3018b。
区域决定部3018b在通过第2位置输入部3031指定了宽度方向的位置x2的情况下,在上述式(11)中使X坐标值固定为x2并求出使c text(x2,y)为最小的Y坐标值ymin。然后,区域决定部3018b将位置(x2,ymin)作为合成位置。
另外,区域决定部3018b在通过第2位置输入部3031指定了高度方向的位置y2的情况下,在上述式(11)中使Y坐标值固定为y2并求出使c text(x,y2)为最小的xmin。然后,区域决定部3018b将位置(xmin,y2)作为合成位置。
以下,参照图32说明图像处理部3140b进行的合成处理。图32是表示本实施方式的合成处理的顺序的流程图。
步骤S3401至S3403的处理与上述的步骤S3101至S3103的处理相同。
接着步骤S3403,在步骤S3404中,第2位置输入部3031受理文本位置的X坐标值x2或Y坐标值y2的输入。
步骤S3405至S3411的处理与上述的步骤S3104至S3110的处理相同。
接着步骤S3411,在步骤S3412中,区域决定部3018b基于所指定的文本位置的X坐标值x2或Y坐标值y2、文本数据的文字大小和最终成本图像,决定图像数据中的文本的合成区域。
最后,在步骤S3413中,合成部3019将文本数据的文本重叠在所决定的合成区域,并合成图像数据和文本数据。
像这样,根据本实施方式,能够指定合成文本的位置的宽度方向或高度方向的坐标。图像处理部3140b将所指定的宽度方向或高度方向的位置中的基于最终成本图像的最佳区域作为合成区域。由此,能够在用户的所期望的区域将文本重叠在最佳区域(例如,文本的可读性高的区域、没有人的面部的区域或重要位置以外的区域)。
另外,也可以将用于实现图27、图28、图30或图32所示的各步骤的程序存储在计算机能够读取的存储介质中,使计算机系统读入存储在该存储介质中的程序并执行,由此进行合成图像数据和文本数据的处理。
另外,上述程序也可以从在存储装置等存储有该程序的计算机系统通过传送介质,或者通过传送介质中的传送波而被传送到其他的计算机系统。
另外,上述程序也可以用于实现前述的功能的一部分。
而且,也可以是与已存储在计算机系统中的程序组合来实现前述功能的所谓的差分文件(差分程序)。
另外,在上述实施方式中,将图像数据中的全部区域作为合成区域的候选,但也可以考虑到图像数据的空白,将空白以外的区域作为合成区域的候选。该情况下,文字大小决定部3016将满足以下的式(14)的f作为文字大小。
【数式12】
f×m<w-2M1且f{l+(l-1)L}<h-2M2…(14)
其中,M1是表示宽度方向的空白的大小的参数,M2是表示高度方向的空白的大小的参数。此外,参数M1和参数M2可以是相同的值(M1=M2=M)。成本算出部3017、3017a生成在图像数据中除了空白以外的区域的最终成本图像。另外,区域决定部3018、3018b从除了空白以外的区域(M1<x<w-M1,M2<y<h-M2)选择合成区域。
另外,在本实施方式中,通过第1位置输入部3013输入重要位置,但也可以将预先设定的规定位置(例如,图像数据的中央)作为重要位置来生成全局成本图像。例如,在将图像数据的中央作为重要位置的情况下,成本算出部3017、3017a通过下式(15)来生成全局成本图像。
【数式13】
c g ( x , y ) = exp [ - 1 S { ( x - w 2 ) 2 + ( y - h 2 ) 2 } ] . . . ( 15 )
其中,S(>0)是决定成本扩大方式的参数。
另外,在重要位置被预先决定的情况下,由于全局成本图像根据图像大小决定,所以也可以按图像大小预先准备全局成本图像并存储在存储部1160。成本算出部3017、3017a从存储部1160读出与输入图像的图像大小相应的全局成本图像来生成最终成本图像。由此,不需要按将文本数据合成为图像数据的每次处理来生成全局成本图像,从而整体的处理时间被缩短。
另外,在上述实施方式中,生成基于人物的面部的区域的面部成本图像,但也可以生成基于任意的特征量(例如,物体或动物等)的成本图像。该情况下,成本算出部3017、3017a生成特征量的区域的成本较高的特征量成本图像。例如,成本算出部3017、3017a生成使由物体识别等检测到的特征量的区域的像素值为“1”、且使其他的区域的像素值为“0”的特征量成本图像。然后,成本算出部3017基于特征量成本图像生成最终成本图像。
另外,区域决定部3018、3018b可以在算出文本矩形区域内的成本的总和c text(x,y)之前,通过下式(16),预先对于全部坐标位置(x,y)生成微分图像。
【数式14】
c ′ ( x , y ) = Σ u = 0 x Σ v = 0 y c ( u , v ) . . . ( 16 )
该情况下,区域决定部3018、3018b通过下式(17)算出文本矩形区域内的成本的总和c text(x,y)。
【数式15】
x text * ( x , y ) = c ′ ( x + w text , y + h text ) - c ′ ( x + w text , y ) - c ′ ( x , y + h text ) - c ′ ( x , y ) . . . ( 17 )
图33是表示文本矩形区域内的成本的总和的算出方法的印象图。
如本图所示,使用式(17)时,能够通过4次计算来算出文本矩形区域内的成本的总和c text(x,y)。由此,与通过上述式(11)算出文本矩形区域内的成本的总和c text(x,y)的情况相比,能够缩短处理时间。
(第10实施方式)
本实施方式的摄像装置的功能框图与第2实施方式的图8所示的相同。
以下,关于与第2实施方式不同的部分进行详细说明。
图34是表示本发明的第10实施方式的图像处理部(图像处理装置)4140(图8中的图像处理部1140)的功能性结构的框图。
如图34所示,本实施方式的图像处理部4140包括图像输入部4011、文本设定部4012、文本合成区域设定部4013、字体设定部4014、合成图像生成部4015和存储部4016而构成。
字体设定部4014包括字体颜色设定部4021而构成。
图像输入部4011输入静态图像、动态图像或实时取景的图像数据。图像输入部4011将所输入的图像数据输出到文本设定部4012。
这里,图像输入部4011输入例如从A/D转换部1120输出的图像数据、存储在缓冲存储器部1130中的图像数据或存储在存储介质1200中的图像数据。
此外,作为其他例,图像输入部4011也可以采用通过网络(未图示)输入图像数据的结构。
文本设定部4012被从图像输入部4011输入图像数据,并设定与该图像数据重叠(合成)的文本的数据。文本设定部4012将该图像数据和所设定的文本的数据输出到文本合成区域设定部4013。
此外,在该文本的数据中也可以包含例如构成文本的文字的大小的信息等。
这里,作为对于图像数据设定与该图像数据重叠的文本的数据的方法,也可以使用任意的方法。
作为一例,也可以预先将固定地设定的文本的数据存储在存储部4016,文本设定部4012从存储部4016读出并设定该文本的数据。
作为其他例,也可以通过文本设定部4012检测并设定由用户操作操作部1180而指定的文本的数据。
另外,作为其他例,也可以预先将基于图像数据决定文本的数据的规则存储在存储部4016,文本设定部4012从存储部4016读出该规则,并根据该规则,从图像数据决定并设定文本的数据。作为该规则,例如,能够使用用于确定图像数据所具有的规定的特征或规定的特征量等和文本的数据之间的对应关系的规则,该情况下,文本设定部4012对图像数据检测规定的特征或规定的特征量等,根据所述规则(所述对应关系),决定与该检测结果对应的文本的数据。
文本合成区域设定部4013从文本设定部4012输入图像数据和所设定的文本的数据,在该图像数据中设定合成该文本的数据的区域(文本合成区域)。文本合成区域设定部4013将该图像数据、所设定的文本的数据和对所设定的文本合成区域进行特定的信息输出到字体设定部4014。
这里,作为对于图像数据设定合成文本的数据的区域(文本合成区域)的方法,也可以使用任意的方法。
作为一例,也可以预先将固定地设定的文本合成区域存储在存储部4016,文本合成区域设定部4013从存储部4016读出并设定该文本合成区域。
作为其他例,也可以通过文本合成区域设定部4013检测并设定由用户操作操作部1180而指定的文本合成区域。
另外,作为其他例,也可以预先将基于图像数据决定文本合成区域的规则存储在存储部4016,文本合成区域设定部4013从存储部4016读出该规则,根据该规则,从图像数据决定并设定文本合成区域。作为该规则,例如,能够使用以使文本重叠在图像中的相对重要的被摄物体所映现的重要区域以外的非重要区域的方式决定文本合成区域的规则。作为具体例,能够将人物所映现的区域分类成重要区域,使文本重叠在不包含图像的中央的非重要区域中。另外,也可以使用其他的各种规则。
另外,在本实施方式中,文本合成区域设定部4013在例如预先设定的文本的文字的大小大到所设定的文本的整体不能收纳于文本合成区域时,以将所设定的文本的整体收纳于文本合成区域的方式进行减小文本的文字大小的变更。
这里,作为文本合成区域也可以使用各种形状的区域,例如,能够使用由长方形或正方形这样的矩形框围成的内部的区域。作为其他例,作为文本合成区域也可以使用一部分或全部由曲线构成的框围成的内部的区域。
字体设定部4014从文本合成区域设定部4013输入图像数据、所设定的文本的数据和对所设定的文本合成区域进行特定的信息,并基于它们中的1个以上,设定该文本的数据的字体(至少包含字体颜色)。字体设定部4014将该图像数据、所设定的文本的数据、对所设定的文本合成区域进行特定的信息和对所设定的字体进行特定的信息输出到合成图像生成部4015。
这里,在本实施方式中,字体设定部4014主要通过字体颜色设定部4021设定文本的数据的字体颜色。在本实施方式中,字体颜色作为字体之一,包含于字体。
由此,在本实施方式中,关于字体颜色以外的字体,可以是任意的,例如,也可以预先固定地设定。
字体颜色设定部4021基于从文本合成区域设定部4013输入到字体设定部4014的图像数据和文本合成区域,设定从文本合成区域设定部4013输入到字体设定部4014的文本的数据的字体颜色。
此外,在通过字体颜色设定部4021设定字体颜色时,也可以考虑例如从文本合成区域设定部4013输入到字体设定部4014的文本的数据。
合成图像生成部4015从字体设定部4014输入图像数据、所设定的文本的数据、对所设定的文本合成区域进行特定的信息和对所设定的字体进行特定的信息,生成使用该字体(至少包含字体颜色)将该文本的数据合成在该图像数据的该文本合成区域中而成的图像的数据(合成图像的数据)。
然后,合成图像生成部4015将所生成的合成图像的数据输出到例如显示部1150、缓冲存储器部1130或(通过通信部1170)存储介质1200中的1个以上。
此外,作为其他例,也可以采用合成图像生成部4015将所生成的合成图像的数据输出到网络(未图示)的结构。
存储部4016存储各种信息。例如,在本实施方式中,存储部4016存储由文本设定部4012参照的信息、由文本合成区域设定部4013参照的信息、由字体设定部4014(包含字体颜色设定部4021)参照的信息。
以下,关于在字体设定部4014中进行的处理进行详细说明。
在本实施方式中,作为字体仅设定字体颜色,关于其他字体可以是任意的,从而关于通过字体颜色设定部4021进行的字体颜色的设定处理进行说明。
首先,关于颜色的表现方法之一的日本色研配色体系(PCCS表色系:Practical Color Coordinate System表色系)进行简单说明。
PCCS表色系是基于人类的感性来确定色相、亮度、饱和度的表色系。
另外,在PCCS表色系中,具有由亮度和饱和度决定的色调(tone)这样的概念,能够用色调和色相这两个参数表示颜色。
像这样,在PCCS表色系中,除了用颜色的三属性(色相、亮度、饱和度)表示颜色以外,还定义色调的概念并能够用色调和色相表示颜色。
色调对于有彩色设定了12种,对于无彩色设定了5种。
色相通过色调设定了24种或12种。
图41是用灰色标度表示PCCS表色系的色相环的一例的图。
图42是用灰色标度表示PCCS表色系的色调的一例的图。虽然是大概的,但色调的横轴与饱和度对应,色调的纵轴与亮度对应。
此外,图41及图42以彩色示出的图在例如DIC颜色设计株式会社(DIC Color Design,Inc.)的网站主页上公开了。
这里,在图41所示的色相环的例子中,以暖色系1~8、中性色系9~12、冷色系13~19、中性色系20~24的方式定义了24种色相。
另外,在图42所示的色调(PCCS色调图)的例子中,色调对于有彩色设定了12种,对于无彩色设定了5种。另外,在该例中,按每个有彩色的色调,定义了12种色相。
图43是表示12种有彩色的色调的图。
在该例中,示出了色调的名称和色调的符号之间的对应关系。
具体来说,如图43所示,作为12种有彩色的色调,具有鲜艳色调(vivid tone:符号v)、强烈色调(strong tone:符号s)、明亮色调(bright tone:符号b)、浅色调(light tone:符号lt)、淡色调(paletone:符号p)、轻柔色调(soft tone:符号sf)、浅灰色调(light grayishtone:符号ltg)、浊色调(dull tone:符号d)、灰色调(grayish tone:符号g)、深色调(deep tone:符号dp)、暗色调(dark tone:符号dk)、深灰色调(dark grayish tone:符号dkg)。
图44是表示5种无彩色的色调的图。
在该例中,示出了色调的名称、色调的符号、PCCS的编号、R(红)的值、G(绿)的值和B(蓝)的值之间的对应关系。
具体来说,如图44所示,作为5种无彩色的色调,有白色调(whitetone:符号W)、浅灰色调(light gray tone:符号ltGy)、中灰色调(medium gray tone:符号mGy)、深灰色调(dark gray tone:符号dkGy)、黑色调(black tone:符号Bk)。
此外,无彩色的色调中的PCCS表色系的编号和RGB值之间的对应关系是根据网站主页“http://www.wsj21.net/ghp/ghp0c_03.html”的色表的对应关系。
接着,关于通过字体颜色设定部4021进行的处理进行说明。
字体颜色设定部4021基于PCCS表色系,并基于从文本合成区域设定部4013输入到字体设定部4014的图像数据和文本合成区域,设定从文本合成区域设定部4013输入到字体设定部4014的文本的数据的字体颜色。
这里,在本实施方式中,设定在图像中显示文本时的字体颜色时,通过文本合成区域设定部4013进行显示在图像中的文本的位置(文本合成区域)的最佳化等,并确定在图像中显示文本时的该图像中的位置(文本合成区域)。
字体颜色设定部4021首先基于从文本合成区域设定部4013输入到字体设定部4014的图像数据和文本合成区域,算出该图像数据中的该文本合成区域的平均色(在图像中显示文本的图像区域的平均色)。
具体来说,字体颜色设定部4021基于从文本合成区域设定部4013输入到字体设定部4014的图像数据和文本合成区域,关于该图像数据中的该文本合成区域的内部的像素(Pixel),算出按R的平均值、按G的平均值和按B的平均值,并将这些R、G、B的平均值的组合作为RGB的平均色而求出。然后,字体颜色设定部4021基于存储在存储部4016中的从RGB色系向PCCS表色系的转换表的信息4031,将所求出的RGB的平均色转换成PCCS表色系的色调和色相,将由此得到的PCCS表色系的色调和色相作为PCCS表色系的平均色。
这里,图像数据中的文本合成区域的内部的像素分别具有R、G、B的各个值(例如,0~255的值),关于该文本合成区域的内部的像素的全部,按R、按G、按B对值进行相加,将各个相加结果除以全部的像素数而得到的结果成为按R、按G、按B的平均值,将这些R、G、B的平均值的组合作为RGB的平均色。
另外,通过将RGB的平均色向PCCS表色系的色调和色相转换时所参照的、从RGB色系向PCCS表色系的转换表的信息4031被特定的转换表限定了RGB的平均色与PCCS表色系的色调和色相之间的对应关系。
作为这样的转换表,可以使用各种转换内容的转换表,通常,RGB的可取值比PCCS表色系的可取值多,从而RGB的值和PCCS表色系的值之间的对应关系成为多对一的对应关系。该情况下,几个不同的RGB的值被转换成成为其代表的同一PCCS表色系的值。
此外,在本实施方式中,基于转换表,将RGB的平均色转换成PCCS表色系的色调和色相,但作为其他例,也可以采用如下结构:对于将RGB的平均色转换成PCCS表色系的色调和色相的内容进行限定的转换式的信息被存储在存储部4016中,字体颜色设定部4021从存储部4016读出该转换式的信息,并进行该转换式的算出,由此,将RGB的平均色转换成PCCS表色系的色调和色相。
字体颜色设定部4021然后基于所求出的作为PCCS表色系的平均色的PCCS表色系的色调和色相,设定从文本合成区域设定部4013输入到字体设定部4014的文本的数据的字体颜色(色)。
具体来说,字体颜色设定部4021对于所求出的作为PCCS表色系的平均色的PCCS表色系的色调和色相,直接采用该色相,并基于存储在存储部4016中的色调转换表的信息4032而仅改变其色调,由此,设定从文本合成区域设定部4013输入到字体设定部4014的文本的数据的字体颜色(色)。
对像这样设定的字体颜色进行特定的信息通过字体设定部4014使其包含于特定字体的信息,并输出到合成图像生成部4015。
这里,将通过字体颜色设定部4021求出的作为PCCS表色系的平均色的PCCS表色系的色调(tone)和色相(hue)分别设为t、h时,通过字体颜色设定部21设定的字体颜色的色调t和色相h通过式()表示。
t={与t不同的色调}
h=h···(18)
在本实施方式中,通过图像输入部4011输入而提供的图像的颜色以n灰度为n3种,而字体颜色是由PCCS表色系确定的N种(通常,N<n3),从而在现阶段得到了出现某种程度的色差的程度的字体的轮廓。
此外,若是一般的数字图像所使用的n=256灰度,则图像的颜色是2563=16777216种。
另外,作为一例,关于一个色调作较多估计而为24种色相时,字体颜色成为N=12×24+5=293种。
像这样,在本实施方式中,对于在图像数据中配置文本的数据的文本合成区域的平均色,将直接使用PCCS表色系的色相并改变了色调的字体颜色适用于该文本的数据,由此,例如在要显示合成该图像数据和该文本的数据而成的图像的情况下,能够不改变图像的印象地设定容易阅读文本的(具有对比度的)字体颜色。
这里,关于通过字体颜色设定部4021进行的改变PCCS表色系的色调的处理进行说明。
图35是表示PCCS表色系中的由色调产生的对比的协调的关系的图。
此外,图35的内容在例如DIC颜色设计株式会社的网站主页上被公开。
在本实施方式中,对转换前的色调和转换后的色调之间的对应关系进行规定的色调转换表的信息4032被存储在存储部4016。
作为该色调转换表的内容(转换前的色调和转换后的色调之间的对应关系),可以设定各种内容并使用,作为一例,预先考虑图35所示的PCCS表色系中的由色调产生的对比的协调的关系来设定。
具体来说,例如,对于昏暗的色调,分配白或轻灰的色调。
另外,对于明亮的色调,分配例如具有图35所示的对比的协调的关系的其他色调。或者,还能够以有彩色分配具有对比的协调的关系的色调。
另外,基于对比的协调的关系,与转换前的色调对应的转换后的色调的候选为2个以上的情况下,在这些候选中,例如,采用有彩色的一方,而且,采用鲜艳的色调(例如,最鲜艳的色调)。
例如,在图35所示的对比的协调的关系中,越趋向左下越暗,越趋向右侧越鲜艳。作为采用鲜艳的色调的具体例,采用接近dp的一方(也可以是dp自身)。
以下,关于本实施方式中的处理顺序进行说明。
参照图36,关于本实施方式的图像处理部4140中进行的处理的顺序进行说明。
图36是表示本实施方式的图像处理部4140中进行的处理的顺序的流程图。
首先,在步骤S4001中,图像输入部4011输入图像数据。
然后,在步骤S4002中,文本设定部4012设定文本的数据。
然后,在步骤S4003中,文本合成区域设定部4013设定将所述文本的数据合成到所述图像数据的情况下的文本合成区域。
然后,在步骤S4004中,字体设定部4014设定将所述文本的数据合成到设定在所述图像数据中的所述文本合成区域的情况下的包含字体颜色的字体。
然后,在步骤S4005中,合成图像生成部4015将所设定的字体适用于所述文本的数据,将所述文本的数据合成到设定在所述图像数据中的所述文本合成区域,由此,生成合成图像的数据。
最后,在步骤S4006中,合成图像生成部4015将所生成的合成图像的数据通过总线1300向例如其他的构成部输出。
参照图37,关于本实施方式的字体设定部4014中进行的处理的顺序进行说明。
图37是表示本实施方式的字体设定部4014中进行的处理的顺序的流程图。
该处理的顺序是图36所示的步骤S4004的处理的详细情况。
首先,在步骤S4011中,字体设定部4014中的字体颜色设定部4021关于成为本处理的对象的图像数据、文本的数据及文本合成区域,为了显示该文本的数据,以RGB求出设定在该图像数据中的该文本合成区域(显示文本的图像区域)的平均色。
然后,在步骤S4012中,字体设定部4014中的字体颜色设定部4021从所求出的RGB的平均色,求出与其对应的PCCS表色系的色调和色相。
然后,在步骤S4013中,字体设定部4014中的字体颜色设定部4021将所求出的色调变更成其他的色调。
然后,在步骤S4014中,字体设定部4014中的字体颜色设定部4021将变更后的色调(所述其他的色调)和所求出的色相直接组合而确定的PCCS表色系的颜色作为字体颜色而设定。
最后,在步骤S4015中,字体设定部4014将包含通过字体颜色设定部4021设定的字体颜色在内的字体设定到所述文本的数据。
参照图38及图39,示出了图像处理的具体例。
图38是用印象图表示图像数据4901的一例的图。
图38示出了图像数据4901通过图像处理部4140的图像输入部4011被输入的情况。
图39是用印象图表示该情况下的合成图像的数据4911的一例的图。
图39所示的合成图像的数据4911从合成图像生成部4015被输出,由此从图像处理部4140被输出。
这里,在图39所示的合成图像的数据4911中,在与图38所示的图像数据4901相同的图像中,而且,在通过文本合成区域设定部4013被设定的文本合成区域4921中,以通过字体设定部4014被设定的字体(至少包含字体颜色)显示通过文本设定部4012被设定的文本的数据4922(在图39的例子中,“与大家在工作日的白天度过的回忆(2010/10/06)”这样的文字的数据),以此方式合成该图像数据4901和该文本的数据4922。
此外,在图39中,为了在视觉上容易理解文本合成区域4921,在合成图像的数据4911中图示了文本合成区域4921,但在本实施方式中,在实际的显示中,文本合成区域4921(在图39的例子中为矩形框)未被显示,仅文本的数据4922被合成到原始的图像数据4901并显示。
如上所述,根据本实施方式的图像处理部4140,使用在图像中显示文本的图像区域(文本合成区域)的颜色信息,设定该文本的字体颜色。具体来说,在本实施方式的图像处理部4140中,对于基于所述文本合成区域的颜色信息,设定在PCCS表色系中不改变色相而仅变更色调的字体颜色,由此,例如,通过显示文本,能够不改变原始的图像的印象。
因此,根据本实施方式的图像处理部4140,在静态图像和动态图像等的数字图像中显示文本时,为了使阅览者容易阅读,考虑到在图像中显示文本的图像区域(文本合成区域)的颜色信息,能够求出最佳的字体颜色。
这里,在本实施方式中,关于静态图像即1张图像帧或构成动态图像的1张图像帧(例如,作为代表多张图像帧而选择的1张图像帧)的图像数据,示出了设定与该图像数据重叠(合成)的文本的数据、将该文本的数据合成到该图像数据的文本合成区域、合成到该图像数据的该文本的数据的包含字体颜色在内的字体的情况,但作为其他例,关于构成动态图像的2张以上的图像帧的图像数据,也能够进行这些设定。该情况下,作为一例,关于构成动态图像的连续的2张以上的图像帧或间歇的2张以上的图像帧,对帧内对应的各像素的值(例如,RGB的值)进行平均,关于由该平均结果构成的1张图像帧的图像数据(进行平均了的图像数据),能够进行与本实施方式同样的处理。
另外,作为其他的构成例,字体颜色设定部4021还能够采用如下结构:在图像数据中配置文本的区域(文本配置区域)的色相值和所述文本的数据的色相值之比,相较于所述图像数据的所述文本配置区域的色调值和所述文本的数据的色调值之比,采用更接近1的值。
这里,文本配置区域与文本合成区域对应。
作为一方式,能够构成一种图像处理装置(在图34的例子中,图像处理部4140),其特征是,包括:取得图像数据及文本数据的取得部(在图34的例子中,图像输入部4011及文本设定部4012);决定所述图像数据中的配置所述文本数据的文本配置区域的区域决定部(在图34的例子中,文本合成区域设定部4013);对文本数据设定规定颜色的颜色设定部(在图34的例子中,字体设定部4014的字体颜色设定部4021);生成将所述规定颜色的所述文本数据配置在所述文本配置区域而成的图像的图像生成部(在图34的例子中,合成图像生成部4015),所述图像数据的所述文本配置区域的色相值与所述文本数据的色相值之比,相较于所述图像数据的所述文本配置区域的色调值与所述文本数据的色调值之比,更接近1。
另外,作为一方式,能够构成一种图像处理装置,在上述记载的图像处理装置(在图34的例子中,图像处理部4140)中,其特征是,所述颜色设定部(在图34的例子中,字体设定部4014的字体颜色设定部4021)从所述文本配置区域的RGB的平均色求出PCCS表色系的色调值及色相值,不改变所述PCCS表色系的色相,仅改变所述PCCS表色系的色调值。
此外,在图像数据中配置文本的区域(文本配置区域)的色相值与所述文本的数据的色相值之比,相较于所述图像数据的所述文本配置区域的色调值与所述文本的数据的色调值之比,采用更接近1的值的情况下的各个比值,也可以使用各种值。
在这样的结构中,也能够得到与本实施方式同样的效果。
(第11实施方式)
本实施方式的摄像装置的功能框图与第2实施方式的图8所示的相同。
另外,本实施方式的表示图像处理部的功能性结构的框图与第10实施方式的图34所示的相同。
以下,关于与第2及第10实施方式不同的部分进行详细说明。
此外,在本实施方式的说明中,与图8、图34、图36及图37中使用的各构成部的附图标记使用相同的附图标记。
在本实施方式中,字体设定部4014从文本合成区域设定部4013输入图像数据、所设定的文本的数据和对所设定的文本合成区域进行特定的信息,并设定该文本的数据的字体的情况下,通过字体颜色设定部4021设定字体颜色,并且基于存储在存储部4016中的轮廓信息4033,作为该文本的数据的字体之一,设定规定的轮廓。
这里,作为规定的轮廓能够使用例如阴影或修边等。
作为一例,规定的轮廓种类(例如,阴影、修边等)预先被固定地设定。
作为其他例,能够采用如下结构:作为规定的轮廓能够切换使用2种以上的轮廓的情况下,例如,用户操作操作部1180,由此,根据该操作部1180从该用户受理的切换的指示,字体设定部4014切换所使用的轮廓的种类。
另外,作为规定的轮廓的颜色,能够使用例如黑色或比字体颜色的色调暗的色调的颜色。
作为一例,规定的轮廓的颜色预先被固定地设定。
作为其他例,能够采用如下结构:作为规定的轮廓的颜色能够切换使用2种以上的颜色的情况下,例如,用户操作操作部1180,由此,根据该操作部1180从该用户受理的切换的指示,字体设定部4014切换所使用的轮廓的颜色。
此外,作为存储在存储部4016中的轮廓信息4033,使用字体设定部4014对于文本设定轮廓时所参照的信息,例如使用对能够使用的1种以上的轮廓的种类和/或颜色进行特定的信息等。
图40是用印象图表示合成图像的数据4931的一例的图。
在图40所示的合成图像的数据4931中,在与由文本的数据4941以外的部分的图像构成的原始的图像数据(未图示)相同的图像中,而且,在通过文本合成区域设定部4013被设定的文本合成区域(未图示)中,以通过字体设定部4014被设定的字体(至少包含字体颜色及轮廓)显示通过文本设定部4012被设定的文本的数据4941(在图40的例子中,“真好啊!”这样的文字数据),以此方式合成该图像数据和该文本的数据4941。
这里,在图40的例子中,示出了作为轮廓使用阴影的情况。
此外,在本实施方式中,在图36所示的步骤S4004的处理中的图37所示的步骤S4015的处理中,字体设定部4014将包含通过字体颜色设定部4021设定的字体颜色在内的字体设定到文本的数据时,设定规定的轮廓的字体。
如上所述,根据本实施方式的图像处理部4140,使用在图像中显示文本的图像区域(文本合成区域)的颜色信息,设定该文本的字体颜色,并且作为字体设定轮廓。
因此,根据本实施方式的图像处理部4140,能够得到与第10实施方式同样的效果,并且对于文本附加所设定的字体颜色,还附加阴影等的轮廓,来强调字体的轮廓,由此,能够提高颜色的对比度。这样的轮廓的赋予,例如,在设定在文本中的字体颜色为白色的情况下尤其有效。
(第12实施方式)
本实施方式的摄像装置的功能框图与第2实施方式的图8所示的相同。
另外,本实施方式的表示图像处理部的功能性结构的框图与第10实施方式的图34所示的相同。
以下,关于与第2及第10实施方式不同的部分进行详细说明。
此外,在本实施方式的说明中,与图8、图34及图37中所使用的各构成部的附图标记使用相同的附图标记。
在本实施方式中,字体设定部4014从文本合成区域设定部4013输入图像数据、所设定的文本的数据和对所设定的文本合成区域进行特定的信息,通过字体颜色设定部4021设定该文本的数据的字体颜色的情况下,基于存储在存储部4016中的颜色变化判定条件的信息4034,判定在显示该文本的该文本合成区域中颜色的变化是否是规定值以上,当判定为在该文本合成区域中颜色的变化是规定值以上时,在该文本合成区域中设定2种以上的字体颜色。
此外,当字体颜色设定部4021判定为在该文本合成区域中颜色的变化小于规定值时,与第10实施方式同样地,对于该文本合成区域的整体设定1种字体颜色。
具体来说,字体颜色设定部4021将显示文本的文本合成区域分割成多个区域(在本实施方式中,称为分割区域),按每个分割区域,执行求出RGB的平均色的处理(与图37所示的步骤S4011相同的处理)。
而且,字体颜色设定部4021关于这些多个分割区域的RGB的平均色的值,判定是否具有规定值以上的差,在判定为有规定值以上的差时,判定为在该文本合成区域中颜色的变化是规定值以上。另一方面,字体颜色设定部4021关于这些多个分割区域的RGB的平均色的值,在判定为没有规定值以上的差时,判定为在该文本合成区域中颜色的变化小于规定值。
这里,作为关于多个分割区域的RGB的平均色的值判定是否具有规定值以上的差的方法,可以使用各种方法。
作为一例,能够使用如下方法:多个分割区域中的任意2个分割区域的RGB的平均色的值之差成为规定值以上的情况下,判定为多个分割区域的RGB的平均色的值存在规定值以上的差。
作为其他例,能够使用如下方法:多个分割区域中的RGB的平均色的值成为最低的分割区域和成为最大的分割区域这两个分割区域的RGB的平均色的值之差成为规定值以上的情况下,判定为多个分割区域的RGB的平均色的值存在规定值以上的差。
另外,作为其他例,能够使用如下方法:关于多个分割区域的全部求出RGB的平均色的值的分散的值,该分散的值成为规定值以上的情况下,判定为多个分割区域的RGB的平均色的值存在规定值以上的差。
这些情况下,对RGB的平均色的值进行比较时,作为一例,能够仅对R、G、B中的任意一个进行比较。作为其他例,能够对于组合R、G、B中的两个或3个而成的一个值进行比较。
另外,作为其他例,能够对于R、G、B中的两个以上分别进行比较。
这里,对于R、G、B中的两个以上分别进行比较的情况下,能够使用如下方法:例如,关于进行了比较的任意1个(R、G、B中的任意一个),存在规定值以上的差时,判定为作为整体存在规定值以上的差,或者,还能够使用如下方法:关于进行了比较的全部,(仅)存在规定值以上的差时,判定为作为整体存在规定值以上的差。
另外,作为将显示文本的文本合成区域分割成多个区域(分割区域)的方法,也可以使用各种方法。
作为一例,能够使用如下方法:关于显示在文本合成区域的文本所含有的文字,将按每个文字的划分区域作为分割区域。该情况下,按每个文字预先设定例如包含其周围的矩形的区域,通过文本所含有的全部的文字的区域的组合,构成文本合成区域的整体。此外,按每个文字的矩形的区域也可以例如按文字的大小而不同。
作为其他例,能够使用将以预先设定的分割数或预先设定的大小(例如,水平方向的长度、垂直方向的长度或矩形等的块的大小)划分文本合成区域而成的区域作为分割区域的方法。
此外,在本实施方式中,基于多个分割区域的RGB的平均色的值,判定在由这些多个分割区域构成的文本合成区域中颜色的变化是否是规定值以上,但作为其他例,也可以采用如下结构:基于多个分割区域的PCCS表色系的值(例如,对PCCS表色系的色调和色相进行特定的值),判定在文本合成区域中颜色的变化是否是规定值以上。
字体颜色设定部4021设定文本的数据的字体颜色的情况下,当判定为在显示该文本的文本合成区域中颜色的变化是规定值以上时,按每个分割区域,与第10实施方式同样地执行求出RGB的平均色的处理(与图37所示的步骤S4011相同的处理)、求出PCCS表色系的色调和色相的处理(与图37所示的步骤S4012相同的处理)、变更色调的处理(与图37所示的步骤S4013相同的处理)、设定字体颜色的处理(与图37所示的步骤S4014相同的处理),并按每个分割区域设定字体颜色。
此外,例如,若求出RGB的平均色的处理(与图37所示的步骤S4011相同的处理)等已经被执行,则也可以不再次执行。
在本实施方式中,将像这样对于多个分割区域的每一个设定的字体颜色的整体作为对于文本的数据设定的字体颜色。
这里,关于多个分割区域的每一个设定字体颜色的情况下,也可以为,当在这些多个分割区域中存在RGB的平均色的差小于规定值的两个以上的分割区域时,例如,关于这两个以上的分割区域,仅对任意一个分割区域求出字体颜色,将与该字体颜色相同的颜色设定到这两个以上的分割区域的全部。
另外,作为其他的结构例,还能够为,字体颜色设定部4021以在关于多个分割区域的每一个设定了字体颜色之后使文本合成区域的整体的字体颜色成为一定方向的渐变的方式,对设定内容执行PCCS表色系的色调和色相的调整。
此外,作为存储在存储部4016中的颜色变化判定条件的信息4034,字体颜色设定部21采用判定在显示文本的文本合成区域中颜色的变化是否是规定值以上时所参照的信息,例如使用对于将文本合成区域分割成多个分割区域的方法进行特定的信息、对于判定多个分割区域的平均色的值是否存在规定值以上的差的方法进行特定的信息、对于各种判定所使用的规定值(阈值)进行特定的信息等。
如上所述,根据本实施方式的图像处理部4140,在显示文本的图像区域(文本合成区域)中存在颜色的大幅变化的情况下,与其相应地,在该图像区域中设定两种以上的字体颜色。
另外,根据本实施方式的图像处理部4140,作为结构例,以文本整体的字体颜色成为一定方向的渐变的方式,调整PCCS表色系的色调和/或色相。
因此,根据本实施方式的图像处理部4140,即使在显示文本的图像区域(文本合成区域)中存在颜色的大幅变化的情况下,也能够提高文本的可读性。例如,在显示文本的图像区域(文本合成区域)中存在颜色的大幅变化的情况下,从该图像区域的单一的平均色求出字体颜色时,不能得到文本的一部分的对比度,文本的可读性降低,但根据本实施方式的图像处理部4140,能够解决这样的课题。
此外,在本实施方式中,还与第11实施方式同样地,能够采用通过字体设定部4014设定规定的轮廓的字体的结构。
这里,如图36及图37所示的各步骤等那样地,可以将用于实现以上的实施方式中进行的处理顺序(处理的步骤)的程序存储在计算机能够读取的存储介质,将存储在该存储介质中的程序读入到计算机系统并执行,由此进行处理即可。
另外,上述程序也可以从将该程序存储在存储装置等中的计算机系统,通过传送介质,或者通过传送介质中的传送波传送到其他的计算机系统。另外,上述程序也可以用于实现前述的功能的一部分。而且,也可以是与已经存储在计算机系统中的程序组合来实现前述功能的所谓的差分文件(差分程序)。
(其他实施方式)
图45是示意地表示将为了决定配置在图像上的文章所使用的拍摄图像的特征量提取的过程的一例的图。在图45的例子中,图像处理装置的判定部将拍摄图像的场景分类成人物图像或风景图像。然后,图像处理装置根据其场景,提取拍摄图像的特征量。在为人物图像的情况下,特征量能够采用面部的数量(被摄物体的人数)及平均色(配色方案),在为风景图像的情况下,特征量能够采用平均色(配色方案)。以这些特征量为基础,来决定被插入到人物图像用模板或风景图像用模板的单词(形容词等)。
这里,在图45的例子中,配色方案由构成拍摄图像的代表性的多个颜色的组合构成。因此,配色方案能够表示拍摄图像的平均的颜色(平均色)。在一例中,作为配色方案,能够规定“第1色”、“第2色”、“第3色”,基于这3种颜色的组合,即3种平均色,决定被插入到人物图像用或风景图像用的文章模板的单词(形容词)。
在图45的例子中,拍摄图像的场景被分类成两种(人物图像及风景图像)。在其他例中,拍摄图像的场景能够分类成3种以上(3、4、5、6、7、8、9或10种以上)。
图46是示意地表示将为了决定配置在图像上的文本所使用的拍摄图像的特征量提取的过程的另一例的图。在图46的例子中,能够将拍摄图像的场景分类成3种以上。
在图46的例子中,图像处理装置的判定部判定拍摄图像是人物图像(第1模式图像)、远景图像(第2模式图像)和其他图像(第3模式图像)中的哪一方。首先,判定部与图45的例子同样地,判定拍摄图像是人物图像还是是与人物图像不同的图像。
然后,在拍摄图像是与人物图像不同的图像的情况下,判定部判定拍摄图像是远景图像(第2模式图像)和其他图像(第3模式图像)中的哪一方。该判定能够使用例如赋予拍摄图像的图像识别信息的一部分来进行。
具体来说,为判定拍摄图像是否是远景图像,能够使用图像识别信息的一部分的焦距。判定部在焦距为预先设定的基准距离以上的情况下,将拍摄图像判定为远景图像,在焦距小于基准距离的情况下,将拍摄图像判定为其他图像。以上,拍摄图像根据场景被分类成人物图像(第1模式图像)、远景图像(第2模式图像)和其他图像(第3模式图像)这3种。此外,远景图像(第2模式图像)的例子包含海、山等的风景图像等,其他图像(第3模式图像)的例子包含花及宠物等。
在图46的例子中,拍摄图像的场景被分类之后,图像处理装置根据其场景,提取拍摄图像的特征量。
在图46的例子中,在拍摄图像是人物图像(第1场景图像)的情况下,作为为了决定配置在图像上的文章所使用的拍摄图像的特征量,能够使用面部的数量(被摄物体的人数)和/或笑脸等级。即,在拍摄图像是人物图像的情况下,能够在面部的数量(被摄物体的人数)的判定结果的基础上,或代替面部的数量(被摄物体的人数)的判定结果,基于笑脸等级的判定结果,决定被插入到人物图像用模板的单词。以下,关于笑脸等级的判定方法的一例,使用图47进行说明。
在图47的例子中,图像处理装置的判定部对于人物图像,通过面部识别等的方法检测面部区域(步骤S5001)。在一例中,通过对嘴角部分的上翘程度进行数值化,算出人物图像的笑脸度。此外,笑脸度的算出能够使用例如与面部识别相关的公知的各种技术。
然后,判定部对预先设定的第1笑脸阈值α和笑脸度进行比较(步骤S5002)。判定为笑脸度是α以上的情况下,判定部判定该人物图像的笑脸等级为“笑脸:大”。
另一方面,在判定为笑脸度小于α的情况下,判定部对预先设定的第2笑脸阈值β和笑脸度进行比较(步骤S5003)。在判定为笑脸度是β以上的情况下,判定部判定为该人物图像的笑脸等级是“笑脸:中”。而且,在判定为笑脸度小于β的情况下,判定部判定为该人物图像的笑脸等级是“笑脸:小”。
基于人物图像的笑脸等级的判定结果,决定被插入到人物图像用模板的单词。这里,作为与“笑脸:大”的笑脸等级对应的单词的例子,可以列举“满心欢喜的”、“非常好的”等。作为与“笑脸:中”的笑脸等级对应的单词的例子,可以列举“快乐的”、“温和的”等。作为与“笑脸:小”的笑脸等级对应的单词的例子,可以列举“认真的”、“酷的”等。
此外,在上述说明中,关于被插入到人物图像用模板的单词是连体形的情况进行了说明,但不限于此,也可以是例如终止形。该情况下,作为与“笑脸:大”的笑脸等级对应的单词的例子,可以列举“笑脸完美”、“非常好的笑脸”等。作为与“笑脸:中”的笑脸等级对应的单词的例子,可以列举“面带微笑”、“表情赞”等。作为与“笑脸:小”的笑脸等级对应的单词的例子,可以列举“好像很认真”、“好像很严肃”等。
图48A是表示图像处理装置的工作结果的输出图像的一例,该输出图像具有基于图45的例子决定的文章。在图48A的例子中,判定为拍摄图像是人物图像,作为特征量提取被摄物体的人数及配色方案(平均色)。另外,根据配色方案,被插入到人物图像用模板的单词被决定为“稳重的”。其结果为,得到图48A所示的输出结果。即,在图48A的例子中,基于拍摄图像的平均色,单词“稳重的”(形容词、连体形)被决定。
图48B是表示图像处理装置的工作结果的输出图像的另一例,该输出图像具有基于图46的例子决定的文章。在图48B的例子中,判定拍摄图像是人物图像,作为特征量提取被摄物体的人数及笑脸等级。另外,根据笑脸等级,被插入到人物图像用模板的单词被决定为“表情赞”。其结果为,得到图48B所示的输出结果。即,在图48B的例子中,基于拍摄图像中的人物的笑脸等级,单词“表情赞”(终止形)被决定。如图48B的输出结果那样地,通过采用对于人物图像使用了笑脸等级的单词输出,能够添加与从图像体现的印象较接近的文字信息。
返回图46,在拍摄图像是风景图像(第2场景图像)或其他图像(第3场景图像)的情况下,作为为了决定配置在图像上的文本所使用的拍摄图像的特征量,代替平均色,能够使用代表色。作为代表色,能够使用配色方案中的“第1色”,即拍摄图像中频率最大的颜色。或者,代表色能够如下所述地使用聚类决定。
图49是表示摄像装置所含有的图像处理部的内部结构的概要框图。在图49的例子中,图像处理装置的图像处理部5040具有图像数据输入部5042、解析部5044、文章生成部5052和文章添加部5054。图像处理部5040关于由摄像部等生成的图像数据,进行各种解析处理,由此取得与图像数据的内容相关的各种信息,生成与图像数据的内容匹配性高的文本,能够将文本附加到图像数据。
解析部5044具有颜色信息提取部5046、区域提取部5048和聚类部5050,对图像数据进行解析处理。颜色信息提取部5046从图像数据提取与图像数据所含有的各像素的颜色信息相关的第1信息。典型地来说,第1信息是合计了图像数据所含有的全部的像素的HSV值而成的信息。但是,第1信息只要是关于类似性附带关联的(例如与规定的颜色空间附带关联的)规定的颜色,表示该规定的颜色在图像中出现的频率(以像素单位的频率、面积比例等)的信息即可,颜色的分辨率或颜色空间的种类没有限定。
例如,第1信息也可以是关于由HSV空间矢量(HSV值)或RGB值表示的各自的颜色,表示各个颜色的像素在图像数据中各包含几个的信息。但是,第1信息中的颜色分辨率只要考虑了计算处理的负担等即可进行适当变更,另外,颜色空间的种类也不限于HSV或RGB,也可以是CMY、CMYK等。
图50是表示解析部5044中进行的代表色的决定流程的流程图。在图50的步骤S5101中,图像处理装置开始进行具体的图像数据5060(拍摄图像,参照图51)的代表色的算出。
在步骤S5102中,图像处理装置的图像数据输入部5042将图像数据输出到解析部5044。然后,解析部5044的颜色信息提取部5046算出与图像数据所含有的各像素的颜色信息相关的第1信息5062(参照图51)。
图51是表示在步骤S5102中颜色信息提取部5046实施的第1信息5062的算出处理的概念图。颜色信息提取部5046将图像数据5060所含有的颜色信息按各颜色(例如按256灰度的各灰度)合计,得到第1信息5062。图51的下图所示的直方图表示通过颜色信息提取部5046算出的第1信息5062的印象图。图51的直方图的横轴表示颜色,纵轴表示在图像数据5060中含有几个规定颜色的像素。
在图50的步骤S5103中,解析部5044的区域提取部5048提取图像数据5060中的主要区域。例如,区域提取部5048从图51所示的图像数据5060中提取焦点对准的区域,将图像数据5060的中央部分认定为主要区域(参照图52中的主要区域5064)。
在图50的步骤S5104中,解析部5044的区域提取部5048决定步骤S5105中实施的聚类的对象区域。例如,区域提取部5048如图52的上部所示地在步骤S5103中将图像数据5060的一部分识别为主要区域5064,并提取了主要区域5064的情况下,将聚类的对象作为与主要区域5064对应的第1信息5062(主要第1信息5066)。图52的下图所示的直方图表示主要第1信息5066的印象图。
另一方面,区域提取部5048在步骤S5103中没有提取图像数据5060中的主要区域5064的情况下,区域提取部5048如图51所示地将与图像数据5060的整个区域对应的第1信息5062决定为聚类的对象。此外,除了聚类的对象区域不同以外,主要区域5064被提取的情况和没有被提取的情况中,之后的处理没有不同,从而以下,以主要区域被提取的情况为例进行说明。
在图50的步骤S5105中,解析部5044的聚类部5050对于步骤S5104中决定的区域的第1信息5062即主要第1信息5066实施聚类。图53是关于图52所示的主要区域5064的主要第1信息5066,表示聚类部5050实施的聚类的结果的概念图。
聚类部5050例如通过k-means法将256灰度的主要第1信息5066(参照图52)分类成多个簇。此外,聚类不限于k-means法(k平均法)。在其他例中,能够使用最短距离法等的其他方法。
图53的上部表示各像素被分类成哪个簇,图53的下部所示的直方图示出了属于各簇的像素的数量。根据聚类部5050的聚类,256灰度的主要第1信息5066(图52)被分类成比256少的(在图53所示的例子中是3个)簇。聚类的结果能够包含与各簇的大小相关的信息和与各簇的颜色(簇的颜色空间上的位置)相关的信息。
在步骤S5106中,解析部5044的聚类部5050基于聚类的结果,决定图像数据5060的代表色。在一例中,聚类部5050得到了图53所示的聚类结果的情况下,将所算出的多个簇中的包含最多像素的最大簇5074所属的颜色作为图像数据5060的代表色。
代表色的算出结束后,文章生成部5052使用与代表色相关的信息生成文本,赋予图像数据5060。
文章生成部5052读出例如风景图像用的文章模板,将与图像数据5060的生成日期和时间对应的单词(例如“2012/03/10”)适用于文章模板的{日期和时间}。该情况下,解析部5044能够从存储介质等检索与图像数据5060的生成日期和时间相关的信息,并输出到文章生成部5052。
另外,文章生成部5052将与图像数据5060的代表色对应的单词适用于文章模板的{形容词}。文章生成部5052从存储部5028读出对应信息,并适用于文章模板。在一例中,颜色和单词按场景附带关联的表格被保存在存储部5028。文章生成部5052能够使用从该表格读出的单词生成文章(例如“发现了非常美丽的东西”)。
图54表示通过上述一系列的处理被赋予文本的图像数据5080。
图55表示在场景是远景图像的情况下,通过与上述同样的一系列的处理被赋予文本的图像数据的例子。该情况下,场景被分类成远景图像,并且代表色被判定成蓝色。例如,在颜色和单词按场景附带关联的表格中,单词“清爽的”等相对于代表色的“蓝色”附带对应。
图56是表示具有颜色和单词的对应信息的表格的一例的图。在图56的表格中,按人物图像(第1场景图像)、远景图像(第2场景图像)及其他图像(第3场景图像)的场景使颜色和单词附带关联。在一例中,图像数据的代表色是“蓝色”,场景是其他图像(第3场景图像)时,文章生成部5052从表格的对应信息选择与代表色对应的单词(例如“优雅的”),并适用于文章模板的{形容词}。
颜色和单词的对应表格能够基于例如PCCS表色系、CICC表色系或NCS表色系等的比色图表来设定。
图57表示使用了CCIC显示系的比色图表的、远景图像(第2场景图像)用的对应表格的一例。图58表示使用了CCIC显示系的比色图表的、其他图像(第3场景图像)用的对应表格的一例。
在图57中,横轴与代表色的色相对应,纵轴与代表色的色调对应。单词的决定采用图57的表格,由此,不仅通过代表色的色相的信息来决定单词,还同时通过代表色的色调的信息决定单词,能够赋予与人类的感性较接近的文本。以下,对于使用了图57的表格的、远景图像(第2场景图像)的情况下的具体的文本的设定例进行说明。此外,其他图像(第3场景图像)的情况下,能够使用图58的表格同样地设定。
在图57中,判定为代表色是区域A5001的情况下,该代表色的名称(红、橙、黄、蓝等)直接被适用于文本中的单词。例如,代表色的色相为“红(R)”、色调为“鲜艳色调(V)”的情况下,表示该颜色的形容词“鲜红的”等被选择。
另外,判定为代表色是区域A5002、A5003、A5004或A5005的颜色的情况下,从该颜色联想的形容词被适用于文本中的单词。例如,判定为代表色是区域A5003的颜色(绿)的情况下,从绿色联想的形容词的“愉悦的”、“舒爽的”等被适用。
此外,判定为代表色是区域A5001~A5005的颜色、且其色调为鲜艳色调(V)、强烈色调(S)、明亮色调(B)或浅色调(LT)的情况下,在形容词之前表示程度的副词(例:非常、相当等)被适用。
判定为代表色是区域A5006,即“白色调(白)”的情况下,从白色联想的单词的“清澈的”、“澄清的”等被选择。另外,判定为代表色是区域A5007,即灰色系的颜色(浅灰色调:ltGY,中灰色调:mGY,或深灰色调:dkGY)的情况下,保险的形容词的“美丽的”、“漂亮的”等被选择。在白色或灰色系的颜色即无彩色成为代表色的图像中,各种颜色包含于图像整体的情况较多。因此,通过使用与颜色关联性小的单词,能够防止被赋予偏离主题的意思的文本,能够赋予与从图像感受到的印象较接近的文本。
另外,代表色不属于区域A5001~A5007中的任意区域的情况下,即代表色是低色调(深灰色调)或黑色(黑色调)的情况下,能够将具有规定意思的文字(单词或文章)作为文本选择。具有规定的意思的文字包括例如“这是哪”、“啊”等。这些单词或文章能够作为“嘟哝辞典”预先保存在图像处理装置的存储部。
即,判定为代表色是低色调或黑色时,虽然图像整体的色相的判定变得困难,但在这样的情况下,也如上所述地使用与颜色关联性小的文字,从而能够防止赋予偏离主题的意思的文本,能够赋予与从图像所感受到的印象接近的文本。
另外,在上述例子中,关于根据场景和代表色唯一地决定文章和单词的情况进行了说明,但不限于此,在文章和单词的选择中,有时还能够进行例外处理。例如,可以多次中有1次(例如10次中有1次)从上述“嘟哝辞典”提取文本。由此,文本的显示内容不一定必须模式化,从而能够防止用户厌倦了显示内容。
此外,在上述例子中,关于文章添加部将通过文章生成部生成的文本配置在图像的上部或下部的情况进行了说明,但不限于此,例如还能够将文本配置在图像以外(框外)。
另外,在上述例子中,关于文本的位置被固定在图像内的情况进行了说明,但不限于此,例如还能够使文本流动地显示在图像处理装置的显示部中。由此,输入图像难以受到文本的影响,或者文本的视认性提高。
此外,在上述例子中,关于文本必须粘贴在图像中的情况进行了说明,但不限于此,例如在人物图像的情况下,不粘贴文本,而在远景图像或其他图像的情况下,粘贴文本。
另外,在上述例子中,对文章添加部使用规定的方法决定通过文章生成部生成的文本的显示方法(字体、颜色、显示位置等)的情况进行了说明,但不限于此,文本的显示方法能够多种多样地决定。以下,关于这些方法,示出了几个例子。
在一例中,用户能够通过图像处理装置的操作部修正文本的显示方法(字体、颜色、显示位置)。或者,用户能够变更或删除文本的内容(单词)。另外,用户能够以不显示文本整体的方式设定,即能够选择文本的显示/非显示。
另外,在一例中,能够根据输入图像的场景变更文本的大小。例如,在输入图像的场景是人物图像的情况下,能够缩小文本,在输入图像的场景是远景图像或其他图像的情况下,能够增大文本。
另外,在一例中,还能够强调显示文本并合成到图像数据。例如,在输入图像是人物图像的情况下,能够对人物赋予气球,在该气球中配置文本。
另外,在一例中,文本的显示色能够将输入图像的代表色作为基准设定。具体来说,能够将输入图像的代表色和色相相同、且色调不同的颜色作为文本的显示色使用。由此,能够不过度地强调文本地赋予与输入图像适度地调和的文本。
另外,尤其在输入图像的代表色是白色的情况下,在文本的显示色的决定中也可以进行例外处理。这里,在例外处理中,例如,能够将文本的颜色作为白色,并将该文本的周边部设定成黑色。
以上,参照附图关于本发明的实施方式进行了详细说明,但具体结构不限于上述结构,在不脱离本发明的主旨的范围内能够进行各种设计变更等。
例如,在上述实施方式中,摄像装置1100具有图像处理部(图像处理装置)3140、3140a、3140b、4140,但例如个人计算机、平板电脑(Personal Computer)、数字相机或手机等的终端装置也可以具有作为图像处理装置的图像处理部3140、3140a、3140b、4140。
附图标记的说明
1001···图像处理装置,1010···图像输入部,1020···判定部,1030···文章生成部,1040···文章添加部,1090···存储部,1100···摄像装置,1110···摄像部,1111···光学系统,1119···摄像元件,1120···AD转换部,1130···缓冲存储器,1140···图像处理部,1150···显示部,1160···存储部,1170···通信部,1180···操作部,1190···CPU,1200···存储介质,1300···总线。
2100···摄像装置,2001···摄像系统,2002···摄像部,2003···相机控制部,2004,2004a,2004b···图像处理部,2005···存储部,2006···缓冲存储器部,2007···显示部,2011···操作部,2012···通信部,2013···电源部,2015···总线,2021···透镜部,2022···摄像元件,2023···AD转换部,2041,2041b···图像取得部,2042,2042b···图像识别信息取得部,2043,2043b···颜色空间矢量生成部,2044···主色提取部,2045···表格存储部,2046,2046a···第1标签生成部,2047···第2标签生成部,2048···标签输出部,2241···特征量提取部,2242···场景判别部。
3011···图像输入部,3012···文本输入部,3013···第1位置输入部,3014···边缘检测部,3015···面部检测部,3016···文字大小决定部,3017、3017a···成本算出部,3018、3018b···区域决定部,3019···合成部,3021,3031···第2位置输入部,3140,3140a,3140b···图像处理部。
4011···图像输入部,4012···文本设定部,4013···文本合成区域设定部,4014···字体设定部,4015···合成图像生成部,4016···存储部,4021···字体颜色设定部,4031···从RGB色系向PCCS表色系的转换表的信息,4032···色调转换表的信息,4033···轮廓信息,4034···颜色变化判定条件的信息,4140···图像处理部。

Claims (48)

1.一种图像处理装置,其特征在于,具有:
图像输入部,其输入拍摄图像;
存储部,其作为将单词插入到规定的空栏部来完成文章的文章模板而存储人物图像用模板和风景图像用模板,其中,所述人物图像用模板用于生成针对以人物为被摄物体的人物图像的文章,所述风景图像用模板用于生成针对以风景为被摄物体的风景图像的文章;
判定部,其判定所述拍摄图像是所述人物图像还是所述风景图像;
文章生成部,其根据所述判定部对所述拍摄图像的判定结果,从所述存储部读出所述人物图像用模板和所述风景图像用模板的某一个的所述文章模板,将与所述拍摄图像的特征量或拍摄条件相应的单词插入到所读出的所述文章模板的所述空栏部来生成对于所述拍摄图像的文章。
2.如权利要求1所述的图像处理装置,其特征在于,
所述存储部将在基于作为被摄物体而拍摄的人物的视角作出的文章中设定所述空栏部而得到的所述文章模板存储为所述人物图像用模板,将在基于拍摄被摄物体的摄像者的视角作出的文章中设定所述空栏部而得到的所述文章模板存储为所述风景图像用模板。
3.如权利要求1或2所述的图像处理装置,其特征在于,
所述判定部在所述人物图像中,作为所述特征量还判定被摄物体的人数,
所述文章生成部针对所述人物图像,将与被摄物体的人数相应的单词插入到所述空栏部来生成文章。
4.如权利要求3所述的图像处理装置,其特征在于,
所述判定部在所述拍摄图像内识别了多个面部区域的情况下,
当最大的面部区域的大小相对于所述拍摄图像的大小的比例为第1阈值以上、小于第2阈值、且多个面部区域的比例的标准偏差或方差或者多个面部区域的大小的标准偏差或方差小于第3阈值时,其中,所述第2阈值是所述第1阈值以上的值,
或者,当所述最大的面部区域的大小的比例为所述第2阈值以上时,
所述判定部判定为所述拍摄图像是所述人物图像,并且基于所述第1阈值以上的比例的面部区域的数量判定被摄物体的人数。
5.如权利要求1至4中任一项所述的图像处理装置,其特征在于,
所述文章生成部将与所述拍摄图像的配色方案相应的形容词作为与所述拍摄图像的特征量相应的单词而插入到所述空栏部来生成文章。
6.如权利要求5所述的图像处理装置,其特征在于,
所述文章生成部将根据所述拍摄图像是所述人物图像还是所述风景图像而决定的与所述拍摄图像上的规定区域的配色方案相应的形容词插入到所述空栏部来生成文章。
7.一种图像处理装置,其特征在于,包括:
图像输入部,其被输入拍摄图像;
决定部,其决定与所述拍摄图像的特征量及所述拍摄图像的拍摄条件的至少一方对应的文本;
判定部,其判定所述拍摄图像是第1类别的图像还是是与所述第1类别不同的第2类别的图像;
存储部,其存储第1文章结构和第2文章结构,所述第1文章结构是所述第1类别所使用的文章的文章结构,所述第2文章结构是所述第2类别所使用的文章的文章结构;
文章生成部,在通过所述判定部判定成所述拍摄图像是所述第1类别的图像时,所述文章生成部使用所述决定部所决定的所述文本来生成所述第1文章结构的文章,在通过所述判定部判定成所述拍摄图像是所述第2类别的图像时,所述文章生成部使用所述决定部所决定的所述文本生成所述第2文章结构的文章。
8.如权利要求7所述的图像处理装置,其特征在于,所述第1类别是肖像,所述第2类别是风景。
9.一种摄像装置,其特征在于,具有:
摄像部,其拍摄被摄物体并生成拍摄图像;
存储部,其作为将单词插入到规定的空栏部来完成文章的文章模板而存储人物图像用模板和风景图像用模板,其中,所述人物图像用模板用于生成针对以人物为被摄物体的人物图像的文章,所述风景图像用模板用于生成针对以风景为被摄物体的风景图像的文章;
判定部,其判定所述拍摄图像是所述人物图像还是所述风景图像;
文章生成部,其根据所述判定部对所述拍摄图像的判定结果,从所述存储部读出所述人物图像用模板和所述风景图像用模板的某一个的所述文章模板,将与所述拍摄图像的特征量或拍摄条件相应的单词插入到所读出的所述文章模板的所述空栏部来生成对于所述拍摄图像的文章。
10.一种程序,其特征在于,使图像处理装置的计算机执行步骤,其中,所述图像处理装置具有存储部,该存储部作为将单词插入到规定的空栏部来完成文章的文章模板而存储人物图像用模板和风景图像用模板,所述人物图像用模板用于生成针对以人物为被摄物体的人物图像的文章,所述风景图像用模板用于生成针对以风景为被摄物体的风景图像的文章,所述程序使所述图像处理装置的计算机执行的步骤为:
输入拍摄图像的图像输入步骤;
判定所述拍摄图像是所述人物图像还是所述风景图像的判定步骤;
文章生成步骤,根据所述判定步骤对所述拍摄图像的判定结果,从所述存储部读出所述人物图像用模板和所述风景图像用模板的某一个的所述文章模板,将与所述拍摄图像的特征量或拍摄条件相应的单词插入到所读出的所述文章模板的所述空栏部来生成对于所述拍摄图像的文章。
11.一种图像处理装置,其特征在于,具有:
决定部,其根据拍摄图像决定具有规定的意思的文字;
判定部,其判定所述拍摄图像是人物图像还是是与所述人物图像不同的图像;
存储部,其存储第1文章结构和第2文章结构,所述第1文章结构是所述人物图像所使用的文章的文章结构,所述第2文章结构是与所述人物图像不同的图像所使用的文章的文章结构;
输出部,在通过所述判定部判定成所述拍摄图像是所述人物图像时,所述输出部使用具有所述规定的意思的文字并输出所述第1文章结构的文章,在通过所述判定部判定成所述拍摄图像是与所述人物图像不同的图像时,所述输出部使用具有所述规定的意思的文字并输出所述第2文章结构的文章。
12.一种图像处理装置,其特征在于,具有:
图像取得部,其取得所拍摄的图像数据;
场景判别部,其根据所取得的所述图像数据判别场景;
主色提取部,其基于颜色信息的频率分布从所取得的所述图像数据提取主色;
存储部,其对每个场景附带关联地预先存储有颜色信息和第1标签;
第1标签生成部,其从所述存储部读出与所提取的所述主色和判别出的所述场景附带关联地预先存储的所述第1标签,将所读出的所述第1标签生成为所取得的所述图像数据的标签。
13.如权利要求12所述的图像处理装置,其特征在于,具有第2标签生成部,其基于所提取的所述主色的频率对所述主色的比例进行标准化,基于标准化了的所述主色的比例,修正所述第1标签,由此生成第2标签。
14.如权利要求12或13所述的图像处理装置,其特征在于,
在所述存储部中,对判别出的每个所述场景附带关联有多个颜色信息的组合信息和标签。
15.如权利要求12至14中任一项所述的图像处理装置,其特征在于,所述场景判别部从所取得的所述图像数据取得图像识别信息,从所取得的所述图像识别信息提取表示所述场景的信息,基于表示所提取的所述场景的信息来判别所述图像数据的所述场景。
16.如权利要求15所述的图像处理装置,其特征在于,所述场景判别部从所取得的所述图像数据提取特征量,基于所提取的所述特征量,判别所述图像数据的所述场景。
17.如权利要求12至15中任一项所述的图像处理装置,其特征在于,
具有区域提取部,其基于判别出的所述场景,从所取得的所述图像数据提取要提取所述主色的区域,
所述主色提取部从要提取所述主色的区域的图像数据提取所述主色。
18.如权利要求13至17中任一项所述的图像处理装置,其特征在于,将基于所述第1标签及通过修正所述第1标签而生成的第2标签的信息、或者基于所述第1标签或所述第2标签的信息,与所取得的所述图像数据附带关联地存储在所述存储部。
19.一种摄像装置,其特征在于,具有权利要求12至18中任一项所述的图像处理装置。
20.一种程序,是使计算机执行具有摄像部的图像处理装置的图像处理的程序,其特征在于,使计算机执行如下步骤:
图像取得步骤,取得所拍摄的图像数据;
场景判别步骤,根据所取得的所述图像数据判别场景;
主色提取步骤,基于颜色信息的频率分布从所取得的所述图像数据提取主色;
第1标签生成步骤,读出所提取的所述主色、并从按每个场景附带关联地预先存储有颜色信息和第1标签的存储部读出所述第1标签,将所读出的所述第1标签生成为所取得的所述图像数据的标签。
21.一种图像处理装置,其特征在于,具有:
场景判别部,其判别是否是人物摄影场景;
颜色提取部,在通过所述场景判别部判别为不是人物摄影场景时,所述颜色提取部从所述图像数据提取颜色信息;
存储部,其附带关联地预先存储有颜色信息和具有规定的意思的文字;
读出部,在通过所述场景判别部判别为不是人物摄影场景时,所述读出部从所述存储部读出与由所述颜色提取部提取出的所述颜色信息对应的具有所述规定的意思的文字。
22.一种图像处理装置,其特征在于,包括:
取得部,其取得图像数据及文本数据;
检测部,其检测所述取得部所取得的所述图像数据的边缘;
区域决定部,其基于由所述检测部检测到的边缘,决定所述图像数据中的配置所述文本数据的区域;
图像生成部,其生成在由所述区域决定部决定出的区域中配置有所述文本数据的图像。
23.如权利要求22所述的图像处理装置,其特征在于,
所述区域决定部将所述图像数据中的边缘较少的区域决定为配置所述文本数据的区域。
24.一种图像处理装置,其特征在于,具有:
图像输入部,其输入图像数据;
边缘检测部,其检测由所述图像输入部输入的图像数据中的边缘;
文本输入部,其输入文本数据;
区域决定部,其基于由所述边缘检测部检测到的边缘,决定所述图像数据中的所述文本数据的合成区域;
合成部,其将所述文本数据合成到由所述区域决定部决定的合成区域。
25.如权利要求24所述的图像处理装置,其特征在于,所述区域决定部将所述图像数据中的边缘较少的区域决定为所述合成区域。
26.如权利要求24或25所述的图像处理装置,其特征在于,
具有成本算出部,该成本算出部以通过所述边缘检测部检测到的边缘所在位置的成本变高的方式算出表示所述图像数据的各位置处的重要度的成本,
所述区域决定部基于通过所述成本算出部算出的成本,将与所述合成区域对应的成本较小的区域决定为所述合成区域。
27.如权利要求26所述的图像处理装置,其特征在于,
具有第1位置输入部,其输入所述图像数据中的第1位置,
所述成本算出部使得越位于接近所述第1位置的位置而成本越高,越远离所述第1位置的位置而成本越低,其中,所述第1位置通过所述第1位置输入部而被输入。
28.如权利要求26或27所述的图像处理装置,其特征在于,
具有面部检测部,其从所述图像数据检测人物的面部,
所述成本算出部使得通过所述面部检测部检测到的面部所在区域的成本变高。
29.如权利要求26至28中任一项所述的图像处理装置,其特征在于,
具有第2位置输入部,其输入合成所述文本数据的第2位置,
所述成本算出部使得通过所述第2位置输入部而输入的所述第2位置的成本变低。
30.如权利要求24至29中任一项所述的图像处理装置,其特征在于,
具有文字大小决定部,其以能够将所述文本数据的文本的全部包含在所述图像数据的图像区域内地合成的方式,决定所述文本数据的文字的大小。
31.如权利要求24至30中任一项所述的图像处理装置,其特征在于,
所述图像输入部输入动态图像的图像数据,
所述区域决定部基于所述动态图像的图像数据所包含的多个帧图像来决定所述文本数据的所述合成区域。
32.一种程序,其特征在于,使计算机执行如下步骤:
输入图像数据的步骤;
输入文本数据的步骤;
检测所输入的所述图像数据中的边缘的步骤;
基于检测到的所述边缘,决定所述图像数据中的所述文本数据的合成区域的步骤;
将所述文本数据合成到所决定的所述合成区域的步骤。
33.一种图像处理方法,其特征在于,具有如下步骤:
图像处理装置输入图像数据的步骤;
所述图像处理装置输入文本数据的步骤;
所述图像处理装置检测所输入的所述图像数据中的边缘的步骤;
所述图像处理装置基于检测到的所述边缘,决定所述图像数据中的所述文本数据的合成区域的步骤;
所述图像处理装置将所述文本数据合成到所决定的所述合成区域的步骤。
34.一种摄像装置,其特征在于,具有权利要求24至31中任一项所述的图像处理装置。
35.一种图像处理装置,其特征在于,包括:
检测部,其检测图像数据的边缘;
区域决定部,其基于由所述检测部检测到的所述边缘的位置,决定所述图像数据中的配置文字的配置区域;
图像生成部,其生成在通过所述区域决定部决定的所述配置区域配置有所述文字的图像。
36.一种图像处理装置,其特征在于,具有:
图像输入部,其输入图像数据;
文本设定部,其设定文本的数据;
文本合成区域设定部,其设定文本合成区域,该文本合成区域是在通过所述图像输入部输入的图像数据中合成通过所述文本设定部设定的文本的数据的区域;
字体设定部,其设定至少包含字体颜色的字体,并包括字体颜色设定部,该字体颜色设定部相对于基于通过所述图像输入部输入的图像数据及通过所述文本合成区域设定部设定的文本合成区域的、PCCS表色系的色调和色相,设定色相不变而变更了色调的字体颜色;
合成图像生成部,其使用通过所述字体设定部设定的至少包含字体颜色的字体,生成将通过所述文本设定部设定的文本的数据合成到图像数据中的文本合成区域而成的图像的数据即合成图像的数据,其中,所述图像数据通过所述图像输入部而输入,所述文本合成区域通过所述文本合成区域设定部而设定。
37.如权利要求36所述的图像处理装置,其特征在于,
所述字体颜色设定部求出图像数据中的文本合成区域的RGB的平均色,并根据所求出的RGB的平均色求出PCCS表色系的色调和色相,且设定仅变更了所求出的PCCS表色系的色调和色相中的色调的字体颜色,其中,所述图像数据通过所述图像输入部而输入,所述文本合成区域通过所述文本合成区域设定部而设定。
38.如权利要求36或37所述的图像处理装置,其特征在于,
所述字体颜色设定部在PCCS表色系中,针对暗色调,变更成白色调或浅灰色调。
39.如权利要求36至38中任一项所述的图像处理装置,其特征在于,所述字体颜色设定部在PCCS表色系中,针对明亮的色调,变更成在有彩色中具有对比的协调的关系的其他色调。
40.如权利要求39所述的图像处理装置,其特征在于,所述字体颜色设定部在PCCS表色系中,针对明亮的色调、且存在多个在有彩色中具有对比的协调的关系的其他色调的色调,变更成这些多个其他色调中最鲜艳的色调。
41.如权利要求36至40中任一项所述的图像处理装置,其特征在于,所述字体设定部通过所述字体颜色设定部设定字体颜色,并且设定轮廓的字体。
42.如权利要求36至41中任一项所述的图像处理装置,其特征在于,所述字体颜色设定部判定在图像数据中文本合成区域中的颜色的变化是否是规定值以上,当判定成所述文本合成区域中的颜色的变化是规定值以上时,在所述文本合成区域中设定2种以上的字体颜色,其中,所述图像数据通过所述图像输入部而输入,所述文本合成区域通过所述文本合成区域设定部而设定。
43.一种程序,其特征在于,使计算机执行如下步骤:
输入图像数据的步骤;
设定文本的数据的步骤;
设定文本合成区域的步骤,所述文本合成区域是在所输入的所述图像数据中合成所设定的所述文本的数据的区域;
相对于基于所输入的所述图像数据及所设定的所述文本合成区域的、PCCS表色系的色调和色相,设定色相不变而变更了色调的字体颜色,并设定至少包含字体颜色的字体的步骤;
使用所述设定的至少包含字体颜色的字体,生成将所设定的所述文本的数据合成到所输入的所述图像数据中的所设定的所述文本合成区域而成的图像的数据即合成图像的数据的步骤。
44.一种图像处理方法,其特征在于,具有:
图像处理装置输入图像数据的步骤;
所述图像处理装置设定文本的数据的步骤;
所述图像处理装置设定文本合成区域的步骤,其中,所述文本合成区域是在所输入的所述图像数据中合成所设定的所述文本的数据的区域;
所述图像处理装置相对于基于所输入的所述图像数据及所设定的所述文本合成区域的、PCCS表色系的色调和色相,设定色相不变而变更了色调的字体颜色,并设定至少包含字体颜色的字体的步骤;
所述图像处理装置使用所述设定的至少包含字体颜色的字体,生成将所设定的所述文本的数据合成到所输入的所述图像数据中的所设定的所述文本合成区域而成的图像的数据即合成图像的数据的步骤。
45.一种摄像装置,其特征在于,具有权利要求36至42中任一项所述的图像处理装置。
46.一种图像处理装置,其特征在于,包括:
取得部,其取得图像数据及文本数据;
区域决定部,其决定所述图像数据中的配置所述文本数据的文本配置区域;
颜色设定部,其对文本数据设定规定的颜色;
图像生成部,其生成在所述文本配置区域中配置了所述规定的颜色的所述文本数据的图像,
所述图像数据的所述文本配置区域的色相值和所述文本数据的色相值之比,相较于所述图像数据的所述文本配置区域的色调值和所述文本数据的色调值之比,更接近1。
47.如权利要求46所述的图像处理装置,其特征在于,所述颜色设定部根据所述文本配置区域的RGB的平均色求出PCCS表色系的色调值及色相值,不使所述PCCS表色系的色相变化,仅变更所述PCCS表色系的色调值。
48.一种图像处理装置,其特征在于,包括:
决定部,其决定图像数据中的配置文字的配置区域;
颜色设定部,其对文字设定规定颜色;
图像生成部,其生成在所述配置区域中配置了所述文字的图像,
所述颜色设定部设定所述规定颜色,以使得所述配置区域的色相值和所述文字的色相值之比,相较于所述配置区域的色调值和所述文字的色调之比,更接近1。
CN201280039636.6A 2011-09-21 2012-09-21 图像处理装置、程序、图像处理方法及摄像装置 Pending CN103718172A (zh)

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
JP2011206024 2011-09-21
JP2011-206024 2011-09-21
JP2011-266143 2011-12-05
JP2011266143 2011-12-05
JP2011266805 2011-12-06
JP2011-266805 2011-12-06
JP2011267882 2011-12-07
JP2011-267882 2011-12-07
JP2012206297A JP2013080464A (ja) 2011-09-21 2012-09-19 画像処理装置、撮像装置、及びプログラム
JP2012-206296 2012-09-19
JP2012-206297 2012-09-19
JP2012206296A JP2013140559A (ja) 2011-12-05 2012-09-19 画像処理装置、撮像装置、及び、プログラム
JP2012-206299 2012-09-19
JP2012206298A JP2013141199A (ja) 2011-12-06 2012-09-19 画像処理装置、プログラム、画像処理方法及び撮像装置
JP2012206299A JP2013141200A (ja) 2011-12-07 2012-09-19 画像処理装置、プログラム、画像処理方法及び撮像装置
JP2012-206298 2012-09-19
PCT/JP2012/074230 WO2013042768A1 (ja) 2011-09-21 2012-09-21 画像処理装置、プログラム、画像処理方法及び撮像装置

Publications (1)

Publication Number Publication Date
CN103718172A true CN103718172A (zh) 2014-04-09

Family

ID=50409484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280039636.6A Pending CN103718172A (zh) 2011-09-21 2012-09-21 图像处理装置、程序、图像处理方法及摄像装置

Country Status (2)

Country Link
US (1) US20140198234A1 (zh)
CN (1) CN103718172A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389658A (zh) * 2017-08-10 2019-02-26 富士施乐株式会社 信息处理装置
CN110248100A (zh) * 2019-07-18 2019-09-17 联想(北京)有限公司 一种拍摄方法、装置及存储介质
CN111160263A (zh) * 2019-12-30 2020-05-15 中国电子科技集团公司信息科学研究院 一种获取人脸识别阈值的方法及系统

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
KR20120118383A (ko) * 2011-04-18 2012-10-26 삼성전자주식회사 이미지 보정 장치 및 이를 이용하는 이미지 처리 장치와 그 방법들
WO2013161086A1 (ja) * 2012-04-27 2013-10-31 楽天株式会社 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
JP5941041B2 (ja) * 2012-06-26 2016-06-29 一般財団法人日本色彩研究所 任意の色の等価明度を示す値および鮮やかさ感を示す値の正規化方法、トーン種別判別方法、マンセル値算出方法、画像形成方法、インターフェース画面表示装置
US9317531B2 (en) * 2012-10-18 2016-04-19 Microsoft Technology Licensing, Llc Autocaptioning of images
JP2014139734A (ja) * 2013-01-21 2014-07-31 Sony Corp 情報処理装置および方法、並びにプログラム
JP6432197B2 (ja) * 2014-07-31 2018-12-05 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
US11080774B2 (en) * 2015-08-25 2021-08-03 Cardly Pty Ltd Online system and method for personalising a greeting card or stationery with handwriting and doodles using a computer
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
DK201670608A1 (en) * 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
US20170357644A1 (en) 2016-06-12 2017-12-14 Apple Inc. Notable moments in a collection of digital assets
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
JP6723092B2 (ja) * 2016-06-24 2020-07-15 キヤノン株式会社 撮像装置およびその制御方法ならびにプログラム
CN117193617A (zh) 2016-09-23 2023-12-08 苹果公司 头像创建和编辑
JP6876913B2 (ja) * 2017-03-07 2021-05-26 富士フイルムビジネスイノベーション株式会社 色情報表示装置及びプログラム
CN106960226B (zh) * 2017-04-11 2018-04-13 陕西师范大学 一种基于烟花算法的软子空间mr图像聚类方法
WO2018221599A1 (ja) * 2017-05-31 2018-12-06 カリーナシステム株式会社 手術器具検出システムおよびコンピュータプログラム
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
US10719702B2 (en) * 2017-11-08 2020-07-21 International Business Machines Corporation Evaluating image-text consistency without reference
AU2018201311B2 (en) * 2018-02-22 2023-11-30 Artlife Solutions Pty Ltd A system and method for sorting digital images
US11086935B2 (en) 2018-05-07 2021-08-10 Apple Inc. Smart updates from historical database changes
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11243996B2 (en) 2018-05-07 2022-02-08 Apple Inc. Digital asset search user interface
JP7171254B2 (ja) * 2018-06-13 2022-11-15 キヤノン株式会社 画像処理装置、撮像装置、および画像処理方法
US10846343B2 (en) 2018-09-11 2020-11-24 Apple Inc. Techniques for disambiguating clustered location identifiers
US10803135B2 (en) 2018-09-11 2020-10-13 Apple Inc. Techniques for disambiguating clustered occurrence identifiers
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
US11270485B2 (en) * 2019-07-22 2022-03-08 Adobe Inc. Automatic positioning of textual content within digital images
CN110677586B (zh) * 2019-10-09 2021-06-25 Oppo广东移动通信有限公司 图像显示方法、图像显示装置及移动终端
US11295495B2 (en) 2019-10-14 2022-04-05 Adobe Inc. Automatic positioning of textual content within digital images
JP6815667B1 (ja) * 2019-11-15 2021-01-20 株式会社Patic Trust 情報処理装置、情報処理方法、プログラム及びカメラシステム
CN112528062B (zh) * 2020-12-03 2024-03-22 成都航天科工大数据研究院有限公司 一种跨模态武器检索方法及系统
CN117085969B (zh) * 2023-10-11 2024-02-13 中国移动紫金(江苏)创新研究院有限公司 人工智能工业视觉检测方法、装置、设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389658A (zh) * 2017-08-10 2019-02-26 富士施乐株式会社 信息处理装置
CN110248100A (zh) * 2019-07-18 2019-09-17 联想(北京)有限公司 一种拍摄方法、装置及存储介质
CN111160263A (zh) * 2019-12-30 2020-05-15 中国电子科技集团公司信息科学研究院 一种获取人脸识别阈值的方法及系统
CN111160263B (zh) * 2019-12-30 2023-09-05 中国电子科技集团公司信息科学研究院 一种获取人脸识别阈值的方法及系统

Also Published As

Publication number Publication date
US20140198234A1 (en) 2014-07-17

Similar Documents

Publication Publication Date Title
CN103718172A (zh) 图像处理装置、程序、图像处理方法及摄像装置
JP4704224B2 (ja) アルバム作成装置、アルバム作成方法、及びプログラム
RU2693303C2 (ru) Способ и устройство для изменения цвета фона панели инструментов согласно доминирующему цвету изображения
US8411968B2 (en) Album creating apparatus, method and program that classify, store, and arrange images
CN105323456B (zh) 用于拍摄装置的图像预览方法、图像拍摄装置
JP4588642B2 (ja) アルバム作成装置、アルバム作成方法、及びプログラム
US9336610B2 (en) Information processing device, method, and program
CN103945104B (zh) 信息处理方法及电子设备
JP2006295890A (ja) アルバム作成装置、アルバム作成方法、及びプログラム
JP2006293986A (ja) アルバム作成装置、アルバム作成方法、及びプログラム
US20120105467A1 (en) Image And Theme Artwork Management
JP2006293985A (ja) アルバム作成装置、アルバム作成方法、及びプログラム
CN105430294A (zh) 图像处理装置以及图像处理方法
JP2006318449A (ja) アルバム作成装置、アルバム作成方法、及びプログラム
CN103679767A (zh) 图像生成装置以及图像生成方法
CN103518221B (zh) 图像处理装置及方法、用计算机程序进行图像处理的方法
CN108093174A (zh) 拍照设备的构图方法、装置和拍照设备
CN110351597A (zh) 一种视频剪辑的方法、装置及电子设备
CN111401316B (zh) 图像主色确定方法、装置、存储介质及电子设备
CN114494566A (zh) 图像渲染方法和装置
CN108230236B (zh) 数字图像自动拼版方法及数字化出版的图片拼版方法
JP5016540B2 (ja) 画像処理装置および方法並びにプログラム
CN116648733A (zh) 用于从面部图像提取颜色的方法和系统
KR101513931B1 (ko) 구도의 자동보정 방법 및 이러한 구도의 자동보정 기능이 탑재된 영상 장치
WO2013042768A1 (ja) 画像処理装置、プログラム、画像処理方法及び撮像装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140409