CN104135926A - 图像处理设备、图像处理系统、图像处理方法以及程序 - Google Patents

图像处理设备、图像处理系统、图像处理方法以及程序 Download PDF

Info

Publication number
CN104135926A
CN104135926A CN201280070232.3A CN201280070232A CN104135926A CN 104135926 A CN104135926 A CN 104135926A CN 201280070232 A CN201280070232 A CN 201280070232A CN 104135926 A CN104135926 A CN 104135926A
Authority
CN
China
Prior art keywords
image
unit
detected object
region
district
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280070232.3A
Other languages
English (en)
Other versions
CN104135926B (zh
Inventor
铃木优
五味信一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104135926A publication Critical patent/CN104135926A/zh
Application granted granted Critical
Publication of CN104135926B publication Critical patent/CN104135926B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Dermatology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本技术涉及能够简单和精确地检测其中显示像体毛那样的检测对象的图像的区域的图像处理设备、图像处理系统、图像处理方法以及程序。体毛区检测单元包括:投影变换单元,用于通过将拍摄体毛的第一图像投影变换到从与第一图像不同的方向拍摄体毛生成的第二图像的坐标系生成投影图像;差图像生成单元,用于生成第二图像与投影图像之间的差图像;以及区域检测单元,用于检测由差值大于等于规定阈值的像素形成的差图像中的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示体毛的体毛区和不同于这些的非体毛区。可能将本技术应用于分析,例如,皮肤状况的设备。

Description

图像处理设备、图像处理系统、图像处理方法以及程序
技术领域
本技术涉及图像处理设备、图像处理系统、图像处理方法以及程序,尤其涉及可以适当地用在检测图像中的预定对象的情况中的图像处理设备、图像处理系统、图像处理方法以及程序。
背景技术
在使用拍摄皮肤生成的图像分析皮肤状况的情况下,如果有体毛显示在图像中,则难以精确检测皮沟和皮嵴的形状。其结果是,使分析精度变低。鉴于这种情况,已经考虑使用除去体毛的图像,以便提高皮肤状况分析的精度。因此,关键是精确检测图像中的体毛区。
同时,已经提出了将构成图像中的体毛区的体毛像素与构成不是体毛区的区域的背景像素分开的技术(参见,例如,专利文献1)。具体地说,通过公开在专利文献1中的技术,进行将像素转变成大于等于图像中的像素值的众数的像素、和小于该众数的像素的二值化检测体毛像素,或利用索贝尔(Sobel)滤波器提取体毛的轮廓检测体毛像素。
引用列表
专利文献
专利文献1:JP 2010-82245 A
发明内容
本发明要解决的问题
但是,小于像素值的众数的像素包括许多不是体毛像素的像素。此外,图像也包含许多非体毛的轮廓。因此,可以认为,按照公开在专利文献1中的技术,在图像中检测体毛区的误差将变大。
因此,本技术的目的是容易地和精确地检测图像中显示像体毛那样的检测对象的区域。
问题的解决方案
本技术的第一方面的图像处理设备包括检测对象区检测单元,用于在拍摄检测对象生成的图像中检测显示检测对象的区域。该检测对象区检测单元包括:投影变换单元,用于通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像;差图像生成单元,用于生成第二图像与投影图像之间的差图像;以及区域检测单元,用于在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
该图像处理设备可以进一步包括检测对象除去单元,用于从拍摄检测对象生成的图像中除去检测对象。该检测对象除去单元可以包括:检测对象区检测单元;以及除去单元,用于通过根据该检测对象区检测单元进行的检测的结果,至少将与第一图像和第二图像的一个中显示检测对象的区域相对应的、在第一图像和第二图像的另一个中的区域中的像素投影到这些图像的一个中的像素以便取代相应像素,来从第一图像和第二图像的一个中除去检测对象。
该除去单元可以通过至少将与第二图像中的检测对象区相对应的第一图像中的区域中的像素投影到第二图像,并取代相应像素,来从第二图像中除去检测对象。
该除去单元可以通过至少将第二图像中的非检测对象区中的像素投影到第一图像,并取代相应像素,来从第一图像中除去检测对象。
该检测对象除去单元可以从通过从相互不同的方向拍摄检测对象生成的三个或更多个图像中选择两个图像,使用所选的两个图像新生成从中除去了检测对象的图像,并使用新生成的图像和剩余图像之一重复新生成从中除去了检测对象的图像的处理,直到没有剩余图像。
该检测对象区检测单元可以进一步包括:特征点提取单元,用于检测第一图像的特征点和第二图像的特征点;联系单元,用于将第一图像的特征点与第二图像的特征点相联系;以及投影矩阵计算单元,用于根据该联系单元相互联系的第一图像的特征点和第二图像的特征点的配对的至少一部分,计算用于将第一图像投影到第二图像的坐标系的投影矩阵。该投影变换单元可以使用该投影矩阵生成投影图像。
该投影矩阵计算单元可以根据多对特征点计算多个投影矩阵,该投影变换单元可以使用各自投影矩阵生成多个投影图像,该差图像生成单元可以生成第二图像与各自投影图像之间的多个差图像,以及该区域检测单元可以使用差图像当中与第二图像具有最小差的差图像检测候选区域。
该区域检测单元可以通过将与候选区域相对应的第二图像的区域中的图像与周围图像相比较,将检测对象区与非检测对象区分开。
该检测对象区检测单元可以检测在从相互不同的方向拍摄检测对象生成的三个或更多个图像的每一个中的检测对象区。该图像处理设备可以进一步包括区域组合单元,该区域组合单元用于将从三个或更多个图像中选择的图像中的检测对象区与将剩余图像的检测对象区投影到所选图像的坐标系生成的区域相组合。
本技术的第一方面的图像处理方法包括如下步骤:通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像;生成第二图像与投影图像之间的差图像;在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域;以及将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区,这些步骤由图像处理设备执行。
本技术的第一方面的程序包括如下步骤:通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像;生成第二图像与投影图像之间的差图像;在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域;以及将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
本技术的第二方面的图像处理系统包括:拍摄单元,用于拍摄检测对象;以及检测对象区检测单元,用于在该拍摄单元捕获的图像中检测显示检测对象的区域。该检测对象区检测单元包括:投影变换单元,用于通过将利用该拍摄单元拍摄检测对象生成的第一图像投影变换到利用该拍摄单元从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像;差图像生成单元,用于生成第二图像与投影图像之间的差图像;以及区域检测单元,用于在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
该图像处理系统可以进一步包括检测对象除去单元,用于从利用该拍摄单元拍摄检测对象生成的图像中除去检测对象。该检测对象除去单元可以包括:检测对象区检测单元;以及除去单元,至少将与第一图像和第二图像的一个中显示检测对象的区域相对应的、在第一图像和第二图像的另一个中的区域中的像素投影到这些图像的一个中的像素以便取代相应像素,来从第一图像和第二图像的一个中除去检测对象。
该检测对象除去单元可以从通过利用该拍摄单元从相互不同的方向拍摄检测对象生成的三个或更多个图像中选择两个图像,使用所选的两个图像新生成从中除去了检测对象的图像,并使用新生成的图像和剩余图像之一重复新生成从中除去了检测对象的图像的处理,直到没有剩余图像。
该检测对象区检测单元可以进一步包括:特征点提取单元,用于检测第一图像的特征点和第二图像的特征点;联系单元,用于将第一图像的特征点与第二图像的特征点相联系;以及投影矩阵计算单元,用于根据该联系单元相互联系的第一图像的特征点和第二图像的特征点的配对的至少一部分,计算用于将第一图像投影到第二图像的坐标系的投影矩阵。该投影变换单元可以使用该投影矩阵生成投影图像。
该检测对象区检测单元可以检测在利用该拍摄单元从相互不同的方向拍摄检测对象生成的三个或更多个图像的每一个中的检测对象区。该图像处理系统可以进一步包括区域组合单元,该区域组合单元用于将从三个或更多个图像中选择的图像中的检测对象区与将剩余图像的检测对象区投影到所选图像的坐标系生成的区域相组合。
该拍摄单元可以包括:二维排列的透镜;以及成像元件。可以为该透镜的每一个配备该成像元件,该成像元件相对于各自透镜的位置是相同的。该图像处理系统可以进一步包括图像生成单元,该图像生成单元用于生成由相对于该透镜具有相同位置的成像元件捕获的图像。
该拍摄单元可以捕获径向围绕包括检测对象的区域的至少一部分的反光镜反射的图像,以及该图像处理系统可以进一步包括:图像切出单元,用于从捕获反光镜反射的图像的拍摄单元生成的图像中切出多个图像;以及几何失真校正单元,用于对切出图像进行几何失真校正。
第一图像和第二图像可以是拍取检测对象的特写图像的拍摄单元捕获的图像。
本技术的第三方面的图像处理设备包括:投影变换单元,用于通过将拍摄体毛生成的第一图像投影变换到从与第一图像不同的方向拍摄体毛生成的第二图像的坐标系生成投影图像;差图像生成单元,用于生成第二图像与投影图像之间的差图像;区域检测单元,用于在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示体毛的体毛区和在体毛区之外的非体毛区;以及除去单元,用于通过根据该区域检测单元进行的检测的结果至少投影与第一图像和第二图像的一个中显示体毛的区域相对应的、在第一和第二图像的另一个中的区域中的像素到这些图像的一个中的像素以取代相应像素,来从第一图像和第二图像的一个中除去体毛。
在本技术的第一方面中,通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像,并生成第二图像与投影图像之间的差图像。在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,并将第二图像中与候选区域相对应的区域划分成检测对象区和在检测对象区之外的非检测对象区。
在本技术的第二方面中,拍摄检测对象,通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像,并生成第二图像与投影图像之间的差图像。在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,并将第二图像中与候选区域相对应的区域划分成检测对象区和在检测对象区之外的非检测对象区。
在本技术的第三方面中,通过将拍摄体毛生成的第一图像投影变换到从与第一图像不同的方向拍摄体毛生成的第二图像的坐标系生成投影图像,并生成第二图像与投影图像之间的差图像。在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,并将第二图像中与候选区域相对应的区域划分成显示体毛的体毛区和在体毛区之外的非体毛区。通过根据体毛检测的结果至少投影与第一图像和第二图像之一中显示体毛的区域相对应的区域中的像素,并取代相应像素,从第一图像和第二图像之一中除去体毛。
发明效果
按照本技术的第一或第二方面,可以容易地和精确地检测图像中显示像体毛那样的检测对象的区域。
按照本技术的第三方面,可以容易地和精确地检测图像中显示体毛的区域。更进一步,按照本技术的第三方面,可以精确地除去图像中的体毛。
附图说明
图1是示出应用本技术的图像处理系统的第一实施例的框图;
图2是示出在从两个方向进行拍摄的情况下拍摄设备的理想定位的例子的图;
图3是示出在从两个方向进行拍摄的情况下拍摄设备的理想定位的例子的图;
图4是示出体毛区检测单元的示范性结构的框图;
图5是说明体毛检测处理的第一实施例的流程图;
图6是说明体毛检测处理的特例的图;
图7是详细说明体毛区检测处理的流程图;
图8是说明计算单应矩阵的方法的图;
图9是说明皮肤图像的投影变换的特例的图;
图10是说明生成差图像的方法的图;
图11是说明检测体毛区的方法的图;
图12是说明检测体毛区的方法的图;
图13是示出应用本技术的图像处理系统的第二实施例的框图;
图14是说明体毛除去处理的第一实施例的流程图;
图15是说明从皮肤图像中除去体毛的第一方法的图;
图16是说明从皮肤图像中除去体毛的第二方法的图;
图17是说明从两个方向拍摄皮肤所带来的问题的图;
图18是示出应用本技术的图像处理系统的第三实施例的框图;
图19是示出在从三个方向进行拍摄的情况下拍摄设备的理想定位的例子的图;
图20是说明体毛检测处理的第二实施例的流程图;
图21是说明体毛检测处理的特例的图;
图22是说明体毛检测处理的特例的图;
图23是说明组合体毛区的方法的图;
图24是示出应用本技术的图像处理系统的第四实施例的框图;
图25是说明体毛除去处理的第二实施例的流程图;
图26是示出应用本技术的图像处理系统的第五实施例的框图;
图27是示出探头的示范性结构的示意图;
图28是说明体毛除去处理的第三实施例的流程图;
图29是说明生成皮肤图像的方法的图;
图30是示出应用本技术的图像处理系统的第六实施例的框图;
图31是说明显微透镜和成像元件的定位的例子、和重构皮肤图像的方法的图;
图32是说明体毛除去处理的第四实施例的流程图;
图33是示出应用本技术的图像处理系统的第七实施例的框图;
图34是示出面貌分析单元的示范性结构的框图;
图35是说明面貌分析处理的流程图;
图36是说明面貌分析处理的特例的图;
图37是说明在未从皮肤图像中除去体毛,以及进行面貌分析处理的情况下的问题的图;
图38是说明检测对象的修改的图;
图39是说明在检测对象是人的情况下检测检测对象区的方法的图;
图40是说明在检测对象是人的情况下检测检测对象区的方法的图;
图41是说明本技术的第一示范性应用的图;
图42是说明本技术的第二示范性应用的图;以及
图43是示出计算机的示范性结构的框图。
具体实施方式
以下是实现本技术的方式(下文称为实施例)的描述。该说明将按如下次序作出。
1.第一实施例(使用从两个方向捕获的皮肤图像检测体毛区的例子)
2.第二实施例(使用从两个方向捕获的皮肤图像从皮肤图像中除去体毛的例子)
3.第三实施例(使用从三个或更多个方向捕获的皮肤图像检测体毛区的例子)
4.第四实施例(使用从三个或更多个方向捕获的皮肤图像从皮肤图像中除去体毛的例子)
5.第五实施例(一台拍摄设备使用反光镜从不同方向拍摄皮肤的例子)
6.第六实施例(使用显微透镜从不同方向拍摄皮肤的例子)
7.第七实施例(面貌分析的示范性应用)
8.修改例
<1.第一实施例>
首先参照图1到12,描述本技术的第一实施例。
[图像处理系统101的结构例子]
图1是示出作为应用本技术的图像处理系统的第一实施例的图像处理系统101的功能结构的例子的框图。
图像处理系统101被设计成包括探头111和图像处理设备112。图像处理系统101是在使探头111与人的皮肤接触或接近形成的图像(下文称为皮肤图像)中检测显示体毛的区域(下文称为体毛区)的系统。
探头111被设计成包括两台拍摄设备:拍摄设备121-1和121-2。拍摄设备121-1和121-2可以由能够极短距离(例如,几毫米到几厘米)地拍取特写图像的摄像机形成。拍摄设备121-1和121-2可以由除了摄像机之外的其它拍摄装置形成。
将拍摄设备121-1和121-2放置在探头111的内部,以便在探头111的预定部分与人的皮肤接触或接近的同时,可以从不同方向拍摄人的皮肤的相同区域。拍摄设备121-1和121-2将各自捕获皮肤图像供应给图像处理系统112。
现在描述定位拍摄设备121-1和121-2的条件。
将拍摄设备121-1和121-2定位成使各自拍摄区至少部分相互重叠。还将拍摄设备121-1和121-2定位成至少在光轴的中心线相对于要拍摄的人的皮肤的表面的方位角或俯角方面相互不同。于是,拍摄设备121-1和121-2可以从不同方向同时拍摄人的皮肤的相同区域。这里,拍摄设备121-1的光轴的中心线和拍摄设备121-2的光轴的中心线未必彼此相交。
图2和3示出了拍摄设备121-1和121-2的理想定位的例子。图2是使用辅助线示出拍摄设备121-1和121-2之间的位置关系的图。图3是示出从侧面看过去的图2的拍摄设备121-1和121-2之间的位置关系的图。
拍摄设备121-1的光轴的中心线在人的皮肤的表面上与拍摄设备121-2的光轴的中心线相交,拍摄设备121-1沿着从交点看过去向上倾斜的方向放置。于是,拍摄设备121-1可以从向上倾斜方向拍摄与拍摄设备121-2共享的区域。
同时,拍摄设备121-2被放置在皮肤的上面,以便光轴的中心线变成与皮肤的表面垂直,或光轴的中心线的俯角变成90°。其结果是,拍摄设备121-2可以从正上方拍摄皮肤,并且可以获取无失真的皮肤图像。
拍摄设备121-1的光轴的中心线与拍摄设备121-2的光轴的中心线之间的角度θ由体毛相对于皮肤表面的距离和体毛的厚度决定。可以将角度θ设置在,例如,45°上。拍摄设备121-1的光轴的中心线的俯角是(90°-θ)。
在下文中,当无需相互区分拍摄设备121-1和拍摄设备121-2时,将它们简称为拍摄设备121。
回头参照图1,图像处理设备112被设计成包括图像获取单元131、体毛区检测单元132、和存储单元133。
图像获取单元131获取拍摄设备121-1和拍摄设备121-2捕获的皮肤图像,并将皮肤图像供应给体毛区检测单元132。
体毛区检测单元132检测所获皮肤图像中的体毛区,并将皮肤图像和指示检测结果的信息输出到后级中的设备。
存储单元133适当地存储图像处理系统112中的处理所需的数据等。
[体毛区检测单元132的结构例子]
图4是示出体毛区检测单元132的功能结构的例子的框图。
体毛区检测单元132被设计成包括特征点提取单元151、联系单元152、单应矩阵计算单元153、投影变换单元154、差图像生成单元155、和区域检测单元156。
特征点提取单元151提取各自皮肤图像的特征点。特征点提取单元151将皮肤图像和指示所提取特征点的信息供应给联系单元152。
联系单元152就特征点而言将两个皮肤图像相互联系,并检测估计相同的特征点的配对。联系单元152将皮肤图像和指示特征点对检测的结果的信息供应给单应矩阵计算单元153。
根据两个皮肤图像的特征点对的至少一部分,单应矩阵计算单元153计算将一个皮肤图像(下文也称为投影原始图像)投影变换到另一个皮肤图像(下文也称为投影目的地图像)的坐标系的单应矩阵。单应矩阵计算单元153将皮肤图像、单应矩阵、和指示用在计算单应矩阵中的特征点的配对的信息供应给投影变换单元154。
投影变换单元154使用该单应矩阵投影变换投影原始图像。投影变换单元154将皮肤图像(投影原始图像和投影目的地图像)、通过投影变换生成的图像(下文称为投影变换图像)、单应矩阵、和指示用在计算单应矩阵中的特征点的配对的信息供应给差图像生成单元155。
差图像生成单元155生成投影变换图像与投影目的地图像之间的差值。差图像生成单元155将差图像,以及单应矩阵和指示用在生成差图像的处理中的特征点的配对的信息存储到存储单元133中。如有必要,差图像生成单元155还指示单应矩阵计算单元153计算单应矩阵。当完成差图像的生成时,差图像生成单元155将皮肤图像(投影原始图像和投影目的地图像)供应给区域检测单元156。
区域检测单元156根据存储在存储单元133中的差图像检测投影目的地图像中的体毛区。区域检测单元156将皮肤图像(投影原始图像和投影目的地图像),以及指示体毛区检测的结果的信息输出到后级。区域检测单元156还将至少指示用在生成用在检测体毛区中的差图像的处理中的单应矩阵或特征点的配对的信息输出到后级。
[图像处理系统101进行的体毛检测处理]
现在参照显示在图5中的流程图,描述图像处理系统101进行的体毛检测处理。
以下是在如伴随着特例的图6所示,拍摄设备121-1从左边沿着向下倾斜方向拍摄,和拍摄设备121-2从右边沿着向下倾斜方向拍摄存在体毛BH1的皮肤的区域的情况下进行的处理的描述。
在步骤S1中,图像处理系统101获取从不同方向捕获的两个皮肤图像。具体地说,拍摄设备121-1和121-2从相互不同的方向几乎同时地拍摄人的皮肤。此刻,拍摄设备121-1和121-2短距离地捕获皮肤的特写图像,例如,探头111与皮肤接触或接近。拍摄设备121-1和121-2然后将作为拍摄的结果获得的皮肤图像供应给图像获取单元131。图像获取单元131将所获皮肤图像供应给体毛区检测单元132的特征点提取单元151。
例如,如图6所示,拍摄设备121-1捕获包括图像DL1的皮肤图像,拍摄设备121-2捕获包括图像DR1的皮肤图像。图像DL1和图像DR1是从拍摄设备121-1和拍摄设备121-2捕获的各自皮肤图像中提取的与相同皮肤区域相对应的部分。
在图像DL1和图像DR1中分别存在每一个显示体毛BH1的体毛区AL1和体毛区AR1。由于图像DL1和图像DR1是从相互不同的方向捕获的,所以体毛BH1遮盖不同皮肤区域。也就是说,图像DL1中体毛区AL1遮盖的皮肤区域不同于图像DR1中体毛区AR1遮盖的皮肤区域。
图像DL1的左侧较长而右侧较短,因为左侧区域最接近拍摄设备121,被显示成较大区域,而较接近右侧的区域显得较小。由于与上述相同的原因,图像DR1的右侧较长而左侧较短。
在下文中,作为特例,将适当地描述对图像DL1和图像DR1进行处理的情况。
在步骤S2中,体毛区检测单元132进行体毛区检测处理,然后结束体毛检测处理。
现在参照图7,详细描述体毛区检测处理。
在步骤S21中,特征点提取单元151提取各自皮肤图像的特征点。特征点提取单元151然后将皮肤图像和指示所提取特征点的信息供应给联系单元152。
提取特征点的方法可以是任何适当方法。例如,根据像皮沟之间的交点、皮嵴、毛孔、汗腺、和皮肤表面的血管图案那样,皮肤特有的信息,可以使用不随旋转引起的图像变化、尺度变化、或照明变化而变的SIFT(尺度不变特征变换)特征量或SURF(加速稳健特征)特征量提取特征点。
在步骤S22中,联系单元152相互联系图像的特征点。具体地说,联系单元152检测皮肤图像之一的特征点和皮肤图像的另一个的特征点的组合当中估计相同的特征点的配对。
在根据,例如,SIFT特征量提取特征点的情况下,联系单元152选择图像DL1的特征点之一,并使用有关所选特征点与图像DR1的各自特征点之间的SIFT特征量的矢量信息计算矢量间距离。联系单元152将图像DL1的所选特征点与矢量间距离最短的图像DR1的特征点相联系,以形成相同特征点的配对。联系单元152对所有特征点都进行这种处理。
在步骤S23中,单应矩阵计算单元153随机选择四对特征点。例如,如图8所示,单应矩阵计算单元153选择如下四对特征点:图像DL1的特征点FP1L到FP4L、和与特征点FP1L到FP4L形成四对的图像DR1的特征点FP1R到FP4R。
在步骤S24中,单应矩阵计算单元153根据根据特征点的所选配对计算单应矩阵。例如,根据显示在图8中的四对特征点,单应矩阵计算单元153计算将图像DL1(投影原始图像)投影到图像DR1(投影目的地图像)的坐标系的单应矩阵HLR。单应矩阵计算单元153然后将皮肤图像、计算的单应矩阵、和指示用在计算单应矩阵中的特征点的配对的信息供应给投影变换单元154。
在步骤S25中,投影变换单元154使用单应矩阵投影变换皮肤图像之一。例如,如图9所示,投影变换单元154使用单应矩阵计算单元153计算的单应矩阵HLR投影变换图像DL1(投影原始图像),以生成图像DL1′(投影变换图像)。此刻,将图像DL1中的体毛区AL1投影成图像DL1′中的体毛区AL1′。体毛区AL1′是与图像DR中的体毛区AR1不同的区域。
投影变换单元154然后将皮肤图像(投影原始图像和投影目的地图像)、投影变换图像、单应矩阵、和指示用在计算单应矩阵中的特征点的配对的信息供应给差图像生成单元155。
在步骤S26中,差图像生成单元155生成投影变换的皮肤图像(投影变换图像)与作为投影目标的皮肤图像(投影目的地图像)之间的差图像。例如,如图10所示,差图像生成单元155生成由图像DL1′与图像DR之间的对应像素的差值的绝对值形成的差图像DS1。在差图像DS1中,与体毛区AL1′相对应的区域AL2与与体毛区AR1相对应的区域AR2之间的差值较大。
在步骤S27中,差图像生成单元155将与单应矩阵相联系的所生成差图像和指示用在生成差图像的处理中的四对特征点的组合的信息存储到存储单元133中。
在步骤S28中,差图像生成单元155确定是否生成了预定数量的差图像。如果确定未生成预定数量的差图像,则该处理返回到步骤S23。此刻,差图像生成单元155指示单应矩阵计算单元153计算单应矩阵。
此后,重复步骤S23到S28的过程预定次数。具体地说,重复随机选择四对特征点,以及生成使用根据特征点的所选配对计算的单应矩阵投影变换的投影变换图像与投影目的地图像之间的差图像的处理。
另一方面,如果在步骤S28中确定已经生成了预定数量的差图像,则该处理转移到步骤S29。此刻,差图像生成单元将皮肤图像(投影原始图像和投影目的地图像)供应给区域检测单元156。
在步骤S29中,区域检测单元156选择具有最小差值的差图像。具体地说,区域检测单元156选择存储在存储单元133中的差图像当中差值的和值最小的差图像。
在步骤S30中,区域检测单元156使用所选差图像检测体毛区。具体地说,区域检测单元156首先在所选差图像中检测由差值大于等于预定阈值的像素形成的区域,作为候选体毛区。例如,检测与图10中的差图像DS1中由区域AL2和区域AR2形成的区域相对应的投影目的地图像中的区域作为候选体毛区。
区域AR2是在投影目的地图像(图像DR1)中实际显示体毛的区域(体毛区)。同时,区域AL2是在投影目的地图像中不显示体毛而在投影变换图像(图像DL1′)中显示体毛的区域(下文称为非体毛区)。通常,候选体毛区被选成体毛区和非体毛区在根部(根基)连续的区域。但是,与其根部(根基)未显示在皮肤图像中的体毛相对应的候选体毛区被检测成相隔一段距离的体毛区和非体毛区的两个区域。
区域检测单元156进一步将候选体毛区划分成在投影目的地图像中实际显示体毛的区域(体毛区)、和其它区域(非体毛区)。
现在描述将体毛区与非体毛区分开的方法。下面适当描述在如图11所示检测由体毛区A1和非体毛区A2形成的候选体毛区的情况下要使用的分开方法。
例如,区域检测单元156从投影目的地图像中的候选体毛区中选择一个像素作为当前像素。区域检测单元156进一步检测当前像素在其中心的预定尺寸的长方形区域(下文称为当前区域)中各自像素当中的最大像素值。该最大像素值指示当前区域中的最大亮度值。
在当前像素的像素值与最大像素值之间的差值大于等于预定阈值的情况下,区域检测单元156确定当前像素是体毛区中的像素。在当前像素的像素值与最大像素值之间的差值小于预定阈值的情况下,区域检测单元156确定当前像素是非体毛区中的像素。
例如,在体毛区A1中的像素P1是当前像素的情况下,像素P1是体毛上的像素,具有接近于0的像素值。因此,与像素P1在其中心的当前区域B1中的最大像素值的像素值差较大。鉴于此,像素P1被确定为体毛区A1中的像素。在,例如,非体毛区A2中的像素P2是当前像素的情况下,像素P2是皮肤上的像素,与像素P2在其中心的当前区域B2中的最大像素值的像素值差较小。鉴于此,像素P2被确定为非体毛区A2中的像素。
当前区域的一边的长度(像素数量)优选地被设置在大于沿着假设在皮肤图像中的体毛的厚度方向的最大像素数量并接近最大像素数量的数值上。例如,在以70倍放大率拍取特写图像获得和具有1280×1024个像素的分辨率的皮肤图像中,将当前区域的一边的长度设置在51个像素上。
区域检测单元156重复上述处理直到作为当前像素地处理了候选体毛区中的所有像素,将候选体毛区中的像素划分成体毛区中的像素和非体毛区中的像素。将候选体毛区中的图像与周围区域中的图像相比较,以便将候选体毛区划分成体毛区和非体毛区。
将体毛区与非体毛区分开的方法不局限上述方法。例如,可以不逐个像素地进行确定。如图12所示,可以将候选体毛区划分成区域A1和区域A2,之后作出检验以确定区域之一是体毛区还是非体毛区。在这种情况下,只有各自区域中的一些像素而不是各自区域中的所有像素用在确定中。
区域检测单元156将皮肤图像(投影原始图像和投影目的地图像),以及指示体毛区和非体毛区的检测结果的信息、和用在生成用在检测体毛区中的差图像的处理中的单应矩阵输出到后级。
在下文中,将用在生成用在检测体毛区中的差图像的处理中的单应矩阵称为最佳单应矩阵。该最佳单应矩阵是计算的单应矩阵当中具有投影变换图像与投影目的地图像之间的最小差值的单应矩阵。
以上述方式,可以容易地和精确地检测皮肤图像中的体毛区。
<2.第二实施例>
现在参照图13到16,描述本技术的第二实施例。除了进一步包括从皮肤图像中除去体毛的功能之外,本技术的第二实施例与第一实施例相同。
[图像处理系统201的结构例子]
图13是示出作为应用本技术的图像处理系统的第二实施例的图像处理系统201的功能结构的例子的框图。
图像处理系统201是将从皮肤图像中除去体毛的功能加入图像处理系统101中形成的系统。在该图中,与图1中的那些等效的组件用与用在图1中的那些相同的标号表示,并且这里不再重复说明进行与上述相同的处理的组件。
图像处理系统210与图1的图像处理系统101的不同之处在于用图像处理设备211取代图像处理设备112。此外,图像处理设备211与图像处理设备112的不同之处在于进一步包括体毛除去单元231。
体毛除去单元231被设计成包括体毛区检测单元132和除去单元241。
根据体毛区检测单元132进行的体毛区检测的结果,除去单元241生成从中除去了体毛的作为皮肤图像的图像(下文称为体毛除去图像)。除去单元241将生成的体毛除去图像输出到后级。
[图像处理系统201进行的体毛除去处理]
现在参照显示在图14中的流程图,描述图像处理系统201进行的体毛除去处理。
在步骤S101中,与图5中的步骤S1的过程一样,获取从不同方向捕获的两个皮肤图像。
在步骤S102中,与图5中的步骤S2的过程一样,进行体毛区检测处理。体毛区检测单元132的区域检测单元156然后将皮肤图像(投影原始图像和投影目的地图像),以及指示体毛区和非体毛区的检测结果的信息、和最佳单应矩阵供应给除去单元241。
在步骤S103中,除去单元241生成从中除去了体毛的图像。具体地说,除去单元241至少用投影原始图像中的相应像素取代投影目的地图像中的体毛区中的像素,生成体毛除去图像。
例如,除去单元241计算最佳单应矩阵的逆矩阵。使用最佳单应矩阵的逆矩阵,除去单元241计算与候选体毛区中的非体毛区相对应的投影原始图像中的区域,或投影原始图像中的体毛区。除去单元241然后使用最佳单应矩阵将投影原始图像的体毛区之外的像素投影到投影目的地图像,以便取代投影目的地图像中的像素。这样,用投影原始图像中的相应像素取代投影目的地图像中包括非体毛区部分的体毛区中的像素,并生成作为从中除去了体毛的投影目的地图像的图像(体毛除去图像)。
例如,如图15所示,除去单元241使用最佳单应矩阵HLR将图像DL1中体毛区AL1之外的像素投影在图像DR1上,以便取代图像DR1中的像素。其结果是,从图像DR1中除去了体毛区AR1,并取而代之地生成显示体毛区AR1遮盖的皮肤的体毛除去图像。
可替代地,除去单元241使用最佳单应矩阵的逆矩阵计算与投影目的地图像中的体毛区相对应的投影原始图像中的区域。计算的区域是与投影原始图像中的体毛区不同的区域,不显示体毛。除去单元241然后使用最佳单应矩阵将所计算投影原始图像中的区域内的像素投影到投影目的地图像,以便取代投影目的地图像中的像素。这样,用投影原始图像中的相应像素取代投影目的地图像中的体毛区中的像素,并生成作为从中除去了体毛的投影目的地图像的图像(体毛除去图像)。
例如,除去单元241计算与图像DR1中的体毛区AR1相对应的图像DL1中的区域。如图16所示,除去单元241然后使用最佳单应矩阵将图像DL1中的所计算区域内的像素(图中用圆圈围住的像素)投影到图像DR1,以便取代图像DR1中的像素(体毛区AR1中的像素)。其结果是,从图像DR1中除去了体毛区AR1,并取而代之地生成显示体毛区AR1遮盖的皮肤的体毛除去图像。
后一种方法可以减少要投影的像素的数量,缩短了处理时间。
除去单元241然后将生成的体毛除去图像输出到后级。
以上述方式,可以容易地和有把握地从皮肤图像中除去体毛。
<3.第三实施例>
现在参照图17到23,描述本技术的第三实施例。在本技术的第三实施例中,使用从三个或更多个不同方向拍摄皮肤获得的三个或更多个皮肤图像检测体毛区。
由于体毛具有线性形式,所以如上面参考图6所述,优选的是从与体毛的延伸方向垂直的两个方向捕获皮肤图像。这是因为,这样做可以提高在一个皮肤图像中被体毛遮盖的皮肤区域在另一个皮肤图像中不被体毛遮盖而是显示出来的概率(或面积)。
但是,体毛未必沿着一个方向延伸,而是可能以各种方式延伸。因此,未必从与体毛的延伸方向垂直的两个方向捕获皮肤图像。例如,如图17所示,存在拍摄设备121-1和拍摄设备121-2从与体毛BH11的延伸方向平行但相互反向的两个方向进行拍摄的情况。在这样的情况下,当从两台拍摄设备看过去时,体毛BH11遮盖的皮肤区域相互重叠。也就是说,拍摄设备121-1获得的图像DL11中体毛区AL11遮盖的皮肤区域与拍摄设备121-2获得的图像DR11中体毛区AR11遮盖的皮肤区域重叠。在这种情况下,差图像中与体毛区相对应的区域的差值较小。其结果是,难以精确检测体毛区。
鉴于此,在本技术的第三实施例中,从三个或更多个方向拍摄皮肤,以便可以更精确地检测体毛区。
[图像处理系统301的结构例子]
图18是示出作为应用本技术的图像处理系统的第三实施例的图像处理系统301的功能结构的例子的框图。在该图中,与图1中的那些等效的组件用与用在图1中的那些相同的标号表示,并且这里不再重复说明进行与上述相同的处理的组件。
图像处理系统301被设计成包括探头311和图像处理设备312。
探头311与图1的探头111的不同之处在于所安装拍摄设备121的数量。具体地说,在探头311中配备了n(n是三或更大的数)台拍摄设备121-1到121-n。
将拍摄设备121-1和121-n放置在探头311的内部,以便在探头311的预定部分与人的皮肤接触或接近的同时,可以从不同方向拍摄人的皮肤的相同区域。拍摄设备121-1和121-n将各自捕获皮肤图像供应给图像处理系统312。
现在描述定位拍摄设备121-1和121-n的条件。
将拍摄设备121-1和121-n定位成存在所有拍摄设备要拍摄的区域。还将任何两台拍摄设备121定位成至少在光轴的中心线相对于要拍摄的人的皮肤的表面的方位角或俯角方面相互不同。于是,任何两台拍摄设备121可以从不同方向同时拍摄人的皮肤的相同区域。这里,任何两台拍摄设备121的光轴的中心线未必彼此相交。
图19示出了在使用三台拍摄设备121的情况下的理想定位的例子。
拍摄设备121-1和拍摄设备121-2处在与显示在图2中的那些相同的位置上。拍摄设备121-3的光轴的中心线与在人的皮肤的表面上与拍摄设备121-1和拍摄设备121-2的光轴的中心线相交,沿着从交点看过去向上倾斜的方向放置。
拍摄设备121-1的光轴的中心线和拍摄设备121-3的光轴的中心线方位角相差90°地相互不同。进一步,拍摄设备121-2的光轴的中心线与拍摄设备121-1的光轴的中心线之间的角度θ1与拍摄设备121-2的光轴的中心线与拍摄设备121-3的光轴的中心线之间的角度θ2相同。
回头参照图18,图像处理设备312与图1的图像处理设备112的不同之处在于用图像获取单元331取代图像获取单元131,以及添加了图像选择单元332和区域组合单元333。
图像获取单元331获取拍摄设备121-1和拍摄设备121-n捕获的皮肤图像,并将皮肤图像存储到存储单元133中。图像获取单元331还将皮肤图像的获取通知图像选择单元332。
图像选择单元332选择存储在存储单元133中的两个皮肤图像作为当前图像,并将所选皮肤图像供应给体毛区检测单元132。当检测了所有皮肤图像中的体毛区时,图像选择单元332将那种意思通知区域组合单元333。
体毛区检测单元132检测图像选择单元332选择的皮肤图像中的体毛区,并将指示检测结果的信息供应给区域组合单元333。
区域组合单元333从存储在存储单元133中的皮肤图像中选择要最终从中检测体毛区的皮肤图像(下文称为检测对象图像)。区域组合单元333计算通过将从非检测对象图像的各自皮肤图像中检测的体毛区投影到检测对象图像的坐标系形成的体毛区。区域组合单元333通过组合检测对象图像中的体毛区和从各自皮肤图像投影到检测对象图像的坐标系的体毛区进一步计算最终体毛区。区域组合单元333然后将检测对象图像和最终体毛区的检测结果输出到后级。
[图像处理系统301进行的体毛检测处理]
现在参照显示在图20中的流程图,描述图像处理系统301进行的体毛检测处理。
以下是在如适当地伴随着特例的图21所示,拍摄设备121-1从左上方沿着向下倾斜方向拍摄,拍摄设备121-2从右上方沿着向下倾斜方向拍摄,和拍摄设备121-3从下往上地拍摄存在体毛BH11的皮肤的区域的情况下进行的处理的描述。
在步骤S201中,图像处理系统301获取从不同方向捕获的三个或更多个皮肤图像。具体地说,拍摄设备121-1到121-n从相互不同的方向几乎同时地拍摄人的皮肤。此刻,拍摄设备121-1到121-n短距离地捕获皮肤的特写图像,例如,探头311与皮肤接触或接近。拍摄设备121-1到121-n然后将作为拍摄的结果获得的皮肤图像供应给图像获取单元331。图像获取单元331将所获的n个皮肤图像存储到存储单元133中。图像获取单元331还将皮肤图像的获取通知图像选择单元332。
例如,如图21所示,拍摄设备121-1捕获包括图像Da的皮肤图像,拍摄设备121-2捕获包括图像Db的皮肤图像,以及摄设备121-3捕获包括图像Dc的皮肤图像。图像Da到图像Dc通过从拍摄设备121-1到拍摄设备121-3捕获的各自皮肤图像中提取与皮肤的相同区域相对应的部分形成。
在图像Da到Dc中,存在每一个显示体毛BH11的体毛区Aa到体毛区Ac。在那些图像中,图像Da中体毛区Aa遮盖的皮肤区域基本上与图像Db中体毛区Ab遮盖的皮肤区域相同。同时,图像Da中体毛区Aa遮盖的皮肤区域与图像Dc中体毛区Ac遮盖的皮肤区域不同。同样,图像Db中体毛区Ab遮盖的皮肤区域与图像Dc中体毛区Ac遮盖的皮肤区域不同。
在下文中,作为适用的特例,将适当地描述对图像Da到图像Dc进行处理的情况。
在步骤S202中,图像选择单元332选择两个皮肤图像作为当前图像。具体地说,图像选择单元332从存储在存储单元133中的皮肤图像中,选择还未从中检测到任何体毛区的一个皮肤图像作为投影目的地图像。图像选择单元332还选择剩余皮肤图像之一作为投影原始图像。此刻,优选的是将投影原始图像选择成使所得组合与过去选择的皮肤图像的任何组合都不同。图像选择单元332然后将所选投影原始图像和投影目的地图像供应给体毛区检测单元132的特征点提取单元151。
在步骤S203中,与图5中的步骤S2的过程一样,使用所得投影原始图像和投影目的地图像进行体毛区检测处理。其结果是,检测到投影目的地图像中的体毛区。体毛区检测单元132的区域检测单元156将指示体毛区检测的结果的信息供应给区域组合单元333。
在步骤S204中,图像选择单元332确定是否检测了所有皮肤图像中的体毛区。如果确定存在还未检测任何体毛区的皮肤图像,则该处理返回到步骤S202。
此后,重复步骤S202到S204的过程,直到在步骤S204中确定检测了所有皮肤图像中的体毛区。以该方式,检测了所有皮肤图像中的体毛区。
例如,如图22所示,将图像Da设置成投影原始图像,将图像Db设置成投影目的地图像,并检测图像Db中的体毛区。同样,将图像Db设置成投影原始图像,将图像Dc设置成投影目的地图像,并检测图像Dc中的体毛区。将图像Dc设置成投影原始图像,将图像Da设置成投影目的地图像,并检测图像Da中的体毛区。
图22中的图像Da′、图像Db′、和图像Dc′是在图像Da、图像Db、和图像Dc中检测体毛区的结果。在本例中,图像Da中的体毛区Aa与图像Db中的体毛区Ab重叠。因此,不检测图像Db中的体毛区。
另一方面,如果在步骤S204中确定检测了所有皮肤图像中的体毛区,则该处理转移到步骤S205。此刻,图像选择单元332通知区域组合单元333已经检测了所有皮肤图像中的体毛区。
在步骤S205中,区域组合单元333组合检测的体毛区。具体地说,区域检测单元333从存储在存储单元133中的皮肤图像中选择检测对象图像。使用将各自皮肤图像投影到检测对象图像的坐标系的单应矩阵,区域组合单元333计算将各自皮肤图像的体毛区投影到检测对象图像的坐标系获得的体毛区。
如果存在的话,将各自皮肤图像投影到检测对象图像的坐标系的单应矩阵可以是用在体毛区检测处理中和存储在存储单元133中的单应矩阵。另一方面,如果没有存储在存储单元133中的单应矩阵,则通过,例如,使用非体毛区的区域中的特征点的上述方法计算单应矩阵。
区域组合单元333然后通过组合(或结合)检测对象图像中的体毛区和从各自皮肤图像投影到检测对象图像的坐标系的体毛区计算最终体毛区。也就是说,将相互叠加从各自皮肤图像中检测的体毛区形成的区域确定为最终体毛区。
例如,如图23所示,将在图像Db中检测的体毛区和在图像Dc中检测的体毛区投影到图像Da的坐标系,并将相互叠加各自体毛区形成的区域确定为最终体毛区。
区域组合单元333然后将检测对象图像和最终体毛区的检测结果输出到后级。
以上述方式,可以更精确地检测皮肤图像中的体毛区。
<4.第四实施例>
现在参照图24和25,描述本技术的第四实施例。在本技术的第四实施例中,使用从三个或更多个不同方向拍摄皮肤获得的三个或更多个皮肤图像从皮肤图像中除去体毛。
[图像处理系统401的结构例子]
图24是示出作为应用本技术的图像处理系统的第四实施例的图像处理系统401的功能结构的例子的框图。在该图中,与图13或18中的那些等效的组件用与用在图13或18中的那些相同的标号表示,并且这里不再重复说明进行与上述相同的处理的组件。
图像处理系统401与图13的图像处理系统201的不同之处在于用与显示在图18中的图像处理系统301的那个相同的探头311取代探头111,以及用图像处理设备411取代图像处理设备211。图像处理设备411与图像处理设备211的不同之处在于用与显示在图18中的图像处理系统301的那个相同的图像获取单元331取代图像获取单元131,以及用体毛除去单元431取代体毛除去单元231。体毛除去单元431与体毛除去单元231的不同之处在于用除去单元442取代除去单元241,以及添加了图像选择单元441。
图像选择单元441首先选择存储在存储单元133中的两个皮肤图像作为当前图像,并将所选皮肤图像供应给体毛区检测单元132。此后,图像选择单元441选择存储在存储单元133中的未处理图像之一和除去单元442供应的体毛除去图像作为当前图像,并将所选图像供应给体毛区检测单元132。当检测了所有皮肤图像中的体毛区时,图像选择单元441将那种意思通知除去单元442。
根据体毛区检测单元132进行的体毛区检测的结果,除去单元442生成作为从中除去了体毛的皮肤图像的体毛除去图像。除去单元442将生成的体毛除去图像供应给图像选择单元441,或将生成的体毛除去图像输出到后级。
[图像处理系统401进行的图像处理]
现在参照显示在图25中的流程图,描述图像处理系统401进行的体毛除去处理。
在步骤S301中,与图20中的步骤S201的过程一样,获取从不同方向捕获的三个或更多个皮肤图像。
在步骤S302中,图像选择单元441选择两个皮肤图像作为当前图像。具体地说,图像选择单元441从存储在存储单元133中的皮肤图像中选择任何两个皮肤图像,并将两个皮肤图像之一设置成投影原始图像,将另一个设置成投影目的地图像。图像选择单元441然后将所选投影原始图像和投影目的地图像供应给体毛区检测单元132的特征点提取单元151。
在步骤S303中,与图5中的步骤S2的过程一样,使用所选投影原始图像和投影目的地图像进行体毛区检测处理。其结果是,检测到投影目的地图像中的体毛区。
在步骤S304中,除去单元442与图14中的步骤S103的过程一样,生成作为从中除去了体毛的投影目的地图像的图像(体毛除去图像)。除去单元442将生成的体毛除去图像供应给图像选择单元441。
在步骤S305中,图像选择单元441确定是否处理了所有皮肤图像。如果确定存在还未处理的皮肤图像,则该处理转移到步骤S306。
在步骤S306中,图像选择单元441选择未处理皮肤图像之一和体毛除去图像作为当前图像。具体地说,图像选择单元441选择存储在存储单元133中的未处理皮肤图像之一作为投影原始图像。图像选择单元441还选择除去单元442供应的体毛除去图像作为投影目的地图像。图像选择单元441然后将所选投影原始图像和投影目的地图像供应给体毛区检测单元132的特征点提取单元151。
此后,该处理返回到步骤S303,重复步骤S303到S306的过程,直到在步骤S305中确定处理了所有皮肤图像。也就是说,重复如下处理:通过将未处理皮肤图像之一设置成投影原始图像和将新生成的体毛除去图像设置成投影目的地图像新生成体毛除去图像,以及从作为投影目的地图像的体毛除去图像中除去体毛。
另一方面,如果在步骤S305中确定处理了所有皮肤图像,则该处理转移到步骤S307。此刻,图像选择单元441通知除去单元442已经处理了所有皮肤图像。
在步骤S307中,除去单元442输出从中除去了体毛的图像。也就是说,除去单元442将最后体毛除去图像输出到后级。
现在描述使用显示在图21中的图像Da到Dc生成体毛除去图像的示范性情况。首先,将图像Da设置成投影原始图像,将图像Db设置成投影目的地图像。然后生成从图像Db中除去体毛形成的体毛除去图像Db′(未示出)。接着,将图像Dc设置成投影原始图像,将体毛除去图像Db′设置成投影目的地图像。生成进一步从体毛除去图像Db′中除去体毛形成的体毛除去图像Db″(未示出)。将体毛除去图像Db″输出到后级。
以上述方式,可以更有把握地从皮肤图像中除去体毛。
<5.第五实施例>
现在参照图26到29,描述本技术的第五实施例。在本技术的第五实施例中,使用利用一台拍摄设备和反光镜从不同方向拍摄皮肤获得的皮肤图像生成从中除去体毛的图像。
[图像处理系统501的结构例子]
图26是示出作为应用本技术的图像处理系统的第五实施例的图像处理系统501的功能结构的例子的框图。在该图中,与图24中的那些等效的组件用与用在图24中的那些相同的标号表示,并且这里不再重复说明进行与上述相同的处理的组件。
图像处理系统501被设计成包括探头511和图像处理设备512。
探头511被设计成包括拍摄设备521和反光镜522。
图27是从侧面看过去探头511的示意图。
反光镜522具有像其侧面颠倒的截锥那样的圆柱形状,将反光镜配备在其中。将要拍摄的皮肤区域放入反光镜522的开口522A中,拍摄设备521在反光镜522径向围绕该区域的同时使探头511与人的皮肤接触或接近地捕获皮肤图像。
拍摄设备521由使用鱼眼透镜等的广角拍摄设备形成。拍摄设备521拍摄反光镜522反射的皮肤,以便获取开口522A中从整个360°的每个角度看过去的皮肤区域的图像。拍摄设备521将捕获的皮肤图像供应给图像处理设备512。
图像处理设备512与图24的图像处理设备411的不同之处在于用图像获取单元531取代图像获取单元331,以及包括图像切出单元532和几何失真校正单元533。
图像获取单元531获取拍摄设备521捕获的皮肤图像,并将皮肤图像供应给图像切出单元532。
图像切出单元532按预定宽度和预定切出宽度从皮肤图像中切出反光镜522反射的皮肤的图像。图像切出单元532将作为结果获得的皮肤图像供应给几何失真校正单元533。
几何失真校正单元533对图像切出单元532供应的各自皮肤图像进行几何失真校正,并将校正的皮肤图像存储到存储单元133中。几何失真校正单元533还通知体毛除去单元431的图像选择单元441已经获得了皮肤图像。
[图像处理系统501进行的图像处理]
现在参照显示在图28中的流程图,描述图像处理系统501进行的体毛除去处理。
在步骤S401中,图像处理系统501获取皮肤图像。具体地说,拍摄设备521拍摄反光镜522反射的人的皮肤。此刻,拍摄设备521短距离地,例如,使探头511与皮肤接触或接近地捕获反光镜522反射的皮肤的特写图像。拍摄设备521然后将作为拍摄的结果获得的皮肤图像供应给图像获取单元531。图像获取单元531将所获皮肤图像供应给图像切出单元532。
由于拍摄了反光镜522反射的皮肤,所以如图29的A所示,此刻获得的皮肤图像包括从整个360°的每个角度看过去的相同皮肤区域的环状(圈状)图像(下文称为环状图像)。
在步骤S402中,图像切出单元532切出皮肤图像。具体地说,如图29的B所示,图像切出单元532以预定间隔,按预定宽度从环状图像中切出皮肤图像。图像切出单元532然后将切出的皮肤图像供应给几何失真校正单元533。
此刻,无需切出环状图像中的所有区域。例如,可以以适当间隔从环状图像中切出皮肤图像,或可以环状图像中的一部分区域中切出皮肤图像。也可以这样切出皮肤图像,使相邻皮肤图像的区域就,例如,图像处理而言相互部分重叠。
在步骤S403中,几何失真校正单元533对皮肤图像进行几何失真校正。具体地说,几何失真校正单元533对图像切出单元532切出的各自皮肤图像进行像垂直校正、仿射变换、或投影变换那样的几何失真校正。其结果是,从显示在图29的B中的皮肤图像中生成显示在图29的C中的皮肤的平整图像。几何失真校正单元533将校正的皮肤图像存储到存储单元133中。几何失真校正单元533还通知体毛除去单元431的图像选择单元441已经获得了皮肤图像。
此后,在步骤S404到S409中,执行与图25中的步骤S302到S307的那些相同的过程,生成并向后级输出从皮肤图像中除去体毛的体毛除去图像。
以上述方式,可以不使用多台拍摄设备地获取从皮肤图像中除去体毛形成的图像。
可以将探头511应用于图18的图像处理系统301,以及可以使用探头511捕获的环状图像检测体毛区。
反光镜522不必具有这样整个360°围绕皮肤区域的形状,而是可以这样只围绕皮肤区域的一部分的形状。
<6.第六实施例>
现在参照图30到32,描述本技术的第六实施例。在本技术的第六实施例中,使用利用使用MLA(显微透镜阵列)技术的一台拍摄设备从不同方向拍摄皮肤获得的皮肤图像生成从中除去体毛的图像。
[图像处理系统601的结构例子]
图30是示出作为应用本技术的图像处理系统的第六实施例的图像处理系统601的功能结构的例子的框图。在该图中,与图26中的那些等效的组件用与用在图26中的那些相同的标号表示,并且这里不再重复说明进行与上述相同的处理的组件。
图像处理系统601被设计成包括探头611和图像处理设备612。
探头611被设计成包括使用MLA技术的拍摄设备621。在拍摄设备621中,将显微透镜排列成网格状图案,并且将成像元件排列成网格状图案,以便为每个显微透镜配备成像元件。
图31的左侧中的图示意性地示出了显微透镜和成像元件的示范性阵列。
分别为沿着横向对准的显微透镜651A到651D配备成像元件652A到652D和成像元件653A到653D。将成像元件652A到652D排列成使它们相对于显微透镜651A到651D的位置相同。此外,将成像元件653A到653D排列在与成像元件652A到652D的位置不同的位置中,以便使它们相对于显微透镜651A到651D的位置相同。
在下文中,当无需相互区分显微透镜651A到651D时,可以将它们简称为显微透镜651。此外,在下文中,当无需相互区分成像元件652A到652D时,可以将它们简称为成像元件652,以及当无需相互区分成像元件653A到653D时,可以将它们简称为成像元件653。
尽管在这个图中只示出了一部分排列,但显微透镜651、成像元件652、和成像元件632在它们之间保持一致位置关系地排列成网格状图案。
拍摄设备621然后将捕获的皮肤图像供应给图像获取单元631。
图像获取单元631将拍摄设备621捕获的皮肤图像供应给图像重构单元632。
图像重构单元632将皮肤图像中的各自像素分类成与成像元件相对应的像素群,并加以收集以便生成皮肤图像。例如,如图31所示,生成通过收集与成像元件652的群体相对应的像素形成的图像Da、和通过收集与成像元件653的群体相对应的像素形成的图像Db。图像Da和图像Db是存在差异的图像,犹如从两个不同方向观看皮肤的相同区域似的。因此,当拍摄存在体毛BH21的皮肤的一个区域时,与两台拍摄设备从不同方向拍摄相同皮肤区域的情况一样,图像Da中体毛区Aa遮盖的皮肤区域不同于图像Db中体毛区Ab遮盖的皮肤区域。
皮肤拍摄方向可以通过改变成像元件相对于显微透镜的位置来改变。此外,皮肤拍摄方向的数量可以通过增加为一个显微透镜配备的成像元件的数量来增加。
图像重构单元632然后将生成的皮肤图像存储到存储单元133中。图像重构单元632还通知体毛除去单元431的图像选择单元441已经获得了皮肤图像。
[图像处理系统601进行的图像处理]
现在参照显示在图32中的流程图,描述图像处理系统601进行的体毛除去处理。
在步骤S501中,图像处理系统601获取皮肤图像。具体地说,拍摄设备621拍摄人的皮肤。此刻,拍摄设备621短距离地,例如,使探头611与皮肤接触或接近地捕获皮肤的特写图像。拍摄设备621然后将作为拍摄的结果获得的皮肤图像供应给图像获取单元631。图像获取单元631将所获皮肤图像供应给图像重构单元632。
在步骤S502中,图像重构单元632重构皮肤图像。具体地说,图像重构单元632将拍摄设备621捕获的皮肤图像中的像素分类成进行拍摄和收集的成像元件的各自群体,并生成从不同方向捕获的皮肤图像。图像重构单元632然后将生成的皮肤图像存储到存储单元133中。图像重构单元632还通知体毛除去单元431的图像选择单元441已经获得了皮肤图像。
此后,在步骤S503到S508中,执行与图25中的步骤S302到S307的那些相同的过程,生成从皮肤图像中除去体毛的图像。
以上述方式,可以不使用多台拍摄设备地获取从皮肤图像中除去体毛形成的图像。
可以将探头611应用于图18的图像处理系统301,以及可以使用探头611捕获的皮肤图像检测体毛区。
<7.第七实施例>
现在参照图33到37,描述本技术的第七实施例。在本技术的第七实施例中,将分析皮肤状况的面貌分析功能添加到图30的图像处理系统601中。
[图像处理系统701的结构例子]
图33是示出作为应用本技术的图像处理系统的第七实施例的图像处理系统701的功能结构的例子的框图。在该图中,与图30中的那些等效的组件用与用在图30中的那些相同的标号表示,并且这里不再重复说明进行与上述相同的处理的组件。
图像处理系统701与图30的图像处理系统601的不同之处在于用图像处理设备711取代图像处理设备612,以及添加了显示设备712。图像处理设备711与图像处理设备612的不同之处在于进一步包括面貌分析单元731。
面貌分析单元731根据体毛除去单元431供应的体毛除去图像分析人的皮肤状况。面貌分析单元731将指示分析结果的信息供应给显示设备712。
显示设备712显示人皮肤状况的分析结果。
[面貌分析单元731的结构例子]
图34是示出面貌分析单元731的功能结构的例子的框图。现在描述分析人皮肤纹理的面貌分析单元731的示范性结构。面貌分析单元731被设计成包括周围光量校正单元751、模糊处理单元752、颜色转换单元753、二值化处理单元754、皮嵴检测单元755、纹理分析单元756、和展示控制单元757。
周围光量校正单元751校正体毛除去图像的周围光量,并将校正的体毛除去图像供应给模糊处理单元752。
模糊处理单元752对体毛除去图像进行模糊处理,并将经过模糊处理的体毛除去图像供应给颜色转换单元753。
颜色转换单元753对体毛除去图像进行颜色转换,并将经过颜色转换的体毛除去图像供应给二值化处理单元754。
二值化处理单元754对体毛除去图像进行二值化处理,并将生成的二值化图像供应给皮嵴检测单元755。
根据二值化图像,皮嵴检测单元755检测皮肤图像(体毛除去图像)中每条皮嵴的面积。并生成显示皮嵴面积分布的直方图。皮嵴检测单元755将指示直方图的信息供应给纹理分析单元756。
纹理分析单元756根据显示皮嵴面积分布的直方图分析皮肤纹理,并将分析结果供应给展示控制单元757。
展示控制单元757使显示设备712显示皮肤纹理分析的结果。
[图像处理系统701进行的面貌分析处理]
现在参照显示在图35中的流程图,描述图像处理系统701进行的面貌分析处理。
在步骤S601中,进行上面参考图32所述的体毛除去处理。其结果是,生成从皮肤图像中除去体毛的体毛除去图像,并将生成的体毛除去图像从体毛除去单元431供应给面貌分析单元731的周围光量校正单元751。例如,如图36所示,生成从显示体毛BH31的图像D31中除去体毛BH31的图像D31,并将其供应给周围光量校正单元751。
在步骤S602中,周围光量校正单元751校正体毛除去图像的周围光量。周围光量校正单元751将校正的体毛除去图像供应给模糊处理单元752。
在步骤S603中,模糊处理单元752对体毛除去图像进行模糊处理。模糊处理单元752将经过模糊处理的体毛除去图像供应给颜色转换单元753。
在步骤S604中,颜色转换单元753进行颜色转换。例如,颜色转换单元753将体毛除去图像的色空间转换成像将亮度与色度分开的L*a*b*色系,或HSV空间那样的预定色空间。颜色转换单元753将经过颜色转换的体毛除去图像供应给二值化处理单元754。
在步骤S605中,二值化处理单元754二值化处理。例如,在将体毛除去图像的色空间转换成L*a*b*色系或HSV空间的情况下,二值化处理单元754根据预定阈值将体毛除去图像转换成由两种色调水平上的像素形成的黑白二值化图像。两种色调水平上的像素由光度等于或高于阈值的像素和光度低于阈值的像素形成。二值化处理单元754将生成的二值化图像供应给皮嵴检测单元755。
例如,如图36所示,通过步骤S602到S605中的处理从图像D31a中生成二值化图像D31b。
可以不进行皮肤图像颜色转换,以及可以只将一种颜色(R,G或B)用在RGB皮肤图像中进行二值化处理。
在步骤S606中,皮嵴检测单元755检测皮嵴的面积的分布。具体地说,皮嵴检测单元755将二值化图像中黑色像素围绕的白色像素的区域识别成皮沟围绕的皮嵴的区域,并检测各自皮嵴的面积。皮嵴检测单元755进一步生成显示皮嵴的检测面积的分布的直方图。皮嵴检测单元755然后将指示所生成直方图的信息供应给纹理分析单元756。
其结果是,如图36所示,根据二值化图像D31b生成,例如,横轴指示基于皮嵴的面积的类别,纵轴指示频率的直方图。
在步骤S607中,纹理分析单元756根据皮嵴的面积分布分析皮肤纹理。例如,纹理分析单元756根据直方图中的频率的偏差确定皮肤是否是细纹理的。在相对于某个类别(面积)直方图中的频率的偏差大的情况下,纹理分析单元756确定该皮肤是细纹理皮肤。此外,纹理分析单元756根据,例如,直方图中的频率较高的类别(面积)分析皮肤纹理。在具有最高频率的类别的面积,例如,小的情况下,纹理分析单元756确定该皮肤是细纹理皮肤。纹理分析单元756然后将分析结果供应给展示控制单元757。
在步骤S608中,显示设备712分析结果。具体地说,展示控制单元757生成展示皮肤纹理分析的结果的数据,并将该数据供应给显示设备712。根据获得的数据,显示设备712显示示出皮肤纹理分析的结果的图像,以便向用户展示分析的结果。
然后结束面貌分析处理。
图37示出了在未从图像D31中除去体毛BH31,然后进行面貌分析的情况下的例子。在这种情况下,未从直接从图像D31生成的二值化图像D31b′中除去体毛BH31。因此,不能精确地检测皮嵴的面积。更具体地说,皮嵴被体毛BH31进一步划分。其结果是,检测到具有比正常面积小的面积的皮嵴,并检测到更大数量的皮嵴。因此,在显示皮嵴的面积的分布的直方图中,与非正常存在的面积相对应的类别中的频率变大,以及使频率分布变得参差不齐。其结果是,使皮肤纹理分析的精度变低。
相反,通过如上所述利用从皮肤图像中除去体毛形成的图像进行面貌分析使皮肤纹理分析的精度提高。
<8.修改例>
以下是对本技术的上述实施例的修改例的描述。
[第一修改例:系统结构的修改例]
例如,可以存储各自差图像的差值的总和来取代差图像,以及当检测体毛区时,可以使用与差值最小的差图像相对应的单应矩阵再生差图像。以该方式,可以减少存储单元133中的内容。
进一步,例如,可以不存储单应矩阵。当检测体毛区时,根据用在生成差值最小的差图像的处理中的特征点的配对重新计算单应矩阵,以及可以使用重新计算的单应矩阵再生差图像。
此外,在从投影目的地图像中除去体毛的情况下,例如,可以不逐个像素地从投影原始图像投影像素,而是使用单应矩阵按预定面积单元投影像素地消除体毛。在这种情况下,由于拍摄方向的差异,所以优选的是在校正了图像的失真之后进行投影。
在上述例子中,通过将投影原始图像的像素投影到投影目的地图像地从投影目的地图像中除去体毛。同时,也可以通过计算从投影目的地图像投影到投影原始图像的坐标系的单应矩阵,以及将投影目的地图像中体毛区之外的像素投影到投影原始图像地从投影原始图像中除去体毛。也就是说,在投影原始图像中,用投影目的地图像的相应像素取代与投影目的地图像的体毛区相对应的区域之外的像素,以便可以生成从投影原始图像中除去体毛形成的体毛除去图像。
可替代地,可以通过将投影目的地图像的非体毛区的像素投影到投影原始图像地从投影原始图像中除去体毛。也就是说,在投影原始图像中,用投影目的地图像的相应像素(非体毛区的像素)取代与投影目的地图像的非体毛区相对应的区域(投影原始图像的体毛区)的像素,以便可以生成从投影原始图像中除去体毛形成的体毛除去图像。
例如,在存在像图2或19的上述拍摄设备121-2那样,从正上方拍摄皮肤的拍摄设备的情况下,优选的是从拍摄设备捕获的皮肤图像中除去体毛,以便最终获得失真最小的图像。
此外,在图13和24的体毛区检测单元132中,可以通过与上述方法不同的适当方法地使用皮肤图像检测体毛区。在这种情况下,在检测到体毛区之后计算图像之间的单应矩阵,并通过使用计算的单应矩阵在图像之间投影像素从皮肤图像中除去体毛。
在当探头与皮肤接触时,拍摄设备与皮肤之间的位置关系几乎不变的情况下,可以跳过特征点提取和单应矩阵计算处理,以及可以使用事先计算的单应矩阵进行投影变换。
在这种情况下,假设拍摄设备与皮肤之间的距离等由于将探头压在皮肤上的压力而改变,以及在单应矩阵中出现误差。为了克服这个问题,利用压力传感器等测量将探头压在皮肤上的压力,以及可以将探头控制成保持固定压力,或可以警告用户。此外,可以以较低皮肤图像分辨率进行处理来减小单应矩阵的误差的影响。
在上述例子中,使用四对特征点的组合生成差图像,然后使用差值最小的差图像检测体毛区。在优先考虑,例如,处理速度的情况下可以只使用四对特征点的一种组合生成一个差图像,然后可以检测体毛区。在优选考虑,例如,处理精度的情况下,可以使用四对特征点的所有组合生成最大可能数量的差图像,然后可以使用差值最小的差图像检测体毛区。
进一步,在上述例子中,使用单应矩阵进行投影变换。但是,也可以使用一些其它投影矩阵或一些其它方法进行投影变换。例如,可以使用如JP2009-258868 A所述通过增强仿射变换发展的方法进行投影变换。
[第二修改例:体毛区检测的结果的示范性应用]
在上述例子中,根据体毛区检测的结果从皮肤图像中除去体毛。但是,可以将体毛区检测的结果用于其它目的。
例如,可以生成用1表示体毛区,而用0表示其它皮肤区域的体毛区屏蔽图像。
也可以生成用不同于其余的颜色示出皮肤图像中的体毛区的图像。
更进一步,可以根据,例如,体毛区检测的结果体毛的数量。可以根据,例如,皮肤图像中体毛区的面积的比例计算多毛度等。
也可以根据,例如,所检测体毛区的形状、长度、宽度等确定毛发类型(受损、干燥等)。
在上述例子中,使用体毛除去图像进行皮肤纹理分析作为面貌分析处理。但是,对面貌分析处理没有特别限制,只要可以使用皮肤图像进行分析即可。例如,对于体毛除去图像,可以分析除了纹理之外的皮肤的其它状况(像皱纹那样)、皮肤的阴影(红肿、黯淡、黑色素的数量等)等。也可以使用,例如,体毛除去图像分析皮肤的健康性(湿疹、皮疹等)。
[第三修改例:检测对象的修改例]
在本技术中,检测对象不局限于体毛。例如,在检测对象的至少一部分处在背景的前面(或在其拍摄设备侧面),以及在从不同方向拍摄检测对象生成的图像当中,检测对象遮盖的背景区域相互不同,使得背景至少部分重叠的情况下,可以通过本技术检测显示检测对象的区域。在上述一系列实施例中,检测对象是体毛,背景是皮肤。
例如,如图38所示,在检测对象是人812,背景是风景的情况下,也可以应用本技术。具体地说,由拍摄设备811L和拍摄设备811R从不同方向拍摄人812,以便风景的至少一些部分在背景中重叠。图像DL51是拍摄设备811L捕获的图像,图像DR51是拍摄设备811R捕获的图像。
将图像DL51设置成投影原始图像,将图像DR51设置成投影目的地图像,以及通过上述处理生成差图像DS51。在这个差图像DS51中,在与图像DL51中显示人812的区域AL51相对应的区域AL52中,以及在与图像DR51中显示人812的区域AR51相对应的区域AR52中差值较大。由区域AL52和区域AR52形成的区域被检测成候选检测对象区。然后将候选检测对象区划分成在作为投影目的地图像的DR51中实际显示人812的区域(下文称为检测对象区)、和其它区域(下文称为非检测对象区)。
在这种情况下,在作为检测对象的人812和作为背景的风景两者中的颜色的数量大于在检测体毛的情况下的数量。候选检测对象区被检测成两个分开区域:检测对象区和非检测对象区。此刻,通过与用在检测体毛的情况中的方法不同的方法分开检测对象区和非检测对象区。
如图39所示,在作为,例如,投影目的地图像的图像DR51中,与差图像DS51中的区域AR52相对应和实际显示人812的区域AR53中的图像显著不同于周围区域中的图像。在图像DR51中,与差图像DS51中的区域AL52相对应的区域AL53中的图像类似于周围区域中的图像。使用那些特征将两个区域分开。实际上,区域AR53和区域AL53分别是具有与区域AR51和AL51基本相同的形状的区域,但为了易于说明起见,被简化和显示成长方形区域。
具体地说,如图40所示,在区域AR53、区域AL53、和围绕两个区域的区域中设置子区,并生成显示各自子区中的像素的特征量的分布的直方图。作为像素的特征量,可以使用,例如,亮度、颜色信号、有关周围区域的频率信息等。可以独立地使用那些特征量之一,或可以使用一些特征量的组合。
可以任意设置各自子区的形状和面积。例如,每个子区可以具有长方形形状或椭圆形状,以及子区可以具有相互不同的面积。在各自子区具有不同面积的情况下,将每个子区的直方图归一化,以便频率和不变地变成1。各自子区可能含有重叠部分。但是,围绕候选检测对象区的子区不会与候选检测对象区重叠,优选的是尽可能接近候选检测对象区。
然后计算候选检测对象中的子区与围绕候选检测对象的子区之间的直方图的相似度。指示直方图中的相似度的直方图相似指数可以是巴特查里亚(Bhattacharyya)系数、科斯(Cos)相似性、泊松(Pearson)关联系数、矢量间距离(像欧几里得(Euclidean)距离那样)等。可以独立地使用那些指数之一,或可以使用一些指数的组合。
然后根据直方图相似指数和预定阈值作出检验以确定直方图是否相似。将构成候选检测对象区的两个区域之一,即,含有较大数量直方图与周围区域中的子区相似的子区的区域设置成非检测对象区,将另一个区域设置成检测对象区。在显示在图40中的例子中,将区域AL53设置成非检测对象区,将区域AR53设置成检测对象区。
在这种情况下,作为检测对象的人812的面积较大,从拍摄设备811L和811R到人812的距离较长。因此,拍摄设备811L与拍摄设备811R之间的距离需要足够长,以便防止图像DL51中的区域AL51遮盖的背景区与图像DR51中的区域AR51遮盖的背景区重叠,以及防止差图像DS51中的区域AR52与区域AR52重叠。
在难以将拍摄设备811L和拍摄设备811R相互设置在必要距离上的情况下,拍摄人员可以在拍取照片的同时在相互处在一段距离上的两个地点之间移动。这在检测对象是像建筑结构那样的静止对象的情况下尤其有效。
此外,可以使用一些拍摄人员从各自地点拍摄检测对象拍取的图像。在这种情况下,可以使用像SNS(社交网络服务平台)或云服务平台那样的网络服务平台共享从各自地点拍取的图像。
在各自图像的图像质量由于像日期和各自地点上的天气那样的不同拍摄条件而发生改变的情况下,优选的是在校正了各自图像之后进行检测检测对象的处理,以便取得一致的图像质量。
取决于检测对象,在一些应用中不除去,即保留检测对象,而是除去背景。
在检测对象是体毛的情况下,可以生成显示体毛的样本图像。例如,通过只从各自身体部位的皮肤图像中提取体毛来形成图像,以便可以在臂毛、腿毛、头发等之间作出比较。
此外,如图41所示,在一些应用中,在从图像D101中检测到作为检测对象的人831之后,从图像D101中除去除了人831之外的背景,并加入文本等以便创建明信片D102。
进一步,在一些应用中,从图像D111中检测作为检测对象的人841和842,并生成从图像D111中除去除了人841和842之外的背景生成的图像D112。然后将另一个背景加入图像D112中,以便创建图像D113。
[计算机的配置例子]
上述一系列处理可以通过硬件执行,也可以通过软件执行。当通过软件进行上述的一系列处理时,将形成软件的程序安装在计算机中。这里,计算机可以是并入专用硬件中的计算机,或可以是随着各种类型的程序被安装在其中可以执行各种类型的功能的通用个人计算机。
图43是依照程序进行上述一系列处理的计算机的硬件的配置的例子的框图。
在计算机中,CPU(中央处理单元)1001、ROM(只读存储器)1002、和RAM(随机访问存储器)1003通过总线相互连接。
进一步将输入/输出接口1005与总线1004连接。输入单元1006、输出单元1007、存储单元1008、通信单元1009、和驱动器1010与输入/输出接口1005连接。
输入单元1006由键盘、鼠标、麦克风等形成。输出单元1007由显示器、扬声器等形成。存储单元1008由硬盘、非易失性存储器等形成。通信单元1009由网络接口等形成。驱动器1010驱动像如下那样的可移除介质1011:硬盘、光盘、磁光盘、或半导体存储器。
在具有上述结构的计算机中,CPU 1001经由输入/输出接口1005和总线1004将存储在存储单元1008中的程序装载到RAM 1003中,并执行该程序,以便进行上述一系列处理。
可以将计算机(CPU 1001)执行的程序记录在,例如,作为要提供的包装介质的可移除介质1011。可替代地,可以经由像局域网、互联网、或数字卫星广播那样的有线或无线传输介质提供程序。
在计算机中,当将可移除介质1011安装在驱动器101上时,可以经由输入/输出接口1005将程序安装到存储单元1008中。此外,该程序可以由通信单元1009经由有线或无线传输介质接收,安装到存储单元1008中。可替代地,该程序可以事先安装到ROM 1002或存储单元1008中。
计算机要执行的程序可以是依照描述在本说明书中的序列按时序进行处理的程序,或并行地或像响应调用那样,每当必要时进行处理的程序。
在本说明书中,系统指的是多个组件(装置、模块(部件)等)的总成,并非所有组件都需要配备在相同外壳中。鉴于此,安放在不同外壳中和经由网络相互连接的装置形成一个系统,以及含有安装在一个外壳中的模块的一个装置也是一个系统。
进一步,应当注意到,本技术的实施例不局限于上述实施例,可以不偏离本技术的范围地对它们作出各种修改。
例如,本技术可以具体化在经由网络在装置之间共享一种功能的云计算结构中,以及由相互协作的装置进行处理。
参考上述流程图描述的各自步骤可以由一个装置执行或可以在装置之间共享。
在一种处理包括在一个步骤中的情况下,包括在一个步骤中的处理可以由一个装置执行或可以在装置之间共享。
本技术也可以具有,例如,如下形式:
(1)一种图像处理设备,包括:
检测对象区检测单元,用于在拍摄检测对象生成的图像中检测显示检测对象的区域,
其中该检测对象区检测单元包括:
投影变换单元,用于通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像;
差图像生成单元,用于生成第二图像与投影图像之间的差图像;以及
区域检测单元,用于在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
(2)如(1)所述的图像处理设备,进一步包括
检测对象除去单元,用于从拍摄检测对象生成的图像中除去检测对象,
其中该检测对象除去单元包括:
检测对象区检测单元;以及
除去单元,用于通过根据该检测对象区检测单元进行的检测的结果,至少将与第一图像和第二图像的一个中显示检测对象的区域相对应的、在第一图像和第二图像的另一个中的区域中的像素投影到这些图像的一个中的像素以便取代相应像素,来从第一图像和第二图像的一个中除去检测对象。
(3)如(2)所述的图像处理设备,其中该除去单元通过至少将与第二图像中的检测对象区相对应的第一图像中的区域中的像素投影到第二图像,并取代相应像素,来从第二图像中除去检测对象。
(4)如(2)所述的图像处理设备,其中该除去单元通过至少将第二图像中的非检测对象区中的像素投影到第一图像,并取代相应像素,来从第一图像中除去检测对象。
(5)如(2)到(4)的任何一项所述的图像处理设备,其中该检测对象除去单元从通过从相互不同的方向拍摄检测对象生成的三个或更多个图像中选择两个图像,使用所选的两个图像新生成从中除去了检测对象的图像,并使用新生成的图像和剩余图像之一重复新生成从中除去了检测对象的图像的处理,直到没有剩余图像。
(6)如(1)到(5)的任何一项所述的图像处理设备,其中
该检测对象区检测单元进一步包括:
特征点提取单元,用于提取第一图像的特征点和第二图像的特征点;
联系单元,用于将第一图像的特征点与第二图像的特征点相联系;以及
投影矩阵计算单元,用于根据该联系单元相互联系的第一图像的特征点和第二图像的特征点的配对的至少一部分,计算用于将第一图像投影到第二图像的坐标系的投影矩阵,以及
该投影变换单元使用该投影矩阵生成投影图像。
(7)如(6)所述的图像处理设备,其中
该投影矩阵计算单元根据多对特征点的组合计算多个投影矩阵,
该投影变换单元使用各自投影矩阵生成多个投影图像,
该差图像生成单元生成第二图像与各自投影图像之间的多个差图像,以及
该区域检测单元使用差图像当中与第二图像具有最小差的差图像检测候选区域。
(8)如(1)到(7)的任何一项所述的图像处理设备,其中该区域检测单元通过将与候选区域相对应的第二图像的区域中的图像与周围图像相比较,将检测对象区与非检测对象区分开。
(9)如(1)到(8)的任何一项所述的图像处理设备,其中
该检测对象区检测单元检测在从相互不同的方向拍摄检测对象生成的三个或更多个图像的每一个中的检测对象区,以及
该图像处理设备进一步包括区域组合单元,该区域组合单元用于将从三个或更多个图像中选择的图像中的检测对象区与将剩余图像的检测对象区投影到所选图像的坐标系生成的区域相组合。
(10)一种图像处理方法,其中图像处理设备执行如下步骤:
通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像;
生成第二图像与投影图像之间的差图像;
在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域;以及
将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
(11)一种使计算机化执行包括如下步骤的处理的程序:
通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像;
生成第二图像与投影图像之间的差图像;
在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域;以及
将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
(12)一种图像处理系统,包括:
拍摄单元,用于拍摄检测对象;以及
检测对象区检测单元,用于在该拍摄单元捕获的图像中检测显示检测对象的区域,
其中该检测对象区检测单元包括:
投影变换单元,用于通过将利用该拍摄单元拍摄检测对象生成的第一图像投影变换到利用该拍摄单元从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系生成投影图像;
差图像生成单元,用于生成第二图像与投影图像之间的差图像;以及
区域检测单元,用于在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
(13)如(12)所述的图像处理系统,进一步包括:
检测对象除去单元,用于从利用该拍摄单元拍摄检测对象生成的图像中除去检测对象,
其中该检测对象除去单元包括:
检测对象区检测单元;以及
除去单元,用于通过根据该检测对象区检测单元进行的检测的结果,至少将与第一图像和第二图像的一个中显示检测对象的区域相对应的、在第一图像和第二图像的另一个中的区域中的像素投影到这些图像的一个中的像素以便取代相应像素,来从第一图像和第二图像的一个中除去检测对象。
(14)如(13)所述的图像处理系统,其中该检测对象除去单元从通过利用该拍摄单元从相互不同的方向拍摄检测对象生成的三个或更多个图像中选择两个图像,使用所选的两个图像新生成从中除去了检测对象的图像,并使用新生成的图像和剩余图像之一重复新生成从中除去了检测对象的图像的处理,直到没有剩余图像。
(15)如(12)到(14)的任何一项所述的图像处理系统,其中
该检测对象区检测单元进一步包括:
特征点提取单元,用于提取第一图像的特征点和第二图像的特征点;
联系单元,用于将第一图像的特征点与第二图像的特征点相联系;以及
投影矩阵计算单元,用于根据该联系单元相互联系的第一图像的特征点和第二图像的特征点的配对的至少一部分计算用于将第一图像投影到第二图像的坐标系的投影矩阵,以及
该投影变换单元使用该投影矩阵生成投影图像。
(16)如(12)到(15)的任何一项所述的图像处理系统,其中
该检测对象区检测单元检测在利用该拍摄单元从相互不同的方向拍摄检测对象生成的三个或更多个图像的每一个中的检测对象区,以及
该图像处理系统进一步包括区域组合单元,该区域组合单元用于将从三个或更多个图像中选择的图像中的检测对象区与将剩余图像的检测对象区投影到所选图像的坐标系生成的区域相组合。
(17)如(12)到(16)的任何一项所述的图像处理系统,其中
该拍摄单元包括:
二维排列的多个透镜;以及
多个成像元件
为该透镜的每一个配备多个成像元件,该成像元件相对于各自透镜的位置是相同的,以及
该图像处理系统进一步包括图像生成单元,该图像生成单元用于生成由相对于该透镜具有相同位置的成像元件捕获的多个图像。
(18)如(12)到(16)的任何一项所述的图像处理系统,其中
该拍摄单元捕获径向围绕包括检测对象的区域的至少一部分的反光镜反射的图像,以及
该图像处理系统进一步包括:
图像切出单元,用于从捕获反光镜反射的图像的拍摄单元生成的图像中切出多个图像;以及
几何失真校正单元,用于对切出图像进行几何失真校正。
(19)如(12)到(18)的任何一项所述的图像处理系统,其中第一图像和第二图像是拍取检测对象的特写图像的拍摄单元捕获的图像。
(20)一种图像处理设备,包括:
投影变换单元,用于通过将拍摄体毛生成的第一图像投影变换到从与第一图像不同的方向拍摄体毛生成的第二图像的坐标系生成投影图像;
差图像生成单元,用于生成第二图像与投影图像之间的差图像;
区域检测单元,用于在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示体毛的体毛区和在体毛区之外的非体毛区;以及
除去单元,用于通过根据该区域检测单元进行的检测的结果至少投影与第一图像和第二图像的一个中显示体毛的区域相对应的、在第一和第二图像的另一个中的区域中的像素到这些图像的一个中的像素以取代相应像素,来从第一图像和第二图像的一个中除去体毛。
标号列表
101 图像处理系统
111 探头
112 图像处理设备
121-1到121-n 拍摄设备
131 图像获取单元
132 体毛区检测单元
151 特征点提取单元
152 联系单元
153 单应矩阵计算单元
154 投影变换单元
155 差图像生成单元
156 区域检测单元
201 图像处理系统
231 体毛除去单元
241 除去单元
301 图像处理系统
311 探头
312 图像处理设备
331 图像获取单元
332 图像选择单元
333 区域检测单元
401 图像处理系统
411 图像处理设备
431 体毛除去单元
441 图像选择单元
442 除去单元
501 图像处理系统
511 探头
512 图像处理设备
521 拍摄设备
522 反光镜
531 图像获取单元
532 图像切出单元
533 几何失真校正单元
601 图像处理系统
611 探头
612 图像处理设备
621 拍摄设备
631 图像获取单元
632 图像重构单元
651A到651D 显微透镜
652A到652D,653A到653D 成像元件
701 图像处理系统
711 图像处理设备
731 面貌分析单元

Claims (20)

1.一种图像处理设备,包含:
检测对象区检测单元,配置成在拍摄检测对象生成的图像中检测显示检测对象的区域,
其中该检测对象区检测单元包括:
投影变换单元,配置成通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系,来生成投影图像;
差图像生成单元,配置成生成第二图像与投影图像之间的差图像;以及
区域检测单元,配置成在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
2.按照权利要求1所述的图像处理设备,进一步包含
检测对象除去单元,配置成从拍摄检测对象生成的图像中除去检测对象,
其中该检测对象除去单元包括:
检测对象区检测单元;以及
除去单元,配置成通过根据该检测对象区检测单元进行的检测的结果,至少将与第一图像和第二图像的一个中显示检测对象的区域相对应的、在第一图像和第二图像的另一个中的区域中的像素投影到这些图像的一个中的像素以便取代相应像素,来从第一图像和第二图像的一个中除去检测对象。
3.按照权利要求2所述的图像处理设备,其中该除去单元通过至少将与第二图像中的检测对象区相对应的第一图像中的区域中的像素投影到第二图像,并取代相应像素,来从第二图像中除去检测对象。
4.按照权利要求2所述的图像处理设备,其中该除去单元通过至少将第二图像中的非检测对象区中的像素投影到第一图像,并取代相应像素,来从第一图像中除去检测对象。
5.按照权利要求2所述的图像处理设备,其中该检测对象除去单元从通过从相互不同的方向拍摄检测对象生成的三个或更多个图像中选择两个图像,使用所选的两个图像新生成从中除去了检测对象的图像,并使用新生成的图像和剩余图像之一重复新生成从中除去了检测对象的图像的处理,直到没有剩余图像。
6.按照权利要求1所述的图像处理设备,其中
该检测对象区检测单元进一步包括:
特征点提取单元,配置成提取第一图像的特征点和第二图像的特征点;
联系单元,配置成将第一图像的特征点与第二图像的特征点相联系;以及
投影矩阵计算单元,配置成根据该联系单元相互联系的第一图像的特征点和第二图像的特征点的配对的至少一部分,计算用于将第一图像投影到第二图像的坐标系的投影矩阵,以及
该投影变换单元使用该投影矩阵生成投影图像。
7.按照权利要求6所述的图像处理设备,其中
该投影矩阵计算单元根据多对特征点的组合计算多个投影矩阵,
该投影变换单元使用各自投影矩阵生成多个投影图像,
该差图像生成单元生成第二图像与各自投影图像之间的多个差图像,以及
该区域检测单元使用差图像当中与第二图像具有最小差的差图像来检测候选区域。
8.按照权利要求1所述的图像处理设备,其中该区域检测单元通过将与候选区域相对应的第二图像的区域中的图像与周围图像相比较,将检测对象区与非检测对象区分开。
9.按照权利要求1所述的图像处理设备,其中
该检测对象区检测单元检测在从相互不同的方向拍摄检测对象生成的三个或更多个图像的每一个中的检测对象区,以及
该图像处理设备进一步包括区域组合单元,该区域组合单元配置成将从三个或更多个图像中选择的图像中的检测对象区与将剩余图像的检测对象区投影到所选图像的坐标系生成的区域相组合。
10.一种图像处理方法,其中图像处理设备执行如下步骤:
通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系,来生成投影图像;
生成第二图像与投影图像之间的差图像;
在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域;以及
将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
11.一种使计算机化执行包括如下步骤的处理的程序:
通过将拍摄检测对象生成的第一图像投影变换到从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系,来生成投影图像;
生成第二图像与投影图像之间的差图像;
在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域;以及
将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
12.一种图像处理系统,包含:
拍摄单元,配置成拍摄检测对象;以及
检测对象区检测单元,配置成在该拍摄单元捕获的图像中检测显示检测对象的检测对象区,
其中该检测对象区检测单元包括:
投影变换单元,配置成通过将利用该拍摄单元拍摄检测对象生成的第一图像投影变换到利用该拍摄单元从与第一图像不同的方向拍摄检测对象生成的第二图像的坐标系,来生成投影图像;
差图像生成单元,配置成生成第二图像与投影图像之间的差图像;以及
区域检测单元,配置成在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示检测对象的检测对象区和在检测对象区之外的非检测对象区。
13.按照权利要求12所述的图像处理系统,进一步包含:
检测对象除去单元,配置成从利用该拍摄单元拍摄检测对象生成的图像中除去检测对象,
其中该检测对象除去单元包括:
检测对象区检测单元;以及
除去单元,配置成通过根据该检测对象区检测单元进行的检测的结果,至少将与第一图像和第二图像的一个中显示检测对象的区域相对应的、在第一图像和第二图像的另一个中的区域中的像素投影到这些图像的一个中的像素以便取代相应像素,来从第一图像和第二图像的一个中除去检测对象。
14.按照权利要求13所述的图像处理系统,其中该检测对象除去单元从通过利用该拍摄单元从相互不同的方向拍摄检测对象生成的三个或更多个图像中选择两个图像,使用所选的两个图像新生成从中除去了检测对象的图像,并使用新生成的图像和剩余图像之一重复新生成从中除去了检测对象的图像的处理,直到没有剩余图像。
15.按照权利要求12所述的图像处理系统,其中
该检测对象区检测单元进一步包括:
特征点提取单元,配置成提取第一图像的特征点和第二图像的特征点;
联系单元,配置成将第一图像的特征点与第二图像的特征点相联系;以及
投影矩阵计算单元,配置成根据该联系单元相互联系的第一图像的特征点和第二图像的特征点的配对的至少一部分计算用于将第一图像投影到第二图像的坐标系的投影矩阵,以及
该投影变换单元使用该投影矩阵生成投影图像。
16.按照权利要求12所述的图像处理系统,其中
该检测对象区检测单元检测在利用该拍摄单元从相互不同的方向拍摄检测对象生成的三个或更多个图像的每一个中的检测对象区,以及
该图像处理系统进一步包括区域组合单元,该区域组合单元配置成将从三个或更多个图像中选择的图像中的检测对象区与将剩余图像的检测对象区投影到所选图像的坐标系生成的区域相组合。
17.按照权利要求12所述的图像处理系统,其中
该拍摄单元包括:
二维排列的多个透镜;以及
多个成像元件
为该透镜的每一个配备多个成像元件,该成像元件相对于各自透镜的位置是相同的,以及
该图像处理系统进一步包含图像生成单元,该图像生成单元配置成生成由相对于该透镜具有相同位置的成像元件捕获的多个图像。
18.按照权利要求12所述的图像处理系统,其中
该拍摄单元捕获径向围绕包括检测对象的区域的至少一部分的反光镜反射的图像,以及
该图像处理系统进一步包含:
图像切出单元,配置成从捕获反光镜反射的图像的拍摄单元生成的图像中切出多个图像;以及
几何失真校正单元,配置成对切出图像进行几何失真校正。
19.按照权利要求12所述的图像处理系统,其中第一图像和第二图像是拍取包含检测对象的区域的特写图像的拍摄单元捕获的图像。
20.一种图像处理设备,包含:
投影变换单元,配置成通过将拍摄体毛生成的第一图像投影变换到从与第一图像不同的方向拍摄体毛生成的第二图像的坐标系,来生成投影图像;
差图像生成单元,配置成生成第二图像与投影图像之间的差图像;
区域检测单元,配置成在差图像中检测由具有差值大于等于预定阈值的像素形成的候选区域,以及将第二图像中与候选区域相对应的区域划分成显示体毛的体毛区和在体毛区之外的非体毛区;以及
除去单元,配置成通过根据该区域检测单元进行的检测的结果,至少投影与第一图像和第二图像的一个中显示体毛的区域相对应的、在第一和第二图像的另一个中的区域中的像素到这些图像的一个中的像素以取代相应像素,来从第一图像和第二图像的一个中除去体毛。
CN201280070232.3A 2011-12-27 2012-12-13 图像处理设备、图像处理系统、图像处理方法以及程序 Active CN104135926B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011-285560 2011-12-27
JP2011285560A JP5818091B2 (ja) 2011-12-27 2011-12-27 画像処理装置、画像処理システム、画像処理方法、および、プログラム
PCT/JP2012/082374 WO2013099628A1 (ja) 2011-12-27 2012-12-13 画像処理装置、画像処理システム、画像処理方法、および、プログラム

Publications (2)

Publication Number Publication Date
CN104135926A true CN104135926A (zh) 2014-11-05
CN104135926B CN104135926B (zh) 2016-08-31

Family

ID=48697120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280070232.3A Active CN104135926B (zh) 2011-12-27 2012-12-13 图像处理设备、图像处理系统、图像处理方法以及程序

Country Status (4)

Country Link
US (1) US9345429B2 (zh)
JP (1) JP5818091B2 (zh)
CN (1) CN104135926B (zh)
WO (1) WO2013099628A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108376117A (zh) * 2018-02-07 2018-08-07 网易(杭州)网络有限公司 交互响应的测试方法和设备
CN108398177A (zh) * 2018-04-10 2018-08-14 西安蒜泥电子科技有限责任公司 一种内设称重模块的三维人体扫描设备
CN108492246A (zh) * 2018-03-12 2018-09-04 维沃移动通信有限公司 一种图像处理方法、装置及移动终端
CN110431835A (zh) * 2017-03-16 2019-11-08 富士胶片株式会社 图像合成装置、图像合成方法及程序
US20210246904A1 (en) * 2018-06-13 2021-08-12 Yayao Feite Plastic Co., Ltd. Centrifugal protective blower

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6379519B2 (ja) * 2014-02-27 2018-08-29 カシオ計算機株式会社 肌処理装置、肌処理方法及びプログラム
GB2528044B (en) * 2014-07-04 2018-08-22 Arc Devices Ni Ltd Non-touch optical detection of vital signs
US20180091733A1 (en) * 2015-07-31 2018-03-29 Hewlett-Packard Development Company, L.P. Capturing images provided by users
JP6993087B2 (ja) * 2017-01-17 2022-02-04 花王株式会社 皮膚の歪み測定方法
JP6857088B2 (ja) * 2017-06-20 2021-04-14 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、監視システム
JP7084120B2 (ja) * 2017-10-17 2022-06-14 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
CN107818305B (zh) * 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
JP7058585B2 (ja) * 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法
WO2019130827A1 (ja) * 2017-12-25 2019-07-04 キヤノン株式会社 画像処理装置およびその制御方法
JP7246974B2 (ja) * 2019-03-05 2023-03-28 花王株式会社 肌画像処理方法
US12028524B2 (en) * 2019-11-26 2024-07-02 Nippon Telegraph And Telephone Corporation Signal reconstruction method, signal reconstruction apparatus, and program
WO2021229984A1 (ja) * 2020-05-15 2021-11-18 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
FR3115888B1 (fr) * 2020-10-30 2023-04-14 St Microelectronics Grenoble 2 Procédé de détection d’une présence d’un objet dans un champ de vision d’un capteur temps de vol
US11665340B2 (en) * 2021-03-22 2023-05-30 Meta Platforms, Inc. Systems and methods for histogram-based weighted prediction in video encoding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1469315A (zh) * 2002-06-11 2004-01-21 Ge医疗系统环球技术有限公司 图像处理方法和系统以及结合该方法和系统的成像设备
US20050196034A1 (en) * 1999-09-09 2005-09-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
US20090169052A1 (en) * 2004-08-11 2009-07-02 Tokyo Institute Of Technology Object Detector
US20100103175A1 (en) * 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993611B2 (ja) * 1990-09-29 1999-12-20 工業技術院長 画像処理方法
AU740638B2 (en) * 1997-02-28 2001-11-08 Electro-Optical Sciences, Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
JP4156780B2 (ja) * 2000-03-31 2008-09-24 株式会社東芝 障害物検出装置
US6711286B1 (en) * 2000-10-20 2004-03-23 Eastman Kodak Company Method for blond-hair-pixel removal in image skin-color detection
JP3919722B2 (ja) * 2003-09-11 2007-05-30 花王株式会社 肌形状計測方法及び肌形状計測装置
US7689016B2 (en) * 2005-05-27 2010-03-30 Stoecker & Associates, A Subsidiary Of The Dermatology Center, Llc Automatic detection of critical dermoscopy features for malignant melanoma diagnosis
JP2010082245A (ja) 2008-09-30 2010-04-15 Panasonic Electric Works Co Ltd 毛情報測定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050196034A1 (en) * 1999-09-09 2005-09-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
CN1469315A (zh) * 2002-06-11 2004-01-21 Ge医疗系统环球技术有限公司 图像处理方法和系统以及结合该方法和系统的成像设备
US20090169052A1 (en) * 2004-08-11 2009-07-02 Tokyo Institute Of Technology Object Detector
US20100103175A1 (en) * 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110431835A (zh) * 2017-03-16 2019-11-08 富士胶片株式会社 图像合成装置、图像合成方法及程序
US11170477B2 (en) 2017-03-16 2021-11-09 Fujifilm Corporation Image composition apparatus, image composition method, and program
CN110431835B (zh) * 2017-03-16 2022-03-04 富士胶片株式会社 图像合成装置、图像合成方法及记录介质
CN108376117A (zh) * 2018-02-07 2018-08-07 网易(杭州)网络有限公司 交互响应的测试方法和设备
CN108492246A (zh) * 2018-03-12 2018-09-04 维沃移动通信有限公司 一种图像处理方法、装置及移动终端
CN108398177A (zh) * 2018-04-10 2018-08-14 西安蒜泥电子科技有限责任公司 一种内设称重模块的三维人体扫描设备
CN108398177B (zh) * 2018-04-10 2020-04-03 西安维塑智能科技有限公司 一种内设称重模块的三维人体扫描设备
US20210246904A1 (en) * 2018-06-13 2021-08-12 Yayao Feite Plastic Co., Ltd. Centrifugal protective blower

Also Published As

Publication number Publication date
WO2013099628A1 (ja) 2013-07-04
US9345429B2 (en) 2016-05-24
US20150125030A1 (en) 2015-05-07
JP5818091B2 (ja) 2015-11-18
CN104135926B (zh) 2016-08-31
JP2013132447A (ja) 2013-07-08

Similar Documents

Publication Publication Date Title
CN104135926A (zh) 图像处理设备、图像处理系统、图像处理方法以及程序
US11681418B2 (en) Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
US9633282B2 (en) Cross-trained convolutional neural networks using multimodal images
WO2018216629A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Han et al. Fast saliency-aware multi-modality image fusion
AU2019201977B2 (en) Aerial monitoring system and method for identifying and locating object features
KR101932009B1 (ko) 다중 객체 검출을 위한 영상 처리 장치 및 방법
CN110678901A (zh) 信息处理设备、信息处理方法和程序
US20210174539A1 (en) A method for estimating the pose of a camera in the frame of reference of a three-dimensional scene, device, augmented reality system and computer program therefor
Christlein et al. A study on features for the detection of copy-move forgeries
JP7059883B2 (ja) 学習装置、画像生成装置、学習方法、及び学習プログラム
CN112884782B (zh) 生物对象分割方法、装置、计算机设备和存储介质
Hadiprakoso et al. Face anti-spoofing using CNN classifier & face liveness detection
Xu et al. Identity-constrained noise modeling with metric learning for face anti-spoofing
Madshaven et al. Hole detection in aquaculture net cages from video footage
Zeng et al. A new multi-object tracking pipeline based on computer vision techniques for mussel farms
CN110097080B (zh) 一种分类标签的构建方法及装置
CN116958113A (zh) 一种产品检测方法、装置、设备及存储介质
den Hollander et al. Vessel classification for naval operations
Zhang et al. Fast learning artificial neural network (FLANN) based color image segmentation in RGBSV cluster space
Kaichi et al. A hyperspectral approach for unsupervised spoof detection with intra-sample distribution
JP7291389B2 (ja) 対象識別方法、情報処理装置、情報処理プログラム、および照明装置
Manonmani et al. Underwater Mine Detection Using Histogram of oriented gradients and Canny Edge Detector
JP2005222304A (ja) パターン抽出装置
CN118097562B (zh) 一种海藻增殖情况远程监测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant