WO2014185691A1 - 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법 - Google Patents

연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법 Download PDF

Info

Publication number
WO2014185691A1
WO2014185691A1 PCT/KR2014/004272 KR2014004272W WO2014185691A1 WO 2014185691 A1 WO2014185691 A1 WO 2014185691A1 KR 2014004272 W KR2014004272 W KR 2014004272W WO 2014185691 A1 WO2014185691 A1 WO 2014185691A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
difference value
images
high peak
determined
Prior art date
Application number
PCT/KR2014/004272
Other languages
English (en)
French (fr)
Inventor
김현준
최영상
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN201480026824.4A priority Critical patent/CN105229700B/zh
Priority to EP14797460.4A priority patent/EP2998928B1/en
Publication of WO2014185691A1 publication Critical patent/WO2014185691A1/ko
Priority to US14/940,545 priority patent/US9940718B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to an image processing technique, and relates to an apparatus and a method for extracting peak images from a continuous photographed image.
  • the continuously captured image images may include various images other than the target image to perform the recognition operation, and are included in the image to improve recognition performance. Efforts to observe changes in objects, etc., are necessary.
  • this method requires a new learner configuration different from the recognition of a still image, and it is difficult to improve the accuracy of recognition even when a new learner is configured to perform a recognition task.
  • this method requires more computation than recognition of still images, it is also difficult to apply to mobile devices such as smart phones or tablet PCs.
  • An object of the present invention is to provide an apparatus and method for extracting a peak image from a continuous photographed image.
  • an apparatus for extracting a high peak image may include: an image selector configured to select one of consecutively captured images, a reference image determiner configured to determine at least one reference image based on a preset criterion, and at least one determined reference image And a difference value calculating unit calculating a difference value of the selected image, and a high peak image determining unit determining a high peak image among consecutive images based on the calculated difference value.
  • the reference image deciding unit may include any one of a frame immediately before or after the selected image, an image registered as a reference image by the user, a continuous shot image, a facial expression that the user makes the most, or the least, in view of the user's usage log. At least one of the images related to the expression may be determined as the reference image.
  • the difference value calculator may extract feature values of the determined at least one reference image and the selected image and calculate a difference value using the extracted feature values.
  • the difference value calculator may accumulate individual difference values of each of the plurality of reference images and the selected image, or compare the average feature values of the plurality of reference images with the feature values of the selected image.
  • the difference value calculator may calculate a difference value between the determined reference image and the selected image by applying a weight to a specific portion of the subject in the image.
  • the high peak image determining unit may determine an image having a difference value greater than or equal to a preset threshold value or an image having the largest or smallest difference value among consecutive images as a high peak image.
  • the apparatus for extracting high peaks may further include a continuous photographing image generating unit configured to continuously photograph a subject to generate a continuous photographing image.
  • a method of extracting a high peak image selecting one of a series of continuously photographed images, determining at least one reference image according to a preset criterion, and determining a difference between the determined at least one reference image and the selected image.
  • the method may include calculating a value, and determining a high peak image from among the continuously photographed images based on the calculated difference value.
  • the determining of the reference image may include: an image of a frame immediately before or after the selected image, an image registered as a reference image by the user, any one of continuous shot images, and a facial expression most frequently made by the user in view of the user's usage log.
  • at least one of images associated with the least expression may be determined as the reference image.
  • the calculating of the difference value may include extracting at least one determined reference image and a feature value of the selected image, and calculating a difference value using the extracted feature value.
  • the calculating of the difference value may include accumulating individual difference values of each of the plurality of reference images and the selected image when the plurality of reference images are determined, or compare average feature values of the plurality of reference images with feature values of the selected image. .
  • a difference value between the determined reference image and the selected image may be calculated by applying a weight to a specific portion of the subject in the image.
  • the determining of the high peak image may include determining whether the high peak image is the highest peak image or the smallest difference image from the reference image among the consecutive images, or the image having the difference value from the reference image equal to or greater than a preset threshold. have.
  • the method for extracting a high peak image may further include generating a continuous photographed image by continuously photographing a subject.
  • FIG. 1 is a block diagram of an apparatus for extracting a high peak image according to an exemplary embodiment.
  • FIG. 2 is an exemplary diagram for describing a method of determining a high peak image according to a reference image.
  • FIG. 3 is a flowchart of a method of extracting a high peak image according to an exemplary embodiment.
  • the peak image described herein refers to an image of a point in time at which a change in pose or gesture of an object or a subject in a continuous photographed image is the largest or an image of a point in time of a change occurs.
  • FIG. 1 is a block diagram of an apparatus for extracting a high peak image according to an exemplary embodiment.
  • each component shown in an embodiment of the present disclosure is classified according to its function, and does not mean that each component is made of separated hardware or one software component unit. That is, for convenience of description, each component is listed and expressed as each component, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function.
  • the integrated and separated embodiments of each component are also included in the scope of the present invention without departing from the spirit of the present invention.
  • the apparatus for extracting high peaks 100 may include a continuous photographing image generating unit 110, an image selecting unit 120, a reference image determining unit 130, and a difference value calculating unit 140. ), And may include a peak image determining unit 150.
  • the continuous photographing image generator 110 may continuously photograph a subject to generate a continuous photographed image (hereinafter, referred to as a continuous photographed image).
  • the continuous photographing image generator 110 may be implemented as a digital camera, a camcorder, a mobile phone, a PMP, a web cam, or the like, capable of continuously photographing a subject to generate a plurality of continuous photographed images.
  • the continuous shooting image generator 110 may be implemented in the interior of the peak image extracting apparatus 100 as shown, it may be implemented as a separate device outside the peak image extraction apparatus 100. Do.
  • the image selector 120 may select one image among the continuously photographed images. According to an embodiment of the present disclosure, the image selector 120 may sequentially select an image generated first in time from among consecutive images.
  • the reference image determiner 130 may determine the reference image according to a preset reference.
  • the reference image determiner 130 may include an image of a frame immediately before or immediately after the image selected by the image selector 120, an image registered by the user for use as a reference image, or a continuous shooting image.
  • the reference image may be determined based on the user's usage log or the image associated with the least expression on the user's usage log.
  • the present invention is not limited thereto, and the reference image may be determined by various criteria, such as determining a plurality of images within a specific range as a reference image according to the use or performance of the invention.
  • the high-peak image extracting apparatus 100 displays the usage log information of the user. It may further include a usage log storage unit (not shown) for storing the.
  • the reference image determiner 130 may determine only one image as a reference image, or may determine a plurality of reference images according to the use or function of the invention.
  • weights may be assigned to each reference image, and corresponding weights may be applied to a difference value from each reference image, and a high peak image may be determined based on the weights.
  • the difference calculator 140 may calculate a difference between the image selected by the image selector 120 and the reference image determined by the reference image determiner 130.
  • the difference value calculator 140 analyzes the image selected by the image selector 120 and the reference image determined by the reference image determiner 130, extracts feature values, and extracts the extracted feature values. By comparing and determining the similarity, the difference value can be calculated.
  • the similarity determination method a method of using an edge histogram of pixels of each predetermined area, an method of using an active shape model using a landmark of a face, a method of comparing color histograms of both images, A method of comparing the amount of color variation of an image, a method of using a scale invariant feature transform (SIFT), a speeded up robust features (SURF) algorithm, and the like may be used, but is not limited thereto.
  • SIFT scale invariant feature transform
  • SURF speeded up robust features
  • the difference value calculator 140 calculates a difference value between the reference image and the image selected by the image selector 120. Weights may be applied to specific portions of the subject in both images. That is, the difference calculator 140 may apply different weights to the eyes, nose, and mouth of the subject in the image, and calculate the difference between the two images based on the weights.
  • the difference value calculator 140 may calculate a difference value between the plurality of reference images and the image selected by the image selector 120. In this case, by accumulating a difference value with each of the plurality of reference images, or calculating an average value with respect to the feature values of the plurality of reference images and comparing the average value of the calculated feature values with the feature values of the image selected by the image selector 120. The difference value with the plurality of reference images may be calculated. In this case, different weights may be applied to each reference image to apply corresponding weights to differences from the respective reference images.
  • the high peak image determining unit 150 may determine the high peak image from among the continuously photographed images based on the difference value calculated by the difference calculating unit 140. According to an embodiment of the present disclosure, the high peak image determining unit 150 determines an image having a difference value greater than or equal to a reference image as a preset high peak image, or the continuous shooting image generated by the continuous shooting image generating unit 110. Among the images, the image having the largest or smallest difference from the reference image may be identified as the high peak image.
  • FIG. 2 is an exemplary diagram for describing a method of determining a high peak image according to a reference image.
  • the continuous photographed image generator 110 generates 10 continuous photographed images 210a to 210j for 1 second.
  • Case 1 is a case where the reference image is an image of a frame immediately before the image selected by the image selector 120
  • Case 2 is a case where the reference image is a user's expressionless image
  • Case 3 is a reference image.
  • the reference images of Cases 2 and 3 are images registered in advance by the user for use as the reference image, any one of the continuous shooting images, or images related to the expression that the user makes the most or the expression that the user makes the least, in view of the user's usage log.
  • the reference image determiner 130 As an image is determined by the reference image determiner 130 as a reference image.
  • the difference value calculator 140 compares neighboring images to each other to calculate a difference value.
  • the peak image determining unit 150 may determine, as a peak image, the images 210c and 210j having a difference value from the reference image greater than or equal to a preset threshold value among the consecutive photographing images 210a to 210j.
  • the difference value calculator 140 compares each of the expressionless images determined as the reference image with each of the continuous photographing images, and calculates the difference value.
  • the peak image determining unit 150 may determine the image 210f having the largest difference value from the reference image among the continuous photographing images 210a to 210j as the peak image.
  • the difference value calculator 140 compares each of the smiley facial expression images determined as the reference image with each of the continuous photographing images and calculates the difference value.
  • the peak image determining unit 150 may determine the image 210f having the smallest difference value from the reference image among the continuous photographing images 210a to 210j as the peak image.
  • the high peak image extraction apparatus 100 may be applied to an expression recognition system, a face recognition system, or the like.
  • the facial expression recognition system recognizes a user's facial expression, estimates the emotional state of the user, and provides various services based on the estimated emotional state, and a part having a facial expression change may have an important meaning rather than a part that does not have a facial expression change. . Therefore, when the high peak image extracting apparatus 100 is applied to the facial expression recognition system, the high peak image extracting apparatus 100 is the image 210c, 210j or the facial expression change in which the user's facial expression change occurs among the continuously photographed images. By extracting a large portion of the image 210f and providing it as an input of the facial expression recognition system, the precision of the facial expression recognition system can be improved and the error rate of facial expression recognition can be lowered.
  • the face recognition system is for recognizing a user's face, identifying a user, and providing various services accordingly, and a part having no facial expression change may have an important meaning than a part having a facial expression change. Therefore, when the high peak image extracting apparatus 100 is applied to the face recognition system, the high peak image extracting apparatus 100 recognizes a sudden facial expression change that may cause an error in face recognition, and extracts it as a high peak image. Thus, by providing the rest of the image except the extracted image as an input of the face recognition system, it is possible to improve the accuracy of face recognition.
  • the high-harvest image extracting apparatus 100 is applied to the facial expression recognition system and the facial recognition system has been described, but this is only an example, and the present disclosure is not limited thereto, and may be applied to various recognition systems such as a gesture recognition system. Do.
  • the system provides various services by recognizing user's preference information by recognizing changes in facial expressions in a short time, and also applies to systems that provide various services by detecting user status such as user's concentration by calculating the duration of facial expressions. This is possible.
  • FIG. 3 is a flowchart of a method of extracting a high peak image according to an exemplary embodiment.
  • a continuous photographing image is generated by continuously photographing a subject (310).
  • the continuous photographing image generator 110 may continuously photograph a subject to generate a continuous photographing image.
  • the image selector 120 may sequentially select an image generated first in time from among consecutive photographed images.
  • a reference image for calculating a difference value with the image selected in step 320 is determined according to a preset reference (330).
  • the reference image determiner 130 may be an image of a frame immediately before or immediately after the image selected by the image selector 120, an image registered by the user for use as a reference image, or any one of continuous shooting images. According to the usage log of the user, the user's most facial expressions or the image associated with the least expressions can be determined as a reference image. In this case, the reference image determiner 130 may determine only one image as the reference image, or may determine a plurality of reference images according to the use or function of the invention.
  • a difference value is calculated by comparing the image selected in step 320 with the reference image (140).
  • the difference value calculator 140 may analyze the two images, extract feature values, and compare the extracted feature values to determine similarity, thereby calculating the difference values.
  • the difference value calculator 140 may apply a weight to a specific portion of the subject in both images.
  • the difference value calculator 140 accumulates difference values with each of the plurality of reference images, or averages the feature values of the plurality of reference images. The difference value may be calculated using the average value of the calculated and calculated feature values.
  • different weights may be assigned to respective reference images, and corresponding weights may be applied to difference values from the respective reference images.
  • a high peak image is determined based on the calculated difference value (350).
  • the high peak image determination unit 150 may determine the high peak image from among the continuously photographed images based on the calculated difference value.
  • an image having a difference value between the reference image and a predetermined threshold value or more is determined as a high-tagged image, or an image having the largest or smallest difference value with the reference image among consecutive images is determined as a high-tight image. can do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법이 개시된다. 일 양상에 따른 고조점 이미지 추출 장치는, 연속 촬영된 이미지 중 하나를 선택하는 이미지 선택부와, 미리 설정된 기준에 따라 적어도 하나 이상의 기준 이미지를 결정하는 기준 이미지 결정부와, 결정된 적어도 하나 이상의 기준 이미지와 선택된 이미지의 차이값을 산출하는 차이값 산출부와, 산출된 차이값을 기반으로 연속 촬영된 이미지 중에서 고조점 이미지를 판별하는 고조점 이미지 판별부를 포함할 수 있다.

Description

연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법
이미지 처리 기술과 관련된 것으로, 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법에 관한 것이다.
연속적으로 촬영된 영상 이미지를 바탕으로 인식 작업을 수행하고자 하는 경우, 연속적으로 촬영된 영상 이미지에는 인식 작업을 수행하고자 하는 목적 이미지 이외의 다양한 이미지가 포함될 수가 있어, 인식의 성능을 높이기 위해서는 이미지에 포함된 객체의 변화 등을 잘 관찰하는 노력이 필요하다. 그러나, 이러한 방법은 스틸 이미지(still image)의 인식과는 다른 새로운 학습기 구성이 필요하며, 새로운 학습기를 구성하여 인식 작업을 수행하더라도 인식의 정확도를 향상시키는데 어려움이 있다. 더욱이 이러한 방법은 스틸 이미지의 인식보다 많은 계산량을 필요로 하기 때문에, 스마트 폰 또는 태블릿 PC 등 휴대성을 중요시하는 모바일 기기에 적용하는 데도 어려움이 있다.
연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법을 제공하는 것을 목적으로 한다.
일 양상에 따른 고조점 이미지 추출 장치는, 연속 촬영된 이미지 중 하나를 선택하는 이미지 선택부와, 미리 설정된 기준에 따라 적어도 하나 이상의 기준 이미지를 결정하는 기준 이미지 결정부와, 결정된 적어도 하나 이상의 기준 이미지와 선택된 이미지의 차이값을 산출하는 차이값 산출부와, 산출된 차이값을 기반으로 연속 촬영된 이미지 중에서 고조점 이미지를 판별하는 고조점 이미지 판별부를 포함할 수 있다.
기준 이미지 결정부는, 선택된 이미지의 직전 프레임 또는 직후 프레임의 이미지, 사용자에 의해 기준 이미지로 등록된 이미지, 연속 촬영된 이미지 중 임의의 하나, 사용자의 사용 로그에 비추어 사용자가 가장 많이 짓는 표정 또는 가장 적게 짓는 표정과 관련된 이미지 중 적어도 하나를 기준 이미지로 결정할 수 있다.
차이값 산출부는, 결정된 적어도 하나 이상의 기준 이미지와 선택된 이미지의 특징값을 추출하고 추출된 특징값을 이용하여 차이값을 산출할 수 있다.
차이값 산출부는, 복수의 기준 이미지가 결정된 경우, 복수의 기준 이미지 각각과 선택된 이미지의 개별 차이값을 누적하거나, 복수의 기준 이미지의 평균 특징값과 선택된 이미지의 특징값을 비교할 수 있다.
차이값 산출부는, 이미지 내 피사체의 특정 부위에 가중치를 적용하여 결정된 기준 이미지와 선택된 이미지의 차이값을 산출할 수 있다.
고조점 이미지 판별부는, 차이값이 미리 설정된 임계값 이상인 이미지, 또는 연속 촬영된 이미지 중에서 차이값이 가장 크거나 가장 작은 이미지를 고조점 이미지로 판별할 수 있다.
고조점 이미지 추출 장치는, 피사체를 연속 촬영하여 연속 촬영 이미지를 생성하는 연속 촬영 이미지 생성부를 더 포함할 수 있다.
다른 양상에 따른 고조점 이미지 추출 방법은, 연속 촬영된 이미지 중 하나를 선택하는 단계와, 미리 설정된 기준에 따라 적어도 하나 이상의 기준 이미지를 결정하는 단계와, 결정된 적어도 하나 이상의 기준 이미지와 선택된 이미지의 차이값을 산출하는 단계와, 산출된 차이값을 기반으로 연속 촬영된 이미지 중에서 고조점 이미지를 판별하는 단계를 포함할 수 있다.
기준 이미지를 결정하는 단계는, 선택된 이미지의 직전 프레임 또는 직후 프레임의 이미지, 사용자에 의해 기준 이미지로 등록된 이미지, 연속 촬영된 이미지 중 임의의 하나, 사용자의 사용 로그에 비추어 사용자가 가장 많이 짓는 표정 또는 가장 적게 짓는 표정과 관련된 이미지 중 적어도 하나를 기준 이미지로 결정할 수 있다.
차이값을 산출하는 단계는, 결정된 적어도 하나 이상의 기준 이미지와 선택된 이미지의 특징값을 추출하는 단계와, 추출된 특징값을 이용하여 차이값을 산출하는 단계를 포함할 수 있다.
차이값을 산출하는 단계는, 복수의 기준 이미지가 결정된 경우, 복수의 기준 이미지 각각과 선택된 이미지의 개별 차이값을 누적하거나, 복수의 기준 이미지의 평균 특징값과 선택된 이미지의 특징값을 비교할 수 있다.
차이값을 산출하는 단계는, 이미지 내 피사체의 특정 부위에 가중치를 적용하여 결정된 기준 이미지와 선택된 이미지의 차이값을 산출할 수 있다.
고조점 이미지를 판별하는 단계는, 기준 이미지와의 차이값이 미리 설정된 임계값 이상인 이미지, 또는 연속 촬영된 이미지 중에서 기준 이미지와의 차이값이 가장 크거나 가장 작은 이미지를 고조점 이미지로 판별할 수 있다.
고조점 이미지 추출 방법은, 피사체를 연속 촬영하여 연속 촬영 이미지를 생성하는 단계를 더 포함할 수 있다.
촬영 대상의 표정 또는 제스처 등의 변화를 감지하고, 다수의 연속 촬영 이미지 중에서 변화가 가장 큰 시점의 이미지 또는 변화가 발생한 시점의 이미지를 추출함으로써, 표정 인식, 제스처 인식, 얼굴 인식에서 의미 있는 장면만을 선별함으로써 인식의 성능을 높일 수 있다.
표정의 지속 시간을 계산함으로써 사용자의 집중도 등의 추가적인 상태를 감지할 수 있다.
도 1은 일 실시 예에 따른 고조점 이미지 추출 장치의 구성도이다.
도 2는 기준 이미지에 따라 고조점 이미지를 판별하는 방법을 설명하기 위한 예시도이다.
도 3은 일 실시 예에 따른 고조점 이미지 추출 방법의 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로, 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 명세서에서 설명되는 고조점 이미지(peak image)란 연속 촬영된 이미지 내의 대상물 또는 피사체의 포즈 또는 제스처의 변화가 가장 큰 시점의 이미지 또는 변화가 발생한 시점의 이미지를 의미한다.
도 1은 일 실시 예에 따른 고조점 이미지 추출 장치의 구성도이다.
이때, 본 명세서의 일 실시 예에 나타나는 각 구성부는 그 기능에 따라 구분한 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 표현한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고, 이러한 각 구성부의 통합된 실시 예 및 분리된 실시 예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
도 1을 참조하면, 일 실시 예에 따른 고조점 이미지 추출 장치(100)는 연속 촬영 이미지 생성부(110), 이미지 선택부(120), 기준 이미지 결정부(130), 차이값 산출부(140), 고조점 이미지 판별부(150)를 포함할 수 있다.
연속 촬영 이미지 생성부(110)는 피사체를 연속적으로 촬영하여 연속 촬영된 이미지(이하, 연속 촬영 이미지)를 생성할 수 있다. 일 실시 예에 따르면, 연속 촬영 이미지 생성부(110)는 피사체를 연속적으로 촬영하여 복수의 연속 촬영 이미지를 생성할 수 있는 디지털 카메라, 캠코더, 휴대폰, PMP, 웹 캠 등으로 구현될 수 있다.
한편, 연속 촬영 이미지 생성부(110)는 도시된 바와 같이 고조점 이미지 추출 장치(100)의 내부에 구현될 수도 있지만, 고조점 이미지 추출 장치(100)의 외부에 별도의 장치로 구현되는 것도 가능하다.
이미지 선택부(120)는 연속 촬영된 이미지 중 하나의 이미지를 선택할 수 있다. 일 실시 예에 따르면, 이미지 선택부(120)는 연속 촬영된 이미지 중에서 시간적으로 먼저 생성된 이미지부터 순차적으로 선택할 수 있다.
기준 이미지 결정부(130)는 미리 설정된 기준에 따라 기준 이미지를 결정할 수 있다. 일 실시 예에 따르면, 기준 이미지 결정부(130)는 이미지 선택부(120)에서 선택된 이미지의 직전 프레임의 이미지 또는 직후 프레임의 이미지, 사용자가 기준 이미지로 사용하기 위해 등록한 이미지, 연속 촬영 이미지 중 임의의 하나, 사용자의 사용 로그에 비추어 사용자가 가장 많이 짓는 표정 또는 가장 적게 짓는 표정과 관련된 이미지 등을 기준 이미지로 결정할 수 있다. 그러나, 이에 한정되는 것은 아니며, 발명의 용도 또는 성능에 따라 연속 촬영 이미지 중에서 특정 범위 내에 있는 다수의 이미지를 기준 이미지로 결정하는 등 다양한 기준에 의하여 기준 이미지를 결정할 수 있다.
기준 이미지 결정부(130)가 사용자의 사용 로그에 비추어 사용자가 가장 많이 짓는 표정 또는 가장 적게 짓는 표정과 관련된 이미지를 기준 이미지로 결정하는 경우, 고조점 이미지 추출 장치(100)는 사용자의 사용 로그 정보를 저장하는 사용 로그 저장부(미도시)를 더 포함할 수 있다.
일 실시 예에 따르면, 기준 이미지 결정부(130)는 기준 이미지로 하나의 이미지만을 결정하는 것도 가능하며, 발명의 용도 또는 기능에 따라 복수의 기준 이미지를 결정하는 것도 가능하다. 복수의 기준 이미지가 결정된 경우, 후술하는 바와 같이, 각 기준 이미지 별로 가중치를 부여하고, 각 기준 이미지와의 차이값에 해당 가중치를 적용하여, 이를 기반으로 고조점 이미지를 판별할 수 있다.
차이값 산출부(140)는 이미지 선택부(120)에서 선택된 이미지와 기준 이미지 결정부(130)에서 결정된 기준 이미지의 차이값을 산출할 수 있다.
일 실시 예에 따르면, 차이값 산출부(140)는 이미지 선택부(120)에서 선택된 이미지와 기준 이미지 결정부(130)에서 결정된 기준 이미지를 각각 분석하여 특징값을 추출하고, 추출된 특징값을 비교하여 유사도를 판단함으로써, 차이값을 산출할 수 있다. 이때, 유사도 판단 방법으로는 각 정해진 영역의 화소에 대한 경계 히스토그램(edge histogram)을 이용하는 방법, 얼굴 안면의 랜드 마크를 활용한 Active Shape Model을 이용하는 방법, 양 이미지의 색상 히스토그램을 비교하는 방법, 양 이미지의 색상 변화량을 비교하는 방법, SIFT(Scalar Invariant Feature Transform), SURF(Speeded Up Robust Features) 알고리즘을 이용하는 방법 등을 이용할 수 있으나, 이에 한정되는 것은 아니며, 다양한 이미지 유사도 판단 알고리즘을 이용할 수 있다.
일 실시 예에 따르면, 기준 이미지 결정부(130)가 하나의 기준 이미지를 결정한 경우, 차이값 산출부(140)는 기준 이미지와 이미지 선택부(120)에서 선택한 이미지의 차이값을 산출할 때, 양 이미지 내 피사체의 특정 부위에 가중치를 적용할 수 있다. 즉, 차이값 산출부(140)는 이미지 내의 피사체의 눈, 코, 입 등에 각각 서로 다른 가중치를 적용하고, 이를 기반으로 양 이미지의 차이값을 산출할 수 있다.
일 실시 예에 따르면, 기준 이미지 결정부(130)가 복수의 기준 이미지를 결정한 경우, 차이값 산출부(140)는 복수의 기준 이미지와 이미지 선택부(120)에서 선택한 이미지의 차이값을 산출할 때, 복수의 기준 이미지 각각 과의 차이값을 누적하거나, 복수의 기준 이미지의 특징값에 대하여 평균값을 산출하고 산출된 특징값의 평균값과 이미지 선택부(120)에서 선택한 이미지의 특징값을 비교함으로써, 복수의 기준 이미지와의 차이값을 산출할 수 있다. 이때, 기준 이미지 별로 서로 다른 가중치를 부여하여 각 기준 이미지와의 차이값에 해당 가중치를 적용하는 것도 가능하다.
고조점 이미지 판별부(150)는 차이값 산출부(140)에서 산출된 차이값을 기반으로 연속 촬영된 이미지 중에서 고조점 이미지를 판별할 수 있다. 일 실시 예에 따르면, 고조점 이미지 판별부(150)는 기준 이미지와의 차이값이 미리 설정된 임계값 이상인 이미지를 고조점 이미지로 판별하거나, 연속 촬영 이미지 생성부(110)에서 생성된 연속 촬영 이미지 중에서 기준 이미지와의 차이값이 가장 크거나 가장 작은 이미지를 고조점 이미지로 판별할 수 있다.
도 2는 기준 이미지에 따라 고조점 이미지를 판별하는 방법을 설명하기 위한 예시도이다. 이때, 연속 촬영된 이미지 생성부(110)는 1초 동안 10 장의 연속 촬영 이미지(210a 내지 210j)를 생성하였다고 가정한다.
도 2를 참조하면, Case 1은 기준 이미지가 이미지 선택부(120)에서 선택된 이미지의 직전 프레임의 이미지인 경우를, Case 2는 기준 이미지가 사용자의 무표정 이미지인 경우를, Case 3은 기준 이미지가 사용자의 웃는 표정 이미지인 경우를 나타낸다. 이때, Case 2 및 3의 기준 이미지는 사용자가 기준 이미지로 사용하기 위해 미리 등록한 이미지, 연속 촬영 이미지 중 임의의 하나 또는 사용자의 사용 로그에 비추어 사용자가 가장 많이 짓는 표정 또는 가장 적게 짓는 표정과 관련된 이미지로서 기준 이미지 결정부(130)에 의해 기준 이미지로 결정된 이미지이다.
기준 이미지가 이미지 선택부(120)에서 선택된 이미지의 직전 프레임의 이미지인 경우(Case 1), 차이값 산출부(140)는 서로 이웃하는 이미지를 상호 비교하여 그 차이값을 산출하게 된다. 이때, 고조점 이미지 판별부(150)는 연속 촬영 이미지(210a 내지 210j) 중에서 기준 이미지와의 차이값이 미리 설정된 임계값 이상인 이미지(210c, 210j)를 고조점 이미지로 판별할 수 있다.
기준 이미지가 사용자의 무표정 이미지인 경우(Case 2), 차이값 산출부(140)는 기준 이미지로 결정된 무표정 이미지와 연속 촬영 이미지 각각을 비교하여 그 차이값을 산출하게 된다. 이때, 고조점 이미지 판별부(150)는 연속 촬영 이미지(210a 내지 210j) 중에서 기준 이미지와의 차이값이 가장 큰 이미지(210f)를 고조점 이미지로 판별할 수 있다.
기준 이미지가 사용자의 웃는 표정 이미지인 경우(Case 3), 차이값 산출부(140)는 기준 이미지로 결정된 웃는 표정 이미지와 연속 촬영 이미지 각각을 비교하여 그 차이값을 산출하게 된다. 이때, 고조점 이미지 판별부(150)는 연속 촬영 이미지(210a 내지 210j) 중에서 기준 이미지와의 차이값이 가장 작은 이미지(210f)를 고조점 이미지로 판별할 수 있다.
한편, Case 1 내지 3을 설명함에 있어, 각 case 별로 고조점 이미지를 판별할 때 사용되는 기준을 다르게 적용하였으나, 발명의 용도 또는 성능에 따라 동일 기준이 적용될 수도 있으며, 각 case별로 서로 다른 둘 이상의 기준이 동시에 적용될 수도 있다.
이하, 고조점 이미지 추출 장치(100)가 적용되는 시스템을 예를 들어 설명한다. 고조점 이미지 추출 장치(100)는 표정 인식 시스템, 얼굴 인식 시스템 등에 적용할 수 있다.
표정 인식 시스템은 사용자의 표정을 인식하여 사용자의 감정 상태를 추측하여 추측된 감정 상태를 기반으로 다양한 서비스를 제공하기 위한 것으로, 표정 변화가 없는 부분 보다 표정 변화가 있는 부분이 중요한 의미를 가질 수 있다. 따라서, 고조점 이미지 추출 장치(100)가 표정 인식 시스템에 적용되는 경우, 고조점 이미지 추출 장치(100)는 연속 촬영된 이미지 중에서 사용자의 표정 변화가 발생한 이미지(210c, 210j) 또는 표정 변화가 가장 큰 부분의 이미지(210f)를 추출하여 표정 인식 시스템의 입력으로 제공함으로써, 표정 인식 시스템의 정확도(precision)를 향상시키고, 표정 인식의 에러 비율(error rate)을 낮출 수 있다.
얼굴 인식 시스템은 사용자의 얼굴을 인식하여, 사용자를 식별하고, 이에 따른 다양한 서비스를 제공하기 위한 것으로, 표정 변화가 있는 부분 보다 표정 변화가 없는 부분이 중요한 의미를 가질 수 있다. 따라서, 고조점 이미지 추출 장치(100)가 얼굴 인식 시스템에 적용되는 경우, 고조점 이미지 추출 장치(100)는 얼굴 인식의 에러를 발생시킬 수 있는 갑작스런 표정 변화를 인식하고, 이를 고조점 이미지로 추출하여, 추출된 이미지를 제외한 나머지 이미지를 얼굴 인식 시스템의 입력으로 제공함으로써, 얼굴 인식의 정확도를 향상시킬 수 있다.
지금까지, 고조점 이미지 추출 장치(100)가 표정 인식 시스템, 얼굴 인식 시스템에 적용되는 예를 설명하였으나, 이는 일 예에 불과할 뿐, 이에 한정되는 것은 아니며, 제스처 인식 시스템 등 다양한 인식 시스템에 적용 가능하다. 또한, 짧은 시간의 표정 변화를 인식하여 사용자의 선호도 정보를 파악함으로써 다양한 서비스를 제공하는 시스템, 표정의 지속 시간 등을 계산함으로써 사용자의 집중도 등의 사용자 상태를 감지하여 다양한 서비스를 제공하는 시스템에도 적용이 가능하다.
도 3은 일 실시 예에 따른 고조점 이미지 추출 방법의 흐름도이다.
도 3을 참조하면, 일 실시 예에 따른 고조점 이미지 추출 방법은, 먼저, 피사체를 연속 촬영하여 연속 촬영 이미지를 생성한다(310). 예를 들어, 연속 촬영 이미지 생성부(110)는 피사체를 연속 촬영하여 연속 촬영 이미지를 생성할 수 있다.
그 후, 생성된 연속 촬영 이미지 중 하나를 선택한다(320). 예를 들어, 이미지 선택부(120)는 연속 촬영 이미지 중에서 시간적으로 먼저 생성된 이미지부터 순차적으로 선택할 수 있다.
그 후, 미리 설정된 기준에 따라 단계 320에서 선택된 이미지와의 차이값을 산출하기 위한 기준 이미지를 결정한다(330). 예를 들어, 기준 이미지 결정부(130)는 이미지 선택부(120)에서 선택된 이미지의 직전 프레임 또는 직후 프레임의 이미지, 사용자가 기준 이미지로 사용하기 위해 등록한 이미지, 연속 촬영 이미지 중 임의의 하나, 사용자의 사용 로그에 비추어 사용자가 가장 많이 짓는 표정 또는 가장 적게 짓는 표정과 관련된 이미지 등을 기준 이미지로 결정할 수 있다. 이때, 기준 이미지 결정부(130)는 기준 이미지로 하나의 이미지만을 결정하는 것도 가능하며, 발명의 용도 또는 기능에 따라 복수의 기준 이미지를 결정하는 것도 가능하다.
그 후, 단계 320에서 선택된 이미지와 기준 이미지를 비교하여 차이값을 산출한다(140). 예를 들어, 차이값 산출부(140)는 양 이미지를 각각 분석하여 특징값을 추출하고, 추출된 특징값을 비교하여 유사도를 판단함으로써, 차이값을 산출할 수 있다. 차이값 산출부(140)는 양 이미지의 차이값을 산출할 때, 양 이미지 내 피사체의 특정 부위에 가중치를 적용할 수 있다. 또한, 기준 이미지 결정부(130)가 복수의 기준 이미지를 결정한 경우, 차이값 산출부(140)는 복수의 기준 이미지 각각과의 차이값을 누적하거나, 복수의 기준 이미지의 특징값에 대하여 평균값을 산출하고 산출된 특징값의 평균값을 이용하여 차이값을 산출할 수 있다. 또한, 기준 이미지 별로 서로 다른 가중치를 부여하고, 각 기준 이미지와의 차이값에 해당 가중치를 적용하는 것도 가능하다.
그 후, 산출된 차이값을 기반으로 고조점 이미지를 판별한다(350). 예를 들어, 고조점 이미지 판별부(150)는 산출된 차이값을 기반으로 연속 촬영된 이미지 중에서 고조점 이미지를 판별할 수 있다. 일 실시 예에 따르면, 기준 이미지와의 차이값이 미리 설정된 임계값 이상인 이미지를 고조점 이미지로 판별하거나, 연속 촬영 이미지 중에서 기준 이미지와의 차이값이 가장 크거나 가장 작은 이미지를 고조점 이미지로 판별할 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시 예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.

Claims (14)

  1. 연속 촬영된 이미지 중 하나를 선택하는 이미지 선택부;
    미리 설정된 기준에 따라 적어도 하나 이상의 기준 이미지를 결정하는 기준 이미지 결정부;
    상기 결정된 적어도 하나 이상의 기준 이미지와 상기 선택된 이미지의 차이값을 산출하는 차이값 산출부; 및
    상기 산출된 차이값을 기반으로 상기 연속 촬영된 이미지 중에서 고조점 이미지를 판별하는 고조점 이미지 판별부; 를 포함하는 고조점 이미지 추출 장치.
  2. 제 1항에 있어서,
    상기 기준 이미지 결정부는, 상기 선택된 이미지의 직전 프레임 또는 직후 프레임의 이미지, 사용자에 의해 기준 이미지로 등록된 이미지, 상기 연속 촬영된 이미지 중 임의의 하나, 사용자의 사용 로그에 비추어 사용자가 가장 많이 짓는 표정 또는 가장 적게 짓는 표정과 관련된 이미지 중 적어도 하나를 기준 이미지로 결정하는 고조점 이미지 추출 장치.
  3. 제 1항에 있어서,
    상기 차이값 산출부는, 상기 결정된 적어도 하나 이상의 기준 이미지와 상기 선택된 이미지의 특징값을 추출하고 추출된 특징값을 이용하여 차이값을 산출하는 고조점 이미지 추출 장치.
  4. 제 1항에 있어서,
    상기 차이값 산출부는, 복수의 기준 이미지가 결정된 경우, 상기 복수의 기준 이미지 각각과 상기 선택된 이미지의 개별 차이값을 누적하거나, 상기 복수의 기준 이미지의 평균 특징값과 상기 선택된 이미지의 특징값을 비교하는 고조점 이미지 추출 장치.
  5. 제 1항에 있어서,
    상기 차이값 산출부는 이미지 내 피사체의 특정 부위에 가중치를 적용하여 상기 결정된 적어도 하나 이상의 기준 이미지와 상기 선택된 이미지의 차이값을 산출하는 고조점 이미지 추출 장치.
  6. 제 1항에 있어서,
    상기 고조점 이미지 판별부는, 상기 차이값이 미리 설정된 임계값 이상인 이미지, 또는 상기 연속 촬영된 이미지 중에서 상기 차이값이 가장 크거나 가장 작은 이미지를 고조점 이미지로 판별하는 고조점 이미지 추출 장치.
  7. 제 1항에 있어서,
    피사체를 연속 촬영하여 연속 촬영 이미지를 생성하는 연속 촬영 이미지 생성부; 를 더 포함하는 고조점 이미지 추출 장치.
  8. 연속 촬영된 이미지 중 하나를 선택하는 단계;
    미리 설정된 기준에 따라 적어도 하나 이상의 기준 이미지를 결정하는 단계;
    상기 결정된 적어도 하나 이상의 기준 이미지와 상기 선택된 이미지의 차이값을 산출하는 단계; 및
    상기 산출된 차이값을 기반으로 상기 연속 촬영된 이미지 중에서 고조점 이미지를 판별하는 단계; 를 포함하는 고조점 이미지 추출 방법.
  9. 제 8항에 있어서,
    상기 기준 이미지를 결정하는 단계는, 상기 선택된 이미지의 직전 프레임 또는 직후 프레임의 이미지, 사용자에 의해 기준 이미지로 등록된 이미지, 상기 연속 촬영된 이미지 중 임의의 하나, 사용자의 사용 로그에 비추어 사용자가 가장 많이 짓는 표정 또는 가장 적게 짓는 표정과 관련된 이미지 중 적어도 하나를 기준 이미지로 결정하는 고조점 이미지 추출 방법.
  10. 제 8항에 있어서,
    상기 차이값을 산출하는 단계는,
    상기 결정된 적어도 하나 이상의 기준 이미지와 상기 선택된 이미지의 특징값을 추출하는 단계; 및
    상기 추출된 특징값을 이용하여 차이값을 산출하는 단계; 를 포함하는 고조점 이미지 추출 방법.
  11. 제 8항에 있어서,
    상기 차이값을 산출하는 단계는, 복수의 기준 이미지가 결정된 경우, 상기 복수의 기준 이미지 각각과 상기 선택된 이미지의 개별 차이값을 누적하거나, 상기 복수의 기준 이미지의 평균 특징값과 상기 선택된 이미지의 특징값을 비교하는 고조점 이미지 추출 방법.
  12. 제 8항에 있어서,
    상기 차이값을 산출하는 단계는, 이미지 내 피사체의 특정 부위에 가중치를 적용하여 상기 결정된 기준 이미지와 상기 선택된 이미지의 차이값을 산출하는 고조점 이미지 추출 방법.
  13. 제 8항에 있어서,
    상기 고조점 이미지를 판별하는 단계는, 상기 차이값이 미리 설정된 임계값 이상인 이미지, 또는 상기 연속 촬영된 이미지 중에서 상기 차이값이 가장 크거나 가장 작은 이미지를 고조점 이미지로 판별하는 고조점 이미지 추출 방법.
  14. 제 8항에 있어서,
    피사체를 연속 촬영하여 연속 촬영 이미지를 생성하는 단계; 를 더 포함하는 고조점 이미지 추출 방법.
PCT/KR2014/004272 2013-05-14 2014-05-13 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법 WO2014185691A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201480026824.4A CN105229700B (zh) 2013-05-14 2014-05-13 用于从多个连续拍摄图像提取峰图像的设备和方法
EP14797460.4A EP2998928B1 (en) 2013-05-14 2014-05-13 Apparatus and method for extracting high watermark image from continuously photographed images
US14/940,545 US9940718B2 (en) 2013-05-14 2015-11-13 Apparatus and method for extracting peak image from continuously photographed images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130054588A KR102065362B1 (ko) 2013-05-14 2013-05-14 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법
KR10-2013-0054588 2013-05-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/940,545 Continuation US9940718B2 (en) 2013-05-14 2015-11-13 Apparatus and method for extracting peak image from continuously photographed images

Publications (1)

Publication Number Publication Date
WO2014185691A1 true WO2014185691A1 (ko) 2014-11-20

Family

ID=51898610

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/004272 WO2014185691A1 (ko) 2013-05-14 2014-05-13 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법

Country Status (5)

Country Link
US (1) US9940718B2 (ko)
EP (1) EP2998928B1 (ko)
KR (1) KR102065362B1 (ko)
CN (1) CN105229700B (ko)
WO (1) WO2014185691A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
CN109902189B (zh) 2018-11-30 2021-02-12 华为技术有限公司 一种图片选择方法及相关设备
KR102156899B1 (ko) * 2019-11-14 2020-09-16 한국광기술원 디자인 생성장치 및 방법
CN112967166A (zh) * 2021-03-19 2021-06-15 北京星汉博纳医药科技有限公司 一种基于openCV的图片水印自动识别处理方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007081682A (ja) * 2005-09-13 2007-03-29 Canon Inc 画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラム
JP2009278287A (ja) * 2008-05-13 2009-11-26 Canon Inc 撮像装置及び撮像方法
KR20100060181A (ko) * 2008-11-27 2010-06-07 주식회사 대우일렉트로닉스 디지털 녹화기의 썸네일 생성 장치 및 방법
KR20110037485A (ko) * 2009-10-07 2011-04-13 (주)아구스 상황 변화 인식 방법 및 이를 이용한 영상 처리 장치
KR20120012208A (ko) * 2010-07-30 2012-02-09 주식회사 케이티 비쥬얼 리듬을 이용한 장면 전환 검출 방법 및 장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100692526B1 (ko) 2005-12-08 2007-03-12 한국전자통신연구원 시스템 자동제어용 제스처 인식 장치 및 그 방법
KR101351091B1 (ko) * 2006-12-22 2014-01-14 삼성전자주식회사 화상형성장치 및 그 연사촬영 이미지의 제어방법
JP4853320B2 (ja) 2007-02-15 2012-01-11 ソニー株式会社 画像処理装置、画像処理方法
JP4720810B2 (ja) * 2007-09-28 2011-07-13 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
US20100272365A1 (en) * 2007-11-29 2010-10-28 Koji Yamamoto Picture processing method and picture processing apparatus
KR100988323B1 (ko) 2008-07-24 2010-10-18 포항공과대학교 산학협력단 표정 증폭을 이용한 미세 표정인식 방법 및 장치
JP2010068190A (ja) 2008-09-10 2010-03-25 Nikon Corp デジタルカメラ、画像処理装置およびデジタルカメラシステム
WO2011033619A1 (ja) 2009-09-16 2011-03-24 パイオニア株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び、記憶媒体
JP5631106B2 (ja) * 2010-08-18 2014-11-26 キヤノン株式会社 画像処理装置、その制御方法、及びプログラム、並びに撮像装置
KR20120084517A (ko) 2011-01-20 2012-07-30 원광대학교산학협력단 실시간 미소 훈련 시스템
KR101748372B1 (ko) 2011-02-18 2017-06-19 에스케이플래닛 주식회사 얼굴 인식 서비스 시스템, 그 시스템에서의 얼굴 인식 서비스 장치 및 방법
JP2013003706A (ja) 2011-06-14 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 表情認識装置、方法、及びプログラム
US9036069B2 (en) * 2012-02-06 2015-05-19 Qualcomm Incorporated Method and apparatus for unattended image capture

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007081682A (ja) * 2005-09-13 2007-03-29 Canon Inc 画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラム
JP2009278287A (ja) * 2008-05-13 2009-11-26 Canon Inc 撮像装置及び撮像方法
KR20100060181A (ko) * 2008-11-27 2010-06-07 주식회사 대우일렉트로닉스 디지털 녹화기의 썸네일 생성 장치 및 방법
KR20110037485A (ko) * 2009-10-07 2011-04-13 (주)아구스 상황 변화 인식 방법 및 이를 이용한 영상 처리 장치
KR20120012208A (ko) * 2010-07-30 2012-02-09 주식회사 케이티 비쥬얼 리듬을 이용한 장면 전환 검출 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2998928A4 *

Also Published As

Publication number Publication date
KR20140134549A (ko) 2014-11-24
CN105229700A (zh) 2016-01-06
US9940718B2 (en) 2018-04-10
EP2998928A1 (en) 2016-03-23
US20160071273A1 (en) 2016-03-10
EP2998928B1 (en) 2023-02-15
CN105229700B (zh) 2018-10-26
KR102065362B1 (ko) 2020-01-13
EP2998928A4 (en) 2017-02-22

Similar Documents

Publication Publication Date Title
CN105893920B (zh) 一种人脸活体检测方法和装置
KR101423916B1 (ko) 복수의 얼굴 인식 방법 및 장치
JP4642128B2 (ja) 画像処理方法、画像処理装置及びシステム
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
KR101937323B1 (ko) 위장 얼굴 판별 장치 및 방법
JP2016095808A (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
EP2309454B1 (en) Apparatus and method for detecting motion
KR20110090731A (ko) 위조 영상 판별 장치 및 그 방법
WO2014185691A1 (ko) 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법
CN113302907B (zh) 拍摄方法、装置、设备及计算机可读存储介质
CN114902299A (zh) 图像中关联对象的检测方法、装置、设备和存储介质
WO2019088333A1 (ko) 깊이 맵 정보 기반의 인체 행위 인지 방법 및 그 장치
WO2011136405A1 (ko) 3d 카메라를 이용한 영상인식장치 및 방법
WO2018131729A1 (ko) 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템
CN111723626A (zh) 用于活体检测的方法、装置和电子设备
KR102194511B1 (ko) 대표 영상프레임 결정시스템 및 이를 이용한 방법
CN111191519B (zh) 一种用于移动供电装置用户接入的活体检测方法
KR101470763B1 (ko) 영상에서 컬러 객체를 검출하는 방법 및 영상에서 컬러 객체를 검출하는 장치
CN113052815A (zh) 图像清晰度确定方法及装置、存储介质和电子设备
KR102093208B1 (ko) 화소 분석에 기초한 인물 인식 장치 및 그 동작 방법
CN108399411A (zh) 一种多摄像头识别方法及装置
CN112434671B (zh) 一种行人快照优选方法、装置、计算机设备及存储介质
JP5777389B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
CN105447501B (zh) 基于聚类的证照图像阴影检测方法及装置
KR101349672B1 (ko) 영상 특징 고속 추출 방법 및 이를 지원하는 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480026824.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14797460

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2014797460

Country of ref document: EP