KR20170076894A - Method for digital image judging and system tereof, application system, and authentication system thereof - Google Patents

Method for digital image judging and system tereof, application system, and authentication system thereof Download PDF

Info

Publication number
KR20170076894A
KR20170076894A KR1020150186329A KR20150186329A KR20170076894A KR 20170076894 A KR20170076894 A KR 20170076894A KR 1020150186329 A KR1020150186329 A KR 1020150186329A KR 20150186329 A KR20150186329 A KR 20150186329A KR 20170076894 A KR20170076894 A KR 20170076894A
Authority
KR
South Korea
Prior art keywords
image
edge
digital
digital image
images
Prior art date
Application number
KR1020150186329A
Other languages
Korean (ko)
Other versions
KR102050590B1 (en
Inventor
김동진
김형석
이주영
박경자
심충섭
박종훈
이진원
김대진
김우현
Original Assignee
주식회사 씽크풀
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씽크풀 filed Critical 주식회사 씽크풀
Priority to KR1020150186329A priority Critical patent/KR102050590B1/en
Publication of KR20170076894A publication Critical patent/KR20170076894A/en
Application granted granted Critical
Publication of KR102050590B1 publication Critical patent/KR102050590B1/en

Links

Images

Classifications

    • G06K9/00201
    • G06K9/32
    • G06K9/4661
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

디지털 이미지 판단시스템 및 그 방법이 개시된다. 본 발명의 일 측면에 따르면, 디지털 이미지 판단시스템은 동일한 객체를 대상으로 제1조명상태에서 촬영된 제1디지털 이미지 및 제2조명상태에서 촬영된 제2디지털 이미지를 포함하는 복수의 디지털 이미지들을 획득하기 위한 획득모듈 및 상기 획득모듈에 의해 획득된 상기 복수의 디지털 이미지들에 기초하여 상기 복수의 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 제어모듈을 포함하며, 상기 제어모듈은 상기 제1디지털 이미지 및 상기 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단한다.A digital image determination system and method are disclosed. According to one aspect of the present invention, a digital image determination system acquires a plurality of digital images including a first digital image photographed in a first illumination state and a second digital image photographed in a second illumination state on the same object And a control module for determining whether the plurality of digital images have photographed a three-dimensional object or a two-dimensional image based on the plurality of digital images acquired by the acquisition module, Wherein the control module analyzes the first digital image and the second digital image and determines whether the digital images have taken a three-dimensional object or a two-dimensional image based on the analysis result .

Description

디지털 이미지 판단시스템 및 그 방법, 이를 위한 애플리케이션 시스템 {Method for digital image judging and system tereof, application system, and authentication system thereof}TECHNICAL FIELD [0001] The present invention relates to a digital image judging system, an image processing method,

본 발명은 디지털 이미지를 분석하여 디지털 이미지가 실물 객체를 촬영한 이미지인지 또는 상기 실물 객체를 촬영한 이미지를 촬영한 이미지인지를 판단할 수 있는 시스템 및 방법에 관한 것이다.
The present invention relates to a system and method for analyzing a digital image and determining whether a digital image is an image of a real object or an image of an image of the object.

최근 들어 온라인 상거래 등 온라인 서비스가 광범위하게 이용되고 있다. 온라인 서비스는 그 특성상 사용자가 정당한 사용자인지 또는 거래상대방이 신뢰할 수 있는 사람인지를 확인하는 것이 매우 중요하다.Recently, online services such as online commerce have been widely used. It is very important for an online service to make sure that a user is a legitimate user or a trusted party.

온라인 또는 비대면 본인인증의 경우 안면사진이나 신분증, 기타 본인인증 수단을 스캔하거나 촬영하여 인증기관에 온라인으로 전송하고 인증기관에서는 전송된 사진을 통해 본인 확인을 수행하는 비대면 인증 기술이 등장하고 있다.In the case of online or non-face-to-face authentication, face-to-face authentication or non-face-to-face authentication technology has been introduced in which a facial photograph or identification card or other authentication means is scanned or photographed and transmitted online to a certification authority, .

하지만 현재의 비대면 인증 기술은 해커 등에 의해 사진이 도용되거나 위변조 되어 악용될 수 있는 문제점을 가지고 있다. 또한, 자동차 보험사에서 주행거리나 블랙박스의 설치 여부를 확인하고 보험료를 할인해 주는 서비스를 제공하는 경우가 있는데 이때에도 위조된 사진을 전송하는 경우가 발생하고 있으며, 중고 물품의 매매 시에 판매할 물건을 소지하고 있지 않음에도 타인의 사진을 도용하여 마치 자신이 해당 물건을 소지하고 있는 것처럼 가장하는 사례도 발생하고 있다.However, the present non-face authentication technology has a problem that a photograph can be abused or forged by a hacker or the like and can be abused. In addition, there are cases where a car insurance company provides a service for checking mileage or black box installation and discounting insurance premiums. At this time, there are cases where forged pictures are transmitted, Even if you do not have it, you can steal photos of others and pretend to pretend that you own the item.

따라서 디지털 이미지가 3차원의 실물객체를 촬영한 것인지 또는 2차원의 이미지를 촬영한 것인지를 구분할 수 있다면 다양한 온라인 인증이나 서비스에 이용될 수 있으며 이를 위한 기술적 사상이 요구된다.
Therefore, if a digital image can distinguish whether a three-dimensional object is captured or a two-dimensional image is captured, it can be used for various online authentication and services, and a technical idea is required.

한국공개특허 공개번호 10-2005-0009415, "화상 이미지를 통한 상호 인증 방법 및 이를 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체"Korean Unexamined Patent Application Publication No. 10-2005-0009415, "Mutual authentication method using image image and computer readable recording medium recording program for executing this method"

본 발명은 상술한 제문제점을 해결하기 위해 안출된 것으로써, 본 발명이 이루고자 하는 기술적인 과제는 디지털 이미지가 실물객체를 촬영한 것인지 2차원 이미지를 촬영한 것인지를 판단할 수 있는 방법 및 시스템을 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention provides a method and system for determining whether a digital image is a real object or a two-dimensional image, .

본 발명의 일 측면에 따르면, 이미지 판단 시스템은 동일한 객체를 대상으로 제1조명상태에서 촬영된 제1디지털 이미지 및 제2조명상태에서 촬영된 제2디지털 이미지를 포함하는 복수의 디지털 이미지들을 획득하기 위한 획득모듈 및 상기 획득모듈에 의해 획득된 상기 복수의 디지털 이미지들에 기초하여 상기 복수의 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 제어모듈을 포함하며, 상기 제어모듈은 상기 제1디지털 이미지 및 상기 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단한다.According to an aspect of the present invention, an image determination system is provided for obtaining a plurality of digital images including a first digital image photographed in a first illumination state and a second digital image photographed in a second illumination state, And a control module for determining whether the plurality of digital images have taken a three-dimensional object or a two-dimensional image based on the plurality of digital images acquired by the acquisition module Wherein the control module analyzes the first digital image and the second digital image and determines whether the digital images are three-dimensional real objects or two-dimensional images based on the analysis result .

상기 제1디지털 이미지 및 상기 제2디지털 이미지는 각각, 상기 디지털 이미지 판단시스템이 설치되거나 상기 디지털 이미지 판단시스템과 통신을 수행하는 이미지 촬영장치의 조명장치가 비활성화된 상태 및 활성화된 상태에서 촬영된 이미지인 것을 특징으로 할 수 있다.Wherein the first digital image and the second digital image are respectively in a state in which the digital image judging system is installed or a lighting device in an image photographing apparatus in which communication with the digital image judging system is in an inactivated state and in an activated state, .

상기 제어모듈은 상기 제1디지털 이미지로부터 상기 제1디지털 이미지의 전부 또는 미리 설정된 특정 영역에서 에지를 검출한 제1에지 이미지 및 상기 제2디지털 이미지로부터 상기 제2디지털 이미지의 전부 또는 상기 제2디지털 이미지의 상기 특정 영역에서 에지를 검출한 제2에지 이미지를 생성하기 위한 에지 검출모듈 및 상기 에지 검출모듈에 의해 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하기 위한 결정모듈을 포함할 수 있다.Wherein the control module is operable to detect from the first digital image all of the first digital image or a first edge image that has detected an edge in a predetermined predetermined area and a second edge image from the second digital image, An edge detection module for generating a second edge image that has detected an edge in the particular area of the image and an edge detection module for analyzing edges of each of the first edge image and the second edge image generated by the edge detection module, A determination module for determining whether a three-dimensional object object is photographed or a two-dimensional image is photographed.

상기 결정모듈은 상기 제1에지 이미지와 상기 제2에지 이미지에 포함된 에지의 양 또는 에지의 강도 중 적어도 하나를 비교하고, 비교결과에 기초하여 상기 디지털 이미지들이 실물 객체를 촬영한 것인지 여부를 판단할 수 있다.Wherein the determining module compares at least one of the first edge image and the intensity of the edge or the edge included in the second edge image and determines whether the digital images have photographed the physical object based on the comparison result can do.

상기 결정모듈은 상기 제1에지 이미지와 상기 제2에지 이미지 각각에 상응하는 제1분석 이미지 및 제2분석 이미지 각각으로부터 미리 설정된 타겟 형상이 검출되는 개수를 의미하는 제1타겟 형상 개수 및 제2타겟 형상 개수에 기초하여 상기 디지털 이미지들이 실물 객체를 촬영한 것인지 여부를 판단할 수 있다.Wherein the determination module determines the number of first target shapes and the number of second targets that are detected from the first analysis image and the second analysis image corresponding to each of the first edge image and the second edge image, It is possible to determine whether the digital images have taken a real object based on the number of shapes.

상기 제어모듈은 상기 제1분석 이미지 및 상기 제2분석 이미지 각각에 포함된 에지들 각각의 컨투어(contour)들을 추출하고, 추출된 컨투어들에 기초하여 상기 제1타겟 형상 개수 및 상기 제2타겟 형상 개수를 산출하는 검출모듈을 더 포함할 수 있다.Wherein the control module extracts contours of each of the edges included in each of the first analysis image and the second analysis image and extracts contours of the first target shape number and the second target shape And a detection module for calculating the number of the plurality of sensors.

상기 제1분석 이미지 및 상기 제2분석 이미지는 상기 제1에지 이미지 및 상기 제2에지 이미지를 적어도 한 번 미리 설정된 일정 수준으로 블러(blur) 처리한 이미지들이거나, 상기 제1에지 이미지 및 상기 제2에지 이미지의 크기를 적어도 한 번 미리 설정된 일정 수준으로 크기를 줄인 이미지들인 것을 특징으로 할 수 있다.Wherein the first analysis image and the second analysis image are images obtained by blurring the first edge image and the second edge image at least once to a predetermined level or the first edge image and the second edge image, And the size of the 2 < nd > edge image is reduced at least once to a predetermined level.

상기 이미지 촬영장치는 사용자로부터 한 번의 촬영요청 신호를 입력받는 경우에도, 상기 객체를 대상으로 상기 조명장치가 비활성화된 상태에서의 상기 제1디지털 이미지 및 상기 조명장치가 활성화된 상태에서의 상기 제2디지털 이미지를 연속해서 촬영하는 것을 특징으로 할 수 있다.Wherein the image capturing apparatus is configured to transmit the first digital image in a state in which the illuminator is inactivated and the second digital image in a state in which the illuminator is in an activated state, And the digital image is continuously photographed.

상기 기술적 과제를 해결하기 위한 데이터 처리시스템은 프로그램이 저장되는 저장매체 및 상기 프로그램을 실행하기 위한 프로세서를 구비하며, 상기 프로세서는 상기 프로그램을 실행하여 동일한 객체를 대상으로 제1조명상태에서 촬영된 제1디지털 이미지 및 제2조명상태에서 촬영된 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단할 수 있다.According to an aspect of the present invention, there is provided a data processing system including a storage medium storing a program and a processor for executing the program, the processor executing the program, 1 digital image and a second digital image photographed in the second illumination state, and judges whether the digital images have photographed the three-dimensional object or the two-dimensional image based on the analysis result have.

상기 기술적 과제를 해결하기 위한 이미지 촬영장치에 설치되는 애플리케이션 시스템은 사용자로부터 촬영요청 신호를 입력받는 인터페이스 모듈 및 상기 이미지 촬영장치에 구비된 조명장치 및 이미지를 촬영하기 위한 이미지 촬영센서를 제어하는 제어모듈을 구비하며, 상기 제어모듈은 상기 촬영요청 신호에 응답하여 소정의 객체를 대상으로 제1조명상태에서의 제1디지털 이미지 및 제2조명상태에서의 제2디지털 이미지를 연속해서 촬영하도록 제어한다.According to an aspect of the present invention, there is provided an application system installed in an image photographing apparatus, including an interface module for receiving a photographing request signal from a user, a control unit for controlling an illumination device provided in the image photographing apparatus, Wherein the control module controls the first digital image in the first illumination state and the second digital image in the second illumination state to continuously photograph a predetermined object in response to the photographing request signal.

상기 제1디지털 이미지 및 상기 제2디지털 이미지는 소정의 디지털 이미지 판단시스템에 의해 분석되어 상기 제1디지털 이미지 및 상기 제2디지털 이미지가 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부가 판단될 수 있다.Wherein the first digital image and the second digital image are analyzed by a predetermined digital image determination system to determine whether the first digital image and the second digital image are images of a three- It can be judged whether or not it is.

상기 기술적 과제를 해결하기 위한 디지털 이미지 판단방법은 디지털 이미지 판단시스템이 동일한 객체를 대상으로 제1조명상태에서 촬영된 제1디지털 이미지 및 제2조명상태에서 촬영된 제2디지털 이미지를 포함하는 복수의 디지털 이미지들을 획득하는 단계 및 획득된 상기 제1디지털 이미지 및 상기 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 복수의 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계를 포함한다.According to another aspect of the present invention, there is provided a digital image determination method for a digital image determination system, the digital image determination system comprising: a plurality of digital images, each of which includes a first digital image photographed in a first illumination state and a second digital image photographed in a second illumination state, Analyzing the acquired first digital image and the second digital image, and determining whether the plurality of digital images have photographed the three-dimensional physical object based on the analysis result, And determining whether or not it is a one-time operation.

상기 획득된 상기 제1디지털 이미지 및 상기 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 복수의 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계는, 상기 제1디지털 이미지로부터 상기 제1디지털 이미지의 전부 또는 미리 설정된 특정 영역에서 에지를 검출한 제1에지 이미지 및 상기 제2디지털 이미지로부터 상기 제2디지털 이미지의 전부 또는 미리 설정된 특정 영역에서 에지를 검출한 제2에지 이미지를 생성하는 단계, 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계를 포함할 수 있다.Analyzing the acquired first digital image and the second digital image, and determining whether the plurality of digital images are photographed of a three-dimensional object or a two-dimensional image based on an analysis result From the first digital image, a first edge image that detects an edge in all or a predetermined specific area of the first digital image, and a second edge image that detects an edge in all or a predetermined predetermined area of the second digital image And a second edge image obtained by analyzing the edge of each of the generated first edge image and the second edge image so as to determine whether the digital images have photographed the three- And determining whether the image is photographed or not.

상기 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계는 상기 제1에지 이미지와 상기 제2에지 이미지에 포함된 에지의 양 또는 에지의 강도 중 적어도 하나를 비교하고, 비교결과에 기초하여 상기 디지털 이미지들이 실물 객체를 촬영한 것인지 여부를 판단하는 단계를 포함할 수 있다.Wherein the step of analyzing edges of each of the generated first edge image and second edge image to determine whether the digital images have taken a three-dimensional real object or a two-dimensional image, Comparing at least one of the edge image and the intensity of the edge or the edge included in the second edge image and determining whether the digital images have photographed the physical object based on the comparison result .

상기 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계는, 상기 제1에지 이미지와 상기 제2에지 이미지 각각에 상응하는 제1분석 이미지 및 제2분석 이미지 각각으로부터 미리 설정된 타겟 형상이 검출되는 개수를 의미하는 제1타겟 형상 개수 및 제2타겟 형상 개수에 기초하여 상기 디지털 이미지들이 실물 객체를 촬영한 것인지 여부를 판단하는 단계를 포함할 수 있다.Wherein the step of analyzing edges of each of the generated first edge image and second edge image to determine whether the digital images have taken a three-dimensional real object or a two-dimensional image, Based on the number of first target shapes and the number of second target shapes, which means the number of the predetermined target shapes detected from each of the first analysis image and the second analysis image corresponding to each of the first edge image and the second edge image, And determining whether the digital images have taken a physical object.

상기 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계는 상기 제1분석 이미지 및 상기 제2분석 이미지 각각에 포함된 에지들 각각의 컨투어(contour)들을 추출하고, 추출된 컨투어들에 기초하여 상기 제1타겟 형상 개수 및 상기 제2타겟 형상 개수를 산출하는 단계를 더 포함할 수 있다.Wherein the step of analyzing edges of each of the generated first edge image and second edge image to determine whether the digital images have taken a three-dimensional real object or a two-dimensional image, Extracting the contours of each of the edges included in the analysis image and the second analysis image and calculating the first target shape number and the second target shape number based on the extracted contours .

상기 제1분석 이미지 및 상기 제2분석 이미지는 상기 제1에지 이미지 및 상기 제2에지 이미지를 적어도 한 번 미리 설정된 일정 수준으로 블러(blur) 처리한 이미지들이거나, 상기 제1에지 이미지 및 상기 제2에지 이미지의 크기를 적어도 한 번 미리 설정된 일정 수준으로 크기를 줄인 이미지들인 것을 특징으로 할 수 있다.Wherein the first analysis image and the second analysis image are images obtained by blurring the first edge image and the second edge image at least once to a predetermined level or the first edge image and the second edge image, And the size of the 2 < nd > edge image is reduced at least once to a predetermined level.

상기 기술적 과제를 해결하기 위한 이미지 촬영장치에 설치되는 애플리케이션이 수행하는 방법은 사용자로부터 촬영요청 신호를 입력받는 단계, 상기 촬영요청 신호에 응답하여 소정의 객체를 대상으로 제1조명상태에서의 제1디지털 이미지 및 제2조명상태에서의 제2디지털 이미지를 연속해서 촬영하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of an image shooting apparatus, the method comprising: receiving a shooting request signal from a user; And successively photographing the digital image and the second digital image in the second illumination state.

상기 애플리케이션 수행 방법은 상기 제1디지털 이미지 및 상기 제2디지털 이미지가 소정의 디지털 이미지 판단시스템으로 전송되는 단계를 더 포함하며, 상기 디지털 이미지 판단시스템에 의해 분석되어 상기 제1디지털 이미지 및 상기 제2디지털 이미지가 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부가 판단될 수 있다.Wherein the application execution method further comprises the step of transmitting the first digital image and the second digital image to a predetermined digital image determination system, wherein the first digital image and the second digital image are analyzed by the digital image determination system, It can be judged whether the digital image is a three-dimensional object or a two-dimensional image.

본 발명의 다른 일 측면에 따르면, 데이터 처리장치에 설치되며 상술한 방법을 수행하기 위해 기록매체에 저장된 컴퓨터 프로그램이 제공된다.
According to another aspect of the present invention, there is provided a computer program installed in a data processing apparatus and stored in a recording medium for performing the above-described method.

본 발명에 따르면, 촬영의 대상을 조명장치의 활성화 상태를 달리 하여 촬영함으로써 조명장치의 활성화 상태에 따라 나타날 수 있는 빛의 반사특성 등을 이용하여 촬영의 대상이 2차원의 이미지인지 3차원의 실물인지를 용이하게 판별할 수 있는 효과가 있다.
According to the present invention, an object to be photographed is photographed with a different activation state of the lighting apparatus, whereby the object to be photographed can be a two-dimensional image or a three-dimensional object There is an effect that it can be easily discriminated.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일실시 예에 따른 디지털 이미지 판단방법을 위한 개략적인 시스템 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 일실시 예에 따른 디지털 이미지 판단시스템의 개략적인 구성을 나타내는 블록도이다.
도 3은 본 발명의 일실시 예에 따른 디지털 이미지 판단시스템이 설치되는 데이터 처리시스템의 개략적인 구성을 나타내는 블록도이다.
도 4는 본 발명의 일실시 예에 따른 애플리케이션 시스템의 개략적인 구성을 나타내는 블록도이다.
도 5는 본 발명의 일실시 예에 따른 디지털 이미지 판단방법에 따라 복수의 이미지들이 실물객체를 촬영한 이미지들인지를 판단하는 일예를 설명하기 위한 도면이다.
도 6은 본 발명의 일실시 예에 따른 디지털 이미지 판단방법에 따라 타겟대상을 검출하는 일예를 설명하기 위한 도면이다.
도 7 내지 도 12는 본 발명의 다른 일실시 예에 따른 디지털 이미지 판단방법에 따라 복수의 이미지들이 실물객체를 촬영한 이미지들인지를 판단하는 일예를 설명하기 위한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS A brief description of each drawing is provided to more fully understand the drawings recited in the description of the invention.
FIG. 1 is a diagram for explaining a schematic system configuration for a digital image determination method according to an embodiment of the present invention.
2 is a block diagram illustrating a schematic configuration of a digital image determination system according to an embodiment of the present invention.
3 is a block diagram illustrating a schematic configuration of a data processing system in which a digital image determination system according to an embodiment of the present invention is installed.
4 is a block diagram illustrating a schematic configuration of an application system according to an embodiment of the present invention.
5 is a view for explaining an example of determining whether a plurality of images are images taken of a physical object according to a digital image determination method according to an embodiment of the present invention.
6 is a diagram for explaining an example of detecting a target object according to a digital image determination method according to an embodiment of the present invention.
FIGS. 7 to 12 are views for explaining an example of determining whether a plurality of images are images taken of a physical object according to a digital image determination method according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 아니 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 명세서에 있어서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, terms such as "comprise," "comprising," and the like are intended to specify that there are stated features, numbers, steps, operations, elements, parts or combinations thereof, But do not preclude the presence or addition of one or more other features, steps, operations, elements, components, or combinations thereof.

또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. 반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.Also, in this specification, when any one element 'transmits' data to another element, the element may transmit the data directly to the other element, or may be transmitted through at least one other element And may transmit the data to the other component. Conversely, when one element 'directly transmits' data to another element, it means that the data is transmitted to the other element without passing through another element in the element.

이하, 첨부된 도면들을 참조하여 본 발명의 실시 예들을 중심으로 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, the present invention will be described in detail with reference to the embodiments of the present invention with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일실시 예에 따른 디지털 이미지 판단방법을 위한 개략적인 시스템 구성을 설명하기 위한 도면이다.FIG. 1 is a diagram for explaining a schematic system configuration for a digital image determination method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시 예에 따른 디지털 이미지 판단방법을 구현하기 위해서는 소정의 디지털 이미지 판단시스템(이하, '판단시스템', 100 또는 100-1)이 구비될 수 있다.  Referring to FIG. 1, a digital image determination system (hereinafter, 'determination system', 100 or 100-1) may be provided to implement a digital image determination method according to an embodiment of the present invention.

상기 판단시스템(100 또는 100-1)은 본 발명의 기술적 사상에 따라 동일한 객체를 대상으로 촬영된 복수의 이미지들을 이용하여 상기 복수의 이미지들이 3차원의 실물객체를 촬영한 이미지들인지 또는 2차원의 이미지를 촬영한 이미지들인지를 판단하는 시스템을 의미할 수 있다. According to the technical idea of the present invention, the determination system 100 or 100-1 may use the plurality of images photographed for the same object to determine whether the plurality of images are images of a three- Or a system for judging whether images are photographed images.

상기 판단시스템(100, 100-1)은 소정의 데이터 처리시스템(10, 20)에 설치되어 본 발명의 기술적 사상을 구현할 수 있다. 예컨대, 상기 판단시스템(100, 100-1)은 클라이언트(10)에 설치되어 구현될 수도 있고, 또는 서버 측(20)에 설치되어 구현될 수도 있다. 구현 예에 따라서는 상기 판단시스템(100, 100-1)은 클라이언트(10) 및 서버(20)에 분산되어 구비되고, 분산되어 구비된 구성들끼리 유무선 통신을 통해 유기적으로 결합되어 구현될 수도 있다.The judgment systems 100 and 100-1 may be installed in predetermined data processing systems 10 and 20 to implement the technical idea of the present invention. For example, the determination systems 100 and 100-1 may be installed in the client 10 or may be installed in the server 20 and implemented. According to an embodiment of the present invention, the judgment system 100 or 100-1 may be distributed in the client 10 and the server 20 and may be implemented by organically combining the distributed configurations through wired / .

상기 판단시스템(100, 100-1)은 본 발명의 기술적 사상을 구현하기 위한 소정의 소프트웨어 및 상기 소프트웨어가 설치되는 데이터 처리시스템(10, 20)의 하드웨어가 유기적으로 결합되어 구현되는 시스템을 의미할 수 있다.The judgment system 100 or 100-1 means a system in which predetermined software for implementing the technical idea of the present invention and hardware of the data processing system 10 and 20 in which the software is installed are combined and implemented .

상기 클라이언트(10)는 휴대단말, 컴퓨터, 노트북, 디지털 카메라 등과 같이 사용자가 소지하고 있는 데이터 처리시스템일 수 있으며, 본 발명의 기술적 사상을 구현하기 위한 데이터 프로세싱 능력을 갖춘 모든 형태의 데이터 처리시스템을 의미할 수 있다. 일예에 의하면, 상기 클라이언트(10)는 소정의 객체를 촬영하기 위한 이미지 촬영센서(예컨대, 카메라 센서 등)를 구비할 수 있다. 하지만, 상기 클라이언트(10)에 상기 판단시스템(100-1)이 구비되는 경우, 상기 클라이언트(10)가 본 발명의 기술적 사상에 따른 복수의 이미지들을 직접 촬영하지 않고 외부로부터 수신할 수도 있음은 물론이며, 이러한 경우에는 상기 클라이언트(10)가 서버의 기능을 수행할 수도 있음은 물론이다. 물론, 상기 클라이언트(10)에 구비된 상기 판단시스템(100-1)이 상기 클라이언트(10)에 의해 촬영된 복수의 이미지들에 대해 실물객체를 촬영한 것인지 여부를 판단할 수도 있다. The client 10 may be a data processing system possessed by a user such as a portable terminal, a computer, a notebook computer, a digital camera, or the like, and may be any type of data processing system having data processing capability for realizing the technical idea of the present invention It can mean. For example, the client 10 may include an image capturing sensor (e.g., a camera sensor) for capturing a predetermined object. However, when the determination system 100-1 is provided to the client 10, the client 10 may receive the plurality of images according to the technical idea of the present invention from the outside without directly shooting In this case, it is needless to say that the client 10 may perform the function of the server. Of course, the judgment system 100-1 provided in the client 10 may judge whether or not the real object has been photographed with respect to a plurality of images photographed by the client 10.

상기 서버(20)는 상기 클라이언트(10)와 통신을 수행하면서 상기 클라이언트(10)로부터 수신된 복수의 이미지들에 대해 실물객체를 촬영한 것인지 여부를 판단하는 기능을 수행할 수 있다. 이러한 경우 상기 클라이언트(10)는 복수의 이미지들을 촬영하고, 이를 상기 서버(20)로 전달하는 기능을 수행할 수 있다. 그러면 상기 서버(20)에 구비된 판단시스템(100)이 전달된 상기 복수의 이미지들이 실물객체를 촬영한 것인지 또는 2차원 이미지를 촬영한 것인지 여부를 판단할 수 있다. 판단결과에 따라 상기 서버(20)는 직접 소정의 서비스를 상기 클라이언트(10)로 제공하거나 또는 소정의 서비스 시스템(미도시)이 상기 클라이언트(10)로 서비스를 제공하도록 제어할 수 있다.The server 20 may perform a function of determining whether or not a plurality of images received from the client 10 have been photographed by the client 10 while communicating with the client 10. In this case, the client 10 may take a plurality of images and transmit the images to the server 20. Then, the judgment system 100 provided in the server 20 can judge whether the plurality of images transferred are photographed of a real object or a two-dimensional image. The server 20 can directly provide a predetermined service to the client 10 or control a predetermined service system (not shown) to provide the service to the client 10 according to the determination result.

이하에서는 설명의 편의를 위해 상기 클라이언트(10)가 복수의 이미지들을 촬영하고, 상기 서버(20)에 구비된 판단시스템(100)이 상기 클라이언트(10)로부터 수신된 복수의 이미지들이 실물객체를 촬영하였는지 여부를 판단하는 일예를 설명하지만 본 발명의 권리범위가 이에 한정되지는 않는다.Hereinafter, for convenience of explanation, the client 10 photographs a plurality of images, and the judgment system 100 provided in the server 20 detects a plurality of images received from the client 10, It is to be understood that the scope of the present invention is not limited thereto.

상기 서버(20)에 구비된 판단시스템(100)은 클라이언트(10)로부터 복수의 디지털 이미지들을 수신하고, 상기 디지털 이미지들이 3차원의 실물객체(예컨대, 사용자의 얼굴이나 실제 물품)를 촬영한 것임(이하, '실물객체 촬영인증'이라 함)을 판단할 수 있다. 본 발명의 기술적 사상에 따라 촬영된 객체가 본인을 인증할 수 있는 객체(예컨대, 신분증 등)일 경우에는 효과적인 본인인증 방식이 될 수 있고, 촬영의 대상이 거래대상의 물건인 경우 실물이 촬영된 것임을 인증할 수 있어 거래 상대방의 신뢰성 확인에도 이용될 수 있다.The judgment system 100 provided in the server 20 receives a plurality of digital images from the client 10 and photographs the three-dimensional physical objects (for example, a user's face or an actual article) (Hereinafter referred to as " physical object photographing authentication "). According to the technical idea of the present invention, when the photographed object is an object (for example, an ID card or the like) capable of authenticating the principal, it can be an effective personal authentication method. If the object of photography is a target object, It can be used to confirm the credibility of the counterparty.

상기 서버(20)는 상기 클라이언트(10)로부터 직접 상기 디지털 이미지들을 수신할 수도 있고, 상기 클라이언트(10)에서 소정의 외부 시스템(예를 들면, 소셜 네트워크 시스템, 이미지 게시 서비스 제공 시스템 등)에 상기 디지털 이미지들을 업로드하면 상기 외부 시스템으로부터 상기 디지털 이미지를 수신할 수도 있다. 또는 상기 클라이언트(10)로부터 촬영된 상기 디지털 이미지가 소정의 타 단말기(예컨대, 사용자의 컴퓨터 등)로 전송된 후, 상기 타 단말기가 상기 서버(20)로 상기 디지털 이미지를 전송할 수도 있다. 본 발명에서 서버(20)가 디지털 이미지를 수신하는 방법은 상기 클라이언트(10)와 연관되어 다양하게 실시될 수 있다.The server 20 may receive the digital images directly from the client 10 and send the digital images to a predetermined external system (e.g., a social network system, an image publishing service providing system, etc.) When the digital images are uploaded, the digital image may be received from the external system. Alternatively, after the digital image photographed from the client 10 is transmitted to a predetermined other terminal (e.g., a user's computer or the like), the other terminal may transmit the digital image to the server 20. In the present invention, a method of receiving a digital image by the server 20 may be variously performed in association with the client 10. [

본 발명에서 복수의 디지털 이미지들은 서로 다른 조명상태에서 동일한 객체를 촬영한 제1디지털 이미지 및 제2디지털 이미지를 포함한다. 예컨대, 상기 제1디지털 이미지는 상기 제1디지털 이미지를 촬영한 이미지 촬영장치(10)에 구비된 조명장치(예컨대, 플래시)를 비활성화한 상태에서 객체를 촬영한 이미지일 수 있다. 또한 상기 제2디지털 이미지는 상기 이미지 촬영장치(10)가 상기 조명장치를 활성화한 상태에서 상기 객체를 촬영한 이미지일 수 있다.In the present invention, a plurality of digital images include a first digital image and a second digital image that have captured the same object in different illumination states. For example, the first digital image may be an image of an object in a state in which an illumination device (for example, a flash) provided in the image capturing apparatus 10 that has captured the first digital image is inactivated. The second digital image may be an image of the object while the image capturing apparatus 10 activates the illuminating apparatus.

일예에 의하면, 상기 제1디지털 이미지와 상기 제2디지털 이미지는 가급적 조명상태(조명조건) 외의 촬영조건(예컨대, 외부 광원, 촬영 각도 등)은 동일한 것일 수 있다. 따라서 상기 이미지 촬영장치(10)는 상기 제1디지털 이미지와 상기 제2디지털 이미지를 연속하여 촬영할 수 있다. 이를 위해 상기 이미지 촬영장치(10)에는 본 발명의 기술적 사상을 구현하기 위한 소정의 애플리케이션이 설치될 수 있다. 상기 애플리케이션을 통해 사용자는 한 번의 촬영요청(예컨대, 특정 UI의 선택)만을 수행한 경우에도, 상기 이미지 촬영장치는 제1디지털 이미지와 제2디지털 이미지를 연속하여 촬영할 수 있다. 또한 상기 애플리케이션은 상기 제1디지털 이미지가 촬영될 때에는 상기 조명장치를 비활성화하고, 상기 제2디지털 이미지가 촬영될 때에는 상기 조명장치가 활성화되도록 제어할 수도 있다. 상기 애플리케이션 시스템에 대해서는 후술하도록 한다.According to an example, the first digital image and the second digital image may have the same shooting condition (e.g., an external light source, a shooting angle, etc.) other than an illumination condition (illumination condition). Therefore, the image capturing apparatus 10 can continuously photograph the first digital image and the second digital image. To this end, the image photographing apparatus 10 may be provided with a predetermined application for implementing the technical idea of the present invention. The image photographing apparatus can continuously photograph the first digital image and the second digital image even when the user performs only one photographing request (for example, selection of a specific UI) through the application. The application may also deactivate the illumination device when the first digital image is taken and control the illumination device to be activated when the second digital image is taken. The application system will be described later.

상기 복수의 디지털 이미지들은 적어도 상기 제1디지털 이미지와 상기 제2디지털 이미지를 각각 하나씩 포함할 수 있다. 상기 디지털 이미지들은 복수의 제1디지털 이미지와 복수의 제2디지털 이미지를 포함할 수도 있지만, 본 발명에서는 설명의 편의를 위해 제1디지털 이미지와 제2디지털 이미지가 각각 한 장씩 포함되는 경우를 일예로 설명하기로 한다. The plurality of digital images may include at least the first digital image and the second digital image, respectively. The digital images may include a plurality of first digital images and a plurality of second digital images. However, in the present invention, for convenience of explanation, the first digital image and the second digital image may be included one by one I will explain.

또한, 본 명세서에서 촬영의 대상이 되는 객체는 금융거래 카드인 경우를 일예로 하고 있지만, 상기 객체는 신분증, 또는 기타 상기 사용자가 점유하고 있는 것이 예상되는 객체일 수도 있고, 또는 사용자의 신체부위(예컨대, 얼굴 등), 실제의 물품 등의 실물객체 등 다양할 수 있음은 물론이다. Although the object to be photographed in the present specification is an example of a financial transaction card, the object may be an ID card or other object expected to be occupied by the user, A face, etc.), a real object such as an actual article, and the like.

본 발명은 비대면 본인인증 또는 결제 등 상기 객체가 무엇인지에 따라 다양한 서비스에 사용될 수 있다. 필요한 경우, 상기 서버(20)는 상기 디지털 이미지들이 사용자 명의의 클라이언트(10)에 의해 촬영되었는지 여부를 더 인증할 수 있다. 예컨대, 디지털 이미지들의 실물객체 촬영여부의 인증과 함께 소정의 다른 인증(예컨대, 휴대폰 본인인증, 통장 또는 기타 거래수단을 통한 인증, ARS 인증 등)을 추가적으로 실행하여 선택적으로 서비스를 제공할 수 있다.The present invention can be used for various services depending on what the object is, such as non-face-to-face authentication or settlement. If desired, the server 20 may further authenticate whether the digital images have been taken by the client 10 of the user's name. For example, it is possible to selectively provide a service by additionally performing authentication of whether the digital images are photographed with a physical object or by performing another predetermined authentication (for example, authentication through a mobile phone authentication, a passbook or other transaction means, ARS authentication, etc.).

이러한 기술적 사상을 구현하기 위한 상기 판단시스템(100, 100-1)의 구성은 도 2를 참조하여 설명하도록 한다. 도 2는 본 발명의 일실시 예에 따른 디지털 이미지 판단시스템의 개략적인 구성을 나타내는 블록도이다.The configuration of the judgment system 100, 100-1 for realizing such a technical idea will be described with reference to Fig. 2 is a block diagram illustrating a schematic configuration of a digital image determination system according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 상기 판단시스템(100, 100-1)은 제어모듈(110) 및 획득모듈(120)을 포함할 수 있다. 상기 제어모듈(110)은 에지 검출모듈(111), 결정모듈(112) 및/또는 검출모듈(113)을 포함할 수 있다. 본 발명의 실시 예에 따라서는, 구성요소들 중 일부 구성요소는 본 발명의 구현에 필수적 구성요소에 해당하지 않을 수도 있으며, 또한 실시 예에 따라 상기 판단시스템(100, 100-1)은 이보다 더 많은 구성요소를 포함할 수도 있음은 물론이다. As shown in FIG. 2, the determination system 100, 100-1 may include a control module 110 and an acquisition module 120. [ The control module 110 may include an edge detection module 111, a determination module 112, and / or a detection module 113. In accordance with an embodiment of the present invention, some of the components may not be essential components in the implementation of the present invention, and in accordance with an embodiment, the determination system 100, It goes without saying that many components may be included.

상기 판단시스템(100, 100-1)은 본 발명의 기술적 사상을 구현하기 위해 필요한 하드웨어 리소스(resource) 및/또는 소프트웨어를 구비할 수 있으며, 반드시 하나의 물리적인 구성요소를 의미하거나 하나의 장치를 의미하는 것은 아니다. 즉, 상기 판단시스템(100, 100-1)은 본 발명의 기술적 사상을 구현하기 위해 구비되는 하드웨어 및/또는 소프트웨어의 논리적인 결합을 의미할 수 있으며, 필요한 경우에는 서로 이격된 장치에 설치되어 각각의 기능을 수행함으로써 본 발명의 기술적 사상을 구현하기 위한 논리적인 구성들의 집합으로 구현될 수도 있다. 또한, 상기 판단시스템(100, 100-1)은 본 발명의 기술적 사상을 구현하기 위한 각각의 기능 또는 역할별로 별도로 구현되는 구성들의 집합을 의미할 수도 있다. 예를 들면, 상기 제어모듈(110) 및 상기 획득모듈(120)은 서로 다른 물리적 장치에 위치할 수도 있고, 동일한 물리적 장치에 위치할 수도 있다. 또한, 구현 예에 따라서는 상기 제어모듈(110) 및/또는 획득모듈(120) 각각을 구성하는 소프트웨어 및/또는 하드웨어의 결합 역시 서로 다른 물리적 장치에 위치하고, 서로 다른 물리적 장치에 위치한 구성들이 서로 유기적으로 결합되어 각각의 상기 모듈들을 구현할 수도 있다.The judgment system 100 or 100-1 may include a hardware resource and / or software necessary for implementing the technical idea of the present invention, and it may mean one physical component or one device It does not mean anything. That is, the judgment systems 100 and 100-1 may mean a logical combination of hardware and / or software provided to implement the technical idea of the present invention. If necessary, The present invention may be embodied as a set of logical structures for realizing the technical idea of the present invention. In addition, the judgment system 100 or 100-1 may mean a set of configurations separately implemented for each function or role for implementing the technical idea of the present invention. For example, the control module 110 and the acquisition module 120 may be located in different physical devices, or may be located in the same physical device. Also, depending on the implementation, the combination of software and / or hardware that constitute each of the control module 110 and / or the acquisition module 120 may also be located in different physical devices, To implement each of the above modules.

또한, 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예를 들면, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may refer to a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and it does not necessarily mean a physically connected code or a kind of hardware But can be easily deduced to the average expert in the field of the present invention.

상기 제어모듈(110)은 상기 판단시스템(100, 100-1)에 포함된 다른 구성들(예를 들면, 획득모듈(120), 에지 검출모듈(111), 결정모듈(112), 및/또는 검출모듈(113) 등)의 기능 및/또는 리소스를 제어할 수 있다.The control module 110 may control the other components included in the determination system 100 or 100-1 such as the acquisition module 120, the edge detection module 111, the determination module 112, and / Detection module 113, etc.) and / or resources.

상기 획득모듈(120)은 실물객체 촬영인증에 이용될 복수의 디지털 이미지들을 획득할 수 있다. 상기 복수의 디지털 이미지들은 적어도 제1디지털 이미지 및 제2디지털 이미지를 포함한다. The acquisition module 120 may acquire a plurality of digital images to be used for a physical object imaging authentication. The plurality of digital images include at least a first digital image and a second digital image.

상기 획득모듈(120)이 동일한 객체를 대상으로 촬영된 상기 디지털 이미지들을 획득하는 실시 예는 다양할 수 있다. 예컨대, 상기 판단시스템(100)이 상기 서버(20)에 구비되는 경우, 상기 획득모듈(120)은 상기 클라이언트(10)로부터 상기 디지털 이미지들을 획득할 수 있다. 또는 상기 판단시스템(100-1)이 상기 클라이언트(10)에 구비되는 경우, 상기 획득모듈(120)은 상기 클라이언트(10)가 상기 디지털 이미지들을 촬영하면, 촬영된 상기 디지털 이미지들을 획득할 수도 있다. 기타 다양한 실시 예가 가능할 수 있다.Embodiments in which the acquisition module 120 obtains the digital images photographed for the same object may vary. For example, if the determination system 100 is included in the server 20, the acquisition module 120 may acquire the digital images from the client 10. Or if the determination system 100-1 is included in the client 10, the acquisition module 120 may acquire the captured digital images when the client 10 photographs the digital images . Various other embodiments may be possible.

본 발명의 기술적 사상은 실물 객체에서의 조명의 반사특성과 2차원 이미지에서의 조명의 반사특성이 서로 다르고, 이러한 특성을 잘 도출하기 위해서 조명상태를 달리한 제1디지털 이미지 및 제2디지털 이미지를 이용할 수 있다. 따라서 제1조명상태와 제2조명상태는 반사특성을 잘 도출할 수 있을 정도의 차이를 나타낼 수만 있다면 다양한 실시 예가 가능하다. The technical idea of the present invention is that the reflection characteristics of illumination in a real object and the reflection characteristics of illumination in a two-dimensional image are different from each other, and a first digital image and a second digital image, Can be used. Accordingly, various embodiments are possible as long as the first illumination state and the second illumination state can exhibit such a degree that the reflection characteristic can be derived well.

본 발명의 일실시 예에 의하면 제1조명상태는 이미지 촬영장치(10)의 플래시가 비활성화(또는 오프)인 상태이고 제2조명상태는 이미지 촬영장치(10)의 플래시가 활성화(또는 온)인 상태일 수 있다. 실시 예에 따라서는 상기 이미지 촬영장치(10)에 구비된 조명장치의 기능에 따라 다르게 실시될 수 있음은 물론이다. 예컨대, 제1조명상태 및 제2조명상태 모두 조명장치가 활성화된 상태에서 조명의 색, 강도 등을 달리하는 상태일 수도 있다.According to an embodiment of the present invention, the first illumination state is a state in which the flash of the image capturing apparatus 10 is inactivated (or off), and the second illumination state is a state in which the flash of the image capturing apparatus 10 is activated Lt; / RTI > But it goes without saying that the present invention may be practiced differently depending on the function of the illumination device provided in the image photographing apparatus 10 according to the embodiment. For example, both the first illumination state and the second illumination state may be a state in which the color, intensity, and the like of the illumination are changed in a state in which the illumination apparatus is activated.

상기 획득모듈(120)에 의해 상기 디지털 이미지들 즉, 제1디지털 이미지 및 제2디지털 이미지가 획득되면, 상기 제어모듈(110)은 상기 디지털 이미지들을 분석하여 상기 디지털 이미지들에 대한 실물객체 촬영인증을 수행할 수 있다.When the digital images, i.e., the first digital image and the second digital image, are acquired by the acquisition module 120, the control module 110 analyzes the digital images to generate a physical object photographing authentication Can be performed.

상기 제어모듈(110)은, 실물객체를 촬영한 경우에 제1디지털 이미지 및 제2디지털 이미지 각각을 통해 획득되는 이미지 특성과 2차원의 이미지를 촬영한 경우에 제1디지털 이미지 및 제2디지털 이미지 각각을 통해 획득되는 이미지 특성은 서로 상이할 수 있고, 이를 이용하여 실물객체 촬영인증을 수행할 수 있다. The control module 110 may be configured such that, when the physical object is photographed, when the image characteristic acquired through each of the first digital image and the second digital image and the two-dimensional image are captured, the first digital image and the second digital image The image characteristics obtained through each of them may be different from each other, and the real object photographing authentication can be performed using the same.

일예에 의하면, 상기 제어모듈(110)은 제1디지털 이미지 및 제2디지털 이미지로부터 에지(edge)를 검출할 수 있다. 에지를 검출하는 방식은 다양할 수 있다. 예컨대, Canny Edge 알고리즘 등과 같이 이미지 프로세싱 분야에서 널리 알려진 에지 검출 알고리즘들이 상기 제1디지털 이미지 및 상기 제2디지털 이미지의 에지를 검출하기 위해 이용될 수 있다. 이러한 에지 검출은 에지 검출모듈(111)에 의해 수행될 수 있다. According to an example, the control module 110 may detect an edge from a first digital image and a second digital image. The method of detecting the edge may be various. Edge detection algorithms that are well known in the field of image processing, such as, for example, Canny Edge algorithm, can be used to detect the edges of the first digital image and the second digital image. This edge detection can be performed by the edge detection module 111. [

상기 에지 검출모듈(111)이 제1디지털 이미지 또는 제2디지털 이미지로부터 에지를 검출한다고 함은, 상기 획득모듈(120)에 의해 획득된 제1디지털 이미지 또는 상기 제2디지털 이미지 자체로부터 직접 에지를 검출하는 경우뿐만 아니라 상기 제1디지털 및/또는 상기 제2디지털 이미지에 대해 소정의 전처리(pre-processing)를 수행한 후 전처리가 수행된 이미지들로부터 에지를 검출하는 경우를 포함하는 의미일 수 있다. 전처리에는 상기 제1디지털 및/또는 상기 제2디지털 이미지 내에서 상기 객체(예컨대, 카드)에 해당하는 영역을 검출하고 해당영역을 워핑(warping)하거나 리사이징(resizing)하는 프로세스를 포함할 수 있다. 이는 사용자가 최대한 객체의 정면 사진을 촬영하도록 노력하더라도 카메라의 조사 각도(projection ray)가 객체의 정면과 직교하기가 쉽지 않기 때문일 수 있다. 또한 연속적으로 제1디지털 이미지와 제2디지털 이미지를 촬영하더라도 흔들림 등이 존재할 수 있으므로 서로 동일 또는 유사한 크기로 리사이징하는 프로세스가 필요할 수도 있다.The fact that the edge detection module 111 detects an edge from a first digital image or a second digital image means that an edge is directly detected from the first digital image obtained by the acquisition module 120 or from the second digital image itself But may also include the case of performing predetermined pre-processing on the first digital and / or the second digital image as well as detecting an edge from pre-processed images . The preprocessing may include detecting an area corresponding to the object (e.g., a card) in the first digital and / or the second digital image and warping or resizing the area. This may be due to the fact that the projection ray of the camera is not easy to be orthogonal to the front of the object, even if the user tries to shoot the frontal view of the object as much as possible. Also, even if the first digital image and the second digital image are continuously photographed, there may exist shaking or the like, and therefore, a process of resizing them to the same or similar size may be necessary.

전처리 프로세스의 간편화를 위해 상기 이미지 촬영장치(10)에 구비되는 애플리케이션은 카메라 프레임 이미지 상에 소정의 기준 라인을 제공하고, 사용자가 상기 기준라인에 상기 객체가 정렬된 상태(또는 맞춰진 상태)에서 이미지를 촬영하도록 할 수도 있다.In order to simplify the preprocessing process, the application provided in the image photographing apparatus 10 provides a predetermined reference line on the camera frame image, and when the user places the object in the aligned state (or in the aligned state) As shown in FIG.

상기 에지 검출모듈(111)은 상기 제1디지털 이미지의 전부에 대해 에지를 검출할 수도 있지만, 상기 제1디지털 이미지의 일부(이하, '객체 영역')에 대해서만 에지를 검출할 수도 있다. 또한, 실시 예에 따라서는 객체 영역 중에서도 미리 정해진 특정 영역(예컨대, 카드의 IC 칩이 존재하는 영역 또는 특정 문자(예컨대, 숫자 등)가 존재하는 영역 등)에 대해서만 에지를 검출할 수도 있다. 상기의 특정 영역은 실물객체와 2차원 이미지를 촬영한 이미지(이하, '이미지 촬영 이미지'라 함)를 촬영했을 때 이미지 특성(예컨대, 조명의 반사 특성)에 차이가 가급적 많이 발생하는 영역일 수 있다. 이러한 영역은 예컨대, 3차원의 굴곡이나 요청 등이 존재하는 영역, 또는 다른 재질로 페인팅된 영역일 수 있고, 기타 구현 예에 따라 다양할 수 있다. 따라서 상기 에지 검출모듈(111)은 객체 영역에 대해서 에지를 검출하거나, 객체 영역 중에서도 특정 영역에 대해서만 에지를 검출할 수도 있다. 물론, 제1디지털 이미지에서 에지를 검출하는 영역과 제2디지털 이미지에서 에지를 검출하는 영역은 동일하도록 설정될 수 있다. 본 명세서에서는 상기 에지 검출모듈(111)에 의해 제1디지털 이미지로부터 검출되는 에지의 형상을 제1에지 이미지라고 하고, 제2디지털 이미지로부터 검출되는 에지의 형상을 제2에지 이미지라고 하기로 한다.The edge detection module 111 may detect an edge for all of the first digital image but may detect an edge for only a part of the first digital image (hereinafter, 'object area'). Further, depending on the embodiment, the edge may be detected only in a specific region predetermined in the object region (for example, a region in which the IC chip of the card exists or a region in which a specific character (e.g., a number) exists). The specific region may be a region in which differences in image characteristics (for example, reflection characteristics of illumination) occur as much as possible when an image of a real object and a two-dimensional image (hereinafter, referred to as an & have. This area may be, for example, an area where there are three-dimensional bends or requests, or an area painted with another material, and may vary according to other implementations. Therefore, the edge detection module 111 may detect an edge with respect to an object area, or may detect an edge only with respect to a specific area in an object area. Of course, the area for detecting the edge in the first digital image and the area for detecting the edge in the second digital image can be set to be the same. In the present specification, the shape of an edge detected from the first digital image by the edge detection module 111 is referred to as a first edge image, and the shape of an edge detected from the second digital image is referred to as a second edge image.

본 발명의 기술적 사상에 의하면 제1디지털 이미지와 제2디지털 이미지에 상응하는 에지 이미지를 이용해 실물객체 촬영인증을 수행할 수 있다. 실물객체와 이미지 촬영 이미지에서 조명상태의 변화에 따라 이미지 특성의 변화가 상대적으로 큰 부분이 에지에 해당하는 영역일 수 있다. 실물객체를 촬영한 이미지에서 에지로 나타나는 영역은 요철이나 굴곡이 강하게 존재하는 영역이거나, 요철이나 굴곡이 존재하지 않거나 미세하더라도 모양 또는 색상이 서로 변화되는 영역, 또는 다른 재질의 특성이 나타나는 영역일 수 있다. According to the technical idea of the present invention, the object object photographing authentication can be performed using the edge image corresponding to the first digital image and the second digital image. In a real object and an image-taking image, a region where a change in image characteristic is relatively large depending on a change in an illumination state may be an area corresponding to an edge. In the image of the real object, the region represented by the edge may be a region in which there are strong irregularities or bends, a region in which the shape or color is mutually changed even if there are no irregularities or bends, have.

예컨대, 요철이 강하게 존재하는 영역은 촬영된 이미지의 조명상태에 따라 에지의 강도에 변화가 클 수 있다. 예컨대, 실물객체에서 요철이 존재하는 특정 영역은 제1디지털 이미지에서는 에지가 약하게 검출되거나 검출되지 않을 수 있는 반면, 제2디지털 이미지에서는 에지가 상대적으로 강하게 검출될 수 있다. 즉, 요철이 있는 부분에는 조명의 반사특성의 차이가 상대적으로 커지므로 이미지 촬영 시에 조명이 강할수록 보다 강한 에지(즉, 픽셀 값의 차이가 큰)가 검출될 수 있다. For example, in a region where the concavities and convexities are strongly present, the intensity of the edge may vary greatly depending on the illumination state of the photographed image. For example, a particular region in which the ruggedness exists in the physical object may have the edge detected relatively weakly in the first digital image, while the edge may be detected relatively weakly in the second digital image. That is, since the difference in the reflection characteristic of the illumination is relatively large in the irregular portion, stronger edges (i.e., a large difference in pixel value) can be detected as the illumination is strong at the time of image taking.

또한, 실물객체에서 요철이 강하지 않거나 요철이 없더라도 서로 다른 재질을 갖는 영역 역시 조명이 강할수록 보다 강한 에지가 검출되는 영역일 수 있다. In addition, the region having different materials even if the object is not irregular or uneven can be a region where a stronger edge is detected as the illumination is stronger.

이미지 촬영 이미지의 경우에는 동일한 재질에 색상의 차이만 있는 경우이므로, 요철이 없거나 재질의 차이가 존재하지 않게 되고 이러한 경우에는 오히려 조명이 강해질수록 조명의 영향으로 인해 색상의 차이까지 희석되어 에지가 약해지는 경향이 존재할 수 있다. In the case of an image-taking image, there is no difference in color or in the same material, so there is no irregularity or material difference. In such a case, as the illumination becomes stronger, There may be a tendency to disappear.

따라서 본 발명의 기술적 사상에 의하면, 조명상태의 변화에 따라 검출되는 에지의 양이나 강도가 달라지는 에지의 변화 특성이 존재하고, 실물객체를 촬영한 경우와 이미지 촬영 이미지를 촬영한 경우에 에지의 변화 특성이 상이함을 이용해 실물객체 촬영인증을 수행할 수 있다. Therefore, according to the technical idea of the present invention, there is a change characteristic of an edge in which an amount or an intensity of an edge to be detected changes according to a change of an illumination state, and a change in an edge when a real object is photographed, It is possible to perform the object object photographing authentication using the fact that the characteristics are different.

따라서 상기 결정모듈(112)은 제1에지 이미지 및 제2에지 이미지를 분석하여 실물객체 촬영인증을 수행할 수 있다. 상기 결정모듈(112)은 상기 제1에지 이미지와 상기 제2에지 이미지에 포함된 에지의 양 또는 강도 중 적어도 하나를 비교하고, 비교결과에 기초하여 실물객체를 촬영한 것인지 여부를 판단할 수 있다. 에지의 양은 각각의 에지 이미지에 포함된 에지 전체의 길이 및/또는 면적을 의미할 수 있다. 에지의 강도는 에지 부분의 픽셀 값과 에지 주변의 픽셀 값의 차이의 정도를 의미할 수 있다. Accordingly, the determination module 112 can perform the object object photographing authentication by analyzing the first edge image and the second edge image. The determination module 112 may compare at least one of the amount or the intensity of the edge included in the first edge image and the edge included in the second edge image and determine whether the object is photographed based on the comparison result . The amount of edge may mean the length and / or area of the entire edge included in each edge image. The intensity of an edge can be a measure of the difference between the pixel value of the edge portion and the pixel value around the edge.

에지는 요철이 존재하거나, 재질이 변화하는 부분뿐만 아니라 모양 또는 색상의 차이가 존재하는 영역에서도 나타나고, 단순히 모양 또는 색상의 차이가 존재하는 영역에서는 제1조명상태에서보다 제2조명상태에서 검출되는 에지가 더 작아지거나 에지의 강도가 약해질 수 있다. 따라서 에지의 양 또는 강도를 이용하여 실물객체 여부를 판단하는 경우, 객체 영역 중에서 요철이 존재하거나 재질이 변화하는 부분 등 미리 설정된 특정영역으로부터 제1에지 이미지 및 제2에지 이미지를 검출하는 것이 바람직할 수도 있다. 이러한 경우 실물객체에서는 제2에지 이미지에서 검출되는 에지의 양 또는 강도가 제1에지 이미지에서 검출되는 에지의 양 또는 강도에 비해 많거나 그 강도가 강해지는 특성이 존재할 수 있지만, 이미지 촬영 이미지의 경우에는 검출되는 에지의 양 또는 강도가 적어지거나 약해지는 특성이 존재할 수 있다. The edge appears in a region where there are irregularities or a region where a shape or color difference exists as well as a region where a material changes, and in an area where there is a difference in shape or color, the edge is detected in the second illumination state rather than in the first illumination state The edge may be smaller or the edge may be weaker in strength. Therefore, when judging whether the object is a real object or not by using the amount or strength of the edge, it is preferable to detect the first edge image and the second edge image from a predetermined area, such as a part where irregularities exist or a material changes in the object area It is possible. In this case, in the physical object, the amount or intensity of the edge detected in the second edge image may be greater or more intense than the amount or intensity of the edge detected in the first edge image. However, There may be a characteristic in which the amount or intensity of edges to be detected is reduced or weakened.

따라서 상기 결정모듈(112)은 상기 제2에지 이미지에 포함된 에지의 양 또는 강도가 상기 제1에지 이미지에 비해 많거나 강한 경우 상기 디지털 이미지들을 실물 객체를 촬영한 이미지들로 판단할 수 있다. 이와 반대로 제2에지 이미지로부터 검출되는 에지의 양 또는 강도가 제1에지 이미지에 비해 작아지거나 약해지는 경우에는 상기 디지털 이미지들을 이미지 촬영 이미지로 판단할 수 있다. Therefore, the determination module 112 may determine the digital images as images of the physical object when the amount or intensity of the edges included in the second edge image is larger or larger than the first edge image. Conversely, if the amount or intensity of an edge detected from the second edge image is smaller or smaller than that of the first edge image, the digital images may be determined as an image taken image.

본 발명의 기술적 사상에 따르면 상기 결정모듈(112)은 에지의 양이나 강도의 변화 등 에지의 변화 특성에 따라 실물객체인지 여부를 판단하는 경우에 발생할 수 있는 불확실성(예컨대, 다른 외부적인 요인에 의해 에지의 변화특성이 나타나는 경우, 실물객체로 인증할 수 있는 에지의 양 또는 강도의 정도 등)을 해결하기 위한 기술적 사상을 더 제공할 수 있다. According to the technical idea of the present invention, the determination module 112 may determine uncertainties (for example, due to other external factors) that may occur when determining whether the object is a real object according to a change characteristic of an edge The amount of edge or the degree of strength that can be authenticated as a physical object, etc.) when the change characteristics of the edge are displayed.

본 발명의 실시 예에 의하면, 상기 결정모듈(112)은 제1에지 이미지 및 제2에지 이미지로부터 검출되는 에지의 양 또는 강도의 변화보다 더 명확하고 정량적인 기준에 기초하여 실물객체 촬영인증을 수행할 수도 있다. According to an embodiment of the present invention, the determination module 112 performs a physical object imaging authentication based on a clearer and more quantitative criterion than the change in the amount or intensity of edge detected from the first edge image and the second edge image You may.

이러한 기준은 예컨대, 제1에지 이미지와 제2에지 이미지 각각으로부터 미리 설정된 타겟 형상이 검출되는 개수가 몇 개인지에 따라 실물객체 촬영인증을 수행하는 방식일 수 있다. 상기 타겟 형상은 제어모듈(110)에 의해 검출된 대상 형상의 유형(예컨대, 숫자, 문자 등)을 의미할 수 있으며, 에지 정보를 이용하여 인식이 가능한 대상 또는 타겟의 형상을 의미할 수 있다. 상기 결정모듈(112)은 상기 제1에지 이미지에 상응하는 제1분석 이미지로부터 검출되는 제1타겟 형상이 몇 개인지 및 제2에지 이미지에 상응하는 제2분석 이미지부터 검출되는 제2타겟 형상이 몇 개인지에 기초하여 실물객체 촬영인증을 수행할 수 있다.This criterion may be, for example, a method of performing the object object photographing authentication according to the number of detected target shapes from the first edge image and the second edge image, respectively. The target shape may refer to a type (e.g., a number, a character, etc.) of the target shape detected by the control module 110, and may be a shape of a target or a target that can be recognized using edge information. The determination module 112 determines how many first target shapes are detected from the first analysis image corresponding to the first edge image and a second target shape that is detected from the second analysis image corresponding to the second edge image The object object photographing authentication can be performed based on the number of persons.

상기 타겟 형상은 예컨대, 상기 객체에 표시되며 상기 객체의 요철 부분이나 서로 다른 재질로 표시되는 타겟의 형상일 수 있다. 상기 타겟 형상이 카드에 표시된 카드번호에 해당하는 숫자인 경우를 일예로 하여 설명한다.The target shape may be, for example, a shape of a target that is displayed on the object and is expressed by an uneven portion of the object or a different material. The case where the target shape is a number corresponding to the card number displayed on the card will be described as an example.

상기 결정모듈(112)은 상기 제1분석 이미지 및 제2분석 이미지로부터 검출되는 각각의 숫자의 개수에 기초하여 실물객체 촬영인증을 수행할 수 있다. 상기 타겟 형상은 이러한 숫자뿐만 아니라, 한글, 알파벳 등 객체에 따라 다양해질 수 있다. The determination module 112 may perform the object object photographing authentication based on the number of each of the numbers detected from the first analysis image and the second analysis image. The target shape may vary not only with such numbers, but also with objects such as Korean alphabet and alphabet.

상기 제1분석 이미지 및 제2분석 이미지는 각각 제1에지 이미지 및 제2에지 이미지 그 자체이거나, 제1에지 이미지 및 제2에지 이미지가 소정의 방식으로 이미지 프로세싱된 이미지일 수 있다. The first analysis image and the second analysis image may be the first edge image and the second edge image respectively, or the first edge image and the second edge image may be images processed in a predetermined manner.

예컨대, 제1분석 이미지 및/또는 제2분석 이미지는 제1에지 이미지 및/또는 제2에지 이미지가 소정의 수준으로 블러(blur) 처리된 이미지이거나 이미지의 크기가 다운사이즈된 이미지일 수 있다. 이미지 프로세싱을 진행하는 경우는 예컨대, 제1에지 이미지 및 제2에지 이미지의 에지의 강도가 커서, 제1에지 이미지 및 제2에지 이미지로부터 동일한 타겟 형상 개수가 검출될 수 있는 경우를 제어하기 위한 것일 수 있다. For example, the first analysis image and / or the second analysis image may be a blurred image of the first edge image and / or the second edge image to a predetermined level, or the image may be a downsized image. If the image processing is to be performed, for example, the intensity of the edge of the first edge image and the edge image of the second edge is large, so that the same target shape number can be detected from the first edge image and the second edge image .

예컨대, 객체가 카드이고 타겟 형상이 카드에 표시된 숫자일 수 있다. 그리고 상기 결정모듈(112)은 제1에지 이미지로부터 검출되는 타겟 형상의 개수보다 제2에지 이미지로부터 검출되는 타겟 형상의 개수가 많은 경우 상기 디지털 이미지들을 실물객체를 촬영한 것으로 판단할 수 있다. 하지만 제1에지 이미지 및 제2에지 이미지로부터 각각 숫자 16개가 모두 검출될 수도 있다. 이러한 경우에는 타겟 형상의 개수를 비교하여 실물객체 촬영인증을 수행할 수 없을 수가 있다. 이를 위해 상기 제어모듈(110)은 상기 제1에지 이미지 및 상기 제2에지 이미지를 모두 일정 수준으로 블러처리하거나 사이즈의 크기를 줄일 수 있다. 즉, 에지의 강도를 일정 수준으로 낮추기 위한 이미지 프로세스를 수행할 수 있다. 이러한 이미지 프로세스의 수행결과가 상기 제1분석 이미지 및 제2분석 이미지일 수 있다.For example, the object may be a card and the target shape may be a number displayed on the card. If the number of target shapes detected from the second edge image is larger than the number of target shapes detected from the first edge image, the determination module 112 may determine that the digital images are photographed of the physical object. However, each of the 16 numbers may be detected from the first edge image and the second edge image. In such a case, it may not be possible to perform the object object photographing authentication by comparing the number of the target shapes. For this, the control module 110 may blur the first edge image and the second edge image to a certain level or reduce the size of the second edge image. That is, the image process for lowering the intensity of the edge to a certain level can be performed. The result of the execution of the image process may be the first analysis image and the second analysis image.

그러면 상기 결정모듈(112)은 제1분석 이미지 및 제2분석 이미지로부터 검출되는 타겟 형상의 개수를 비교하여 실물객체 촬영인증을 수행할 수 있다. 만약, 제1분석 이미지 및 제2분석 이미지로부터 타겟 형상을 검출했을 때에도 여전히 모든 타겟 형상이 검출되는 경우에는 에지의 강도를 낮추는 이미지 프로세스를 다시 수행하여, 검출되는 타겟 형상의 개수에 차이가 있을 때까지 단계적으로 일정 수준으로 블러 처리 또는 다운사이징을 수행할 수 있다. Then, the determination module 112 may compare the number of target shapes detected from the first analysis image and the second analysis image to perform the object object photographing authentication. If all the target shapes are detected even when the target shape is detected from the first analysis image and the second analysis image, the image process of lowering the strength of the edge is performed again. When there is a difference in the number of detected target shapes The blur processing or the downsizing can be performed at a predetermined level.

결국, 상기 결정모듈(112)은 제1분석 이미지 및 제2분석 이미지로부터 검출되는 타겟 형상의 개수의 차이에 기초하여 디지털 이미지들이 실물객체를 촬영한 것인지 또는 이미지 촬영 이미지인지 여부를 판단할 수 있다. 상기 디지털 이미지들이 실물객체를 촬영한 경우에는 제2분석 이미지의 에지가 더 강도가 높아져서 더 많은 타겟 형상이 검출되므로, 제2분석 이미지로부터 더 많은 타겟 형상이 검출되는 경우 상기 결정모듈(112)은 디지털 이미지들을 실물객체를 촬영한 것으로 판단할 수 있다. 반대로 제1분석 이미지로부터 더 많은 타겟 형상이 검출되거나 또는 제1분석 이미지 및 제2분석 이미지 모두로부터 타겟 형상이 검출되지 않는 경우에는 디지털 이미지들을 이미지 촬영 이미지로 판단할 수 있다.As a result, the determination module 112 can determine whether the digital images are a physical object image or an image pickup image based on the difference in the number of target shapes detected from the first analysis image and the second analysis image . When the digital images have captured a real object, the edge of the second analysis image becomes stronger and more target shapes are detected, so that when more target shapes are detected from the second analysis image, the determination module 112 It can be judged that the digital images are photographed on the physical object. Conversely, if more target shapes are detected from the first analysis image, or if no target shape is detected from both the first analysis image and the second analysis image, the digital images can be judged as the image taken image.

상기 제1분석 이미지 및 제2분석 이미지 각각으로부터 타겟 형상을 검출하는 기능은 상기 검출모듈(113)이 수행할 수 있다. 상기 검출모듈(113)은 다양한 방식으로 제1분석 이미지 및 제2분석 이미지로부터 검출의 대상이 되는 타겟 형상을 검출할 수 있다. The detection module 113 may perform a function of detecting a target shape from each of the first analysis image and the second analysis image. The detection module 113 can detect a target shape to be detected from the first analysis image and the second analysis image in various ways.

일예에 의하면, 상기 검출모듈(113)은 제1분석 이미지 및 제2분석 이미지 각각에 포함된 에지들의 컨투어(contour)를 추출할 수 있다. 컨투어는 에지들이 이루는 외곽선을 의미할 수 있다. 그리고 상기 검출모듈(113)은 컨투어들 각각에 기초하여 상기 타겟 형상을 검출할 수 있다. According to an example, the detection module 113 may extract a contour of edges included in each of the first analysis image and the second analysis image. A contour can mean the outline of the edges. And the detection module 113 may detect the target shape based on each of the contours.

추출된 컨투어를 이용해 타겟 형상을 검출하는 방식은 다양할 수 있다. 예컨대, 광학문자 인식을 이용하여 상기 타겟 형상을 검출할 수도 있다. 광학문자 인식에 이용되는 다양한 기법들이 공지되어 있으므로 본 발명에서 상세한 설명은 생략하도록 한다. 또한, 소정의 OS(예컨대, Windows??)에서 제공하는 템플릿(template)을 이용하여 상기 타겟 형상을 검출할 수도 있다. The method of detecting the target shape using the extracted contour may vary. For example, the target shape may be detected using optical character recognition. Since various techniques used for optical character recognition are known, a detailed description thereof will be omitted in the present invention. In addition, the target shape may be detected using a template provided by a predetermined OS (e.g., Windows?).

또는 본 발명의 기술적 사상과 같이 최소 바운딩 박스(minimum bounding box)를 이용하여 상기 타겟 형상을 검출할 수도 있다. 상기 검출모듈(113)은 추출된 컨투어들 각각에 최소 바운딩 박스를 설정할 수 있다. 그리고 최소 바운딩 박스의 크기에 기초하여 최소 바운딩 박스에 포함된 컨투어에 해당하는 에지가 타겟 형상인지 여부를 판단할 수 있다. 예컨대, 특정 컨투어에 해당하는 최소 바운딩 박스가 미리 설정된 타겟 형상의 기준 바운딩 박스의 크기와 동일하거나 일정 오차 범위 내인 경우에는 상기 최소 바운딩 박스는 타겟 형상의 최소 바운딩 박스로 판단될 수 있다. 따라서 기준 바운딩 박스의 크기와 동일하거나 일정 오차 범위 내의 크기를 갖는 최소 바운딩 박스의 수가 검출되는 타겟 형상의 개수일 수 있다. 이와 관련해서는 도 6을 참조하여 후술하도록 한다. Alternatively, the target shape may be detected using a minimum bounding box as in the technical concept of the present invention. The detection module 113 may set a minimum bounding box in each of the extracted contours. Based on the size of the minimum bounding box, it can be determined whether or not the edge corresponding to the contour included in the minimum bounding box is the target shape. For example, if the minimum bounding box corresponding to a particular contour is equal to or within a predetermined error range of a reference bounding box of a predetermined target shape, the minimum bounding box may be determined as a minimum bounding box of the target shape. Thus, the number of the minimum bounding boxes having a size equal to or greater than a size of the reference bounding box may be the number of target shapes to be detected. This will be described later with reference to Fig.

본 발명의 기술적 사상에 의하면 상기 검출모듈(113)은 제1분석 이미지 및 제2분석 이미지 각각으로부터 검출되는 타겟 형상의 개수를 산출할 수 있고, 결정모듈(112)은 제1분석 이미지 및 제2분석 이미지로부터 검출되는 타겟 형상의 개수에 기초하여 디지털 이미지들의 실물객체 촬영인증을 수행할 수 있다. 도 5, 도 7 내지 도 10에서는 실험의 결과를 설명하기 위한 도면이며, 실물객체(예컨대, 실제 카드)를 촬영한 경우에는 제2분석 이미지로부터 검출되는 타겟 형상(예컨대, 카드번호를 표시하는 숫자)의 개수가 모두 제1분석 이미지로부터 검출되는 타겟 형상의 개수보다 많은 것을 확인할 수 있었다. 이미지 촬영 이미지의 경우에는 제1분석 이미지 및 제2분석 이미지 모두로부터 타겟 형상이 검출되지 않았다. 구현 예에 따라서는 제2분석 이미지로부터 검출되는 타겟 형상의 개수가 제1분석 이미지로부터 검출되는 타겟 형상의 개수보다 작을 수도 있다.According to the technical idea of the present invention, the detection module 113 can calculate the number of target shapes detected from each of the first analysis image and the second analysis image, and the determination module 112 can calculate the number of target shapes detected from the first analysis image and the second analysis image, And can perform physical object photographing authentication of digital images based on the number of target shapes detected from the analysis image. Figs. 5 and 7 to 10 are diagrams for explaining the results of experiments. When a physical object (for example, an actual card) is photographed, a target shape detected from the second analysis image ) Is larger than the number of target shapes detected from the first analysis image. In the case of an image-captured image, no target shape was detected from both the first analysis image and the second analysis image. Depending on the implementation, the number of target shapes detected from the second analysis image may be less than the number of target shapes detected from the first analysis image.

도 3은 본 발명의 일실시 예에 따른 디지털 이미지 판단시스템이 설치되는 데이터 처리시스템의 개략적인 구성을 나타내는 블록도이다.3 is a block diagram illustrating a schematic configuration of a data processing system in which a digital image determination system according to an embodiment of the present invention is installed.

도 3을 참조하면, 상기 데이터 처리시스템(30)은 상기 판단시스템(100, 100-1)이 구비되는 시스템일 수 있다. 상기 데이터 처리시스템(30)은 상기 판단시스템(100, 100-1)을 구현하기 위한 소프트웨어(또는 프로그램)가 저장되는 저장매체(32) 및 상기 소프트웨어를 실행하기 위한 프로세서(31)를 포함할 수 있다. 상기 프로세서(31)는 상기 저장매체(32)에 저장된 상기 프로그램을 실행하여 전술한 바와 같이 판단시스템(100, 100-1)이 수행하는 기능들을 수행할 수 있다. Referring to FIG. 3, the data processing system 30 may be a system having the determination system 100 or 100-1. The data processing system 30 may include a storage medium 32 in which the software (or program) for implementing the determination system 100, 100-1 is stored and a processor 31 for executing the software have. The processor 31 may execute the program stored in the storage medium 32 and perform functions performed by the judgment system 100 or 100-1 as described above.

상기 데이터 처리시스템(30)은 예컨대, 클라이언트(10)일 수도 있고, 서버(20)일 수도 있다. 상기 데이터 처리시스템(30)의 구현 예에 따라 상기 데이터 처리시스템(30)에는 다양한 주변장치(peripheral, 33)가 구비될 수 있다. 일예에 의하면 상기 주변장치는 이미지 촬영센서, 조명장치 등일 수 있지만 이에 한정되지는 않는다.The data processing system 30 may be, for example, a client 10 or a server 20. According to an embodiment of the data processing system 30, the data processing system 30 may include various peripherals 33. According to an example, the peripheral device may be, but is not limited to, an image capturing sensor, a lighting device, and the like.

한편, 본 발명의 기술적 사상을 구현하기 위해서는 클라이언트(10)에 소정의 애플리케이션 시스템이 구비될 수 있다. 도 4는 본 발명의 일실시 예에 따른 애플리케이션 시스템의 개략적인 구성을 나타내는 블록도이다.Meanwhile, in order to implement the technical idea of the present invention, the client 10 may be provided with a predetermined application system. 4 is a block diagram illustrating a schematic configuration of an application system according to an embodiment of the present invention.

도 4를 참조하면, 상기 애플리케이션 시스템(40)은 제어모듈(41) 및 인터페이스 모듈(42)을 구비할 수 있다. 상기 애플리케이션 시스템(40)은 상기 애플리케이션 시스템(40)의 기능을 수행하기 위한 소프트웨어(애플리케이션 또는 프로그램) 및 상기 소프트웨어가 설치되는 이미지 촬영장치(미도시)의 하드웨어가 유기적으로 결합되어 구현될 수 있다. 상기 이미지 촬영장치는 예컨대, 클라이언트(10)일 수 있다. Referring to FIG. 4, the application system 40 may include a control module 41 and an interface module 42. The application system 40 may be implemented by organically combining software (application or program) for performing the functions of the application system 40 and hardware of an image photographing apparatus (not shown) installed with the software. The image photographing apparatus may be, for example, a client 10.

상기 이미지 촬영장치(미도시)에는 조명장치(예컨대, 플래시) 및 이미지를 촬영하기 위한 이미지 촬영센서가 구비될 수 있다. The image photographing device (not shown) may be provided with an illumination device (e.g., a flash) and an image photographing sensor for photographing an image.

상기 제어모듈(41)은 상기 조명장치 및/또는 이미지 촬영센서를 제어할 수 있다. 상기 인터페이스 모듈(42)은 사용자로부터 촬영요청 신호를 입력받을 수 있다. 그러면 상기 제어모듈(41)은 상기 촬영요청 신호에 응답하여 소정의 객체를 대상으로 제1조명상태에서의 제1디지털 이미지 및 제2조명상태에서의 제2디지털 이미지를 연속해서 촬영하도록 상기 조명장치 및 상기 이미지 촬영센서를 제어할 수 있다. 상기 제1조명상태는 조명장치가 비활성화된 상태일 수 있고, 제2조명상태는 조명장치가 활성화된 상태일 수 있지만 다양한 다른 실시 예들이 가능할 수 있다. The control module 41 may control the illumination device and / or the image pickup sensor. The interface module 42 may receive a photographing request signal from a user. Then, in response to the photographing request signal, the control module 41 controls the illumination device 40 to sequentially photograph the first digital image in the first illumination state and the second digital image in the second illumination state, And the image pickup sensor. The first illumination state may be a state in which the illumination device is deactivated, and the second illumination state may be in an activated state, but various other embodiments may be possible.

또한, 상기 인터페이스 모듈(42)을 통해 사용자로부터 한 번의 촬영요청 신호(특정버튼 또는 UI의 선택)가 입력된 경우에도 상기 제어모듈(41)은 상기 제1디지털 이미지 및 상기 제2디지털 이미지를 연속적으로 촬영할 수 있다. 연속적으로 촬영한다고 함은, 적어도 2개의 이미지를 상대적으로 짧은 시간내에 이어서 촬영함을 의미할 수 있다. 물론, 연속으로 촬영하기 위해 사용자가 수행하여야 할 액션은 한 번의 촬영요청 신호의 입력일 수도 있지만 다양한 실시 예가 가능할 수 있다. 예컨대, 상기 사용자에 의해 수동으로(예컨대, 특정 버튼 또는 UI를 선택한 경우) 이미지 촬영을 수행하는 경우, 상기 제어모듈(41)은 첫 번째 이미지는 조명장치를 활성화하지 않은 상태에서 촬영하고 두 번째 이미지는 조명장치를 활성화한 상태에서 촬영할 수 있다. In addition, even when a photographing request signal (selection of a specific button or a UI) is inputted from the user through the interface module 42, the control module 41 can continuously output the first digital image and the second digital image . To continuously photograph means to photograph at least two images successively in a relatively short time. Of course, the action to be performed by the user for continuous shooting may be an input of one shot request signal, but various embodiments may be possible. For example, in the case of performing an image capturing manually (for example, when a specific button or UI is selected) by the user, the control module 41 photographs the first image without activating the illumination device, Can be photographed while the lighting apparatus is activated.

상기 첫 번째 이미지의 촬영은 사용자가 명시적으로 촬영요청을 하지 않아도 수행될 수도 있다. 예컨대, 상기 첫 번째 이미지의 촬영은 사용자가 인지하지 못하게 자동으로 수행될 수도 있다. 따라서 사용자가 촬영을 위해 한 번의 행위만 하더라도 상기 제어모듈(41)은 적어도 2개의 이미지를 촬영하며 이 중 하나는 조명장치가 활성화되지 않은 상태에서 촬영하고 나머지는 조명장치가 활성화된 상태에서 촬영할 수 있다. 조명장치의 활성화 순서는 구현 예에 따라 달라질 수 있다. 어떠한 경우이든 사용자는 조명장치가 활성화된 상태에서 한 번의 촬영만 수행된 것으로 인지할 수도 있다.The photographing of the first image may be performed even if the user does not explicitly request the photographing. For example, the photographing of the first image may be performed automatically such that the user does not perceive the photographing. Therefore, even if the user performs only one act of photographing, the control module 41 photographs at least two images, one of which can be photographed without the lighting device being activated and the other can be photographed with the lighting device being activated have. The order of activation of the lighting device may vary depending on the implementation. In any case, the user may perceive that only one photographing has been performed with the lighting device activated.

그러면, 촬영된 제1디지털 이미지 및 제2디지털 이미지는 서버(예컨대, 20)로 전송되어 상기 서버(예컨대, 20)에 구비된 판단시스템(100)에 의해 실물객체 촬영인증이 수행될 수 있다. 또는 상기 이미지 촬영장치(미도시)에 상기 판단시스템(100, 100-1)이 구비된 경우에는 상기 이미지 촬영장치(미도시)가 자체적으로 실물객체 촬영인증을 수행할 수도 있다. 상기 이미지 촬영장치는 이미지를 촬영할 수 있는 기능을 수행하는 모든 형태의 데이터 처리장치를 의미할 수 있으며, 일예로 휴대단말, 디지털 카메라, 노트복, 태블릿 등으로 구현될 수 있지만 이에 국한되지는 않는다.Then, the photographed first digital image and the second digital image are transmitted to a server (for example, 20) so that the physical object photographing authentication can be performed by the judgment system 100 provided in the server (for example, 20). Alternatively, when the judgment system 100 or 100-1 is provided in the image photographing apparatus (not shown), the image photographing apparatus (not shown) may perform the object object photographing authentication itself. The image capturing apparatus may be any type of data processing apparatus that performs a function of capturing an image. For example, the image capturing apparatus may be a portable terminal, a digital camera, a notebook, a tablet, and the like, but is not limited thereto.

도 5는 본 발명의 일실시 예에 따른 디지털 이미지 판단방법에 따라 이미지들이 실물객체를 촬영한 이미지들인지를 판단하는 일예를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining an example of determining whether images are images taken of a physical object according to a digital image determination method according to an embodiment of the present invention.

도 5를 참조하면, 제1디지털 이미지(50) 및 제2디지털 이미지(51)가 도 5에 도시된 바와 같을 수 있다. 판단시스템(100, 100-1)의 획득모듈(120)은 상기 제1디지털 이미지(50) 및 제2디지털 이미지(51)를 클라이언트(10)로부터 수신할 수 있다. 도 5에서는 인위적으로 객체의 일부분을 가린 상태에서 실험한 경우를 도시하고 있다. Referring to FIG. 5, the first digital image 50 and the second digital image 51 may be as shown in FIG. The acquisition module 120 of the judgment system 100 or 100-1 may receive the first digital image 50 and the second digital image 51 from the client 10. [ FIG. 5 shows a case where an experiment is performed in a state in which a part of an object is artificially masked.

그러면 에지 검출모듈(111)은 제1에지 이미지(50-1) 및 제2에지 이미지(51-1)를 생성할 수 있다. 도 5에서는 제1디지털 이미지(50) 및 제2디지털 이미지(51) 각각의 일부인 객체영역(예컨대, 카드에 해당하는 영역)으로부터 에지를 추출한 에지 이미지들(50-1, 51-1)을 예시적으로 도시하고 있지만, 구현 예에 따라서는 상기 객체영역 중에서 특정 영역(예컨대, IC칩이 존재하는 영역, 50-2, 51-2)으로부터만 에지를 추출하여 에지 이미지를 생성할 수도 있다. 또는 상기 객체영역 중에서 특정 영역(예컨대, 카드번호가 표시되는 영역, 50-3, 51-3)으로부터만 에지를 추출하여 에지 이미지를 생성할 수도 있다.The edge detection module 111 may then generate the first edge image 50-1 and the second edge image 51-1. 5 illustrates edge images 50-1 and 51-1 in which edges are extracted from an object area (for example, an area corresponding to a card) that is a part of each of the first digital image 50 and the second digital image 51 However, according to an embodiment, an edge image may be generated by extracting an edge only from a specific region (for example, an area in which an IC chip exists) 50-2 and 51-2 in the object region. Alternatively, an edge image may be generated by extracting an edge only from a specific region (for example, a region in which a card number is displayed, 50-3, 51-3) in the object region.

도 5는 실물 객체를 촬영한 경우를 도시하고 있는데, 제1에지 이미지(50-1) 및 제2에지 이미지(51-1)를 비교하면 알 수 있듯이 요철이 있는 영역(예컨대, IC칩 부분 및 카드번호 부분)에 대해서는 제2에지 이미지(51-1)에서 에지가 더욱 강하게 검출되고, 평면에서 모양(또는 색)의 변화에 따른 에지 부분은 제2에지 이미지(51-1)가 오히려 약해지는 것을 알 수 있다. 따라서 이러한 에지의 변화특성을 이용해 상기 제어모듈(110)은 디지털 이미지들(예컨대, 40, 41)의 실물객체 촬영인증을 수행할 수 있다. FIG. 5 shows a case in which a physical object is photographed. As can be seen by comparing the first edge image 50-1 and the second edge image 51-1, the irregular region (for example, The edge portion is detected more strongly in the second edge image 51-1 and the edge portion in accordance with the change of the shape (or color) in the plane is set such that the second edge image 51-1 is rather weak . Accordingly, the control module 110 can perform the object object photographing authentication of the digital images (e.g., 40, 41) using the change characteristic of the edge.

또한, 전술한 바와 같이 타겟 형상(예컨대, 카드번호에 해당하는 숫자)이 검출되는 개수를 이용할 수도 있다. 도 5에 도시된 제2에지 이미지(51-1)에서는 설명의 편의를 위해 검출된 타겟 형상들 각각에 최소 바운딩 박스가 표시된 경우를 도시하고 있고(예컨대, 각각의 숫자 부분을 둘러싸는 사각형), 상기 최소 바운딩 박스는 검출된 에지가 아님을 용이하게 추론할 수 있을 것이다. Further, the number in which the target shape (for example, a number corresponding to the card number) is detected as described above may be used. In the second edge image 51-1 shown in Fig. 5, a minimum bounding box is displayed in each of the detected target shapes for convenience of explanation (for example, a square surrounding each numeral portion) The minimum bounding box may be easily inferred that it is not the edge detected.

도 5의 경우에서 제1에지 이미지(50-1)에서는 타겟 형상이 검출되지 않았고, 제2에지 이미지(51-1)에서는 9개의 타겟 형상이 검출된 경우를 도시하고 있다. 따라서 제2에지 이미지(51-1)에서 검출된 타겟 형상의 개수가 제1에지 이미지(50-1)에서 검출된 타겟 형상의 개수보다 많으므로 상기 결정모듈(112)은 상기 디지털 이미지들(예컨대, 50, 51)을 실물객체를 촬영한 이미지들로 판단할 수 있다.In the case of FIG. 5, no target shape is detected in the first edge image 50-1 and nine target shapes are detected in the second edge image 51-1. Therefore, since the number of target shapes detected in the second edge image 51-1 is greater than the number of target shapes detected in the first edge image 50-1, the determination module 112 determines that the digital images , 50, 51) can be determined as images taken of a physical object.

도 6은 본 발명의 일실시 예에 따른 디지털 이미지 판단방법에 따라 타겟대상을 검출하는 일예를 설명하기 위한 도면이다. 6 is a diagram for explaining an example of detecting a target object according to a digital image determination method according to an embodiment of the present invention.

우선 도 5 및 도 6a를 참조하면, 도 6a는 도 5에 도시된 제1에지 이미지(50-1)에서 카드번호 8에 해당하는 에지의 컨투어(예컨대, 50-4 및 50-5)를 추출한 도면이고, 도 6b는 도 5에 도시된 제2에지 이미지(51-1)에서 동일한 카드번호 8에 해당하는 에지의 컨투어(51-4)를 추출한 도면을 개념적으로 나타내고 있다. 5A and 6A, FIG. 6A is a diagram showing the contour (for example, 50-4 and 50-5) of the edge corresponding to the card number 8 in the first edge image 50-1 shown in FIG. 5 FIG. 6B conceptually shows a drawing in which the contour 51-4 of the edge corresponding to the same card number 8 is extracted in the second edge image 51-1 shown in FIG.

도 6a의 경우, 검출모듈(113)은 검출된 컨투어들(예컨대, 50-4, 50-5) 각각의 최소 바운딩 박스(예컨대, 50-6, 50-7)를 생성하면 도 6a에 도시된 바와 같을 수 있다. 또한, 도 6b의 경우 상기 검출모듈(113)은 검출된 컨투어(예컨대, 51-4)의 최소 바운딩 박스(예컨대, 51-5)를 생성하면 도 6b에 도시된 바와 같을 수 있다. 따라서 타겟 형상(예컨대, 숫자)의 윤곽을 나타내는 에지가 전부 검출이 된 경우에는, 도 6b에 도시된 바와 같이 해당 에지의 컨투어(51-4)에 상응하는 최소 바운딩 박스(51-5)의 크기는 원래의 타겟 형상(실제 카드에 표시된 카드번호)에 상응하는 최소 바운딩 박스 즉, 기준 바운딩 박스(예컨대, 도 5b에 도시된)의 크기와 동일하거나 일정 범위 내의 오차만을 가질 수 있다. 이러한 경우, 상기 검출모듈(113)은 타겟 형상을 검출했다고 판단할 수 있다.6A, the detection module 113 generates a minimum bounding box (e.g., 50-6, 50-7) of each of the detected contours (e.g., 50-4, 50-5) It can be like a bar. In the case of FIG. 6B, the detection module 113 may be as shown in FIG. 6B by generating a minimum bounding box (e.g., 51-5) of the detected contour (e.g., 51-4). Therefore, when all the edges representing the outline of the target shape (e.g., a number) are detected, the size of the minimum bounding box 51-5 corresponding to the contour 51-4 of the edge as shown in Fig. (E.g., shown in FIG. 5B) corresponding to the original target shape (card number displayed on the actual card), or may only have an error within a certain range. In such a case, the detection module 113 may determine that the target shape has been detected.

하지만, 타겟 형상의 윤곽을 나타내는 에지의 전부가 검출이 되지 않고 부분적으로만 검출이 된 경우에는, 도 6a에 도시된 바와 같이 컨투어들(50-4, 50-5) 각각에 상응하는 최소 바운딩 박스(50-6, 50-7)의 크기는 기준 바운딩 박스의 크기에 비해 작게 된다. 이러한 경우에는 타겟 형상은 검출되지 않은 것으로 판단될 수 있다.However, if all of the edges representing the outline of the target shape are not detected but only partially detected, the minimum bounding box corresponding to each of the contours 50-4 and 50-5, as shown in Fig. 6A, (50-6, 50-7) is smaller than the size of the reference bounding box. In this case, it can be determined that the target shape is not detected.

상기 검출모듈(113)은 이러한 방식으로 각각의 에지 이미지들(또는 에지 이미지의 에지 강도를 낮춘 이미지 프로세싱을 적어도 한 번 수행한 분석 이미지들)로부터 타겟 형상이 검출되는 개수를 산출할 수 있고, 결정모듈(112)은 산출된 개수에 기초하여 실물객체 촬영인증을 수행할 수 있다.The detection module 113 may calculate the number of detected target shapes from each of the edge images (or the analysis images that have undergone at least one edge processing of edge processing of the edge image) in this manner, The module 112 can perform the object object photographing authentication based on the calculated number.

한편, 도 5와 카드의 종류가 다르거나 외부 조명조건을 달리 설정하여 본 발명의 기술적 사상을 시뮬레이션한 결과는 도 7 내지 도 12에 도시된다.On the other hand, Figs. 7 to 12 show the results of simulating the technical idea of the present invention by setting different types of cards and different external illumination conditions from Fig.

도 7 내지 도 12는 본 발명의 다른 일실시 예에 따른 디지털 이미지 판단방법에 따라 복수의 이미지들이 실물객체를 촬영한 이미지들인지를 판단하는 일예를 설명하기 위한 도면이다. FIGS. 7 to 12 are views for explaining an example of determining whether a plurality of images are images taken of a physical object according to a digital image determination method according to another embodiment of the present invention.

도 7 및 도 8은 상대적으로 어두운 조명환경에서 실제 카드를 촬영한 경우의 시뮬레이션 결과를 도시하고 있고, 도 9는 상대적으로 밝은 조명환경에서 실제 카드를 촬영한 경우의 시뮬레이션 결과를 도시하고 있다. 또한, 도 10 내지 도 12는 각각 서로 다른 카드의 이미지를 촬영한 이미지 즉, 2차원의 이미지를 촬영한 경우의 시뮬레이션 결과를 도시하고 있다. 또한, 도 7 내지 도 12에서는 타겟 형상의 검출개수를 이용하여 실물객체 촬영인증을 수행하는 일예를 나타낸다.FIGS. 7 and 8 show simulation results when an actual card is photographed in a relatively dark lighting environment, and FIG. 9 shows simulation results when an actual card is photographed in a relatively bright lighting environment. FIGS. 10 to 12 show simulation results obtained by photographing images of two different cards, that is, two-dimensional images. FIG. 7 to 12 show an example of performing the object object photographing authentication using the number of detected target shapes.

도 7에서는 제1디지털 이미지(52) 및 제2디지털 이미지(53) 각각에 상응하는 제1에지 이미지(52-1) 및 제2에지 이미지(53-1)로부터 검출되는 타겟 형상의 개수가 각각 0개 및 2개임을 알 수 있다. 즉, 제2에지 이미지(53-1)로부터 더 많은 타겟 형상이 검출됨을 알 수 있고, 이에 따라 상기 판단시스템(100, 100-1)은 상기 제1디지털 이미지(52) 및 제2디지털 이미지(53)를 실물 객체를 촬영한 이미지들로 판단할 수 있다.7, the number of target shapes detected from the first edge image 52-1 and the second edge image 53-1 corresponding to the first digital image 52 and the second digital image 53 are respectively 0 and 2, respectively. That is, it can be seen that more target features are detected from the second edge image 53-1, so that the determination system 100, 100-1 can determine that the first digital image 52 and the second digital image 53) can be determined as the images of the real objects.

도 8에서도 제1디지털 이미지(54) 및 제2디지털 이미지(55) 각각에 상응하는 제1에지 이미지(54-1) 및 제2에지 이미지(55-1)로부터 검출되는 타겟 형상의 개수가 각각 0개 및 6개임을 알 수 있다. 제2에지 이미지(55-1)로부터 더 많은 타겟 형상이 검출됨을 알 수 있고, 이에 따라 상기 판단시스템(100, 100-1)은 상기 제1디지털 이미지(54) 및 제2디지털 이미지(55)를 실물 객체를 촬영한 이미지들로 판단할 수 있다.8, the number of target shapes detected from the first edge image 54-1 and the second edge image 55-1 corresponding to the first digital image 54 and the second digital image 55 is 0 and 6, respectively. It can be seen that more target features are detected from the second edge image 55-1 so that the determination system 100,100-1 can detect the first digital image 54 and the second digital image 55, Can be determined as images taken of a real object.

도 9에서도 제1디지털 이미지(56) 및 제2디지털 이미지(57) 각각에 상응하는 제1에지 이미지(56-1) 및 제2에지 이미지(57-1)로부터 검출되는 타겟 형상의 개수가 각각 0개 및 8개임을 알 수 있다. 따라서 제2에지 이미지(57-1)로부터 더 많은 타겟 형상이 검출됨을 알 수 있고, 이에 따라 상기 판단시스템(100, 100-1)은 상기 제1디지털 이미지(56) 및 제2디지털 이미지(57)를 실물 객체를 촬영한 이미지들로 판단할 수 있다.9, the number of target shapes detected from the first edge image 56-1 and the second edge image 57-1 corresponding to the first digital image 56 and the second digital image 57, respectively, 0 and 8, respectively. Thus, it can be seen that more target shapes are detected from the second edge image 57-1 so that the determination system 100, 100-1 can determine that the first digital image 56 and the second digital image 57 ) Can be determined as images taken of a real object.

도 10에서는 제1디지털 이미지(58) 및 제2디지털 이미지(59) 각각에 상응하는 제1에지 이미지(58-1) 및 제2에지 이미지(59-1)로부터 검출되는 타겟 형상의 개수가 각각 0개 및 0개임을 알 수 있다. 즉, 제2에지 이미지(59-1) 및 제1에지 이미지(58-1)로부터 모두 타겟 형상이 검출되지 않거나, 제1에지 이미지(58-1)로부터 더 많은 타겟 형상이 검출되는 경우에는, 상기 판단시스템(100, 100-1)은 상기 제1디지털 이미지(58) 및 제2디지털 이미지(59)를 이미지 촬영 이미지들로 판단할 수 있다.10, the number of target shapes detected from the first edge image 58-1 and the second edge image 59-1 corresponding to the first digital image 58 and the second digital image 59, respectively, 0, and 0, respectively. That is, if neither the target shape is detected from the second edge image 59-1 and the first edge image 58-1, or more target shapes are detected from the first edge image 58-1, The judgment system 100, 100-1 may judge the first digital image 58 and the second digital image 59 as image picked-up images.

도 11에서는 제1디지털 이미지(60) 및 제2디지털 이미지(61) 각각에 상응하는 제1에지 이미지(60-1) 및 제2에지 이미지(61-1)로부터 검출되는 타겟 형상의 개수가 각각 0개 및 0개임을 알 수 있다. 즉, 제2에지 이미지(61-1) 및 제1에지 이미지(58-1)로부터 모두 타겟 형상이 검출되지 않는 경우이므로, 상기 판단시스템(100, 100-1)은 상기 제1디지털 이미지(58) 및 제2디지털 이미지(59)를 이미지 촬영 이미지들로 판단할 수 있다.11, the number of target shapes detected from the first edge image 60-1 and the second edge image 61-1 corresponding to each of the first digital image 60 and the second digital image 61 is 0, and 0, respectively. That is, since the target shape is not detected from both the second edge image 61-1 and the first edge image 58-1, the determination system 100, 100-1 determines that the first digital image 58 ) And the second digital image 59 as image picked-up images.

도 12에서는 제1디지털 이미지(62) 및 제2디지털 이미지(63) 각각에 상응하는 제1에지 이미지(62-1) 및 제2에지 이미지(63-1)로부터 검출되는 타겟 형상의 개수가 각각 12개 및 8개임을 알 수 있다. 즉, 제1에지 이미지(58-1)로부터 더 많은 타겟 형상이 검출되는 경우이므로, 상기 판단시스템(100, 100-1)은 상기 제1디지털 이미지(58) 및 제2디지털 이미지(59)를 이미지 촬영 이미지들로 판단할 수 있다.12, the number of target shapes detected from the first edge image 62-1 and the second edge image 63-1 corresponding to the first digital image 62 and the second digital image 63, respectively, 12 and 8, respectively. That is, since more target shapes are detected from the first edge image 58-1, the determination system 100, 100-1 determines the first digital image 58 and the second digital image 59 as It is possible to judge them as image-captured images.

본 발명의 기술적 사상에 따른 디지털 이미지 판단시스템 및 그 방법은 비대면 본인인증, 카드 점유인증이나 결제 외에 사진의 위조나 도용 방지 서비스에 다양하게 채용될 수 있다. 예컨대, 주행거리나 블랙박스의 설치 여부 확인이 필요한 보험사의 시스템이나, 온라인에서 물품 사진의 실체 여부의 판단이 필요한 서비스 등에 적용될 수 있다. 이외에도 온라인의 사진을 확인해주는 다양한 서비스에 적용될 수 있다.The digital image judgment system and method according to the technical idea of the present invention can be variously adopted for a photo counterfeiting and anti-theft service besides non-face person authentication, card occupancy authentication and settlement. For example, it can be applied to a system of an insurance company that requires confirmation of whether or not a mileage or a black box is installed, a service that requires judgment of whether or not an article photograph is online, and the like. In addition, it can be applied to various services for confirming online photos.

한편, 구현 예에 따라서, 상기 디지털 이미지 판단시스템(100, 100-1), 데이터 처리시스템(30), 및/또는 애플리케이션 시스템(40)은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함할 수도 있다. 상기 프로세서는 싱글 코어 CPU혹은 멀티 코어 CPU를 포함할 수 있다. 메모리는 고속 랜덤 액세스 메모리를 포함할 수 있고 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치, 또는 기타 비휘발성 고체상태 메모리 장치와 같은 비휘발성 메모리를 포함할 수도 있다. 프로세서 및 기타 구성 요소에 의한 메모리로의 액세스는 메모리 컨트롤러에 의해 제어될 수 있다. 여기서, 상기 프로그램은, 프로세서에 의해 실행되는 경우, 본 실시예에 따른 디지털 이미지 판단시스템(예컨대, 100), 데이터 처리시스템(30), 및/또는 애플리케이션 시스템(40)으로 하여금, 상술한 방법을 수행하도록 할 수 있다.On the other hand, according to an embodiment, the digital image determination system 100, 100-1, the data processing system 30, and / or the application system 40 may comprise a processor and a memory for storing programs executed by the processor . The processor may include a single-core CPU or a multi-core CPU. The memory may include high speed random access memory and may include non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. Access to the memory by the processor and other components can be controlled by the memory controller. Here, the program may be executed by a processor by causing the digital image determination system (e.g., 100), the data processing system 30, and / or the application system 40 according to the present embodiment to perform the above- .

한편, 본 발명의 실시예에 따른 디지털 이미지 판단방법은 컴퓨터가 읽을 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명의 실시예에 따른 제어 프로그램 및 대상 프로그램도 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the digital image determination method according to an exemplary embodiment of the present invention may be implemented in the form of a computer-readable program command and stored in a computer-readable recording medium. The control program and the target program May also be stored in a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다.Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of software.

컴퓨터로 읽을 수 있는 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of the computer-readable recording medium include magnetic media such as a hard disk, a floppy disk and a magnetic tape, optical media such as CD-ROM and DVD, a floptical disk, And hardware devices that are specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. The above-mentioned medium may also be a transmission medium such as a light or metal wire, wave guide, etc., including a carrier wave for transmitting a signal designating a program command, a data structure and the like. The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of program instructions include machine language code such as those produced by a compiler, as well as devices for processing information electronically using an interpreter or the like, for example, a high-level language code that can be executed by a computer.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

Claims (19)

동일한 객체를 대상으로 제1조명상태에서 촬영된 제1디지털 이미지 및 제2조명상태에서 촬영된 제2디지털 이미지를 포함하는 복수의 디지털 이미지들을 획득하기 위한 획득모듈; 및
상기 획득모듈에 의해 획득된 상기 복수의 디지털 이미지들에 기초하여 상기 복수의 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 제어모듈을 포함하며,
상기 제어모듈은,
상기 제1디지털 이미지 및 상기 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 디지털 이미지 판단시스템.
An acquiring module for acquiring a plurality of digital images including a first digital image photographed in a first illumination state and a second digital image photographed in a second illumination state on the same object; And
And a control module for determining whether the plurality of digital images are images of a three-dimensional real object or a two-dimensional image based on the plurality of digital images acquired by the acquisition module,
The control module includes:
Analyzing the first digital image and the second digital image, and determining whether the digital images are three-dimensional real objects or two-dimensional images based on the analysis results.
제1항에 있어서, 상기 제1디지털 이미지 및 상기 제2디지털 이미지는 각각,
상기 디지털 이미지 판단시스템이 설치되거나 상기 디지털 이미지 판단시스템과 통신을 수행하는 이미지 촬영장치의 조명장치가 비활성화된 상태 및 활성화된 상태에서 촬영된 이미지인 것을 특징으로 하는 디지털 이미지 판단시스템.
2. The method of claim 1, wherein the first digital image and the second digital image are each a digital image,
Wherein the digital image judging system is installed or the illuminating device of the image photographing device performing communication with the digital image judging system is an image photographed in an inactivated state and in an activated state.
제1항에 있어서, 상기 제어모듈은,
상기 제1디지털 이미지로부터 상기 제1디지털 이미지의 전부 또는 미리 설정된 특정 영역에서 에지를 검출한 제1에지 이미지 및 상기 제2디지털 이미지로부터 상기 제2디지털 이미지의 전부 또는 상기 제2디지털 이미지의 상기 특정 영역에서 에지를 검출한 제2에지 이미지를 생성하기 위한 에지 검출모듈; 및
상기 에지 검출모듈에 의해 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하기 위한 결정모듈을 포함하는 디지털 이미지 판단시스템.
The apparatus of claim 1,
A first edge image that detects an edge in all or a predetermined predetermined area of the first digital image from the first digital image and a second edge image that detects an edge in the entirety of the second digital image or the specific An edge detection module for generating a second edge image that detects an edge in the region; And
Wherein the edge detection module analyzes edges of the first edge image and the second edge image generated by the edge detection module to determine whether the digital images are three-dimensional object images or two-dimensional image images The digital image determination system comprising:
제3항에 있어서, 상기 결정모듈은,
상기 제1에지 이미지와 상기 제2에지 이미지에 포함된 에지의 양 또는 에지의 강도 중 적어도 하나를 비교하고, 비교결과에 기초하여 상기 디지털 이미지들이 실물 객체를 촬영한 것인지 여부를 판단하는 디지털 이미지 판단시스템.
The apparatus of claim 3,
Comparing the at least one of the first edge image and the intensity of the edge or the edge included in the second edge image and determining whether the digital images have photographed the physical object based on the comparison result, system.
제3항에 있어서, 상기 결정모듈은,
상기 제1에지 이미지와 상기 제2에지 이미지 각각에 상응하는 제1분석 이미지 및 제2분석 이미지 각각으로부터 미리 설정된 타겟 형상이 검출되는 개수를 의미하는 제1타겟 형상 개수 및 제2타겟 형상 개수에 기초하여 상기 디지털 이미지들이 실물 객체를 촬영한 것인지 여부를 판단하는 디지털 이미지 판단시스템.
The apparatus of claim 3,
The number of the first target shape and the number of the second target shape, which means the number of the predetermined target shape detected from each of the first analysis image and the second analysis image corresponding to each of the first edge image and the second edge image, To determine whether the digital images have been photographed by a real object.
제5항에 있어서, 상기 제어모듈은,
상기 제1분석 이미지 및 상기 제2분석 이미지 각각에 포함된 에지들 각각의 컨투어(contour)들을 추출하고, 추출된 컨투어들에 기초하여 상기 제1타겟 형상 개수 및 상기 제2타겟 형상 개수를 산출하는 검출모듈을 더 포함하는 디지털 이미지 판단시스템.
6. The apparatus of claim 5,
Extracting contours of respective edges included in each of the first analysis image and the second analysis image, and calculating the first target shape number and the second target shape number based on the extracted contours Further comprising a detection module.
제5항에 있어서, 상기 제1분석 이미지 및 상기 제2분석 이미지는,
상기 제1에지 이미지 및 상기 제2에지 이미지를 적어도 한 번 미리 설정된 일정 수준으로 블러(blur) 처리한 이미지들이거나,
상기 제1에지 이미지 및 상기 제2에지 이미지의 크기를 적어도 한 번 미리 설정된 일정 수준으로 크기를 줄인 이미지들인 것을 특징으로 하는 디지털 이미지 판단시스템.
6. The image processing apparatus according to claim 5, wherein the first analysis image and the second analysis image include:
The first edge image and the second edge image are blurred images at a predetermined level at least once,
Wherein the size of the first edge image and the size of the second edge image is at least once reduced to a predetermined level.
제2항에 있어서, 상기 이미지 촬영장치는,
사용자로부터 한 번의 촬영요청 신호를 입력받는 경우에도, 상기 객체를 대상으로 상기 조명장치가 비활성화된 상태에서의 상기 제1디지털 이미지 및 상기 조명장치가 활성화된 상태에서의 상기 제2디지털 이미지를 연속해서 촬영하는 것을 특징으로 하는 디지털 이미지 판단시스템.
3. The image capturing apparatus according to claim 2,
The first digital image in a state in which the illumination device is inactivated and the second digital image in a state in which the illumination device is activated are continuously The digital image determination system comprising:
프로그램이 저장되는 저장매체; 및
상기 프로그램을 실행하기 위한 프로세서를 구비하며,
상기 프로세서는 상기 프로그램을 실행하여,
동일한 객체를 대상으로 제1조명상태에서 촬영된 제1디지털 이미지 및 제2조명상태에서 촬영된 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 데이터 처리시스템.
A storage medium in which a program is stored; And
And a processor for executing the program,
The processor executes the program,
Analyzing a first digital image photographed in a first illumination state and a second digital image photographed in a second illumination state on the same object and determining whether the digital images have photographed a three- A data processing system for determining whether a two-dimensional image has been taken.
이미지 촬영장치에 설치되는 애플리케이션 시스템에 있어서,
사용자로부터 촬영요청 신호를 입력받는 인터페이스 모듈; 및
상기 이미지 촬영장치에 구비된 조명장치 및 이미지를 촬영하기 위한 이미지 촬영센서를 제어하는 제어모듈을 구비하며,
상기 제어모듈은,
상기 촬영요청 신호에 응답하여 소정의 객체를 대상으로 제1조명상태에서의 제1디지털 이미지 및 제2조명상태에서의 제2디지털 이미지를 연속해서 촬영하도록 제어하는 것을 특징으로 하는 애플리케이션 시스템.
An application system installed in an image photographing apparatus,
An interface module for receiving a photographing request signal from a user; And
A control module for controlling an illumination device provided in the image photographing apparatus and an image photographing sensor for photographing an image,
The control module includes:
And controls to shoot a first digital image in a first illumination state and a second digital image in a second illumination state continuously on a predetermined object in response to the shooting request signal.
제10항에 있어서, 상기 제1디지털 이미지 및 상기 제2디지털 이미지는,
소정의 디지털 이미지 판단시스템에 의해 분석되어 상기 제1디지털 이미지 및 상기 제2디지털 이미지가 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부가 판단되는 애플리케이션 시스템.
11. The method of claim 10, wherein the first digital image and the second digital image comprise:
Wherein the first digital image and the second digital image are analyzed by a predetermined digital image determination system to determine whether a three-dimensional real object has been photographed or a two-dimensional image has been photographed.
디지털 이미지 판단시스템이 동일한 객체를 대상으로 제1조명상태에서 촬영된 제1디지털 이미지 및 제2조명상태에서 촬영된 제2디지털 이미지를 포함하는 복수의 디지털 이미지들을 획득하는 단계; 및
획득된 상기 제1디지털 이미지 및 상기 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 복수의 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계를 포함하는 디지털 이미지 판단방법.
Obtaining a plurality of digital images including a first digital image photographed in a first illumination state and a second digital image photographed in a second illumination state on the same object; And
Analyzing the acquired first digital image and the second digital image, and determining whether the plurality of digital images have photographed the three-dimensional object or the two-dimensional image based on the analysis result Wherein the digital image determination method comprises:
제12항에 있어서, 상기 획득된 상기 제1디지털 이미지 및 상기 제2디지털 이미지를 분석하고, 분석결과에 기초하여 상기 복수의 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계는,
상기 제1디지털 이미지로부터 상기 제1디지털 이미지의 전부 또는 미리 설정된 특정 영역에서 에지를 검출한 제1에지 이미지 및 상기 제2디지털 이미지로부터 상기 제2디지털 이미지의 전부 또는 미리 설정된 특정 영역에서 에지를 검출한 제2에지 이미지를 생성하는 단계;
생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계를 포함하는 디지털 이미지 판단방법.
13. The image processing method according to claim 12, further comprising the steps of: analyzing the obtained first digital image and the second digital image; determining whether the plurality of digital images have photographed the three- Wherein the step of determining whether the one-
A first edge image from which an edge has been detected from all of the first digital image or from a predetermined specific area from the first digital image and an edge from all or a predetermined specific area of the second digital image from the second digital image Generating a second edge image;
And analyzing an edge of each of the generated first edge image and the generated second edge image to determine whether the digital images have taken a three-dimensional real object or a two-dimensional image, How to judge.
제13항에 있어서, 상기 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계는,
상기 제1에지 이미지와 상기 제2에지 이미지에 포함된 에지의 양 또는 에지의 강도 중 적어도 하나를 비교하고, 비교결과에 기초하여 상기 디지털 이미지들이 실물 객체를 촬영한 것인지 여부를 판단하는 단계를 포함하는 디지털 이미지 판단방법.
14. The method of claim 13, further comprising analyzing edges of each of the generated first edge image and second edge image to determine whether the digital images are three-dimensional object images or two-dimensional image images Lt; / RTI >
Comparing at least one of the first edge image and the intensity of the edge or the edge included in the second edge image and determining whether the digital images have photographed the physical object based on the comparison result A digital image judging method.
제13항에 있어서, 상기 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계는,
상기 제1에지 이미지와 상기 제2에지 이미지 각각에 상응하는 제1분석 이미지 및 제2분석 이미지 각각으로부터 미리 설정된 타겟 형상이 검출되는 개수를 의미하는 제1타겟 형상 개수 및 제2타겟 형상 개수에 기초하여 상기 디지털 이미지들이 실물 객체를 촬영한 것인지 여부를 판단하는 단계를 포함하는 디지털 이미지 판단방법.
14. The method of claim 13, further comprising analyzing edges of each of the generated first edge image and second edge image to determine whether the digital images are three-dimensional object images or two-dimensional image images Lt; / RTI >
The number of the first target shape and the number of the second target shape, which means the number of the predetermined target shape detected from each of the first analysis image and the second analysis image corresponding to each of the first edge image and the second edge image, And determining whether the digital images are photographed on a physical object.
제14항에 있어서, 상기 생성된 상기 제1에지 이미지 및 상기 제2에지 이미지 각각의 에지를 분석하여 상기 디지털 이미지들이 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부를 판단하는 단계는,
상기 제1분석 이미지 및 상기 제2분석 이미지 각각에 포함된 에지들 각각의 컨투어(contour)들을 추출하고, 추출된 컨투어들에 기초하여 상기 제1타겟 형상 개수 및 상기 제2타겟 형상 개수를 산출하는 단계를 더 포함하는 디지털 이미지 판단방법.
15. The method of claim 14, further comprising analyzing edges of each of the generated first edge image and second edge image to determine whether the digital images are taken of a three-dimensional object or a two-dimensional image Lt; / RTI >
Extracting contours of respective edges included in each of the first analysis image and the second analysis image, and calculating the first target shape number and the second target shape number based on the extracted contours Further comprising the steps of:
제15항에 있어서, 상기 제1분석 이미지 및 상기 제2분석 이미지는,
상기 제1에지 이미지 및 상기 제2에지 이미지를 적어도 한 번 미리 설정된 일정 수준으로 블러(blur) 처리한 이미지들이거나, 상기 제1에지 이미지 및 상기 제2에지 이미지의 크기를 적어도 한 번 미리 설정된 일정 수준으로 크기를 줄인 이미지들인 것을 특징으로 하는 디지털 이미지 판단방법.
16. The image processing system according to claim 15, wherein the first analysis image and the second analysis image include:
The first edge image and the second edge image are blurred at least once to a predetermined level, or the size of the first edge image and the second edge image is at least once set to a predetermined schedule And the size of the image is reduced to a level that is smaller than the predetermined size.
이미지 촬영장치에 설치되는 애플리케이션이 수행하는 방법에 있어서,
사용자로부터 촬영요청 신호를 입력받는 단계;
상기 촬영요청 신호에 응답하여 소정의 객체를 대상으로 제1조명상태에서의 제1디지털 이미지 및 제2조명상태에서의 제2디지털 이미지를 연속해서 촬영하는 단계를 포함하는 애플리케이션 수행 방법.
A method performed by an application installed in an image photographing apparatus,
Receiving a photographing request signal from a user;
And continuously photographing a first digital image in a first illumination state and a second digital image in a second illumination state on a predetermined object in response to the photographing request signal.
제18항에 있어서, 상기 애플리케이션 수행 방법은,
상기 제1디지털 이미지 및 상기 제2디지털 이미지가 소정의 디지털 이미지 판단시스템으로 전송되는 단계를 더 포함하며,
상기 디지털 이미지 판단시스템에 의해 분석되어 상기 제1디지털 이미지 및 상기 제2디지털 이미지가 3차원의 실물 객체를 촬영한 것인지 2차원의 이미지를 촬영한 것인지 여부가 판단되는 애플리케이션 수행 방법.




19. The method of claim 18,
Wherein the first digital image and the second digital image are transmitted to a predetermined digital image determination system,
Wherein the first digital image and the second digital image are analyzed by the digital image determination system to determine whether a three-dimensional real object has been photographed or a two-dimensional image has been photographed.




KR1020150186329A 2015-12-24 2015-12-24 Method for digital image judging and system tereof, application system, and authentication system thereof KR102050590B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150186329A KR102050590B1 (en) 2015-12-24 2015-12-24 Method for digital image judging and system tereof, application system, and authentication system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150186329A KR102050590B1 (en) 2015-12-24 2015-12-24 Method for digital image judging and system tereof, application system, and authentication system thereof

Publications (2)

Publication Number Publication Date
KR20170076894A true KR20170076894A (en) 2017-07-05
KR102050590B1 KR102050590B1 (en) 2019-12-03

Family

ID=59352136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150186329A KR102050590B1 (en) 2015-12-24 2015-12-24 Method for digital image judging and system tereof, application system, and authentication system thereof

Country Status (1)

Country Link
KR (1) KR102050590B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022010022A1 (en) * 2020-07-06 2022-01-13 주식회사 유스비 Non-contact personal authentication customer identification apparatus and method therefor
KR102573975B1 (en) * 2022-06-15 2023-09-04 주식회사 코이웨어 Device and method for determining ID Authentication

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030091345A (en) * 2002-05-27 2003-12-03 (주)워치비젼 Method and system for facial liveness test
KR20050009415A (en) 2003-07-16 2005-01-25 양기철 Method for portrait mutual certification and computer readable record medium on which program therefor is recorded
KR20050022306A (en) * 2003-08-29 2005-03-07 삼성전자주식회사 Method and Apparatus for image-based photorealistic 3D face modeling
JP2013092878A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape measurement apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030091345A (en) * 2002-05-27 2003-12-03 (주)워치비젼 Method and system for facial liveness test
KR20050009415A (en) 2003-07-16 2005-01-25 양기철 Method for portrait mutual certification and computer readable record medium on which program therefor is recorded
KR20050022306A (en) * 2003-08-29 2005-03-07 삼성전자주식회사 Method and Apparatus for image-based photorealistic 3D face modeling
JP2013092878A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape measurement apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022010022A1 (en) * 2020-07-06 2022-01-13 주식회사 유스비 Non-contact personal authentication customer identification apparatus and method therefor
KR102573975B1 (en) * 2022-06-15 2023-09-04 주식회사 코이웨어 Device and method for determining ID Authentication

Also Published As

Publication number Publication date
KR102050590B1 (en) 2019-12-03

Similar Documents

Publication Publication Date Title
KR102387571B1 (en) Liveness test method and apparatus for
JP5076563B2 (en) Face matching device
US20180012094A1 (en) Spoofing attack detection during live image capture
US8943581B2 (en) Controlled access to functionality of a wireless device
EP2580711B1 (en) Distinguishing live faces from flat surfaces
US11314966B2 (en) Facial anti-spoofing method using variances in image properties
US11256938B2 (en) Method and apparatus with liveness testing
JP7253691B2 (en) Verification device and verification method
KR102257897B1 (en) Apparatus and method for liveness test,and apparatus and method for image processing
KR20210062381A (en) Liveness test method and liveness test apparatus, biometrics authentication method and biometrics authentication apparatus
US9501719B1 (en) System and method for verification of three-dimensional (3D) object
KR101725219B1 (en) Method for digital image judging and system tereof, application system, and authentication system thereof
US11244182B2 (en) Spoof detection by estimating subject motion from captured image frames
KR102050590B1 (en) Method for digital image judging and system tereof, application system, and authentication system thereof
KR20170076895A (en) Method for digital image judging and system tereof, application system, and authentication system thereof
JP2021005149A (en) Biometric detection device, biometric authentication device, computer program, and biometric detection method
KR102483647B1 (en) Method and device to verify liveness
KR20210001270A (en) Method and apparatus for blur estimation
KR20120131819A (en) Body Detection System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant