KR20160037115A - Apparatus and method of processing images - Google Patents

Apparatus and method of processing images Download PDF

Info

Publication number
KR20160037115A
KR20160037115A KR1020150136990A KR20150136990A KR20160037115A KR 20160037115 A KR20160037115 A KR 20160037115A KR 1020150136990 A KR1020150136990 A KR 1020150136990A KR 20150136990 A KR20150136990 A KR 20150136990A KR 20160037115 A KR20160037115 A KR 20160037115A
Authority
KR
South Korea
Prior art keywords
image
interest
region
resolution
portion corresponding
Prior art date
Application number
KR1020150136990A
Other languages
Korean (ko)
Other versions
KR102374022B1 (en
Inventor
디브야 파티다르
가야뜨리 라마누잠
파니쉬 하나갈 스리니바사 라오
벤카트 라마나 페디가리
아누라그 미트하랄 제인
빈디간 하리프라산나 파완 프라사드
로카 수드하르산 레디
스리바트사 드와라카 브하미디파티
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2015/010259 priority Critical patent/WO2016048108A1/en
Priority to US14/866,049 priority patent/US10229478B2/en
Publication of KR20160037115A publication Critical patent/KR20160037115A/en
Application granted granted Critical
Publication of KR102374022B1 publication Critical patent/KR102374022B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

A described embodiment relates to an image processing device and a method thereof which improve quality of a displayed image when the image is enlarged and displayed. The image processing method comprises the following steps of: preparing a first image; designating at least one region of interest (ROI) in the first image; and generating restoration data. A second image restored by using the restoration data corresponds to the ROI. The resolution of the second image is higher than the resolution of a portion corresponding to the ROI in the first image.

Description

영상 처리 장치 및 방법{APPARATUS AND METHOD OF PROCESSING IMAGES}[0001] APPARATUS AND METHOD OF PROCESSING IMAGES [0002]

기재된 실시예는 영상을 확대하여 표시할 때 표시된 영상의 품질을 향상시킬 수 있는 영상 처리 장치 및 방법에 관한 것이다.The embodiments described herein are related to an image processing apparatus and method capable of improving the quality of an image displayed when an image is enlarged and displayed.

통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말기가 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 개인용 휴대 단말기가 널리 보급되고 있다. 또한, 소형 카메라 기술 및 디스플레이 기술의 발전에 따라 대부분의 스마트폰에는 카메라 모듈 및 디스플레이가 포함되어 있다. 대부분의 디지털 카메라에도 카메라 모듈 및 디스플레이가 포함되어 있다.With the development of communication technologies and the miniaturization of electronic devices, personal terminals have become widespread to general consumers. In recent years, personal portable terminals such as a smart phone or a smart tablet have become widespread. In addition, with the development of small camera technology and display technology, most smart phones include camera modules and displays. Most digital cameras also include camera modules and displays.

사용자는 스마트폰 또는 디지털 카메라와 같이 카메라 모듈 및 디스플레이를 포함하는 전자장치를 이용하여 영상을 촬영할 수 있다. 사용자는 전자장치에 포함된 디스플레이를 이용하여 상기 촬영된 영상을 확인할 수 있다. 사용자는 영상을 보다 자세히 살펴보기 위하여 영상의 확대에 대응하는 터치입력을 전자장치에 입력할 수 있다. 상기 터치입력에 대한 응답으로, 전자장치는 영상의 일부를 확대하여 표시할 수 있다.The user can take an image using an electronic device including a camera module and a display, such as a smart phone or a digital camera. The user can confirm the photographed image using a display included in the electronic device. The user can input a touch input corresponding to the enlargement of the image to the electronic device in order to observe the image more closely. In response to the touch input, the electronic device can enlarge and display a part of the image.

영상의 원본 해상도를 초과하여 영상을 확대한 경우, 표시된 영상의 품질은 낮을 수 있다. 예를 들어, 영상의 원본 해상도가 1600만 화소이고 디스플레이의 해상도가 200만 화소인 경우, 표시되는 영상의 품질의 저하 없이 상기 디스플레이 상에 표시할 수 있는 최대 확대 배율은 sqrt(16/2) = 2.828(배)일 수 있다. 2.828배를 초과하여 영상을 확대한 경우 영상의 품질은 업스케일링으로 인하여 열화(deterioration)될 수 있다.If the image is enlarged beyond the original resolution of the image, the quality of the displayed image may be low. For example, if the original resolution of the image is 16 million pixels and the resolution of the display is 2 million pixels, the maximum enlargement magnification that can be displayed on the display without degrading the displayed image quality is sqrt (16/2) = 2.828 (times). If the image is enlarged beyond 2.828 times, the quality of the image may be deteriorated due to up-scaling.

기재된 실시예에 따르면 영상을 확대하여 표시할 때 표시된 영상의 품질을 향상시킬 수 있는 영상 처리 장치 및 방법이 제공될 수 있다.According to the embodiments described above, an image processing apparatus and method capable of improving the quality of an image displayed when an image is enlarged and displayed can be provided.

또한, 실시예에 따르면 영상의 품질을 향상시키기 위해 필요로 하는 추가적인 저장공간의 크기를 감소시킬 수 있는 영상 처리 장치 및 방법이 제공될 수 있다.In addition, according to the embodiment, an image processing apparatus and method that can reduce the size of an additional storage space required for improving the quality of an image can be provided.

실시예에 따른 영상 처리 방법은, 제1영상을 준비하는 단계, 상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계, 및 복원 데이터를 생성하는 단계를 포함하고, 상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.An image processing method according to an exemplary embodiment of the present invention includes preparing a first image, designating at least one region of interest (ROI) in the first image, and generating reconstruction data A second image reconstructed using the reconstructed data corresponds to the ROI and a resolution of the second image may be higher than a resolution of a portion corresponding to the ROI in the first image.

또한, 상기 제1영상은 대상에 대해 촬영된 영상이고, 상기 복원 데이터를 생성하는 단계는, 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하는 단계, 및 상기 제1영상 및 상기 복원 데이터를 저장하는 단계를 포함할 수 있다.The generating of the reconstructed data may include generating reconstructed data of a portion corresponding to the region of interest in the first image, And storing the restoration data.

또한, 상기 제1영상은 대상으로부터 반사된 빛을 이용하여 생성된 미리보기(preview) 영상이고, 상기 제1영상을 준비하는 단계는, 상기 미리보기 영상을 디스플레이에 표시하는 단계를 포함하고, 상기 복원 데이터를 생성하는 단계는, 상기 대상에 대한 제3영상을 촬영하는 단계, 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하는 단계, 및 상기 제3영상 및 상기 복원 데이터를 저장하는 단계를 포함할 수 있다.In addition, the first image may be a preview image generated using light reflected from a subject, and the step of preparing the first image may include displaying the preview image on a display, The step of generating reconstruction data may include the steps of: capturing a third image of the object; generating reconstruction data of a portion corresponding to the region of interest in the third image; And the like.

또한, 상기 복원 데이터를 생성하는 단계는, 상기 대상에 대한 복수의 영상을 촬영하는 단계, 및 상기 복수의 영상 중에서 적어도 일부를 이용하여 상기 관심영역에 대한 슈퍼레졸루션(super resolution) 영상을 생성하는 단계를 포함할 수 있다.The generating of the reconstructed data may include capturing a plurality of images of the object, and generating a super resolution image of the ROI using at least a part of the plurality of images, . ≪ / RTI >

또한, 상기 복원 데이터를 생성하는 단계는, 상기 제3영상 내에서 상기 관심영역에 대응하는 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터를 생성하는 단계를 더 포함할 수 있다.The generating of the restoration data may further include generating comparison data indicating a difference between a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest in the super resolution image .

또한, 상기 복원 데이터를 생성하는 단계는, 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택하는 단계, 상기 선택된 각각의 해상도로 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링함으로써 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만드는 단계, 및 상기 제3영상 내에서 상기 관심영역에 대응하는 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 서로 비교함으로써 상기 선택된 각각의 해상도에 대한 비교 데이터를 생성하는 단계를 더 포함할 수 있다.The generating of the reconstruction data may include generating at least one of the resolutions in the third image that are larger than the resolution of the portion corresponding to the ROI and smaller than or equal to the resolution of the portion corresponding to the ROI in the super resolution image, Scaling the portion corresponding to the region of interest in the third image with each of the selected resolutions or downscaling a portion corresponding to the region of interest within the super resolution image, Making a resolution of a portion corresponding to the region of interest in the image and a resolution of a portion corresponding to the region of interest in the super resolution image equal to each other; A portion corresponding to the region of interest in the super resolution image And generating comparison data for each of the selected resolutions by comparing them with each other.

또한, 상기 적어도 하나 이상의 관심영역을 지정하는 단계는, 상기 미리보기 영상을 복수의 영역으로 분할하는 단계, 상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하는 단계, 및 상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정하는 단계를 포함할 수 있다.In addition, the step of designating the at least one region of interest may include: dividing the preview image into a plurality of regions, determining whether or not an object of interest (OOI) is included in each region And designating at least one of the plurality of areas as the ROI according to the determination result.

또한, 상기 적어도 하나 이상의 관심영역을 지정하는 단계는, 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계, 및 상기 검출된 영역을 상기 관심영역으로 지정하는 단계를 포함할 수 있다.In addition, the step of designating the at least one region of interest may include the steps of: detecting a position of an object of interest in the preview image by analyzing the preview image, performing image segmentation using the detected position, Detecting an area corresponding to the object, and designating the detected area as the area of interest.

또한, 상기 관심대상의 위치를 검출하는 단계는, 상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하는 단계, 상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출하는 단계, 상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하는 단계, 및 상기 미리보기 영상 내에서 초점의 위치를 검출하는 단계를 포함할 수 있다.The detecting of the position of the object of interest may include detecting a position of a high frequency component in the preview image, performing a face recognition on the preview image, Detecting a position of the preview image, detecting the position of the text by performing optical character recognition (OCR) on the preview image, and detecting the position of the focus within the preview image .

또한, 상기 적어도 하나 이상의 관심영역을 지정하는 단계는, 사용자로부터 드래그 입력을 수신하는 단계, 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하는 단계, 사용자로부터 탭 입력을 수신하는 단계, 상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하는 단계, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하는 단계, 및 상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정하는 단계를 포함할 수 있다.The step of designating the at least one region of interest may further comprise receiving a drag input from a user, detecting a first region corresponding to the drag input within the preview image, receiving a tap input from a user Detecting a position corresponding to the tap input in the preview image, detecting a second region by performing image segmentation using the detected position, and detecting the first region and the second region, To the region of interest.

또한, 상기 적어도 하나 이상의 관심영역을 지정하는 단계는, 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계, 상기 미리보기 영상 상에 상기 검출된 영역을 표시하는 단계, 사용자로부터 탭 입력을 수신하는 단계, 상기 검출된 영역 중에서 상기 탭 입력에 대응하는 영역을 선택하거나 선택해제하는 단계, 사용자로부터 드래그 입력을 수신하는 단계, 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제3영역을 검출하는 단계, 및 상기 선택된 영역 및 상기 제3영역을 상기 관심영역으로 지정하는 단계를 포함할 수 있다.In addition, the step of designating the at least one region of interest may include the steps of: detecting a position of an object of interest in the preview image by analyzing the preview image, performing image segmentation using the detected position, Displaying the detected area on the preview image, receiving a tap input from a user, selecting an area corresponding to the tab input from the detected area, selecting or selecting an area corresponding to the tab input from the detected area, Receiving a drag input from a user, detecting a third region corresponding to the drag input within the preview image, and designating the selected region and the third region as the region of interest . ≪ / RTI >

또한, 상기 영상 처리 방법은, 상기 저장된 제3영상 및 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 표시하는 단계, 사용자로부터 입력을 수신하는 단계, 상기 수신된 입력을 이용하여 상기 디스플레이의 해상도를 기준으로 한 확대 배율을 결정하는 단계, 상기 확대 배율 및 상기 복원 데이터를 이용하여 상기 제3영상의 확대 영상을 생성하는 단계, 및 상기 확대 영상을 표시하는 단계를 더 포함할 수 있다.The image processing method may further include displaying a portion corresponding to the region of interest in the stored third image and the third image, receiving an input from a user, receiving the input from the user using the received input, Generating an enlarged image of the third image using the enlargement magnification and the restored data, and displaying the enlarged image based on the enlargement magnification and the reconstruction data.

또한, 상기 확대 영상을 생성하는 단계는, 상기 확대 배율이 1보다 크고 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 작은 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 다운스케일링함으로써 상기 확대 영상을 생성하는 단계, 및 상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근과 서로 동일한 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 잘라냄(crop)으로써 상기 확대 영상을 생성하는 단계를 포함할 수 있다.The step of generating the enlarged image may further include a step of displaying a portion to be displayed on the display in the third image when the enlargement magnification is larger than 1 and the resolution of the third image is smaller than a square root of a quotient of dividing the resolution of the third image by the resolution of the display Scaling down the portion to be displayed on the display in the third image if the enlargement magnification is equal to the square root of the quotient of the division of the resolution of the third image by the resolution of the display, And enlarging the enlarged image by cropping the enlarged image.

또한, 상기 확대 영상을 생성하는 단계는, 상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 크고, 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작거나 같은 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 업스케일링함으로써 부분 영상을 생성하는 단계, 및 상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 부분 영상에 대응하는 부분을 상기 부분 영상과 합성함으로써 상기 확대 영상을 생성하는 단계를 포함할 수 있다.The step of generating the enlarged image may further include the step of dividing the resolution of the third image by the square of the quotient obtained by dividing the resolution of the third image by the resolution of the display, If the resolution of a portion corresponding to the RO in the super resolution image is smaller than or equal to a value obtained by multiplying a square root of a quotient obtained by dividing the resolution of a portion corresponding to the RO in the third image, Generating a partial image by upscaling a portion to be displayed on the display in the display unit and generating the enlarged image by combining a portion corresponding to the enlargement ratio and the partial image from the stored restored data with the partial image, .

또한, 상기 확대 영상을 생성하는 단계는, 상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 크고, 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작은 경우 상기 제3영상 내의 상기 디스플레이에 표시될 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성하는 단계, 상기 제3영상 내의 상기 디스플레이에 표시될 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성하는 단계, 상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성함으로써 슈퍼레졸루션 부분 영상을 생성하는 단계, 및 상기 슈퍼레졸루션 부분 영상 및 상기 제2부분영상을 결합함으로써 상기 확대 영상을 생성하는 단계를 포함할 수 있다.The step of generating the enlarged image may further include the step of dividing the resolution of the third image by the square of the quotient obtained by dividing the resolution of the third image by the resolution of the display, In a case where the resolution of a portion corresponding to the region of interest in the super resolution image is smaller than a value obtained by multiplying a square root of a quotient obtained by dividing the resolution of a portion corresponding to the region of interest in the third image by the resolution of the portion corresponding to the region of interest, Scaling a portion corresponding to the region of interest from among the portions to be displayed on the display to generate a first partial image, upscaling another portion not corresponding to the region of interest among the portions to be displayed on the display in the third image Generating a second partial image from the restored data; Generating a super resolution partial image by combining a portion corresponding to the first partial image with the first partial image, and generating the enlarged image by combining the super resolution partial image and the second partial image can do.

또한, 상기 확대 영상을 생성하는 단계는, 상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 큰 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 업스케일링함으로써 부분 영상을 생성하는 단계, 및 상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 부분 영상에 대응하는 부분을 상기 부분 영상과 합성하는 단계, 및 상기 합성된 영상을 업스케일링함으로써 상기 확대 영상을 생성하는 단계를 포함할 수 있다.The step of generating the enlarged image may further include the step of, when the enlargement magnification is equal to the square root of a quotient of the resolution of the third image divided by the resolution of the display, the resolution of the portion corresponding to the region of interest in the super resolution image, Generating a partial image by upscaling a portion to be displayed in the display in the third image when the square is greater than a value obtained by multiplying the square root of the quotient divided by the resolution of the portion corresponding to the region of interest in the 3 images, Synthesizing a portion corresponding to the enlargement ratio and the partial image from the reconstruction data with the partial image, and generating the enlarged image by upscaling the synthesized image.

다른 실시예에 따른 영상 처리 방법은, 저장된 영상 및 상기 영상 내에서 관심영역에 대응하는 부분을 표시하는 단계, 사용자로부터 입력을 수신하는 단계, 상기 수신된 입력을 이용하여 확대 배율을 결정하는 단계, 상기 영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 이용하여 상기 확대 배율에 대응하는 확대 영상을 생성하는 단계, 및 상기 확대 영상을 표시하는 단계를 포함하고, 상기 확대 영상은 상기 관심영역에 대응하고, 상기 확대 영상의 해상도는 상기 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.According to another embodiment of the present invention, there is provided an image processing method comprising: displaying a stored image and a portion corresponding to a region of interest in the image; receiving an input from a user; determining an enlargement magnification using the received input; Generating an enlarged image corresponding to the enlargement magnification using reconstruction data of a portion corresponding to the region of interest in the image, and displaying the enlarged image; And the resolution of the enlarged image may be higher than the resolution of the portion corresponding to the region of interest in the image.

실시예에 따른 영상 처리 장치는, 대상으로부터 반사된 빛을 수신하는 수광부, 및 상기 수신된 빛을 이용하여 제1영상을 준비하고, 상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하고, 복원 데이터를 생성하는 제어부를 포함하고, 상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.An image processing apparatus according to an embodiment of the present invention includes a light receiving unit that receives light reflected from an object, and a second image processing unit that prepares a first image using the received light, Wherein the second image restored using the restored data corresponds to the region of interest and the resolution of the second image corresponds to the region of interest in the first image, May be higher than the resolution of the portion corresponding to the region.

또한, 상기 영상 처리 장치는, 저장부를 더 포함하고, 상기 제1영상은 상기 대상에 대해 촬영된 영상이고, 상기 제어부는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하고, 상기 저장부는 상기 제1영상 및 상기 복원 데이터를 저장할 수 있다.The image processing apparatus may further include a storage unit, wherein the first image is an image photographed for the object, and the control unit generates restoration data corresponding to the region of interest in the first image And the storage unit may store the first image and the restored data.

또한, 상기 영상 처리 장치는, 상기 수신된 빛을 이용하여 미리보기(preview) 영상을 생성하는 영상신호처리부, 상기 미리보기 영상을 표시하는 표시부, 및 저장부를 더 포함하고, 상기 제1영상은 상기 미리보기(preview) 영상이고, 상기 제어부는 상기 수광부 및 상기 영상신호처리부를 제어함으로써 상기 대상에 대한 제3영상을 촬영하고, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하고, 상기 저장부는 상기 제3영상 및 상기 복원 데이터를 저장할 수 있다.The image processing apparatus may further include a video signal processing unit for generating a preview image using the received light, a display unit for displaying the preview image, and a storage unit, Wherein the controller captures a third image of the object by controlling the light receiving unit and the image signal processing unit, and the control unit performs a restoration of a portion corresponding to the ROI in the third image, And the storage unit may store the third image and the restored data.

또한, 상기 복원 데이터는 상기 관심영역에 대한 슈퍼레졸루션 영상일 수 있다.Also, the restoration data may be a super resolution image for the ROI.

또한, 상기 복원 데이터는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분 및 상기 제3영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터일 수 있다.The restoration data may be comparison data representing a difference between a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest in the super resolution image corresponding to the third image.

또한, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 크고 상기 제3영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택하고, 상기 제어부는 상기 선택된 각각의 해상도로 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링함으로써 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만들고, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 서로 비교함으로써 상기 선택된 각각의 해상도에 대한 상기 복원 데이터를 생성할 수 있다.In addition, the controller may select at least one of resolutions that are larger than the resolution of the portion corresponding to the ROI in the third image and smaller than or equal to the resolution of the portion corresponding to the ROI in the super resolution image corresponding to the third image, Wherein the control unit scales up a portion corresponding to the region of interest in the third image with each of the selected resolutions or downscales a portion corresponding to the region of interest within the super resolution image, The resolution of the portion corresponding to the ROI in the third image and the resolution of the portion corresponding to the ROI in the super resolution image are made equal to each other, And a region of interest in the super resolution image By comparing the part with each other can generate the reconstruction data for each of the selected resolution.

또한, 상기 제어부는 상기 미리보기 영상을 복수의 영역으로 분할하고, 상기 제어부는 상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하고, 상기 제어부는 상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정할 수 있다.The control unit may divide the preview image into a plurality of areas, and the control unit may determine whether or not an object of interest (OOI) is included in each of the areas, Accordingly, at least one of the plurality of regions can be designated as the region of interest.

또한, 상기 제어부는 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하고, 상기 제어부는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하고, 상기 제어부는 상기 검출된 영역을 상기 관심영역으로 지정할 수 있다.In addition, the controller detects the position of the object of interest in the preview image by analyzing the preview image, and the controller performs image segmentation using the detected position to detect the region corresponding to the object of interest And the control unit may designate the detected area as the area of interest.

또한, 상기 영상 처리 장치는, 드래그 입력을 수신하는 입력부를 더 포함하고, 상기 제어부는 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하고, 상기 입력부는 탭 입력을 더 수신하고, 상기 제어부는 상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하고, 상기 제어부는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하고, 상기 제어부는 상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정할 수 있다.The image processing apparatus may further include an input unit for receiving a drag input, wherein the control unit detects a first area corresponding to the drag input in the preview image, and the input unit further receives a tap input , The controller detects a position corresponding to the tap input in the preview image and the controller detects a second region by performing image segmentation using the detected position, And the second region as the region of interest.

또한, 상기 영상 처리 장치는, 입력을 수신하는 입력부를 더 포함하고, 상기 제어부는 상기 수신된 입력을 이용하여 상기 표시부의 해상도를 기준으로 한 확대 배율을 결정하고, 상기 제어부는 상기 확대 배율 및 상기 복원 데이터를 이용하여 상기 제3영상의 확대 영상을 생성하고, 상기 표시부는 상기 생성된 확대 영상을 표시할 수 있다.Further, the image processing apparatus may further include an input unit for receiving an input, and the control unit may determine an enlargement magnification based on the resolution of the display unit using the received input, An enlarged image of the third image is generated using restoration data, and the display unit displays the enlarged image.

또 다른 실시예에 따른 영상 처리 방법은, 제1영상을 준비하는 단계, 상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계, 상기 제1영상을 이용하여 상기 관심영역에 대응하는 복원 데이터를 생성하는 단계, 상기 제1영상을 압축하여 압축 영상을 생성하는 단계; 및 상기 압축 영상 및 상기 복원 데이터를 저장하는 단계를 포함할 수 있다.According to another embodiment of the present invention, there is provided an image processing method comprising the steps of: preparing a first image; designating at least one region of interest (ROI) within the first image; Generating restored data corresponding to a region of interest, compressing the first image to generate a compressed image; And storing the compressed image and the restored data.

또한, 상기 영상 처리 방법은, 상기 복원 데이터를 이용하여 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분을 복원함으로써 복원 영상을 생성하는 단계, 및 상기 복원 영상을 표시하는 단계를 더 포함하고, 상기 복원 영상은 상기 관심영역에 대응하고, 상기 복원 영상의 해상도는 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.The image processing method may further include generating a restored image by restoring a portion corresponding to the region of interest in the compressed image using the restored data, and displaying the restored image, The reconstructed image corresponds to the region of interest and the resolution of the reconstructed image may be higher than the resolution of the portion corresponding to the region of interest in the compressed image.

기재된 실시예에 따르면 영상이 확대되어 표시될 때 표시된 영상의 품질이 향상될 수 있다.According to the described embodiment, the quality of the displayed image can be improved when the image is enlarged and displayed.

또한, 실시예에 따르면 영상의 품질을 향상시키기 위해 필요로 하는 추가적인 저장공간의 크기가 감소될 수 있다.Further, according to the embodiment, the size of the additional storage space required for improving the quality of the image can be reduced.

도 1은 실시예에 따른 영상 처리 장치의 구성을 나타내는 블록도이다.
도 2는 실시예에 따른 영상 처리 방법이 수행되는 과정을 나타내는 순서도이다.
도 3은 실시예에 따라 영상 처리 장치에 표시된 미리보기 영상이다.
도 4는 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 5는 실시예에 따라 복수의 영역으로 분할된 미리보기 영상이다.
도 6은 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 7은 실시예에 따라 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 8은 다른 실시예에 따른 미리보기 영상이다.
도 9는 도 8에 도시된 미리보기 영상 내에서 고주파요소의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.
도 10은 또 다른 실시예에 따른 미리보기 영상이다.
도 11은 도 10에 도시된 미리보기 영상 내에서 안면의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.
도 12는 또 다른 실시예에 따른 미리보기 영상이다.
도 13은 도 12에 도시된 미리보기 영상 내에서 텍스트의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.
도 14는 또 다른 실시예에 따른 미리보기 영상이다.
도 15는 도 14에 도시된 미리보기 영상 내에서 초점의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.
도 16은 또 다른 실시예에 따라 미리보기 영상 내에서 관심대상에 대응하는 영역을 검출한 결과를 나타내는 화면이다.
도 17은 또 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 18은 또 다른 실시예에 따른 미리보기 영상이다.
도 19는 도 18에 도시된 미리보기 영상 내에서 사용자의 입력에 대한 응답으로 관심영역을 지정한 결과를 나타내는 화면이다.
도 20은 또 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 21은 도 18에 도시된 미리보기 영상 상에 관심대상에 대응하는 영역을 표시한 결과를 나타내는 화면이다.
도 22는 실시예에 따라 제1영상 및 복원 데이터를 저장하는 단계를 설명하기 위한 참고도이다.
도 23은 실시예에 따라 복원 데이터를 이용하여 확대 영상을 생성하고 표시하는 방법이 수행되는 과정을 나타내는 순서도이다.
도 24는 영상 처리 장치에 표시된 갤러리 화면 내의 하나의 썸네일에 대해 사용자로부터 터치 입력이 수신된 경우를 나타내는 화면이다.
도 25는 영상 처리 장치에 표시된 영상에 대해 사용자로부터 핀치 아웃(pinch out) 입력이 수신된 경우를 나타내는 화면이다.
도 26은 영상 처리 장치에 표시된 영상에 대해 사용자로부터 드래그(drag) 입력이 수신된 경우를 나타내는 화면이다.
도 27은 실시예에 따라 복원 데이터를 이용하여 확대 배율에 대응하는 확대 영상을 생성하는 단계를 설명하기 위한 참고도이다.
도 28은 실시예에 따라 확대 영상을 표시한 결과를 나타내는 화면이다.
도 29는 실시예에 따른 영상 처리 방법이 수행되는 과정을 설명하기 위한 참고도이다.
도 30은 실시예에 따른 영상 처리 방법이 수행되는 과정을 설명하기 위한 다른 참고도이다.
도 31은 다른 실시예에 따른 영상 처리 방법이 수행되는 과정을 설명하기 위한 참고도이다.
도 32는 다른 실시예에 따른 영상 처리 방법이 수행되는 과정을 설명하기 위한 다른 참고도이다.
1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment.
2 is a flowchart illustrating a process of performing an image processing method according to an embodiment.
3 is a preview image displayed on the image processing apparatus according to the embodiment.
4 is a flowchart illustrating a process of designating a region of interest in a preview image according to an exemplary embodiment of the present invention.
5 is a preview image divided into a plurality of regions according to an embodiment.
FIG. 6 is a flowchart illustrating a process of specifying a region of interest in a preview image according to another embodiment.
FIG. 7 is a flowchart illustrating a process of detecting a position of an object of interest in a preview image according to an exemplary embodiment of the present invention.
8 is a preview image according to another embodiment.
9 is a view showing the result of detecting the position of the high frequency component in the preview image shown in FIG. 8 and performing image segmentation.
10 is a preview image according to another embodiment.
11 is a view showing a result of detecting the position of the face in the preview image shown in FIG. 10 and performing image segmentation.
12 is a preview image according to another embodiment.
FIG. 13 is a view showing a result of detecting the position of a text in the preview image shown in FIG. 12 and performing image segmentation.
14 is a preview image according to another embodiment.
FIG. 15 is a view showing the result of detecting the position of the focus in the preview image shown in FIG. 14 and performing image segmentation.
16 is a view showing a result of detecting a region corresponding to an object of interest in a preview image according to another embodiment.
FIG. 17 is a flowchart illustrating a process of specifying a region of interest in a preview image according to another embodiment.
18 is a preview image according to another embodiment.
FIG. 19 is a view showing a result of designating a region of interest in response to a user's input in the preview image shown in FIG.
FIG. 20 is a flowchart illustrating a process of specifying a region of interest in a preview image according to another embodiment.
21 is a screen showing a result of displaying an area corresponding to an object of interest on the preview image shown in Fig.
22 is a reference diagram for explaining a step of storing the first image and the restored data according to the embodiment.
23 is a flowchart illustrating a process of generating and displaying an enlarged image using restoration data according to an embodiment of the present invention.
24 is a screen showing a case where a touch input is received from a user for one thumbnail in the gallery screen displayed on the image processing apparatus.
25 is a screen showing a case where a pinch-out input is received from a user for an image displayed on the image processing apparatus.
26 is a screen showing a case where a drag input is received from a user for an image displayed on the image processing apparatus.
27 is a reference diagram for explaining a step of generating an enlarged image corresponding to an enlargement magnification using restoration data according to an embodiment.
28 is a screen showing a result of displaying an enlarged image according to the embodiment.
29 is a reference diagram for explaining a process of performing the image processing method according to the embodiment.
30 is another reference diagram for explaining the process of performing the image processing method according to the embodiment.
31 is a reference diagram for explaining a process of performing an image processing method according to another embodiment.
32 is another reference diagram for explaining a process of performing an image processing method according to another embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.Although "first" or "second" and the like are used to describe various components, such components are not limited by such terms. Such terms may be used to distinguish one element from another. Therefore, the first component mentioned below may be the second component within the technical spirit of the present invention.

본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. &Quot; comprises "or" comprising "as used herein mean that the stated element or step does not exclude the presence or addition of one or more other elements or steps.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms used herein are to be construed in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

이하에서는, 도 1 내지 도 32을 참조하여 실시예에 따른 영상 처리 장치(100) 및 영상 처리 방법에 대해 상세히 설명하기로 한다.Hereinafter, the image processing apparatus 100 and the image processing method according to the embodiment will be described in detail with reference to FIG. 1 to FIG.

도 1은 실시예에 따른 영상 처리 장치(100)의 구성을 나타내는 블록도이다. 영상 처리 장치(100)는 예를 들어, 랩탑 컴퓨터, 스마트폰, 스마트 태블릿, 이동 단말기, 디지털 카메라, 또는 휴대용 전자기기 등일 수 있다. 도 1을 참조하면, 영상 처리 장치(100)는 수광부(110), 영상신호처리부(120), 제어부(130), 표시부(140), 입력부(150), 및 저장부(160)를 포함할 수 있다.1 is a block diagram showing a configuration of an image processing apparatus 100 according to an embodiment. The image processing apparatus 100 may be, for example, a laptop computer, a smart phone, a smart tablet, a mobile terminal, a digital camera, or a portable electronic device. 1, the image processing apparatus 100 may include a light receiving unit 110, a video signal processing unit 120, a control unit 130, a display unit 140, an input unit 150, and a storage unit 160 have.

수광부(110)는 대상으로부터 반사되는 빛을 수신할 수 있다. 수광부(110)는 대상을 촬영할 수 있다. 수광부(110)는 대상의 모습을 영상으로서 촬영할 수 있다. 수광부(110)는 사진, 동영상, 정지 영상(still images), 연속 영상(burst images), 또는 비디오(videos) 등을 촬영할 수 있다. 수광부(110)는 카메라 센서, 카메라 모듈, 렌즈, 또는 광학 소자를 포함할 수 있다. 수광부(110)는 예를 들어, CCD 센서 또는 CMOS 센서를 포함할 수 있다.The light receiving unit 110 can receive light reflected from the object. The light receiving unit 110 can capture an object. The light receiving unit 110 can take a picture of the object as an image. The light receiving unit 110 may photograph a photograph, a moving image, a still image, a burst image, or a video. The light receiving unit 110 may include a camera sensor, a camera module, a lens, or an optical element. The light receiving portion 110 may include, for example, a CCD sensor or a CMOS sensor.

수광부(110)는 상기 수신된 빛을 이용하여 원시 영상(raw image)을 생성할 수 있다. 원시 영상은 예를 들어, 베이어 포맷(Bayer format)으로 구성될 수 있다.The light receiving unit 110 may generate a raw image using the received light. The source image may be composed of, for example, a Bayer format.

영상신호처리부(120)는 상기 원시 영상을 처리할 수 있다. 영상신호처리부(120)는 베이어 포멧으로 구성된 원시 영상을 처리함으로써 RGB 영상을 생성할 수 있다. 영상신호처리부(120)는 상기 원시 영상을 처리함으로써 미리보기(preview) 영상을 생성할 수 있다. 영상신호처리부(120)는 영상 신호 프로세서(image signal processor)를 포함할 수 있다.The image signal processing unit 120 may process the original image. The image signal processing unit 120 can generate an RGB image by processing a raw image composed of Bayer format. The video signal processing unit 120 may generate a preview image by processing the raw image. The image signal processing unit 120 may include an image signal processor.

제어부(130)는 영상 처리 장치(100)에 포함된 각각의 구성요소 및 영상 처리 장치(100)의 동작을 제어할 수 있다. 제어부(130)는 연산을 수행할 수 있다. 제어부(130)는 영상을 처리할 수 있다. 제어부(130)는 영상의 후처리(post processing)를 수행할 수 있다. 제어부(130)는 영상을 분석할 수 있다. 제어부(130)는 사용자로부터의 입력에 대한 응답으로, 영상 처리 장치(100)의 동작을 제어하거나 영상을 제어할 수 있다. 제어부(130)는 상기 미리보기 영상을 처리함으로써 데이터를 생성할 수 있다.The control unit 130 can control the operation of each component included in the image processing apparatus 100 and the image processing apparatus 100. The control unit 130 may perform an operation. The control unit 130 can process the image. The control unit 130 may perform post processing of the image. The control unit 130 may analyze the image. The control unit 130 can control the operation of the image processing apparatus 100 or control the image in response to the input from the user. The control unit 130 can generate data by processing the preview image.

제어부(130)는 애플리케이션을 실행할 수 있다. 제어부(130)는 카메라 애플리케이션 또는 갤러리 애플리케이션을 실행할 수 있다. 제어부(130)는 카메라 애플리케이션을 통해 수광부(110), 영상신호처리부(120), 및 표시부(140)를 제어할 수 있다. 제어부(130)는 카메라 애플리케이션을 통해 수광부(110)가 대상을 촬영하도록 할 수 있다. 제어부(130)는 카메라 애플리케이션을 통해 표시부(140)가 촬영된 영상을 표시하도록 할 수 있다.The control unit 130 can execute the application. The control unit 130 may execute a camera application or a gallery application. The control unit 130 may control the light receiving unit 110, the video signal processing unit 120, and the display unit 140 through a camera application. The control unit 130 may cause the light receiving unit 110 to photograph the object through the camera application. The control unit 130 may cause the display unit 140 to display the photographed image through the camera application.

제어부(130)는 갤러리 애플리케이션을 통해 저장부(160) 및 표시부(140)를 제어할 수 있다. 제어부(130)는 갤러리 애플리케이션을 통해 저장부(160)에 저장된 영상을 표시부(140)가 표시하도록 할 수 있다.The control unit 130 may control the storage unit 160 and the display unit 140 through the gallery application. The control unit 130 may cause the display unit 140 to display the image stored in the storage unit 160 through the gallery application.

제어부(130)는 영상 처리 장치(100)에 포함된 각각의 구성요소와 연결될 수 있다. 제어부(130)는 예를 들어, 중앙처리장치(Central Processing Unit, CPU) 또는 마이크로프로세서(microprocessor)를 포함할 수 있다.The control unit 130 may be connected to each component included in the image processing apparatus 100. The control unit 130 may include, for example, a central processing unit (CPU) or a microprocessor.

표시부(140)는 상기 영상신호처리부(120)에 의해 처리된 원시 영상을 표시할 수 있다. 표시부(140)는 상기 미리보기 영상을 표시할 수 있다. 표시부(140)는 상기 제어부(130)에 의해 처리된 영상을 표시할 수 있다. 표시부(140)는 화면을 표시할 수 있다. 표시부(140)는 사용자 인터페이스를 표시할 수 있다. 표시부(140)는 사용자로부터의 입력에 대한 응답으로 다른 화면을 표시할 수 있다.The display unit 140 may display the raw image processed by the image signal processing unit 120. [ The display unit 140 can display the preview image. The display unit 140 may display an image processed by the controller 130. FIG. The display unit 140 can display a screen. The display unit 140 may display a user interface. The display unit 140 may display another screen in response to the input from the user.

표시부(140)는 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), PDP(Plasma Display Panel) 등의 평판 표시 장치를 포함할 수 있다. 또한, 표시부(140)는, 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)를 포함할 수 있다. 표시부(140)와 입력부(150)는, 터치스크린과 같이 일체로 구성될 수도 있고, 별개로 구성될 수도 있다.The display unit 140 may include a flat panel display device such as a liquid crystal display (LCD), an organic light emitting diode (OLED), or a plasma display panel (PDP). In addition, the display unit 140 may include a curved display or a flexible display. The display unit 140 and the input unit 150 may be integrally formed as a touch screen or separately.

입력부(150)는 외부로부터 입력을 수신할 수 있다. 입력부(150)는 영상 처리 장치(100)의 사용자로부터 입력을 수신할 수 있다. 입력부(150)는 예를 들어, 버튼, 터치스크린, 트랙볼, 카메라, 키보드, 마우스, 또는 지문 인식 장치 등일 수 있다.The input unit 150 can receive an input from the outside. The input unit 150 can receive an input from a user of the image processing apparatus 100. [ The input unit 150 may be, for example, a button, a touch screen, a trackball, a camera, a keyboard, a mouse, or a fingerprint recognition device.

입력부(150)는 터치스크린일 수 있다. 입력부(150)는 사용자로부터 터치 입력을 수신할 수 있다. 사용자는 터치 입력으로서 탭(tap) 입력, 드래그(drag) 입력, 스와이프(swipe) 입력, 슬라이드(slide) 입력, 플릭(flick) 입력, 핀치 인(pinch in) 입력, 핀치 아웃(pinch out) 입력, 또는 프레스 앤 홀드(press-and-hold) 입력 등을 입력할 수 있다.The input unit 150 may be a touch screen. The input unit 150 may receive a touch input from a user. A user may input a tap, a drag, a swipe, a slide, a flick, a pinch, or a pinch out as a touch input, Input, or a press-and-hold input.

저장부(160)는 상기 수광부(110)에 의해 생성된 원시 영상, 상기 영상신호처리부(120)에 의해 생성된 영상, 또는 상기 미리보기 영상 등을 저장할 수 있다. 또한, 저장부(160)는 상기 제어부(130)에 의해 처리된 영상, 또는 상기 제어부(130)에 의해 생성된 데이터 등을 저장할 수 있다.The storage unit 160 may store the raw image generated by the light receiving unit 110, the image generated by the image signal processing unit 120, or the preview image. The storage unit 160 may store the image processed by the control unit 130 or the data generated by the control unit 130, for example.

저장부(160)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. 저장부(160)는 예를 들어, 플래시(flash) 메모리, ROM, RAM, EEROM, EPROM, EEPROM, 하드디스크 드라이브(HDD, Hard Disk Drive), 또는 레지스터(register) 등일 수 있다. 저장부(160)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다. The storage unit 160 may be a volatile memory or a non-volatile memory. The storage unit 160 may be, for example, a flash memory, a ROM, a RAM, an EEROM, an EPROM, an EEPROM, a hard disk drive (HDD), or a register. The storage 160 may include, for example, a file system, a database, or an embedded database.

도 2는 실시예에 따른 영상 처리 방법이 수행되는 과정을 나타내는 순서도이다.2 is a flowchart illustrating a process of performing an image processing method according to an embodiment.

도 2를 참조하면, 실시예에 따른 영상 처리 방법에서는, 먼저, 대상으로부터 반사된 빛을 수신하는 단계(S100)가 수행될 수 있다. 예를 들어, 제어부(130)는 카메라 애플리케이션을 실행할 수 있다. 제어부(130)는 카메라 애플리케이션을 통해 수광부(110)를 제어할 수 있다. 수광부(110)는 대상으로부터 반사된 빛을 수신할 수 있다. 수광부(110)는 상기 수신된 빛을 이용하여 원시 영상을 생성할 수 있다.Referring to FIG. 2, in the image processing method according to the embodiment, the step S100 of receiving reflected light from the object may be performed first. For example, the control unit 130 may execute a camera application. The control unit 130 may control the light receiving unit 110 through a camera application. The light receiving unit 110 can receive the light reflected from the object. The light receiving unit 110 may generate a raw image using the received light.

다음으로, 상기 수신된 빛을 이용하여 미리보기(preview) 영상을 표시하는 단계(S200)가 수행될 수 있다. 영상신호처리부(120)는 상기 수신된 빛을 이용하여 생성된 원시 영상을 처리함으로써 미리보기 영상을 생성할 수 있다. 미리보기 영상은 대상의 모습을 실시간으로 나타낼 수 있다. 표시부(140)는 생성된 미리보기 영상을 표시할 수 있다.Next, a step S200 of displaying a preview image using the received light may be performed. The image signal processing unit 120 may generate a preview image by processing the original image generated using the received light. The preview image can display the object in real time. The display unit 140 can display the generated preview image.

도 3은 실시예에 따라 영상 처리 장치(100)에 표시된 미리보기 영상이다. 도 3을 참조하면, 미리보기 영상은 한 채의 건물의 영상 및 두 명의 사람의 영상을 포함할 수 있다.3 is a preview image displayed on the image processing apparatus 100 according to the embodiment. Referring to FIG. 3, the preview image may include an image of one building and an image of two people.

다시 도 2를 참조하면, 다음으로, 상기 미리보기 영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계(S300)가 수행될 수 있다. 제어부(130)는 미리보기 영상을 분석함으로써 적어도 하나 이상의 관심영역을 자동으로 지정할 수 있다. 또한, 제어부(130)는 사용자로부터의 입력에 대한 응답으로, 적어도 하나 이상의 관심영역을 지정할 수 있다. 또한, 제어부(130)는 미리보기 영상의 분석 결과가 표시부(140)에 표시된 이후에 사용자로부터 입력된 터치 입력에 대한 응답으로, 적어도 하나 이상의 관심영역을 지정할 수 있다.Referring again to FIG. 2, step S300 of designating at least one region of interest (ROI) in the preview image may be performed. The control unit 130 can automatically designate at least one region of interest by analyzing the preview image. In addition, the control unit 130 may designate at least one region of interest in response to the input from the user. In addition, the control unit 130 may designate at least one region of interest in response to the touch input inputted from the user after the analysis result of the preview image is displayed on the display unit 140. [

다시 말해서, 제어부(130)는 자동으로, 수동으로, 또는 하이브리드 방식으로 적어도 하나 이상의 관심영역을 표시할 수 있다. 적어도 하나 이상의 관심영역을 자동으로 지정하는 방법에 대하여는 도 6을 참조하여 후술하기로 한다. 또한, 적어도 하나 이상의 관심영역을 수동으로 지정하는 방법에 대하여는 도 17을 참조하여 후술하기로 한다. 또한, 적어도 하나 이상의 관심영역을 하이브리드 방식으로 지정하는 방법에 대하여는 도 20을 참조하여 후술하기로 한다. In other words, the control unit 130 may display at least one region of interest automatically, manually, or in a hybrid manner. A method of automatically designating at least one region of interest will be described later with reference to FIG. A method of manually designating at least one region of interest will be described later with reference to FIG. A method of designating at least one region of interest in a hybrid manner will be described later with reference to FIG.

관심영역은 상기 미리보기 영상 내의 적어도 일부에 대응할 수 있다. 이후에 영상이 촬영되고 상기 촬영된 영상에 대해 영상 처리가 수행될 때, 상기 영상의 전체 부분에 대해 영상 처리가 수행되는 대신에 상기 영역 내에서 상기 관심영역에 대응하는 부분에 대하여만 영상 처리가 수행될 수 있다. 이로써 영상 처리에 소요되는 시간을 단축시킬 수 있다. 또한, 영상 처리에 필요한 메모리의 크기를 줄일 수 있다. 또한, 영상 처리의 결과를 저장하는 데에 필요한 저장공간의 크기를 줄일 수 있다.The region of interest may correspond to at least a portion of the preview image. When the image is captured and the image processing is performed on the photographed image, image processing is performed on only a portion corresponding to the region of interest in the region, instead of performing the image processing on the entire portion of the image . This can shorten the time required for image processing. Also, the size of the memory required for image processing can be reduced. In addition, the size of the storage space required for storing the result of the image processing can be reduced.

하나의 영상 내에는 적어도 하나 이상의 관심영역이 포함될 수 있다. 관심영역은 하나의 폐곡선에 의해 특정되는 하나의 영역일 수 있다.At least one region of interest may be included in one image. The region of interest may be a region specified by one closed curve.

도 4는 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계(S300)가 수행되는 과정을 나타내는 순서도이다. 도 4를 참조하면, 먼저, 상기 미리보기 영상을 복수의 영역으로 분할하는 단계(S310)가 수행될 수 있다. 제어부(130)는 미리보기 영상을 복수의 영역으로 분할할 수 있다. 제어부(130)는 미리보기 영상을 2개 이상의 영역으로 분할할 수 있다. 제어부(130)는 미리보기 영상을 모두 균등한 크기의 복수의 영역으로 분할할 수 있다. 제어부(130)는 미리보기 영상을 균등하지 않은 크기의 복수의 영역으로 분할할 수 있다.4 is a flowchart illustrating a process of designating a region of interest (S300) in a preview image according to an exemplary embodiment of the present invention. Referring to FIG. 4, the step of dividing the preview image into a plurality of regions (S310) may be performed. The control unit 130 can divide the preview image into a plurality of areas. The control unit 130 may divide the preview image into two or more areas. The control unit 130 can divide the preview image into a plurality of areas of uniform size. The control unit 130 may divide the preview image into a plurality of regions of unequal size.

도 5는 실시예에 따라 복수의 영역으로 분할된 미리보기 영상이다. 제어부(130)는 도 5에 도시된 바와 같이, 도 3에 도시된 미리보기 영상을 9개의 영역으로 균등하게 분할할 수 있다. 도 5에 도시된 영역 중에서 2번째 행 및 2번째 열에 배치된 영역은 한 채의 건물의 영상을 포함할 수 있다. 도 5에 도시된 영역 중에서 2번째 행 및 3번째 열에 배치된 영역은 두 명의 사람의 영상을 포함할 수 있다.5 is a preview image divided into a plurality of regions according to an embodiment. As shown in FIG. 5, the control unit 130 can evenly divide the preview image shown in FIG. 3 into nine regions. The areas arranged in the second row and the second column among the areas shown in FIG. 5 may include images of one building. The regions arranged in the second row and the third column among the regions shown in FIG. 5 may include images of two persons.

다시 도 4를 참조하면, 다음으로, 상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하는 단계(S311)가 수행될 수 있다. 제어부(130)는 분할된 각각의 영역을 분석할 수 있다. 제어부(130)는 각각의 영역 내에 관심대상이 포함되어 있는지 여부를 판정할 수 있다.Referring again to FIG. 4, a step S311 of determining whether or not an object of interest (OOI) is included in each of the areas may be performed. The controller 130 may analyze the divided regions. The control unit 130 can determine whether or not an object of interest is included in each area.

관심대상은 미리 정의된 종류의 대상일 수 있다. 예를 들어, 건물, 사람, 동물, 식물, 상품, 또는 자연 현상 등의 종류가 미리 정의될 수 있다. 제어부(130)는 상기 미리 정의된 종류에 속하는 대상이 분할된 각각의 영역에 포함되어 있는지 여부를 판정할 수 있다.The object of interest may be a predefined kind of object. For example, the types of buildings, people, animals, plants, commodities, or natural phenomena can be predefined. The control unit 130 can determine whether or not an object belonging to the predefined type is included in each divided area.

도 5를 참조하면, 분할된 9개의 영역 중에서, 제어부(130)는 2개의 영역 내에 관심대상이 포함되어 있다고 판정할 수 있다. 제어부(130)는 2번째 행 및 2번째 열에 배치된 영역 내에 관심대상이 포함되어 있다고 판정할 수 있다. 또한, 제어부(130)는 2번째 행 및 3번째 열에 배치된 영역 내에 관심대상이 포함되어 있다고 판정할 수 있다. 제어부(130)는 나머지 7개의 영역 내에는 관심대상이 포함되어 있지 않다고 판정할 수 있다.Referring to FIG. 5, among the nine divided regions, the controller 130 can determine that the object of interest is included in the two regions. The control unit 130 can determine that the object of interest is included in the area arranged in the second row and the second column. In addition, the control unit 130 can determine that the object of interest is included in the area arranged in the second row and the third column. The control unit 130 can determine that the object of interest is not included in the remaining seven areas.

다시 도 4를 참조하면, 다음으로, 상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정하는 단계(S312)가 수행될 수 있다. 제어부(130)는 관심대상이 포함되어 있다고 판정된 영역을 관심영역으로 지정할 수 있다. 도 5를 참조하면, 제어부(130)는 2번째 행 및 2번째 열에 배치된 영역을 관심영역으로 지정할 수 있다. 또한, 제어부(130)는 2번째 행 및 3번째 열에 배치된 영역을 관심영역으로 지정할 수 있다. 제어부(130)는 나머지 7개의 영역은 관심영역으로 지정하지 않을 수 있다.Referring again to FIG. 4, in operation S312, at least one of the plurality of regions may be designated as the region of interest according to the determination result. The control unit 130 may designate the region determined to contain the object of interest as the region of interest. Referring to FIG. 5, the controller 130 may designate the regions arranged in the second row and the second column as the ROIs. In addition, the controller 130 may designate the regions arranged in the second row and the third column as the ROIs. The control unit 130 may not designate the remaining seven areas as the ROIs.

도 6은 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계(S300)가 수행되는 과정을 나타내는 순서도이다. 도 6을 참조하면, 먼저, 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계(S320)가 수행될 수 있다. 제어부(130)는 미리보기 영상을 분석할 수 있다. 제어부(130)는 미리보기 영상 내에서 관심대상의 위치를 검출할 수 있다.FIG. 6 is a flowchart illustrating a process of designating a region of interest (S300) in a preview image according to another embodiment. Referring to FIG. 6, a step S320 of detecting a position of an object of interest in the preview image may be performed by analyzing the preview image. The control unit 130 may analyze the preview image. The control unit 130 can detect the position of the object of interest within the preview image.

제어부(130)는 관심대상의 위치를 검출하는 방법으로서, 상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하거나, 상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출할 수 있다. 또한, 제어부(130)는 관심대상의 위치를 검출하는 방법으로서, 상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하거나, 상기 미리보기 영상 내에서 초점의 위치를 검출할 수 있다.The controller 130 may detect a position of a target of interest by detecting a position of a high frequency component in the preview image or performing facial recognition on the preview image, Can be detected. The controller 130 may detect a position of a text by performing optical character recognition (OCR) on the preview image, or may detect a position of a target in the preview image, Can be detected.

제어부(130)는 관심대상의 위치를 검출하기 위하여, 상기 열거된 방법 모두를 이용할 수 있다. 또한, 제어부(130)는 상기 열거된 방법 중에서 일부만을 이용할 수도 있다. 사용자의 선호사항(preferences)에 따라 관심대상의 위치를 검출하는 방법이 달라질 수 있다. 관심대상의 위치를 검출하는 방법에 관련된 사용자의 선호사항은 저장부(160)에 미리 저장될 수 있다. 다시 말해서, 제어부(130)가 어떠한 방법을 이용하여 관심대상의 위치를 검출할지에 대하여는 저장부(160)에 미리 정의될 수 있다.The control unit 130 may use all of the methods listed above to detect the position of the object of interest. Also, the control unit 130 may use only a part of the methods listed above. Depending on the user's preferences, the method of detecting the location of interest may vary. The user's preferences related to the method of detecting the location of the object of interest may be stored in the storage 160 in advance. In other words, the method by which the control unit 130 detects the position of the object of interest may be defined in advance in the storage unit 160.

도 7은 실시예에 따라 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계(S320)가 수행되는 과정을 나타내는 순서도이다. 도 7을 참조하면, 먼저, 상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하는 단계(S321)가 수행될 수 있다. 제어부(130)는 미리보기 영상 내에 고주파요소가 포함되어 있는지 여부를 판정할 수 있다. 만약 미리보기 영상 내에 고주파요소가 포함되어 있다고 판정된 경우, 제어부(130)는 상기 미리보기 영상 내에서 고주파요소의 위치를 검출할 수 있다.FIG. 7 is a flowchart illustrating a process of performing a step S320 of detecting a position of an object of interest in a preview image according to an exemplary embodiment of the present invention. Referring to FIG. 7, a step S321 of detecting a position of a high frequency component in the preview image may be performed. The control unit 130 can determine whether or not a high frequency component is included in the preview image. If it is determined that the high-frequency component is included in the preview image, the controller 130 can detect the position of the high-frequency component in the preview image.

도 8은 다른 실시예에 따른 미리보기 영상이다. 도 8을 참조하면, 미리보기 영상의 중앙 부분에 고주파요소로서 조형물의 영상이 포함되어 있다. 또한, 미리보기 영상 내에서 상기 조형물의 영상을 제외한 나머지 부분은 저주파요소일 수 있다. 제어부(130)는 도 8에 도시된 미리보기 영상 내에 고주파 요소가 포함되어 있다고 판정할 수 있다. 또한, 제어부(130)는 미리보기 영상 내에서 상기 조형물의 위치를 검출할 수 있다. 도 9는 도 8에 도시된 미리보기 영상 내에서 고주파요소의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.8 is a preview image according to another embodiment. Referring to FIG. 8, an image of a sculpture is included as a high-frequency component in a central portion of a preview image. In addition, the remaining portion of the preview image excluding the image of the sculpture may be a low frequency component. The control unit 130 can determine that the high-frequency component is included in the preview image shown in Fig. Also, the control unit 130 can detect the position of the molding within the preview image. 9 is a view showing the result of detecting the position of the high frequency component in the preview image shown in FIG. 8 and performing image segmentation.

다시 도 7을 참조하면, 다음으로, 상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출하는 단계(S322)가 수행될 수 있다. 제어부(130)는 미리보기 영상에 대해 안면인식을 수행함으로써 미리보기 영상 내에 안면이 포함되어 있는지 여부를 판정할 수 있다. 만약 미리보기 영상 내에 안면이 포함되어 있다고 판정된 경우, 제어부(130)는 상기 미리보기 영상 내에서 안면의 위치를 검출할 수 있다.Referring again to FIG. 7, a step S322 of detecting the position of the face by performing face recognition on the preview image may be performed. The control unit 130 can determine whether or not the face is included in the preview image by performing facial recognition on the preview image. If it is determined that the face image is included in the preview image, the controller 130 may detect the position of the face image in the preview image.

도 10은 또 다른 실시예에 따른 미리보기 영상이다. 도 10을 참조하면, 미리보기 영상에는 3명의 사람의 얼굴의 영상이 포함되어 있다. 도 10을 참조하면, 중앙에 배치된 안면에 의하여 가장 오른쪽에 배치된 안면의 일부가 가려져 있다. 제어부(130)는 도 10에 도시된 미리보기 영상 내에 안면이 포함되어 있다고 판정할 수 있다. 또한, 제어부(130)는 미리보기 영상 내에서 상기 안면의 위치를 검출할 수 있다. 도 10을 참조하면, 제어부(130)는 가장 왼쪽에 배치된 안면의 위치 및 중앙에 배치된 안면의 위치를 검출할 수 있다. 제어부(130)는 일부가 가려진 가장 오른쪽에 배치된 안면에 대하여는 안면 인식을 실패할 수 있다. 따라서, 제어부(130)는 가장 오른쪽에 배치된 안면에 대하여는 위치를 검출하지 않을 수 있다. 도 11은 도 10에 도시된 미리보기 영상 내에서 안면의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.10 is a preview image according to another embodiment. Referring to FIG. 10, the preview image includes images of three human faces. Referring to FIG. 10, a part of the face disposed at the rightmost position is hidden by the face arranged at the center. The control unit 130 can determine that the face is included in the preview image shown in Fig. Also, the control unit 130 can detect the position of the face in the preview image. Referring to FIG. 10, the controller 130 may detect the positions of the leftmost face and the face located at the center. The control unit 130 may fail to recognize the face on the rightmost placed face partially hidden. Therefore, the control unit 130 may not detect the position with respect to the face disposed at the rightmost position. 11 is a view showing a result of detecting the position of the face in the preview image shown in FIG. 10 and performing image segmentation.

다시 도 7을 참조하면, 다음으로, 상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하는 단계(S323)가 수행될 수 있다. 제어부(130)는 미리보기 영상에 대해 광학문자판독을 수행함으로써 미리보기 영상 내에 텍스트가 포함되어 있는지 여부를 판정할 수 있다. 만약 미리보기 영상 내에 텍스트가 포함되어 있다고 판정된 경우, 제어부(130)는 상기 미리보기 영상 내에서 텍스트의 위치를 검출할 수 있다.Referring again to FIG. 7, a step S323 of detecting the position of the text by performing optical character recognition (OCR) on the preview image may be performed. The control unit 130 can determine whether text is included in the preview image by performing optical character reading on the preview image. If it is determined that text is included in the preview image, the control unit 130 can detect the position of the text in the preview image.

도 12는 또 다른 실시예에 따른 미리보기 영상이다. 도 12를 참조하면, 미리보기 영상에는 자동차의 영상 및 차대번호의 영상이 포함되어 있다. 제어부(130)는 도 12에 도시된 미리보기 영상 내에 텍스트가 포함되어 있다고 판정할 수 있다. 또한, 제어부(130)는 미리보기 영상 내에서 상기 텍스트의 위치를 검출할 수 있다. 도 12를 참조하면, 제어부(130)는 차대번호의 영상의 위치를 검출할 수 있다. 도 13은 도 12에 도시된 미리보기 영상 내에서 텍스트의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.12 is a preview image according to another embodiment. Referring to FIG. 12, a preview image includes a video of a car and a video of a car number. The control unit 130 can determine that text is included in the preview image shown in Fig. Also, the control unit 130 can detect the position of the text in the preview image. Referring to FIG. 12, the controller 130 can detect the position of the image of the vehicle number. FIG. 13 is a view showing a result of detecting the position of a text in the preview image shown in FIG. 12 and performing image segmentation.

다시 도 7을 참조하면, 다음으로, 상기 미리보기 영상 내에서 초점의 위치를 검출하는 단계(S324)가 수행될 수 있다. 제어부(130)는 미리보기 영상 내에서 초점의 위치를 검출할 수 있다.Referring again to FIG. 7, the step of detecting the position of the focus within the preview image (S324) may be performed. The control unit 130 can detect the position of the focus in the preview image.

도 14는 또 다른 실시예에 따른 미리보기 영상이다. 도 14를 참조하면, 미리보기 영상에는 새의 영상 및 나뭇잎의 영상이 포함되어 있다. 미리보기 영상 내에서 초점은 새에게 맞추어져 있다. 따라서, 미리보기 영상 내에서 새의 영상은 선명하고, 나뭇잎의 영상은 흐릿할 수 있다. 제어부(130)는 도 14에 도시된 미리보기 영상 내에서 초점의 위치를 검출할 수 있다. 도 14를 참조하면, 제어부(130)는 새의 영상의 위치를 검출할 수 있다. 도 15는 도 14에 도시된 미리보기 영상 내에서 초점의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.14 is a preview image according to another embodiment. Referring to FIG. 14, a preview image includes a bird image and an image of a leaf. Within the preview image, the focus is on the birds. Therefore, in the preview image, the bird image is clear, and the image of the leaf may be blurry. The control unit 130 can detect the position of the focus within the preview image shown in FIG. Referring to FIG. 14, the controller 130 can detect the position of a new image. FIG. 15 is a view showing the result of detecting the position of the focus in the preview image shown in FIG. 14 and performing image segmentation.

다시 도 6을 참조하면, 다음으로, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계(S328)가 수행될 수 있다. 제어부(130)는 검출된 관심대상의 위치를 이용하여 영상 세그멘테이션을 수행할 수 있다. 영상 세그멘테이션이 수행된 결과로서, 상기 관심대상에 대응하는 영역이 검출될 수 있다. 도 9, 도 11, 도 13, 및 도 15는 미리보기 영상 내에서 관심대상에 대응하는 영역이 검출된 결과를 나타내는 화면이다.Referring again to FIG. 6, the step of detecting an area corresponding to the object of interest (S328) may be performed by performing image segmentation using the detected position. The control unit 130 may perform image segmentation using the detected position of the object of interest. As a result of the image segmentation being performed, an area corresponding to the object of interest can be detected. Figs. 9, 11, 13, and 15 are screens showing the result of detecting a region corresponding to an object of interest in the preview image.

또 다른 실시예에 따르면, 하나의 미리보기 영상에 대하여, 관심대상의 위치를 검출하는 방법으로서 상기 열거된 방법 중에서 복수의 방법이 동시에 이용될 수 있다. 예를 들어, 하나의 미리보기 영상 내에 고주파요소로서 아이스크림의 영상, 사람의 얼굴의 영상, 및 상기 사람이 착용하고 있는 옷에 적힌 텍스트의 영상 모두가 포함되어 있는 경우를 가정하기로 한다. 제어부(130)는 상기 아이스크림의 영상, 상기 사람의 얼굴의 영상, 및 상기 텍스트의 영상 모두를 관심대상으로서 검출할 수 있다. 도 16은 또 다른 실시예에 따라 미리보기 영상 내에서 관심대상에 대응하는 영역을 검출한 결과를 나타내는 화면이다.According to another embodiment, a plurality of methods among the above listed methods can be simultaneously used as a method of detecting the position of the object of interest, with respect to one preview image. For example, it is assumed that an image of an ice cream as a high-frequency component, a video of a face of a person, and a video of a text written on a clothes worn by the person are included in one preview image. The control unit 130 can detect both the image of the ice cream, the image of the face of the person, and the image of the text as an object of interest. 16 is a view showing a result of detecting a region corresponding to an object of interest in a preview image according to another embodiment.

다시 도 6을 참조하면, 다음으로, 상기 검출된 영역을 상기 관심영역으로 지정하는 단계(S329)가 수행될 수 있다. 제어부(130)는 상기 관심대상에 대응하는 영역을 관심영역으로 지정할 수 있다.Referring again to FIG. 6, next, the step of designating the detected region as the region of interest (S329) may be performed. The control unit 130 may designate a region corresponding to the object of interest as a region of interest.

도 17은 또 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계(S300)가 수행되는 과정을 나타내는 순서도이다. 도 17을 참조하면, 먼저, 사용자로부터 드래그 입력을 수신하는 단계(S330)가 수행될 수 있다.FIG. 17 is a flowchart illustrating a process of designating a region of interest (S300) in a preview image according to another embodiment. Referring to FIG. 17, first, a step S330 of receiving a drag input from a user may be performed.

사용자는 자신이 원하는 관심영역을 직접 지정할 수 있다. 사용자는 드래그 입력을 통해 자신이 원하는 관심영역의 경계선을 지정할 수 있다. 입력부(150)는 사용자로부터 드래그 입력을 수신할 수 있다.The user can directly designate a desired region of interest. The user can designate the boundary line of the desired area of interest through the drag input. The input unit 150 may receive a drag input from the user.

도 18은 또 다른 실시예에 따른 미리보기 영상이다. 도 18을 참조하면, 미리보기 영상 내에는 두 마리의 새의 영상, 세 송이의 꽃의 영상, 및 나뭇잎의 영상이 포함되어 있다. 사용자는 두 마리의 새의 영상의 외곽선을 따라 드래그 입력을 입력할 수 있다.18 is a preview image according to another embodiment. Referring to Fig. 18, two bird images, three flower images, and a leaf image are included in the preview image. The user can input the drag input along the outline of the image of two birds.

다시 도 17을 참조하면, 다음으로, 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하는 단계(S331)가 수행될 수 있다. 제어부(130)는 상기 드래그 입력에 대한 응답으로, 상기 드래그 입력에 대응하는 영역을 검출할 수 있다. 제어부(130)는 상기 드래그 입력을 기초로 하여 폐곡선을 생성할 수 있다. 제어부(130)는 상기 폐곡선에 의해 특정된 영역을 상기 드래그 입력에 대응하는 영역으로 지정할 수 있다.Referring again to FIG. 17, a step S331 of detecting a first region corresponding to the drag input in the preview image may be performed. In response to the drag input, the controller 130 may detect an area corresponding to the drag input. The control unit 130 may generate a closed curve based on the drag input. The control unit 130 may designate an area specified by the closed curve as an area corresponding to the drag input.

도 19는 도 18에 도시된 미리보기 영상 내에서 사용자의 입력에 대한 응답으로 관심영역을 지정한 결과를 나타내는 화면이다. 도 19를 참조하면, 제어부(130)는 두 마리의 새의 영상의 외곽선에 의해 특정된 영역을 상기 드래그 입력에 대응하는 영역으로 지정할 수 있다.FIG. 19 is a view showing a result of designating a region of interest in response to a user's input in the preview image shown in FIG. Referring to FIG. 19, the controller 130 may designate an area specified by the outline of two bird images as an area corresponding to the drag input.

다시 도 17을 참조하면, 다음으로, 사용자로부터 탭 입력을 수신하는 단계(S332)가 수행될 수 있다. 사용자는 자신이 원하는 관심대상의 위치를 직접 지정할 수 있다. 사용자는 탭 입력을 통해 자신이 원하는 관심대상의 위치를 지정할 수 있다. 입력부(150)는 사용자로부터 탭 입력을 수신할 수 있다. 예를 들어, 도 18을 참조하면, 사용자는 미리보기 영상 내에서 오른쪽 상부에 배치된 꽃 및 왼쪽 하부에 배치된 꽃을 관심대상으로 지정하기를 원할 수 있다. 사용자는 오른쪽 상부에 배치된 꽃의 영상 및 왼쪽 하부에 배치된 꽃의 영상에 대하여 각각 탭 입력을 입력할 수 있다.Referring again to FIG. 17, next, step (S332) of receiving a tap input from the user may be performed. The user can directly designate the position of the object of interest desired by the user. The user can designate the position of the target of interest through the tab input. The input unit 150 may receive a tap input from the user. For example, referring to FIG. 18, a user may wish to designate a flower placed in the upper right corner and a flower arranged in the lower left corner as objects of interest within the preview image. The user can input a tap input for the image of the flower arranged on the upper right side and the image of the flower arranged on the lower left side, respectively.

다시 도 17을 참조하면, 다음으로, 상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하는 단계(S333)가 수행될 수 있다. 제어부(130)는 상기 탭 입력에 대한 응답으로, 상기 탭 입력에 대응하는 위치를 검출할 수 있다. 도 18을 참조하면, 제어부(130)는 오른쪽 상부에 배치된 꽃의 영상의 위치 및 왼쪽 하부에 배치된 꽃의 영상의 위치를 검출할 수 있다.Referring again to FIG. 17, a step S333 of detecting a position corresponding to the tap input in the preview image may be performed. In response to the tap input, the controller 130 may detect a position corresponding to the tap input. Referring to FIG. 18, the controller 130 can detect the position of the image of the flower arranged on the upper right and the position of the image of the flower arranged on the lower left.

다시 도 17을 참조하면, 다음으로, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하는 단계(S334)가 수행될 수 있다. 제어부(130)는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행할 수 있다. 영상 세그멘테이션이 수행된 결과로서, 상기 검출된 위치로부터 확장된 영역이 검출될 수 있다. 도 19를 참조하면, 제어부(130)는 오른쪽 상부에 배치된 꽃의 영상의 위치를 이용하여 영상 세그멘테이션을 수행함으로써, 상기 꽃에 대응하는 영역을 검출할 수 있다. 또한, 제어부(130)는 왼쪽 하부에 배치된 꽃의 영상의 위치를 이용하여 영상 세그멘테이션을 수행함으로써, 상기 꽃에 대응하는 영역을 검출할 수 있다.Referring again to FIG. 17, a step S334 of detecting a second region by performing image segmentation using the detected position may be performed. The control unit 130 may perform image segmentation using the detected position. As a result of performing the image segmentation, the extended region can be detected from the detected position. Referring to FIG. 19, the control unit 130 can detect an area corresponding to the flower by performing image segmentation using the position of the flower image disposed on the upper right. In addition, the control unit 130 can detect an area corresponding to the flower by performing image segmentation using the position of the flower image disposed at the lower left.

다시 도 17을 참조하면, 다음으로, 상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정하는 단계(S335)가 수행될 수 있다. 제어부(130)는 사용자의 드래그 입력에 대한 응답으로 검출한 제1영역 및 사용자의 탭 입력에 대한 응답으로 검출한 제2영역을 관심영역으로 지정할 수 있다.Referring again to FIG. 17, next, the step of designating the first area and the second area as the area of interest (S335) may be performed. The control unit 130 may designate the first region detected in response to the drag input of the user and the second region detected in response to the tab input of the user as the region of interest.

도 20은 또 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계(S300)가 수행되는 과정을 나타내는 순서도이다. 도 20을 참조하면, 먼저, 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계(S340)가 수행될 수 있다.FIG. 20 is a flowchart showing a process of designating a region of interest (S300) in a preview image according to another embodiment. Referring to FIG. 20, a step of detecting a position of an object of interest in the preview image (S340) may be performed by analyzing the preview image.

제어부(130)는 미리보기 영상을 분석할 수 있다. 제어부(130)는 미리보기 영상 내에서 관심대상의 위치를 검출할 수 있다. 제어부(130)는 관심대상의 위치를 검출하는 방법으로서, 상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하거나, 상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출할 수 있다. 또한, 제어부(130)는 관심대상의 위치를 검출하는 방법으로서, 상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하거나, 상기 미리보기 영상 내에서 초점의 위치를 검출할 수 있다.The control unit 130 may analyze the preview image. The control unit 130 can detect the position of the object of interest within the preview image. The controller 130 may detect a position of a target of interest by detecting a position of a high frequency component in the preview image or performing facial recognition on the preview image, Can be detected. The controller 130 may detect a position of a text by performing optical character recognition (OCR) on the preview image, or may detect a position of a target in the preview image, Can be detected.

예를 들어, 도 18을 참조하면, 제어부(130)는 미리보기 영상의 중앙에 배치된 새의 영상, 오른쪽 상부에 배치된 꽃의 영상, 및 왼쪽 상부에 배치된 꽃의 영상을 관심대상으로서 검출할 수 있다. 제어부(130)는 왼쪽 하부에 배치된 꽃의 영상 및 오른쪽 하부에 배치된 나뭇잎의 영상은 관심대상으로서 검출하지 않을 수 있다.For example, referring to FIG. 18, the controller 130 detects a bird image disposed at the center of a preview image, a flower image disposed at an upper right portion, and a flower image disposed at an upper left portion as objects of interest can do. The control unit 130 may not detect an image of a flower arranged on the lower left and an image of a leaf placed on the lower right side as objects of interest.

다시 도 20을 참조하면, 다음으로, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계(S341)가 수행될 수 있다. 제어부(130)는 검출된 관심대상의 위치를 이용하여 영상 세그멘테이션을 수행할 수 있다. 영상 세그멘테이션이 수행된 결과로서, 상기 관심대상에 대응하는 영역이 검출될 수 있다.Referring again to FIG. 20, the step of detecting the region corresponding to the object of interest (S341) may be performed by performing image segmentation using the detected position. The control unit 130 may perform image segmentation using the detected position of the object of interest. As a result of the image segmentation being performed, an area corresponding to the object of interest can be detected.

다음으로, 상기 미리보기 영상 상에 상기 검출된 영역을 표시하는 단계(S342)가 수행될 수 있다. 표시부(140)는 상기 미리보기 영상 상에 상기 검출된 영역을 표시할 수 있다. 도 21은 도 18에 도시된 미리보기 영상 상에 관심대상에 대응하는 영역을 표시한 결과를 나타내는 화면이다. 도 21을 참조하면, 표시부(140)는 새의 영상에 대응하는 영역을 미리보기 영상 상에 표시할 수 있다. 또한, 표시부(140)는 오른쪽 상부의 꽃의 영상에 대응하는 영역을 미리보기 영상 상에 표시할 수 있다. 또한, 표시부(140)는 왼쪽 상부의 꽃의 영상에 대응하는 영역을 미리보기 영상 상에 표시할 수 있다.Next, the step of displaying the detected area on the preview image (S342) may be performed. The display unit 140 may display the detected area on the preview image. 21 is a screen showing a result of displaying an area corresponding to an object of interest on the preview image shown in Fig. Referring to FIG. 21, the display unit 140 can display an area corresponding to a new image on a preview image. Further, the display unit 140 can display, on the preview image, an area corresponding to the flower image on the upper right side. Further, the display unit 140 can display an area corresponding to the flower image on the upper left on the preview image.

다시 도 20을 참조하면, 다음으로, 사용자로부터 탭 입력을 수신하는 단계(S343)가 수행될 수 있다. 사용자는 표시부(140)에 표시된 영역을 확인한 후에, 상기 표시된 영역 중에서 적어도 일부의 영역을 관심영역으로 지정하길 원할 수 있다. 다른 실시예에 따르면, 사용자는 표시된 영역 중에서 어느 영역도 관심영역으로 지정하길 원하지 않을 수 있다. 사용자는 상기 표시된 영역 중에서 관심영역으로 지정하길 원하는 영역에 대하여 탭 입력을 입력할 수 있다.Referring again to FIG. 20, next, step S343 of receiving a tap input from the user may be performed. After confirming the area displayed on the display unit 140, the user may desire to designate at least a part of the displayed area as the area of interest. According to another embodiment, the user may not want to designate any of the displayed areas as a region of interest. The user may input a tap input for an area that he / she desires to designate as a region of interest among the displayed areas.

예를 들어, 도 21을 참조하면, 사용자는 표시된 영역 중에서 오른쪽 상부의 꽃의 영상에 대응하는 영역을 관심영역으로 지정하길 원할 수 있다. 사용자는 오른쪽 상부의 꽃의 영상에 대응하는 영역 내의 지점에 대해 탭 입력을 입력할 수 있다.For example, referring to FIG. 21, the user may desire to designate an area corresponding to an image of flowers on the upper right of the displayed area as an area of interest. The user can input a tap input for a point in the area corresponding to the image of the flower in the upper right corner.

또한, 사용자는 마음을 바꾸어 이미 탭 입력을 입력한 영역을 관심영역으로 지정하길 원하지 않을 수 있다. 사용자는 이미 탭 입력을 입력한 영역에 대하여 다시 탭 입력을 입력할 수 있다.Also, the user may not want to change his / her mind and designate the area in which the tab input has already been made as an area of interest. The user can again input the tab input for the area where the tab input is already inputted.

또한, 사용자는 표시부(140)에 표시된 영역을 제외한 나머지 영역 내에 배치된 대상 중에서 적어도 일부에 대응하는 영역을 추가적으로 관심영역으로 지정하길 원할 수 있다. 사용자는 추가적으로 관심영역으로 지정하길 원하는 영역에 대응하는 대상에 대해 탭 입력을 입력할 수 있다.Further, the user may desire to designate, as an area of interest, an area corresponding to at least a part of the objects arranged in the remaining area except for the area displayed on the display part 140. [ The user may further input a tap input for an object corresponding to an area that he or she desires to designate as a region of interest.

예를 들어, 도 21을 참조하면, 사용자는 표시된 영역을 제외한 나머지 영역 내에 배치된 대상 중에서 왼쪽 하부의 꽃의 영상에 대응하는 영역을 추가적으로 관심영역으로 지정하길 원할 수 있다. 사용자는 왼쪽 하부의 꽃에 대해 탭 입력을 입력할 수 있다.For example, referring to FIG. 21, the user may desire to designate an area corresponding to an image of flowers on the lower left of the objects arranged in the remaining areas except the displayed area as an additional area of interest. The user can enter a tap input for the flower in the lower left corner.

다시 도 20을 참조하면, 다음으로, 상기 검출된 영역 중에서 상기 탭 입력에 대응하는 영역을 선택하거나 선택해제하는 단계(S344)가 수행될 수 있다. 제어부(130)는 상기 탭 입력에 대한 응답으로, 상기 검출된 영역 중에서 상기 탭 입력에 대응하는 영역을 선택하거나 선택해제할 수 있다. 도 21을 참조하면, 제어부(130)는 오른쪽 상부의 꽃에 대한 탭 입력에 대한 응답으로, 상기 검출된 영역 중에서 상기 오른쪽 상부의 꽃에 대응하는 영역을 선택할 수 있다. 또한, 제어부(130)는 왼쪽 하부의 꽃에 대한 탭 입력에 대한 응답으로, 상기 왼쪽 하부의 꽃에 대응하는 영역을 추가적으로 선택할 수 있다.Referring again to FIG. 20, a step of selecting or deselecting a region corresponding to the tap input from among the detected regions (S344) may be performed. In response to the tap input, the controller 130 may select or deselect an area corresponding to the tap input from among the detected areas. Referring to FIG. 21, the controller 130 may select a region corresponding to the upper right flower among the detected regions in response to a tap input to the upper right flower. In addition, the controller 130 may additionally select an area corresponding to the flowers on the lower left in response to the tap input for flowers on the lower left.

만약 왼쪽 상부의 꽃에 대한 탭 입력이 추가적으로 수신된 경우, 제어부(130)는 상기 왼쪽 상부의 꽃에 대응하는 영역을 추가적으로 선택할 수 있다. 만약 오른쪽 상부의 꽃에 대한 탭 입력이 다시 한 번 수신된 경우, 제어부(130)는 상기 오른쪽 상부의 꽃에 대응하는 영역을 선택해제할 수 있다.If a tap input for the upper left flower is additionally received, the controller 130 may additionally select an area corresponding to the upper left flower. If the tap input for the upper right flower is once again received, the control unit 130 can deselect the area corresponding to the upper right flower.

다시 도 20을 참조하면, 다음으로, 사용자로부터 드래그 입력을 수신하는 단계(S345)가 수행될 수 있다. 사용자는 드래그 입력을 입력함으로써 자신이 원하는 관심영역의 경계선을 입력할 수 있다. 입력부(150)는 사용자로부터 드래그 입력을 수신할 수 있다. 예를 들어, 도 21을 참조하면, 사용자는 두 마리의 새의 영상의 외곽선을 따라 드래그 입력을 입력할 수 있다.Referring again to FIG. 20, next, step (S345) of receiving a drag input from the user may be performed. The user can input a boundary line of a desired region of interest by inputting a drag input. The input unit 150 may receive a drag input from the user. For example, referring to FIG. 21, a user can input a drag input along the outline of two bird images.

다시 도 20을 참조하면, 다음으로, 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제3영역을 검출하는 단계(S346)가 수행될 수 있다. 제어부(130)는 상기 드래그 입력에 대한 응답으로, 상기 드래그 입력에 대응하는 영역을 검출할 수 있다. 제어부(130)는 상기 드래그 입력을 기초로 하여 폐곡선을 생성할 수 있다. 제어부(130)는 상기 폐곡선에 의해 특정된 영역을 상기 드래그 입력에 대응하는 영역으로 지정할 수 있다. 도 21을 참조하면, 제어부(130)는 두 마리의 새의 영상의 외곽선에 의해 특정된 영역을 상기 드래그 입력에 대응하는 영역으로 지정할 수 있다.Referring again to FIG. 20, a step S346 of detecting a third region corresponding to the drag input in the preview image may be performed. In response to the drag input, the controller 130 may detect an area corresponding to the drag input. The control unit 130 may generate a closed curve based on the drag input. The control unit 130 may designate an area specified by the closed curve as an area corresponding to the drag input. Referring to FIG. 21, the controller 130 may designate an area specified by the outlines of two bird images as an area corresponding to the drag input.

다시 도 20을 참조하면, 다음으로, 상기 선택된 영역 및 상기 제3영역을 상기 관심영역으로 지정하는 단계(S347)가 수행될 수 있다. 제어부(130)는 상기 탭 입력에 대한 응답으로 선택된 영역 및 상기 드래그 입력에 대한 응답으로 검출된 상기 제3영역을 관심영역으로 지정할 수 있다.Referring again to FIG. 20, next, the step of designating the selected region and the third region as the region of interest (S347) may be performed. The control unit 130 may designate the selected region in response to the tap input and the third region detected in response to the drag input as the region of interest.

도 19는 관심영역이 지정된 결과를 나타내는 화면이다. 도 21에 도시된 화면과 비교해보면, 오른쪽 상부에 배치된 꽃에 대한 탭 입력 및 왼쪽 하부에 배치된 꽃에 대한 탭 입력에 대한 응답으로 선택된 영역이 관심영역으로 지정될 수 있다. 또한, 두 마리의 새의 영상의 외곽선을 따라 입력된 드래그 입력에 대한 응답으로 검출된 상기 제3영역이 관심영역으로 지정될 수 있다.Fig. 19 is a screen showing the result of designating the region of interest. In comparison with the screen shown in Fig. 21, a region selected in response to a tap input for a flower placed on the upper right and a tap input for a flower arranged on the lower left can be designated as an ROI. Further, the third region detected in response to the drag input inputted along the outline of the images of the two birds can be designated as the region of interest.

다음으로, 제어부(130)는 상기 대상에 대한 제1영상을 촬영하고, 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성할 수 있다. 다른 실시예에 따르면, 상기의 실시예에서의 순서와 달리, 제어부(130)는 상기 대상에 대한 제1영상을 촬영한 후 상기 제1영상 내에서 적어도 하나 이상의 관심영역을 지정할 수 있다. 제어부(130)는 예를 들어, 도 4에 도시된 방법과 유사한 방법으로 상기 촬영된 제1영상 내에서 관심영역을 지정할 수 있다. 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성할 수 있다.Next, the control unit 130 may capture a first image of the object and generate restored data corresponding to the region of interest in the first image. According to another embodiment, the controller 130 may designate at least one region of interest in the first image after capturing the first image of the object, unlike the order in the above embodiment. The control unit 130 may designate a region of interest within the photographed first image in a manner similar to, for example, the method shown in Fig. The controller 130 may generate restored data corresponding to the region of interest in the first image.

상기 복원 데이터의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다. 상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.The resolution of the restored data may be higher than the resolution of the portion corresponding to the region of interest in the first image. The second image reconstructed using the reconstructed data corresponds to the ROI, and the resolution of the second image may be higher than the resolution of the ROI corresponding to the ROI in the first image.

예를 들어, 상기 복원 데이터는 상기 관심영역에 대한 슈퍼레졸루션(super resolution) 영상일 수 있다. 슈퍼레졸루션 영상은 보다 낮은 해상도를 갖는 복수의 영상을 이용하여 복원된, 보다 높은 해상도를 갖는 영상일 수 있다. 저해상도를 갖는 복수의 영상들 사이의 상대적인 차이를 이용하여 주파수를 분석함으로써 저해상도 영상들과 고해상도 영상 사이의 관계식이 산출될 수 있다. 상기 산출된 관계식을 이용하여 고해상도 영상이 복원될 수 있다. 슈퍼레졸루션 영상의 해상도는 저해상도 영상의 해상도의 4배일 수 있다. 예를 들어, 원본 영상의 해상도가 1600만 화소인 경우, 상기 원본 영상을 이용하여 복원된 슈퍼레졸루션 영상의 해상도는 6400만 화소일 수 있다.For example, the reconstructed data may be a super resolution image for the region of interest. The super resolution image may be a higher resolution image reconstructed using a plurality of images having a lower resolution. A relational expression between the low resolution images and the high resolution image can be calculated by analyzing the frequency using the relative difference between the plurality of images having low resolution. The high-resolution image can be reconstructed using the calculated relational expression. The resolution of the super resolution image may be four times the resolution of the low resolution image. For example, if the resolution of the original image is 16 million pixels, the resolution of the super resolution image reconstructed using the original image may be 64 million pixels.

다른 실시예에 따르면, 상기 복원 데이터는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분 및 상기 제1영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터일 수 있다. 제어부(130)는 다음과 같은 과정을 통해 상기 복원 데이터를 생성할 수 있다.According to another embodiment, the reconstructed data may include comparison data indicating a difference between a portion corresponding to the region of interest in the first image and a portion corresponding to the region of interest in the super resolution image corresponding to the first image Lt; / RTI > The control unit 130 may generate the restored data through the following process.

또 다른 실시예에 따르면, 제어부(130)는 제1영상을 촬영하거나, 저장부(160)에 저장된 제1영상을 불러올 수 있다. 제어부(130)는 상기 제1영상 내에서 적어도 하나 이상의 관심영역을 지정할 수 있다. 제어부(130)는 상기 제1영상을 이용하여 상기 관심영역에 대응하는 복원 데이터를 생성할 수 있다. 예를 들어, 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 따로 잘라내고(crop), 상기 잘라낸 부분을 복원 데이터로서 이용할 수 있다. 제어부(130)는 제1영상을 JPEG로 인코딩함으로써 압축 영상을 생성할 수 있다. 상기 제1영상이 압축됨에 따라, 상기 제1영상에 포함되어 있던 영상 정보에 손실이 발생할 수 있다. 또한, 압축 영상의 해상도는 제1영상의 해상도보다 낮을 수 있다.According to another embodiment, the control unit 130 may capture a first image or a first image stored in the storage unit 160. The control unit 130 may designate at least one region of interest in the first image. The control unit 130 may generate restoration data corresponding to the ROI using the first image. For example, the control unit 130 may crop a portion corresponding to the region of interest in the first image, and use the cut-out portion as reconstruction data. The control unit 130 can generate a compressed image by encoding the first image into JPEG. As the first image is compressed, loss of image information included in the first image may occur. Also, the resolution of the compressed image may be lower than the resolution of the first image.

저장부(160)는 상기 압축 영상 및 상기 복원 데이터를 저장할 수 있다. 제어부(130)는 상기 복원 데이터를 이용하여 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분을 복원함으로써 복원 영상을 생성할 수 있다. 표시부(140)는 상기 복원 영상을 표시할 수 있다. 상기 복원 영상은 상기 관심영역에 대응하고, 상기 복원 영상의 해상도는 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다. 복원 데이터를 이용하여 압축 영상을 복원함으로써, 압축 과정에서 손실되었던 영상 정보가 복원될 수 있다. 또한, 복원 데이터를 이용하여 저해상도의 압축 영상을 제1영상과 동일한 수준의 고해상도의 영상으로 복원할 수 있다.The storage unit 160 may store the compressed image and the restored data. The controller 130 may generate a restored image by restoring a portion corresponding to the region of interest within the compressed image using the restored data. The display unit 140 may display the restored image. The reconstructed image corresponds to the ROI, and the resolution of the reconstructed image may be higher than the resolution of the portion corresponding to the ROI in the compressed image. By restoring the compressed image using the restored data, the lost image information in the compression process can be restored. In addition, it is possible to restore a compressed image having a low resolution to a high-resolution image having the same level as that of the first image using reconstruction data.

또 다른 실시예에 따르면, 도 29 내지 도 32에 도시된 바와 같이 영상 처리가 수행될 수 있다.According to another embodiment, image processing may be performed as shown in FIGS. 29 to 32. FIG.

다시 도 2를 참조하면, 다음으로, 상기 대상에 대한 복수의 영상을 촬영하는 단계(S400)가 수행될 수 있다. 제어부(130)는 수광부(110) 및 영상신호처리부(120)를 제어함으로써 상기 대상에 대한 복수의 영상을 촬영할 수 있다. 제어부(130)는 상기 대상에 대한 연속 영상(burst images)을 촬영할 수 있다. 예를 들어, 제어부(130)는 10장의 연속 영상을 촬영할 수 있다. 상기 미리보기 영상에 포함된 대상 및 상기 촬영된 연속 영상에 포함된 대상은 서로 동일할 수 있다. 촬영된 연속 영상은 저장부(160)에 임시로 저장될 수 있다.Referring again to FIG. 2, a step S400 of photographing a plurality of images of the object may be performed. The control unit 130 can take a plurality of images of the object by controlling the light receiving unit 110 and the image signal processing unit 120. [ The control unit 130 may capture burst images of the object. For example, the control unit 130 can shoot ten continuous images. The object included in the preview image and the object included in the captured continuous image may be the same. The photographed continuous image can be temporarily stored in the storage unit 160.

다음으로, 상기 복수의 영상 중에서 적어도 일부를 이용하여 상기 관심영역에 대한 슈퍼레졸루션(super resolution) 영상을 생성하는 단계(S500)가 수행될 수 있다. 제어부(130)는 상기 복수의 영상 중에서 적어도 일부를 이용할 수 있다. 예를 들어, 제어부(130)는 10장의 연속 영상 중에서 5장 이상의 영상을 이용할 수 있다. 제어부(130)는 상기 영상을 이용하여 상기 관심영역에 대한 슈퍼레졸루션 영상을 생성할 수 있다.Next, a step S500 of generating a super resolution image for the ROI using at least a part of the plurality of images may be performed. The control unit 130 may use at least a part of the plurality of images. For example, the control unit 130 can use five or more images among 10 continuous images. The control unit 130 may generate a super resolution image for the ROI using the image.

제어부(130)는 영상 내의 전체 영역에 대하여 슈퍼레졸루션 영상을 생성하는 대신에, 상기 영상 내에서 상기 관심영역에 대응하는 부분에 대하여만 슈퍼레졸루션 영상을 생성할 수 있다. 제어부(130)는 촬영된 복수의 영상 내에서 상기 관심영역에 대응하는 부분들 사이의 상대적인 차이를 이용하여 주파수를 분석할 수 있다. 제어부(130)는 상기 분석 결과를 이용하여 상기 관심영역에 대한 슈퍼레졸루션 영상을 생성할 수 있다. 생성된 슈퍼레졸루션 영상은 저장부(160)에 임시로 저장될 수 있다.The control unit 130 may generate a super resolution image only for a portion corresponding to the region of interest in the image, instead of generating a super resolution image for the entire region in the image. The control unit 130 may analyze frequencies using relative differences between portions corresponding to the ROIs in the captured images. The control unit 130 may generate a super resolution image for the ROI using the analysis result. The generated super resolution image may be temporarily stored in the storage unit 160.

다음으로, 상기 복수의 영상에 포함된 제1영상 내에서 상기 관심영역에 대응하는 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 복원 데이터를 생성하는 단계(S600)가 수행될 수 있다. 제어부(130)는 상기 복수의 영상 중에서 어느 하나의 영상을 제1영상으로서 선택할 수 있다. 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 추출할 수 있다. 제어부(130)는 상기 제1영상으로부터 추출된 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 복원 데이터를 생성할 수 있다.(S600) generating restoration data indicating a difference between a portion corresponding to the region of interest in the first image included in the plurality of images and a portion corresponding to the region of interest in the super resolution image, Can be performed. The control unit 130 can select any one of the plurality of images as the first image. The control unit 130 may extract a portion corresponding to the ROI in the first image. The controller 130 may generate restoration data indicating a difference between the portion extracted from the first image and the portion corresponding to the region of interest in the super resolution image.

다만, 상기 제1영상으로부터 추출된 부분의 해상도는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도와 서로 다를 수 있다. 따라서, 제어부(130)는 복원 데이터를 생성하기 위하여, 먼저 상기 제1영상으로부터 추출된 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만들 수 있다. 제어부(130)는 상기 제1영상으로부터 추출된 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링할 수 있다. 제어부(130)는 쌍입방 보간법(bicubic interpolation)을 이용하여 업스케일링하거나 다운스케일링할 수 있다.However, the resolution of the portion extracted from the first image may be different from the resolution of the portion corresponding to the region of interest in the super resolution image. Accordingly, in order to generate reconstructed data, the controller 130 may first make the resolution of the portion extracted from the first image and the resolution of the portion corresponding to the region of interest within the super resolution image equal to each other. The controller 130 may upscale a portion extracted from the first image or downscale a portion corresponding to the region of interest within the super resolution image. The controller 130 may upscale or downscale using bicubic interpolation.

제어부(130)는 상기 제1영상으로부터 추출된 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택할 수 있다. 제어부(130)가 선택하는 해상도의 개수 및 선택된 각각의 해상도는 저장부(160)에 미리 저장될 수 있다.The control unit 130 may select at least one of resolutions larger than the resolution of the portion extracted from the first image and smaller than or equal to the resolution of the portion corresponding to the RO in the super resolution image. The number of resolutions selected by the controller 130 and the selected resolutions may be stored in the storage unit 160 in advance.

예를 들어, 제어부(130)는 상기 제1영상으로부터 추출된 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 n개의 서로 다른 해상도를 선택할 수 있다. n은 5일 수 있다. 상기 선택된 5개의 해상도는 각각 해상도 A, 해상도 B, 해상도 C, 해상도 D, 해상도 E일 수 있다. 해상도 E는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도와 서로 동일할 수 있다. 따라서, 해상도 E를 제외한 나머지 해상도 A, 해상도 B, 해상도 C, 및 해상도 D는 상기 제1영상으로부터 추출된 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작을 수 있다.For example, the controller 130 may select n different resolutions among resolutions larger than the resolution of the portion extracted from the first image and smaller than or equal to the resolution of the portion corresponding to the region of interest in the super resolution image have. n may be 5. The five selected resolutions may be resolution A, resolution B, resolution C, resolution D, and resolution E, respectively. The resolution E may be equal to the resolution of the portion corresponding to the region of interest in the super resolution image. Accordingly, resolution A, resolution B, resolution C, and resolution D excluding the resolution E are larger than the resolution of the portion extracted from the first image and smaller than the resolution of the portion corresponding to the RO in the super resolution image have.

제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 A로 업스케일링할 수 있다. 또한, 제어부(130)는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 해상도 A로 다운스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 다운스케일링된 부분을 비교함으로써 해상도 A에 대한 복원 데이터를 산출할 수 있다.The controller 130 may upscale a portion extracted from the first image to a resolution A. FIG. In addition, the controller 130 may downscale a portion corresponding to the region of interest within the super resolution image to a resolution A. [ The control unit 130 may calculate restoration data for the resolution A by comparing the upscaled portion and the downscaled portion.

제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 B로 업스케일링할 수 있다. 또한, 제어부(130)는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 해상도 B로 다운스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 다운스케일링된 부분을 비교함으로써 해상도 B에 대한 복원 데이터를 산출할 수 있다.The control unit 130 may upscale the extracted portion from the first image to the resolution B. [ Also, the controller 130 may downscale a portion corresponding to the region of interest in the super resolution image to resolution B. The control unit 130 may calculate restoration data for the resolution B by comparing the upscaled portion and the downscaled portion.

제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 C로 업스케일링할 수 있다. 또한, 제어부(130)는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 해상도 C로 다운스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 다운스케일링된 부분을 비교함으로써 해상도 C에 대한 복원 데이터를 산출할 수 있다.The control unit 130 may upscale the portion extracted from the first image to the resolution C. In addition, the controller 130 may downscale a portion corresponding to the region of interest in the super resolution image to a resolution C. The control unit 130 may calculate restoration data for the resolution C by comparing the upscaled portion and the downscaled portion.

제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 D로 업스케일링할 수 있다. 또한, 제어부(130)는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 해상도 D로 다운스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 다운스케일링된 부분을 비교함으로써 해상도 D에 대한 복원 데이터를 산출할 수 있다.The controller 130 may upscale a portion extracted from the first image to a resolution D. [ Also, the controller 130 may downscale a portion corresponding to the region of interest within the super resolution image to a resolution D. [ The control unit 130 may calculate restoration data for the resolution D by comparing the upscaled portion and the downscaled portion.

제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 E로 업스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 비교함으로써 해상도 E에 대한 복원 데이터를 산출할 수 있다. 이로써, n개의 서로 다른 복원 데이터가 산출될 수 있다.The controller 130 may upscale the portion extracted from the first image to a resolution E. [ The controller 130 may calculate restoration data for the resolution E by comparing the upscaled portion and the portion corresponding to the region of interest within the super resolution image. Thereby, n different restored data can be calculated.

또한, 상기 제1영상 내에는 복수의 관심영역이 포함될 수 있고, 제어부(130)는 각각의 관심영역에 대하여 상기 과정을 반복할 수 있다. 만약 제1영상 내에 3개의 관심영역이 포함된 경우, 3n개의 서로 다른 복원 데이터가 산출될 수 있다.In addition, the first image may include a plurality of ROIs, and the controller 130 may repeat the process for each ROI. If three regions of interest are included in the first image, 3n different reconstructed data can be calculated.

다음으로, 상기 제1영상 및 상기 복원 데이터를 저장하는 단계(S700)가 수행될 수 있다. 도 22는 실시예에 따라 제1영상 및 복원 데이터를 저장하는 단계를 설명하기 위한 참고도이다. 도 22를 참조하면, 저장부(160)는 상기 제1영상을 영상 파일로 저장할 수 있다. 예를 들어, 저장부(160)는 상기 제1영상을 JPEG 포맷 또는 PNG 포맷의 영상 파일로 저장할 수 있다.Next, the step S700 of storing the first image and the restored data may be performed. 22 is a reference diagram for explaining a step of storing the first image and the restored data according to the embodiment. Referring to FIG. 22, the storage unit 160 may store the first image as an image file. For example, the storage unit 160 may store the first image as an image file in a JPEG format or a PNG format.

또한, 저장부(160)는 상기 복원 데이터를 저장할 수 있다. 도 22에 도시된 바와 같이, 저장부(160)는 3n개의 서로 다른 복원 데이터를 각각 분리하여 저장할 수 있다. 저장부(160)는 상기 복원 데이터를 애플리케이션의 마커 데이터(marker data)로서 저장할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 복원 데이터를 표준 JPEG 인코딩 알고리즘을 이용하여 압축할 수 있다. 저장부(160)는 상기 압축된 복원 데이터를 애플리케이션의 마커 데이터로서 저장할 수 있다. 또 다른 실시예에 따르면, 저장부(160)는 상기 압축된 복원 데이터를 별도의 영상 파일로 저장할 수 있다. 복원 데이터가 압축된 경우, 복원 데이터를 저장하기 위해 필요로 하는 추가적인 저장공간의 크기가 감소될 수 있다.In addition, the storage unit 160 may store the restored data. As shown in FIG. 22, the storage unit 160 may separately store 3n different restored data. The storage unit 160 may store the restored data as marker data of the application. According to another embodiment, the control unit 130 may compress the restored data using a standard JPEG encoding algorithm. The storage unit 160 may store the compressed restored data as marker data of the application. According to another embodiment, the storage unit 160 may store the compressed restored data as a separate image file. If the restored data is compressed, the amount of additional storage space required to store the restored data can be reduced.

도 23은 실시예에 따라 복원 데이터를 이용하여 확대 영상을 생성하고 표시하는 방법이 수행되는 과정을 나타내는 순서도이다. 도 23을 참조하면, 먼저, 저장된 영상 및 상기 영상 내에서 관심영역에 대응하는 부분을 표시하는 단계(S800)가 수행될 수 있다. 표시부(140)는 저장부(160)에 저장된 상기 제1영상 및 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 표시할 수 있다.23 is a flowchart illustrating a process of generating and displaying an enlarged image using restoration data according to an embodiment of the present invention. Referring to FIG. 23, a step S800 of displaying a stored image and a portion corresponding to a region of interest in the image may be performed. The display unit 140 may display the first image stored in the storage unit 160 and the portion corresponding to the region of interest within the first image.

표시부(140)가 상기 제1영상 및 상기 관심영역에 대응하는 부분을 표시하기 이전에, 제어부(130)는 갤러리 어플리케이션을 실행할 수 있다. 표시부(140)는 저장부(160)에 저장된 복수의 영상에 대응하는 복수의 썸네일을 포함하는 갤러리 화면을 표시할 수 있다. 입력부(150)는 갤러리 화면 내의 하나의 썸네일에 대해 사용자로부터 터치 입력을 수신할 수 있다. 도 24는 영상 처리 장치(100)에 표시된 갤러리 화면 내의 하나의 썸네일에 대해 사용자로부터 터치 입력이 수신된 경우를 나타내는 화면이다.The control unit 130 may execute the gallery application before the display unit 140 displays a portion corresponding to the first image and the region of interest. The display unit 140 may display a gallery screen including a plurality of thumbnails corresponding to a plurality of images stored in the storage unit 160. [ The input unit 150 may receive a touch input from a user for one thumbnail in the gallery screen. 24 is a screen showing a case where a touch input is received from a user for one thumbnail in the gallery screen displayed on the image processing apparatus 100. [

상기 수신된 터치 입력에 대한 응답으로, 표시부(140)는 상기 썸네일에 대응하는 영상 및 상기 영상 내에서 상기 관심영역에 대응하는 부분을 표시할 수 있다. 예를 들어, 사용자는 갤러리 화면 내에서 상기 제1영상에 대응하는 썸네일에 대해 터치 입력을 입력할 수 있다. 표시부(140)는 상기 터치 입력에 대한 응답으로, 도 16에 도시된 바와 같이 제1영상 및 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 표시할 수 있다.In response to the received touch input, the display unit 140 may display an image corresponding to the thumbnail and a portion corresponding to the region of interest within the image. For example, a user may input a touch input for a thumbnail corresponding to the first image within a gallery screen. In response to the touch input, the display unit 140 may display a first image and a portion corresponding to the region of interest within the first image, as shown in FIG.

다시 도 23을 참조하면, 다음으로, 사용자로부터 입력을 수신하는 단계(S810)가 수행될 수 있다. 사용자는 표시부(140)에 표시된 영상의 확대를 위하여 핀치 아웃(pinch out) 입력을 입력할 수 있다. 도 25는 영상 처리 장치(100)에 표시된 영상에 대해 사용자로부터 핀치 아웃(pinch out) 입력이 수신된 경우를 나타내는 화면이다. 도 25를 참조하면, 사용자는 제1영상에 포함된 안면 부분에 대하여 핀치 아웃 입력을 입력할 수 있다. 입력부(150)는 사용자로부터 상기 핀치 아웃 입력을 수신할 수 있다.Referring again to FIG. 23, next step S810 of receiving an input from the user may be performed. The user can input a pinch-out input for enlarging the image displayed on the display unit 140. [ 25 is a screen showing a case where a pinch-out input is received from a user for an image displayed on the image processing apparatus 100. [ Referring to FIG. 25, a user may input a pinch-out input for a face portion included in a first image. The input unit 150 may receive the pinch-out input from the user.

또한, 사용자는 표시부(140)에 표시된 영상의 패닝(panning) 또는 네비게이션(navigation)을 위하여 드래그(drag) 입력을 입력할 수 있다. 도 26은 영상 처리 장치(100)에 표시된 영상에 대해 사용자로부터 드래그(drag) 입력이 수신된 경우를 나타내는 화면이다. 도 26의 (p)를 참조하면, 표시부(140)는 제1영상에 포함된 안면 부분을 이미 확대하여 표시하고 있다. 사용자는 도 26의 (q) 또는 (r)에서와 같이 제1영상 내의 다른 부분이 표시되도록 하기 위하여 드래그 입력을 입력할 수 있다. 입력부(150)는 사용자로부터 상기 드래그 입력을 수신할 수 있다.In addition, the user can input a drag input for panning or navigation of the image displayed on the display unit 140. 26 is a screen showing a case where a drag input is received from a user for an image displayed on the image processing apparatus 100. [ Referring to FIG. 26 (p), the display unit 140 already enlarges and displays the face portion included in the first image. The user can input a drag input to display another portion in the first image as in (q) or (r) in Fig. The input unit 150 may receive the drag input from the user.

다시 도 23을 참조하면, 다음으로, 상기 수신된 입력을 이용하여 확대 배율을 결정하는 단계(S820)가 수행될 수 있다. 제어부(130)는 상기 수신된 핀치 아웃 입력에 대한 응답으로, 확대 배율을 결정할 수 있다. 상기 핀치 아웃 입력을 위해 사용자가 양손가락 사이를 더 많이 벌릴수록, 제어부(130)는 더 높은 확대 배율을 결정할 수 있다. 제어부(130)는 상기 확대 배율로서 1보다 큰 유리수를 결정할 수 있다.Referring again to FIG. 23, the step of determining an enlargement magnification using the received input (S820) may be performed. The control unit 130 may determine an enlargement ratio in response to the received pinch-out input. The more the user spreads between the two fingers for the pinch-out input, the more the control unit 130 can determine the higher magnification. The controller 130 can determine a rational number greater than 1 as the enlargement magnification.

다음으로, 상기 영상 내에서 상기 관심영역에 대응하는 부분 및 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 복원 데이터를 이용하여 상기 확대 배율에 대응하는 확대 영상을 생성하는 단계(S830)가 수행될 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터를 이용하여 상기 확대 배율에 대응하는 확대 영상을 생성할 수 있다.Generating an enlarged image corresponding to the enlargement magnification using reconstruction data representing a difference between the portion corresponding to the region of interest in the image and the portion corresponding to the region of interest in the super resolution image S830) may be performed. The control unit 130 may generate an enlarged image corresponding to the enlargement magnification using the reconstruction data stored in the storage unit 160. [

도 27은 실시예에 따라 복원 데이터를 이용하여 확대 배율에 대응하는 확대 영상을 생성하는 단계를 설명하기 위한 참고도이다. 도 27을 참조하면, 상기 결정된 확대 배율은 다음의 5가지 경우 중에서 어느 하나일 수 있다. 상기 결정된 확대 배율은, 도 27의 (a)의 경우로서, 1보다 크고 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근보다 작을 수 있다. 예를 들어, 제1영상의 해상도는 1600만 화소일 수 있다. 다시 말해서, 수광부(110)에 의해 생성된 원시 영상의 해상도는 1600만 화소일 수 있다. 또한, 표시부(140)의 해상도는 200만 화소일 수 있다. 따라서, 도 27의 (a)의 경우, 상기 확대 배율은 1보다 크고 sqrt(16/2) = 2.828보다 작을 수 있다.27 is a reference diagram for explaining a step of generating an enlarged image corresponding to an enlargement magnification using restoration data according to an embodiment. Referring to FIG. 27, the determined enlargement magnification may be any of the following five cases. The determined enlargement magnification is larger than 1 and smaller than the square root of the quotient of the resolution of the first image divided by the resolution of the display unit 140 as shown in FIG. 27 (a). For example, the resolution of the first image may be 16 million pixels. In other words, the resolution of the original image generated by the light receiving unit 110 may be 16 million pixels. In addition, the resolution of the display unit 140 may be 2 million pixels. Therefore, in the case of FIG. 27 (a), the enlargement magnification may be larger than 1 and smaller than sqrt (16/2) = 2.828.

또한, 상기 결정된 확대 배율은, 도 27의 (b)의 경우로서, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근과 서로 동일할 수 있다. 따라서, 도 27의 (b)의 경우, 상기 확대 배율은 sqrt(16/2) = 2.828일 수 있다.27 (b), the determined enlargement magnification may be the same as the square root of the quotient obtained by dividing the resolution of the first image by the resolution of the display unit 140. [ Therefore, in the case of FIG. 27 (b), the enlargement magnification may be sqrt (16/2) = 2.828.

또한, 상기 결정된 확대 배율은, 도 27의 (c)의 경우로서, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근보다 크고, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작을 수 있다. 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근은 sqrt(16/2) = 2.828일 수 있다. 또한, 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근은 sqrt(4/1) = 2일 수 있다. 따라서, 도 27의 (c)의 경우, 상기 확대 배율은 2.828보다 크고 2.828 * 2 = 5.656보다 작을 수 있다.27 (c), the determined enlargement magnification is larger than the square root of the quotient obtained by dividing the resolution of the first image by the resolution of the display unit 140, and the resolution of the first image is set to the resolution of the display unit 140 And a square root of a quotient obtained by dividing the resolution of the portion corresponding to the RO in the super resolution image by the resolution of the portion corresponding to the RO in the first image. The square root of the quotient of the resolution of the first image divided by the resolution of the display unit 140 may be sqrt (16/2) = 2.828. Also, a square root of a quotient obtained by dividing the resolution of the portion corresponding to the RO in the super resolution image by the resolution of the portion corresponding to the RO in the first image may be sqrt (4/1) = 2 . Therefore, in the case of FIG. 27 (c), the enlargement magnification may be larger than 2.828 and smaller than 2.828 * 2 = 5.656.

또한, 상기 결정된 확대 배율은, 도 27의 (d)의 경우로서, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값과 서로 동일할 수 있다. 따라서, 도 27의 (d)의 경우, 상기 확대 배율은 5.656일 수 있다.27 (d), the determined enlargement magnification is obtained by multiplying the square root of a quotient obtained by dividing the resolution of the first image by the resolution of the display unit 140 in a portion corresponding to the region of interest in the super resolution image And a value obtained by multiplying the resolution by the square root of the quotient of the first image divided by the resolution of the portion corresponding to the region of interest. Therefore, in the case of FIG. 27 (d), the enlargement magnification may be 5.656.

또한, 상기 결정된 확대 배율은, 도 27의 (e)의 경우로서, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 클 수 있다. 따라서, 도 27의 (e)의 경우, 상기 확대 배율은 5.656보다 클 수 있다.27 (e), the determined enlargement magnification is obtained by multiplying the square root of a quotient obtained by dividing the resolution of the first image by the resolution of the display unit 140 in a region corresponding to the region of interest in the super resolution image May be greater than a value obtained by multiplying the resolution by the square root of the quotient of the first image divided by the resolution of the portion corresponding to the region of interest. Therefore, in the case of FIG. 27 (e), the enlargement magnification may be larger than 5.656.

상기 결정된 확대 배율에 대응하는 확대 영상의 해상도는 표시부(140)의 해상도에 상기 결정된 확대 배율의 제곱을 곱함으로써 산출될 수 있다. 도 27의 (a)의 경우, 상기 확대 배율에 대응하는 확대 영상의 해상도는 표시부(140)의 해상도보다 크고 제1영상의 해상도보다 작을 수 있다. 제어부(130)는 제1영상을 상기 확대 배율에 대응하는 확대 영상의 해상도로 다운스케일링함으로써 상기 확대 영상을 생성할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 다운스케일링함으로써 확대 영상을 생성할 수 있다. 도 27의 (b)의 경우, 상기 확대 배율에 대응하는 확대 영상의 해상도는 제1영상의 해상도와 서로 동일할 수 있다. 제어부(130)는 제1영상을 상기 확대 영상으로 지정할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 잘라냄(crop)으로써 확대 영상을 생성할 수 있다.The resolution of the enlarged image corresponding to the determined enlargement magnification can be calculated by multiplying the resolution of the display unit 140 by the square of the determined enlargement magnification. 27A, the resolution of the enlarged image corresponding to the enlargement magnification may be larger than the resolution of the display unit 140 and may be smaller than the resolution of the first image. The control unit 130 may generate the enlarged image by downscaling the first image to a resolution of the enlarged image corresponding to the enlargement magnification. According to another embodiment, the control unit 130 may generate an enlarged image by downscaling only the portion to be displayed by the display unit 140 in the first image. In the case of FIG. 27 (b), the resolution of the enlarged image corresponding to the enlargement magnification may be the same as the resolution of the first image. The control unit 130 may designate the first image as the enlarged image. According to another embodiment, the control unit 130 may generate an enlarged image by cropping only the portion to be displayed by the display unit 140 in the first image.

도 27의 (c)의 경우, 상기 확대 배율에 대응하는 확대 영상의 해상도는 제1영상의 해상도보다 크고 제1영상의 해상도에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫을 곱한 값보다 작을 수 있다. 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫은 4이므로, 상기 확대 영상의 해상도는 제1영상의 해상도보다 크고 제1영상의 해상도의 4배보다 작을 수 있다.In the case of (c) of FIG. 27, the resolution of the enlarged image corresponding to the enlargement magnification is larger than the resolution of the first image, and the resolution of the portion corresponding to the region of interest in the super resolution image, May be less than a value obtained by multiplying a quotient divided by a resolution of a portion corresponding to the region of interest in the first image. The resolution of the portion corresponding to the region of interest in the super resolution image divided by the resolution of the portion corresponding to the region of interest in the first image is 4, And may be smaller than four times the resolution of the first image.

또한, 도 27의 (c)의 경우, 확대 영상 내에서 표시부(140)가 표시할 부분은 다음의 3가지 경우 중에서 어느 하나일 수 있다. 도 26의 (p)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응할 수 있다. 또한, 도 26의 (q)의 경우와 같이, 표시부(140)가 표시할 부분의 일부는 관심영역에 대응하고 표시부(140)가 표시할 부분의 다른 일부는 관심영역에 대응하지 않을 수 있다. 또한, 도 26의 (r)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응하지 않을 수 있다.In the case of FIG. 27 (c), the portion to be displayed by the display unit 140 in the enlarged image may be any of the following three cases. As in the case of (p) in FIG. 26, all of the portions to be displayed by the display unit 140 can correspond to the region of interest. 26 (q), a part of the portion to be displayed by the display unit 140 may correspond to the region of interest, and another portion of the portion to be displayed by the display unit 140 may not correspond to the region of interest. Also, as in the case of (r) in FIG. 26, all of the portion to be displayed by the display unit 140 may not correspond to the region of interest.

도 27의 (c) 및 도 26의 (p)의 경우, 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분 영상 및 저장부(160)에 저장된 복원 데이터를 이용하여 확대 영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다.27 (c) and 26 (p), the controller 130 may upscale a portion corresponding to the region of interest in the first image. According to another embodiment, the control unit 130 can upscale only the portion to be displayed by the display unit 140 in the first image. The control unit 130 may generate an enlarged image using the upscaled partial image and the restored data stored in the storage unit 160. [ The control unit 130 may combine the enlarged scale factor and the portion corresponding to the upscaled partial image with the upscaled partial image among the restored data stored in the storage unit 160. [

예를 들어, 제어부(130)는 저장된 복원 데이터 중에서 해상도 B에 대한 복원 데이터가 상기 확대 배율에 대응한다고 판정할 수 있다. 제어부(130)는 해상도 B에 대한 복원 데이터 내에서 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다. 복원 데이터는 제1영상으로부터 추출된 부분 및 슈퍼레졸루션 영상 내에서 상기 추출된 부분에 대응하는 부분 사이의 차이를 나타내므로, 상기 합성으로 인하여 상기 업스케일링된 부분 영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다.For example, the control unit 130 can determine that the restored data for the resolution B among the stored restored data corresponds to the enlargement magnification. The control unit 130 may combine the portion corresponding to the upscaled partial image with the upscaled partial image in the reconstruction data for the resolution B. [ Since the reconstruction data represents the difference between the portion extracted from the first image and the portion corresponding to the extracted portion in the super resolution image, a super resolution partial image corresponding to the upscaled partial image is generated .

도 27의 (c) 및 도 26의 (q)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성할 수 있다. 또한, 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성할 수 있다. 상기 합성으로 인하여 제1부분영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다. 제어부(130)는 생성된 슈퍼레졸루션 부분 영상 및 제2부분영상을 결합함으로써 확대 영상을 생성할 수 있다.27 (c) and 26 (q), the controller 130 can upscale only the portion to be displayed by the display unit 140 in the first image. The control unit 130 may upscale a portion corresponding to the region of interest among the portions to be displayed by the display unit 140 to generate the first partial image. The controller 130 may generate a second partial image by upscaling another part not corresponding to the region of interest among the portions to be displayed by the display unit 140. [ The control unit 130 may combine the enlargement ratio and the portion corresponding to the first partial image from the restored data stored in the storage unit 160 with the first partial image. The super resolution partial image corresponding to the first partial image may be generated due to the synthesis. The control unit 130 may generate an enlarged image by combining the generated super resolution partial image and the second partial image.

도 27의 (c) 및 도 26의 (r)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링함으로써 확대 영상을 생성할 수 있다.27 (c) and 26 (r), the control unit 130 can generate an enlarged image by upscaling only the portion to be displayed by the display unit 140 in the first image.

도 27의 (d)의 경우, 확대 배율에 대응하는 확대 영상의 해상도는 제1영상의 해상도에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫을 곱한 값과 동일할 수 있다. 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫은 4이므로, 상기 확대 영상의 해상도는 제1영상의 해상도의 4배와 동일할 수 있다.In the case of (d) of FIG. 27, the resolution of the enlarged image corresponding to the enlargement magnification is set such that the resolution of the portion corresponding to the region of interest in the super resolution image in the resolution of the first image, And a value obtained by multiplying the quotient divided by the resolution of the portion corresponding to the resolution of the image. The resolution of the portion corresponding to the region of interest in the super resolution image divided by the resolution of the portion corresponding to the region of interest in the first image is 4, 4 times.

또한, 도 27의 (d)의 경우, 확대 영상 내에서 표시부(140)가 표시할 부분은 다음의 3가지 경우 중에서 어느 하나일 수 있다. 도 26의 (p)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응할 수 있다. 또한, 도 26의 (q)의 경우와 같이, 표시부(140)가 표시할 부분의 일부는 관심영역에 대응하고 표시부(140)가 표시할 부분의 다른 일부는 관심영역에 대응하지 않을 수 있다. 또한, 도 26의 (r)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응하지 않을 수 있다.27 (d), the portion to be displayed by the display unit 140 in the enlarged image may be any of the following three cases. As in the case of (p) in FIG. 26, all of the portions to be displayed by the display unit 140 can correspond to the region of interest. 26 (q), a part of the portion to be displayed by the display unit 140 may correspond to the region of interest, and another portion of the portion to be displayed by the display unit 140 may not correspond to the region of interest. Also, as in the case of (r) in FIG. 26, all of the portion to be displayed by the display unit 140 may not correspond to the region of interest.

도 27의 (d) 및 도 26의 (p)의 경우, 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분 영상 및 저장부(160)에 저장된 복원 데이터를 이용하여 확대 영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다.27 (d) and 26 (p), the controller 130 may upscale a portion corresponding to the region of interest in the first image. According to another embodiment, the control unit 130 can upscale only the portion to be displayed by the display unit 140 in the first image. The control unit 130 may generate an enlarged image using the upscaled partial image and the restored data stored in the storage unit 160. [ The control unit 130 may combine the enlarged scale factor and the portion corresponding to the upscaled partial image with the upscaled partial image among the restored data stored in the storage unit 160. [

예를 들어, 제어부(130)는 저장된 복원 데이터 중에서 해상도 E에 대한 복원 데이터가 상기 확대 배율에 대응한다고 판정할 수 있다. 제어부(130)는 해상도 E에 대한 복원 데이터 내에서 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다. 복원 데이터는 제1영상으로부터 추출된 부분 및 슈퍼레졸루션 영상 내에서 상기 추출된 부분에 대응하는 부분 사이의 차이를 나타내므로, 상기 합성으로 인하여 상기 업스케일링된 부분 영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다.For example, the control unit 130 can determine that the restored data for the resolution E among the stored restored data corresponds to the enlargement magnification. The controller 130 may combine the portion corresponding to the upscaled partial image with the upscaled partial image in the reconstruction data for the resolution E. [ Since the reconstruction data represents the difference between the portion extracted from the first image and the portion corresponding to the extracted portion in the super resolution image, a super resolution partial image corresponding to the upscaled partial image is generated .

도 27의 (d) 및 도 26의 (q)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성할 수 있다. 또한, 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성할 수 있다. 상기 합성으로 인하여 제1부분영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다. 제어부(130)는 생성된 슈퍼레졸루션 부분 영상 및 제2부분영상을 결합합으로써 확대 영상을 생성할 수 있다.27 (d) and 26 (q), the controller 130 can upscale only the portion to be displayed by the display unit 140 in the first image. The control unit 130 may upscale a portion corresponding to the region of interest among the portions to be displayed by the display unit 140 to generate the first partial image. The controller 130 may generate a second partial image by upscaling another part not corresponding to the region of interest among the portions to be displayed by the display unit 140. [ The control unit 130 may combine the enlargement ratio and the portion corresponding to the first partial image from the restored data stored in the storage unit 160 with the first partial image. The super resolution partial image corresponding to the first partial image may be generated due to the synthesis. The control unit 130 may generate an enlarged image by combining the generated super resolution partial image and the second partial image.

도 27의 (d) 및 도 26의 (r)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링함으로써 확대 영상을 생성할 수 있다.In the case of FIGS. 27 (d) and 26 (r), the controller 130 may generate an enlarged image by up-scaling only the portion to be displayed by the display unit 140 in the first image.

도 27의 (e)의 경우, 확대 배율에 대응하는 확대 영상의 해상도는 제1영상의 해상도에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫을 곱한 값보다 클 수 있다. 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫은 4이므로, 상기 확대 영상의 해상도는 제1영상의 해상도의 4배보다 클 수 있다.In the case of (e) of FIG. 27, the resolution of the enlarged image corresponding to the enlargement magnification is set such that the resolution of the portion corresponding to the region of interest in the super resolution image to the resolution of the first image, Which is obtained by multiplying the quotient divided by the resolution of the portion corresponding to the number of pixels. The resolution of the portion corresponding to the region of interest in the super resolution image divided by the resolution of the portion corresponding to the region of interest in the first image is 4, May be greater than four times.

또한, 도 27의 (e)의 경우, 확대 영상 내에서 표시부(140)가 표시할 부분은 다음의 3가지 경우 중에서 어느 하나일 수 있다. 도 26의 (p)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응할 수 있다. 또한, 도 26의 (q)의 경우와 같이, 표시부(140)가 표시할 부분의 일부는 관심영역에 대응하고 표시부(140)가 표시할 부분의 다른 일부는 관심영역에 대응하지 않을 수 있다. 또한, 도 26의 (r)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응하지 않을 수 있다.27 (e), the portion to be displayed by the display unit 140 in the enlarged image may be any of the following three cases. As in the case of (p) in FIG. 26, all of the portions to be displayed by the display unit 140 can correspond to the region of interest. 26 (q), a part of the portion to be displayed by the display unit 140 may correspond to the region of interest, and another portion of the portion to be displayed by the display unit 140 may not correspond to the region of interest. Also, as in the case of (r) in FIG. 26, all of the portion to be displayed by the display unit 140 may not correspond to the region of interest.

도 27의 (e) 및 도 26의 (p)의 경우, 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분 영상 및 저장부(160)에 저장된 복원 데이터를 이용하여 확대 영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다.27 (e) and 26 (p), the controller 130 may upscale a portion corresponding to the region of interest in the first image. According to another embodiment, the control unit 130 can upscale only the portion to be displayed by the display unit 140 in the first image. The control unit 130 may generate an enlarged image using the upscaled partial image and the restored data stored in the storage unit 160. [ The control unit 130 may combine the enlarged scale factor and the portion corresponding to the upscaled partial image with the upscaled partial image among the restored data stored in the storage unit 160. [

예를 들어, 제어부(130)는 해상도 E에 대한 복원 데이터 내에서 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다. 복원 데이터는 제1영상으로부터 추출된 부분 및 슈퍼레졸루션 영상 내에서 상기 추출된 부분에 대응하는 부분 사이의 차이를 나타내므로, 상기 합성으로 인하여 상기 업스케일링된 부분 영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다. 제어부(130)는 생성된 슈퍼레졸루션 부분 영상을 쌍입방 보간법으로 업스케일링함으로써 확대 배율에 대응하는 확대 영상을 생성할 수 있다.For example, the controller 130 may combine the upscaled partial image with the portion corresponding to the upscaled partial image in the reconstruction data for the resolution E. Since the reconstruction data represents the difference between the portion extracted from the first image and the portion corresponding to the extracted portion in the super resolution image, a super resolution partial image corresponding to the upscaled partial image is generated . The control unit 130 can generate an enlarged image corresponding to the enlargement magnification by upscaling the generated super resolution partial image by the bi-cubic interpolation method.

도 27의 (e) 및 도 26의 (q)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성할 수 있다. 또한, 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성할 수 있다. 상기 합성으로 인하여 제1부분영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다. 제어부(130)는 생성된 슈퍼레졸루션 부분 영상 및 제2부분영상을 결합할 수 있다. 제어부(130)는 상기 결합된 영상을 쌍입방 보간법으로 업스케일링함으로써 확대 배율에 대응하는 확대 영상을 생성할 수 있다.27 (e) and 26 (q), the controller 130 can upscale only the portion to be displayed by the display unit 140 in the first image. The control unit 130 may upscale a portion corresponding to the region of interest among the portions to be displayed by the display unit 140 to generate the first partial image. The controller 130 may generate a second partial image by upscaling another part not corresponding to the region of interest among the portions to be displayed by the display unit 140. [ The control unit 130 may combine the enlargement ratio and the portion corresponding to the first partial image from the restored data stored in the storage unit 160 with the first partial image. The super resolution partial image corresponding to the first partial image may be generated due to the synthesis. The control unit 130 may combine the generated super resolution partial image and the second partial image. The control unit 130 can generate an enlarged image corresponding to the enlargement magnification by upscaling the combined image by the bi-cubic interpolation method.

도 27의 (e) 및 도 26의 (r)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링함으로써 확대 영상을 생성할 수 있다.27 (e) and 26 (r), the controller 130 can generate an enlarged image by up-scaling only the portion to be displayed by the display unit 140 in the first image.

다시 도 23을 참조하면, 다음으로, 상기 확대 영상을 표시하는 단계(S840)가 수행될 수 있다. 표시부(140)는 제어부(130)에 의해 생성된 확대 영상을 표시할 수 있다. 도 28은 실시예에 따라 확대 영상을 표시한 결과를 나타내는 화면이다.Referring again to FIG. 23, the step of displaying the enlarged image (S840) may be performed. The display unit 140 may display an enlarged image generated by the control unit 130. FIG. 28 is a screen showing a result of displaying an enlarged image according to the embodiment.

제1영상의 해상도가 1600만 화소이고 표시부(140)의 해상도가 200만 화소인 경우, 표시되는 영상의 품질의 저하 없이 상기 표시부(140) 상에 표시할 수 있는 최대 확대 배율은 sqrt(16/2) = 2.828(배)일 수 있다. 이상에서 설명된 실시예에 따르면, 제1영상이 2.828배를 초과하여 확대된 경우에는 슈퍼레졸루션 영상 또는 슈퍼레졸루션 영상으로부터 업스케일링된 영상이 표시될 수 있다. 따라서, 영상을 확대하여 표시할 때 표시된 영상의 품질이 향상될 수 있다.When the resolution of the first image is 16 million pixels and the resolution of the display unit 140 is 2 million pixels, the maximum enlargement magnification that can be displayed on the display unit 140 without degrading the displayed image quality is sqrt (16 / 2) = 2.828 (times). According to the embodiment described above, if the first image is enlarged by more than 2.828 times, the upscaled image can be displayed from the super resolution image or the super resolution image. Therefore, when the image is enlarged and displayed, the quality of the displayed image can be improved.

또한, 상기의 실시예에 따르면 영상 내의 관심영역에 대하여만 처리를 수행하므로, 영상 처리에 소요되는 시간을 단축시킬 수 있다. 또한, 영상 처리에 필요한 메모리의 크기를 줄일 수 있다. 또한, 영상 처리의 결과를 저장하는 데에 필요한 저장공간의 크기를 줄일 수 있다.In addition, according to the embodiment, only the region of interest in the image is processed, so that the time required for the image processing can be shortened. Also, the size of the memory required for image processing can be reduced. In addition, the size of the storage space required for storing the result of the image processing can be reduced.

또한, 상기의 실시예에 따르면 슈퍼레졸루션 영상이 저장되는 대신에, 제1영상 내에서 관심영역에 대응하는 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 복원 데이터가 저장될 수 있다. 상기 복원 데이터는 압축되어 저장될 수 있다. 또한, 상기 저장된 복원 데이터를 이용하여 상기 관심영역에 대응하는 슈퍼레졸루션 영상이 복원될 수 있다. 따라서, 영상의 품질을 향상시키기 위해 필요로 하는 추가적인 저장공간의 크기를 감소시킬 수 있다.Also, according to the above embodiment, instead of storing the super resolution image, restoration data indicating a difference between the portion corresponding to the region of interest in the first image and the portion corresponding to the region of interest in the super resolution image Lt; / RTI > The restored data may be compressed and stored. In addition, the super resolution image corresponding to the ROI can be restored using the stored restored data. Therefore, the size of the additional storage space required for improving the quality of the image can be reduced.

이상에서 설명된 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.The embodiments described above may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer, and can include both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium can include both computer storage media and communication media. Computer storage media may include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and may include any information delivery media.

이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 영상 처리 장치
110: 수광부
120: 영상신호처리부
130: 제어부
140: 표시부
150: 입력부
160: 저장부
100: image processing device
110:
120: Video signal processor
130:
140:
150:
160:

Claims (30)

제1영상을 준비하는 단계;
상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계; 및
복원 데이터를 생성하는 단계
를 포함하고,
상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높은 영상 처리 방법.
Preparing a first image;
Designating at least one region of interest (ROI) within the first image; And
Step of generating restoration data
Lt; / RTI >
Wherein the second image reconstructed using the reconstructed data corresponds to the region of interest and the resolution of the second image is higher than the resolution of the portion corresponding to the region of interest in the first image.
제1항에 있어서,
상기 제1영상은 대상에 대해 촬영된 영상이고,
상기 복원 데이터를 생성하는 단계는,
상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하는 단계; 및
상기 제1영상 및 상기 복원 데이터를 저장하는 단계
를 포함하는 영상 처리 방법.
The method according to claim 1,
Wherein the first image is an image taken with respect to an object,
Wherein the step of generating the restoration data comprises:
Generating restoration data of a portion corresponding to the region of interest in the first image; And
Storing the first image and the restored data
And an image processing method.
제1항에 있어서,
상기 제1영상은 대상으로부터 반사된 빛을 이용하여 생성된 미리보기(preview) 영상이고,
상기 제1영상을 준비하는 단계는,
상기 미리보기 영상을 디스플레이에 표시하는 단계
를 포함하고,
상기 복원 데이터를 생성하는 단계는,
상기 대상에 대한 제3영상을 촬영하는 단계;
상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하는 단계; 및
상기 제3영상 및 상기 복원 데이터를 저장하는 단계
를 포함하는 영상 처리 방법.
The method according to claim 1,
The first image is a preview image generated using light reflected from the object,
Wherein the preparing the first image comprises:
Displaying the preview image on a display
Lt; / RTI >
Wherein the step of generating the restoration data comprises:
Capturing a third image of the object;
Generating restoration data of a portion corresponding to the region of interest in the third image; And
Storing the third image and the restoration data
And an image processing method.
제3항에 있어서,
상기 복원 데이터를 생성하는 단계는,
상기 대상에 대한 복수의 영상을 촬영하는 단계; 및
상기 복수의 영상 중에서 적어도 일부를 이용하여 상기 관심영역에 대한 슈퍼레졸루션(super resolution) 영상을 생성하는 단계
를 포함하는 영상 처리 방법.
The method of claim 3,
Wherein the step of generating the restoration data comprises:
Capturing a plurality of images of the object; And
Generating a super resolution image for the ROI using at least a part of the plurality of images;
And an image processing method.
제4항에 있어서,
상기 복원 데이터를 생성하는 단계는,
상기 제3영상 내에서 상기 관심영역에 대응하는 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터를 생성하는 단계
를 더 포함하는 영상 처리 방법.
5. The method of claim 4,
Wherein the step of generating the restoration data comprises:
Generating comparison data representing a difference between a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest within the super resolution image
Further comprising the steps of:
제4항에 있어서,
상기 복원 데이터를 생성하는 단계는,
상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택하는 단계;
상기 선택된 각각의 해상도로 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링함으로써 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만드는 단계; 및
상기 제3영상 내에서 상기 관심영역에 대응하는 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 서로 비교함으로써 상기 선택된 각각의 해상도에 대한 비교 데이터를 생성하는 단계
를 더 포함하는 영상 처리 방법.
5. The method of claim 4,
Wherein the step of generating the restoration data comprises:
Selecting at least one of resolutions in the third image that are larger than the resolution of the portion corresponding to the ROI and smaller than or equal to the resolution of the portion corresponding to the ROI in the super resolution image;
Scaling a portion corresponding to the region of interest in the third image with each of the selected resolutions or downscaling a portion corresponding to the region of interest within the super resolution image, Making a resolution of a corresponding portion and a resolution of a portion corresponding to the RO in the super resolution image equal to each other; And
Generating comparison data for each of the selected resolutions by comparing a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest in the super resolution image with each other
Further comprising the steps of:
제3항에 있어서,
상기 적어도 하나 이상의 관심영역을 지정하는 단계는,
상기 미리보기 영상을 복수의 영역으로 분할하는 단계;
상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하는 단계; 및
상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정하는 단계
를 포함하는 영상 처리 방법.
The method of claim 3,
Wherein the step of specifying the at least one region of interest comprises:
Dividing the preview image into a plurality of regions;
Determining whether an object of interest (OOI) is included in each of the regions; And
Designating at least one of the plurality of areas as the ROI according to the determination result
And an image processing method.
제3항에 있어서,
상기 적어도 하나 이상의 관심영역을 지정하는 단계는,
상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계;
상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계; 및
상기 검출된 영역을 상기 관심영역으로 지정하는 단계
를 포함하는 영상 처리 방법.
The method of claim 3,
Wherein the step of specifying the at least one region of interest comprises:
Detecting a position of an object of interest in the preview image by analyzing the preview image;
Detecting an area corresponding to the object of interest by performing image segmentation using the detected position; And
Designating the detected region as the ROI
And an image processing method.
제8항에 있어서,
상기 관심대상의 위치를 검출하는 단계는,
상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하는 단계;
상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출하는 단계;
상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하는 단계; 및
상기 미리보기 영상 내에서 초점의 위치를 검출하는 단계
를 포함하는 영상 처리 방법.
9. The method of claim 8,
Wherein detecting the location of the object of interest comprises:
Detecting a position of a high frequency component in the preview image;
Detecting a face position by performing face recognition on the preview image;
Detecting a position of a text by performing optical character recognition (OCR) on the preview image; And
Detecting a position of the focus within the preview image
And an image processing method.
제3항에 있어서,
상기 적어도 하나 이상의 관심영역을 지정하는 단계는,
사용자로부터 드래그 입력을 수신하는 단계;
상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하는 단계;
사용자로부터 탭 입력을 수신하는 단계;
상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하는 단계;
상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하는 단계; 및
상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정하는 단계
를 포함하는 영상 처리 방법.
The method of claim 3,
Wherein the step of specifying the at least one region of interest comprises:
Receiving a drag input from a user;
Detecting a first region corresponding to the drag input in the preview image;
Receiving a tap input from a user;
Detecting a position corresponding to the tap input in the preview image;
Detecting a second region by performing image segmentation using the detected position; And
Designating the first region and the second region as the region of interest
And an image processing method.
제3항에 있어서,
상기 적어도 하나 이상의 관심영역을 지정하는 단계는,
상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계;
상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계;
상기 미리보기 영상 상에 상기 검출된 영역을 표시하는 단계;
사용자로부터 탭 입력을 수신하는 단계;
상기 검출된 영역 중에서 상기 탭 입력에 대응하는 영역을 선택하거나 선택해제하는 단계;
사용자로부터 드래그 입력을 수신하는 단계;
상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제3영역을 검출하는 단계; 및
상기 선택된 영역 및 상기 제3영역을 상기 관심영역으로 지정하는 단계
를 포함하는 영상 처리 방법.
The method of claim 3,
Wherein the step of specifying the at least one region of interest comprises:
Detecting a position of an object of interest in the preview image by analyzing the preview image;
Detecting an area corresponding to the object of interest by performing image segmentation using the detected position;
Displaying the detected area on the preview image;
Receiving a tap input from a user;
Selecting or deselecting a region corresponding to the tap input from among the detected regions;
Receiving a drag input from a user;
Detecting a third region corresponding to the drag input in the preview image; And
Designating the selected region and the third region as the region of interest
And an image processing method.
제3항에 있어서,
상기 저장된 제3영상 및 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 표시하는 단계;
사용자로부터 입력을 수신하는 단계;
상기 수신된 입력을 이용하여 상기 디스플레이의 해상도를 기준으로 한 확대 배율을 결정하는 단계;
상기 확대 배율 및 상기 복원 데이터를 이용하여 상기 제3영상의 확대 영상을 생성하는 단계; 및
상기 확대 영상을 표시하는 단계
를 더 포함하는 영상 처리 방법.
The method of claim 3,
Displaying a portion corresponding to the region of interest in the stored third image and the stored third image;
Receiving an input from a user;
Determining an enlargement factor based on the resolution of the display using the received input;
Generating an enlarged image of the third image using the enlargement magnification and the reconstruction data; And
Displaying the enlarged image
Further comprising the steps of:
제12항에 있어서,
상기 확대 영상을 생성하는 단계는,
상기 확대 배율이 1보다 크고 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 작은 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 다운스케일링함으로써 상기 확대 영상을 생성하는 단계; 및
상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근과 서로 동일한 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 잘라냄(crop)으로써 상기 확대 영상을 생성하는 단계
를 포함하는 영상 처리 방법.
13. The method of claim 12,
The step of generating the enlarged image may include:
Generating the enlarged image by downscaling a portion to be displayed on the display in the third image when the enlargement magnification is larger than 1 and the resolution of the third image is smaller than a square root of a quotient of dividing the resolution of the display; And
Generating the enlarged image by cropping a portion to be displayed on the display in the third image when the enlargement magnification is equal to a square root of a quotient of dividing the resolution of the third image by the resolution of the display,
And an image processing method.
제12항에 있어서,
상기 확대 영상을 생성하는 단계는,
상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 크고, 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작거나 같은 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 업스케일링함으로써 부분 영상을 생성하는 단계; 및
상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 부분 영상에 대응하는 부분을 상기 부분 영상과 합성함으로써 상기 확대 영상을 생성하는 단계
를 포함하는 영상 처리 방법.
13. The method of claim 12,
The step of generating the enlarged image may include:
Wherein the enlarged magnification is greater than a square root of a quotient of the third image divided by a resolution of the display and a square root of a quotient of the third image divided by a resolution of the display, Scaling the portion to be displayed on the display in the third image if the resolution of the corresponding portion is less than or equal to the value obtained by multiplying the square root of the quotient of the portion of the third image divided by the resolution of the portion corresponding to the region of interest Generating a partial image; And
Generating the enlarged image by synthesizing a portion corresponding to the enlargement ratio and the partial image from the stored restored data with the partial image,
And an image processing method.
제12항에 있어서,
상기 확대 영상을 생성하는 단계는,
상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 크고, 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작은 경우 상기 제3영상 내의 상기 디스플레이에 표시될 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성하는 단계;
상기 제3영상 내의 상기 디스플레이에 표시될 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성하는 단계;
상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성함으로써 슈퍼레졸루션 부분 영상을 생성하는 단계; 및
상기 슈퍼레졸루션 부분 영상 및 상기 제2부분영상을 결합함으로써 상기 확대 영상을 생성하는 단계
를 포함하는 영상 처리 방법.
13. The method of claim 12,
The step of generating the enlarged image may include:
Wherein the enlarged magnification is greater than a square root of a quotient of the third image divided by a resolution of the display and a square root of a quotient of the third image divided by a resolution of the display, Corresponding to the region of interest in the third image when the resolution of the corresponding portion is smaller than a value obtained by multiplying the square root of the quotient of the portion corresponding to the region of interest in the third image by the resolution of the portion corresponding to the region of interest Upscaling a portion to generate a first partial image;
Generating a second partial image by upscaling another portion of the portion of the third image not corresponding to the region of interest to be displayed on the display;
Generating a super resolution partial image by combining a portion corresponding to the enlargement ratio and the first partial image from the stored restored data with the first partial image; And
And generating the enlarged image by combining the super resolution partial image and the second partial image
And an image processing method.
제12항에 있어서,
상기 확대 영상을 생성하는 단계는,
상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 큰 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 업스케일링함으로써 부분 영상을 생성하는 단계; 및
상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 부분 영상에 대응하는 부분을 상기 부분 영상과 합성하는 단계; 및
상기 합성된 영상을 업스케일링함으로써 상기 확대 영상을 생성하는 단계
를 포함하는 영상 처리 방법.
13. The method of claim 12,
The step of generating the enlarged image may include:
Wherein the resolution of the portion corresponding to the ROI in the super resolution image is set to a square root of a quotient of the share of the resolution of the third image divided by the resolution of the display in the third image, Generating a partial image by upscaling a portion to be displayed on the display in the third image when the square is greater than a product of the square root of the quotient divided by the resolution of the partial image; And
Synthesizing a portion corresponding to the enlargement ratio and the partial image from the stored reconstruction data with the partial image; And
Generating the enlarged image by upscaling the synthesized image;
And an image processing method.
제1항의 영상 처리 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for causing a computer to execute the image processing method of claim 1. 저장된 영상 및 상기 영상 내에서 관심영역에 대응하는 부분을 표시하는 단계;
사용자로부터 입력을 수신하는 단계;
상기 수신된 입력을 이용하여 확대 배율을 결정하는 단계;
상기 영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 이용하여 상기 확대 배율에 대응하는 확대 영상을 생성하는 단계; 및
상기 확대 영상을 표시하는 단계
를 포함하고,
상기 확대 영상은 상기 관심영역에 대응하고, 상기 확대 영상의 해상도는 상기 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높은 영상 처리 방법.
Displaying a stored image and a portion corresponding to a region of interest within the image;
Receiving an input from a user;
Determining an enlargement magnification using the received input;
Generating an enlarged image corresponding to the enlargement magnification using restoration data of a portion corresponding to the region of interest in the image; And
Displaying the enlarged image
Lt; / RTI >
Wherein the enlarged image corresponds to the region of interest and the resolution of the enlarged image is higher than the resolution of the portion corresponding to the region of interest in the image.
대상으로부터 반사된 빛을 수신하는 수광부; 및
상기 수신된 빛을 이용하여 제1영상을 준비하고, 상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하고, 복원 데이터를 생성하는 제어부
를 포함하고,
상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높은 영상 처리 장치.
A light receiving unit for receiving light reflected from an object; And
A controller for preparing a first image using the received light, designating at least one region of interest (ROI) within the first image, and generating restored data,
Lt; / RTI >
Wherein the second image reconstructed using the reconstruction data corresponds to the region of interest and the resolution of the second image is higher than the resolution of the portion corresponding to the region of interest in the first image.
제19항에 있어서,
저장부를 더 포함하고,
상기 제1영상은 상기 대상에 대해 촬영된 영상이고, 상기 제어부는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하고, 상기 저장부는 상기 제1영상 및 상기 복원 데이터를 저장하는 영상 처리 장치.
20. The method of claim 19,
Further comprising a storage unit,
Wherein the first image is an image photographed with respect to the object and the control unit generates restored data of a portion corresponding to the region of interest in the first image and the storing unit stores the first image and the restored data The image processing apparatus.
제19항에 있어서,
상기 수신된 빛을 이용하여 미리보기(preview) 영상을 생성하는 영상신호처리부;
상기 미리보기 영상을 표시하는 표시부; 및
저장부
를 더 포함하고,
상기 제1영상은 상기 미리보기(preview) 영상이고, 상기 제어부는 상기 수광부 및 상기 영상신호처리부를 제어함으로써 상기 대상에 대한 제3영상을 촬영하고, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하고, 상기 저장부는 상기 제3영상 및 상기 복원 데이터를 저장하는 영상 처리 장치.
20. The method of claim 19,
A video signal processor for generating a preview image using the received light;
A display unit for displaying the preview image; And
The storage unit
Further comprising:
Wherein the first image is a preview image and the controller captures a third image of the object by controlling the light receiving unit and the image signal processing unit, And the storage unit stores the third image and the restored data.
제21항에 있어서,
상기 복원 데이터는 상기 관심영역에 대한 슈퍼레졸루션 영상인 영상 처리 장치.
22. The method of claim 21,
Wherein the reconstructed data is a super resolution image for the ROI.
제21항에 있어서,
상기 복원 데이터는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분 및 상기 제3영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터인 영상 처리 장치.
22. The method of claim 21,
Wherein the reconstruction data is comparison data representing a difference between a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest within the super resolution image corresponding to the third image.
제21항에 있어서,
상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 크고 상기 제3영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택하고, 상기 제어부는 상기 선택된 각각의 해상도로 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링함으로써 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만들고, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 서로 비교함으로써 상기 선택된 각각의 해상도에 대한 상기 복원 데이터를 생성하는 영상 처리 장치.
22. The method of claim 21,
Wherein the control unit controls the resolution of at least one of resolutions greater than a resolution of a portion corresponding to the ROI in the third image and a resolution smaller than or equal to a resolution of a portion corresponding to the ROI in the super resolution image corresponding to the third image And the control unit downscales a portion corresponding to the region of interest in the third image with each of the selected resolutions or downscales a portion corresponding to the region of interest within the super resolution image, The resolution of the portion corresponding to the ROI within the image and the resolution of the portion corresponding to the ROI within the super resolution image are made equal to each other, Corresponding to the region of interest in the super resolution image And generating the restoration data for each of the selected resolutions by comparing portions of the restored data.
제21항에 있어서,
상기 제어부는 상기 미리보기 영상을 복수의 영역으로 분할하고, 상기 제어부는 상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하고, 상기 제어부는 상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정하는 영상 처리 장치.
22. The method of claim 21,
Wherein the control unit divides the preview image into a plurality of areas, and the control unit determines whether or not an object of interest (OOI) is included in each of the areas, Wherein at least one of the plurality of areas is designated as the area of interest.
제21항에 있어서,
상기 제어부는 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하고, 상기 제어부는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하고, 상기 제어부는 상기 검출된 영역을 상기 관심영역으로 지정하는 영상 처리 장치.
22. The method of claim 21,
Wherein the control unit detects a position of an object of interest in the preview image by analyzing the preview image and the control unit detects an area corresponding to the object of interest by performing image segmentation using the detected position, Wherein the control unit designates the detected area as the area of interest.
제21항에 있어서,
드래그 입력을 수신하는 입력부
를 더 포함하고,
상기 제어부는 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하고,
상기 입력부는 탭 입력을 더 수신하고,
상기 제어부는 상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하고, 상기 제어부는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하고, 상기 제어부는 상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정하는 영상 처리 장치.
22. The method of claim 21,
An input for receiving a drag input
Further comprising:
Wherein the control unit detects a first area corresponding to the drag input in the preview image,
Wherein the input further receives a tap input,
Wherein the control unit detects a position corresponding to the tap input in the preview image and the control unit detects a second area by performing image segmentation using the detected position, And designates the second region as the region of interest.
제21항에 있어서,
입력을 수신하는 입력부
를 더 포함하고,
상기 제어부는 상기 수신된 입력을 이용하여 상기 표시부의 해상도를 기준으로 한 확대 배율을 결정하고, 상기 제어부는 상기 확대 배율 및 상기 복원 데이터를 이용하여 상기 제3영상의 확대 영상을 생성하고,
상기 표시부는 상기 생성된 확대 영상을 표시하는 영상 처리 장치.
22. The method of claim 21,
An input for receiving an input
Further comprising:
Wherein the control unit determines an enlargement ratio based on the resolution of the display unit using the received input and the control unit generates an enlarged image of the third image using the enlargement ratio and the restoration data,
And the display unit displays the generated enlarged image.
제1영상을 준비하는 단계;
상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계;
상기 제1영상을 이용하여 상기 관심영역에 대응하는 복원 데이터를 생성하는 단계;
상기 제1영상을 압축하여 압축 영상을 생성하는 단계; 및
상기 압축 영상 및 상기 복원 데이터를 저장하는 단계
를 포함하는 영상 처리 방법.
Preparing a first image;
Designating at least one region of interest (ROI) within the first image;
Generating restoration data corresponding to the region of interest using the first image;
Compressing the first image to generate a compressed image; And
Storing the compressed image and the restored data
And an image processing method.
제29항에 있어서,
상기 복원 데이터를 이용하여 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분을 복원함으로써 복원 영상을 생성하는 단계; 및
상기 복원 영상을 표시하는 단계
를 더 포함하고,
상기 복원 영상은 상기 관심영역에 대응하고, 상기 복원 영상의 해상도는 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높은 영상 처리 방법.
30. The method of claim 29,
Generating a restored image by restoring a portion corresponding to the region of interest in the compressed image using the restored data; And
Displaying the restored image
Further comprising:
Wherein the reconstructed image corresponds to the region of interest and the resolution of the reconstructed image is higher than the resolution of the portion corresponding to the region of interest within the compressed image.
KR1020150136990A 2014-09-26 2015-09-25 Apparatus and method of processing images KR102374022B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2015/010259 WO2016048108A1 (en) 2014-09-26 2015-09-25 Image processing apparatus and image processing method
US14/866,049 US10229478B2 (en) 2014-09-26 2015-09-25 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN4746CH2014 2014-09-26
IN4746/CHE/2014 2014-09-26

Publications (2)

Publication Number Publication Date
KR20160037115A true KR20160037115A (en) 2016-04-05
KR102374022B1 KR102374022B1 (en) 2022-03-14

Family

ID=59153361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150136990A KR102374022B1 (en) 2014-09-26 2015-09-25 Apparatus and method of processing images

Country Status (2)

Country Link
EP (1) EP3198557A4 (en)
KR (1) KR102374022B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10594932B2 (en) 2016-10-21 2020-03-17 Samsung Electro-Mechanics Co., Ltd. Camera module performing a resolution correction and electronic device including the same
US11270420B2 (en) 2017-09-27 2022-03-08 Samsung Electronics Co., Ltd. Method of correcting image on basis of category and recognition rate of object included in image and electronic device implementing same
KR20220053184A (en) * 2020-10-22 2022-04-29 이종명 Atm device for supporting a plurality of functions and method for operation thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100095833A (en) * 2009-02-23 2010-09-01 주식회사 몬도시스템즈 Apparatus and method for compressing pictures with roi-dependent compression parameters
KR20100139030A (en) * 2008-03-17 2010-12-31 에이티아이 테크놀로지스 유엘씨 Method and apparatus for super-resolution of images
KR20130112574A (en) * 2012-04-04 2013-10-14 삼성전자주식회사 Apparatus and method for improving quality of enlarged image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8385599B2 (en) * 2008-10-10 2013-02-26 Sri International System and method of detecting objects
JP5202283B2 (en) * 2008-12-20 2013-06-05 三洋電機株式会社 Imaging apparatus and electronic apparatus
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100139030A (en) * 2008-03-17 2010-12-31 에이티아이 테크놀로지스 유엘씨 Method and apparatus for super-resolution of images
KR20100095833A (en) * 2009-02-23 2010-09-01 주식회사 몬도시스템즈 Apparatus and method for compressing pictures with roi-dependent compression parameters
KR20130112574A (en) * 2012-04-04 2013-10-14 삼성전자주식회사 Apparatus and method for improving quality of enlarged image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10594932B2 (en) 2016-10-21 2020-03-17 Samsung Electro-Mechanics Co., Ltd. Camera module performing a resolution correction and electronic device including the same
US11270420B2 (en) 2017-09-27 2022-03-08 Samsung Electronics Co., Ltd. Method of correcting image on basis of category and recognition rate of object included in image and electronic device implementing same
KR20220053184A (en) * 2020-10-22 2022-04-29 이종명 Atm device for supporting a plurality of functions and method for operation thereof
KR20220156492A (en) * 2020-10-22 2022-11-25 이종명 ATM machine with identity authentication function

Also Published As

Publication number Publication date
EP3198557A1 (en) 2017-08-02
KR102374022B1 (en) 2022-03-14
EP3198557A4 (en) 2017-12-13

Similar Documents

Publication Publication Date Title
US10229478B2 (en) Image processing apparatus and image processing method
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
CN108780569B (en) System and method for image resolution enhancement
US8682104B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
KR20120055632A (en) Method and apparatus for providing an image for display
JP4556813B2 (en) Image processing apparatus and program
US9373187B2 (en) Method and apparatus for producing a cinemagraph
US8873889B2 (en) Image processing apparatus
KR102374022B1 (en) Apparatus and method of processing images
CN112367459B (en) Image processing method, electronic device, and non-volatile computer-readable storage medium
JP2008109552A (en) Imaging device with chasing function
JP2011147109A (en) Image capturing apparatus and image processing apparatus
JP2007266667A (en) Camera-equipped mobile apparatus, control method thereof, and photographing support method thereof
US11688100B1 (en) Systems and methods for multi-sensor image enhancement
US20130208984A1 (en) Content scene determination device
WO2018011930A1 (en) Image processing device, image processing method, and program
CN112037135B (en) Method for magnifying and displaying selected image key main body
JP5042251B2 (en) Image processing apparatus and image processing method
JP3241243B2 (en) Panorama image composition system and panorama image composition method
JP2010097449A (en) Image composition device, image composition method and image composition program
US20200134305A1 (en) Method, apparatus, and device for identifying human body and computer readable storage medium
CN112785533B (en) Image fusion method, image fusion device, electronic equipment and storage medium
KR101612437B1 (en) Apparatus and Method for Processing of photographed image
JP5713256B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant