KR20160037115A - Apparatus and method of processing images - Google Patents
Apparatus and method of processing images Download PDFInfo
- Publication number
- KR20160037115A KR20160037115A KR1020150136990A KR20150136990A KR20160037115A KR 20160037115 A KR20160037115 A KR 20160037115A KR 1020150136990 A KR1020150136990 A KR 1020150136990A KR 20150136990 A KR20150136990 A KR 20150136990A KR 20160037115 A KR20160037115 A KR 20160037115A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- interest
- region
- resolution
- portion corresponding
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012545 processing Methods 0.000 title claims abstract description 59
- 238000003672 processing method Methods 0.000 claims abstract description 28
- 238000003709 image segmentation Methods 0.000 claims description 29
- 238000012015 optical character recognition Methods 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 22
- 230000004044 response Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000593 degrading effect Effects 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 235000015243 ice cream Nutrition 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47202—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0117—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Security & Cryptography (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
기재된 실시예는 영상을 확대하여 표시할 때 표시된 영상의 품질을 향상시킬 수 있는 영상 처리 장치 및 방법에 관한 것이다.The embodiments described herein are related to an image processing apparatus and method capable of improving the quality of an image displayed when an image is enlarged and displayed.
통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말기가 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 개인용 휴대 단말기가 널리 보급되고 있다. 또한, 소형 카메라 기술 및 디스플레이 기술의 발전에 따라 대부분의 스마트폰에는 카메라 모듈 및 디스플레이가 포함되어 있다. 대부분의 디지털 카메라에도 카메라 모듈 및 디스플레이가 포함되어 있다.With the development of communication technologies and the miniaturization of electronic devices, personal terminals have become widespread to general consumers. In recent years, personal portable terminals such as a smart phone or a smart tablet have become widespread. In addition, with the development of small camera technology and display technology, most smart phones include camera modules and displays. Most digital cameras also include camera modules and displays.
사용자는 스마트폰 또는 디지털 카메라와 같이 카메라 모듈 및 디스플레이를 포함하는 전자장치를 이용하여 영상을 촬영할 수 있다. 사용자는 전자장치에 포함된 디스플레이를 이용하여 상기 촬영된 영상을 확인할 수 있다. 사용자는 영상을 보다 자세히 살펴보기 위하여 영상의 확대에 대응하는 터치입력을 전자장치에 입력할 수 있다. 상기 터치입력에 대한 응답으로, 전자장치는 영상의 일부를 확대하여 표시할 수 있다.The user can take an image using an electronic device including a camera module and a display, such as a smart phone or a digital camera. The user can confirm the photographed image using a display included in the electronic device. The user can input a touch input corresponding to the enlargement of the image to the electronic device in order to observe the image more closely. In response to the touch input, the electronic device can enlarge and display a part of the image.
영상의 원본 해상도를 초과하여 영상을 확대한 경우, 표시된 영상의 품질은 낮을 수 있다. 예를 들어, 영상의 원본 해상도가 1600만 화소이고 디스플레이의 해상도가 200만 화소인 경우, 표시되는 영상의 품질의 저하 없이 상기 디스플레이 상에 표시할 수 있는 최대 확대 배율은 sqrt(16/2) = 2.828(배)일 수 있다. 2.828배를 초과하여 영상을 확대한 경우 영상의 품질은 업스케일링으로 인하여 열화(deterioration)될 수 있다.If the image is enlarged beyond the original resolution of the image, the quality of the displayed image may be low. For example, if the original resolution of the image is 16 million pixels and the resolution of the display is 2 million pixels, the maximum enlargement magnification that can be displayed on the display without degrading the displayed image quality is sqrt (16/2) = 2.828 (times). If the image is enlarged beyond 2.828 times, the quality of the image may be deteriorated due to up-scaling.
기재된 실시예에 따르면 영상을 확대하여 표시할 때 표시된 영상의 품질을 향상시킬 수 있는 영상 처리 장치 및 방법이 제공될 수 있다.According to the embodiments described above, an image processing apparatus and method capable of improving the quality of an image displayed when an image is enlarged and displayed can be provided.
또한, 실시예에 따르면 영상의 품질을 향상시키기 위해 필요로 하는 추가적인 저장공간의 크기를 감소시킬 수 있는 영상 처리 장치 및 방법이 제공될 수 있다.In addition, according to the embodiment, an image processing apparatus and method that can reduce the size of an additional storage space required for improving the quality of an image can be provided.
실시예에 따른 영상 처리 방법은, 제1영상을 준비하는 단계, 상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계, 및 복원 데이터를 생성하는 단계를 포함하고, 상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.An image processing method according to an exemplary embodiment of the present invention includes preparing a first image, designating at least one region of interest (ROI) in the first image, and generating reconstruction data A second image reconstructed using the reconstructed data corresponds to the ROI and a resolution of the second image may be higher than a resolution of a portion corresponding to the ROI in the first image.
또한, 상기 제1영상은 대상에 대해 촬영된 영상이고, 상기 복원 데이터를 생성하는 단계는, 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하는 단계, 및 상기 제1영상 및 상기 복원 데이터를 저장하는 단계를 포함할 수 있다.The generating of the reconstructed data may include generating reconstructed data of a portion corresponding to the region of interest in the first image, And storing the restoration data.
또한, 상기 제1영상은 대상으로부터 반사된 빛을 이용하여 생성된 미리보기(preview) 영상이고, 상기 제1영상을 준비하는 단계는, 상기 미리보기 영상을 디스플레이에 표시하는 단계를 포함하고, 상기 복원 데이터를 생성하는 단계는, 상기 대상에 대한 제3영상을 촬영하는 단계, 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하는 단계, 및 상기 제3영상 및 상기 복원 데이터를 저장하는 단계를 포함할 수 있다.In addition, the first image may be a preview image generated using light reflected from a subject, and the step of preparing the first image may include displaying the preview image on a display, The step of generating reconstruction data may include the steps of: capturing a third image of the object; generating reconstruction data of a portion corresponding to the region of interest in the third image; And the like.
또한, 상기 복원 데이터를 생성하는 단계는, 상기 대상에 대한 복수의 영상을 촬영하는 단계, 및 상기 복수의 영상 중에서 적어도 일부를 이용하여 상기 관심영역에 대한 슈퍼레졸루션(super resolution) 영상을 생성하는 단계를 포함할 수 있다.The generating of the reconstructed data may include capturing a plurality of images of the object, and generating a super resolution image of the ROI using at least a part of the plurality of images, . ≪ / RTI >
또한, 상기 복원 데이터를 생성하는 단계는, 상기 제3영상 내에서 상기 관심영역에 대응하는 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터를 생성하는 단계를 더 포함할 수 있다.The generating of the restoration data may further include generating comparison data indicating a difference between a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest in the super resolution image .
또한, 상기 복원 데이터를 생성하는 단계는, 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택하는 단계, 상기 선택된 각각의 해상도로 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링함으로써 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만드는 단계, 및 상기 제3영상 내에서 상기 관심영역에 대응하는 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 서로 비교함으로써 상기 선택된 각각의 해상도에 대한 비교 데이터를 생성하는 단계를 더 포함할 수 있다.The generating of the reconstruction data may include generating at least one of the resolutions in the third image that are larger than the resolution of the portion corresponding to the ROI and smaller than or equal to the resolution of the portion corresponding to the ROI in the super resolution image, Scaling the portion corresponding to the region of interest in the third image with each of the selected resolutions or downscaling a portion corresponding to the region of interest within the super resolution image, Making a resolution of a portion corresponding to the region of interest in the image and a resolution of a portion corresponding to the region of interest in the super resolution image equal to each other; A portion corresponding to the region of interest in the super resolution image And generating comparison data for each of the selected resolutions by comparing them with each other.
또한, 상기 적어도 하나 이상의 관심영역을 지정하는 단계는, 상기 미리보기 영상을 복수의 영역으로 분할하는 단계, 상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하는 단계, 및 상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정하는 단계를 포함할 수 있다.In addition, the step of designating the at least one region of interest may include: dividing the preview image into a plurality of regions, determining whether or not an object of interest (OOI) is included in each region And designating at least one of the plurality of areas as the ROI according to the determination result.
또한, 상기 적어도 하나 이상의 관심영역을 지정하는 단계는, 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계, 및 상기 검출된 영역을 상기 관심영역으로 지정하는 단계를 포함할 수 있다.In addition, the step of designating the at least one region of interest may include the steps of: detecting a position of an object of interest in the preview image by analyzing the preview image, performing image segmentation using the detected position, Detecting an area corresponding to the object, and designating the detected area as the area of interest.
또한, 상기 관심대상의 위치를 검출하는 단계는, 상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하는 단계, 상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출하는 단계, 상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하는 단계, 및 상기 미리보기 영상 내에서 초점의 위치를 검출하는 단계를 포함할 수 있다.The detecting of the position of the object of interest may include detecting a position of a high frequency component in the preview image, performing a face recognition on the preview image, Detecting a position of the preview image, detecting the position of the text by performing optical character recognition (OCR) on the preview image, and detecting the position of the focus within the preview image .
또한, 상기 적어도 하나 이상의 관심영역을 지정하는 단계는, 사용자로부터 드래그 입력을 수신하는 단계, 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하는 단계, 사용자로부터 탭 입력을 수신하는 단계, 상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하는 단계, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하는 단계, 및 상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정하는 단계를 포함할 수 있다.The step of designating the at least one region of interest may further comprise receiving a drag input from a user, detecting a first region corresponding to the drag input within the preview image, receiving a tap input from a user Detecting a position corresponding to the tap input in the preview image, detecting a second region by performing image segmentation using the detected position, and detecting the first region and the second region, To the region of interest.
또한, 상기 적어도 하나 이상의 관심영역을 지정하는 단계는, 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계, 상기 미리보기 영상 상에 상기 검출된 영역을 표시하는 단계, 사용자로부터 탭 입력을 수신하는 단계, 상기 검출된 영역 중에서 상기 탭 입력에 대응하는 영역을 선택하거나 선택해제하는 단계, 사용자로부터 드래그 입력을 수신하는 단계, 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제3영역을 검출하는 단계, 및 상기 선택된 영역 및 상기 제3영역을 상기 관심영역으로 지정하는 단계를 포함할 수 있다.In addition, the step of designating the at least one region of interest may include the steps of: detecting a position of an object of interest in the preview image by analyzing the preview image, performing image segmentation using the detected position, Displaying the detected area on the preview image, receiving a tap input from a user, selecting an area corresponding to the tab input from the detected area, selecting or selecting an area corresponding to the tab input from the detected area, Receiving a drag input from a user, detecting a third region corresponding to the drag input within the preview image, and designating the selected region and the third region as the region of interest . ≪ / RTI >
또한, 상기 영상 처리 방법은, 상기 저장된 제3영상 및 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 표시하는 단계, 사용자로부터 입력을 수신하는 단계, 상기 수신된 입력을 이용하여 상기 디스플레이의 해상도를 기준으로 한 확대 배율을 결정하는 단계, 상기 확대 배율 및 상기 복원 데이터를 이용하여 상기 제3영상의 확대 영상을 생성하는 단계, 및 상기 확대 영상을 표시하는 단계를 더 포함할 수 있다.The image processing method may further include displaying a portion corresponding to the region of interest in the stored third image and the third image, receiving an input from a user, receiving the input from the user using the received input, Generating an enlarged image of the third image using the enlargement magnification and the restored data, and displaying the enlarged image based on the enlargement magnification and the reconstruction data.
또한, 상기 확대 영상을 생성하는 단계는, 상기 확대 배율이 1보다 크고 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 작은 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 다운스케일링함으로써 상기 확대 영상을 생성하는 단계, 및 상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근과 서로 동일한 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 잘라냄(crop)으로써 상기 확대 영상을 생성하는 단계를 포함할 수 있다.The step of generating the enlarged image may further include a step of displaying a portion to be displayed on the display in the third image when the enlargement magnification is larger than 1 and the resolution of the third image is smaller than a square root of a quotient of dividing the resolution of the third image by the resolution of the display Scaling down the portion to be displayed on the display in the third image if the enlargement magnification is equal to the square root of the quotient of the division of the resolution of the third image by the resolution of the display, And enlarging the enlarged image by cropping the enlarged image.
또한, 상기 확대 영상을 생성하는 단계는, 상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 크고, 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작거나 같은 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 업스케일링함으로써 부분 영상을 생성하는 단계, 및 상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 부분 영상에 대응하는 부분을 상기 부분 영상과 합성함으로써 상기 확대 영상을 생성하는 단계를 포함할 수 있다.The step of generating the enlarged image may further include the step of dividing the resolution of the third image by the square of the quotient obtained by dividing the resolution of the third image by the resolution of the display, If the resolution of a portion corresponding to the RO in the super resolution image is smaller than or equal to a value obtained by multiplying a square root of a quotient obtained by dividing the resolution of a portion corresponding to the RO in the third image, Generating a partial image by upscaling a portion to be displayed on the display in the display unit and generating the enlarged image by combining a portion corresponding to the enlargement ratio and the partial image from the stored restored data with the partial image, .
또한, 상기 확대 영상을 생성하는 단계는, 상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 크고, 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작은 경우 상기 제3영상 내의 상기 디스플레이에 표시될 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성하는 단계, 상기 제3영상 내의 상기 디스플레이에 표시될 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성하는 단계, 상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성함으로써 슈퍼레졸루션 부분 영상을 생성하는 단계, 및 상기 슈퍼레졸루션 부분 영상 및 상기 제2부분영상을 결합함으로써 상기 확대 영상을 생성하는 단계를 포함할 수 있다.The step of generating the enlarged image may further include the step of dividing the resolution of the third image by the square of the quotient obtained by dividing the resolution of the third image by the resolution of the display, In a case where the resolution of a portion corresponding to the region of interest in the super resolution image is smaller than a value obtained by multiplying a square root of a quotient obtained by dividing the resolution of a portion corresponding to the region of interest in the third image by the resolution of the portion corresponding to the region of interest, Scaling a portion corresponding to the region of interest from among the portions to be displayed on the display to generate a first partial image, upscaling another portion not corresponding to the region of interest among the portions to be displayed on the display in the third image Generating a second partial image from the restored data; Generating a super resolution partial image by combining a portion corresponding to the first partial image with the first partial image, and generating the enlarged image by combining the super resolution partial image and the second partial image can do.
또한, 상기 확대 영상을 생성하는 단계는, 상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 큰 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 업스케일링함으로써 부분 영상을 생성하는 단계, 및 상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 부분 영상에 대응하는 부분을 상기 부분 영상과 합성하는 단계, 및 상기 합성된 영상을 업스케일링함으로써 상기 확대 영상을 생성하는 단계를 포함할 수 있다.The step of generating the enlarged image may further include the step of, when the enlargement magnification is equal to the square root of a quotient of the resolution of the third image divided by the resolution of the display, the resolution of the portion corresponding to the region of interest in the super resolution image, Generating a partial image by upscaling a portion to be displayed in the display in the third image when the square is greater than a value obtained by multiplying the square root of the quotient divided by the resolution of the portion corresponding to the region of interest in the 3 images, Synthesizing a portion corresponding to the enlargement ratio and the partial image from the reconstruction data with the partial image, and generating the enlarged image by upscaling the synthesized image.
다른 실시예에 따른 영상 처리 방법은, 저장된 영상 및 상기 영상 내에서 관심영역에 대응하는 부분을 표시하는 단계, 사용자로부터 입력을 수신하는 단계, 상기 수신된 입력을 이용하여 확대 배율을 결정하는 단계, 상기 영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 이용하여 상기 확대 배율에 대응하는 확대 영상을 생성하는 단계, 및 상기 확대 영상을 표시하는 단계를 포함하고, 상기 확대 영상은 상기 관심영역에 대응하고, 상기 확대 영상의 해상도는 상기 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.According to another embodiment of the present invention, there is provided an image processing method comprising: displaying a stored image and a portion corresponding to a region of interest in the image; receiving an input from a user; determining an enlargement magnification using the received input; Generating an enlarged image corresponding to the enlargement magnification using reconstruction data of a portion corresponding to the region of interest in the image, and displaying the enlarged image; And the resolution of the enlarged image may be higher than the resolution of the portion corresponding to the region of interest in the image.
실시예에 따른 영상 처리 장치는, 대상으로부터 반사된 빛을 수신하는 수광부, 및 상기 수신된 빛을 이용하여 제1영상을 준비하고, 상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하고, 복원 데이터를 생성하는 제어부를 포함하고, 상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.An image processing apparatus according to an embodiment of the present invention includes a light receiving unit that receives light reflected from an object, and a second image processing unit that prepares a first image using the received light, Wherein the second image restored using the restored data corresponds to the region of interest and the resolution of the second image corresponds to the region of interest in the first image, May be higher than the resolution of the portion corresponding to the region.
또한, 상기 영상 처리 장치는, 저장부를 더 포함하고, 상기 제1영상은 상기 대상에 대해 촬영된 영상이고, 상기 제어부는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하고, 상기 저장부는 상기 제1영상 및 상기 복원 데이터를 저장할 수 있다.The image processing apparatus may further include a storage unit, wherein the first image is an image photographed for the object, and the control unit generates restoration data corresponding to the region of interest in the first image And the storage unit may store the first image and the restored data.
또한, 상기 영상 처리 장치는, 상기 수신된 빛을 이용하여 미리보기(preview) 영상을 생성하는 영상신호처리부, 상기 미리보기 영상을 표시하는 표시부, 및 저장부를 더 포함하고, 상기 제1영상은 상기 미리보기(preview) 영상이고, 상기 제어부는 상기 수광부 및 상기 영상신호처리부를 제어함으로써 상기 대상에 대한 제3영상을 촬영하고, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하고, 상기 저장부는 상기 제3영상 및 상기 복원 데이터를 저장할 수 있다.The image processing apparatus may further include a video signal processing unit for generating a preview image using the received light, a display unit for displaying the preview image, and a storage unit, Wherein the controller captures a third image of the object by controlling the light receiving unit and the image signal processing unit, and the control unit performs a restoration of a portion corresponding to the ROI in the third image, And the storage unit may store the third image and the restored data.
또한, 상기 복원 데이터는 상기 관심영역에 대한 슈퍼레졸루션 영상일 수 있다.Also, the restoration data may be a super resolution image for the ROI.
또한, 상기 복원 데이터는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분 및 상기 제3영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터일 수 있다.The restoration data may be comparison data representing a difference between a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest in the super resolution image corresponding to the third image.
또한, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 크고 상기 제3영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택하고, 상기 제어부는 상기 선택된 각각의 해상도로 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링함으로써 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만들고, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 서로 비교함으로써 상기 선택된 각각의 해상도에 대한 상기 복원 데이터를 생성할 수 있다.In addition, the controller may select at least one of resolutions that are larger than the resolution of the portion corresponding to the ROI in the third image and smaller than or equal to the resolution of the portion corresponding to the ROI in the super resolution image corresponding to the third image, Wherein the control unit scales up a portion corresponding to the region of interest in the third image with each of the selected resolutions or downscales a portion corresponding to the region of interest within the super resolution image, The resolution of the portion corresponding to the ROI in the third image and the resolution of the portion corresponding to the ROI in the super resolution image are made equal to each other, And a region of interest in the super resolution image By comparing the part with each other can generate the reconstruction data for each of the selected resolution.
또한, 상기 제어부는 상기 미리보기 영상을 복수의 영역으로 분할하고, 상기 제어부는 상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하고, 상기 제어부는 상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정할 수 있다.The control unit may divide the preview image into a plurality of areas, and the control unit may determine whether or not an object of interest (OOI) is included in each of the areas, Accordingly, at least one of the plurality of regions can be designated as the region of interest.
또한, 상기 제어부는 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하고, 상기 제어부는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하고, 상기 제어부는 상기 검출된 영역을 상기 관심영역으로 지정할 수 있다.In addition, the controller detects the position of the object of interest in the preview image by analyzing the preview image, and the controller performs image segmentation using the detected position to detect the region corresponding to the object of interest And the control unit may designate the detected area as the area of interest.
또한, 상기 영상 처리 장치는, 드래그 입력을 수신하는 입력부를 더 포함하고, 상기 제어부는 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하고, 상기 입력부는 탭 입력을 더 수신하고, 상기 제어부는 상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하고, 상기 제어부는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하고, 상기 제어부는 상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정할 수 있다.The image processing apparatus may further include an input unit for receiving a drag input, wherein the control unit detects a first area corresponding to the drag input in the preview image, and the input unit further receives a tap input , The controller detects a position corresponding to the tap input in the preview image and the controller detects a second region by performing image segmentation using the detected position, And the second region as the region of interest.
또한, 상기 영상 처리 장치는, 입력을 수신하는 입력부를 더 포함하고, 상기 제어부는 상기 수신된 입력을 이용하여 상기 표시부의 해상도를 기준으로 한 확대 배율을 결정하고, 상기 제어부는 상기 확대 배율 및 상기 복원 데이터를 이용하여 상기 제3영상의 확대 영상을 생성하고, 상기 표시부는 상기 생성된 확대 영상을 표시할 수 있다.Further, the image processing apparatus may further include an input unit for receiving an input, and the control unit may determine an enlargement magnification based on the resolution of the display unit using the received input, An enlarged image of the third image is generated using restoration data, and the display unit displays the enlarged image.
또 다른 실시예에 따른 영상 처리 방법은, 제1영상을 준비하는 단계, 상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계, 상기 제1영상을 이용하여 상기 관심영역에 대응하는 복원 데이터를 생성하는 단계, 상기 제1영상을 압축하여 압축 영상을 생성하는 단계; 및 상기 압축 영상 및 상기 복원 데이터를 저장하는 단계를 포함할 수 있다.According to another embodiment of the present invention, there is provided an image processing method comprising the steps of: preparing a first image; designating at least one region of interest (ROI) within the first image; Generating restored data corresponding to a region of interest, compressing the first image to generate a compressed image; And storing the compressed image and the restored data.
또한, 상기 영상 처리 방법은, 상기 복원 데이터를 이용하여 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분을 복원함으로써 복원 영상을 생성하는 단계, 및 상기 복원 영상을 표시하는 단계를 더 포함하고, 상기 복원 영상은 상기 관심영역에 대응하고, 상기 복원 영상의 해상도는 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.The image processing method may further include generating a restored image by restoring a portion corresponding to the region of interest in the compressed image using the restored data, and displaying the restored image, The reconstructed image corresponds to the region of interest and the resolution of the reconstructed image may be higher than the resolution of the portion corresponding to the region of interest in the compressed image.
기재된 실시예에 따르면 영상이 확대되어 표시될 때 표시된 영상의 품질이 향상될 수 있다.According to the described embodiment, the quality of the displayed image can be improved when the image is enlarged and displayed.
또한, 실시예에 따르면 영상의 품질을 향상시키기 위해 필요로 하는 추가적인 저장공간의 크기가 감소될 수 있다.Further, according to the embodiment, the size of the additional storage space required for improving the quality of the image can be reduced.
도 1은 실시예에 따른 영상 처리 장치의 구성을 나타내는 블록도이다.
도 2는 실시예에 따른 영상 처리 방법이 수행되는 과정을 나타내는 순서도이다.
도 3은 실시예에 따라 영상 처리 장치에 표시된 미리보기 영상이다.
도 4는 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 5는 실시예에 따라 복수의 영역으로 분할된 미리보기 영상이다.
도 6은 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 7은 실시예에 따라 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 8은 다른 실시예에 따른 미리보기 영상이다.
도 9는 도 8에 도시된 미리보기 영상 내에서 고주파요소의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.
도 10은 또 다른 실시예에 따른 미리보기 영상이다.
도 11은 도 10에 도시된 미리보기 영상 내에서 안면의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.
도 12는 또 다른 실시예에 따른 미리보기 영상이다.
도 13은 도 12에 도시된 미리보기 영상 내에서 텍스트의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.
도 14는 또 다른 실시예에 따른 미리보기 영상이다.
도 15는 도 14에 도시된 미리보기 영상 내에서 초점의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.
도 16은 또 다른 실시예에 따라 미리보기 영상 내에서 관심대상에 대응하는 영역을 검출한 결과를 나타내는 화면이다.
도 17은 또 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 18은 또 다른 실시예에 따른 미리보기 영상이다.
도 19는 도 18에 도시된 미리보기 영상 내에서 사용자의 입력에 대한 응답으로 관심영역을 지정한 결과를 나타내는 화면이다.
도 20은 또 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 21은 도 18에 도시된 미리보기 영상 상에 관심대상에 대응하는 영역을 표시한 결과를 나타내는 화면이다.
도 22는 실시예에 따라 제1영상 및 복원 데이터를 저장하는 단계를 설명하기 위한 참고도이다.
도 23은 실시예에 따라 복원 데이터를 이용하여 확대 영상을 생성하고 표시하는 방법이 수행되는 과정을 나타내는 순서도이다.
도 24는 영상 처리 장치에 표시된 갤러리 화면 내의 하나의 썸네일에 대해 사용자로부터 터치 입력이 수신된 경우를 나타내는 화면이다.
도 25는 영상 처리 장치에 표시된 영상에 대해 사용자로부터 핀치 아웃(pinch out) 입력이 수신된 경우를 나타내는 화면이다.
도 26은 영상 처리 장치에 표시된 영상에 대해 사용자로부터 드래그(drag) 입력이 수신된 경우를 나타내는 화면이다.
도 27은 실시예에 따라 복원 데이터를 이용하여 확대 배율에 대응하는 확대 영상을 생성하는 단계를 설명하기 위한 참고도이다.
도 28은 실시예에 따라 확대 영상을 표시한 결과를 나타내는 화면이다.
도 29는 실시예에 따른 영상 처리 방법이 수행되는 과정을 설명하기 위한 참고도이다.
도 30은 실시예에 따른 영상 처리 방법이 수행되는 과정을 설명하기 위한 다른 참고도이다.
도 31은 다른 실시예에 따른 영상 처리 방법이 수행되는 과정을 설명하기 위한 참고도이다.
도 32는 다른 실시예에 따른 영상 처리 방법이 수행되는 과정을 설명하기 위한 다른 참고도이다.1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment.
2 is a flowchart illustrating a process of performing an image processing method according to an embodiment.
3 is a preview image displayed on the image processing apparatus according to the embodiment.
4 is a flowchart illustrating a process of designating a region of interest in a preview image according to an exemplary embodiment of the present invention.
5 is a preview image divided into a plurality of regions according to an embodiment.
FIG. 6 is a flowchart illustrating a process of specifying a region of interest in a preview image according to another embodiment.
FIG. 7 is a flowchart illustrating a process of detecting a position of an object of interest in a preview image according to an exemplary embodiment of the present invention.
8 is a preview image according to another embodiment.
9 is a view showing the result of detecting the position of the high frequency component in the preview image shown in FIG. 8 and performing image segmentation.
10 is a preview image according to another embodiment.
11 is a view showing a result of detecting the position of the face in the preview image shown in FIG. 10 and performing image segmentation.
12 is a preview image according to another embodiment.
FIG. 13 is a view showing a result of detecting the position of a text in the preview image shown in FIG. 12 and performing image segmentation.
14 is a preview image according to another embodiment.
FIG. 15 is a view showing the result of detecting the position of the focus in the preview image shown in FIG. 14 and performing image segmentation.
16 is a view showing a result of detecting a region corresponding to an object of interest in a preview image according to another embodiment.
FIG. 17 is a flowchart illustrating a process of specifying a region of interest in a preview image according to another embodiment.
18 is a preview image according to another embodiment.
FIG. 19 is a view showing a result of designating a region of interest in response to a user's input in the preview image shown in FIG.
FIG. 20 is a flowchart illustrating a process of specifying a region of interest in a preview image according to another embodiment.
21 is a screen showing a result of displaying an area corresponding to an object of interest on the preview image shown in Fig.
22 is a reference diagram for explaining a step of storing the first image and the restored data according to the embodiment.
23 is a flowchart illustrating a process of generating and displaying an enlarged image using restoration data according to an embodiment of the present invention.
24 is a screen showing a case where a touch input is received from a user for one thumbnail in the gallery screen displayed on the image processing apparatus.
25 is a screen showing a case where a pinch-out input is received from a user for an image displayed on the image processing apparatus.
26 is a screen showing a case where a drag input is received from a user for an image displayed on the image processing apparatus.
27 is a reference diagram for explaining a step of generating an enlarged image corresponding to an enlargement magnification using restoration data according to an embodiment.
28 is a screen showing a result of displaying an enlarged image according to the embodiment.
29 is a reference diagram for explaining a process of performing the image processing method according to the embodiment.
30 is another reference diagram for explaining the process of performing the image processing method according to the embodiment.
31 is a reference diagram for explaining a process of performing an image processing method according to another embodiment.
32 is another reference diagram for explaining a process of performing an image processing method according to another embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.Although "first" or "second" and the like are used to describe various components, such components are not limited by such terms. Such terms may be used to distinguish one element from another. Therefore, the first component mentioned below may be the second component within the technical spirit of the present invention.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. &Quot; comprises "or" comprising "as used herein mean that the stated element or step does not exclude the presence or addition of one or more other elements or steps.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms used herein are to be construed in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
이하에서는, 도 1 내지 도 32을 참조하여 실시예에 따른 영상 처리 장치(100) 및 영상 처리 방법에 대해 상세히 설명하기로 한다.Hereinafter, the
도 1은 실시예에 따른 영상 처리 장치(100)의 구성을 나타내는 블록도이다. 영상 처리 장치(100)는 예를 들어, 랩탑 컴퓨터, 스마트폰, 스마트 태블릿, 이동 단말기, 디지털 카메라, 또는 휴대용 전자기기 등일 수 있다. 도 1을 참조하면, 영상 처리 장치(100)는 수광부(110), 영상신호처리부(120), 제어부(130), 표시부(140), 입력부(150), 및 저장부(160)를 포함할 수 있다.1 is a block diagram showing a configuration of an
수광부(110)는 대상으로부터 반사되는 빛을 수신할 수 있다. 수광부(110)는 대상을 촬영할 수 있다. 수광부(110)는 대상의 모습을 영상으로서 촬영할 수 있다. 수광부(110)는 사진, 동영상, 정지 영상(still images), 연속 영상(burst images), 또는 비디오(videos) 등을 촬영할 수 있다. 수광부(110)는 카메라 센서, 카메라 모듈, 렌즈, 또는 광학 소자를 포함할 수 있다. 수광부(110)는 예를 들어, CCD 센서 또는 CMOS 센서를 포함할 수 있다.The
수광부(110)는 상기 수신된 빛을 이용하여 원시 영상(raw image)을 생성할 수 있다. 원시 영상은 예를 들어, 베이어 포맷(Bayer format)으로 구성될 수 있다.The
영상신호처리부(120)는 상기 원시 영상을 처리할 수 있다. 영상신호처리부(120)는 베이어 포멧으로 구성된 원시 영상을 처리함으로써 RGB 영상을 생성할 수 있다. 영상신호처리부(120)는 상기 원시 영상을 처리함으로써 미리보기(preview) 영상을 생성할 수 있다. 영상신호처리부(120)는 영상 신호 프로세서(image signal processor)를 포함할 수 있다.The image
제어부(130)는 영상 처리 장치(100)에 포함된 각각의 구성요소 및 영상 처리 장치(100)의 동작을 제어할 수 있다. 제어부(130)는 연산을 수행할 수 있다. 제어부(130)는 영상을 처리할 수 있다. 제어부(130)는 영상의 후처리(post processing)를 수행할 수 있다. 제어부(130)는 영상을 분석할 수 있다. 제어부(130)는 사용자로부터의 입력에 대한 응답으로, 영상 처리 장치(100)의 동작을 제어하거나 영상을 제어할 수 있다. 제어부(130)는 상기 미리보기 영상을 처리함으로써 데이터를 생성할 수 있다.The
제어부(130)는 애플리케이션을 실행할 수 있다. 제어부(130)는 카메라 애플리케이션 또는 갤러리 애플리케이션을 실행할 수 있다. 제어부(130)는 카메라 애플리케이션을 통해 수광부(110), 영상신호처리부(120), 및 표시부(140)를 제어할 수 있다. 제어부(130)는 카메라 애플리케이션을 통해 수광부(110)가 대상을 촬영하도록 할 수 있다. 제어부(130)는 카메라 애플리케이션을 통해 표시부(140)가 촬영된 영상을 표시하도록 할 수 있다.The
제어부(130)는 갤러리 애플리케이션을 통해 저장부(160) 및 표시부(140)를 제어할 수 있다. 제어부(130)는 갤러리 애플리케이션을 통해 저장부(160)에 저장된 영상을 표시부(140)가 표시하도록 할 수 있다.The
제어부(130)는 영상 처리 장치(100)에 포함된 각각의 구성요소와 연결될 수 있다. 제어부(130)는 예를 들어, 중앙처리장치(Central Processing Unit, CPU) 또는 마이크로프로세서(microprocessor)를 포함할 수 있다.The
표시부(140)는 상기 영상신호처리부(120)에 의해 처리된 원시 영상을 표시할 수 있다. 표시부(140)는 상기 미리보기 영상을 표시할 수 있다. 표시부(140)는 상기 제어부(130)에 의해 처리된 영상을 표시할 수 있다. 표시부(140)는 화면을 표시할 수 있다. 표시부(140)는 사용자 인터페이스를 표시할 수 있다. 표시부(140)는 사용자로부터의 입력에 대한 응답으로 다른 화면을 표시할 수 있다.The
표시부(140)는 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), PDP(Plasma Display Panel) 등의 평판 표시 장치를 포함할 수 있다. 또한, 표시부(140)는, 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)를 포함할 수 있다. 표시부(140)와 입력부(150)는, 터치스크린과 같이 일체로 구성될 수도 있고, 별개로 구성될 수도 있다.The
입력부(150)는 외부로부터 입력을 수신할 수 있다. 입력부(150)는 영상 처리 장치(100)의 사용자로부터 입력을 수신할 수 있다. 입력부(150)는 예를 들어, 버튼, 터치스크린, 트랙볼, 카메라, 키보드, 마우스, 또는 지문 인식 장치 등일 수 있다.The
입력부(150)는 터치스크린일 수 있다. 입력부(150)는 사용자로부터 터치 입력을 수신할 수 있다. 사용자는 터치 입력으로서 탭(tap) 입력, 드래그(drag) 입력, 스와이프(swipe) 입력, 슬라이드(slide) 입력, 플릭(flick) 입력, 핀치 인(pinch in) 입력, 핀치 아웃(pinch out) 입력, 또는 프레스 앤 홀드(press-and-hold) 입력 등을 입력할 수 있다.The
저장부(160)는 상기 수광부(110)에 의해 생성된 원시 영상, 상기 영상신호처리부(120)에 의해 생성된 영상, 또는 상기 미리보기 영상 등을 저장할 수 있다. 또한, 저장부(160)는 상기 제어부(130)에 의해 처리된 영상, 또는 상기 제어부(130)에 의해 생성된 데이터 등을 저장할 수 있다.The
저장부(160)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. 저장부(160)는 예를 들어, 플래시(flash) 메모리, ROM, RAM, EEROM, EPROM, EEPROM, 하드디스크 드라이브(HDD, Hard Disk Drive), 또는 레지스터(register) 등일 수 있다. 저장부(160)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다. The
도 2는 실시예에 따른 영상 처리 방법이 수행되는 과정을 나타내는 순서도이다.2 is a flowchart illustrating a process of performing an image processing method according to an embodiment.
도 2를 참조하면, 실시예에 따른 영상 처리 방법에서는, 먼저, 대상으로부터 반사된 빛을 수신하는 단계(S100)가 수행될 수 있다. 예를 들어, 제어부(130)는 카메라 애플리케이션을 실행할 수 있다. 제어부(130)는 카메라 애플리케이션을 통해 수광부(110)를 제어할 수 있다. 수광부(110)는 대상으로부터 반사된 빛을 수신할 수 있다. 수광부(110)는 상기 수신된 빛을 이용하여 원시 영상을 생성할 수 있다.Referring to FIG. 2, in the image processing method according to the embodiment, the step S100 of receiving reflected light from the object may be performed first. For example, the
다음으로, 상기 수신된 빛을 이용하여 미리보기(preview) 영상을 표시하는 단계(S200)가 수행될 수 있다. 영상신호처리부(120)는 상기 수신된 빛을 이용하여 생성된 원시 영상을 처리함으로써 미리보기 영상을 생성할 수 있다. 미리보기 영상은 대상의 모습을 실시간으로 나타낼 수 있다. 표시부(140)는 생성된 미리보기 영상을 표시할 수 있다.Next, a step S200 of displaying a preview image using the received light may be performed. The image
도 3은 실시예에 따라 영상 처리 장치(100)에 표시된 미리보기 영상이다. 도 3을 참조하면, 미리보기 영상은 한 채의 건물의 영상 및 두 명의 사람의 영상을 포함할 수 있다.3 is a preview image displayed on the
다시 도 2를 참조하면, 다음으로, 상기 미리보기 영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계(S300)가 수행될 수 있다. 제어부(130)는 미리보기 영상을 분석함으로써 적어도 하나 이상의 관심영역을 자동으로 지정할 수 있다. 또한, 제어부(130)는 사용자로부터의 입력에 대한 응답으로, 적어도 하나 이상의 관심영역을 지정할 수 있다. 또한, 제어부(130)는 미리보기 영상의 분석 결과가 표시부(140)에 표시된 이후에 사용자로부터 입력된 터치 입력에 대한 응답으로, 적어도 하나 이상의 관심영역을 지정할 수 있다.Referring again to FIG. 2, step S300 of designating at least one region of interest (ROI) in the preview image may be performed. The
다시 말해서, 제어부(130)는 자동으로, 수동으로, 또는 하이브리드 방식으로 적어도 하나 이상의 관심영역을 표시할 수 있다. 적어도 하나 이상의 관심영역을 자동으로 지정하는 방법에 대하여는 도 6을 참조하여 후술하기로 한다. 또한, 적어도 하나 이상의 관심영역을 수동으로 지정하는 방법에 대하여는 도 17을 참조하여 후술하기로 한다. 또한, 적어도 하나 이상의 관심영역을 하이브리드 방식으로 지정하는 방법에 대하여는 도 20을 참조하여 후술하기로 한다. In other words, the
관심영역은 상기 미리보기 영상 내의 적어도 일부에 대응할 수 있다. 이후에 영상이 촬영되고 상기 촬영된 영상에 대해 영상 처리가 수행될 때, 상기 영상의 전체 부분에 대해 영상 처리가 수행되는 대신에 상기 영역 내에서 상기 관심영역에 대응하는 부분에 대하여만 영상 처리가 수행될 수 있다. 이로써 영상 처리에 소요되는 시간을 단축시킬 수 있다. 또한, 영상 처리에 필요한 메모리의 크기를 줄일 수 있다. 또한, 영상 처리의 결과를 저장하는 데에 필요한 저장공간의 크기를 줄일 수 있다.The region of interest may correspond to at least a portion of the preview image. When the image is captured and the image processing is performed on the photographed image, image processing is performed on only a portion corresponding to the region of interest in the region, instead of performing the image processing on the entire portion of the image . This can shorten the time required for image processing. Also, the size of the memory required for image processing can be reduced. In addition, the size of the storage space required for storing the result of the image processing can be reduced.
하나의 영상 내에는 적어도 하나 이상의 관심영역이 포함될 수 있다. 관심영역은 하나의 폐곡선에 의해 특정되는 하나의 영역일 수 있다.At least one region of interest may be included in one image. The region of interest may be a region specified by one closed curve.
도 4는 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계(S300)가 수행되는 과정을 나타내는 순서도이다. 도 4를 참조하면, 먼저, 상기 미리보기 영상을 복수의 영역으로 분할하는 단계(S310)가 수행될 수 있다. 제어부(130)는 미리보기 영상을 복수의 영역으로 분할할 수 있다. 제어부(130)는 미리보기 영상을 2개 이상의 영역으로 분할할 수 있다. 제어부(130)는 미리보기 영상을 모두 균등한 크기의 복수의 영역으로 분할할 수 있다. 제어부(130)는 미리보기 영상을 균등하지 않은 크기의 복수의 영역으로 분할할 수 있다.4 is a flowchart illustrating a process of designating a region of interest (S300) in a preview image according to an exemplary embodiment of the present invention. Referring to FIG. 4, the step of dividing the preview image into a plurality of regions (S310) may be performed. The
도 5는 실시예에 따라 복수의 영역으로 분할된 미리보기 영상이다. 제어부(130)는 도 5에 도시된 바와 같이, 도 3에 도시된 미리보기 영상을 9개의 영역으로 균등하게 분할할 수 있다. 도 5에 도시된 영역 중에서 2번째 행 및 2번째 열에 배치된 영역은 한 채의 건물의 영상을 포함할 수 있다. 도 5에 도시된 영역 중에서 2번째 행 및 3번째 열에 배치된 영역은 두 명의 사람의 영상을 포함할 수 있다.5 is a preview image divided into a plurality of regions according to an embodiment. As shown in FIG. 5, the
다시 도 4를 참조하면, 다음으로, 상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하는 단계(S311)가 수행될 수 있다. 제어부(130)는 분할된 각각의 영역을 분석할 수 있다. 제어부(130)는 각각의 영역 내에 관심대상이 포함되어 있는지 여부를 판정할 수 있다.Referring again to FIG. 4, a step S311 of determining whether or not an object of interest (OOI) is included in each of the areas may be performed. The
관심대상은 미리 정의된 종류의 대상일 수 있다. 예를 들어, 건물, 사람, 동물, 식물, 상품, 또는 자연 현상 등의 종류가 미리 정의될 수 있다. 제어부(130)는 상기 미리 정의된 종류에 속하는 대상이 분할된 각각의 영역에 포함되어 있는지 여부를 판정할 수 있다.The object of interest may be a predefined kind of object. For example, the types of buildings, people, animals, plants, commodities, or natural phenomena can be predefined. The
도 5를 참조하면, 분할된 9개의 영역 중에서, 제어부(130)는 2개의 영역 내에 관심대상이 포함되어 있다고 판정할 수 있다. 제어부(130)는 2번째 행 및 2번째 열에 배치된 영역 내에 관심대상이 포함되어 있다고 판정할 수 있다. 또한, 제어부(130)는 2번째 행 및 3번째 열에 배치된 영역 내에 관심대상이 포함되어 있다고 판정할 수 있다. 제어부(130)는 나머지 7개의 영역 내에는 관심대상이 포함되어 있지 않다고 판정할 수 있다.Referring to FIG. 5, among the nine divided regions, the
다시 도 4를 참조하면, 다음으로, 상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정하는 단계(S312)가 수행될 수 있다. 제어부(130)는 관심대상이 포함되어 있다고 판정된 영역을 관심영역으로 지정할 수 있다. 도 5를 참조하면, 제어부(130)는 2번째 행 및 2번째 열에 배치된 영역을 관심영역으로 지정할 수 있다. 또한, 제어부(130)는 2번째 행 및 3번째 열에 배치된 영역을 관심영역으로 지정할 수 있다. 제어부(130)는 나머지 7개의 영역은 관심영역으로 지정하지 않을 수 있다.Referring again to FIG. 4, in operation S312, at least one of the plurality of regions may be designated as the region of interest according to the determination result. The
도 6은 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계(S300)가 수행되는 과정을 나타내는 순서도이다. 도 6을 참조하면, 먼저, 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계(S320)가 수행될 수 있다. 제어부(130)는 미리보기 영상을 분석할 수 있다. 제어부(130)는 미리보기 영상 내에서 관심대상의 위치를 검출할 수 있다.FIG. 6 is a flowchart illustrating a process of designating a region of interest (S300) in a preview image according to another embodiment. Referring to FIG. 6, a step S320 of detecting a position of an object of interest in the preview image may be performed by analyzing the preview image. The
제어부(130)는 관심대상의 위치를 검출하는 방법으로서, 상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하거나, 상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출할 수 있다. 또한, 제어부(130)는 관심대상의 위치를 검출하는 방법으로서, 상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하거나, 상기 미리보기 영상 내에서 초점의 위치를 검출할 수 있다.The
제어부(130)는 관심대상의 위치를 검출하기 위하여, 상기 열거된 방법 모두를 이용할 수 있다. 또한, 제어부(130)는 상기 열거된 방법 중에서 일부만을 이용할 수도 있다. 사용자의 선호사항(preferences)에 따라 관심대상의 위치를 검출하는 방법이 달라질 수 있다. 관심대상의 위치를 검출하는 방법에 관련된 사용자의 선호사항은 저장부(160)에 미리 저장될 수 있다. 다시 말해서, 제어부(130)가 어떠한 방법을 이용하여 관심대상의 위치를 검출할지에 대하여는 저장부(160)에 미리 정의될 수 있다.The
도 7은 실시예에 따라 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계(S320)가 수행되는 과정을 나타내는 순서도이다. 도 7을 참조하면, 먼저, 상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하는 단계(S321)가 수행될 수 있다. 제어부(130)는 미리보기 영상 내에 고주파요소가 포함되어 있는지 여부를 판정할 수 있다. 만약 미리보기 영상 내에 고주파요소가 포함되어 있다고 판정된 경우, 제어부(130)는 상기 미리보기 영상 내에서 고주파요소의 위치를 검출할 수 있다.FIG. 7 is a flowchart illustrating a process of performing a step S320 of detecting a position of an object of interest in a preview image according to an exemplary embodiment of the present invention. Referring to FIG. 7, a step S321 of detecting a position of a high frequency component in the preview image may be performed. The
도 8은 다른 실시예에 따른 미리보기 영상이다. 도 8을 참조하면, 미리보기 영상의 중앙 부분에 고주파요소로서 조형물의 영상이 포함되어 있다. 또한, 미리보기 영상 내에서 상기 조형물의 영상을 제외한 나머지 부분은 저주파요소일 수 있다. 제어부(130)는 도 8에 도시된 미리보기 영상 내에 고주파 요소가 포함되어 있다고 판정할 수 있다. 또한, 제어부(130)는 미리보기 영상 내에서 상기 조형물의 위치를 검출할 수 있다. 도 9는 도 8에 도시된 미리보기 영상 내에서 고주파요소의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.8 is a preview image according to another embodiment. Referring to FIG. 8, an image of a sculpture is included as a high-frequency component in a central portion of a preview image. In addition, the remaining portion of the preview image excluding the image of the sculpture may be a low frequency component. The
다시 도 7을 참조하면, 다음으로, 상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출하는 단계(S322)가 수행될 수 있다. 제어부(130)는 미리보기 영상에 대해 안면인식을 수행함으로써 미리보기 영상 내에 안면이 포함되어 있는지 여부를 판정할 수 있다. 만약 미리보기 영상 내에 안면이 포함되어 있다고 판정된 경우, 제어부(130)는 상기 미리보기 영상 내에서 안면의 위치를 검출할 수 있다.Referring again to FIG. 7, a step S322 of detecting the position of the face by performing face recognition on the preview image may be performed. The
도 10은 또 다른 실시예에 따른 미리보기 영상이다. 도 10을 참조하면, 미리보기 영상에는 3명의 사람의 얼굴의 영상이 포함되어 있다. 도 10을 참조하면, 중앙에 배치된 안면에 의하여 가장 오른쪽에 배치된 안면의 일부가 가려져 있다. 제어부(130)는 도 10에 도시된 미리보기 영상 내에 안면이 포함되어 있다고 판정할 수 있다. 또한, 제어부(130)는 미리보기 영상 내에서 상기 안면의 위치를 검출할 수 있다. 도 10을 참조하면, 제어부(130)는 가장 왼쪽에 배치된 안면의 위치 및 중앙에 배치된 안면의 위치를 검출할 수 있다. 제어부(130)는 일부가 가려진 가장 오른쪽에 배치된 안면에 대하여는 안면 인식을 실패할 수 있다. 따라서, 제어부(130)는 가장 오른쪽에 배치된 안면에 대하여는 위치를 검출하지 않을 수 있다. 도 11은 도 10에 도시된 미리보기 영상 내에서 안면의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.10 is a preview image according to another embodiment. Referring to FIG. 10, the preview image includes images of three human faces. Referring to FIG. 10, a part of the face disposed at the rightmost position is hidden by the face arranged at the center. The
다시 도 7을 참조하면, 다음으로, 상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하는 단계(S323)가 수행될 수 있다. 제어부(130)는 미리보기 영상에 대해 광학문자판독을 수행함으로써 미리보기 영상 내에 텍스트가 포함되어 있는지 여부를 판정할 수 있다. 만약 미리보기 영상 내에 텍스트가 포함되어 있다고 판정된 경우, 제어부(130)는 상기 미리보기 영상 내에서 텍스트의 위치를 검출할 수 있다.Referring again to FIG. 7, a step S323 of detecting the position of the text by performing optical character recognition (OCR) on the preview image may be performed. The
도 12는 또 다른 실시예에 따른 미리보기 영상이다. 도 12를 참조하면, 미리보기 영상에는 자동차의 영상 및 차대번호의 영상이 포함되어 있다. 제어부(130)는 도 12에 도시된 미리보기 영상 내에 텍스트가 포함되어 있다고 판정할 수 있다. 또한, 제어부(130)는 미리보기 영상 내에서 상기 텍스트의 위치를 검출할 수 있다. 도 12를 참조하면, 제어부(130)는 차대번호의 영상의 위치를 검출할 수 있다. 도 13은 도 12에 도시된 미리보기 영상 내에서 텍스트의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.12 is a preview image according to another embodiment. Referring to FIG. 12, a preview image includes a video of a car and a video of a car number. The
다시 도 7을 참조하면, 다음으로, 상기 미리보기 영상 내에서 초점의 위치를 검출하는 단계(S324)가 수행될 수 있다. 제어부(130)는 미리보기 영상 내에서 초점의 위치를 검출할 수 있다.Referring again to FIG. 7, the step of detecting the position of the focus within the preview image (S324) may be performed. The
도 14는 또 다른 실시예에 따른 미리보기 영상이다. 도 14를 참조하면, 미리보기 영상에는 새의 영상 및 나뭇잎의 영상이 포함되어 있다. 미리보기 영상 내에서 초점은 새에게 맞추어져 있다. 따라서, 미리보기 영상 내에서 새의 영상은 선명하고, 나뭇잎의 영상은 흐릿할 수 있다. 제어부(130)는 도 14에 도시된 미리보기 영상 내에서 초점의 위치를 검출할 수 있다. 도 14를 참조하면, 제어부(130)는 새의 영상의 위치를 검출할 수 있다. 도 15는 도 14에 도시된 미리보기 영상 내에서 초점의 위치를 검출하고 영상 세그멘테이션을 수행한 결과를 나타내는 화면이다.14 is a preview image according to another embodiment. Referring to FIG. 14, a preview image includes a bird image and an image of a leaf. Within the preview image, the focus is on the birds. Therefore, in the preview image, the bird image is clear, and the image of the leaf may be blurry. The
다시 도 6을 참조하면, 다음으로, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계(S328)가 수행될 수 있다. 제어부(130)는 검출된 관심대상의 위치를 이용하여 영상 세그멘테이션을 수행할 수 있다. 영상 세그멘테이션이 수행된 결과로서, 상기 관심대상에 대응하는 영역이 검출될 수 있다. 도 9, 도 11, 도 13, 및 도 15는 미리보기 영상 내에서 관심대상에 대응하는 영역이 검출된 결과를 나타내는 화면이다.Referring again to FIG. 6, the step of detecting an area corresponding to the object of interest (S328) may be performed by performing image segmentation using the detected position. The
또 다른 실시예에 따르면, 하나의 미리보기 영상에 대하여, 관심대상의 위치를 검출하는 방법으로서 상기 열거된 방법 중에서 복수의 방법이 동시에 이용될 수 있다. 예를 들어, 하나의 미리보기 영상 내에 고주파요소로서 아이스크림의 영상, 사람의 얼굴의 영상, 및 상기 사람이 착용하고 있는 옷에 적힌 텍스트의 영상 모두가 포함되어 있는 경우를 가정하기로 한다. 제어부(130)는 상기 아이스크림의 영상, 상기 사람의 얼굴의 영상, 및 상기 텍스트의 영상 모두를 관심대상으로서 검출할 수 있다. 도 16은 또 다른 실시예에 따라 미리보기 영상 내에서 관심대상에 대응하는 영역을 검출한 결과를 나타내는 화면이다.According to another embodiment, a plurality of methods among the above listed methods can be simultaneously used as a method of detecting the position of the object of interest, with respect to one preview image. For example, it is assumed that an image of an ice cream as a high-frequency component, a video of a face of a person, and a video of a text written on a clothes worn by the person are included in one preview image. The
다시 도 6을 참조하면, 다음으로, 상기 검출된 영역을 상기 관심영역으로 지정하는 단계(S329)가 수행될 수 있다. 제어부(130)는 상기 관심대상에 대응하는 영역을 관심영역으로 지정할 수 있다.Referring again to FIG. 6, next, the step of designating the detected region as the region of interest (S329) may be performed. The
도 17은 또 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계(S300)가 수행되는 과정을 나타내는 순서도이다. 도 17을 참조하면, 먼저, 사용자로부터 드래그 입력을 수신하는 단계(S330)가 수행될 수 있다.FIG. 17 is a flowchart illustrating a process of designating a region of interest (S300) in a preview image according to another embodiment. Referring to FIG. 17, first, a step S330 of receiving a drag input from a user may be performed.
사용자는 자신이 원하는 관심영역을 직접 지정할 수 있다. 사용자는 드래그 입력을 통해 자신이 원하는 관심영역의 경계선을 지정할 수 있다. 입력부(150)는 사용자로부터 드래그 입력을 수신할 수 있다.The user can directly designate a desired region of interest. The user can designate the boundary line of the desired area of interest through the drag input. The
도 18은 또 다른 실시예에 따른 미리보기 영상이다. 도 18을 참조하면, 미리보기 영상 내에는 두 마리의 새의 영상, 세 송이의 꽃의 영상, 및 나뭇잎의 영상이 포함되어 있다. 사용자는 두 마리의 새의 영상의 외곽선을 따라 드래그 입력을 입력할 수 있다.18 is a preview image according to another embodiment. Referring to Fig. 18, two bird images, three flower images, and a leaf image are included in the preview image. The user can input the drag input along the outline of the image of two birds.
다시 도 17을 참조하면, 다음으로, 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하는 단계(S331)가 수행될 수 있다. 제어부(130)는 상기 드래그 입력에 대한 응답으로, 상기 드래그 입력에 대응하는 영역을 검출할 수 있다. 제어부(130)는 상기 드래그 입력을 기초로 하여 폐곡선을 생성할 수 있다. 제어부(130)는 상기 폐곡선에 의해 특정된 영역을 상기 드래그 입력에 대응하는 영역으로 지정할 수 있다.Referring again to FIG. 17, a step S331 of detecting a first region corresponding to the drag input in the preview image may be performed. In response to the drag input, the
도 19는 도 18에 도시된 미리보기 영상 내에서 사용자의 입력에 대한 응답으로 관심영역을 지정한 결과를 나타내는 화면이다. 도 19를 참조하면, 제어부(130)는 두 마리의 새의 영상의 외곽선에 의해 특정된 영역을 상기 드래그 입력에 대응하는 영역으로 지정할 수 있다.FIG. 19 is a view showing a result of designating a region of interest in response to a user's input in the preview image shown in FIG. Referring to FIG. 19, the
다시 도 17을 참조하면, 다음으로, 사용자로부터 탭 입력을 수신하는 단계(S332)가 수행될 수 있다. 사용자는 자신이 원하는 관심대상의 위치를 직접 지정할 수 있다. 사용자는 탭 입력을 통해 자신이 원하는 관심대상의 위치를 지정할 수 있다. 입력부(150)는 사용자로부터 탭 입력을 수신할 수 있다. 예를 들어, 도 18을 참조하면, 사용자는 미리보기 영상 내에서 오른쪽 상부에 배치된 꽃 및 왼쪽 하부에 배치된 꽃을 관심대상으로 지정하기를 원할 수 있다. 사용자는 오른쪽 상부에 배치된 꽃의 영상 및 왼쪽 하부에 배치된 꽃의 영상에 대하여 각각 탭 입력을 입력할 수 있다.Referring again to FIG. 17, next, step (S332) of receiving a tap input from the user may be performed. The user can directly designate the position of the object of interest desired by the user. The user can designate the position of the target of interest through the tab input. The
다시 도 17을 참조하면, 다음으로, 상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하는 단계(S333)가 수행될 수 있다. 제어부(130)는 상기 탭 입력에 대한 응답으로, 상기 탭 입력에 대응하는 위치를 검출할 수 있다. 도 18을 참조하면, 제어부(130)는 오른쪽 상부에 배치된 꽃의 영상의 위치 및 왼쪽 하부에 배치된 꽃의 영상의 위치를 검출할 수 있다.Referring again to FIG. 17, a step S333 of detecting a position corresponding to the tap input in the preview image may be performed. In response to the tap input, the
다시 도 17을 참조하면, 다음으로, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하는 단계(S334)가 수행될 수 있다. 제어부(130)는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행할 수 있다. 영상 세그멘테이션이 수행된 결과로서, 상기 검출된 위치로부터 확장된 영역이 검출될 수 있다. 도 19를 참조하면, 제어부(130)는 오른쪽 상부에 배치된 꽃의 영상의 위치를 이용하여 영상 세그멘테이션을 수행함으로써, 상기 꽃에 대응하는 영역을 검출할 수 있다. 또한, 제어부(130)는 왼쪽 하부에 배치된 꽃의 영상의 위치를 이용하여 영상 세그멘테이션을 수행함으로써, 상기 꽃에 대응하는 영역을 검출할 수 있다.Referring again to FIG. 17, a step S334 of detecting a second region by performing image segmentation using the detected position may be performed. The
다시 도 17을 참조하면, 다음으로, 상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정하는 단계(S335)가 수행될 수 있다. 제어부(130)는 사용자의 드래그 입력에 대한 응답으로 검출한 제1영역 및 사용자의 탭 입력에 대한 응답으로 검출한 제2영역을 관심영역으로 지정할 수 있다.Referring again to FIG. 17, next, the step of designating the first area and the second area as the area of interest (S335) may be performed. The
도 20은 또 다른 실시예에 따라 미리보기 영상 내에서 관심영역을 지정하는 단계(S300)가 수행되는 과정을 나타내는 순서도이다. 도 20을 참조하면, 먼저, 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계(S340)가 수행될 수 있다.FIG. 20 is a flowchart showing a process of designating a region of interest (S300) in a preview image according to another embodiment. Referring to FIG. 20, a step of detecting a position of an object of interest in the preview image (S340) may be performed by analyzing the preview image.
제어부(130)는 미리보기 영상을 분석할 수 있다. 제어부(130)는 미리보기 영상 내에서 관심대상의 위치를 검출할 수 있다. 제어부(130)는 관심대상의 위치를 검출하는 방법으로서, 상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하거나, 상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출할 수 있다. 또한, 제어부(130)는 관심대상의 위치를 검출하는 방법으로서, 상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하거나, 상기 미리보기 영상 내에서 초점의 위치를 검출할 수 있다.The
예를 들어, 도 18을 참조하면, 제어부(130)는 미리보기 영상의 중앙에 배치된 새의 영상, 오른쪽 상부에 배치된 꽃의 영상, 및 왼쪽 상부에 배치된 꽃의 영상을 관심대상으로서 검출할 수 있다. 제어부(130)는 왼쪽 하부에 배치된 꽃의 영상 및 오른쪽 하부에 배치된 나뭇잎의 영상은 관심대상으로서 검출하지 않을 수 있다.For example, referring to FIG. 18, the
다시 도 20을 참조하면, 다음으로, 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계(S341)가 수행될 수 있다. 제어부(130)는 검출된 관심대상의 위치를 이용하여 영상 세그멘테이션을 수행할 수 있다. 영상 세그멘테이션이 수행된 결과로서, 상기 관심대상에 대응하는 영역이 검출될 수 있다.Referring again to FIG. 20, the step of detecting the region corresponding to the object of interest (S341) may be performed by performing image segmentation using the detected position. The
다음으로, 상기 미리보기 영상 상에 상기 검출된 영역을 표시하는 단계(S342)가 수행될 수 있다. 표시부(140)는 상기 미리보기 영상 상에 상기 검출된 영역을 표시할 수 있다. 도 21은 도 18에 도시된 미리보기 영상 상에 관심대상에 대응하는 영역을 표시한 결과를 나타내는 화면이다. 도 21을 참조하면, 표시부(140)는 새의 영상에 대응하는 영역을 미리보기 영상 상에 표시할 수 있다. 또한, 표시부(140)는 오른쪽 상부의 꽃의 영상에 대응하는 영역을 미리보기 영상 상에 표시할 수 있다. 또한, 표시부(140)는 왼쪽 상부의 꽃의 영상에 대응하는 영역을 미리보기 영상 상에 표시할 수 있다.Next, the step of displaying the detected area on the preview image (S342) may be performed. The
다시 도 20을 참조하면, 다음으로, 사용자로부터 탭 입력을 수신하는 단계(S343)가 수행될 수 있다. 사용자는 표시부(140)에 표시된 영역을 확인한 후에, 상기 표시된 영역 중에서 적어도 일부의 영역을 관심영역으로 지정하길 원할 수 있다. 다른 실시예에 따르면, 사용자는 표시된 영역 중에서 어느 영역도 관심영역으로 지정하길 원하지 않을 수 있다. 사용자는 상기 표시된 영역 중에서 관심영역으로 지정하길 원하는 영역에 대하여 탭 입력을 입력할 수 있다.Referring again to FIG. 20, next, step S343 of receiving a tap input from the user may be performed. After confirming the area displayed on the
예를 들어, 도 21을 참조하면, 사용자는 표시된 영역 중에서 오른쪽 상부의 꽃의 영상에 대응하는 영역을 관심영역으로 지정하길 원할 수 있다. 사용자는 오른쪽 상부의 꽃의 영상에 대응하는 영역 내의 지점에 대해 탭 입력을 입력할 수 있다.For example, referring to FIG. 21, the user may desire to designate an area corresponding to an image of flowers on the upper right of the displayed area as an area of interest. The user can input a tap input for a point in the area corresponding to the image of the flower in the upper right corner.
또한, 사용자는 마음을 바꾸어 이미 탭 입력을 입력한 영역을 관심영역으로 지정하길 원하지 않을 수 있다. 사용자는 이미 탭 입력을 입력한 영역에 대하여 다시 탭 입력을 입력할 수 있다.Also, the user may not want to change his / her mind and designate the area in which the tab input has already been made as an area of interest. The user can again input the tab input for the area where the tab input is already inputted.
또한, 사용자는 표시부(140)에 표시된 영역을 제외한 나머지 영역 내에 배치된 대상 중에서 적어도 일부에 대응하는 영역을 추가적으로 관심영역으로 지정하길 원할 수 있다. 사용자는 추가적으로 관심영역으로 지정하길 원하는 영역에 대응하는 대상에 대해 탭 입력을 입력할 수 있다.Further, the user may desire to designate, as an area of interest, an area corresponding to at least a part of the objects arranged in the remaining area except for the area displayed on the
예를 들어, 도 21을 참조하면, 사용자는 표시된 영역을 제외한 나머지 영역 내에 배치된 대상 중에서 왼쪽 하부의 꽃의 영상에 대응하는 영역을 추가적으로 관심영역으로 지정하길 원할 수 있다. 사용자는 왼쪽 하부의 꽃에 대해 탭 입력을 입력할 수 있다.For example, referring to FIG. 21, the user may desire to designate an area corresponding to an image of flowers on the lower left of the objects arranged in the remaining areas except the displayed area as an additional area of interest. The user can enter a tap input for the flower in the lower left corner.
다시 도 20을 참조하면, 다음으로, 상기 검출된 영역 중에서 상기 탭 입력에 대응하는 영역을 선택하거나 선택해제하는 단계(S344)가 수행될 수 있다. 제어부(130)는 상기 탭 입력에 대한 응답으로, 상기 검출된 영역 중에서 상기 탭 입력에 대응하는 영역을 선택하거나 선택해제할 수 있다. 도 21을 참조하면, 제어부(130)는 오른쪽 상부의 꽃에 대한 탭 입력에 대한 응답으로, 상기 검출된 영역 중에서 상기 오른쪽 상부의 꽃에 대응하는 영역을 선택할 수 있다. 또한, 제어부(130)는 왼쪽 하부의 꽃에 대한 탭 입력에 대한 응답으로, 상기 왼쪽 하부의 꽃에 대응하는 영역을 추가적으로 선택할 수 있다.Referring again to FIG. 20, a step of selecting or deselecting a region corresponding to the tap input from among the detected regions (S344) may be performed. In response to the tap input, the
만약 왼쪽 상부의 꽃에 대한 탭 입력이 추가적으로 수신된 경우, 제어부(130)는 상기 왼쪽 상부의 꽃에 대응하는 영역을 추가적으로 선택할 수 있다. 만약 오른쪽 상부의 꽃에 대한 탭 입력이 다시 한 번 수신된 경우, 제어부(130)는 상기 오른쪽 상부의 꽃에 대응하는 영역을 선택해제할 수 있다.If a tap input for the upper left flower is additionally received, the
다시 도 20을 참조하면, 다음으로, 사용자로부터 드래그 입력을 수신하는 단계(S345)가 수행될 수 있다. 사용자는 드래그 입력을 입력함으로써 자신이 원하는 관심영역의 경계선을 입력할 수 있다. 입력부(150)는 사용자로부터 드래그 입력을 수신할 수 있다. 예를 들어, 도 21을 참조하면, 사용자는 두 마리의 새의 영상의 외곽선을 따라 드래그 입력을 입력할 수 있다.Referring again to FIG. 20, next, step (S345) of receiving a drag input from the user may be performed. The user can input a boundary line of a desired region of interest by inputting a drag input. The
다시 도 20을 참조하면, 다음으로, 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제3영역을 검출하는 단계(S346)가 수행될 수 있다. 제어부(130)는 상기 드래그 입력에 대한 응답으로, 상기 드래그 입력에 대응하는 영역을 검출할 수 있다. 제어부(130)는 상기 드래그 입력을 기초로 하여 폐곡선을 생성할 수 있다. 제어부(130)는 상기 폐곡선에 의해 특정된 영역을 상기 드래그 입력에 대응하는 영역으로 지정할 수 있다. 도 21을 참조하면, 제어부(130)는 두 마리의 새의 영상의 외곽선에 의해 특정된 영역을 상기 드래그 입력에 대응하는 영역으로 지정할 수 있다.Referring again to FIG. 20, a step S346 of detecting a third region corresponding to the drag input in the preview image may be performed. In response to the drag input, the
다시 도 20을 참조하면, 다음으로, 상기 선택된 영역 및 상기 제3영역을 상기 관심영역으로 지정하는 단계(S347)가 수행될 수 있다. 제어부(130)는 상기 탭 입력에 대한 응답으로 선택된 영역 및 상기 드래그 입력에 대한 응답으로 검출된 상기 제3영역을 관심영역으로 지정할 수 있다.Referring again to FIG. 20, next, the step of designating the selected region and the third region as the region of interest (S347) may be performed. The
도 19는 관심영역이 지정된 결과를 나타내는 화면이다. 도 21에 도시된 화면과 비교해보면, 오른쪽 상부에 배치된 꽃에 대한 탭 입력 및 왼쪽 하부에 배치된 꽃에 대한 탭 입력에 대한 응답으로 선택된 영역이 관심영역으로 지정될 수 있다. 또한, 두 마리의 새의 영상의 외곽선을 따라 입력된 드래그 입력에 대한 응답으로 검출된 상기 제3영역이 관심영역으로 지정될 수 있다.Fig. 19 is a screen showing the result of designating the region of interest. In comparison with the screen shown in Fig. 21, a region selected in response to a tap input for a flower placed on the upper right and a tap input for a flower arranged on the lower left can be designated as an ROI. Further, the third region detected in response to the drag input inputted along the outline of the images of the two birds can be designated as the region of interest.
다음으로, 제어부(130)는 상기 대상에 대한 제1영상을 촬영하고, 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성할 수 있다. 다른 실시예에 따르면, 상기의 실시예에서의 순서와 달리, 제어부(130)는 상기 대상에 대한 제1영상을 촬영한 후 상기 제1영상 내에서 적어도 하나 이상의 관심영역을 지정할 수 있다. 제어부(130)는 예를 들어, 도 4에 도시된 방법과 유사한 방법으로 상기 촬영된 제1영상 내에서 관심영역을 지정할 수 있다. 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성할 수 있다.Next, the
상기 복원 데이터의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다. 상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다.The resolution of the restored data may be higher than the resolution of the portion corresponding to the region of interest in the first image. The second image reconstructed using the reconstructed data corresponds to the ROI, and the resolution of the second image may be higher than the resolution of the ROI corresponding to the ROI in the first image.
예를 들어, 상기 복원 데이터는 상기 관심영역에 대한 슈퍼레졸루션(super resolution) 영상일 수 있다. 슈퍼레졸루션 영상은 보다 낮은 해상도를 갖는 복수의 영상을 이용하여 복원된, 보다 높은 해상도를 갖는 영상일 수 있다. 저해상도를 갖는 복수의 영상들 사이의 상대적인 차이를 이용하여 주파수를 분석함으로써 저해상도 영상들과 고해상도 영상 사이의 관계식이 산출될 수 있다. 상기 산출된 관계식을 이용하여 고해상도 영상이 복원될 수 있다. 슈퍼레졸루션 영상의 해상도는 저해상도 영상의 해상도의 4배일 수 있다. 예를 들어, 원본 영상의 해상도가 1600만 화소인 경우, 상기 원본 영상을 이용하여 복원된 슈퍼레졸루션 영상의 해상도는 6400만 화소일 수 있다.For example, the reconstructed data may be a super resolution image for the region of interest. The super resolution image may be a higher resolution image reconstructed using a plurality of images having a lower resolution. A relational expression between the low resolution images and the high resolution image can be calculated by analyzing the frequency using the relative difference between the plurality of images having low resolution. The high-resolution image can be reconstructed using the calculated relational expression. The resolution of the super resolution image may be four times the resolution of the low resolution image. For example, if the resolution of the original image is 16 million pixels, the resolution of the super resolution image reconstructed using the original image may be 64 million pixels.
다른 실시예에 따르면, 상기 복원 데이터는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분 및 상기 제1영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터일 수 있다. 제어부(130)는 다음과 같은 과정을 통해 상기 복원 데이터를 생성할 수 있다.According to another embodiment, the reconstructed data may include comparison data indicating a difference between a portion corresponding to the region of interest in the first image and a portion corresponding to the region of interest in the super resolution image corresponding to the first image Lt; / RTI > The
또 다른 실시예에 따르면, 제어부(130)는 제1영상을 촬영하거나, 저장부(160)에 저장된 제1영상을 불러올 수 있다. 제어부(130)는 상기 제1영상 내에서 적어도 하나 이상의 관심영역을 지정할 수 있다. 제어부(130)는 상기 제1영상을 이용하여 상기 관심영역에 대응하는 복원 데이터를 생성할 수 있다. 예를 들어, 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 따로 잘라내고(crop), 상기 잘라낸 부분을 복원 데이터로서 이용할 수 있다. 제어부(130)는 제1영상을 JPEG로 인코딩함으로써 압축 영상을 생성할 수 있다. 상기 제1영상이 압축됨에 따라, 상기 제1영상에 포함되어 있던 영상 정보에 손실이 발생할 수 있다. 또한, 압축 영상의 해상도는 제1영상의 해상도보다 낮을 수 있다.According to another embodiment, the
저장부(160)는 상기 압축 영상 및 상기 복원 데이터를 저장할 수 있다. 제어부(130)는 상기 복원 데이터를 이용하여 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분을 복원함으로써 복원 영상을 생성할 수 있다. 표시부(140)는 상기 복원 영상을 표시할 수 있다. 상기 복원 영상은 상기 관심영역에 대응하고, 상기 복원 영상의 해상도는 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높을 수 있다. 복원 데이터를 이용하여 압축 영상을 복원함으로써, 압축 과정에서 손실되었던 영상 정보가 복원될 수 있다. 또한, 복원 데이터를 이용하여 저해상도의 압축 영상을 제1영상과 동일한 수준의 고해상도의 영상으로 복원할 수 있다.The
또 다른 실시예에 따르면, 도 29 내지 도 32에 도시된 바와 같이 영상 처리가 수행될 수 있다.According to another embodiment, image processing may be performed as shown in FIGS. 29 to 32. FIG.
다시 도 2를 참조하면, 다음으로, 상기 대상에 대한 복수의 영상을 촬영하는 단계(S400)가 수행될 수 있다. 제어부(130)는 수광부(110) 및 영상신호처리부(120)를 제어함으로써 상기 대상에 대한 복수의 영상을 촬영할 수 있다. 제어부(130)는 상기 대상에 대한 연속 영상(burst images)을 촬영할 수 있다. 예를 들어, 제어부(130)는 10장의 연속 영상을 촬영할 수 있다. 상기 미리보기 영상에 포함된 대상 및 상기 촬영된 연속 영상에 포함된 대상은 서로 동일할 수 있다. 촬영된 연속 영상은 저장부(160)에 임시로 저장될 수 있다.Referring again to FIG. 2, a step S400 of photographing a plurality of images of the object may be performed. The
다음으로, 상기 복수의 영상 중에서 적어도 일부를 이용하여 상기 관심영역에 대한 슈퍼레졸루션(super resolution) 영상을 생성하는 단계(S500)가 수행될 수 있다. 제어부(130)는 상기 복수의 영상 중에서 적어도 일부를 이용할 수 있다. 예를 들어, 제어부(130)는 10장의 연속 영상 중에서 5장 이상의 영상을 이용할 수 있다. 제어부(130)는 상기 영상을 이용하여 상기 관심영역에 대한 슈퍼레졸루션 영상을 생성할 수 있다.Next, a step S500 of generating a super resolution image for the ROI using at least a part of the plurality of images may be performed. The
제어부(130)는 영상 내의 전체 영역에 대하여 슈퍼레졸루션 영상을 생성하는 대신에, 상기 영상 내에서 상기 관심영역에 대응하는 부분에 대하여만 슈퍼레졸루션 영상을 생성할 수 있다. 제어부(130)는 촬영된 복수의 영상 내에서 상기 관심영역에 대응하는 부분들 사이의 상대적인 차이를 이용하여 주파수를 분석할 수 있다. 제어부(130)는 상기 분석 결과를 이용하여 상기 관심영역에 대한 슈퍼레졸루션 영상을 생성할 수 있다. 생성된 슈퍼레졸루션 영상은 저장부(160)에 임시로 저장될 수 있다.The
다음으로, 상기 복수의 영상에 포함된 제1영상 내에서 상기 관심영역에 대응하는 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 복원 데이터를 생성하는 단계(S600)가 수행될 수 있다. 제어부(130)는 상기 복수의 영상 중에서 어느 하나의 영상을 제1영상으로서 선택할 수 있다. 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 추출할 수 있다. 제어부(130)는 상기 제1영상으로부터 추출된 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 복원 데이터를 생성할 수 있다.(S600) generating restoration data indicating a difference between a portion corresponding to the region of interest in the first image included in the plurality of images and a portion corresponding to the region of interest in the super resolution image, Can be performed. The
다만, 상기 제1영상으로부터 추출된 부분의 해상도는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도와 서로 다를 수 있다. 따라서, 제어부(130)는 복원 데이터를 생성하기 위하여, 먼저 상기 제1영상으로부터 추출된 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만들 수 있다. 제어부(130)는 상기 제1영상으로부터 추출된 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링할 수 있다. 제어부(130)는 쌍입방 보간법(bicubic interpolation)을 이용하여 업스케일링하거나 다운스케일링할 수 있다.However, the resolution of the portion extracted from the first image may be different from the resolution of the portion corresponding to the region of interest in the super resolution image. Accordingly, in order to generate reconstructed data, the
제어부(130)는 상기 제1영상으로부터 추출된 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택할 수 있다. 제어부(130)가 선택하는 해상도의 개수 및 선택된 각각의 해상도는 저장부(160)에 미리 저장될 수 있다.The
예를 들어, 제어부(130)는 상기 제1영상으로부터 추출된 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 n개의 서로 다른 해상도를 선택할 수 있다. n은 5일 수 있다. 상기 선택된 5개의 해상도는 각각 해상도 A, 해상도 B, 해상도 C, 해상도 D, 해상도 E일 수 있다. 해상도 E는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도와 서로 동일할 수 있다. 따라서, 해상도 E를 제외한 나머지 해상도 A, 해상도 B, 해상도 C, 및 해상도 D는 상기 제1영상으로부터 추출된 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작을 수 있다.For example, the
제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 A로 업스케일링할 수 있다. 또한, 제어부(130)는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 해상도 A로 다운스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 다운스케일링된 부분을 비교함으로써 해상도 A에 대한 복원 데이터를 산출할 수 있다.The
제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 B로 업스케일링할 수 있다. 또한, 제어부(130)는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 해상도 B로 다운스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 다운스케일링된 부분을 비교함으로써 해상도 B에 대한 복원 데이터를 산출할 수 있다.The
제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 C로 업스케일링할 수 있다. 또한, 제어부(130)는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 해상도 C로 다운스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 다운스케일링된 부분을 비교함으로써 해상도 C에 대한 복원 데이터를 산출할 수 있다.The
제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 D로 업스케일링할 수 있다. 또한, 제어부(130)는 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 해상도 D로 다운스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 다운스케일링된 부분을 비교함으로써 해상도 D에 대한 복원 데이터를 산출할 수 있다.The
제어부(130)는 상기 제1영상으로부터 추출된 부분을 해상도 E로 업스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 비교함으로써 해상도 E에 대한 복원 데이터를 산출할 수 있다. 이로써, n개의 서로 다른 복원 데이터가 산출될 수 있다.The
또한, 상기 제1영상 내에는 복수의 관심영역이 포함될 수 있고, 제어부(130)는 각각의 관심영역에 대하여 상기 과정을 반복할 수 있다. 만약 제1영상 내에 3개의 관심영역이 포함된 경우, 3n개의 서로 다른 복원 데이터가 산출될 수 있다.In addition, the first image may include a plurality of ROIs, and the
다음으로, 상기 제1영상 및 상기 복원 데이터를 저장하는 단계(S700)가 수행될 수 있다. 도 22는 실시예에 따라 제1영상 및 복원 데이터를 저장하는 단계를 설명하기 위한 참고도이다. 도 22를 참조하면, 저장부(160)는 상기 제1영상을 영상 파일로 저장할 수 있다. 예를 들어, 저장부(160)는 상기 제1영상을 JPEG 포맷 또는 PNG 포맷의 영상 파일로 저장할 수 있다.Next, the step S700 of storing the first image and the restored data may be performed. 22 is a reference diagram for explaining a step of storing the first image and the restored data according to the embodiment. Referring to FIG. 22, the
또한, 저장부(160)는 상기 복원 데이터를 저장할 수 있다. 도 22에 도시된 바와 같이, 저장부(160)는 3n개의 서로 다른 복원 데이터를 각각 분리하여 저장할 수 있다. 저장부(160)는 상기 복원 데이터를 애플리케이션의 마커 데이터(marker data)로서 저장할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 복원 데이터를 표준 JPEG 인코딩 알고리즘을 이용하여 압축할 수 있다. 저장부(160)는 상기 압축된 복원 데이터를 애플리케이션의 마커 데이터로서 저장할 수 있다. 또 다른 실시예에 따르면, 저장부(160)는 상기 압축된 복원 데이터를 별도의 영상 파일로 저장할 수 있다. 복원 데이터가 압축된 경우, 복원 데이터를 저장하기 위해 필요로 하는 추가적인 저장공간의 크기가 감소될 수 있다.In addition, the
도 23은 실시예에 따라 복원 데이터를 이용하여 확대 영상을 생성하고 표시하는 방법이 수행되는 과정을 나타내는 순서도이다. 도 23을 참조하면, 먼저, 저장된 영상 및 상기 영상 내에서 관심영역에 대응하는 부분을 표시하는 단계(S800)가 수행될 수 있다. 표시부(140)는 저장부(160)에 저장된 상기 제1영상 및 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 표시할 수 있다.23 is a flowchart illustrating a process of generating and displaying an enlarged image using restoration data according to an embodiment of the present invention. Referring to FIG. 23, a step S800 of displaying a stored image and a portion corresponding to a region of interest in the image may be performed. The
표시부(140)가 상기 제1영상 및 상기 관심영역에 대응하는 부분을 표시하기 이전에, 제어부(130)는 갤러리 어플리케이션을 실행할 수 있다. 표시부(140)는 저장부(160)에 저장된 복수의 영상에 대응하는 복수의 썸네일을 포함하는 갤러리 화면을 표시할 수 있다. 입력부(150)는 갤러리 화면 내의 하나의 썸네일에 대해 사용자로부터 터치 입력을 수신할 수 있다. 도 24는 영상 처리 장치(100)에 표시된 갤러리 화면 내의 하나의 썸네일에 대해 사용자로부터 터치 입력이 수신된 경우를 나타내는 화면이다.The
상기 수신된 터치 입력에 대한 응답으로, 표시부(140)는 상기 썸네일에 대응하는 영상 및 상기 영상 내에서 상기 관심영역에 대응하는 부분을 표시할 수 있다. 예를 들어, 사용자는 갤러리 화면 내에서 상기 제1영상에 대응하는 썸네일에 대해 터치 입력을 입력할 수 있다. 표시부(140)는 상기 터치 입력에 대한 응답으로, 도 16에 도시된 바와 같이 제1영상 및 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 표시할 수 있다.In response to the received touch input, the
다시 도 23을 참조하면, 다음으로, 사용자로부터 입력을 수신하는 단계(S810)가 수행될 수 있다. 사용자는 표시부(140)에 표시된 영상의 확대를 위하여 핀치 아웃(pinch out) 입력을 입력할 수 있다. 도 25는 영상 처리 장치(100)에 표시된 영상에 대해 사용자로부터 핀치 아웃(pinch out) 입력이 수신된 경우를 나타내는 화면이다. 도 25를 참조하면, 사용자는 제1영상에 포함된 안면 부분에 대하여 핀치 아웃 입력을 입력할 수 있다. 입력부(150)는 사용자로부터 상기 핀치 아웃 입력을 수신할 수 있다.Referring again to FIG. 23, next step S810 of receiving an input from the user may be performed. The user can input a pinch-out input for enlarging the image displayed on the
또한, 사용자는 표시부(140)에 표시된 영상의 패닝(panning) 또는 네비게이션(navigation)을 위하여 드래그(drag) 입력을 입력할 수 있다. 도 26은 영상 처리 장치(100)에 표시된 영상에 대해 사용자로부터 드래그(drag) 입력이 수신된 경우를 나타내는 화면이다. 도 26의 (p)를 참조하면, 표시부(140)는 제1영상에 포함된 안면 부분을 이미 확대하여 표시하고 있다. 사용자는 도 26의 (q) 또는 (r)에서와 같이 제1영상 내의 다른 부분이 표시되도록 하기 위하여 드래그 입력을 입력할 수 있다. 입력부(150)는 사용자로부터 상기 드래그 입력을 수신할 수 있다.In addition, the user can input a drag input for panning or navigation of the image displayed on the
다시 도 23을 참조하면, 다음으로, 상기 수신된 입력을 이용하여 확대 배율을 결정하는 단계(S820)가 수행될 수 있다. 제어부(130)는 상기 수신된 핀치 아웃 입력에 대한 응답으로, 확대 배율을 결정할 수 있다. 상기 핀치 아웃 입력을 위해 사용자가 양손가락 사이를 더 많이 벌릴수록, 제어부(130)는 더 높은 확대 배율을 결정할 수 있다. 제어부(130)는 상기 확대 배율로서 1보다 큰 유리수를 결정할 수 있다.Referring again to FIG. 23, the step of determining an enlargement magnification using the received input (S820) may be performed. The
다음으로, 상기 영상 내에서 상기 관심영역에 대응하는 부분 및 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 복원 데이터를 이용하여 상기 확대 배율에 대응하는 확대 영상을 생성하는 단계(S830)가 수행될 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터를 이용하여 상기 확대 배율에 대응하는 확대 영상을 생성할 수 있다.Generating an enlarged image corresponding to the enlargement magnification using reconstruction data representing a difference between the portion corresponding to the region of interest in the image and the portion corresponding to the region of interest in the super resolution image S830) may be performed. The
도 27은 실시예에 따라 복원 데이터를 이용하여 확대 배율에 대응하는 확대 영상을 생성하는 단계를 설명하기 위한 참고도이다. 도 27을 참조하면, 상기 결정된 확대 배율은 다음의 5가지 경우 중에서 어느 하나일 수 있다. 상기 결정된 확대 배율은, 도 27의 (a)의 경우로서, 1보다 크고 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근보다 작을 수 있다. 예를 들어, 제1영상의 해상도는 1600만 화소일 수 있다. 다시 말해서, 수광부(110)에 의해 생성된 원시 영상의 해상도는 1600만 화소일 수 있다. 또한, 표시부(140)의 해상도는 200만 화소일 수 있다. 따라서, 도 27의 (a)의 경우, 상기 확대 배율은 1보다 크고 sqrt(16/2) = 2.828보다 작을 수 있다.27 is a reference diagram for explaining a step of generating an enlarged image corresponding to an enlargement magnification using restoration data according to an embodiment. Referring to FIG. 27, the determined enlargement magnification may be any of the following five cases. The determined enlargement magnification is larger than 1 and smaller than the square root of the quotient of the resolution of the first image divided by the resolution of the
또한, 상기 결정된 확대 배율은, 도 27의 (b)의 경우로서, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근과 서로 동일할 수 있다. 따라서, 도 27의 (b)의 경우, 상기 확대 배율은 sqrt(16/2) = 2.828일 수 있다.27 (b), the determined enlargement magnification may be the same as the square root of the quotient obtained by dividing the resolution of the first image by the resolution of the
또한, 상기 결정된 확대 배율은, 도 27의 (c)의 경우로서, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근보다 크고, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작을 수 있다. 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근은 sqrt(16/2) = 2.828일 수 있다. 또한, 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근은 sqrt(4/1) = 2일 수 있다. 따라서, 도 27의 (c)의 경우, 상기 확대 배율은 2.828보다 크고 2.828 * 2 = 5.656보다 작을 수 있다.27 (c), the determined enlargement magnification is larger than the square root of the quotient obtained by dividing the resolution of the first image by the resolution of the
또한, 상기 결정된 확대 배율은, 도 27의 (d)의 경우로서, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값과 서로 동일할 수 있다. 따라서, 도 27의 (d)의 경우, 상기 확대 배율은 5.656일 수 있다.27 (d), the determined enlargement magnification is obtained by multiplying the square root of a quotient obtained by dividing the resolution of the first image by the resolution of the
또한, 상기 결정된 확대 배율은, 도 27의 (e)의 경우로서, 제1영상의 해상도를 표시부(140)의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 클 수 있다. 따라서, 도 27의 (e)의 경우, 상기 확대 배율은 5.656보다 클 수 있다.27 (e), the determined enlargement magnification is obtained by multiplying the square root of a quotient obtained by dividing the resolution of the first image by the resolution of the
상기 결정된 확대 배율에 대응하는 확대 영상의 해상도는 표시부(140)의 해상도에 상기 결정된 확대 배율의 제곱을 곱함으로써 산출될 수 있다. 도 27의 (a)의 경우, 상기 확대 배율에 대응하는 확대 영상의 해상도는 표시부(140)의 해상도보다 크고 제1영상의 해상도보다 작을 수 있다. 제어부(130)는 제1영상을 상기 확대 배율에 대응하는 확대 영상의 해상도로 다운스케일링함으로써 상기 확대 영상을 생성할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 다운스케일링함으로써 확대 영상을 생성할 수 있다. 도 27의 (b)의 경우, 상기 확대 배율에 대응하는 확대 영상의 해상도는 제1영상의 해상도와 서로 동일할 수 있다. 제어부(130)는 제1영상을 상기 확대 영상으로 지정할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 잘라냄(crop)으로써 확대 영상을 생성할 수 있다.The resolution of the enlarged image corresponding to the determined enlargement magnification can be calculated by multiplying the resolution of the
도 27의 (c)의 경우, 상기 확대 배율에 대응하는 확대 영상의 해상도는 제1영상의 해상도보다 크고 제1영상의 해상도에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫을 곱한 값보다 작을 수 있다. 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫은 4이므로, 상기 확대 영상의 해상도는 제1영상의 해상도보다 크고 제1영상의 해상도의 4배보다 작을 수 있다.In the case of (c) of FIG. 27, the resolution of the enlarged image corresponding to the enlargement magnification is larger than the resolution of the first image, and the resolution of the portion corresponding to the region of interest in the super resolution image, May be less than a value obtained by multiplying a quotient divided by a resolution of a portion corresponding to the region of interest in the first image. The resolution of the portion corresponding to the region of interest in the super resolution image divided by the resolution of the portion corresponding to the region of interest in the first image is 4, And may be smaller than four times the resolution of the first image.
또한, 도 27의 (c)의 경우, 확대 영상 내에서 표시부(140)가 표시할 부분은 다음의 3가지 경우 중에서 어느 하나일 수 있다. 도 26의 (p)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응할 수 있다. 또한, 도 26의 (q)의 경우와 같이, 표시부(140)가 표시할 부분의 일부는 관심영역에 대응하고 표시부(140)가 표시할 부분의 다른 일부는 관심영역에 대응하지 않을 수 있다. 또한, 도 26의 (r)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응하지 않을 수 있다.In the case of FIG. 27 (c), the portion to be displayed by the
도 27의 (c) 및 도 26의 (p)의 경우, 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분 영상 및 저장부(160)에 저장된 복원 데이터를 이용하여 확대 영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다.27 (c) and 26 (p), the
예를 들어, 제어부(130)는 저장된 복원 데이터 중에서 해상도 B에 대한 복원 데이터가 상기 확대 배율에 대응한다고 판정할 수 있다. 제어부(130)는 해상도 B에 대한 복원 데이터 내에서 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다. 복원 데이터는 제1영상으로부터 추출된 부분 및 슈퍼레졸루션 영상 내에서 상기 추출된 부분에 대응하는 부분 사이의 차이를 나타내므로, 상기 합성으로 인하여 상기 업스케일링된 부분 영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다.For example, the
도 27의 (c) 및 도 26의 (q)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성할 수 있다. 또한, 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성할 수 있다. 상기 합성으로 인하여 제1부분영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다. 제어부(130)는 생성된 슈퍼레졸루션 부분 영상 및 제2부분영상을 결합함으로써 확대 영상을 생성할 수 있다.27 (c) and 26 (q), the
도 27의 (c) 및 도 26의 (r)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링함으로써 확대 영상을 생성할 수 있다.27 (c) and 26 (r), the
도 27의 (d)의 경우, 확대 배율에 대응하는 확대 영상의 해상도는 제1영상의 해상도에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫을 곱한 값과 동일할 수 있다. 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫은 4이므로, 상기 확대 영상의 해상도는 제1영상의 해상도의 4배와 동일할 수 있다.In the case of (d) of FIG. 27, the resolution of the enlarged image corresponding to the enlargement magnification is set such that the resolution of the portion corresponding to the region of interest in the super resolution image in the resolution of the first image, And a value obtained by multiplying the quotient divided by the resolution of the portion corresponding to the resolution of the image. The resolution of the portion corresponding to the region of interest in the super resolution image divided by the resolution of the portion corresponding to the region of interest in the first image is 4, 4 times.
또한, 도 27의 (d)의 경우, 확대 영상 내에서 표시부(140)가 표시할 부분은 다음의 3가지 경우 중에서 어느 하나일 수 있다. 도 26의 (p)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응할 수 있다. 또한, 도 26의 (q)의 경우와 같이, 표시부(140)가 표시할 부분의 일부는 관심영역에 대응하고 표시부(140)가 표시할 부분의 다른 일부는 관심영역에 대응하지 않을 수 있다. 또한, 도 26의 (r)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응하지 않을 수 있다.27 (d), the portion to be displayed by the
도 27의 (d) 및 도 26의 (p)의 경우, 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분 영상 및 저장부(160)에 저장된 복원 데이터를 이용하여 확대 영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다.27 (d) and 26 (p), the
예를 들어, 제어부(130)는 저장된 복원 데이터 중에서 해상도 E에 대한 복원 데이터가 상기 확대 배율에 대응한다고 판정할 수 있다. 제어부(130)는 해상도 E에 대한 복원 데이터 내에서 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다. 복원 데이터는 제1영상으로부터 추출된 부분 및 슈퍼레졸루션 영상 내에서 상기 추출된 부분에 대응하는 부분 사이의 차이를 나타내므로, 상기 합성으로 인하여 상기 업스케일링된 부분 영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다.For example, the
도 27의 (d) 및 도 26의 (q)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성할 수 있다. 또한, 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성할 수 있다. 상기 합성으로 인하여 제1부분영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다. 제어부(130)는 생성된 슈퍼레졸루션 부분 영상 및 제2부분영상을 결합합으로써 확대 영상을 생성할 수 있다.27 (d) and 26 (q), the
도 27의 (d) 및 도 26의 (r)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링함으로써 확대 영상을 생성할 수 있다.In the case of FIGS. 27 (d) and 26 (r), the
도 27의 (e)의 경우, 확대 배율에 대응하는 확대 영상의 해상도는 제1영상의 해상도에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫을 곱한 값보다 클 수 있다. 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫은 4이므로, 상기 확대 영상의 해상도는 제1영상의 해상도의 4배보다 클 수 있다.In the case of (e) of FIG. 27, the resolution of the enlarged image corresponding to the enlargement magnification is set such that the resolution of the portion corresponding to the region of interest in the super resolution image to the resolution of the first image, Which is obtained by multiplying the quotient divided by the resolution of the portion corresponding to the number of pixels. The resolution of the portion corresponding to the region of interest in the super resolution image divided by the resolution of the portion corresponding to the region of interest in the first image is 4, May be greater than four times.
또한, 도 27의 (e)의 경우, 확대 영상 내에서 표시부(140)가 표시할 부분은 다음의 3가지 경우 중에서 어느 하나일 수 있다. 도 26의 (p)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응할 수 있다. 또한, 도 26의 (q)의 경우와 같이, 표시부(140)가 표시할 부분의 일부는 관심영역에 대응하고 표시부(140)가 표시할 부분의 다른 일부는 관심영역에 대응하지 않을 수 있다. 또한, 도 26의 (r)의 경우와 같이, 표시부(140)가 표시할 부분의 전부는 관심영역에 대응하지 않을 수 있다.27 (e), the portion to be displayed by the
도 27의 (e) 및 도 26의 (p)의 경우, 제어부(130)는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링할 수 있다. 다른 실시예에 따르면, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 상기 업스케일링된 부분 영상 및 저장부(160)에 저장된 복원 데이터를 이용하여 확대 영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다.27 (e) and 26 (p), the
예를 들어, 제어부(130)는 해상도 E에 대한 복원 데이터 내에서 상기 업스케일링된 부분 영상에 대응하는 부분을 상기 업스케일링된 부분 영상과 합성할 수 있다. 복원 데이터는 제1영상으로부터 추출된 부분 및 슈퍼레졸루션 영상 내에서 상기 추출된 부분에 대응하는 부분 사이의 차이를 나타내므로, 상기 합성으로 인하여 상기 업스케일링된 부분 영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다. 제어부(130)는 생성된 슈퍼레졸루션 부분 영상을 쌍입방 보간법으로 업스케일링함으로써 확대 배율에 대응하는 확대 영상을 생성할 수 있다.For example, the
도 27의 (e) 및 도 26의 (q)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링할 수 있다. 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성할 수 있다. 또한, 제어부(130)는 표시부(140)가 표시할 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성할 수 있다. 제어부(130)는 저장부(160)에 저장된 복원 데이터 중에서 상기 확대 배율 및 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성할 수 있다. 상기 합성으로 인하여 제1부분영상에 대응하는 슈퍼레졸루션 부분 영상이 생성될 수 있다. 제어부(130)는 생성된 슈퍼레졸루션 부분 영상 및 제2부분영상을 결합할 수 있다. 제어부(130)는 상기 결합된 영상을 쌍입방 보간법으로 업스케일링함으로써 확대 배율에 대응하는 확대 영상을 생성할 수 있다.27 (e) and 26 (q), the
도 27의 (e) 및 도 26의 (r)의 경우, 제어부(130)는 상기 제1영상 내에서 표시부(140)가 표시할 부분만을 업스케일링함으로써 확대 영상을 생성할 수 있다.27 (e) and 26 (r), the
다시 도 23을 참조하면, 다음으로, 상기 확대 영상을 표시하는 단계(S840)가 수행될 수 있다. 표시부(140)는 제어부(130)에 의해 생성된 확대 영상을 표시할 수 있다. 도 28은 실시예에 따라 확대 영상을 표시한 결과를 나타내는 화면이다.Referring again to FIG. 23, the step of displaying the enlarged image (S840) may be performed. The
제1영상의 해상도가 1600만 화소이고 표시부(140)의 해상도가 200만 화소인 경우, 표시되는 영상의 품질의 저하 없이 상기 표시부(140) 상에 표시할 수 있는 최대 확대 배율은 sqrt(16/2) = 2.828(배)일 수 있다. 이상에서 설명된 실시예에 따르면, 제1영상이 2.828배를 초과하여 확대된 경우에는 슈퍼레졸루션 영상 또는 슈퍼레졸루션 영상으로부터 업스케일링된 영상이 표시될 수 있다. 따라서, 영상을 확대하여 표시할 때 표시된 영상의 품질이 향상될 수 있다.When the resolution of the first image is 16 million pixels and the resolution of the
또한, 상기의 실시예에 따르면 영상 내의 관심영역에 대하여만 처리를 수행하므로, 영상 처리에 소요되는 시간을 단축시킬 수 있다. 또한, 영상 처리에 필요한 메모리의 크기를 줄일 수 있다. 또한, 영상 처리의 결과를 저장하는 데에 필요한 저장공간의 크기를 줄일 수 있다.In addition, according to the embodiment, only the region of interest in the image is processed, so that the time required for the image processing can be shortened. Also, the size of the memory required for image processing can be reduced. In addition, the size of the storage space required for storing the result of the image processing can be reduced.
또한, 상기의 실시예에 따르면 슈퍼레졸루션 영상이 저장되는 대신에, 제1영상 내에서 관심영역에 대응하는 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 복원 데이터가 저장될 수 있다. 상기 복원 데이터는 압축되어 저장될 수 있다. 또한, 상기 저장된 복원 데이터를 이용하여 상기 관심영역에 대응하는 슈퍼레졸루션 영상이 복원될 수 있다. 따라서, 영상의 품질을 향상시키기 위해 필요로 하는 추가적인 저장공간의 크기를 감소시킬 수 있다.Also, according to the above embodiment, instead of storing the super resolution image, restoration data indicating a difference between the portion corresponding to the region of interest in the first image and the portion corresponding to the region of interest in the super resolution image Lt; / RTI > The restored data may be compressed and stored. In addition, the super resolution image corresponding to the ROI can be restored using the stored restored data. Therefore, the size of the additional storage space required for improving the quality of the image can be reduced.
이상에서 설명된 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.The embodiments described above may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer, and can include both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium can include both computer storage media and communication media. Computer storage media may include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and may include any information delivery media.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
100: 영상 처리 장치
110: 수광부
120: 영상신호처리부
130: 제어부
140: 표시부
150: 입력부
160: 저장부100: image processing device
110:
120: Video signal processor
130:
140:
150:
160:
Claims (30)
상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계; 및
복원 데이터를 생성하는 단계
를 포함하고,
상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높은 영상 처리 방법.Preparing a first image;
Designating at least one region of interest (ROI) within the first image; And
Step of generating restoration data
Lt; / RTI >
Wherein the second image reconstructed using the reconstructed data corresponds to the region of interest and the resolution of the second image is higher than the resolution of the portion corresponding to the region of interest in the first image.
상기 제1영상은 대상에 대해 촬영된 영상이고,
상기 복원 데이터를 생성하는 단계는,
상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하는 단계; 및
상기 제1영상 및 상기 복원 데이터를 저장하는 단계
를 포함하는 영상 처리 방법.The method according to claim 1,
Wherein the first image is an image taken with respect to an object,
Wherein the step of generating the restoration data comprises:
Generating restoration data of a portion corresponding to the region of interest in the first image; And
Storing the first image and the restored data
And an image processing method.
상기 제1영상은 대상으로부터 반사된 빛을 이용하여 생성된 미리보기(preview) 영상이고,
상기 제1영상을 준비하는 단계는,
상기 미리보기 영상을 디스플레이에 표시하는 단계
를 포함하고,
상기 복원 데이터를 생성하는 단계는,
상기 대상에 대한 제3영상을 촬영하는 단계;
상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하는 단계; 및
상기 제3영상 및 상기 복원 데이터를 저장하는 단계
를 포함하는 영상 처리 방법.The method according to claim 1,
The first image is a preview image generated using light reflected from the object,
Wherein the preparing the first image comprises:
Displaying the preview image on a display
Lt; / RTI >
Wherein the step of generating the restoration data comprises:
Capturing a third image of the object;
Generating restoration data of a portion corresponding to the region of interest in the third image; And
Storing the third image and the restoration data
And an image processing method.
상기 복원 데이터를 생성하는 단계는,
상기 대상에 대한 복수의 영상을 촬영하는 단계; 및
상기 복수의 영상 중에서 적어도 일부를 이용하여 상기 관심영역에 대한 슈퍼레졸루션(super resolution) 영상을 생성하는 단계
를 포함하는 영상 처리 방법.The method of claim 3,
Wherein the step of generating the restoration data comprises:
Capturing a plurality of images of the object; And
Generating a super resolution image for the ROI using at least a part of the plurality of images;
And an image processing method.
상기 복원 데이터를 생성하는 단계는,
상기 제3영상 내에서 상기 관심영역에 대응하는 부분 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터를 생성하는 단계
를 더 포함하는 영상 처리 방법.5. The method of claim 4,
Wherein the step of generating the restoration data comprises:
Generating comparison data representing a difference between a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest within the super resolution image
Further comprising the steps of:
상기 복원 데이터를 생성하는 단계는,
상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 크고 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택하는 단계;
상기 선택된 각각의 해상도로 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링함으로써 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만드는 단계; 및
상기 제3영상 내에서 상기 관심영역에 대응하는 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 서로 비교함으로써 상기 선택된 각각의 해상도에 대한 비교 데이터를 생성하는 단계
를 더 포함하는 영상 처리 방법.5. The method of claim 4,
Wherein the step of generating the restoration data comprises:
Selecting at least one of resolutions in the third image that are larger than the resolution of the portion corresponding to the ROI and smaller than or equal to the resolution of the portion corresponding to the ROI in the super resolution image;
Scaling a portion corresponding to the region of interest in the third image with each of the selected resolutions or downscaling a portion corresponding to the region of interest within the super resolution image, Making a resolution of a corresponding portion and a resolution of a portion corresponding to the RO in the super resolution image equal to each other; And
Generating comparison data for each of the selected resolutions by comparing a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest in the super resolution image with each other
Further comprising the steps of:
상기 적어도 하나 이상의 관심영역을 지정하는 단계는,
상기 미리보기 영상을 복수의 영역으로 분할하는 단계;
상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하는 단계; 및
상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정하는 단계
를 포함하는 영상 처리 방법.The method of claim 3,
Wherein the step of specifying the at least one region of interest comprises:
Dividing the preview image into a plurality of regions;
Determining whether an object of interest (OOI) is included in each of the regions; And
Designating at least one of the plurality of areas as the ROI according to the determination result
And an image processing method.
상기 적어도 하나 이상의 관심영역을 지정하는 단계는,
상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계;
상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계; 및
상기 검출된 영역을 상기 관심영역으로 지정하는 단계
를 포함하는 영상 처리 방법.The method of claim 3,
Wherein the step of specifying the at least one region of interest comprises:
Detecting a position of an object of interest in the preview image by analyzing the preview image;
Detecting an area corresponding to the object of interest by performing image segmentation using the detected position; And
Designating the detected region as the ROI
And an image processing method.
상기 관심대상의 위치를 검출하는 단계는,
상기 미리보기 영상 내에서 고주파요소(high frequency component)의 위치를 검출하는 단계;
상기 미리보기 영상에 대해 안면인식(face recognition)을 수행함으로써 안면의 위치를 검출하는 단계;
상기 미리보기 영상에 대해 광학문자판독(OCR, optical character recognition)을 수행함으로써 텍스트의 위치를 검출하는 단계; 및
상기 미리보기 영상 내에서 초점의 위치를 검출하는 단계
를 포함하는 영상 처리 방법.9. The method of claim 8,
Wherein detecting the location of the object of interest comprises:
Detecting a position of a high frequency component in the preview image;
Detecting a face position by performing face recognition on the preview image;
Detecting a position of a text by performing optical character recognition (OCR) on the preview image; And
Detecting a position of the focus within the preview image
And an image processing method.
상기 적어도 하나 이상의 관심영역을 지정하는 단계는,
사용자로부터 드래그 입력을 수신하는 단계;
상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하는 단계;
사용자로부터 탭 입력을 수신하는 단계;
상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하는 단계;
상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하는 단계; 및
상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정하는 단계
를 포함하는 영상 처리 방법.The method of claim 3,
Wherein the step of specifying the at least one region of interest comprises:
Receiving a drag input from a user;
Detecting a first region corresponding to the drag input in the preview image;
Receiving a tap input from a user;
Detecting a position corresponding to the tap input in the preview image;
Detecting a second region by performing image segmentation using the detected position; And
Designating the first region and the second region as the region of interest
And an image processing method.
상기 적어도 하나 이상의 관심영역을 지정하는 단계는,
상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하는 단계;
상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하는 단계;
상기 미리보기 영상 상에 상기 검출된 영역을 표시하는 단계;
사용자로부터 탭 입력을 수신하는 단계;
상기 검출된 영역 중에서 상기 탭 입력에 대응하는 영역을 선택하거나 선택해제하는 단계;
사용자로부터 드래그 입력을 수신하는 단계;
상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제3영역을 검출하는 단계; 및
상기 선택된 영역 및 상기 제3영역을 상기 관심영역으로 지정하는 단계
를 포함하는 영상 처리 방법.The method of claim 3,
Wherein the step of specifying the at least one region of interest comprises:
Detecting a position of an object of interest in the preview image by analyzing the preview image;
Detecting an area corresponding to the object of interest by performing image segmentation using the detected position;
Displaying the detected area on the preview image;
Receiving a tap input from a user;
Selecting or deselecting a region corresponding to the tap input from among the detected regions;
Receiving a drag input from a user;
Detecting a third region corresponding to the drag input in the preview image; And
Designating the selected region and the third region as the region of interest
And an image processing method.
상기 저장된 제3영상 및 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 표시하는 단계;
사용자로부터 입력을 수신하는 단계;
상기 수신된 입력을 이용하여 상기 디스플레이의 해상도를 기준으로 한 확대 배율을 결정하는 단계;
상기 확대 배율 및 상기 복원 데이터를 이용하여 상기 제3영상의 확대 영상을 생성하는 단계; 및
상기 확대 영상을 표시하는 단계
를 더 포함하는 영상 처리 방법.The method of claim 3,
Displaying a portion corresponding to the region of interest in the stored third image and the stored third image;
Receiving an input from a user;
Determining an enlargement factor based on the resolution of the display using the received input;
Generating an enlarged image of the third image using the enlargement magnification and the reconstruction data; And
Displaying the enlarged image
Further comprising the steps of:
상기 확대 영상을 생성하는 단계는,
상기 확대 배율이 1보다 크고 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 작은 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 다운스케일링함으로써 상기 확대 영상을 생성하는 단계; 및
상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근과 서로 동일한 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 잘라냄(crop)으로써 상기 확대 영상을 생성하는 단계
를 포함하는 영상 처리 방법.13. The method of claim 12,
The step of generating the enlarged image may include:
Generating the enlarged image by downscaling a portion to be displayed on the display in the third image when the enlargement magnification is larger than 1 and the resolution of the third image is smaller than a square root of a quotient of dividing the resolution of the display; And
Generating the enlarged image by cropping a portion to be displayed on the display in the third image when the enlargement magnification is equal to a square root of a quotient of dividing the resolution of the third image by the resolution of the display,
And an image processing method.
상기 확대 영상을 생성하는 단계는,
상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 크고, 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작거나 같은 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 업스케일링함으로써 부분 영상을 생성하는 단계; 및
상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 부분 영상에 대응하는 부분을 상기 부분 영상과 합성함으로써 상기 확대 영상을 생성하는 단계
를 포함하는 영상 처리 방법.13. The method of claim 12,
The step of generating the enlarged image may include:
Wherein the enlarged magnification is greater than a square root of a quotient of the third image divided by a resolution of the display and a square root of a quotient of the third image divided by a resolution of the display, Scaling the portion to be displayed on the display in the third image if the resolution of the corresponding portion is less than or equal to the value obtained by multiplying the square root of the quotient of the portion of the third image divided by the resolution of the portion corresponding to the region of interest Generating a partial image; And
Generating the enlarged image by synthesizing a portion corresponding to the enlargement ratio and the partial image from the stored restored data with the partial image,
And an image processing method.
상기 확대 영상을 생성하는 단계는,
상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근보다 크고, 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 작은 경우 상기 제3영상 내의 상기 디스플레이에 표시될 부분 중에서 상기 관심영역에 대응하는 일부를 업스케일링하여 제1부분영상을 생성하는 단계;
상기 제3영상 내의 상기 디스플레이에 표시될 부분 중에서 상기 관심영역에 대응하지 않는 다른 일부를 업스케일링하여 제2부분영상을 생성하는 단계;
상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 제1부분영상에 대응하는 부분을 상기 제1부분영상과 합성함으로써 슈퍼레졸루션 부분 영상을 생성하는 단계; 및
상기 슈퍼레졸루션 부분 영상 및 상기 제2부분영상을 결합함으로써 상기 확대 영상을 생성하는 단계
를 포함하는 영상 처리 방법.13. The method of claim 12,
The step of generating the enlarged image may include:
Wherein the enlarged magnification is greater than a square root of a quotient of the third image divided by a resolution of the display and a square root of a quotient of the third image divided by a resolution of the display, Corresponding to the region of interest in the third image when the resolution of the corresponding portion is smaller than a value obtained by multiplying the square root of the quotient of the portion corresponding to the region of interest in the third image by the resolution of the portion corresponding to the region of interest Upscaling a portion to generate a first partial image;
Generating a second partial image by upscaling another portion of the portion of the third image not corresponding to the region of interest to be displayed on the display;
Generating a super resolution partial image by combining a portion corresponding to the enlargement ratio and the first partial image from the stored restored data with the first partial image; And
And generating the enlarged image by combining the super resolution partial image and the second partial image
And an image processing method.
상기 확대 영상을 생성하는 단계는,
상기 확대 배율이 상기 제3영상의 해상도를 상기 디스플레이의 해상도로 나눈 몫의 제곱근에 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도로 나눈 몫의 제곱근을 곱한 값보다 큰 경우 상기 제3영상 내에서 상기 디스플레이에 표시될 부분을 업스케일링함으로써 부분 영상을 생성하는 단계; 및
상기 저장된 복원 데이터 중에서 상기 확대 배율 및 상기 부분 영상에 대응하는 부분을 상기 부분 영상과 합성하는 단계; 및
상기 합성된 영상을 업스케일링함으로써 상기 확대 영상을 생성하는 단계
를 포함하는 영상 처리 방법.13. The method of claim 12,
The step of generating the enlarged image may include:
Wherein the resolution of the portion corresponding to the ROI in the super resolution image is set to a square root of a quotient of the share of the resolution of the third image divided by the resolution of the display in the third image, Generating a partial image by upscaling a portion to be displayed on the display in the third image when the square is greater than a product of the square root of the quotient divided by the resolution of the partial image; And
Synthesizing a portion corresponding to the enlargement ratio and the partial image from the stored reconstruction data with the partial image; And
Generating the enlarged image by upscaling the synthesized image;
And an image processing method.
사용자로부터 입력을 수신하는 단계;
상기 수신된 입력을 이용하여 확대 배율을 결정하는 단계;
상기 영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 이용하여 상기 확대 배율에 대응하는 확대 영상을 생성하는 단계; 및
상기 확대 영상을 표시하는 단계
를 포함하고,
상기 확대 영상은 상기 관심영역에 대응하고, 상기 확대 영상의 해상도는 상기 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높은 영상 처리 방법.Displaying a stored image and a portion corresponding to a region of interest within the image;
Receiving an input from a user;
Determining an enlargement magnification using the received input;
Generating an enlarged image corresponding to the enlargement magnification using restoration data of a portion corresponding to the region of interest in the image; And
Displaying the enlarged image
Lt; / RTI >
Wherein the enlarged image corresponds to the region of interest and the resolution of the enlarged image is higher than the resolution of the portion corresponding to the region of interest in the image.
상기 수신된 빛을 이용하여 제1영상을 준비하고, 상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하고, 복원 데이터를 생성하는 제어부
를 포함하고,
상기 복원 데이터를 이용하여 복원된 제2영상은 상기 관심영역에 대응하고, 상기 제2영상의 해상도는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높은 영상 처리 장치.A light receiving unit for receiving light reflected from an object; And
A controller for preparing a first image using the received light, designating at least one region of interest (ROI) within the first image, and generating restored data,
Lt; / RTI >
Wherein the second image reconstructed using the reconstruction data corresponds to the region of interest and the resolution of the second image is higher than the resolution of the portion corresponding to the region of interest in the first image.
저장부를 더 포함하고,
상기 제1영상은 상기 대상에 대해 촬영된 영상이고, 상기 제어부는 상기 제1영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하고, 상기 저장부는 상기 제1영상 및 상기 복원 데이터를 저장하는 영상 처리 장치.20. The method of claim 19,
Further comprising a storage unit,
Wherein the first image is an image photographed with respect to the object and the control unit generates restored data of a portion corresponding to the region of interest in the first image and the storing unit stores the first image and the restored data The image processing apparatus.
상기 수신된 빛을 이용하여 미리보기(preview) 영상을 생성하는 영상신호처리부;
상기 미리보기 영상을 표시하는 표시부; 및
저장부
를 더 포함하고,
상기 제1영상은 상기 미리보기(preview) 영상이고, 상기 제어부는 상기 수광부 및 상기 영상신호처리부를 제어함으로써 상기 대상에 대한 제3영상을 촬영하고, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 복원 데이터를 생성하고, 상기 저장부는 상기 제3영상 및 상기 복원 데이터를 저장하는 영상 처리 장치.20. The method of claim 19,
A video signal processor for generating a preview image using the received light;
A display unit for displaying the preview image; And
The storage unit
Further comprising:
Wherein the first image is a preview image and the controller captures a third image of the object by controlling the light receiving unit and the image signal processing unit, And the storage unit stores the third image and the restored data.
상기 복원 데이터는 상기 관심영역에 대한 슈퍼레졸루션 영상인 영상 처리 장치.22. The method of claim 21,
Wherein the reconstructed data is a super resolution image for the ROI.
상기 복원 데이터는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분 및 상기 제3영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분 사이의 차이를 나타내는 비교 데이터인 영상 처리 장치.22. The method of claim 21,
Wherein the reconstruction data is comparison data representing a difference between a portion corresponding to the region of interest in the third image and a portion corresponding to the region of interest within the super resolution image corresponding to the third image.
상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 크고 상기 제3영상에 대응하는 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 작거나 같은 해상도 중에서 적어도 하나 이상을 선택하고, 상기 제어부는 상기 선택된 각각의 해상도로 상기 제3영상 내에서 상기 관심영역에 대응하는 부분을 업스케일링하거나 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 다운스케일링함으로써 상기 제3영상 내에서 상기 관심영역에 대응하는 부분의 해상도 및 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분의 해상도를 서로 동일하게 만들고, 상기 제어부는 상기 제3영상 내에서 상기 관심영역에 대응하는 부분과 상기 슈퍼레졸루션 영상 내에서 상기 관심영역에 대응하는 부분을 서로 비교함으로써 상기 선택된 각각의 해상도에 대한 상기 복원 데이터를 생성하는 영상 처리 장치.22. The method of claim 21,
Wherein the control unit controls the resolution of at least one of resolutions greater than a resolution of a portion corresponding to the ROI in the third image and a resolution smaller than or equal to a resolution of a portion corresponding to the ROI in the super resolution image corresponding to the third image And the control unit downscales a portion corresponding to the region of interest in the third image with each of the selected resolutions or downscales a portion corresponding to the region of interest within the super resolution image, The resolution of the portion corresponding to the ROI within the image and the resolution of the portion corresponding to the ROI within the super resolution image are made equal to each other, Corresponding to the region of interest in the super resolution image And generating the restoration data for each of the selected resolutions by comparing portions of the restored data.
상기 제어부는 상기 미리보기 영상을 복수의 영역으로 분할하고, 상기 제어부는 상기 각각의 영역 내에 관심대상(OOI, Object Of Interest)이 포함되어 있는지 여부를 판정하고, 상기 제어부는 상기 판정 결과에 따라 상기 복수의 영역 중에서 적어도 하나 이상을 상기 관심영역으로 지정하는 영상 처리 장치.22. The method of claim 21,
Wherein the control unit divides the preview image into a plurality of areas, and the control unit determines whether or not an object of interest (OOI) is included in each of the areas, Wherein at least one of the plurality of areas is designated as the area of interest.
상기 제어부는 상기 미리보기 영상을 분석함으로써 상기 미리보기 영상 내에서 관심대상의 위치를 검출하고, 상기 제어부는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 상기 관심대상에 대응하는 영역을 검출하고, 상기 제어부는 상기 검출된 영역을 상기 관심영역으로 지정하는 영상 처리 장치.22. The method of claim 21,
Wherein the control unit detects a position of an object of interest in the preview image by analyzing the preview image and the control unit detects an area corresponding to the object of interest by performing image segmentation using the detected position, Wherein the control unit designates the detected area as the area of interest.
드래그 입력을 수신하는 입력부
를 더 포함하고,
상기 제어부는 상기 미리보기 영상 내에서 상기 드래그 입력에 대응하는 제1영역을 검출하고,
상기 입력부는 탭 입력을 더 수신하고,
상기 제어부는 상기 미리보기 영상 내에서 상기 탭 입력에 대응하는 위치를 검출하고, 상기 제어부는 상기 검출된 위치를 이용하여 영상 세그멘테이션을 수행함으로써 제2영역을 검출하고, 상기 제어부는 상기 제1영역 및 상기 제2영역을 상기 관심영역으로 지정하는 영상 처리 장치.22. The method of claim 21,
An input for receiving a drag input
Further comprising:
Wherein the control unit detects a first area corresponding to the drag input in the preview image,
Wherein the input further receives a tap input,
Wherein the control unit detects a position corresponding to the tap input in the preview image and the control unit detects a second area by performing image segmentation using the detected position, And designates the second region as the region of interest.
입력을 수신하는 입력부
를 더 포함하고,
상기 제어부는 상기 수신된 입력을 이용하여 상기 표시부의 해상도를 기준으로 한 확대 배율을 결정하고, 상기 제어부는 상기 확대 배율 및 상기 복원 데이터를 이용하여 상기 제3영상의 확대 영상을 생성하고,
상기 표시부는 상기 생성된 확대 영상을 표시하는 영상 처리 장치.22. The method of claim 21,
An input for receiving an input
Further comprising:
Wherein the control unit determines an enlargement ratio based on the resolution of the display unit using the received input and the control unit generates an enlarged image of the third image using the enlargement ratio and the restoration data,
And the display unit displays the generated enlarged image.
상기 제1영상 내에서 적어도 하나 이상의 관심영역(ROI, Region Of Interest)을 지정하는 단계;
상기 제1영상을 이용하여 상기 관심영역에 대응하는 복원 데이터를 생성하는 단계;
상기 제1영상을 압축하여 압축 영상을 생성하는 단계; 및
상기 압축 영상 및 상기 복원 데이터를 저장하는 단계
를 포함하는 영상 처리 방법.Preparing a first image;
Designating at least one region of interest (ROI) within the first image;
Generating restoration data corresponding to the region of interest using the first image;
Compressing the first image to generate a compressed image; And
Storing the compressed image and the restored data
And an image processing method.
상기 복원 데이터를 이용하여 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분을 복원함으로써 복원 영상을 생성하는 단계; 및
상기 복원 영상을 표시하는 단계
를 더 포함하고,
상기 복원 영상은 상기 관심영역에 대응하고, 상기 복원 영상의 해상도는 상기 압축 영상 내에서 상기 관심영역에 대응하는 부분의 해상도보다 더 높은 영상 처리 방법.30. The method of claim 29,
Generating a restored image by restoring a portion corresponding to the region of interest in the compressed image using the restored data; And
Displaying the restored image
Further comprising:
Wherein the reconstructed image corresponds to the region of interest and the resolution of the reconstructed image is higher than the resolution of the portion corresponding to the region of interest within the compressed image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2015/010259 WO2016048108A1 (en) | 2014-09-26 | 2015-09-25 | Image processing apparatus and image processing method |
US14/866,049 US10229478B2 (en) | 2014-09-26 | 2015-09-25 | Image processing apparatus and image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN4746CH2014 | 2014-09-26 | ||
IN4746/CHE/2014 | 2014-09-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160037115A true KR20160037115A (en) | 2016-04-05 |
KR102374022B1 KR102374022B1 (en) | 2022-03-14 |
Family
ID=59153361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150136990A KR102374022B1 (en) | 2014-09-26 | 2015-09-25 | Apparatus and method of processing images |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP3198557A4 (en) |
KR (1) | KR102374022B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10594932B2 (en) | 2016-10-21 | 2020-03-17 | Samsung Electro-Mechanics Co., Ltd. | Camera module performing a resolution correction and electronic device including the same |
US11270420B2 (en) | 2017-09-27 | 2022-03-08 | Samsung Electronics Co., Ltd. | Method of correcting image on basis of category and recognition rate of object included in image and electronic device implementing same |
KR20220053184A (en) * | 2020-10-22 | 2022-04-29 | 이종명 | Atm device for supporting a plurality of functions and method for operation thereof |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100095833A (en) * | 2009-02-23 | 2010-09-01 | 주식회사 몬도시스템즈 | Apparatus and method for compressing pictures with roi-dependent compression parameters |
KR20100139030A (en) * | 2008-03-17 | 2010-12-31 | 에이티아이 테크놀로지스 유엘씨 | Method and apparatus for super-resolution of images |
KR20130112574A (en) * | 2012-04-04 | 2013-10-14 | 삼성전자주식회사 | Apparatus and method for improving quality of enlarged image |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7916971B2 (en) * | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US8385599B2 (en) * | 2008-10-10 | 2013-02-26 | Sri International | System and method of detecting objects |
JP5202283B2 (en) * | 2008-12-20 | 2013-06-05 | 三洋電機株式会社 | Imaging apparatus and electronic apparatus |
US8121618B2 (en) * | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
-
2015
- 2015-09-25 KR KR1020150136990A patent/KR102374022B1/en active IP Right Grant
- 2015-09-25 EP EP15844507.2A patent/EP3198557A4/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100139030A (en) * | 2008-03-17 | 2010-12-31 | 에이티아이 테크놀로지스 유엘씨 | Method and apparatus for super-resolution of images |
KR20100095833A (en) * | 2009-02-23 | 2010-09-01 | 주식회사 몬도시스템즈 | Apparatus and method for compressing pictures with roi-dependent compression parameters |
KR20130112574A (en) * | 2012-04-04 | 2013-10-14 | 삼성전자주식회사 | Apparatus and method for improving quality of enlarged image |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10594932B2 (en) | 2016-10-21 | 2020-03-17 | Samsung Electro-Mechanics Co., Ltd. | Camera module performing a resolution correction and electronic device including the same |
US11270420B2 (en) | 2017-09-27 | 2022-03-08 | Samsung Electronics Co., Ltd. | Method of correcting image on basis of category and recognition rate of object included in image and electronic device implementing same |
KR20220053184A (en) * | 2020-10-22 | 2022-04-29 | 이종명 | Atm device for supporting a plurality of functions and method for operation thereof |
KR20220156492A (en) * | 2020-10-22 | 2022-11-25 | 이종명 | ATM machine with identity authentication function |
Also Published As
Publication number | Publication date |
---|---|
EP3198557A1 (en) | 2017-08-02 |
KR102374022B1 (en) | 2022-03-14 |
EP3198557A4 (en) | 2017-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10229478B2 (en) | Image processing apparatus and image processing method | |
EP3457683B1 (en) | Dynamic generation of image of a scene based on removal of undesired object present in the scene | |
US10893251B2 (en) | Three-dimensional model generating device and three-dimensional model generating method | |
CN108780569B (en) | System and method for image resolution enhancement | |
US8682104B2 (en) | Image synthesizing apparatus, image synthesizing method, and image synthesizing program | |
KR20120055632A (en) | Method and apparatus for providing an image for display | |
JP4556813B2 (en) | Image processing apparatus and program | |
US9373187B2 (en) | Method and apparatus for producing a cinemagraph | |
US8873889B2 (en) | Image processing apparatus | |
KR102374022B1 (en) | Apparatus and method of processing images | |
CN112367459B (en) | Image processing method, electronic device, and non-volatile computer-readable storage medium | |
JP2008109552A (en) | Imaging device with chasing function | |
JP2011147109A (en) | Image capturing apparatus and image processing apparatus | |
JP2007266667A (en) | Camera-equipped mobile apparatus, control method thereof, and photographing support method thereof | |
US11688100B1 (en) | Systems and methods for multi-sensor image enhancement | |
US20130208984A1 (en) | Content scene determination device | |
WO2018011930A1 (en) | Image processing device, image processing method, and program | |
CN112037135B (en) | Method for magnifying and displaying selected image key main body | |
JP5042251B2 (en) | Image processing apparatus and image processing method | |
JP3241243B2 (en) | Panorama image composition system and panorama image composition method | |
JP2010097449A (en) | Image composition device, image composition method and image composition program | |
US20200134305A1 (en) | Method, apparatus, and device for identifying human body and computer readable storage medium | |
CN112785533B (en) | Image fusion method, image fusion device, electronic equipment and storage medium | |
KR101612437B1 (en) | Apparatus and Method for Processing of photographed image | |
JP5713256B2 (en) | Image processing apparatus, imaging apparatus, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |