KR20230068979A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
KR20230068979A
KR20230068979A KR1020220085879A KR20220085879A KR20230068979A KR 20230068979 A KR20230068979 A KR 20230068979A KR 1020220085879 A KR1020220085879 A KR 1020220085879A KR 20220085879 A KR20220085879 A KR 20220085879A KR 20230068979 A KR20230068979 A KR 20230068979A
Authority
KR
South Korea
Prior art keywords
image
images
original
stitching
imaging device
Prior art date
Application number
KR1020220085879A
Other languages
Korean (ko)
Inventor
손봉기
신정용
임승현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220029468A external-priority patent/KR20230068954A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/978,489 priority Critical patent/US20230146691A1/en
Priority to CN202211369160.4A priority patent/CN116132821A/en
Publication of KR20230068979A publication Critical patent/KR20230068979A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • G06T3/0093
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)

Abstract

An imaging device according to one aspect of the technical idea of the present disclosure includes an image sensor which generates a plurality of original images and an image processor which performs an operation to generate a merged image based on the plurality of original images. The image processor classifies the plurality of original images into a plurality of stitching groups based on the first stitching direction, generates a plurality of intermediate images by stitching original images included in the same stitching group, and generates a merged image by stitching the plurality of intermediate images based on the second stitching direction.

Description

이미징 장치{IMAGING DEVICE}Imaging device {IMAGING DEVICE}

본 개시의 기술적 사상은 이미징 장치에 관한 것으로서, 복수의 원본 이미지들을 스티칭하는 이미징 장치에 관한 것이다.The technical idea of the present disclosure relates to an imaging device, which stitches a plurality of original images.

전자 장치는 외부 객체를 촬영하여 이미지 또는 영상을 생성 및 저장할 수 있도록 하는 카메라 기능을 제공할 수 있다. 이때 넓은 화각을 가지는 이미지 또는 고해상도를 가지는 이미지를 획득하기 위하여, 전자 장치는 이미지 센서를 통해 생성된 복수의 이미지들을 스티칭할 수 있다. The electronic device may provide a camera function capable of generating and storing an image or video by photographing an external object. In this case, in order to obtain an image having a wide angle of view or an image having high resolution, the electronic device may stitch a plurality of images generated through an image sensor.

이때 복수의 이미지들은 일 방향(예를 들어, 수평 방향)이 아닌 양 방향(예를 들어, 수평 방향 및 수직 방향)으로 배치될 수 있다. 따라서 다양한 방향으로 배치된 이미지들을 스티칭하는 방법의 개발이 필요하다.In this case, the plurality of images may be arranged in both directions (eg, horizontal and vertical directions) instead of in one direction (eg, horizontal direction). Therefore, it is necessary to develop a method of stitching images disposed in various directions.

또한 복수의 이미지들을 스티칭하여 하나의 이미지를 생성할 때, 많은 연산량 및 많은 처리 시간이 요구되므로, 이를 감소시키는 방안의 개발이 필요하다.In addition, when a plurality of images are stitched together to generate one image, a large amount of computation and a large amount of processing time are required, so it is necessary to develop a method to reduce this.

본 개시의 기술적 사상이 해결하려는 과제는, 다양한 방향으로 배치된 이미지들을 스티칭할 수 있는 이미징 장치를 제공하는 데 있다.An object to be solved by the technical idea of the present disclosure is to provide an imaging device capable of stitching images disposed in various directions.

또한, 본 개시의 기술적 사상이 해결하려는 과제는, 적은 연산량 및 적은 처리 시간으로 이미지들을 스티칭할 수 있는 이미징 장치를 제공하는 데 있다.In addition, an object to be solved by the technical concept of the present disclosure is to provide an imaging device capable of stitching images with a small amount of calculation and a small processing time.

상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상의 일측면에 따른 이미징 장치는 복수의 원본 이미지들을 생성하는 이미지 센서 및 상기 복수의 원본 이미지들에 기초하여 병합 이미지를 생성하기 위한 연산을 수행하는 이미지 프로세서를 포함하고, 상기 이미지 프로세서는 제1 스티칭(stitching) 방향에 기초하여 상기 복수의 원본 이미지들을 복수의 스티칭 그룹들로 분류하고, 동일한 스티칭 그룹에 포함된 원본 이미지들을 스티칭하여 복수의 중간 이미지들을 생성하고, 제2 스티칭 방향에 기초하여 상기 복수의 중간 이미지들을 스티칭하여 상기 병합 이미지를 생성한다.In order to achieve the above object, an imaging device according to an aspect of the present disclosure performs an image sensor for generating a plurality of original images and an operation for generating a merged image based on the plurality of original images. An image processor that classifies the plurality of original images into a plurality of stitching groups based on a first stitching direction, and stitches the original images included in the same stitching group to obtain a plurality of intermediate images. Images are generated, and the merged image is generated by stitching the plurality of intermediate images based on a second stitching direction.

상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상의 일측면에 따른 복수의 원본 이미지들에 기초하여 병합 이미지를 생성하는 이미징 장치는 상기 원본 이미지의 와핑(warping)에 이용되는 변환 매트릭스 및 상기 원본 이미지에서 불필요한 영역을 나타내는 크로핑(cropping) 영역을 저장하는 메모리, 상기 원본 이미지를 생성하고, 상기 원본 이미지를 상기 변환 매트릭스를 이용하여 와핑하여 와핑 이미지를 생성하고, 상기 와핑 이미지를 상기 크로핑 영역을 이용하여 크로핑하여 크로핑 이미지를 생성하는 이미지 센서 및 상기 이미지 센서로부터 복수의 크로핑 이미지들을 수신하고, 상기 복수의 크로핑 이미지들을 블렌딩(blending)하여 병합 이미지를 생성하는 이미지 프로세서를 포함한다.In order to achieve the above object, an imaging device for generating a merged image based on a plurality of original images according to an aspect of the technical concept of the present disclosure includes a transformation matrix used for warping of the original image and the A memory for storing a cropping area representing an unnecessary area in an original image, generating the original image, generating a warped image by warping the original image using the transformation matrix, and generating the warped image by the cropping An image sensor generating a cropped image by cropping using an area, and an image processor receiving a plurality of cropped images from the image sensor and blending the plurality of cropped images to generate a merged image. do.

상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상의 일측면에 따른 이미징 장치는 원본 이미지의 와핑(warping)에 이용되는 변환 매트릭스 및 원본 이미지에서 불필요한 영역을 나타내는 크로핑(cropping) 영역을 저장하는 메모리, 방향 및 각도를 포함하는 회전 정보에 따라 회전하는 광학 장치, 상기 광학 장치로 회전 신호를 송신하고, 상기 회전 신호에 대응되는 촬영 신호를 생성하는 컨트롤러, 상기 컨트롤러로부터 수신한 상기 촬영 신호에 응답하여 대상 객체를 촬영하여 원본 이미지를 생성하고, 상기 원본 이미지를 상기 변환 매트릭스를 이용하여 와핑(warping)하여 와핑 이미지를 생성하고, 상기 와핑 이미지를 상기 크로핑 영역을 이용하여 크로핑하여 크로핑 이미지를 생성하는 이미지 센서 및 상기 이미지 센서로부터 복수의 크로핑 이미지들을 수신하고, 상기 복수의 크로핑 이미지들을 블렌딩(blending)하여 병합 이미지를 생성하는 AP(Application Processor)를 포함한다.In order to achieve the above object, an imaging device according to one aspect of the technical idea of the present disclosure stores a transformation matrix used for warping of an original image and a cropping region representing an unnecessary region in the original image An optical device that rotates according to rotation information including a memory, a direction and an angle, a controller that transmits a rotation signal to the optical device and generates a photographing signal corresponding to the rotation signal, and a photographing signal received from the controller. In response, a target object is photographed to generate an original image, the original image is warped using the transformation matrix to generate a warped image, and the warped image is cropped using the cropping area to crop It includes an image sensor that generates an image and an application processor (AP) that receives a plurality of cropped images from the image sensor and generates a merged image by blending the plurality of cropped images.

본 개시의 기술적 사상의 이미징 장치에 따르면, 제1 및 제2 스티칭 방향에 기초하여 복수의 원본 이미지들을 스티칭하여 병합 이미지를 생성하므로, 다양한 방향으로 배치된 이미지들을 스티칭할 수 있다.According to the imaging device of the technical concept of the present disclosure, since a merged image is generated by stitching a plurality of original images based on first and second stitching directions, images disposed in various directions may be stitched.

또한, 본 개시의 기술적 사상의 이미징 장치에 따르면, 중첩 영역에서 연산된 변환 매트릭스 및 중첩 영역에서 탐지된 심(seam)에 기초하여 복수의 원본 이미지들을 스티칭하므로, 적은 연산량 및 적은 처리 시간으로 병합 이미지를 생성할 수 있다.In addition, according to the imaging device of the technical concept of the present disclosure, since a plurality of original images are stitched based on a transformation matrix calculated in an overlapping area and a seam detected in the overlapping area, a merged image can be obtained with a small amount of calculation and a small processing time. can create

또한, 본 개시의 기술적 사상의 이미징 장치에 따르면, 이미지 센서에서 원본 이미지를 와핑 및 크로핑하고, 이미지 프로세서에서 복수의 크로핑 이미지들을 블렌딩하므로, 적은 처리 시간으로 병합 이미지를 생성할 수 있다.Also, according to the imaging device of the technical concept of the present disclosure, since an image sensor warps and crops an original image, and an image processor blends a plurality of cropped images, a merged image can be generated with less processing time.

도 1은 본 개시의 일 실시예에 따른 이미징 장치를 나타내는 블록도이다.
도 2는 본 개시의 일 실시예에 따른 이미징 장치에 포함된 광학 장치를 나타내는 도면이다.
도 3은 본 개시의 일 실시예에 따른 이미징 장치를 통해 생성된 복수의 원본 이미지들을 나타내는 도면이다.
도 4는 본 개시의 일 실시예에 따른 이미징 장치가 병합 이미지를 생성하는 방법을 나타내는 순서도이다.
도 5a 내지 5d는 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들로부터 병합 이미지를 생성하는 과정을 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들을 스티칭하는 방법을 나타내는 순서도이다.
도 7은 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들 간의 변환 매트릭스를 연산하는 방법을 나타내는 순서도이다.
도 8은 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들 간의 심(seam)을 탐지하는 방법을 나타내는 순서도이다.
도 9는 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들을 블렌딩(blending)하는 방법을 나타내는 순서도이다.
도 10은 본 개시의 다른 실시예에 따른 이미징 장치를 나타내는 블록도이다.
도 11a 내지 11d는 본 개시의 다른 실시예에 따른 이미징 장치가 복수의 원본 이미지들로부터 병합 이미지를 생성하는 과정을 나타내는 도면이다.
도 12는 본 개시의 다른 실시예에 따른 이미징 장치가 복수의 원본 이미지들로부터 병합 이미지를 생성하는 과정을 나타내는 순서도이다.
도 13은 본 개시의 다른 실시예에 따른 이미징 장치가 원본 이미지를 생성하는 과정을 나타내는 순서도이다.
도 14는 본 개시의 다른 실시예에 따른 이미징 장치가 양 방향으로 배열된 복수의 원본 이미지들로부터 병합 이미지를 생성하는 과정을 나타내는 순서도이다.
도 15는 본 개시의 다른 실시예에 따른 이미징 장치가 일 방향으로만 크로핑하여 크로핑 이미지를 생성하는 과정을 나타내는 도면이다.
도 16은 본 개시의 또 다른 실시예에 따른 이미징 장치를 나타내는 블록도이다.
도 17a 및 도 17b는 본 개시의 일 실시예에 따른 복수의 이미징 장치를 포함하는 이미징 장치를 나타내는 블록도이다.
1 is a block diagram illustrating an imaging device according to an exemplary embodiment of the present disclosure.
2 is a diagram illustrating an optical device included in an imaging device according to an exemplary embodiment of the present disclosure.
3 is a diagram illustrating a plurality of original images generated through an imaging device according to an embodiment of the present disclosure.
4 is a flowchart illustrating a method of generating a merged image by an imaging device according to an exemplary embodiment.
5A to 5D are diagrams illustrating a process of generating a merged image from a plurality of original images by an imaging device according to an embodiment of the present disclosure.
6 is a flowchart illustrating a method of stitching a plurality of original images by an imaging device according to an embodiment of the present disclosure.
7 is a flowchart illustrating a method of calculating a transformation matrix between a plurality of original images by an imaging device according to an embodiment of the present disclosure.
8 is a flowchart illustrating a method of detecting a seam between a plurality of original images by an imaging device according to an embodiment of the present disclosure.
9 is a flowchart illustrating a method of blending a plurality of original images by an imaging device according to an embodiment of the present disclosure.
10 is a block diagram illustrating an imaging device according to another exemplary embodiment of the present disclosure.
11A to 11D are diagrams illustrating a process of generating a merged image from a plurality of original images by an imaging device according to another embodiment of the present disclosure.
12 is a flowchart illustrating a process of generating a merged image from a plurality of original images by an imaging device according to another embodiment of the present disclosure.
13 is a flowchart illustrating a process of generating an original image by an imaging device according to another embodiment of the present disclosure.
14 is a flowchart illustrating a process of generating a merged image from a plurality of original images arranged in both directions by an imaging device according to another embodiment of the present disclosure.
15 is a diagram illustrating a process of generating a cropped image by cropping in one direction by an imaging device according to another embodiment of the present disclosure.
16 is a block diagram illustrating an imaging device according to another exemplary embodiment of the present disclosure.
17A and 17B are block diagrams illustrating an imaging device including a plurality of imaging devices according to an exemplary embodiment of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시예에 대해 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 이미징 장치를 나타내는 블록도이다.1 is a block diagram illustrating an imaging device according to an exemplary embodiment of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시예에 따른 이미징 장치(100)는 이미지 센서(110), 이미지 프로세서(120), 메모리(130) 및 광학 장치(140)를 포함할 수 있다.Referring to FIG. 1 , an imaging device 100 according to an embodiment of the present disclosure may include an image sensor 110 , an image processor 120 , a memory 130 and an optical device 140 .

이미징 장치(100)는 전하 결합 소자 및 금속 산화물 반도체(Complementary Metal Oxide Semiconductor, CMOS) 등의 고체 이미지 센서를 이용하여 피사체에 대한 이미지를 캡처 및/또는 저장할 수 있고, 디지털 카메라, 디지털 캠코더, 모바일 폰, 또는 태블릿 컴퓨터, 또는 휴대용 전자 장치의 일부로 구현될 수 있다. 휴대용 전자 장치는, 랩탑 컴퓨터, 이동 전화기, 스마트폰, 태블릿 PC, PDA(Personal Digital Assistant), EDA(Enterprise Digital Assistant), 디지털 스틸 카메라, 디지털 비디오 카메라, 오디오 장치, PMP(Portable Multimedia Player), PND(Personal Navigation Device), MP3 플레이어, 휴대용 게임 콘솔(handheld game console), e-북(e-book), 웨어러블 기기 등을 포함할 수 있다. 또한, 이미징 장치(100)는 드론(drone), 첨단 운전자 보조 시스템(Advanced Drivers Assistance System; ADAS) 등과 같은 전자 기기 또는 차량, 가구, 제조 설비, 도어, 각종 계측 기기 등에 부품으로서 구비되는 전자 기기에 탑재될 수 있다.The imaging device 100 may capture and/or store an image of a subject by using a solid-state image sensor such as a charge-coupled device and a metal oxide semiconductor (Complementary Metal Oxide Semiconductor, CMOS), and may include a digital camera, a digital camcorder, and a mobile phone. , or a tablet computer, or may be implemented as part of a portable electronic device. Portable electronic devices include laptop computers, mobile phones, smartphones, tablet PCs, personal digital assistants (PDAs), enterprise digital assistants (EDAs), digital still cameras, digital video cameras, audio devices, portable multimedia players (PMPs), and PNDs. (Personal Navigation Device), MP3 player, handheld game console, e-book, wearable device, and the like. In addition, the imaging device 100 may be used in electronic devices such as drones and advanced driver assistance systems (ADAS), or electronic devices provided as parts of vehicles, furniture, manufacturing facilities, doors, and various measuring devices. can be mounted.

이미지 센서(110)는 복수의 원본 이미지들을 생성할 수 있다. 복수의 원본 이미지들은 하나의 장면에 대하여 서로 다른 시야를 가진 이미지들로, 이미지 센서(110)는 미리 설정된 방향 및 각도로 회전 가능한 광학 장치(140)를 통해 서로 다른 시야를 갖고 대상 객체를 촬영하여 복수의 원본 이미지들 생성할 수 있다. 이미지 센서(110)는 생성한 복수의 원본 이미지들을 이미지 프로세서(120)로 출력할 수 있다. 이미지 센서(110)는 복수의 원본 이미지들 각각에 대응되는 복수의 인덱스들을 이미지 프로세서(120)로 출력할 수 있다. 인덱스는 원본 이미지의 공간 좌표를 나타낼 수 있다. 이미지 센서(110)는 이미지 또는 광 센싱 기능을 갖는 전자 기기에 탑재될 수 있다.The image sensor 110 may generate a plurality of original images. A plurality of original images are images with different views of a scene, and the image sensor 110 captures a target object with different views through an optical device 140 rotatable in a preset direction and angle. A plurality of original images can be created. The image sensor 110 may output a plurality of generated original images to the image processor 120 . The image sensor 110 may output a plurality of indices corresponding to each of a plurality of original images to the image processor 120 . The index may represent spatial coordinates of the original image. The image sensor 110 may be mounted in an electronic device having an image or light sensing function.

이미지 프로세서(120)는 이미지 센서(110)로부터 복수의 원본 이미지들을 수신할 수 있다. 그리고 이미지 프로세서(120)는 복수의 원본 이미지들에 대한 이미지 처리(image processing)를 수행할 수 있다.The image processor 120 may receive a plurality of original images from the image sensor 110 . Also, the image processor 120 may perform image processing on a plurality of original images.

본 개시의 일 실시예에서 이미지 프로세서(120)는 복수의 원본 이미지들에 기초하여 병합 이미지를 생성하기 위한 연산을 수행할 수 있다. 이미지 프로세서(120)는 제1 스티칭(stitching) 방향에 기초하여 복수의 원본 이미지들을 복수의 스티칭 그룹들로 분류하고, 동일한 스티칭 그룹에 포함된 원본 이미지들을 스티칭하여 복수의 중간 이미지들을 생성하고, 제2 스티칭 방향에 기초하여 복수의 중간 이미지들을 스티칭하여 병합 이미지를 생성할 수 있다.In one embodiment of the present disclosure, the image processor 120 may perform an operation for generating a merged image based on a plurality of original images. The image processor 120 classifies a plurality of original images into a plurality of stitching groups based on a first stitching direction, creates a plurality of intermediate images by stitching the original images included in the same stitching group, and A merged image may be generated by stitching a plurality of intermediate images based on two stitching directions.

이때 이미지 프로세서(120)는 동일한 스티칭 그룹에 포함된 원본 이미지들 간의 중첩 영역에서 연산된 변환 매트릭스 및 중첩 영역에서 탐지된 심(seam)에 기초하여 동일한 스티칭 그룹에 포함된 원본 이미지들을 블렌딩(blending)하여 동일한 스티칭 그룹에 포함된 원본 이미지들을 스티칭할 수 있다. 그리고 이미지 프로세서(120)는 복수의 중간 이미지들 간의 중첩 영역에서 연산된 변환 매트릭스 및 중첩 영역에서 탐지된 심에 기초하여 복수의 중간 이미지들을 블렌딩하여 복수의 중간 이미지들을 스티칭할 수 있다.At this time, the image processor 120 blends the original images included in the same stitching group based on the transformation matrix calculated in the overlapping area between the original images included in the same stitching group and the seam detected in the overlapping area. In this way, original images included in the same stitching group may be stitched. Also, the image processor 120 may stitch the plurality of intermediate images by blending the plurality of intermediate images based on the transformation matrix calculated in the overlapping region between the plurality of intermediate images and the seam detected in the overlapping region.

도 1에는 이미지 프로세서(120)가 이미징 장치(100) 내에서 이미지 센서(110)와 별도로 구성된 실시예가 도시되었으나, 본 개시가 이에 제한되는 것은 아니며, 이미지 프로세서(120)의 일부는 이미지 센서(110) 내부에 위치할 수도 있고, 이미징 장치(100) 외부의 별도 프로세서 내부에 위치할 수도 있다.1 shows an embodiment in which the image processor 120 is configured separately from the image sensor 110 in the imaging device 100, but the present disclosure is not limited thereto, and a part of the image processor 120 may include the image sensor 110 ), or may be located inside a separate processor outside the imaging device 100.

메모리(130)는 이미지 프로세싱에 필요한 데이터를 저장할 수 있다. 메모리(130)는 휘발성 메모리 또는 불휘발성 메모리로 구현될 수있다. 휘발성 메모리는 DRAM(Dynamic Random Access Memory), SRAM(Static RAM) 등을 포함할 수 있으며, 불휘발성 메모리는 ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Electrically Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), 플래시 메모리, PRAM(Phase-change RAM), MRAM(Magnetic RAM), RRAM(Resistive RAM), FRAM(Ferroelectric RAM) 등을 포함할 수 있다. 본 개시의 일 실시예에서 메모리(130)는 이미징 장치(100)에 포함된 OTP(One Time Programmable) 메모리일 수 있다.The memory 130 may store data required for image processing. The memory 130 may be implemented as volatile memory or non-volatile memory. Volatile memory may include DRAM (Dynamic Random Access Memory), SRAM (Static RAM), etc. Non-volatile memory may include ROM (Read Only Memory), PROM (Programmable ROM), EPROM (Electrically Programmable ROM), EEPROM (Electrically Programmable ROM) Erasable and programmable ROM), flash memory, phase-change RAM (PRAM), magnetic RAM (MRAM), resistive RAM (RRAM), ferroelectric RAM (FRAM), and the like. In one embodiment of the present disclosure, the memory 130 may be a One Time Programmable (OTP) memory included in the imaging device 100 .

본 개시의 일 실시예에서 메모리(130)는 이미지 프로세서(120)가 복수의 원본 이미지들을 스티칭하여 병합 이미지를 생성할 때 이용되는 변환 매트릭스를 저장할 수 있다. 또한, 메모리(130)는 이미지 프로세서(120)의 크로핑(cropping)동작 등을 통해 최적화될 수 있다.In one embodiment of the present disclosure, the memory 130 may store a transformation matrix used when the image processor 120 creates a merged image by stitching a plurality of original images. Also, the memory 130 may be optimized through a cropping operation of the image processor 120 or the like.

광학 장치(140)는 방향 및 각도를 포함하는 회전 정보에 따라 회전하여 복수의 원본 이미지의 시야를 조절할 수 있다. 예를 들어, 광학 장치(140)는 x축, y축, z축 중 적어도 하나의 방향으로 회전하여, 이미지 센서(110)가 하나의 장면에 대하여 서로 다른 시야를 가진 복수의 원본 이미지들을 생성하도록 할 수 있다. 본 개시의 일 실시예에서, 광학 장치(140)는 피치(Pitch), 요(Yaw), 롤(roll) 방향의 회전을 통해 상하좌우로 움직임으로써 서로 다른 장면을 획득할 수 있다. 광학 장치(140)는 이미지 프로세서(120)로부터 수신하는 명령에 기초하여 미리 설정된 방향 및 각도로 회전할 수 있다.The optical device 140 may adjust the field of view of a plurality of original images by rotating according to rotation information including directions and angles. For example, the optical device 140 rotates in at least one of the x-axis, y-axis, and z-axis directions so that the image sensor 110 generates a plurality of original images having different fields of view for one scene. can do. In one embodiment of the present disclosure, the optical device 140 may acquire different scenes by moving up and down, left and right through rotation in pitch, yaw, and roll directions. The optical device 140 may rotate in a preset direction and angle based on a command received from the image processor 120 .

광학 장치(140)는 거울 또는 렌즈를 포함하는 광학적 집광 장치일 수 있다. 광학 장치(140)의 보다 상세한 구조는 도 2를 참조하여 후술 될 것이다.The optical device 140 may be an optical concentrating device including a mirror or a lens. A more detailed structure of the optical device 140 will be described later with reference to FIG. 2 .

이와 같이 본 개시에 따른 이미징 장치(100)는 제1 및 제2 스티칭 방향에 기초하여 복수의 원본 이미지들을 스티칭하여 병합 이미지를 생성하므로, 다양한 방향으로 배치된 이미지들을 스티칭할 수 있다. 또한, 중첩 영역에서 연산된 변환 매트릭스 및 중첩 영역에서 탐지된 심에 기초하여 복수의 원본 이미지들을 스티칭하므로, 적은 연산량 및 적은 처리 시간으로 병합 이미지를 생성할 수 있다.As such, since the imaging device 100 according to the present disclosure generates a merged image by stitching a plurality of original images based on the first and second stitching directions, images disposed in various directions may be stitched. In addition, since a plurality of original images are stitched based on the transformation matrix calculated in the overlapping area and the seam detected in the overlapping area, a merged image can be generated with a small amount of calculation and a small processing time.

도 2는 본 개시의 일 실시예에 따른 이미징 장치에 포함된 광학 장치를 나타내는 도면이다.2 is a diagram illustrating an optical device included in an imaging device according to an exemplary embodiment of the present disclosure.

도 2를 참조하면, 광학 장치(140)의 일 실시예 중 어느 하나인 프리즘 렌즈의 모습을 확인할 수 있다. 도 2에는 광학 장치(140)의 일 실시예로 프리즘 렌즈가 예시되나, 본 개시가 이에 한정되는 것은 아니며, 본 개시의 다른 실시예에서는 빛의 분산이나 굴절 등 광학적 특성을 이용하여 물체에 의해 반사된 빛의 다양한 경로를 집광하거나, 빛의 이동 경로를 변경할 수 있는 광학 장치가 이용될 수 있다.Referring to FIG. 2 , an appearance of a prism lens of one embodiment of the optical device 140 may be confirmed. 2 illustrates a prism lens as one embodiment of the optical device 140, but the present disclosure is not limited thereto, and in another embodiment of the present disclosure, light is reflected by an object using optical characteristics such as dispersion or refraction. An optical device capable of condensing various paths of light or changing a moving path of light may be used.

광학 장치(140)는 x축, y축, z축, 총 3개의 공간적 회전축을 포함할 수 있다. 광학 장치(140)는 x축, y축, z축 중 적어도 하나의 축을 중심으로 회전함으로써, 이미지 센서(110)가 하나의 장면에 대하여 서로 다른 시야를 가진 복수의 원본 이미지들을 생성하도록 할 수 있다.The optical device 140 may include a total of three spatial rotation axes, x-axis, y-axis, and z-axis. The optical device 140 rotates around at least one of the x-axis, y-axis, and z-axis, so that the image sensor 110 generates a plurality of original images having different views of one scene. .

광학 장치(140)의 x축 중심 회전은 롤링(rolling)(가로 흔들림)이라고 지칭될 수 있다. 광학 장치(140)의 y축 중심 회전은 피칭(pitching)(세로 흔들림)이라고 지칭될 수 있다. 광학 장치(140)의 z축 중심 회전은 요잉(yawing)이라고 지칭될 수 있다.Rotation about the x-axis of the optics 140 may be referred to as rolling (transverse rocking). Rotation of the optics 140 around the y-axis may be referred to as pitching (vertical shake). Rotation of the optical device 140 around the z-axis may be referred to as yawing.

본 개시의 일 실시예에서, 피치(pitch) 방향의 회전은 광학 장치(140)를 횡방향으로 관통하는 y축 방향 회전이라고 이해될 수 있으며, 요(yaw) 방향의 회전은 광학 장치(140)를 수직으로 관통하는 z축 방향 회전이라고 이해될 수 있고, 롤(roll) 방향의 회전은 광학 장치(140)를 종방향으로 관통하는 x축 방향 회전이라고 이해될 수 있다.In one embodiment of the present disclosure, rotation in the pitch direction can be understood as rotation in the y-axis direction transversely penetrating the optical device 140, and rotation in the yaw direction is the rotation of the optical device 140. It can be understood as rotation in the z-axis direction vertically penetrating , and rotation in the roll direction can be understood as rotation in the x-axis direction penetrating the optical device 140 in the longitudinal direction.

이미지 센서(110)는 물체를 촬상하기 위한 임계 화각을 가질 수 있다. 임계 화각은 사용자의 설정으로부터 제한되거나, 이미지 센서(110)가 가지는 물리적인 한계에 의해 제한될 수 있다. 예를 들어, 이미지 센서(110)가 이미징 장치(100)에 내장되는 경우, 이미지 센서(110)의 임계 화각은 180도를 초과할 수 없다.The image sensor 110 may have a critical angle of view for capturing an image of an object. The critical angle of view may be limited by user settings or may be limited by physical limitations of the image sensor 110 . For example, when the image sensor 110 is embedded in the imaging device 100, the critical angle of view of the image sensor 110 cannot exceed 180 degrees.

본 개시의 일 실시예에서, 광학 장치(140)는 피칭과 요잉을 이용하여, 이미지 센서(110)가 전면의 피사체를 나타내는 원본 이미지를 생성하도록 할 수 있다. 광학 장치(140)는 요잉을 통해 이미지 센서(110)가 피사체의 좌우를 나타내는 원본 이미지를 생성하도록 할 수 있다. 그리고 광학 장치(140)는 피칭을 통해 이미지 센서(110)가 피사체의 상하를 나타내는 원본 이미지를 생성하도록 할 수 있다. 즉, 광학 장치(140)는 피칭과 요잉을 통해 이미지 센서(110)가 피사체의 상하좌우 주변부를 나타내는 원본 이미지를 생성하도록 할 수 있다.In an embodiment of the present disclosure, the optical device 140 may cause the image sensor 110 to generate an original image representing a foreground subject using pitching and yawing. The optical device 140 may cause the image sensor 110 to generate an original image representing the left and right of the subject through yawing. Further, the optical device 140 may cause the image sensor 110 to generate an original image representing the top and bottom of the subject through pitching. That is, the optical device 140 may cause the image sensor 110 to generate an original image representing the top, bottom, left, and right peripheries of the subject through pitching and yawing.

도 3은 본 개시의 일 실시예에 따른 이미징 장치를 통해 생성된 복수의 원본 이미지들을 나타내는 도면이다.3 is a diagram illustrating a plurality of original images generated through an imaging device according to an embodiment of the present disclosure.

도 3을 참조하면, 이미지 센서(110)에 의해 생성된 복수의 원본 이미지들을 확인할 수 있다. 도 3의 실시예에서 복수의 원본 이미지는 총 9개의 원본 이미지인, 제1 내지 제9 원본 이미지를 포함할 수 있다.Referring to FIG. 3 , a plurality of original images generated by the image sensor 110 may be identified. In the embodiment of FIG. 3 , the plurality of original images may include first to ninth original images, which are a total of nine original images.

여기서 이미지 센서(110)에 의해 생성되는 원본 이미지들의 개수는 이미지 프로세서(120)로부터 수신한 촬영 모드에 기초하여 설정될 수 있다. 예를 들어, 이미지 프로세서(120)로부터 수신된 촬영 모드가 가로로 3개, 세로로 3개인 총 9개의 원본 이미지를 생성하도록 하는 제1 촬영 모드인 경우, 이미지 센서(110)는 도 3에 도시된 바와 같은 제1 내지 제9 원본 이미지를 생성할 수 있다. 이때 이미지 프로세서(120)는 이미지 센서(110)로부터 복수의 원본 이미지들과 함께 수신하는 복수의 인덱스들에 기초하여 복수의 원본 이미지들을 도 3과 같이 배열할 수 있다.Here, the number of original images generated by the image sensor 110 may be set based on the shooting mode received from the image processor 120 . For example, when the shooting mode received from the image processor 120 is the first shooting mode for generating a total of 9 original images, 3 horizontally and 3 vertically, the image sensor 110 is shown in FIG. 3 . First to ninth original images as described above may be generated. In this case, the image processor 120 may arrange the plurality of original images as shown in FIG. 3 based on the plurality of indices received together with the plurality of original images from the image sensor 110 .

다른 예로, 이미지 프로세서(120)로부터 수신된 촬영 모드가 가로로 5개, 세로로 4개인 총 20개의 원본 이미지를 생성하도록 하는 제2 촬영 모드인 경우, 이미지 센서(110)는 도 3에 도시된 바와 달리 제1 내지 제20 원본 이미지를 생성할 수 있다.As another example, when the shooting mode received from the image processor 120 is the second shooting mode for generating a total of 20 original images, 5 horizontally and 4 vertically, the image sensor 110 is configured as shown in FIG. 3 . Unlike the bar, first to twentieth original images may be generated.

이하에서는 이미징 장치(100)가 제1 촬영 모드로 동작한 실시예를 중심으로 본 개시의 실시예를 설명하도록 한다.Hereinafter, an embodiment of the present disclosure will be described focusing on an embodiment in which the imaging device 100 operates in the first photographing mode.

이미지 센서(110)는 복수의 원본 이미지들과 함께 복수의 원본 이미지들 각각에 대응되는 복수의 인덱스들을 이미지 프로세서(120)로 출력할 수 있다. 복수의 인덱스들은 복수의 원본 이미지들의 공간 좌표를 나타내며, 복수의 인덱스들은 도 3에 원형 숫자로 표시된 바와 같을 수 있다.The image sensor 110 may output a plurality of indices corresponding to each of the plurality of original images to the image processor 120 along with the plurality of original images. A plurality of indices represent spatial coordinates of a plurality of original images, and the plurality of indices may be as indicated by circular numbers in FIG. 3 .

도 3의 실시예에서, 제1 원본 이미지는 복수의 원본 이미지들 중 좌측 상단에 위치한 원본 이미지로, 인덱스는 1이고, 공간좌표는 (1, 1)일 수 있다. 제2 원본 이미지는 복수의 원본 이미지들 중 중앙 상단에 위치한 원본 이미지로, 인덱스는 2이고, 공간좌표는 (1, 2)일 수 있다. 제3 원본 이미지는 복수의 원본 이미지들 중 우측 상단에 위치한 원본 이미지로, 인덱스는 3이고, 공간좌표는 (1, 3)일 수 있다. 제4 원본 이미지는 복수의 원본 이미지들 중 좌측 중단에 위치한 원본 이미지로, 인덱스는 4이고, 공간좌표는 (2, 1)일 수 있다. 제5 원본 이미지는 복수의 원본 이미지들 중 중앙 중단에 위치한 원본 이미지로, 인덱스는 5이고, 공간좌표는 (2, 2)일 수 있다. 제6 원본 이미지는 복수의 원본 이미지들 중 우측 중단에 위치한 원본 이미지로, 인덱스는 6이고, 공간좌표는 (2, 3)일 수 있다. 제7 원본 이미지는 복수의 원본 이미지들 중 좌측 하단에 위치한 원본 이미지로, 인덱스는 7이고, 공간좌표는 (3, 1)일 수 있다. 제8 원본 이미지는 복수의 원본 이미지들 중 중앙 하단에 위치한 원본 이미지로, 인덱스는 8이고, 공간좌표는 (3, 2)일 수 있다. 제9 원본 이미지는 복수의 원본 이미지들 중 우측 하단에 위치한 원본 이미지로, 인덱스는 9이고, 공간좌표는 (3, 3)일 수 있다.In the embodiment of FIG. 3 , the first original image may be an original image located at the upper left of the plurality of original images, have an index of 1, and spatial coordinates of (1, 1). The second original image may be an original image located at the top center among a plurality of original images, have an index of 2, and spatial coordinates of (1, 2). The third original image may be an original image located at the upper right of the plurality of original images, have an index of 3, and spatial coordinates of (1, 3). The fourth original image may be an original image located at the middle left of the plurality of original images, have an index of 4, and spatial coordinates of (2, 1). The fifth original image is an original image located in the middle of a plurality of original images, has an index of 5, and spatial coordinates of (2, 2). The sixth original image is an original image located at the right middle of the plurality of original images, has an index of 6, and spatial coordinates of (2, 3). The seventh original image is an original image located at the bottom left of the plurality of original images, and may have an index of 7 and spatial coordinates of (3, 1). The eighth original image is an original image located at the lower center of the plurality of original images, has an index of 8, and spatial coordinates of (3, 2). The ninth original image is an original image located at the lower right of the plurality of original images, has an index of 9, and spatial coordinates of (3, 3).

광학 장치(140)는 이미지 프로세서(120)로부터 수신하는 명령에 기초하여 미리 설정된 방향 및 각도로 회전할 수 있다. 따라서 동일한 촬영 모드에서 이미지 센서(110)에 의해 생성되는 복수의 원본 이미지들은 공통적인 기하학적 특성 정보를 포함할 수 있다. 예를 들어, 제1 촬영 모드로 촬영되어 생성된 제1 원본 이미지는 제1 촬영 모드로 촬영되어 생성된 제2 원본 이미지와 항상 동일한 각도로 회전된 이미지일 수 있다. 또한, 제1 촬영 모드로 촬영되어 생성된 제1 원본 이미지는 제1 촬영 모드로 촬영되어 생성된 제2 원본 이미지와 항상 동일한 배율만큼 확대 또는 축소된 이미지일 수 있다. The optical device 140 may rotate in a preset direction and angle based on a command received from the image processor 120 . Accordingly, a plurality of original images generated by the image sensor 110 in the same photographing mode may include common geometric characteristic information. For example, the first original image created by being photographed in the first photographing mode may always rotate at the same angle as the second original image created by being photographed in the first photographing mode. Also, the first original image created by capturing in the first capturing mode may always be enlarged or reduced by the same magnification as the second original image generated by capturing in the first capturing mode.

도 4는 본 개시의 일 실시예에 따른 이미징 장치가 병합 이미지를 생성하는 방법을 나타내는 순서도이다.4 is a flowchart illustrating a method of generating a merged image by an imaging device according to an exemplary embodiment.

도 4를 참조하면, 단계 S410에서, 이미지 프로세서(120)는 제1 및 제2 스티칭 방향을 결정할 수 있다.Referring to FIG. 4 , in step S410, the image processor 120 may determine first and second stitching directions.

스티칭 방향은 이미지 프로세서(120)가 복수의 원본 이미지들에 기초하여 병합 이미지를 생성할 때, 어떠한 순서로 원본 이미지를 스티칭하는지를 나타내는 방향이다.The stitching direction is a direction indicating in what order the original images are stitched when the image processor 120 generates a merged image based on a plurality of original images.

본 개시의 일 실시예에서 제1 및 제2 스티칭 방향은 행 방향 또는 열 방향 일 수 있다. 이때 제1 스티칭 방향이 행 방향이면, 제2 스티칭 방향은 열 방향일 수 있다. 반대로 제1 스티칭 방향이 열 방향이면, 제2 스티칭 방향은 행 방향일 수 있다.In one embodiment of the present disclosure, the first and second stitching directions may be a row direction or a column direction. In this case, if the first stitching direction is a row direction, the second stitching direction may be a column direction. Conversely, if the first stitching direction is a column direction, the second stitching direction may be a row direction.

예를 들어, 복수의 원본 이미지들이 도 3에 도시된 바와 같이 제1 내지 제9 원본 이미지를 포함하고, 제1 스티칭 방향이 행 방향인 경우, 이미지 프로세서(120)는 동일한 행에 위치한 원본 이미지들을 먼저 스티칭할 수 있다.For example, when the plurality of original images include the first to ninth original images as shown in FIG. 3 and the first stitching direction is in the row direction, the image processor 120 selects the original images located in the same row. You can stitch first.

본 개시의 일 실시예에서 이미지 프로세서(120)는 광학 장치(140)의 회전 정보에 기초하여 제1 및 제2 스티칭 방향을 결정할 수 있다. 이때 이미지 프로세서(120)는 제1 스티칭 방향을 광학 장치(140)의 초기 회전 방향과 동일하게 설정할 수 있다. 예를 들어, 광학 장치(140)가 행 방향으로 먼저 회전하는 경우, 이미지 프로세서(120)는 제1 스티칭 방향을 행 방향으로 설정할 수 있다. 이에 따라, 이미지 프로세서(120)는 이미지 센서(110)를 통해 복수의 원본 이미지들이 생성되는 순서대로 스티칭을 진행할 수 있게 되므로, 이미징 장치(100)의 최초 원본 이미지 생성 시점부터 병합 이미지 생성 시점까지의 시간 간격을 최소화할 수 있다.In one embodiment of the present disclosure, the image processor 120 may determine first and second stitching directions based on rotation information of the optical device 140 . In this case, the image processor 120 may set the first stitching direction to be the same as the initial rotation direction of the optical device 140 . For example, when the optical device 140 first rotates in the row direction, the image processor 120 may set the first stitching direction to the row direction. Accordingly, since the image processor 120 can perform stitching in the order in which a plurality of original images are generated through the image sensor 110, from the time of generating the first original image of the imaging device 100 to the time of generating the merged image, The time interval can be minimized.

단계 S420에서, 이미지 프로세서(120)는 제1 스티칭 방향에 기초하여 복수의 원본 이미지들을 복수의 스티칭 그룹들로 분류할 수 있다.In operation S420, the image processor 120 may classify a plurality of original images into a plurality of stitching groups based on the first stitching direction.

제1 스티칭 방향이 행 방향이면, 이미지 프로세서(120)는 동일한 행에 위치한 원본 이미지들을 동일한 스티칭 그룹으로 분류할 수 있다. 반대로 제1 스티칭 방향이 열 방향이면, 이미지 프로세서(120)는 동일한 열에 위치한 원본 이미지들을 동일한 스티칭 그룹으로 분류할 수 있다.If the first stitching direction is a row direction, the image processor 120 may classify original images located in the same row into the same stitching group. Conversely, if the first stitching direction is a column direction, the image processor 120 may classify original images located in the same column into the same stitching group.

본 개시의 일 실시예에서, 복수의 원본 이미지들이 도 3에 도시된 바와 같이 제1 내지 제9 원본 이미지를 포함하고, 제1 스티칭 방향이 행 방향인 경우, 이미지 프로세서(120)는 제1 내지 제3 원본 이미지를 제1 스티칭 그룹으로 분류하고, 제4 내지 제6 원본 이미지를 제2 스티칭 그룹으로 분류하고, 제7 내지 제9 원본 이미지를 제3 스티칭 그룹으로 분류할 수 있다.In one embodiment of the present disclosure, when the plurality of original images include the first to ninth original images as shown in FIG. 3 and the first stitching direction is the row direction, the image processor 120 performs the first to ninth original images. The third original image may be classified as a first stitching group, the fourth to sixth original images may be classified as a second stitching group, and the seventh to ninth original images may be classified as a third stitching group.

본 개시의 다른 실시예에서, 복수의 원본 이미지들이 도 3에 도시된 바와 같이 제1 내지 제9 원본 이미지를 포함하고, 제1 스티칭 방향이 열 방향인 경우, 이미지 프로세서(120)는 제1, 제4 및 제7 원본 이미지를 제1 스티칭 그룹으로 분류하고, 제2, 제5 및 제8 원본 이미지를 제2 스티칭 그룹으로 분류하고, 제3, 제6 및 제9 원본 이미지를 제3 스티칭 그룹으로 분류할 수 있다.In another embodiment of the present disclosure, when the plurality of original images include the first to ninth original images as shown in FIG. 3 and the first stitching direction is a column direction, the image processor 120 performs the first, The fourth and seventh original images are classified into a first stitching group, the second, fifth, and eighth original images are classified into a second stitching group, and the third, sixth, and ninth original images are classified into a third stitching group. can be classified as

단계 S430에서, 이미지 프로세서(120)는 동일한 스티칭 그룹에 포함된 원본 이미지들을 스티칭하여 복수의 중간 이미지들을 생성할 수 있다.In step S430, the image processor 120 may generate a plurality of intermediate images by stitching original images included in the same stitching group.

본 개시의 일 실시예에서, 복수의 원본 이미지들이 도 3에 도시된 바와 같이 제1 내지 제9 원본 이미지를 포함하고, 제1 스티칭 방향이 행 방향인 경우, 이미지 프로세서(120)는 제1 스티칭 그룹에 포함된 제1 내지 제3 원본 이미지들을 스티칭하여 제1 중간 이미지를 생성하고, 제2 스티칭 그룹에 포함된 제4 내지 제6 원본 이미지들을 스티칭하여 제2 중간 이미지를 생성하고, 제3 스티칭 그룹에 포함된 제7 내지 제9 원본 이미지들을 스티칭하여 제3 중간 이미지를 생성할 수 있다.In one embodiment of the present disclosure, when the plurality of original images include the first to ninth original images as shown in FIG. 3 and the first stitching direction is a row direction, the image processor 120 performs the first stitching stitching the first to third original images included in the group to create a first intermediate image, stitching the fourth to sixth original images included in the second stitching group to create a second intermediate image, and third stitching A third intermediate image may be created by stitching the seventh to ninth original images included in the group.

본 개시의 다른 실시예에서, 복수의 원본 이미지들이 도 3에 도시된 바와 같이 제1 내지 제9 원본 이미지를 포함하고, 제1 스티칭 방향이 열 방향인 경우, 이미지 프로세서(120)는 제1 스티칭 그룹에 포함된 제1, 제4 및 제7 원본 이미지들을 스티칭하여 제1 중간 이미지를 생성하고, 제2 스티칭 그룹에 포함된 제2, 제5 및 제8 원본 이미지들을 스티칭하여 제2 중간 이미지를 생성하고, 제3 스티칭 그룹에 포함된 제3, 제6 및 제9 원본 이미지들을 스티칭하여 제3 중간 이미지를 생성할 수 있다.In another embodiment of the present disclosure, when the plurality of original images include first to ninth original images as shown in FIG. 3 and the first stitching direction is a column direction, the image processor 120 performs the first stitching A first intermediate image is created by stitching the first, fourth, and seventh original images included in the group, and a second intermediate image is created by stitching the second, fifth, and eighth original images included in the second stitching group. A third intermediate image may be generated by stitching the third, sixth, and ninth original images included in the third stitching group.

단계 S440에서, 이미지 프로세서(120)는 제2 스티칭 방향에 기초하여 복수의 중간 이미지들을 스티칭하여 병합 이미지를 생성할 수 있다.In operation S440, the image processor 120 may create a merged image by stitching the plurality of intermediate images based on the second stitching direction.

본 개시의 일 실시예에서, 복수의 원본 이미지들이 도 3에 도시된 바와 같이 제1 내지 제9 원본 이미지를 포함하고, 제2 스티칭 방향이 열 방향인 경우, 이미지 프로세서(120)는 행 방향으로 스티칭 완료된 이미지인 제1 내지 제3 중간 이미지를 스티칭하여 병합 이미지를 생성할 수 있다.In one embodiment of the present disclosure, when the plurality of original images include the first to ninth original images as shown in FIG. 3 and the second stitching direction is in the column direction, the image processor 120 performs row direction. A merged image may be generated by stitching first to third intermediate images that are stitched images.

본 개시의 다른 실시예에서, 복수의 원본 이미지들이 도 3에 도시된 바와 같이 제1 내지 제9 원본 이미지를 포함하고, 제2 스티칭 방향이 행 방향인 경우, 이미지 프로세서(120)는 열 방향으로 스티칭 완료된 이미지인 제1 내지 제3 중간 이미지를 스티칭하여 병합 이미지를 생성할 수 있다.In another embodiment of the present disclosure, when the plurality of original images include the first to ninth original images as shown in FIG. 3 and the second stitching direction is in the row direction, the image processor 120 performs the stitching in the column direction. A merged image may be generated by stitching first to third intermediate images that are stitched images.

도 5a 내지 5d는 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들로부터 병합 이미지를 생성하는 과정을 나타내는 도면이다.5A to 5D are diagrams illustrating a process of generating a merged image from a plurality of original images by an imaging device according to an embodiment of the present disclosure.

도 5a 내지 5d에는 도시의 편의를 위해, 복수의 원본 이미지들 간에 중첩 영역이 존재하지 않고, 복수의 원본 이미지들이 동일한 각도 및 동일한 배율을 가지도록 도시되었으나, 실제로는 복수의 원본 이미지들 간에 중첩 영역이 존재하고, 복수의 원본 이미지들이 서로 다른 각도 및 서로 다른 배율을 가질 수 있다.5A to 5D, for convenience of illustration, there is no overlapping area between the plurality of original images, and the plurality of original images have the same angle and the same magnification, but in reality, there is an overlapping area between the plurality of original images. exists, and a plurality of original images may have different angles and different magnifications.

도 5a 내지 5d를 참조하면, 이미지 프로세서(120)가 복수의 원본 이미지들을 스티칭하여 병합 이미지를 생성하는 과정을 확인할 수 있다. 이때 도 5a 내지 도 5d는 제1 스티칭 방향이 열 방향이고, 제2 스티칭 방향이 행 방향인 실시예를 도시하고 있다. 이때 이미지 프로세서(120)는 제1 스티칭 방향이 열 방향이므로, 제1, 제4 및 제7 원본 이미지(I1, I4, I7)를 제1 스티칭 그룹으로 분류하고, 제2, 제5 및 제8 원본 이미지(I2, I5, I8)를 제2 스티칭 그룹으로 분류하고, 제3, 제6 및 제9 원본 이미지(I3, I6, I9)를 제3 스티칭 그룹으로 분류할 수 있다.Referring to FIGS. 5A to 5D , a process of generating a merged image by stitching a plurality of original images by the image processor 120 may be confirmed. 5A to 5D illustrate an embodiment in which the first stitching direction is a column direction and the second stitching direction is a row direction. At this time, since the first stitching direction is the column direction, the image processor 120 classifies the first, fourth, and seventh original images I1, I4, and I7 into the first stitching group, and the second, fifth, and eighth The original images I2, I5, and I8 may be classified as a second stitching group, and the third, sixth, and ninth original images I3, I6, and I9 may be classified as a third stitching group.

우선 도 5a를 참조하면, 이미지 프로세서(120)가 제1 스티칭 그룹에 포함된 제1, 제4 및 제7 원본 이미지(I1, I4, I7)를 스티칭하는 과정을 확인할 수 있다. First, referring to FIG. 5A , a process of stitching the first, fourth, and seventh original images I1, I4, and I7 included in the first stitching group by the image processor 120 can be confirmed.

도 5a의 좌측에 도시된 바와 같이 제1 내지 제9 원본 이미지(I1~I9)가 존재하는 상태에서, 이미지 프로세서(120)는 제1 원본 이미지(I1)와 제4 원본 이미지(I4)를 스티칭할 수 있다. 이에 따라 생성된 도 5a의 중간에 도시된 바와 같은 상태에서, 이미지 프로세서(120)는 제1 원본 이미지(I1)와 제4 원본 이미지(I4)가 스티칭된 이미지(T1)와 제7 원본 이미지(I7)를 스티칭하여 제1 중간 이미지(M1)를 생성할 수 있다. 이에 따라 도 5a의 우측에 도시된 바와 같은 상태가 될 수 있다.As shown on the left side of FIG. 5A, in the state where the first to ninth original images I1 to I9 exist, the image processor 120 stitches the first original image I1 and the fourth original image I4 can do. In the state shown in the middle of FIG. 5A generated accordingly, the image processor 120 generates an image T1 in which the first original image I1 and the fourth original image I4 are stitched together and a seventh original image ( I7) may be stitched to generate the first intermediate image M1. Accordingly, a state as shown on the right side of FIG. 5A may be obtained.

그 다음 도 5b를 참조하면, 이미지 프로세서(120)가 제2 스티칭 그룹에 포함된 제2, 제5 및 제8 원본 이미지(I2, I5, I8)를 스티칭하는 과정을 확인할 수 있다. Next, referring to FIG. 5B , a process of stitching the second, fifth, and eighth original images I2 , I5 , and I8 included in the second stitching group by the image processor 120 can be confirmed.

도 5b의 좌측에 도시된 바와 같이 제1 중간 이미지(M1)와 제2, 제3, 제5, 제6, 제8 및 제9 원본 이미지(I2, I3, I5, I6, I8, I9)가 존재하는 상태에서, 이미지 프로세서(120)는 제2 원본 이미지(I2)와 제5 원본 이미지(I5)를 스티칭할 수 있다. 이에 따라 생성된 도 5b의 중간에 도시된 바와 같은 상태에서, 이미지 프로세서(120)는 제2 원본 이미지(I2)와 제5 원본 이미지(I5)가 스티칭된 이미지(T2)와 제8 원본 이미지(I8)를 스티칭하여 제2 중간 이미지(M2)를 생성할 수 있다. 이에 따라 도 5b의 우측에 도시된 바와 같은 상태가 될 수 있다. As shown on the left side of FIG. 5B, the first intermediate image M1 and the second, third, fifth, sixth, eighth, and ninth original images I2, I3, I5, I6, I8, and I9 are In the present state, the image processor 120 may stitch the second original image I2 and the fifth original image I5. In the state shown in the middle of FIG. 5B generated accordingly, the image processor 120 generates an image T2 in which the second original image I2 and the fifth original image I5 are stitched and an eighth original image ( I8) may be stitched to generate the second intermediate image M2. Accordingly, a state as shown on the right side of FIG. 5B may be obtained.

그 다음 도 5c를 참조하면, 이미지 프로세서(120)가 제3 스티칭 그룹에 포함된 제3, 제6 및 제9 원본 이미지(I3, I6, I9)를 스티칭하는 과정을 확인할 수 있다. Next, referring to FIG. 5C , a process of stitching the third, sixth, and ninth original images I3, I6, and I9 included in the third stitching group by the image processor 120 can be confirmed.

도 5c의 좌측에 도시된 바와 같이 제1 및 제2 중간 이미지(M1, M2)와 제3, 제6 및 제9 원본 이미지(I3, I6, I9)가 존재하는 상태에서, 이미지 프로세서(120)는 제3 원본 이미지(I3)와 제6 원본 이미지(I6)를 스티칭할 수 있다. 이에 따라 생성된 도 5c의 중간에 도시된 바와 같은 상태에서, 이미지 프로세서(120)는 제3 원본 이미지(I3)와 제6 원본 이미지(I6)가 스티칭된 이미지(T3)와 제9 원본 이미지(I9)를 스티칭하여 제3 중간 이미지(M3)를 생성할 수 있다. 이에 따라 도 5c의 우측에 도시된 바와 같은 상태가 될 수 있다.As shown in the left side of FIG. 5C, in the state where the first and second intermediate images M1 and M2 and the third, sixth and ninth original images I3, I6 and I9 exist, the image processor 120 may stitch the third original image I3 and the sixth original image I6. In the state shown in the middle of FIG. 5C generated accordingly, the image processor 120 generates an image T3 where the third original image I3 and the sixth original image I6 are stitched together and a ninth original image ( I9) may be stitched to generate the third intermediate image M3. Accordingly, a state as shown on the right side of FIG. 5C may be obtained.

이때 도 5a 내지 5c에서는 제1 스티칭 그룹, 제2 스티칭 그룹, 제3 스티칭 그룹 순서대로 동일한 스티칭 그룹에 포함된 원본 이미지들을 스티칭한 실시예가 도시되었으나, 다른 순서대로 동일한 스티칭 그룹에 포함된 원본 이미지들이 스티칭되더라도 무방하다. 예를 들어, 본 개시의 다른 실시예에서 이미지 프로세서(120)는 제3 스티칭 그룹, 제1 스티칭 그룹, 제2 스티칭 그룹 순서대로 동일한 스티칭 그룹에 포함된 원본 이미지들을 스티칭할 수 있다.5A to 5C show an embodiment in which original images included in the same stitching group are stitched in the order of the first stitching group, the second stitching group, and the third stitching group, but the original images included in the same stitching group in a different order It is free even if it is stitched. For example, in another embodiment of the present disclosure, the image processor 120 may stitch original images included in the same stitching group in the order of the third stitching group, the first stitching group, and the second stitching group.

마지막으로 도 5d를 참조하면, 이미지 프로세서(120)가 제2 스티칭 방향에 기초하여 복수의 중간 이미지들을 스티칭하는 실시예를 확인할 수 있다.Finally, referring to FIG. 5D , an embodiment in which the image processor 120 stitches a plurality of intermediate images based on the second stitching direction can be confirmed.

도 5d의 좌측에 도시된 바와 같이 제1 내지 제3 중간 이미지(M1, M2, M3)가 존재하는 상태에서, 이미지 프로세서(120)는 제1 중간 이미지(M1)와 제2 중간 이미지(M2)를 스티칭할 수 있다. 이에 따라 생성된 도 5d의 중간에 도시된 바와 같은 상태에서, 이미지 프로세서(120)는 제1 중간 이미지(M1)와 제2 중간 이미지(M2)가 스티칭된 이미지(T4)와 제3 중간 이미지(M3)를 스티칭하여 병합 이미지(F1)를 생성할 수 있다. 이에 따라 최종적으로 병합 이미지가 생성될 수 있다.As shown on the left side of FIG. 5D, in a state where the first to third intermediate images M1, M2, and M3 exist, the image processor 120 generates the first intermediate image M1 and the second intermediate image M2. can be stitched. In a state as shown in the middle of FIG. 5D generated accordingly, the image processor 120 generates an image T4 in which the first intermediate image M1 and the second intermediate image M2 are stitched together and the third intermediate image ( M3) may be stitched to generate the merged image F1. Accordingly, a merged image may be finally generated.

이와 같이 본 개시에 따른 이미징 장치(100)는 제1 및 제2 스티칭 방향에 기초하여 복수의 원본 이미지들을 스티칭하여 병합 이미지를 생성하므로, 다양한 방향으로 배치된 이미지들을 스티칭할 수 있다.As such, since the imaging device 100 according to the present disclosure generates a merged image by stitching a plurality of original images based on the first and second stitching directions, images disposed in various directions may be stitched.

도 6은 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들을 스티칭하는 방법을 나타내는 순서도이다.6 is a flowchart illustrating a method of stitching a plurality of original images by an imaging device according to an embodiment of the present disclosure.

도 6을 참조하면, 단계 S610에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들 간의 특징점에 기초하여 변환 매트릭스를 연산할 수 있다.Referring to FIG. 6 , in step S610, the image processor 120 may calculate a transformation matrix based on feature points between two images to be stitched.

스티칭 대상 이미지는 현재 이미지 프로세서(120)가 스티칭을 하려는 이미지로, 원본 이미지, 원본 이미지와 원본 이미지가 스티칭되어 생성된 이미지, 중간 이미지 또는 중간 이미지와 중간 이미지가 스티칭되어 생성된 이미지일 수 있다.The stitching target image is an image to be stitched by the image processor 120, and may be an original image, an image created by stitching the original image and the original image, an intermediate image, or an image created by stitching the intermediate image and the intermediate image.

변환 매트릭스는 두 개의 스티칭 대상 이미지들 간의 회전 각도 및 배율 차이를 상쇄하기 위하여 두 개의 스티칭 대상 이미지들 간의 매핑 관계 또는 변환 관계를 나타내는 매트릭스일 수 있다.The transformation matrix may be a matrix representing a mapping relationship or transformation relationship between two images to be stitched in order to offset a difference in rotation angle and magnification between the two images to be stitched.

이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들 간의 중첩 영역 내의 특징점에 기초하여 변환 매트릭스를 연산할 수 있다. 예를 들어, 두 개의 스티칭 대상 이미지들이 동일한 스티칭 그룹에 포함된 원본 이미지들이면, 이미지 프로세서(120)는 동일한 스티칭 그룹에 포함된 원본 이미지들 간의 중첩 영역 내의 특징점에 기초하여 변환 매트릭스를 연산할 수 있다.The image processor 120 may calculate a transformation matrix based on feature points in an overlapping area between two images to be stitched. For example, if two images to be stitched are original images included in the same stitching group, the image processor 120 may calculate a transformation matrix based on feature points within an overlapping area between the original images included in the same stitching group. .

이미지 프로세서(120)가 변환 매트릭스를 연산하는 보다 상세한 방법은 도 7을 참조하여 후술 될 것이다.A more detailed method of calculating the transformation matrix by the image processor 120 will be described later with reference to FIG. 7 .

단계 S620에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들 간의 중첩 영역에서 심을 탐지할 수 있다.In step S620, the image processor 120 may detect a seam in an overlapping area between two images to be stitched.

심은 이미지 내에 존재하는 피사체의 경계일 수 있다. 이때 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들 각각에 포함된 심을 탐지함으로써, 두 개의 스티칭 대상 이미지들에서 동일한 부분이 어느 부분인지 탐지할 수 있다.The plant may be a boundary of a subject existing in the image. In this case, the image processor 120 may detect which part is the same part in the two stitching target images by detecting seams included in each of the two stitching target images.

이미지 프로세서(120)가 심을 탐지하는 보다 상세한 방법은 도 8을 참조하여 후술 될 것이다. A more detailed method of detecting the seam by the image processor 120 will be described later with reference to FIG. 8 .

단계 S630에서, 이미지 프로세서(120)는 변환 매트릭스 및 심에 기초하여 두 개의 스티칭 대상 이미지들을 블렌딩할 수 있다.In step S630, the image processor 120 may blend the two images to be stitched based on the transformation matrix and the seam.

이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들을 변환 매트릭스에 기초하여 와핑(warping)하고, 와핑된 두 개의 스티칭 대상 이미지들을 탐지된 심이 일치하도록 블렌딩할 수 있다. The image processor 120 may warp the two stitching target images based on the transformation matrix, and blend the warped two stitching target images so that detected seams match.

도 7은 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들 간의 변환 매트릭스를 연산하는 방법을 나타내는 순서도이다.7 is a flowchart illustrating a method of calculating a transformation matrix between a plurality of original images by an imaging device according to an embodiment of the present disclosure.

도 7을 참조하면, 단계 S710에서 이미지 프로세서(120)는 메모리(130)에 미리 저장된 변환 매트릭스가 존재하는지 판단할 수 있다.Referring to FIG. 7 , in step S710, the image processor 120 may determine whether a transformation matrix previously stored in the memory 130 exists.

이미지 프로세서(120)가 광학 장치(140)를 미리 설정된 방향 및 각도로 회전시키면서 이미지 센서(110)를 통해 복수의 원본 이미지들을 생성하는 경우, 복수의 원본 이미지들 간의 회전 각도 및 배율은 동일하게 유지될 수 있다. 이 경우, 복수의 원본 이미지들 간의 변환 매트릭스는 항상 동일하게 연산될 수 있다. 따라서 메모리(130)에 광학 장치(140)의 회전 정보에 대응되는 변환 매트릭스를 저장함으로써, 병합 이미지의 생성에 소요되는 시간을 줄일 수 있다.When the image processor 120 generates a plurality of original images through the image sensor 110 while rotating the optical device 140 in a preset direction and angle, the rotation angle and magnification of the plurality of original images remain the same. It can be. In this case, transformation matrices between a plurality of original images can always be calculated identically. Accordingly, by storing the transformation matrix corresponding to the rotation information of the optical device 140 in the memory 130, the time required to generate the merged image may be reduced.

메모리(130)에 미리 저장된 변환 매트릭스가 존재하는 경우, 단계 S720에서, 이미지 프로세서(120)는 변환 매트릭스를 연산하는 대신에 메모리(130)에 미리 저장된 변환 매트릭스를 이용할 수 있다. 즉, 이미지 프로세서(120)는 메모리(130)로부터 리드된 변환 매트릭스에 기초하여 동일한 스티칭 그룹에 포함된 원본 이미지들을 블렌딩할 수 있다.If there is a transformation matrix pre-stored in the memory 130 , in step S720 , the image processor 120 may use the transformation matrix pre-stored in the memory 130 instead of calculating the transformation matrix. That is, the image processor 120 may blend original images included in the same stitching group based on the transformation matrix read from the memory 130 .

메모리(130)에 미리 저장된 변환 매트릭스가 존재하지 않는 경우, 단계 S730에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들의 중첩 영역을 잘라낼 수 있다. 이때 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들 간의 중첩 영역에 마진 영역을 더한 영역을 잘라낼 수 있다.When the transformation matrix pre-stored in the memory 130 does not exist, in step S730, the image processor 120 may cut out an overlapping region of the two images to be stitched. In this case, the image processor 120 may cut out an area obtained by adding a margin area to an overlapping area between the two images to be stitched.

단계 S740에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들에서 잘라낸 중첩 영역을 M배 다운 스케일링할 수 있다. 이때 다운 스케일링되는 배수인 M은 두 개의 스티칭 대상 이미지들에서 특징점이 동일하게 탐지될 수 있는 정도로 설정될 수 있다.In step S740, the image processor 120 may downscale the overlapping region cut out of the two images to be stitched by M times. In this case, M, which is a down-scaling multiple, may be set to such an extent that feature points can be identically detected in the two stitching target images.

단계 S750에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들의 M배 다운 스케일링된 중첩 영역에서 특징점을 탐지하고, 두 개의 스티칭 대상 이미지들의 특징점을 매칭시킬 수 있다.In step S750, the image processor 120 may detect feature points in the overlapping region scaled down by M times between the two images to be stitched, and match the feature points of the two images to be stitched.

특징점은 스티칭 대상 이미지에서 주변 영역과 색상 차이가 많이 나는 지점일 수 있다. 본 개시의 일 실시예에서 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들에서 특징점을 탐지한 후, 두 개의 스티칭 대상 이미지들에서 동일한 색상을 가지는 특징점을 매칭시킬 수 있다.The feature point may be a point that has a large color difference from the surrounding area in the stitching target image. In an embodiment of the present disclosure, the image processor 120 may detect feature points in two images to be stitched and then match feature points having the same color in the two target images to be stitched.

단계 S760에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들의 특징점에 기초하여 변환 매트릭스를 연산할 수 있다. 본 개시의 일 실시예에서 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들에서 특징점의 주변 영역이 동일하게 변환될 수 있도록 변환 매트릭스를 연산할 수 있다.In step S760, the image processor 120 may calculate a transformation matrix based on feature points of the two images to be stitched. In one embodiment of the present disclosure, the image processor 120 may calculate a transformation matrix such that areas surrounding feature points in two images to be stitched may be identically transformed.

이와 같이 본 개시에 따른 이미징 장치(100)는 중첩 영역에서 변환 매트릭스를 연산하므로, 적은 연산량 및 적은 처리 시간으로 병합 이미지를 생성할 수 있다.As described above, since the imaging device 100 according to the present disclosure calculates the transformation matrix in the overlapping area, it is possible to generate a merged image with a small amount of calculation and a small processing time.

도 8은 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들 간의 심을 탐지하는 방법을 나타내는 순서도이다.8 is a flowchart illustrating a method of detecting a seam between a plurality of original images by an imaging device according to an embodiment of the present disclosure.

도 8을 참조하면, 단계 S810에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들을 N배 다운 스케일링할 수 있다. 이때 다운 스케일링되는 배수인 N은 두 개의 스티칭 대상 이미지들에서 마스크가 연산될 수 있는 정도로 설정될 수 있다.Referring to FIG. 8 , in step S810, the image processor 120 may downscale two images to be stitched N times. In this case, N, which is a down-scaling multiple, may be set to such an extent that a mask can be calculated in two stitching target images.

단계 S820에서, 이미지 프로세서(120)는 N배 다운 스케일링된 두 개의 스티칭 대상 이미지들을 변환 매트릭스에 기초하여 와핑할 수 있다. 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들 중 어느 하나를 와핑 대상 이미지로 선택하고, 와핑 대상 이미지에 변환 매트릭스를 곱하고, 와핑 대상 이미지가 아닌 스티칭 대상 이미지는 그대로 유지함으로써, 두 개의 스티칭 대상 이미지들을 와핑할 수 있다.In step S820, the image processor 120 may warp the two images to be stitched that are down-scaled by N times based on the transformation matrix. The image processor 120 selects one of the two stitching target images as a warping target image, multiplies the warping target image by a transformation matrix, and maintains the stitching target image that is not the warping target image as it is, thereby forming two stitching target images. You can warp them.

단계 S830에서, 이미지 프로세서(120)는 와핑된 두 개의 스티칭 대상 이미지들에서 마스크를 연산할 수 있다. 본 개시의 일 실시예에서 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들에서 전경과 배경이 구별될 수 있도록 마스크를 연산할 수 있다. 이때 두 개의 스티칭 대상 이미지들에서 전경은 검정색, 배경은 흰색으로 표시될 수 있다.In step S830, the image processor 120 may calculate a mask from the two warped images to be stitched. In one embodiment of the present disclosure, the image processor 120 may calculate a mask so that a foreground and a background may be distinguished in two images to be stitched. In this case, the foreground of the two stitching target images may be displayed in black and the background in white.

단계 S840에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들의 중첩 영역을 잘라낼 수 있다. 이때 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들 간의 중첩 영역에 마진 영역을 더한 영역을 잘라낼 수 있다.In step S840, the image processor 120 may cut out an overlapping region of the two images to be stitched. In this case, the image processor 120 may cut out an area obtained by adding a margin area to an overlapping area between the two images to be stitched.

단계 S850에서, 이미지 프로세서(120)는 잘라낸 중첩 영역에서 심을 탐지할 수 있다. 본 개시의 일 실시예에서 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들의 중첩 영역에서 마스크의 경계를 심으로 탐지할 수 있다.In step S850, the image processor 120 may detect seams in the cropped overlapping region. In an embodiment of the present disclosure, the image processor 120 may detect a boundary of a mask as a seam in an overlapping region of two images to be stitched.

이와 같이 본 개시에 따른 이미징 장치(100)는 중첩 영역에서 심을 탐지하므로, 적은 연산량 및 적은 처리 시간으로 병합 이미지를 생성할 수 있다.As described above, since the imaging device 100 according to the present disclosure detects seams in the overlapping area, a merged image can be generated with a small amount of computation and a small processing time.

도 9는 본 개시의 일 실시예에 따른 이미징 장치가 복수의 원본 이미지들을 블렌딩하는 방법을 나타내는 순서도이다.9 is a flowchart illustrating a method of blending a plurality of original images by an imaging device according to an embodiment of the present disclosure.

도 9를 참조하면, 단계 S910에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들을 변환 매트릭스에 기초하여 와핑할 수 있다. 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들 중 어느 하나를 와핑 대상 이미지로 선택하고, 와핑 대상 이미지에 변환 매트릭스를 곱하고, 와핑 대상 이미지가 아닌 스티칭 대상 이미지는 그대로 유지함으로써, 두 개의 스티칭 대상 이미지들을 와핑할 수 있다. Referring to FIG. 9 , in step S910, the image processor 120 may warp two images to be stitched based on a transformation matrix. The image processor 120 selects one of the two stitching target images as a warping target image, multiplies the warping target image by a transformation matrix, and maintains the stitching target image that is not the warping target image as it is, thereby forming two stitching target images. You can warp them.

단계 S920에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들에 대한 보정을 수행할 수 있다. 이미지 프로세서(120)는 와핑된 두 개의 스티칭 대상 이미지들의 심이 위치한 영역을 중심으로 색감, 톤(tone), 빛 노출 등을 보정함으로써, 두 개의 스티칭 대상 이미지들이 스티칭된 후 이미지가 보다 자연스럽도록 할 수 있다.In step S920, the image processor 120 may perform correction on the two images to be stitched. The image processor 120 corrects the color, tone, light exposure, etc. centered on the region where the seams of the two warped stitching images are located, so that the images are more natural after the two stitching target images are stitched. can

단계 S930에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들에서 불필요한 영역을 크로핑 할 수 있다. 본 개시의 일 실시예에서 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들에서 이미지가 생성되지 않은 영역 또는 병합 이미지에 포함되지 않는 영역을 크로핑할 수 있다.In step S930, the image processor 120 may crop unnecessary regions from the two images to be stitched. In one embodiment of the present disclosure, the image processor 120 may crop an area in which no image is generated or an area not included in a merged image in two stitching target images.

이때 이미지 프로세서(120)는 메모리의 최적화가 필요한 경우, 두 개의 스티칭 대상 이미지들에서 불필요한 영역을 크로핑한 후 두 개의 스티칭 대상 이미지들을 블렌딩할 수 있다. 이와 같이 크로핑을 통해 불필요한 영역을 제외하고 블렌딩을 함으로써, 연산량 및 메모리 사용량을 줄일 수 있다.In this case, if memory optimization is required, the image processor 120 may crop unnecessary regions from the two stitching target images and then blend the two stitching target images. In this way, by excluding unnecessary areas through cropping and blending, the amount of computation and memory usage can be reduced.

단계 S940에서, 이미지 프로세서(120)는 두 개의 스티칭 대상 이미지들을 블렌딩할 수 있다. 이미지 프로세서(120)는 탐지된 특징점, 심을 중심으로 두 개의 스티칭 대상 이미지를 블렌딩함으로써, 두 개의 스티칭 대상 이미지의 스티칭을 완료할 수 있다.In step S940, the image processor 120 may blend the two images to be stitched. The image processor 120 may complete stitching of the two stitching target images by blending the two stitching target images around the detected feature points and seams.

이와 같이 본 개시에 따른 이미징 장치(100)는 중첩 영역에서 연산된 변환 매트릭스 및 중첩 영역에서 탐지된 심에 기초하여 복수의 원본 이미지들을 스티칭하므로, 적은 연산량 및 적은 처리 시간으로 병합 이미지를 생성할 수 있다.As described above, since the imaging device 100 according to the present disclosure stitches a plurality of original images based on the transformation matrix calculated in the overlapping area and the seam detected in the overlapping area, a merged image can be generated with a small amount of calculation and a small processing time. there is.

도 10은 본 개시의 다른 실시예에 따른 이미징 장치를 나타내는 블록도이다.10 is a block diagram illustrating an imaging device according to another exemplary embodiment of the present disclosure.

도 10을 참조하면, 본 개시의 다른 실시예에 따른 이미징 장치(200)는 메모리(210), 이미지 센서(220), 이미지 프로세서(230), 광학 장치(240) 및 컨트롤러(250)를 포함할 수 있다.Referring to FIG. 10 , an imaging device 200 according to another embodiment of the present disclosure may include a memory 210, an image sensor 220, an image processor 230, an optical device 240, and a controller 250. can

이때 도 10의 메모리(210)는 도 1의 메모리(130)와, 도 10의 이미지 센서(220)는 도 1의 이미지 센서(110)와, 도 10의 이미지 프로세서(230)는 도 1의 이미지 프로세서(120)와, 도 10의 광학 장치(240)는 도 1의 광학 장치(140)와 유사한 동작을 수행할 수 있다. 이하에서는 도 1의 구성들과의 차이점을 중심으로 설명하도록 한다.At this time, the memory 210 of FIG. 10 is the memory 130 of FIG. 1, the image sensor 220 of FIG. 10 is the image sensor 110 of FIG. 1, and the image processor 230 of FIG. 10 is the image of FIG. The processor 120 and the optical device 240 of FIG. 10 may perform operations similar to those of the optical device 140 of FIG. 1 . Hereinafter, differences from the configurations of FIG. 1 will be mainly described.

메모리(210)는 원본 이미지의 와핑에 이용되는 변환 매트릭스, 원본 이미지에서 불필요한 영역을 나타내는 크로핑 영역 및 원본 이미지가 다른 원본 이미지와 중첩되는 영역을 나타내는 중첩 영역을 저장할 수 있다.The memory 210 may store a transformation matrix used for warping of the original image, a cropping region representing an unnecessary region in the original image, and an overlapping region representing an overlapping region of the original image with another original image.

변환 매트릭스는 이미징 장치(200)가 복수의 원본 이미지들에 기초하여 병합 이미지를 생성할 때, 복수의 원본 이미지들 간의 회전 각도 및 배율 차이를 상쇄하기 위하여, 복수의 원본 이미지들 간의 매핑 관계 또는 변환 관계를 나타내는 매트릭스일 수 있다. 변환 매트릭스는 복수의 원본 이미지들 간의 중첩 영역 내의 특징점에 기초하여 미리 연산된 후, 메모리(210)에 저장될 수 있다.When the imaging device 200 generates a merged image based on the plurality of original images, the transformation matrix is a mapping relationship or transformation between the plurality of original images in order to offset a difference in rotation angle and magnification between the plurality of original images. It can be a matrix representing a relationship. The transformation matrix may be pre-calculated based on feature points within an overlapping area between a plurality of original images and then stored in the memory 210 .

크로핑 영역은 이미징 장치(200)가 복수의 원본 이미지들에 기초하여 병합 이미지를 생성할 때, 병합 이미지의 생성에 이용되지 않는 영역을 나타낼 수 있다. 크로핑 영역은 복수의 원본 이미지들 간의 관계를 고려하여 미리 연산된 후, 메모리(210)에 저장될 수 있다.The cropping area may indicate an area that is not used for generating a merged image when the imaging device 200 generates a merged image based on a plurality of original images. The cropping area may be pre-calculated in consideration of a relationship between a plurality of original images and then stored in the memory 210 .

중첩 영역은 하나의 원본 이미지에 포함된 영역들 중에서 다른 원본 이미지에 포함된 영역과 겹쳐지는 영역을 나타낼 수 있다. 중첩 영역은 이미징 장치(200)가 복수의 원본 이미지들에 기초하여 병합 이미지를 생성할 때 특징점, 매핑 관계 및 변환 관계를 연산하기 위하여 이용되는 영역일 수 있다. 중첩 영역은 복수의 원본 이미지들 간의 관계를 고려하여 미리 연산된 후, 메모리(210)에 저장될 수 있다.The overlapping area may indicate an area included in one original image that overlaps an area included in another original image. The overlapping area may be an area used to calculate feature points, mapping relationships, and transformation relationships when the imaging device 200 generates a merged image based on a plurality of original images. The overlapping area may be calculated in advance by considering the relationship between the plurality of original images and then stored in the memory 210 .

이때 병합 이미지가 제1 방향 및 제2 방향을 포함하는 양 방향으로 배열된 복수의 원본 이미지들에 기초하여 생성되는 경우, 크로핑 영역은 원본 이미지가 제1 및 제2 방향 중 어느 하나의 방향으로 크로핑되도록 설정될 수 있다. 본 개시의 일 실시예에서 제1 방향은 열 방향이고, 제2 방향은 행 방향일 수 있다. 다만, 이는 예시적 실시예에 불과한 바, 이에 국한되지 않고, 제1 방향은 행 방향, 제2 방향은 열 방향일 수도 있다.In this case, when the merged image is generated based on a plurality of original images arranged in both directions including the first direction and the second direction, the cropping area is the original image in any one of the first and second directions. It can be set to crop. In one embodiment of the present disclosure, the first direction may be a column direction, and the second direction may be a row direction. However, this is only an exemplary embodiment, and is not limited thereto, and the first direction may be a row direction and the second direction may be a column direction.

이미지 센서(220)는 원본 이미지를 생성하고, 원본 이미지를 변환 매트릭스를 이용하여 와핑하여 와핑 이미지를 생성하고, 와핑 이미지를 크로핑 영역을 이용하여 크로핑하여 크로핑 이미지를 생성할 수 있다. 본 명세서에서는, 이미지 센서(220)가 와핑 이미지 및 크로핑 이미지를 생성하는 실시예가 중심으로 서술되나, 이는 서술의 편의를 위한 것으로, 본 개시의 기술적 사상은 이에 제한되지 않는다. 즉, 이미지 프로세서(230)에서 이미지 센서(220)로부터 수신된 원본 이미지로부터 와핑 이미지 및 크로핑 이미지를 생성할 수 있으며, 이러한 실시예에서 메모리(210)는 와핑 이미지 및 크로핑 이미지를 생성하는 데에 필요한 정보(예를 들면, 변환 매트릭스, 크로핑 영역 등)를 이미지 프로세서(230)에 제공할 수 있다. 더 나아가, 이미지 센서(220)와 이미지 프로세서(230)는 하나의 회로 또는 칩으로 통합될 수도 있다.The image sensor 220 may generate an original image, generate a warped image by warping the original image using a transformation matrix, and generate a cropped image by cropping the warped image using a cropping region. In this specification, an embodiment in which the image sensor 220 generates a warped image and a cropped image is mainly described, but this is for convenience of description, and the technical spirit of the present disclosure is not limited thereto. That is, the image processor 230 may generate a warped image and a cropped image from the original image received from the image sensor 220, and in this embodiment, the memory 210 may generate the warped image and the cropped image. Information (for example, a transformation matrix, a cropping area, etc.) required for processing may be provided to the image processor 230 . Furthermore, the image sensor 220 and the image processor 230 may be integrated into a single circuit or chip.

보다 상세히, 이미지 센서(220)는 대상 객체를 촬영하여 원본 이미지를 생성할 수 있다. 이때 이미지 센서(220)는 컨트롤러(250)로부터 촬영 신호를 수신함에 따라, 대상 객체를 촬영하여 원본 이미지를 생성할 수 있다.In more detail, the image sensor 220 may generate an original image by photographing a target object. In this case, the image sensor 220 may generate an original image by photographing the target object upon receiving a photographing signal from the controller 250 .

이미지 센서(220)는 메모리(210)로부터 변환 매트릭스를 수신할 수 있다. 이때 이미지 센서(220)는 컨트롤러(250)로부터 촬영 신호를 수신하기에 앞서 컨트롤러(250)가 광학 장치(240)로 송신한 회전 신호에 포함된 회전 정보에 대응되는 변환 매트릭스를 메모리(210)로부터 수신할 수 있다. 그리고 이미지 센서(220)는 원본 이미지에 변환 매트릭스를 곱함으로써, 원본 이미지를 와핑하여 와핑 이미지를 생성할 수 있다.The image sensor 220 may receive a transformation matrix from the memory 210 . At this time, the image sensor 220, prior to receiving the photographing signal from the controller 250, converts a transformation matrix corresponding to rotation information included in the rotation signal transmitted from the controller 250 to the optical device 240 from the memory 210. can receive The image sensor 220 may generate a warped image by warping the original image by multiplying the original image by the transformation matrix.

그 다음, 이미지 센서(220)는 메모리(210)로부터 크로핑 영역을 수신할 수 있다. 이때 이미지 센서(220)는 컨트롤러(250)로부터 촬영 신호를 수신하기에 앞서 컨트롤러(250)가 광학 장치(240)로 송신한 회전 신호에 포함된 회전 정보에 대응되는 크로핑 영역을 메모리(210)로부터 수신할 수 있다. 크로핑 영역은 와핑 이미지에서 병합 이미지의 생성에 이용되지 않는 영역을 포함하도록 연산되어, 메모리(210)에 저장될 수 있다. 이미지 센서(220)는 와핑 이미지에서 크로핑 영역을 크로핑하여 크로핑 이미지를 생성할 수 있다. 이때 이미지 센서(220)는 와핑 이미지에서 크로핑 영역에 대응되는 픽셀들을 크로핑하여 크로핑 이미지를 생성할 수 있다.Then, the image sensor 220 may receive the cropping area from the memory 210 . At this time, the image sensor 220 stores the cropping area corresponding to the rotation information included in the rotation signal transmitted from the controller 250 to the optical device 240 prior to receiving the photographing signal from the controller 250 in the memory 210. can be received from The cropped area may be calculated to include an area not used for generating the merged image in the warped image and stored in the memory 210 . The image sensor 220 may generate a cropped image by cropping a cropped area in the warped image. In this case, the image sensor 220 may generate a cropped image by cropping pixels corresponding to the cropped area in the warped image.

또한, 이미지 센서(220)는 메모리(210)로부터 중첩 영역을 수신할 수 있다. 이미지 센서(220)는 컨트롤러(250)로부터 촬영 신호를 수신하기에 앞서 컨트롤러(250)가 광학 장치(240)로 송신한 회전 신호에 포함된 회전 정보에 대응되는 중첩 영역을 메모리(210)로부터 수신할 수 있다. 중첩 영역은 복수의 원본 이미지들 간에서 중첩되는 영역의 좌표를 포함할 수 있으며, 이미지 센서(220)는 복수의 원본 이미지들 간의 관계를 연산하여야 하는 경우, 중첩 영역을 이용할 수 있다.Also, the image sensor 220 may receive an overlapping area from the memory 210 . Prior to receiving the shooting signal from the controller 250, the image sensor 220 receives an overlapping area corresponding to rotation information included in the rotation signal transmitted from the controller 250 to the optical device 240 from the memory 210. can do. The overlapping area may include coordinates of an overlapping area between a plurality of original images, and the image sensor 220 may use the overlapping area when calculating a relationship between the plurality of original images.

또한, 이미지 프로세서(230)는 중첩 영역 내에서 변환 매트릭스의 연산, 원본 이미지에 포함된 심을 탐지할 수 있다. 이때 이미지 프로세서(230)는 메모리(210)로부터 직접 중첩 영역을 수신하거나, 이미지 센서(220)로부터 중첩 영역을 수신할 수 있다. 예를 들어, 이미지 센서(220)는 원본 이미지의 헤더(header) 또는 푸터(footer)에 중첩 영역에 관한 정보를 실어서 이미지 프로세서(230)로 전달할 수 있다. 다른 예로, 이미지 센서(220)는 내부의 레지스터와 같은 저장 영역에 메모리(210)로부터 수신한 중첩 영역을 저장하고, 이미지 프로세서(230)가 이미지 센서(220)에 저장된 중첩 영역을 독출할 수 있다. 다만, 이미지 프로세서(230)가 중첩 영역을 수신하는 방법이 이에 제한되는 것은 아니다.본 개시의 일 실시예에서 이미지 센서(220)는 하나의 원본 이미지를 생성하면, 원본 이미지에 기초하여 크로핑 이미지를 생성하여 이미지 프로세서(230)로 크로핑 이미지를 송신할 수 있다. 즉, 이미지 센서(220)는 하나의 원본 이미지를 생성할 때마다, 와핑 및 크로핑을 수행하여 크로핑 이미지를 바로 생성하고, 생성된 크로핑 이미지를 이미지 프로세서(230)로 송신할 수 있다.Also, the image processor 230 may calculate transformation matrices and detect seams included in the original image within the overlapping area. In this case, the image processor 230 may receive the overlapping area directly from the memory 210 or may receive the overlapping area from the image sensor 220 . For example, the image sensor 220 may load information about an overlapping area on a header or footer of an original image and transmit the information to the image processor 230 . As another example, the image sensor 220 may store the overlapping area received from the memory 210 in a storage area such as an internal register, and the image processor 230 may read the overlapping area stored in the image sensor 220. . However, the method of receiving the overlapping area by the image processor 230 is not limited thereto. In an embodiment of the present disclosure, when the image sensor 220 generates one original image, the cropped image is generated based on the original image. A cropping image may be transmitted to the image processor 230 by generating a . That is, whenever an original image is generated, the image sensor 220 may immediately generate a cropped image by performing warping and cropping and transmit the generated cropped image to the image processor 230 .

이미지 프로세서(230)는 이미지 센서(220)로부터 복수의 크로핑 이미지들을 수신하고, 복수의 크로핑 이미지들을 블렌딩하여 병합 이미지를 생성할 수 있다. 이때 이미지 프로세서(230)는 복수의 크로핑 이미지들에서 탐지된 심이 일치하도록 복수의 크로핑 이미지들을 블렌딩하여 병합 이미지를 생성할 수 있다.The image processor 230 may receive a plurality of cropped images from the image sensor 220 and generate a merged image by blending the plurality of cropped images. In this case, the image processor 230 may generate a merged image by blending a plurality of cropped images so that seams detected in the plurality of cropped images match.

본 개시의 일 실시예에서 이미지 프로세서(230)는 이미지 센서(220)로부터 수신된 N개(N은 2 이상의 자연수)의 크로핑 이미지들에 기초하여 병합 이미지를 생성할 수 있다. 즉, 이미지 프로세서(230)는 미리 설정된 N개의 크로핑 이미지들이 이미지 센서(220)로부터 수신되면, 수신한 N개의 크로핑 이미지들을 블렌딩하여 병합 이미지를 생성할 수 있다.In an embodiment of the present disclosure, the image processor 230 may generate a merged image based on N (N is a natural number equal to or greater than 2) cropped images received from the image sensor 220 . That is, when N preset cropped images are received from the image sensor 220, the image processor 230 may generate a merged image by blending the received N cropped images.

광학 장치(240)는 방향 및 각도를 포함하는 회전 정보에 따라 회전하여 복수의 원본 이미지들의 시야를 조절할 수 있다. 광학 장치(240)의 회전 정보는 미리 설정될 수 있으며, 광학 장치(240)는 동일한 회전 정보에 기초하여 동일하게 회전할 수 있다. 이 경우, 광학 장치(240)가 동일한 회전 정보에 기초하여 회전함에 따라, 이미지 센서(220)에 의해 생성되는 복수의 원본 이미지들 간의 회전 각도 및 배율은 동일하게 유지될 수 있다. The optical device 240 may adjust the field of view of a plurality of original images by rotating according to rotation information including directions and angles. Rotation information of the optical device 240 may be set in advance, and the optical device 240 may equally rotate based on the same rotation information. In this case, as the optical device 240 rotates based on the same rotation information, rotation angles and magnifications between a plurality of original images generated by the image sensor 220 may be maintained the same.

본 개시의 일 실시예에서 메모리(210)에 저장된 변환 매트릭스 및 크로핑 영역은 회전 정보에 기초하여 연산될 수 있다. 이미지 센서(220)를 통해 생성되는 원본 이미지의 시야는 회전 정보에 기초한 광학 장치(240)의 회전에 따라 조절될 수 있다. 이와 같이 원본 이미지가 회전 정보에 따라 다른 시야를 가지도록 생성되므로, 이미지 센서(220)는 원본 이미지를 회전 정보에 따라 다르게 와핑 및 크로핑을 수행해야 한다. 따라서 변환 매트릭스 및 크로핑 영역은 회전 정보에 기초하여 연산될 수 있다.In one embodiment of the present disclosure, the transformation matrix and cropping area stored in memory 210 may be calculated based on rotation information. The field of view of the original image generated by the image sensor 220 may be adjusted according to rotation of the optical device 240 based on rotation information. Since the original image is generated to have a different field of view according to the rotation information, the image sensor 220 must perform warping and cropping of the original image differently according to the rotation information. Thus, the transformation matrix and cropping area can be calculated based on the rotation information.

컨트롤러(250)는 광학 장치(240)로 회전 신호를 송신하고, 이미지 센서(220)로 회전 신호에 대응되는 촬영 신호를 송신할 수 있다.The controller 250 may transmit a rotation signal to the optical device 240 and transmit a photographing signal corresponding to the rotation signal to the image sensor 220 .

회전 신호는 광학 장치(240)의 회전을 제어하기 위한 신호일 수 있다. 본 개시의 일 실시예에서, 컨트롤러(250)는 회전 정보를 포함하는 회전 신호를 광학 장치(240)로 송신할 수 있고, 광학 장치(240)는 컨트롤러(250)로부터 수신한 회전 신호에 응답하여 회전할 수 있다.The rotation signal may be a signal for controlling rotation of the optical device 240 . In one embodiment of the present disclosure, the controller 250 may transmit a rotation signal including rotation information to the optical device 240, and the optical device 240 may respond to the rotation signal received from the controller 250. can rotate

촬영 신호는 이미지 센서(220)의 촬영을 제어하기 위한 신호일 수 있다. 이때 촬영 신호는 회전 신호에 따른 광학 장치(240)의 회전이 완료됨에 따라 이미지 센서(220)로 송신될 수 있다. 본 개시의 일 실시예에서, 컨트롤러(250)는 촬영 신호를 이미지 센서(220)로 송신할 수 있고, 이미지 센서(220)는 컨트롤러(250)로부터 수신한 촬영 신호에 응답하여 대상 객체를 촬영하여 원본 이미지를 생성할 수 있다.The photographing signal may be a signal for controlling photographing of the image sensor 220 . At this time, the photographing signal may be transmitted to the image sensor 220 as the rotation of the optical device 240 according to the rotation signal is completed. In one embodiment of the present disclosure, the controller 250 may transmit a photographing signal to the image sensor 220, and the image sensor 220 photographs a target object in response to the photographing signal received from the controller 250. Original image can be created.

이와 같이 본 개시에 따른 이미징 장치(200)는 메모리(210)에 광학 장치(240)의 회전 정보에 기초하여 연산된 변환 매트릭스를 저장함으로써, 이미지 센서(220)가 복잡한 연산을 수행하지 않고, 원본 이미지를 변환 매트릭스를 이용하여 와핑하여 와핑 이미지를 생성하고, 와핑 이미지를 크로핑 영역을 이용하여 크로핑하여 크로핑 이미지를 생성할 수 있다. As described above, the imaging device 200 according to the present disclosure stores the transformation matrix calculated based on the rotation information of the optical device 240 in the memory 210, so that the image sensor 220 does not perform a complicated calculation and the image sensor 220 does not perform a complicated calculation. A warped image may be generated by warping an image using a transformation matrix, and a cropped image may be generated by cropping the warped image using a cropping region.

또한, 본 개시에 따른 이미징 장치(200)는 이미지 센서(220)를 통해 와핑 및 크로핑을 수행하고, 이미지 프로세서(230)를 통해 블렌딩을 수행하여 병합 이미지를 생성함으로써, 적은 처리 시간으로 병합 이미지를 생성할 수 있다.In addition, the imaging device 200 according to the present disclosure generates a merged image by performing warping and cropping through the image sensor 220 and blending through the image processor 230, thereby generating a merged image with less processing time. can create

도 11a 내지 11d는 본 개시의 다른 실시예에 따른 이미징 장치가 복수의 원본 이미지들로부터 병합 이미지를 생성하는 과정을 나타내는 도면이다.11A to 11D are diagrams illustrating a process of generating a merged image from a plurality of original images by an imaging device according to another embodiment of the present disclosure.

도 11a를 참조하면, 대상 객체(TO)가 이미지 센서(220)를 통해 촬영되어 생성된 복수의 원본 이미지들(OI1, OI2, OI3)을 확인할 수 있다.Referring to FIG. 11A , a plurality of original images OI1 , OI2 , and OI3 generated by photographing the target object TO through the image sensor 220 may be checked.

이미지 센서(220)는 광학 장치(240)의 회전에 의해 서로 다른 시야를 갖고, 대상 객체(TO)를 촬영할 수 있다. 도 11a의 실시예에서 이미지 센서(220)는 광학 장치(240)의 회전에 의해 제1 시야(S1), 제2 시야(S2) 및 제3 시야(S3)를 갖고, 대상 객체(TO)를 촬영할 수 있다. 이미지 센서(220)는 제1 시야(S1), 제2 시야(S2) 및 제3 시야(S3)에 기초하여 대상 객체(TO)를 촬영한 결과, 제1 원본 이미지(OI1), 제2 원본 이미지(OI2) 및 제3 원본 이미지(OI3)를 획득할 수 있다.The image sensor 220 may have different views by rotation of the optical device 240 and capture the target object TO. In the embodiment of FIG. 11A , the image sensor 220 has a first field of view S1 , a second field of view S2 , and a third field of view S3 by rotation of the optical device 240 and detects the target object TO. can be filmed The image sensor 220 captures the target object TO based on the first field of view S1 , the second field of view S2 , and the third field of view S3 , and obtains a first original image OI1 and a second original image OI1 . An image OI2 and a third original image OI3 may be acquired.

도 11b를 참조하면, 복수의 원본 이미지들(OI1, OI2, OI3)이 이미지 센서(220)를 통해 와핑되어 생성된 복수의 와핑 이미지들(WI1, WI2, WI3)을 확인할 수 있다.Referring to FIG. 11B , a plurality of warped images WI1 , WI2 , and WI3 generated by warping the plurality of original images OI1 , OI2 , and OI3 through the image sensor 220 may be identified.

이미지 센서(220)는 메모리(210)로부터 복수의 원본 이미지들(OI1, OI2, OI3) 각각에 대응되는 복수의 변환 매트릭스들을 수신하고, 복수의 원본 이미지들(OI1, OI2, OI3)을 복수의 변환 매트릭스들을 이용하여 와핑하여 복수의 와핑 이미지들(WI1, WI2, WI3)을 생성할 수 있다.The image sensor 220 receives a plurality of transformation matrices corresponding to each of the plurality of original images OI1, OI2, and OI3 from the memory 210, and converts the plurality of original images OI1, OI2, and OI3 into a plurality of A plurality of warped images WI1 , WI2 , and WI3 may be generated by performing warping using transformation matrices.

도 11b의 실시예에서, 제1 원본 이미지(OI1)의 와핑에 이용되는 변환 매트릭스는 제1 원본 이미지(OI1)를 반시계방향으로 회전시킬 수 있다. 그리고 제2 원본 이미지(OI2)의 와핑에 이용되는 변환 매트릭스는 제2 원본 이미지(OI2)를 회전시키지 않을 수 있다. 마지막으로 제3 원본 이미지(OI3)의 와핑에 이용되는 변환 매트릭스는 제3 원본 이미지(OI3)를 시계방향으로 회전시킬 수 있다.In the embodiment of FIG. 11B , the transformation matrix used for warping the first original image OI1 may rotate the first original image OI1 in a counterclockwise direction. Also, the transformation matrix used for warping the second original image OI2 may not rotate the second original image OI2. Finally, the transformation matrix used for warping the third original image OI3 may rotate the third original image OI3 clockwise.

이때 복수의 원본 이미지들(OI1, OI2, OI3)을 와핑하여 생성된 복수의 와핑 이미지들(WI1, WI2, WI3)은 도 11b에 회색으로 색칠된 바와 같은 정보를 포함하지 않는 영역을 포함할 수 있다. 이는 병합 이미지의 생성에 불필요한 영역으로, 크로핑을 통해 제거될 수 있다.In this case, the plurality of warped images WI1, WI2, and WI3 generated by warping the plurality of original images OI1, OI2, and OI3 may include an area that does not contain information as shown in gray in FIG. 11B. there is. This is an unnecessary area for generating a merged image and can be removed through cropping.

이때 이미지 센서(220)는 하나의 원본 이미지를 생성하면, 원본 이미지에 기초하여 와핑 이미지를 생성할 수 있다. 예를 들어, 이미지 센서(220)가 제1 원본 이미지(OI1)를 생성하면, 제2 원본 이미지(OI2)의 생성과 무관하게, 제1 원본 이미지(OI1)를 와핑하여 제1 와핑 이미지(WI1)를 생성할 수 있다. 또한, 이미지 센서(220)가 제2 원본 이미지(OI2)를 생성하면, 제3 원본 이미지(OI3)의 생성과 무관하게, 제2 원본 이미지(OI2)를 와핑하여 제2 와핑 이미지(WI2)를 생성할 수 있다.In this case, when the image sensor 220 generates one original image, it may generate a warped image based on the original image. For example, when the image sensor 220 generates the first original image OI1, the first warped image WI1 is obtained by warping the first original image OI1 regardless of the generation of the second original image OI2. ) can be created. Also, when the image sensor 220 generates the second original image OI2, regardless of the generation of the third original image OI3, the second original image OI2 is warped to obtain a second warped image WI2. can create

도 11c를 참조하면, 복수의 와핑 이미지들(WI1, WI2, WI3)이 이미지 센서(220)를 통해 크로핑되어 생성된 복수의 크로핑 이미지들(CI1, CI2, CI3)을 확인할 수 있다.Referring to FIG. 11C , the plurality of cropped images CI1 , CI2 , and CI3 generated by cropping the plurality of warped images WI1 , WI2 , and WI3 through the image sensor 220 may be checked.

이미지 센서(220)는 메모리(210)로부터 복수의 와핑 이미지들(WI1, WI2, WI3) 각각에 대응되는 복수의 크로핑 영역들을 수신하고, 복수의 와핑 이미지들(WI1, WI2, WI3)을 복수의 크로핑 영역들을 이용하여 크로핑하여 복수의 크로핑 이미지들(CI1, CI2, CI3)을 생성할 수 있다.The image sensor 220 receives a plurality of cropping areas corresponding to each of the plurality of warped images WI1 , WI2 , and WI3 from the memory 210 , and generates a plurality of warped images WI1 , WI2 , and WI3 . A plurality of cropped images CI1 , CI2 , and CI3 may be generated by cropping using the cropping regions of .

도 11c의 실시예에서, 크로핑 영역은 복수의 와핑 이미지들(WI1, WI2, WI3) 내의 영역 중에서 이점쇄선으로 둘러싸인 영역의 외부 영역일 수 있다. 따라서 이미지 센서(220)는 복수의 와핑 이미지들(WI1, WI2, WI3)을 이점쇄선을 따라 크로핑하고, 이점쇄선 내부의 영역들을 복수의 크로핑 이미지들(CI1, CI2, CI3)로 생성할 수 있다.In the embodiment of FIG. 11C , the cropping area may be an area outside of an area surrounded by a dotted-dashed line among areas within the plurality of warped images WI1 , WI2 , and WI3 . Accordingly, the image sensor 220 crops the plurality of warped images WI1 , WI2 , and WI3 along the dotted-dot chain line and generates a plurality of cropped images CI1 , CI2 , and CI3 in regions inside the dotted-dash line. can

이때 이미지 센서(220)는 하나의 와핑 이미지를 생성하면, 와핑 이미지에 기초하여 크로핑 이미지를 생성할 수 있다. 예를 들어, 이미지 센서(220)가 제1 와핑 이미지(WI1)를 생성하면, 제2 와핑 이미지(WI2)의 생성과 무관하게, 제1 와핑 이미지(WI1)를 크로핑하여 제1 크로핑 이미지(CI1)를 생성할 수 있다. 또한, 이미지 센서(220)가 제2 와핑 이미지(WI2)를 생성하면, 제3 와핑 이미지(WI3)의 생성과 무관하게, 제2 와핑 이미지(WI2)를 크로핑하여 제2 크로핑 이미지(CI2)를 생성할 수 있다.In this case, when the image sensor 220 generates one warped image, it may generate a cropped image based on the warped image. For example, when the image sensor 220 generates the first warped image WI1, the first cropped image WI1 is cropped regardless of the generation of the second warped image WI2. (CI1) can be created. In addition, when the image sensor 220 generates the second warped image WI2, regardless of the generation of the third warped image WI3, the second warped image WI2 is cropped to obtain a second cropped image CI2. ) can be created.

도 11d를 참조하면, 복수의 크로핑 이미지들(CI1, CI2, CI3)이 이미지 프로세서(230)를 통해 블렌딩되어 생성된 병합 이미지(MI1)를 확인할 수 있다.Referring to FIG. 11D , a merged image MI1 generated by blending the plurality of cropped images CI1 , CI2 , and CI3 through the image processor 230 may be checked.

이미지 프로세서(230)는 이미지 센서(220)로부터 복수의 크로핑 이미지들(CI1, CI2, CI3)을 수신하고, 복수의 크로핑 이미지들(CI1, CI2, CI3)에서 탐지된 심이 일치하도록 복수의 크로핑 이미지들(CI1, CI2, CI3)을 블렌딩하여 병합 이미지(MI1)를 생성할 수 있다.The image processor 230 receives a plurality of cropped images CI1 , CI2 , and CI3 from the image sensor 220 , and acquires a plurality of seams so that seams detected in the plurality of cropped images CI1 , CI2 , and CI3 match. The merged image MI1 may be generated by blending the cropped images CI1 , CI2 , and CI3 .

도 11d의 실시예에서, 이미지 프로세서(230)는 복수의 크로핑 이미지들(CI1, CI2, CI3)에서 일점쇄선으로 표시된 선들끼리 중첩되도록 복수의 크로핑 이미지들(CI1, CI2, CI3)을 블렌딩하여 병합 이미지(MI1)를 생성할 수 있다. 예를 들어, 이미지 프로세서(230)는 제1 크로핑 이미지(CI1)에 표시된 일점쇄선과 제2 크로핑 이미지(CI2)에 표시된 일점쇄선 중 상단에 위치한 선이 중첩되도록 제1 크로핑 이미지(CI1)와 제2 크로핑 이미지(CI2)를 블렌딩할 수 있다. 그리고 이미지 프로세서(230)는 제2 크로핑 이미지(CI2)에 표시된 일점쇄선 중 하단에 위치한 선과 제3 크로핑 이미지(CI3)에 표시된 일점쇄선이 중첩되도록 제2 크로핑 이미지(CI2)와 제3 크로핑 이미지(CI3)를 블렌딩할 수 있다.In the embodiment of FIG. 11D , the image processor 230 blends the plurality of cropped images CI1 , CI2 , and CI3 so that lines indicated by dashed-dotted lines in the plurality of cropped images CI1 , CI2 , and CI3 overlap each other. Thus, the merged image MI1 may be generated. For example, the image processor 230 overlaps the one-dotted chain line displayed in the first cropped image CI1 and the one-dotted chain line displayed in the second cropped image CI2 so that the uppermost line overlaps the first cropped image CI1. ) and the second cropping image CI2 may be blended. Further, the image processor 230 may overlap the second cropping image CI2 and the third dot-and-dotted line displayed on the third cropping image CI3 so that the line located at the bottom of the dashed-dotted line displayed on the second cropping image CI2 and the dashed-dotted line displayed on the third cropping image CI3 overlap. The cropping image CI3 may be blended.

이때 이미지 프로세서(230)는 이미지 센서(220)로부터 N개의 크로핑 이미지들을 수신하면, 수신한 N개의 크로핑 이미지들을 블렌딩하여 병합 이미지(MI1)를 생성할 수 있다. 도 11d의 실시예와 같이 N이 3인 경우, 이미지 프로세서(230)는 이미지 센서(220)로부터 3개의 크로핑 이미지들을 수신하면, 수신한 3개의 크로핑 이미지들을 블렌딩하여 병합 이미지를 생성할 수 있다.In this case, when receiving N cropped images from the image sensor 220, the image processor 230 may generate a merged image MI1 by blending the received N cropped images. When N is 3 as in the embodiment of FIG. 11D , when receiving three cropped images from the image sensor 220, the image processor 230 may generate a merged image by blending the received three cropped images. there is.

도 12은 본 개시의 다른 실시예에 따른 이미징 장치가 복수의 원본 이미지들로부터 병합 이미지를 생성하는 과정을 나타내는 순서도이다.12 is a flowchart illustrating a process of generating a merged image from a plurality of original images by an imaging device according to another embodiment of the present disclosure.

도 12을 참조하면, 단계 S1210에서, 이미징 장치(200)는 이미지 센서(220)를 통해 대상 객체를 촬영하여 원본 이미지를 생성할 수 있다. 이미지 센서(220)는 컨트롤러(250)로부터 촬영 신호를 수신함에 따라, 대상 객체를 촬영하여 원본 이미지를 생성할 수 있다.Referring to FIG. 12 , in step S1210, the imaging device 200 may generate an original image by photographing the target object through the image sensor 220. As the image sensor 220 receives a photographing signal from the controller 250, it may create an original image by photographing the target object.

단계 S1220에서, 이미징 장치(200)는 이미지 센서(220)를 통해 와핑 이미지를 생성할 수 있다. 이미지 센서(220)는 메모리(210)로부터 수신한 변환 매트릭스를 이용하여 원본 이미지를 와핑하여 와핑 이미지를 생성할 수 있다.In step S1220 , the imaging device 200 may generate a warped image through the image sensor 220 . The image sensor 220 may generate a warped image by warping the original image using the transformation matrix received from the memory 210 .

단계 S1230에서, 이미징 장치(200)는 이미지 센서(220)를 통해 크로핑 이미지를 생성할 수 있다. 이미지 센서(220)는 메모리(210)로부터 수신한 크로핑 영역을 이용하여 와핑 이미지를 크로핑하여 크로핑 이미지를 생성할 수 있다.In operation S1230 , the imaging device 200 may generate a cropping image through the image sensor 220 . The image sensor 220 may generate a cropped image by cropping the warped image using the cropping area received from the memory 210 .

단계 S1240에서, 이미징 장치(200)는 이미지 프로세서(230)를 통해 병합 이미지를 생성할 수 있다. 이미지 프로세서(230)는 이미지 센서(220)로부터 수신한 N개의 크로핑 이미지를 블렌딩하여 병합 이미지를 생성할 수 있다.In step S1240, the imaging device 200 may generate a merged image through the image processor 230. The image processor 230 may generate a merged image by blending the N cropped images received from the image sensor 220 .

이와 같이 본 개시에 따른 이미징 장치(200)는 이미지 센서(220)를 통해 와핑 및 크로핑을 수행하고, 이미지 프로세서(230)를 통해 블렌딩을 수행하여 병합 이미지를 생성함으로써, 적은 처리 시간으로 병합 이미지를 생성할 수 있다.As described above, the imaging device 200 according to the present disclosure performs warping and cropping through the image sensor 220 and blending through the image processor 230 to generate a merged image, thereby obtaining a merged image with less processing time. can create

도 13는 본 개시의 다른 실시예에 따른 이미징 장치가 원본 이미지를 생성하는 과정을 나타내는 순서도이다.13 is a flowchart illustrating a process of generating an original image by an imaging device according to another embodiment of the present disclosure.

도 13를 참조하면, 단계 S1310에서, 컨트롤러(250)는 광학 장치(240)로 회전 신호를 송신할 수 있다. 컨트롤러(250)로부터 회전 신호를 수신하면, 광학 장치(240)는 회전 신호에 포함된 회전 정보에 기초하여 회전할 수 있다. 이에 따라 대상 객체를 촬영하는 이미지 센서(220)의 시야가 조절될 수 있다.Referring to FIG. 13 , in step S1310 , the controller 250 may transmit a rotation signal to the optical device 240 . Upon receiving a rotation signal from the controller 250, the optical device 240 may rotate based on rotation information included in the rotation signal. Accordingly, the field of view of the image sensor 220 photographing the target object may be adjusted.

단계 S1320에서, 컨트롤러(250)는 이미지 센서(220)로 촬영 신호를 송신할 수 있다. 컨트롤러(250)는 광학 장치(240)의 회전이 완료되면, 이미지 센서(220)로 촬영 신호를 송신할 수 있다. 본 개시의 일 실시예에서, 컨트롤러(250)는 광학 장치(240)로부터 회전 완료 신호를 수신하면, 이미지 센서(220)로 촬영 신호를 송신할 수 있다. 본 개시의 다른 실시예에서, 컨트롤러(250)는 광학 장치(240)로 회전 신호를 송신한 후, 광학 장치(240)의 회전에 소요될 수 있는 최대 시간이 경과하면, 이미지 센서(220)로 촬영 신호를 송신할 수 있다.In step S1320, the controller 250 may transmit a photographing signal to the image sensor 220. When the rotation of the optical device 240 is completed, the controller 250 may transmit a photographing signal to the image sensor 220 . In one embodiment of the present disclosure, the controller 250 may transmit a photographing signal to the image sensor 220 upon receiving a rotation completion signal from the optical device 240 . In another embodiment of the present disclosure, the controller 250 transmits a rotation signal to the optical device 240, and then, when the maximum time required for rotation of the optical device 240 elapses, the image sensor 220 takes pictures. signal can be transmitted.

단계 S1330에서, 이미지 센서(220)는 대상 객체를 촬영하여 원본 이미지를 생성할 수 있다. 이미지 센서(220)는 컨트롤러(250)로부터 수신한 촬영 신호에 응답하여 대상 객체를 촬영하고, 원본 이미지를 생성할 수 있다. 이미지 센서(220)는 입력되는 촬영 신호에 동기화하여 이미지 촬영을 시작하여 하나의 프레임 또는 복수의 프레임들을 촬영하여, 원본 이미지를 생성할 수 있다. 그리고 이미지 센서(220)는 추가적으로 입력되는 촬영 신호에 동기화하여 또 다른 하나의 프레임 또는 복수의 프레임들을 촬영할 수 있다. 즉, 이미지 센서(220)는 외부로부터 입력되는 촬영 신호 각각에 동기화된 하나 또는 복수의 원본 이미지들을 생성할 수 있다. 이때 단계 S1330은 도 12의 단계 S1210에 대응될 수 있다.In step S1330, the image sensor 220 may create an original image by photographing the target object. The image sensor 220 may photograph a target object in response to a photographing signal received from the controller 250 and generate an original image. The image sensor 220 may start capturing an image in synchronization with an input capturing signal, capture one frame or a plurality of frames, and generate an original image. Also, the image sensor 220 may capture another frame or a plurality of frames in synchronization with an additionally input capturing signal. That is, the image sensor 220 may generate one or a plurality of original images synchronized with each photographing signal input from the outside. At this time, step S1330 may correspond to step S1210 of FIG. 12 .

도 14는 본 개시의 다른 실시예에 따른 이미징 장치가 양 방향으로 배열된 복수의 원본 이미지들로부터 병합 이미지를 생성하는 과정을 나타내는 순서도이다.14 is a flowchart illustrating a process of generating a merged image from a plurality of original images arranged in both directions by an imaging device according to another embodiment of the present disclosure.

도 14를 참조하면, 단계 S1410에서, 이미징 장치(200)는 이미지 센서(220)를 통해 원본 이미지를 촬영할 수 있다. 이미지 센서(220)는 컨트롤러(250)로부터 촬영 신호를 수신함에 따라, 원본 이미지를 촬영할 수 있다. 단계 S1410은 도 12의 단계 S1210과 동일할 수 있다.Referring to FIG. 14 , in step S1410 , the imaging device 200 may capture an original image through the image sensor 220 . The image sensor 220 may capture an original image as it receives a capture signal from the controller 250 . Step S1410 may be the same as step S1210 of FIG. 12 .

단계 S1420에서, 이미징 장치(200)는 이미지 센서(220)를 통해 와핑 이미지를 생성할 수 있다. 이미지 센서(220)는 메모리(210)로부터 수신한 변환 매트릭스를 이용하여 원본 이미지를 와핑하여 와핑 이미지를 생성할 수 있다.단계 S1420은 도 12의 단계 S1220과 동일할 수 있다.In step S1420 , the imaging device 200 may generate a warping image through the image sensor 220 . The image sensor 220 may generate a warped image by warping the original image using the transformation matrix received from the memory 210. Step S1420 may be the same as step S1220 of FIG. 12 .

단계 S1430에서, 이미징 장치(200)는 이미지 센서(220)를 통해 크로핑 이미지를 생성할 수 있다. 이미지 센서(220)는 메모리(210)로부터 수신한 크로핑 영역을 이용하여 와핑 이미지를 크로핑하여 크로핑 이미지를 생성할 수 있다.In step S1430 , the imaging device 200 may generate a cropped image through the image sensor 220 . The image sensor 220 may generate a cropped image by cropping the warped image using the cropping area received from the memory 210 .

양 방향으로 배열된 복수의 원본 이미지들로부터 병합 이미지를 생성할 때, 크로핑 영역은 와핑 이미지를 제1 및 제2 방향 중 선택된 어느 하나의 방향으로 크로핑되도록 설정될 수 있다. 예를 들어, 도 5a 내지 5d에 도시된 실시예와 같이 원본 이미지들이 양 방향으로 배열된 경우, 이미지 프로세서(230)는 제1 스티칭 방향에 기초한 스티칭을 통해 복수의 중간 이미지들을 생성하고, 제2 스티칭 방향에 기초한 스티칭을 통해 병합 이미지를 생성할 수 있다. 이때 복수의 중간 이미지들은 서로 다른 각도 및 서로 다른 배율을 가질 수 있다. 따라서 제2 스티칭 방향에 기초한 스티칭을 진행할 때, 이미지 프로세서(230)는 복수의 중간 이미지들을 와핑 및 크로핑하여 회전 각도 및 배율을 일치시켜야 한다. 이와 같은 상황에서, 이미지 센서(220)가 원본 이미지들을 크로핑할 때 양 방향으로 크로핑되도록 설정된 크로핑 영역에 기초하여 크로핑하면, 동일한 방향으로 중복으로 이미지가 크로핑되어, 병합 이미지에 포함되는 영역이 줄어들 수 있다. 따라서 양 방향으로 배열된 복수의 원본 이미지들로부터 병합 이미지를 생성할 때, 크로핑 영역을 와핑 이미지를 제1 및 제2 방향 중 선택된 어느 하나의 방향으로 크로핑되도록 설정함으로써, 원본 이미지에 비해 과도하게 많은 영역들이 삭제된 병합 이미지가 생성되는 것을 방지할 수 있다.When generating a merged image from a plurality of original images arranged in both directions, the cropping area may be set to crop the warped image in one direction selected from among the first and second directions. For example, when original images are arranged in both directions as in the embodiments shown in FIGS. 5A to 5D , the image processor 230 generates a plurality of intermediate images through stitching based on a first stitching direction, and second A merged image may be generated through stitching based on a stitching direction. In this case, the plurality of intermediate images may have different angles and different magnifications. Accordingly, when performing stitching based on the second stitching direction, the image processor 230 must warp and crop the plurality of intermediate images to match rotation angles and magnifications. In this situation, if the image sensor 220 crops the original images based on the cropping area set to be cropped in both directions, the images are duplicated in the same direction and included in the merged image. area may be reduced. Therefore, when generating a merged image from a plurality of original images arranged in both directions, by setting the cropping area so that the warped image is cropped in one direction selected from among the first and second directions, a transitional image compared to the original image is generated. It is possible to prevent generation of a merged image in which a large number of areas are deleted.

단계 S1440에서, 이미징 장치(200)는 이미지 프로세서(230)를 통해 복수의 중간 이미지들을 생성할 수 있다. 이미지 프로세서(230)는 이미지 센서(220)로부터 수신한 N개의 크로핑 이미지를 블렌딩하여 중간 이미지를 생성할 수 있다. 이때 N개의 크로핑 이미지는 동일한 방향으로 배열되어 있을 수 있다. 예를 들어, N개의 크로핑 이미지가 단계 S1430에서 제1 방향으로 크로핑되도록 설정된 크로핑 영역에 기초하여 생성된 크로핑 이미지이면, N개의 크로핑 이미지는 제1 방향으로 배치된 N개의 원본 이미지에 기초하여 생성된 이미지일 수 있다.In step S1440, the imaging device 200 may generate a plurality of intermediate images through the image processor 230. The image processor 230 may generate an intermediate image by blending the N cropped images received from the image sensor 220 . In this case, the N cropping images may be arranged in the same direction. For example, if the N cropped images are cropped images generated based on the cropping area set to be cropped in the first direction in step S1430, the N cropped images are N original images arranged in the first direction. It may be an image generated based on.

단계 S1450에서, 이미징 장치(200)는 이미지 프로세서(230)를 통해 복수의 중간 와핑 이미지들을 생성할 수 있다. 이미지 프로세서(230)는 메모리(210)로부터 수신한 변환 매트릭스를 이용하여 복수의 중간 이미지들을 와핑하여 복수의 중간 와핑 이미지들을 생성할 수 있다.In step S1450, the imaging device 200 may generate a plurality of intermediate warped images through the image processor 230. The image processor 230 may generate a plurality of intermediate warped images by warping the plurality of intermediate images using the transformation matrix received from the memory 210 .

이때 단계 S1420의 원본 이미지의 와핑은 이미지 센서(220)에 의해 수행되었으나, 단계 S1450의 중간 이미지의 와핑은 이미지 프로세서(230)에 의해 수행될 수 있다. 이와 같이 중간 이미지의 생성 이후의 동작을 이미지 프로세서(230)에 의해 수행함으로써, 이미지 처리에 필요한 시간을 단축시킬 수 있다.In this case, warping of the original image in step S1420 is performed by the image sensor 220 , but warping of the intermediate image in step S1450 may be performed by the image processor 230 . In this way, by performing operations after generating the intermediate image by the image processor 230, the time required for image processing may be reduced.

단계 S1460에서, 이미징 장치(200)는 이미지 프로세서(230)를 통해 복수의 중간 크로핑 이미지들을 생성할 수 있다. 이미지 프로세서(230)는 메모리(210)로부터 수신한 크로핑 영역을 이용하여 복수의 중간 와핑 이미지들을 크로핑하여 복수의 중간 크로핑 이미지들을 생성할 수 있다.In step S1460, the imaging device 200 may generate a plurality of intermediate cropped images through the image processor 230. The image processor 230 may generate a plurality of intermediate cropped images by cropping the plurality of intermediate warped images using the cropping region received from the memory 210 .

이때 단계 S1430의 와핑 이미지의 크로핑은 이미지 센서(220)에 의해 수행되었으나, 단계 S1460의 중간 와핑 이미지의 크로핑은 이미지 프로세서(230)에 의해 수행될 수 있다. 이와 같이 중간 이미지의 생성 이후의 동작을 이미지 프로세서(230)에 의해 수행함으로써, 이미지 처리에 필요한 시간을 단축시킬 수 있다. At this time, the cropping of the warped image in step S1430 is performed by the image sensor 220, but the cropping of the intermediate warped image in step S1460 may be performed by the image processor 230. In this way, by performing operations after generating the intermediate image by the image processor 230, the time required for image processing may be reduced.

단계 S1470에서, 이미징 장치(200)는 이미지 프로세서(230)를 통해 병합 이미지를 생성할 수 있다. 이미지 프로세서(230)는 복수의 중간 크로핑 이미지들을 블렌딩하여 병합 이미지를 생성할 수 있다.In step S1470, the imaging device 200 may generate a merged image through the image processor 230. The image processor 230 may generate a merged image by blending a plurality of intermediate cropped images.

도 15는 본 개시의 다른 실시예에 따른 이미징 장치가 일 방향으로만 크로핑하여 크로핑 이미지를 생성하는 과정을 나타내는 도면이다.15 is a diagram illustrating a process of generating a cropped image by cropping in one direction by an imaging device according to another embodiment of the present disclosure.

도 15를 참조하면, 이미징 장치(200)가 복수의 와핑 이미지들(WI1, WI2, WI3)을 일 방향으로만 크로핑하여 생성한 복수의 크로핑 이미지들(CI1, CI2, CI3) 및 중간 이미지(M1)를 확인할 수 있다. 이는 도 14의 단계 S1430 및 단계 S1440에 대응되는 동작일 수 있다.Referring to FIG. 15 , a plurality of cropped images CI1 , CI2 , CI3 generated by the imaging device 200 by cropping the plurality of warped images WI1 , WI2 , WI3 in only one direction and an intermediate image (M1) can be confirmed. This may be an operation corresponding to steps S1430 and S1440 of FIG. 14 .

도 14를 참조하여 상술한 바와 같이, 병합 이미지가 양 방향으로 배열된 복수의 원본 이미지들에 기초하여 생성되는 경우, 크로핑 영역은 와핑 이미지를 제1 및 제2 방향 중 선택된 어느 하나의 방향으로 크로핑되도록 설정될 수 있다.As described above with reference to FIG. 14 , when the merged image is generated based on a plurality of original images arranged in both directions, the cropping area moves the warped image in one direction selected from among the first and second directions. It can be set to crop.

도 15의 실시예에서, 크로핑 영역은 와핑 이미지가 열 방향으로만 크로핑되도록 설정되어, 복수의 와핑 이미지들(WI1, WI2, WI3) 내의 영역 중에서 이점쇄선으로 둘러싸인 영역의 외부 영역일 수 있다. 따라서 이미지 센서(220)는 복수의 와핑 이미지들(WI1, WI2, WI3)을 이점쇄선을 따라 크로핑하고, 이점쇄선 내부의 영역들을 복수의 크로핑 이미지들(CI1, CI2, CI3)로 생성할 수 있다.In the embodiment of FIG. 15 , the cropped area is set so that the warped image is cropped only in the column direction, and may be an area outside of the area surrounded by the dotted-dashed line among the areas within the plurality of warped images WI1, WI2, and WI3. . Accordingly, the image sensor 220 crops the plurality of warped images WI1 , WI2 , and WI3 along the dotted-dot chain line and generates a plurality of cropped images CI1 , CI2 , and CI3 in regions inside the dotted-dash line. can

그 다음, 이미지 프로세서(230)는 이미지 센서(220)로부터 복수의 크로핑 이미지들(CI1, CI2, CI3)을 수신하고, 복수의 크로핑 이미지들(CI1, CI2, CI3)에서 탐지된 심이 일치하도록 복수의 크로핑 이미지들(CI1, CI2, CI3)을 블렌딩하여 중간 이미지(M1)를 생성할 수 있다.Next, the image processor 230 receives the plurality of cropped images CI1 , CI2 , and CI3 from the image sensor 220 , and the seams detected in the plurality of cropped images CI1 , CI2 , and CI3 match. The intermediate image M1 may be generated by blending the plurality of cropped images CI1 , CI2 , and CI3 to

도 15의 실시예에서, 이미지 프로세서(230)는 복수의 크로핑 이미지들(CI1, CI2, CI3)에서 일점쇄선으로 표시된 선들끼리 중첩되도록 복수의 크로핑 이미지들(CI1, CI2, CI3)을 블렌딩하여 중간 이미지(M1)를 생성할 수 있다.In the embodiment of FIG. 15 , the image processor 230 blends the plurality of cropped images CI1 , CI2 , and CI3 so that lines indicated by dashed-dotted lines in the plurality of cropped images CI1 , CI2 , and CI3 overlap each other. Thus, an intermediate image M1 may be generated.

이와 같이 양 방향으로 배열된 복수의 원본 이미지들로부터 병합 이미지를 생성할 때, 크로핑 영역을 와핑 이미지를 제1 및 제2 방향 중 선택된 어느 하나의 방향으로 크로핑되도록 설정함으로써, 원본 이미지에 비해 과도하게 많은 영역들이 삭제된 병합 이미지가 생성되는 것을 방지할 수 있다.When generating a merged image from a plurality of original images arranged in both directions, by setting the cropping area so that the warped image is cropped in one direction selected from among the first and second directions, compared to the original image It is possible to prevent generation of a merged image in which excessively large areas are deleted.

도 16은 본 개시의 또 다른 실시예에 따른 이미징 장치를 나타내는 블록도이다.16 is a block diagram illustrating an imaging device according to another exemplary embodiment of the present disclosure.

도 16을 참조하면, 본 개시의 또 다른 실시예에 따른 이미징 장치(300)는 메모리(310), 이미지 센서(320), AP(Application Processor)(330), 광학 장치(340) 및 컨트롤러(350)를 포함할 수 있다.Referring to FIG. 16 , an imaging device 300 according to another embodiment of the present disclosure includes a memory 310, an image sensor 320, an application processor (AP) 330, an optical device 340, and a controller 350. ) may be included.

이때 메모리(310), 이미지 센서(320), 광학 장치(340) 및 컨트롤러(350)는 도 10의 메모리(210), 이미지 센서(220), 광학 장치(240) 및 컨트롤러(250)와 동일할 수 있다.At this time, the memory 310, the image sensor 320, the optical device 340, and the controller 350 may be the same as the memory 210, the image sensor 220, the optical device 240, and the controller 250 of FIG. 10. can

AP(330)는 중앙 처리 장치(CPU), 마이크로프로세서(Microprocessor), 또는 MCU(Micro Controller Unit)일 수 있으나, 이에 제한되지 않는다. The AP 330 may be a central processing unit (CPU), a microprocessor, or a microcontroller unit (MCU), but is not limited thereto.

AP(330)는 이미지 프로세서를 포함할 수 있다. 이 경우, 이미징 장치(300)의 AP(330)는 이미지 처리를 수행하는 소프트웨어를 실행하는 프로세서일 수 있고, 이미지 프로세서는 소프트웨어로서, 또는 하드웨어와 소프트웨어의 결합으로써 구현될 수 있다.AP 330 may include an image processor. In this case, the AP 330 of the imaging device 300 may be a processor that executes software for performing image processing, and the image processor may be implemented as software or a combination of hardware and software.

도 17a 및 도 17b는 본 개시의 일 실시예에 따른 복수의 이미징 장치를 포함하는 이미징 장치를 나타내는 블록도이다.17A and 17B are block diagrams illustrating an imaging device including a plurality of imaging devices according to an exemplary embodiment of the present disclosure.

도 17a을 참조하면, 전자 장치(20000)는 멀티 이미징 장치(1100), AP(4000) 및 메모리(5000)를 포함할 수 있다. 메모리(5000)는 도 1에 도시된 메모리(130)와 동일한 기능을 수행할 수 있는 바, 중복되는 설명은 생략한다. 도 17a의 이미징 장치들(1100a, 1100b, 1100c) 중 적어도 하나는 도 1의 이미징 장치(100)와 유사한 기능을 수행할 수 있다.Referring to FIG. 17A , an electronic device 20000 may include a multi-imaging device 1100, an AP 4000, and a memory 5000. The memory 5000 may perform the same function as the memory 130 shown in FIG. 1, and thus duplicate descriptions are omitted. At least one of the imaging devices 1100a, 1100b, and 1100c of FIG. 17A may perform a function similar to that of the imaging device 100 of FIG. 1 .

전자 장치(20000)는 CMOS 이미지 센서를 이용하여 피사체에 대한 이미지를 캡쳐 및/또는 저장할 수 있고, 모바일 폰, 태블릿 컴퓨터, 또는 휴대용 전자 장치로 구현될 수 있다. 휴대용 전자 장치는, 랩탑 컴퓨터, 이동 전화기, 스마트폰, 태블릿 PC, 웨어러블 기기 등을 포함할 수 있다. 이러한 전자 장치(20000)는 하나 이상의 이미징 장치 및 하나 이상의 이미징 장치로부터 생성된 이미지 데이터를 처리하는 AP를 포함할 수 있다.The electronic device 20000 may capture and/or store an image of a subject using a CMOS image sensor, and may be implemented as a mobile phone, a tablet computer, or a portable electronic device. Portable electronic devices may include laptop computers, mobile phones, smart phones, tablet PCs, wearable devices, and the like. The electronic device 20000 may include one or more imaging devices and an AP processing image data generated by the one or more imaging devices.

멀티 이미징 장치(1100)는 제1 이미징 장치(1100a), 제2 이미징 장치(1100b), 제3 이미징 장치(1100c)를 포함할 수 있다. 설명의 편의를 위해 3 개의 이미징 장치(1100a 내지 1100c)가 도시되었으나, 이에 제한되지 않고 다양한 수의 이미징 장치들이 멀티 이미징 장치(1100)에 포함될 수 있다.The multi-imaging device 1100 may include a first imaging device 1100a, a second imaging device 1100b, and a third imaging device 1100c. For convenience of explanation, three imaging devices 1100a to 1100c are shown, but the multi-imaging device 1100 may include a variety of imaging devices without being limited thereto.

멀티 이미징 장치(1100)에 포함된 이미징 장치들은 제1 및 제2 스티칭 방향에 기초하여 복수의 원본 이미지들을 스티칭하여 병합 이미지를 생성할 수 있다. 그리고 멀티 이미징 장치(1100)에 포함된 이미징 장치들은 중첩 영역에서 연산된 변환 매트릭스 및 중첩 영역에서 탐지된 심에 기초하여 복수의 원본 이미지들을 스티칭할 수 있다. 이에 따라, 다양한 방향으로 배치된 이미지들을 스티칭하고, 적은 연산량 및 적은 처리 시간으로 병합 이미지를 생성할 수 있다.Imaging devices included in the multi-imaging device 1100 may generate a merged image by stitching a plurality of original images based on first and second stitching directions. Imaging devices included in the multi-imaging device 1100 may stitch a plurality of original images based on the transformation matrix calculated in the overlapping area and the seams detected in the overlapping area. Accordingly, images disposed in various directions may be stitched and a merged image may be generated with a small amount of calculation and a small processing time.

또한, 멀티 이미징 장치(1100)에 포함된 이미징 장치들은 메모리에 광학 장치의 회전 정보에 기초하여 연산된 변환 매트릭스를 저장할 수 있다. 그리고 멀티 이미징 장치(1100)에 포함된 이미징 장치들은 이미지 센서를 통해 와핑 및 크로핑을 수행하고, 이미지 프로세서를 통해 블렌딩을 수행하여 병합 이미지를 생성할 수 있다. 이에 따라 이미지 센서가 복잡한 연산을 수행하지 않고, 원본 이미지를 변환 매트릭스를 이용하여 와핑하여 와핑 이미지를 생성하고, 와핑 이미지를 크로핑 영역을 이용하여 크로핑하여 크로핑 이미지를 생성할 수 있고, 적은 처리 시간으로 병합 이미지를 생성할 수 있다.In addition, imaging devices included in the multi-imaging device 1100 may store a transformation matrix calculated based on rotation information of an optical device in a memory. Also, the imaging devices included in the multi-imaging device 1100 may generate a merged image by performing warping and cropping through an image sensor and blending through an image processor. Accordingly, the image sensor can generate a warped image by warping the original image using a transformation matrix without performing complicated calculations, and cropping the warped image using a cropping region to generate a cropped image. You can create merged images with processing time.

이하, 도 17b을 참조하여, 이미징 장치(1100b)의 상세 구성에 대해 보다 구체적으로 설명할 것이나, 이하의 설명은 실시예에 따라 다른 이미징 장치들(1100a, 1100c)에 대해서도 동일하게 적용될 수 있다.Hereinafter, a detailed configuration of the imaging device 1100b will be described in more detail with reference to FIG. 17B , but the following description may be equally applied to other imaging devices 1100a and 1100c according to embodiments.

도 17b를 참조하면, 제2 이미징 장치(1100b)는 프리즘(1105), 광학 경로 폴딩 요소(Optical Path Folding Element, 이하 OPFE)(1110), 액츄에이터(1130), 이미지 센싱 장치(1140) 및 저장부(1150)를 포함할 수 있다.Referring to FIG. 17B , the second imaging device 1100b includes a prism 1105, an optical path folding element (OPFE) 1110, an actuator 1130, an image sensing device 1140, and a storage unit. (1150).

프리즘(1105)은 광 반사 물질의 반사면(1107)을 포함하여 외부로부터 입사되는 광(L)의 경로를 변형시킬 수 있다. The prism 1105 may include a reflective surface 1107 of a light reflective material to change a path of light L incident from the outside.

예시적 실시예에 따르면, 프리즘(1105)은 제1 방향(X)으로 입사되는 광(L)의 경로를 제1 방향(X)에 수직인 제2 방향(Y)으로 변경시킬 수 있다. 또한, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)을 중심으로 A방향으로 회전시키거나, 중심축(1106)을 B방향으로 회전시켜 제1 방향(X)으로 입사되는 광(L)의 경로를 수직인 제2 방향(Y)으로 변경시킬 수 있다. 이때, OPFE(1110)도 제1 방향(X)및 제2 방향(Y)과 수직인 제3 방향(Z)로 이동할 수 있다.According to an exemplary embodiment, the prism 1105 may change a path of light L incident in the first direction X to a second direction Y perpendicular to the first direction X. In addition, the prism 1105 rotates the reflective surface 1107 of the light reflecting material in the direction A around the central axis 1106 or rotates the central axis 1106 in the direction B to move in the first direction X. A path of the incident light L may be changed in a second direction Y, which is perpendicular to the second direction Y. At this time, the OPFE 1110 may also move in a third direction (Z) perpendicular to the first direction (X) and the second direction (Y).

예시적 실시예에서, 도시된 것과 같이, 프리즘(1105)의 A방향 최대 회전 각도는 플러스(+) A방향으로는 21도(degree) 이하이고, 마이너스(-) A방향으로는 21도보다 클 수 있으나, 실시예들이 이에 제한되는 것은 아니다.In an exemplary embodiment, as shown, the maximum angle of rotation of the prism 1105 in the A direction is less than or equal to 21 degrees in the positive A direction and greater than 21 degrees in the negative A direction. However, the embodiments are not limited thereto.

예시적 실시예에서, 프리즘(1105)은 플러스(+) 또는 마이너스(-) B방향으로 20도 내외, 또는 10도에서 20도, 또는 15도에서 20도 사이로 움직일 수 있고, 여기서, 움직이는 각도는 플러스(+) 또는 마이너스(-) B방향으로 동일한 각도로 움직이거나, 1도 내외의 범위로 거의 유사한 각도까지 움직일 수 있으나, 이에 제한되지는 않는다.In an exemplary embodiment, the prism 1105 can move about 20 degrees in the plus or minus B direction, or between 10 and 20 degrees, or between 15 and 20 degrees, where the angle of movement is It may move at the same angle in the plus (+) or minus (-) B direction, or may move to an almost similar angle within a range of 1 degree, but is not limited thereto.

예시적 실시예에서, 프리즘(1105)은 광 반사 물질의 반사면(1106)을 중심축(1106)의 연장 방향과 평행한 제3 방향(예를 들어, Z방향)으로 이동할 수 있다.In an exemplary embodiment, the prism 1105 may move the reflective surface 1106 of the light reflecting material in a third direction (eg, Z direction) parallel to the extension direction of the central axis 1106 .

OPFE(1110)는 예를 들어 m(여기서, m은 자연수)개의 그룹으로 이루어진 광학 렌즈를 포함할 수 있다. m개의 렌즈는 제1 방향(X)으로 이동하여 이미징 장치(1100b)의 광학 줌 배율(optical zoom ratio)을 변경할 수 있다. 예를 들어, 이미징 장치(1100b)의 기본 광학 줌 배율을 Z라고할 때, OPFE(1110)에 포함된 m개의 광학 렌즈를 이동시킬 경우, 이미징 장치(1100b)의 광학 줌 배율은 3Z 또는 5Z 이상의 광학 줌 배율로 변경될 수 있다.The OPFE 1110 may include, for example, optical lenses consisting of m (where m is a natural number) groups. The m lenses may move in the first direction X to change the optical zoom ratio of the imaging device 1100b. For example, assuming that the basic optical zoom magnification of the imaging device 1100b is Z, when m optical lenses included in the OPFE 1110 are moved, the optical zoom magnification of the imaging device 1100b is 3Z or 5Z or higher. It can be changed with optical zoom magnification.

액츄에이터(1130)는 OPFE(1110) 또는 광학 렌즈(이하, 광학 렌즈로 지칭)를 특정 위치로 이동시킬 수 있다. 예를 들어 액츄에이터(1130)는 정확한 센싱을 위해 이미지 센서(1142)가 광학 렌즈의 초점 거리(focal length)에 위치하도록 광학 렌즈의 위치를 조정할 수 있다.The actuator 1130 may move the OPFE 1110 or an optical lens (hereinafter referred to as an optical lens) to a specific position. For example, the actuator 1130 may adjust the position of the optical lens so that the image sensor 1142 is positioned at the focal length of the optical lens for accurate sensing.

이미지 센싱 장치(1140)는 이미지 센서(1142), 제어 로직(1144), 및 메모리(1146)를 포함할 수 있다. 이미지 센서(1142)는 광학 렌즈를 통해 제공되는 광(L)을 이용하여 센싱 대상의 이미지를 센싱할 수 있다. 도 17b의 이미지 센서(1142)는 도 1의 이미지 센서(110) 또는 도 10의 이미지 센서(220)와 기능적으로 유사할 수 있으므로, 중복되는 설명은 생략한다. 제어 로직(1144)은 제2 이미징 장치(1100b)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어 로직(1144)은 제어 신호 라인(CSLb)을 통해 제공된 제어 신호에 따라 제2 이미징 장치(1100b)의 동작을 제어할 수 있다. The image sensing device 1140 may include an image sensor 1142 , a control logic 1144 , and a memory 1146 . The image sensor 1142 may sense an image of a sensing target using light L provided through an optical lens. Since the image sensor 1142 of FIG. 17B may be functionally similar to the image sensor 110 of FIG. 1 or the image sensor 220 of FIG. 10 , duplicate descriptions will be omitted. The control logic 1144 may control overall operations of the second imaging device 1100b. For example, the control logic 1144 may control the operation of the second imaging device 1100b according to a control signal provided through the control signal line CSLb.

메모리(1146)는 캘리브레이션 데이터(1147)와 같은 제2 이미징 장치(1100b)의 동작에 필요한 정보를 저장할 수 있다. 캘리브레이션 데이터(1147)는 제2 이미징 장치(1100b)가 외부로부터 제공된 광(L)을 이용하여 이미지 데이터를 생성하는데 필요한 정보를 포함할 수 있다. 캘리브레이션 데이터(1147)는 예를 들어, 앞서 설명한 회전도(degree of rotation)에 관한 정보, 초점 거리(focal length)에 관한 정보, 광학 축(optical axis)에 관한 정보, 및 이미지 처리에 필요한 캘리브레이션 정보 등을 포함할 수 있다. 제2 이미징 장치(1100b)가 광학 렌즈의 위치에 따라 초점 거리가 변하는 멀티 스테이트(multi state) 카메라 형태로 구현될 경우, 캘리브레이션 데이터(1147)는 광학 렌즈의 각 위치별(또는 스테이트별) 초점 거리 값과 오토 포커싱(auto focusing)과 관련된 정보를 포함할 수 있다.The memory 1146 may store information necessary for the operation of the second imaging device 1100b, such as calibration data 1147. The calibration data 1147 may include information necessary for the second imaging device 1100b to generate image data using light L provided from the outside. The calibration data 1147 is, for example, information about the degree of rotation described above, information about the focal length, information about the optical axis, and calibration information necessary for image processing etc. may be included. If the second imaging device 1100b is implemented in the form of a multi-state camera whose focal length changes according to the position of the optical lens, the calibration data 1147 is the focal length of each position (or state) of the optical lens. values and information related to auto focusing.

저장부(1150)는 이미지 센서(1142)를 통해 센싱된 이미지 데이터를 저장할 수 있다. 저장부(1150)는 이미지 센싱 장치(1140)의 외부에 배치될 수 있으며, 이미지 센싱 장치(1140)를 구성하는 센서 칩과 스택된(stacked) 형태로 구현될 수 있다. 예시적 실시예에서, 저장부(1150)는 EEPROM(Electrically Erasable Programmable Read-Only Memory)으로 구현될 수 있으나 실시예들이 이에 제한되는 것은 아니다.The storage unit 1150 may store image data sensed through the image sensor 1142 . The storage unit 1150 may be disposed outside the image sensing device 1140 and may be implemented in a stacked form with a sensor chip constituting the image sensing device 1140 . In an exemplary embodiment, the storage unit 1150 may be implemented as an electrically erasable programmable read-only memory (EEPROM), but the embodiments are not limited thereto.

예시적 실시예에서, 복수의 이미징 장치들(1100a, 1100b, 1100c) 각각은 액추에이터(1130)를 포함할 수 있다. 이에 따라, 복수의 이미징 장치들(1100a, 1100b, 1100c) 각각은 그 내부에 포함된 액추에이터(1130)의 동작에 따른 서로 동일하거나 서로 다른 캘리브레이션 데이터(1147)를 포함할 수 있다. In an exemplary embodiment, each of the plurality of imaging devices 1100a, 1100b, and 1100c may include an actuator 1130. Accordingly, each of the plurality of imaging devices 1100a, 1100b, and 1100c may include the same or different calibration data 1147 according to the operation of the actuator 1130 included therein.

예시적 실시예에서, 복수의 이미징 장치들(1100a, 1100b, 1100c) 중 하나의 이미징 장치(예를 들어, 제2 이미징 장치(1100b))는 앞서 설명한 프리즘(1105)과 OPFE(1110)를 포함하는 폴디드 렌즈(folded lens) 형태의 이미징 장치고, 나머지 이미징 장치들(예를 들어, 1100a, 1100b)은 프리즘(1105)과 OPFE(1110)가 포함되지 않은 버티칼(vertical) 형태의 이미징 장치일 수 있으나, 실시예들이 이에 제한되는 것은 아니다.In an exemplary embodiment, one imaging device (eg, the second imaging device 1100b) among the plurality of imaging devices 1100a, 1100b, and 1100c includes the prism 1105 and the OPFE 1110 described above. It is a folded lens type imaging device, and the remaining imaging devices (eg, 1100a and 1100b) are vertical type imaging devices that do not include the prism 1105 and the OPFE 1110. However, the embodiments are not limited thereto.

예시적 실시예에서, 복수의 이미징 장치들(1100a, 1100b, 1100c) 중 하나의 이미징 장치(예를 들어, 제3 이미징 장치(1100c))는 예를 들어, IR(Infrared Ray)을 이용하여 깊이(depth) 정보를 추출하는 버티컬 형태의 깊이 카메라(depth camera)일 수 있다. 이 경우, AP(4000)는 이러한 깊이 카메라로부터 제공받은 이미지 데이터와 다른 이미징 장치(예를 들어, 제1 이미징 장치(1100a) 또는 제2 이미징 장치(1100b))로부터 제공받은 이미지 데이터를 병합(merge)하여 3차원 깊이 이미지(3D depth image)를 생성할 수 있다.In an exemplary embodiment, one imaging device (eg, the third imaging device 1100c) among the plurality of imaging devices 1100a, 1100b, and 1100c uses IR (Infrared Ray) to detect depth. It may be a vertical type depth camera that extracts (depth) information. In this case, the AP 4000 merges image data provided from the depth camera with image data provided from another imaging device (eg, the first imaging device 1100a or the second imaging device 1100b). ) to generate a 3D depth image.

예시적 실시예에서, 복수의 이미징 장치들(1100a, 1100b, 1100c) 중 적어도 두 개의 이미징 장치(예를 들어, 제1 이미징 장치(1100a) 또는 제2 이미징 장치(1100b))는 서로 다른 관측 시야(Field of View, 시야각)를 가질 수 있다. 이 경우, 예를 들어, 복수의 이미징 장치들(1100a, 1100b, 1100c) 중 적어도 두 개의 이미징 장치(예를 들어, 제1 이미징 장치(1100a) 또는 제2 이미징 장치(1100b))의 광학 렌즈가 서로 다를 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 복수의 이미징 장치들(1100a, 1100b, 1100c) 중 제1 이미징 장치(1100a)는 제2 및 제3 이미징 장치들(1100b, 1100c)보다 관측 시야(FOV)가 작을 수 있다. 그러나 이에 제한되지 않고, 멀티 이미징 장치(1100)는 본래 사용되던 이미징 장치들(1100a, 1100b, 1100c)보다 관측 시야(FOV)가 큰 이미징 장치를 더 포함할 수도 있다.In an exemplary embodiment, at least two imaging devices (eg, the first imaging device 1100a or the second imaging device 1100b) among the plurality of imaging devices 1100a, 1100b, and 1100c have different fields of view. (Field of View, angle of view). In this case, for example, optical lenses of at least two imaging devices (eg, the first imaging device 1100a or the second imaging device 1100b) among the plurality of imaging devices 1100a, 1100b, and 1100c They may be different from each other, but are not limited thereto. For example, among the plurality of imaging devices 1100a, 1100b, and 1100c, the first imaging device 1100a may have a smaller field of view than the second and third imaging devices 1100b and 1100c. However, the multi-imaging device 1100 is not limited thereto, and the multi-imaging device 1100 may further include an imaging device having a larger field of view (FOV) than the originally used imaging devices 1100a, 1100b, and 1100c.

또한, 몇몇 실시예에서, 복수의 이미징 장치들(1100a, 1100b, 1100c) 각각의 시야각은 서로 다를 수 있다. 이 경우, 복수의 이미징 장치들(1100a, 1100b, 1100c) 각각에 포함된 광학 렌즈 역시 서로 다를 수 있으나, 이에 제한되는 것은 아니다.Also, in some embodiments, each of the plurality of imaging devices 1100a, 1100b, and 1100c may have different viewing angles. In this case, optical lenses included in each of the plurality of imaging devices 1100a, 1100b, and 1100c may also be different from each other, but are not limited thereto.

몇몇 실시예에서, 복수의 이미징 장치들(1100a, 1100b, 1100c) 각각은 서로 물리적으로 분리되어 배치될 수 있다. 즉, 하나의 이미지 센서(1142)의 센싱 영역을 복수의 이미징 장치들(1100a, 1100b, 1100c)이 분할하여 사용하는 것이 아니라, 복수의 이미징 장치들(1100a, 1100b, 1100c) 각각의 내부에 독립적인 이미지 센서(1142)가 배치될 수 있다.In some embodiments, each of the plurality of imaging devices 1100a, 1100b, and 1100c may be disposed physically separated from each other. That is, the sensing area of one image sensor 1142 is not divided and used by the plurality of imaging devices 1100a, 1100b, and 1100c, but the sensing area of each of the plurality of imaging devices 1100a, 1100b, and 1100c is independently An image sensor 1142 may be disposed.

AP(4000)는 복수의 서브 프로세서들(4100a, 4100b, 4100c), 디코더(4200), 이미징 장치 컨트롤러(4300), 메모리 컨트롤러(4400) 및 내부 메모리(4500)를 포함할 수 있다.The AP 4000 may include a plurality of subprocessors 4100a, 4100b, and 4100c, a decoder 4200, an imaging device controller 4300, a memory controller 4400, and an internal memory 4500.

AP(4000)는 복수의 이미징 장치들(1100a, 1100b, 1100c)과 분리되어 구현될 수 있다. 예를 들어, AP(4000)와 복수의 이미징 장치들(1100a, 1100b, 1100c)은 별도의 반도체 칩으로 서로 분리되어 구현될 수 있다.The AP 4000 may be implemented separately from the plurality of imaging devices 1100a, 1100b, and 1100c. For example, the AP 4000 and the plurality of imaging devices 1100a, 1100b, and 1100c may be separately implemented as separate semiconductor chips.

각각의 이미징 장치(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터는 서로 분리된 이미지 신호 라인(ISLa, ISLb, ISLc)를 통해 대응되는 서브 프로세서들(4100a, 4100b, 4100c)에 제공될 수 있다. 예를 들어, 제1 이미징 장치(1100a)로부터 생성된 이미지 데이터는 제1 이미지 신호 라인(ISLa)을 통해 제1 서브 프로세서(4100a)에 제공될 수 있고, 제2 이미징 장치(1100b)로부터 생성된 이미지 데이터는 제2 이미지 신호 라인(ISLb)을 통해 제2 서브 프로세서(4100b)에 제공되고, 제3 이미징 장치(1100c)로부터 생성된 이미지 데이터는 제3 이미지 신호 라인(ISLc)을 통해 제3 서브 프로세서(4100c)에 제공될 수 있다. 이러한 이미지 데이터 전송은 예를 들어, MIPI(Mobile Industry Processor Interface)에 기반한 카메라 직렬 인터페이스(CSI; Camera Serial Interface)를 이용하여 수행될 수 있으나, 실시예들이 이에 제한되는 것은 아니다. Image data generated from each of the imaging devices 1100a, 1100b, and 1100c may be provided to corresponding sub-processors 4100a, 4100b, and 4100c through image signal lines ISLa, ISLb, and ISLc separated from each other. For example, image data generated by the first imaging device 1100a may be provided to the first sub-processor 4100a through the first image signal line ISLa, and image data generated by the second imaging device 1100b may be provided. Image data is provided to the second sub-processor 4100b through the second image signal line ISLb, and image data generated from the third imaging device 1100c is provided to the third sub-processor 4100b through the third image signal line ISLc. It may be provided to the processor 4100c. Such image data transmission may be performed using, for example, a Camera Serial Interface (CSI) based on MIPI (Mobile Industry Processor Interface), but embodiments are not limited thereto.

예시적 실시예에서, 하나의 서브 프로세서가 복수의 이미징 장치에 대응되도록 배치될 수도 있다. 예를 들어, 제1 서브 프로세서(4100a) 및 제3 서브 프로세서(4100c)가 도시된 것처럼 서로 분리되어 구현되는 것이 아니라 하나의 서브 프로세서로 통합되어 구현되고, 이미징 장치(1100a)와 이미징 장치(1100c)로부터 제공된 이미지 데이터는 선택 소자(예를 들어, 멀티플렉서) 등을 통해 선택된 후, 통합된 서브 이미지 프로세서에 제공될 수 있다.In an exemplary embodiment, one subprocessor may be arranged to correspond to a plurality of imaging devices. For example, the first sub-processor 4100a and the third sub-processor 4100c are not implemented separately from each other as shown, but integrated into one sub-processor, and the imaging device 1100a and the imaging device 1100c are implemented. Image data provided from ) may be selected through a selection element (eg, a multiplexer) and the like, and then provided to the integrated sub image processor.

이미징 장치 컨트롤러(4300)는 각각의 이미징 장치(1100a, 1100b, 1100c)에 제어 신호를 제공할 수 있다. 이미징 장치 컨트롤러(1216)로부터 생성된 제어 신호는 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)를 통해 대응되는 이미징 장치(1100a, 1100b, 1100c)에 제공될 수 있다.The imaging device controller 4300 may provide a control signal to each of the imaging devices 1100a, 1100b, and 1100c. Control signals generated from the imaging device controller 1216 may be provided to the corresponding imaging devices 1100a, 1100b, and 1100c through separate control signal lines CSLa, CSLb, and CSLc.

복수의 이미징 장치들(1100a, 1100b, 1100c) 중 어느 하나는 줌 신호를 포함하는 이미지 생성 정보 또는 모드 신호에 따라 마스터(master) 카메라(예를 들어, 1100b)로 지정되고, 나머지 이미징 장치들(예를 들어, 1100a, 1100c)은 슬레이브(slave) 카메라로 지정될 수 있다. 이러한 정보는 제어 신호에 포함되어, 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)를 통해 대응되는 이미징 장치(1100a, 1100b, 1100c)에 제공될 수 있다.One of the plurality of imaging devices 1100a, 1100b, and 1100c is designated as a master camera (eg, 1100b) according to image generation information including a zoom signal or a mode signal, and the remaining imaging devices ( For example, 1100a and 1100c) may be designated as slave cameras. Such information may be included in a control signal and provided to the corresponding imaging devices 1100a, 1100b, and 1100c through separate control signal lines CSLa, CSLb, and CSLc.

이미징 장치 컨트롤러(4300)의 제어 하에, 마스터 및 슬레이브로서 동작하는 이미징 장치들(1100a, 1100b, 1100c)이 변경될 수 있다. 예를 들어, 제1 이미징 장치(1100a)의 시야각이 제2 이미징 장치(1100b)의 시야각보다 넓고, 줌 팩터가 낮은 줌 배율을 나타낼 경우, 제2 이미징 장치(1100b)가 마스터로서 동작할 수 있고, 제1 이미징 장치(1100a)가 슬레이브로서 동작할 수 있다. 반대로, 줌 팩터가 높은 줌 배율을 나타낼 경우, 제1 이미징 장치(1100a)가 마스터로서 동작하고, 제2 이미징 장치(1100b)가 슬레이브로서 동작할 수 있다.Under the control of the imaging device controller 4300, the imaging devices 1100a, 1100b, and 1100c operating as masters and slaves may be changed. For example, when the viewing angle of the first imaging device 1100a is wider than that of the second imaging device 1100b and the zoom factor indicates a low zoom magnification, the second imaging device 1100b may operate as a master. , the first imaging device 1100a may operate as a slave. Conversely, when the zoom factor indicates a high zoom magnification, the first imaging device 1100a may operate as a master and the second imaging device 1100b may operate as a slave.

예시적 실시예에서, 이미징 장치 컨트롤러(4300)로부터 각각의 이미징 장치(1100a, 1100b, 1100c)에 제공되는 제어 신호는 싱크 인에이블 신호(sync enable) 신호를 포함할 수 있다. 예를 들어, 제2 이미징 장치(1100b)가 마스터 카메라이고, 제1 및 제3 이미징 장치들(1100a, 1100c)이 슬레이브 카메라인 경우, 이미징 장치 컨트롤러(4300)는 제2 이미징 장치(1100b)에 싱크 인에이블 신호를 전송할 수 있다. 이러한 싱크 인에이블 신호를 제공받은 제2 이미징 장치(1100b)는 제공받은 싱크 인에이블 신호를 기초로 싱크 신호(sync signal)를 생성하고, 생성된 싱크 신호를 싱크 신호 라인(SSL)을 통해 제1 및 제3 이미징 장치들(1100a, 1100c)에 제공할 수 있다. 제1 이미징 장치(1100b)와 제2 및 제3 이미징 장치들(1100a, 1100c)은 이러한 싱크 신호에 동기화되어 이미지 데이터를 AP(4000)에 전송할 수 있다.In an exemplary embodiment, a control signal provided from the imaging device controller 4300 to each of the imaging devices 1100a, 1100b, and 1100c may include a sync enable signal. For example, when the second imaging device 1100b is a master camera, and the first and third imaging devices 1100a and 1100c are slave cameras, the imaging device controller 4300 may be configured for the second imaging device 1100b. A sync enable signal may be transmitted. Upon receiving such a sync enable signal, the second imaging device 1100b generates a sync signal based on the provided sync enable signal, and transmits the generated sync signal to the first sync signal line SSL. and the third imaging devices 1100a and 1100c. The first imaging device 1100b and the second and third imaging devices 1100a and 1100c may transmit image data to the AP 4000 in synchronization with the sync signal.

이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As above, exemplary embodiments have been disclosed in the drawings and specifications. Embodiments have been described using specific terms in this specification, but they are only used for the purpose of explaining the technical spirit of the present disclosure, and are not used to limit the scope of the present disclosure described in the meaning or claims. Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical scope of protection of the present disclosure should be determined by the technical spirit of the appended claims.

Claims (10)

복수의 원본 이미지들을 생성하는 이미지 센서; 및
상기 복수의 원본 이미지들에 기초하여 병합 이미지를 생성하기 위한 연산을 수행하는 이미지 프로세서를 포함하고,
상기 이미지 프로세서는
제1 스티칭(stitching) 방향에 기초하여 상기 복수의 원본 이미지들을 복수의 스티칭 그룹들로 분류하고, 동일한 스티칭 그룹에 포함된 원본 이미지들을 스티칭하여 복수의 중간 이미지들을 생성하고, 제2 스티칭 방향에 기초하여 상기 복수의 중간 이미지들을 스티칭하여 상기 병합 이미지를 생성하는 것을 특징으로 하는
이미징 장치.
an image sensor generating a plurality of original images; and
An image processor performing an operation to generate a merged image based on the plurality of original images;
The image processor
Classifying the plurality of original images into a plurality of stitching groups based on a first stitching direction, generating a plurality of intermediate images by stitching original images included in the same stitching group, and based on a second stitching direction characterized in that the merged image is generated by stitching the plurality of intermediate images
imaging device.
제1항에 있어서,
상기 제1 및 제2 스티칭 방향은, 행 방향 또는 열 방향인 것을 특징으로 하는
이미징 장치.
According to claim 1,
Characterized in that the first and second stitching directions are a row direction or a column direction
imaging device.
제2항에 있어서,
상기 이미징 장치는,
방향 및 각도를 포함하는 회전 정보에 따라 회전하여 상기 복수의 원본 이미지들의 시야를 조절하는 광학 장치를 더 포함하고,
상기 이미지 프로세서는,
상기 회전 정보에 기초하여 상기 제1 및 제2 스티칭 방향을 결정하는 것을 특징으로 하는
이미징 장치.
According to claim 2,
The imaging device,
Further comprising an optical device for adjusting the field of view of the plurality of original images by rotating according to rotation information including a direction and an angle,
The image processor,
Characterized in that determining the first and second stitching directions based on the rotation information
imaging device.
제1항에 있어서,
상기 이미지 프로세서는,
상기 동일한 스티칭 그룹에 포함된 원본 이미지들 간의 중첩 영역에서 연산된 변환 매트릭스 및 상기 중첩 영역에서 탐지된 심(seam)에 기초하여 상기 동일한 스티칭 그룹에 포함된 원본 이미지들을 블렌딩(blending)하여 상기 동일한 스티칭 그룹에 포함된 원본 이미지들을 스티칭하는 것을 특징으로 하는
이미징 장치.
According to claim 1,
The image processor,
The same stitching by blending original images included in the same stitching group based on a transformation matrix calculated in an overlapping area between original images included in the same stitching group and a seam detected in the overlapping area. Characterized in that the original images included in the group are stitched
imaging device.
제4항에 있어서,
상기 이미지 프로세서는,
상기 동일한 스티칭 그룹에 포함된 원본 이미지들 간의 중첩 영역 내의 특징점에 기초하여 상기 변환 매트릭스를 연산하는 것을 특징으로 하는
이미징 장치.
According to claim 4,
The image processor,
Characterized in that the transformation matrix is calculated based on feature points in an overlapping area between original images included in the same stitching group
imaging device.
제1항에 있어서,
상기 이미지 프로세서는,
상기 복수의 중간 이미지들 간의 중첩 영역에서 연산된 변환 매트릭스 및 상기 중첩 영역에서 탐지된 심에 기초하여 상기 복수의 중간 이미지들을 블렌딩하여 상기 복수의 중간 이미지들을 스티칭하는 것을 특징으로 하는
이미징 장치.
According to claim 1,
The image processor,
Characterized in that the plurality of intermediate images are stitched by blending the plurality of intermediate images based on a transformation matrix calculated in an overlapping region between the plurality of intermediate images and a seam detected in the overlapping region.
imaging device.
복수의 원본 이미지들에 기초하여 병합 이미지를 생성하는 이미징 장치에 있어서,
상기 원본 이미지의 와핑(warping)에 이용되는 변환 매트릭스 및 상기 원본 이미지에서 불필요한 영역을 나타내는 크로핑(cropping) 영역을 저장하는 메모리;
상기 원본 이미지를 생성하고, 상기 원본 이미지를 상기 변환 매트릭스를 이용하여 와핑하여 와핑 이미지를 생성하고, 상기 와핑 이미지를 상기 크로핑 영역을 이용하여 크로핑하여 크로핑 이미지를 생성하는 이미지 센서; 및
상기 이미지 센서로부터 복수의 크로핑 이미지들을 수신하고, 상기 복수의 크로핑 이미지들을 블렌딩(blending)하여 병합 이미지를 생성하는 이미지 프로세서를 포함하는
이미징 장치.
An imaging device for generating a merged image based on a plurality of original images,
a memory that stores a transformation matrix used for warping the original image and a cropping region representing an unnecessary region in the original image;
an image sensor configured to generate the original image, generate a warped image by warping the original image using the transformation matrix, and generate a cropped image by cropping the warped image using the cropping region; and
An image processor receiving a plurality of cropped images from the image sensor and generating a merged image by blending the plurality of cropped images
imaging device.
제7항에 있어서,
상기 크로핑 영역은, 상기 와핑 이미지에서 상기 병합 이미지의 생성에 이용되지 않는 영역을 포함하도록 연산되는 것을 특징으로 하는
이미징 장치.
According to claim 7,
Characterized in that the cropping area is calculated to include an area not used for generating the merged image in the warping image.
imaging device.
제7항에 있어서,
상기 이미지 센서는 하나의 원본 이미지를 생성하면, 상기 원본 이미지에 기초하여 상기 크로핑 이미지를 생성하여 상기 이미지 프로세서로 상기 크로핑 이미지를 송신하고,
상기 이미지 프로세서는 상기 이미지 센서로부터 수신된 N개(N은 2 이상의 자연수)의 크로핑 이미지들에 기초하여 상기 병합 이미지를 생성하는 것을 특징으로 하는
이미징 장치.
According to claim 7,
When the image sensor generates one original image, the cropped image is generated based on the original image and the cropped image is transmitted to the image processor;
Characterized in that the image processor generates the merged image based on N (N is a natural number of 2 or more) cropping images received from the image sensor
imaging device.
제7항에 있어서,
상기 병합 이미지가 제1 방향 및 제2 방향을 포함하는 양 방향으로 배열된 복수의 원본 이미지들에 기초하여 생성되는 경우, 상기 크로핑 영역은 상기 와핑 이미지를 상기 제1 및 제2 방향 중 선택된 어느 하나의 방향으로 크로핑되도록 설정되는 것을 특징으로 하는
이미징 장치.
According to claim 7,
When the merged image is generated based on a plurality of original images arranged in both directions including a first direction and a second direction, the cropping area converts the warped image to any selected one of the first and second directions. Characterized in that it is set to be cropped in one direction
imaging device.
KR1020220085879A 2021-11-11 2022-07-12 Imaging device KR20230068979A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/978,489 US20230146691A1 (en) 2021-11-11 2022-11-01 Imaging device
CN202211369160.4A CN116132821A (en) 2021-11-11 2022-11-03 Image forming apparatus

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020210155152 2021-11-11
KR20210155151 2021-11-11
KR20210155152 2021-11-11
KR1020210155151 2021-11-11
KR1020220029468 2022-03-08
KR1020220029468A KR20230068954A (en) 2021-11-11 2022-03-08 Imaging device and image processing method

Publications (1)

Publication Number Publication Date
KR20230068979A true KR20230068979A (en) 2023-05-18

Family

ID=86545373

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220085879A KR20230068979A (en) 2021-11-11 2022-07-12 Imaging device

Country Status (1)

Country Link
KR (1) KR20230068979A (en)

Similar Documents

Publication Publication Date Title
US20160295108A1 (en) System and method for panoramic imaging
TWI387936B (en) A video conversion device, a recorded recording medium, a semiconductor integrated circuit, a fish-eye monitoring system, and an image conversion method
WO2015180659A1 (en) Image processing method and image processing device
US20020113865A1 (en) Image processing method and apparatus
JP2010501932A (en) Modeling and texturing of numerical surface models in cartographic applications
JP6500355B2 (en) Display device, display program, and display method
KR101905580B1 (en) Method and system for reproducing situation using mobile device having image shooting function
JP4680104B2 (en) Panorama image creation method
JP5846172B2 (en) Image processing apparatus, image processing method, program, and imaging system
US20210405518A1 (en) Camera system with a plurality of image sensors
CN110213492A (en) Equipment imaging method, device, storage medium and electronic equipment
US11627257B2 (en) Electronic device including image sensor having multi-crop function
JP7368699B2 (en) Image processing device, image communication system, image processing method, and program
US20090059018A1 (en) Navigation assisted mosaic photography
KR20230068979A (en) Imaging device
JP5796611B2 (en) Image processing apparatus, image processing method, program, and imaging system
JP2018109946A (en) Display device, program, and method for display
KR20230068954A (en) Imaging device and image processing method
US10785470B2 (en) Image processing apparatus, image processing method, and image processing system
US20230146691A1 (en) Imaging device
US11948316B2 (en) Camera module, imaging device, and image processing method using fixed geometric characteristics
US20220279127A1 (en) Image signal processor for performing auto zoom and auto focus, image processing method thereof, and image processing system including the image signal processor
JP2019053758A (en) Image processing apparatus
US11869137B2 (en) Method and apparatus for virtual space constructing based on stackable light field
JP6439845B2 (en) Image processing device