KR102599584B1 - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
KR102599584B1
KR102599584B1 KR1020170016114A KR20170016114A KR102599584B1 KR 102599584 B1 KR102599584 B1 KR 102599584B1 KR 1020170016114 A KR1020170016114 A KR 1020170016114A KR 20170016114 A KR20170016114 A KR 20170016114A KR 102599584 B1 KR102599584 B1 KR 102599584B1
Authority
KR
South Korea
Prior art keywords
unit
frames
image
objects
frame
Prior art date
Application number
KR1020170016114A
Other languages
Korean (ko)
Other versions
KR20180091225A (en
Inventor
정형호
김두만
Original Assignee
한화비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사 filed Critical 한화비전 주식회사
Priority to KR1020170016114A priority Critical patent/KR102599584B1/en
Publication of KR20180091225A publication Critical patent/KR20180091225A/en
Application granted granted Critical
Publication of KR102599584B1 publication Critical patent/KR102599584B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 일 실시예에 따른 영상 처리 장치는 카메라에 의해 촬영된 영상 데이터가 입력되는 영상 입력부, 상기 영상 데이터에 포함되는 적어도 하나의 오브젝트를 추출하는 오브젝트 추출부, 상기 적어도 하나의 오브젝트 중 적어도 하나를 선택하는 입력을 제공받는 오브젝트 선택 입력부, 상기 선택된 오브젝트를 중심으로 상기 영상 데이터에 포함된 복수개의 프레임을 재구성하는 프레임 재구성부 및 상기 재구성된 프레임을 이용하여 렌더링하는 렌더링부를 포함한다. An image processing device according to an embodiment of the present invention includes an image input unit for inputting image data captured by a camera, an object extraction unit for extracting at least one object included in the image data, and at least one of the at least one object. It includes an object selection input unit that receives an input for selecting, a frame reconstruction unit that reconstructs a plurality of frames included in the image data centered on the selected object, and a rendering unit that renders using the reconstructed frames.

Figure R1020170016114
Figure R1020170016114

Description

영상 처리 장치{IMAGE PROCESSING APPARATUS}Image processing device {IMAGE PROCESSING APPARATUS}

본 발명은 영상 처리 장치에 관한 것으로, 흔들림이 발생한 영상에서, 선택된 피사체에 대해 흔들림 없는 영상을 생성할 수 있는 영상 처리 장치에 대한 것이다. The present invention relates to an image processing device that can generate a shake-free image for a selected subject from an image in which shaking occurs.

일반적으로, 울퉁불퉁한 도로를 주행하는 자동차에서 영상을 촬영하거나, 익스트림 스포츠를 하면서 영상을 촬영할 때와 같이, 영상을 촬영하는 카메라가 흔들리는 경우, 영상이 흔들려, 피사체의 관찰이 어려우며, 관찰에 상당한 피로감이 발생하는 문제점이 있다. In general, when the camera that captures the video shakes, such as when taking video in a car driving on a bumpy road or taking video while doing extreme sports, the video shakes, making it difficult to observe the subject, and causing considerable fatigue during observation. There is a problem that arises.

종래에는 OIS(Optical Image Stabilization) 엑추에이터를 이용하여 카메라의 흔들림에 대응하는 방향으로 렌즈를 직접 움직여 흔들림 없는 영상을 촬영하거나, DIS(Digital Image Stabilization)를 이용하여 흔들린 영상을 분석하여 흔들림 벡터를 추출하고, 이를 이용하여 흔들린 영상을 소프트웨어적으로 보정하는 방법을 이용하여 흔들림 없는 영상을 생성하였다. Conventionally, an OIS (Optical Image Stabilization) actuator was used to directly move the lens in the direction corresponding to the camera shake to capture a shake-free image, or a shake vector was extracted by analyzing the shaken image using DIS (Digital Image Stabilization). , using this, a shake-free image was created using a software correction method for the shaken image.

그러나, OIS 액추에이터를 이용하는 경우, 카메라 렌즈를 움직일 수 있는 한계가 있어, 상기 한계치 이상의 흔들림이 발생하는 경우, 이를 보정할 수 없는 문제점이 있으며, DIS의 경우, 흔들림 양이 많을 경우, 움직임 벡터 추정 방법이 어려우며 알고리즘이 복잡하여 연산량이 많은 단점이 있다. However, when using an OIS actuator, there is a limit to how much the camera lens can be moved, so if shaking occurs more than the above limit, there is a problem in that it cannot be corrected. In the case of DIS, if the amount of shaking is large, the motion vector estimation method This has the disadvantage of being difficult and requiring a lot of computation due to the complex algorithm.

한국 공개특허등록공보 제10-1467869호Korean Patent Publication No. 10-1467869

본 발명은 상기한 종래 기술의 문제점을 해결하기 위한 것으로써, 영상 데이터에 포함된 오브젝트 중에서 사용자에 의해 선택된 오브젝트를 중심으로 프레임을 재구성하여 렌더링함으로써, 관찰이 필요한 오브젝트에 대하여 흔들림 없는 영상을 생성할 수 있는 영상 처리 장치를 제공한다.The present invention is intended to solve the problems of the prior art described above. By reconstructing and rendering a frame centered on an object selected by the user among the objects included in the image data, it is possible to generate a shake-free image for the object requiring observation. Provides an image processing device that can

본 발명의 일 실시예에 따른 영상 처리 장치는 카메라에 의해 촬영된 영상 데이터가 입력되는 영상 입력부, 상기 영상 데이터에 포함되는 적어도 하나의 오브젝트를 추출하는 오브젝트 추출부, 상기 적어도 하나의 오브젝트 중 적어도 하나를 선택하는 입력을 제공받는 오브젝트 선택 입력부, 상기 영상 데이터에 포함된 복수개의 프레임에서 상기 선택된 오브젝트를 검출하는 오브젝트 검출부, 상기 검출된 오브젝트를 중심으로 상기 복수개의 프레임의 위치를 이동시키고, 상기 위치가 이동된 복수개의 프레임을 합성하여 합성 영상을 생성하는 프레임 재구성부 및 상기 합성된 프레임을 이용하여 렌더링하는 렌더링부를 포함한다.An image processing device according to an embodiment of the present invention includes an image input unit for inputting image data captured by a camera, an object extraction unit for extracting at least one object included in the image data, and at least one of the at least one object. An object selection input unit that receives an input for selecting, an object detection unit that detects the selected object in a plurality of frames included in the image data, moves the position of the plurality of frames around the detected object, and the position is It includes a frame reconstruction unit that synthesizes a plurality of moved frames to generate a composite image, and a rendering unit that renders using the synthesized frames.

일 실시예에서, 상기 프레임 재구성부는 상기 선택된 오브젝트를 화면의 중앙에 위치하도록 프레임의 화각 및 위치를 변경할 수 있다.In one embodiment, the frame reconstruction unit may change the angle of view and position of the frame to place the selected object in the center of the screen.

일 실시예에서, 상기 오브젝트 선택 입력부를 통해 상기 적어도 하나의 오브젝트 중 어느 하나가 선택되면, 상기 선택된 오브젝트에 대한 생성 또는 소멸 시간에 관한 정보를 추출하여 표시하는 오브젝트 정보 표시부를 더 포함할 수 있다.In one embodiment, when one of the at least one object is selected through the object selection input unit, the display may further include an object information display unit that extracts and displays information about a creation or extinction time for the selected object.

일 실시예에서, 상기 오브젝트 추출부에서 추출된 오브젝트가 복수개이며, 상기 오브젝트 선택 입력부에 의해 복수개의 오브젝트가 선택된 경우, 상기 프레임 재구성부는, 상기 선택된 복수개의 오브젝트 각각에 대하여, 상기 영상 데이터에 포함된 복수개의 프레임을 재구성할 수 있으며, 상기 렌더링부는, 상기 오브젝트의 개수에 따라 화면을 분할하여 상기 복수개의 프레임을 렌더링할 수 있다.In one embodiment, when there are a plurality of objects extracted by the object extraction unit and a plurality of objects are selected by the object selection input unit, the frame reconstruction unit, for each of the selected plurality of objects, includes a plurality of objects included in the image data. A plurality of frames can be reconstructed, and the rendering unit can divide the screen according to the number of objects and render the plurality of frames.

여기서, 상기 프레임 재구성부는 상기 선택된 오브젝트를 다른 오브젝트에 비해 상기 각각 분할된 프레임 내의 중앙에 위치하도록 상기 복수개의 프레임을 재구성할 수 있다.Here, the frame reconstruction unit may reconstruct the plurality of frames so that the selected object is located in the center of each divided frame compared to other objects.

본 발명의 일 실시형태에 의하면, 영상 데이터에 포함된 오브젝트 중에서 사용자에 의해 선택된 오브젝트를 중심으로 프레임을 재구성하여 렌더링함으로써, 관찰이 필요한 오브젝트에 대하여 흔들림 없는 영상을 생성할 수 있는 효과가 있다. According to one embodiment of the present invention, there is an effect of generating a shake-free image for an object requiring observation by reconstructing and rendering a frame centered on an object selected by the user among objects included in image data.

도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 설명하기 위한 구성도이다.
도 2는 본 발명의 다른 일 실시예에 따른 영상 처리 장치를 설명하기 위한 구성도이다.
도 3은 영상 데이터에 포함된 복수개의 프레임을 설명하기 위한 도면이다.
도 4는 도 1의 프레임 재구성부의 동작의 일 실시예를 설명하기 위한 도면이다.
도 5는 도 2의 오브젝트 정보 표시부의 일 실시예를 설명하기 위한 도면이다.
도 6은 오브젝트가 복수개인 경우를 설명하기 위한 도면이다.
도 7은 복수개의 오브젝트가 선택된 경우, 렌더링부의 동작의 일 실시예를 설명하기 위한 도면이다.
1 is a configuration diagram for explaining an image processing device according to an embodiment of the present invention.
Figure 2 is a configuration diagram for explaining an image processing device according to another embodiment of the present invention.
Figure 3 is a diagram for explaining a plurality of frames included in video data.
FIG. 4 is a diagram for explaining an embodiment of the operation of the frame reconstruction unit of FIG. 1.
FIG. 5 is a diagram for explaining an embodiment of the object information display unit of FIG. 2.
Figure 6 is a diagram for explaining a case where there are multiple objects.
Figure 7 is a diagram for explaining an example of the operation of the rendering unit when a plurality of objects are selected.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 형태들을 설명한다. Hereinafter, preferred embodiments of the present invention will be described with reference to the attached drawings.

그러나, 본 발명의 실시형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시 형태로 한정되는 것은 아니다. 또한, 본 발명의 실시형태는 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다.However, the embodiments of the present invention may be modified into various other forms, and the scope of the present invention is not limited to the embodiments described below. Additionally, the embodiments of the present invention are provided to more completely explain the present invention to those with average knowledge in the relevant technical field.

본 발명에 참조된 도면에서 실질적으로 동일한 구성과 기능을 가진 구성요소들은 동일한 부호가 사용될 것이며, 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In the drawings referenced in the present invention, components having substantially the same configuration and function will be given the same symbols, and the shapes and sizes of elements in the drawings may be exaggerated for clearer description.

도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 설명하기 위한 구성도이며, 도 2는 본 발명의 다른 일 실시예에 따른 영상 처리 장치를 설명하기 위한 구성도이다.FIG. 1 is a configuration diagram for explaining an image processing device according to an embodiment of the present invention, and FIG. 2 is a configuration diagram for explaining an image processing device according to another embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 처리 장치(20)는 영상 입력부(100), 오브젝트 추출부(200), 오브젝트 선택 입력부(300), 오브젝트 검출부(400) 프레임 재구성부(500) 및 렌더링부(600)를 포함할 수 있다. Referring to FIG. 1, the image processing device 20 according to an embodiment of the present invention includes an image input unit 100, an object extraction unit 200, an object selection input unit 300, an object detection unit 400, and a frame reconstruction unit ( 500) and a rendering unit 600.

일 실시예에서, 영상 처리 장치(20)는, 도 2에서와 같이, 오브젝트 정보 표시부(700)를 더 포함할 수 있다. In one embodiment, the image processing device 20 may further include an object information display unit 700, as shown in FIG. 2 .

영상 입력부(100)는 카메라(10)에 의해 촬영된 영상 데이터가 입력될 수 있다. 여기서, 영상 입력부(100)는 상기 영상 데이터를 오브젝트 추출부(200)로 전달할 수 있다. 영상 입력부(100)는 피사체로부터 영상 신호를 수신하는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor)와 같은 영상 획득 소자로 구성될 수 있다. 또한, 상기 영상 신호는 RGB, YUV 등 3가지 색성분으로 표현되는 디지털 신호일 수 있다.Image data captured by the camera 10 may be input to the image input unit 100 . Here, the image input unit 100 may transmit the image data to the object extractor 200. The image input unit 100 may be composed of an image acquisition device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) that receives an image signal from a subject. Additionally, the image signal may be a digital signal expressed in three color components, such as RGB and YUV.

오브젝트 추출부(200)는 영상 입력부(100)로부터 전달된 영상 데이터를 분석하여, 상기 영상 데이터에 포함되는 적어도 하나의 오브젝트를 추출할 수 있다. 일 실시예에서, 오브젝트 추출부(200)는 영상 데이터에 포함된 오브젝트 중 기 설정된 조건을 만족하는 오브젝트만 추출하도록 설정할 수 있다. 여기서, 추출된 적어도 하나의 오브젝트들은 사용자의 선택을 위해 화면에 표시될 수 있다. 오브젝트 추출부(200)는 단일 영상을 이용하여 오브젝트 각각에 대한 특성 정보(feature information)를 추출할 수 있다. 예를 들어, 오브젝트 검출부(130)에 포함된 특성 정보 추출 기능을 별도의 칩에서 수행하는 것도 가능하다. 오브젝트 추출부(100)에서 수행되는 기능들은 통합 영상보다는 단일 영상을 이용하여 수행되는 것이 적합하다.The object extractor 200 may analyze image data transmitted from the image input unit 100 and extract at least one object included in the image data. In one embodiment, the object extractor 200 may be set to extract only objects that satisfy preset conditions among objects included in image data. Here, at least one extracted object may be displayed on the screen for the user to select. The object extractor 200 can extract feature information for each object using a single image. For example, it is possible to perform the characteristic information extraction function included in the object detection unit 130 on a separate chip. The functions performed by the object extraction unit 100 are preferably performed using a single image rather than a combined image.

오브젝트 선택 입력부(300)는 오브젝트 추출부(200)에 의해 추출된 적어도 하나의 오브젝트 중 적어도 하나의 오브젝트를 선택하는 입력을 제공받을 수 있다. 여기서, 오브젝트 선택 입력부(300)는 키패드, 마우스, 터치패드 등과 같이 복수개의 오브젝트 중 적어도 하나를 선택할 수 있는 입력을 제공받을 수 있는 다양한 입력 수단을 포함하여 구현될 수 있다. 오브젝트 선택 입력부(300)는 선택된 오브젝트에 대한 정보를 프레임 재구성부(500)로 전송할 수 있다.The object selection input unit 300 may receive an input for selecting at least one object among at least one object extracted by the object extraction unit 200. Here, the object selection input unit 300 may be implemented by including various input means that can receive input for selecting at least one of a plurality of objects, such as a keypad, mouse, touchpad, etc. The object selection input unit 300 may transmit information about the selected object to the frame reconstruction unit 500.

오브젝트 검출부(400)는 영상 입력부(100)를 통해 입력된 영상 데이터에 포함된 복수개의 프레임 각각에서, 오브젝트 선택 입력부(300)에 의해 선택된 오브젝트를 검출할 수 있다. 여기서, 오브젝트 검출부(400)는 오브젝트 추출부(100)에서 추출한 오브젝트의 위치를 추적함으로써 검출할 수 있다. 여기서, 오브젝트 검출부(400)는 연산량을 줄이기 위하여 패턴 매칭(pattern matching) 알고리즘 또는 광흐름 검출기(optical detector)를 사용하여, 오브젝트의 위치를 추적할 수 있다. 또한, 추적과정에서 발생하는 누적 오차를 제거하기 위하여, 오브젝트 검출부(400)는 기 설정된 주기마다 단일 영상을 이용하여 위치 정보를 보정할 수 있다. The object detection unit 400 may detect the object selected by the object selection input unit 300 from each of a plurality of frames included in the image data input through the image input unit 100. Here, the object detection unit 400 can detect the object extracted by the object extraction unit 100 by tracking its location. Here, the object detector 400 may track the location of the object using a pattern matching algorithm or an optical detector to reduce the amount of calculation. Additionally, in order to remove cumulative errors occurring during the tracking process, the object detector 400 may correct location information using a single image at each preset period.

프레임 재구성부(500)는 오브젝트 검출부(400)에 의해 검출된 오브젝트를 중심으로 영상 데이터에 포함된 복수개의 프레임의 위치를 이동시키고, 상기 위치가 이동된 복수개의 프레임을 합성하여 합성 영상을 생성할 수 있다. 일 실시예에서, 프레임 재구성부(500)는 상기 영상 데이터를 표시할 화면에서, 상기 선택된 오브젝트를 기 설정된 좌표(예컨대, 화면의 중심)에 고정되도록 상기 복수개의 프레임들의 화각 및 위치를 각각 변경할 수 있다. 이에 따라, 합성된 영상은 전체 화면 영역 내에서 일부 영역이 될 수 있고, 합성된 영상의 수가 증가할수록 전체 화면 영역에서 가시 영역이 점점 넓어지게 될 수 있다. 여기서, 합성된 영상의 수는 소정의 시간 간격, 또는 프레임의 수로 정의될 수 있다. The frame reconstruction unit 500 moves the positions of a plurality of frames included in the image data around the object detected by the object detection unit 400, and synthesizes the plurality of frames whose positions have been moved to generate a composite image. You can. In one embodiment, the frame reconstruction unit 500 may change the angle of view and position of each of the plurality of frames so that the selected object is fixed to a preset coordinate (e.g., the center of the screen) on the screen to display the image data. there is. Accordingly, the synthesized image may become a partial area within the entire screen area, and as the number of synthesized images increases, the visible area may gradually become wider in the entire screen area. Here, the number of synthesized images may be defined as a predetermined time interval or the number of frames.

또한, 상기 합성 영상 내에 복수의 오브젝트가 존재하고, 이 중에서 오브젝트 선택 입력부(300)에 의해 하나의 오브젝트가 선택되는 경우, 프레임 재구성부(500)는 나머지 오브젝트를 음영으로 표시하거나 깜빡이는 방식으로 표시할 수 있다. In addition, when a plurality of objects exist in the composite image, and one object is selected by the object selection input unit 300, the frame reconstruction unit 500 displays the remaining objects in shading or blinking. can do.

또한, 프레임 재구성부(500)는 상기 합성영상 내에 복수의 오브젝트가 존재하고, 이 중에서 어느 하나의 오브젝트를 선택한 후, 다른 오브젝트를 선택할 경우, 화면의 중심이 상기 다른 오브젝트를 중심으로 변경되도록 할 수 있다. In addition, the frame reconstruction unit 500 can change the center of the screen around the other object when a plurality of objects exist in the composite image and select one object among them and then select another object. there is.

또한, 프레임 재구성부(500)는 상기 오브젝트가 등장하는 최초의 프레임을 I-프레임으로 저장하고, 상기 I-프레임 이후의 프레임들은 상기 선택된 오브젝트에 대한 정보 또는 새로 등장하는 오브젝트에 대한 정보만을 포함하는 P-프레임으로 저장할 수 있으며, 상기 선택된 오브젝트 또는 새로 등장하는 오브젝트를 제외한 오브젝트들은 단색으로 처리할 수 있다. In addition, the frame reconstruction unit 500 stores the first frame in which the object appears as an I-frame, and frames after the I-frame contain only information about the selected object or information about the newly appearing object. It can be saved as a P-frame, and objects other than the selected object or newly appearing object can be processed in a single color.

또한, 프레임 재구성부(500)는 오브젝트 선택 입력부(300)에 의해 복수개의 오브젝트가 선택된 경우, 상기 선택된 오브젝트의 개수에 따라 화면을 분할하여, 상기 선택된 복수개의 오브젝트 각각에 대하여 프레임을 재구성하고, 이를 해당 위치에 배치할 수 있다. In addition, when a plurality of objects are selected by the object selection input unit 300, the frame reconstruction unit 500 divides the screen according to the number of selected objects, reconstructs a frame for each of the selected plurality of objects, and It can be placed at the appropriate location.

렌더링부(600)는 프레임 재구성부(500)에 의해 합성된 프레임을 기초로 렌더링하여 상기 합성된 영상을 재생할 수 있다. The rendering unit 600 may render the synthesized image based on the frame synthesized by the frame reconstruction unit 500 and reproduce the synthesized image.

도 3은 영상 데이터에 포함된 복수개의 프레임을 설명하기 위한 도면이며, 도 4는 도 1의 프레임 재구성부의 동작의 일 실시예를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a plurality of frames included in video data, and FIG. 4 is a diagram for explaining an embodiment of the operation of the frame reconstruction unit of FIG. 1.

일 실시예에서, 카메라(10)가 촬영 중 흔들리면, 상기 카메라(10)가 흔들리는 동안 촬영된 영상이 흔들려 관찰이 필요한 피사체의 관찰이 어려우며, 상당한 피로감이 발생하게 된다.In one embodiment, if the camera 10 is shaken during filming, the image captured while the camera 10 is shaken is shaken, making it difficult to observe a subject that needs to be observed, and causing significant fatigue.

본 발명은 이와 같은 문제점을 해결하기 위한 것으로, 관찰이 필요한 오브젝트를 사용자가 선택하면, 상기 오브젝트를 중심으로 프레임을 재구성함으로써, 상기 선택된 오브젝트에 대하여 흔들림 없는 영상을 생성할 수 있다. The present invention is intended to solve this problem. When a user selects an object that needs to be observed, the frame is reconstructed around the object, thereby creating a shake-free image for the selected object.

일 실시예에서, 촬영 도중 카메라(10)가 흔들리게 되면, 도 3에서와 같이, 영상 입력부(100)를 통해 입력되는 영상 데이터에 포함되는 복수개의 프레임들은 상, 하 또는 좌, 우로 흔들린 이미지를 포함할 수 있다. In one embodiment, when the camera 10 is shaken during shooting, as shown in FIG. 3, a plurality of frames included in the image data input through the video input unit 100 produce images that are shaken up and down or left and right. It can be included.

이 경우, 오브젝트 추출부(200)는 제1 오브젝트(1), 제2 오브젝트(2) 및 제3 오브젝트(3)를 추출할 수 있다. 여기서, 오브젝트 선택 입력부(300)를 통해 제1 오브젝트(1)가 선택되면, 프레임 재구성부(500)는, 도 4에서와 같이, 제1 오브젝트(1)를 화면(d)의 기 설정된 위치(예컨대, 화면(d)의 정중앙)에 오도록 제1 프레임(a) 제2 프레임(b) 및 제3 프레임(c)의 화각과 위치를 변경할 수 있다. 여기서, 렌더링부(600)는 상기 재구성된 프레임에 따라 렌더링하여 제1 오브젝트(1)에 대해 흔들림 없는 영상을 생성할 수 있다. In this case, the object extractor 200 may extract the first object 1, the second object 2, and the third object 3. Here, when the first object 1 is selected through the object selection input unit 300, the frame reconstruction unit 500 moves the first object 1 to a preset position (d) on the screen d, as shown in FIG. 4. For example, the angle of view and position of the first frame (a), the second frame (b), and the third frame (c) can be changed so that they are in the exact center of the screen (d). Here, the rendering unit 600 may generate a shake-free image for the first object 1 by rendering according to the reconstructed frame.

여기서, 합성된 영상(프레임 a, b, c)은 전체 화면 영역(d) 내에서 일부 영역이 될 수 있고, 합성된 영상의 수가 증가할수록 전체 화면 영역에서 가시 영역이 점점 넓어지게 될 수 있다. 여기서, 합성된 영상의 수는 소정의 시간 간격, 또는 프레임의 수로 정의될 수 있다. Here, the synthesized image (frames a, b, c) may be a partial area within the entire screen area (d), and as the number of synthesized images increases, the visible area may gradually become wider in the entire screen area. Here, the number of synthesized images may be defined as a predetermined time interval or the number of frames.

또한, 상기 합성 영상 내에 복수의 오브젝트(1, 2, 3)가 존재하고, 이 중에서 오브젝트 선택 입력부(300)에 의해 하나의 오브젝트(1)가 선택되는 경우, 프레임 재구성부(500)는 나머지 오브젝트(2, 3)를 음영으로 표시하거나 깜빡이는 방식으로 표시할 수 있다. In addition, when a plurality of objects (1, 2, and 3) exist in the composite image, and one object (1) is selected by the object selection input unit 300, the frame reconstruction unit 500 selects the remaining objects. (2, 3) can be displayed in shading or blinking.

도 5는 도 2의 오브젝트 정보 표시부의 일 실시예를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining an embodiment of the object information display unit of FIG. 2.

도 5를 참조하면, 오브젝트 정보 표시부(300)는 오브젝트 선택 입력부(300)를 통해 선택된 오브젝트에 대한 정보를 표시할 수 있다. 여기서, 상기 오브젝트에 대한 정보는 예컨대, 오브젝트가 발생한 시간, 날짜, 위치 및 상기 오브젝트가 사라진 시간, 날짜, 위치에 대한 정보를 포함할 수 있다. Referring to FIG. 5 , the object information display unit 300 may display information about an object selected through the object selection input unit 300. Here, the information about the object may include, for example, information about the time, date, and location when the object occurred and the time, date, and location when the object disappeared.

일 실시예에서, 오브젝트 선택 입력부(300)를 통해 제1 오브젝트(1)가 선택된 경우, 프레임 재구성부(500)는 제1 오브젝트(1)를 중심으로 프레임을 재구성하되, I-프레임(도 5에서는 제1 프레임(a))에 포함되지 않은 오브젝트(2)가 이후의 프레임(도 5에서는 제2 프레임(b))에서 발견되는 경우, 상기 오브젝트(2)를 관심 오브젝트로 분류할 수 있으며, 렌더링부(600)는 새롭게 발견된 관심 오브젝트(2)를 하이라이트 처리하거나, 관심 오브젝트(2) 영역을 깜빡이면서 표시하도록 처리할 수 있다. In one embodiment, when the first object 1 is selected through the object selection input unit 300, the frame reconstruction unit 500 reconstructs the frame centered on the first object 1, but uses an I-frame (FIG. 5 If an object 2 that is not included in the first frame (a)) is found in a subsequent frame (second frame (b) in FIG. 5), the object 2 may be classified as an object of interest, The rendering unit 600 may highlight the newly discovered object of interest 2 or display the area of the object of interest 2 by blinking.

도 6은 오브젝트가 복수개인 경우를 설명하기 위한 도면이며, 도 7은 복수개의 오브젝트가 선택된 경우, 렌더링부의 동작의 일 실시예를 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining a case where there are multiple objects, and FIG. 7 is a diagram for explaining an embodiment of the operation of the rendering unit when multiple objects are selected.

도 6을 참조하면, 영상 입력부(100)를 통해 입력되는 영상 데이터는 복수개의 오브젝트(1. 2. 3)를 포함할 수 있다. 여기서, 프레임 재구성부(500)는 오브젝트 선택 입력부(300)를 통해 선택된 오브젝트를 중심으로 프레임을 재구성하되, 복수개의 오브젝트가 선택되는 경우, 도 7에서와 같이, 상기 선택된 오브젝트 각각에 대하여 프레임을 재구성 할 수 있으며, 렌더링부(600)는 상기 선택된 오브젝트(1, 2, 3)의 개수에 따라 화면(d)을 분할하여 상기 오브젝트별 재구성된 프레임을 이용하여 영상을 생성할 수 있다. 예컨대, 제1 분할화면(d1)에서는 제1 오브젝트(1)가 제1 분할화면(d1)의 중심에 위치하도록 프레임을 재구성할 수 있다. 이와 마찬가지로, 제2 오브젝트(2)가 제2 분할화면(d2)의 중심에 위치하도록 프레임을 재구성할 수 있으며, 제3 오브젝트(3)가 제3 분할화면(d3)의 중심에 위치하도록 프레임을 재구성할 수 있다.Referring to FIG. 6, image data input through the image input unit 100 may include a plurality of objects (1, 2, 3). Here, the frame reconstruction unit 500 reconstructs the frame around the object selected through the object selection input unit 300, and when a plurality of objects are selected, it reconstructs the frame for each of the selected objects, as shown in FIG. 7. This can be done, and the rendering unit 600 can divide the screen d according to the number of the selected objects 1, 2, and 3 and generate an image using the reconstructed frame for each object. For example, in the first split screen d1, the frame can be reorganized so that the first object 1 is located at the center of the first split screen d1. Likewise, the frame can be reorganized so that the second object 2 is located at the center of the second split screen d2, and the frame can be reorganized so that the third object 3 is located at the center of the third split screen d3. It can be reconstructed.

여기서, 비록 도시되진 않았지만, 오브젝트 정보 표시부(700)는 제1 오브젝트(1)에 대한 영상을 재생하는 제1 분할화면(d1)에는 제1 오브젝트(1)에 대한 정보를 표시할 수 있고, 제2 오브젝트(2)에 대한 영상을 재생하는 제2 분할화면(d2)에는 제2 오브젝트(2)에 대한 정보를 표시할 수 있으며, 제3 오브젝트(3)에 대한 영상을 재생하는 제3 분할화면(d3)에는 제3 오브젝트(3)에 대한 정보를 표시할 수 있다. Here, although not shown, the object information display unit 700 can display information about the first object 1 on the first split screen d1 that plays the image about the first object 1, and The second split screen (d2) that plays the image for the second object (2) can display information about the second object (2), and the third split screen that plays the image for the third object (3) In (d3), information about the third object 3 can be displayed.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고 후술하는 특허청구범위에 의해 한정되며, 본 발명의 구성은 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 그 구성을 다양하게 변경 및 개조할 수 있다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다.The present invention described above is not limited by the above-described embodiments and the accompanying drawings, but is limited by the scope of the patent claims described below, and the configuration of the present invention can be varied within the scope without departing from the technical spirit of the present invention. Those skilled in the art can easily see that changes and modifications can be made.

10: 카메라
20: 영상 처리 장치
100: 영상 입력부
200: 오브젝트 추출부
300: 오브젝트 선택 입력부
400: 프레임 재구성부
500: 렌더링부
600: 오브젝트 정보 표시부
10: Camera
20: Image processing device
100: Video input unit
200: Object extraction unit
300: Object selection input unit
400: frame reconstruction unit
500: Rendering unit
600: Object information display unit

Claims (5)

카메라에 의해 촬영된 영상 데이터가 입력되는 영상 입력부;
상기 영상 데이터에 포함되는 적어도 하나의 오브젝트를 추출하는 오브젝트 추출부;
상기 적어도 하나의 오브젝트 중 관찰이 필요한 적어도 하나의 오브젝트를 선택하는 입력을 제공받는 오브젝트 선택 입력부;
상기 영상 데이터에 포함된 복수개의 프레임에서, 상기 복수개의 프레임에 포함된 적어도 하나의 오브젝트 중 상기 선택된 오브젝트를 검출하는 오브젝트 검출부;
상기 검출된 오브젝트를 중심으로 상기 복수개의 프레임의 위치를 이동시키고, 상기 위치가 이동된 복수개의 프레임을 합성하여 합성 영상을 생성하는 프레임 재구성부; 및
상기 합성된 프레임을 이용하여 렌더링하는 렌더링부;
를 포함하되,
상기 프레임 재구성부는 상기 검출된 오브젝트가 화면의 사전에 설정된 위치에 배치되는 것이 유지되도록 상기 복수의 프레임의 화각 및 위치를 변경하는 영상 처리 장치.
An image input unit where image data captured by a camera is input;
an object extraction unit that extracts at least one object included in the image data;
an object selection input unit that receives an input for selecting at least one object that needs to be observed among the at least one object;
an object detector detecting the selected object among at least one object included in the plurality of frames, from a plurality of frames included in the image data;
a frame reconstruction unit that moves the positions of the plurality of frames around the detected object and synthesizes the plurality of frames whose positions have been moved to generate a composite image; and
a rendering unit that renders using the synthesized frame;
Including,
The frame reconstruction unit is configured to change the angle of view and position of the plurality of frames so that the detected object is maintained at a preset position on the screen.
삭제delete 제1항에 있어서,
상기 오브젝트 선택 입력부를 통해 상기 적어도 하나의 오브젝트 중 어느 하나가 선택되면, 상기 선택된 오브젝트에 대한 생성 또는 소멸 시간에 관한 정보를 추출하여 표시하는 오브젝트 정보 표시부; 를 더 포함하는 영상 처리 장치.
According to paragraph 1,
an object information display unit that, when one of the at least one object is selected through the object selection input unit, extracts and displays information about a creation or destruction time of the selected object; An image processing device further comprising:
제1항에 있어서,
상기 오브젝트 추출부에서 추출된 오브젝트가 복수개이며, 상기 오브젝트 선택 입력부에 의해 복수개의 오브젝트가 선택된 경우,
상기 프레임 재구성부는, 상기 선택된 복수개의 오브젝트 각각에 대하여, 상기 영상 데이터에 포함된 복수개의 프레임을 재구성하며,
상기 렌더링부는, 상기 오브젝트의 개수에 따라 상기 화면을 분할하여 상기 복수개의 프레임을 렌더링하는 영상 처리 장치.
According to paragraph 1,
When there are a plurality of objects extracted from the object extraction unit and a plurality of objects are selected by the object selection input unit,
The frame reconstruction unit reconstructs a plurality of frames included in the image data for each of the plurality of selected objects,
The rendering unit divides the screen according to the number of objects and renders the plurality of frames.
제4항에 있어서, 상기 프레임 재구성부는,
상기 선택된 오브젝트를 다른 오브젝트에 비해 상기 각각 분할된 프레임 내의 중앙에 위치하도록 상기 복수개의 프레임을 재구성하는 영상 처리 장치.
The method of claim 4, wherein the frame reconstruction unit,
An image processing device that reconstructs the plurality of frames so that the selected object is located in the center of each divided frame compared to other objects.
KR1020170016114A 2017-02-06 2017-02-06 Image processing apparatus KR102599584B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170016114A KR102599584B1 (en) 2017-02-06 2017-02-06 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170016114A KR102599584B1 (en) 2017-02-06 2017-02-06 Image processing apparatus

Publications (2)

Publication Number Publication Date
KR20180091225A KR20180091225A (en) 2018-08-16
KR102599584B1 true KR102599584B1 (en) 2023-11-06

Family

ID=63443762

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170016114A KR102599584B1 (en) 2017-02-06 2017-02-06 Image processing apparatus

Country Status (1)

Country Link
KR (1) KR102599584B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186646A1 (en) * 2021-03-05 2022-09-09 삼성전자 주식회사 Electronic device for image generation, and operating method of electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006191305A (en) * 2005-01-05 2006-07-20 Mitsubishi Electric Corp Mobile terminal device with camera
JP2008271240A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2011096134A (en) * 2009-10-30 2011-05-12 Olympus Imaging Corp Moving image forming device and moving image forming method
KR101397453B1 (en) * 2013-12-24 2014-05-20 렉스젠(주) System for monitoring an image and method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101467869B1 (en) 2008-03-26 2014-12-02 삼성전자주식회사 Digital image processing apparatus which display the degree of image blurring and the controlling method of the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006191305A (en) * 2005-01-05 2006-07-20 Mitsubishi Electric Corp Mobile terminal device with camera
JP2008271240A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2011096134A (en) * 2009-10-30 2011-05-12 Olympus Imaging Corp Moving image forming device and moving image forming method
KR101397453B1 (en) * 2013-12-24 2014-05-20 렉스젠(주) System for monitoring an image and method thereof

Also Published As

Publication number Publication date
KR20180091225A (en) 2018-08-16

Similar Documents

Publication Publication Date Title
US9692995B2 (en) Flare detection and mitigation in panoramic images
CN104796594B (en) Method for instantly presenting special effect of preview interface and terminal equipment
JP5803467B2 (en) Image processing apparatus, imaging apparatus, and image processing method
WO2016019770A1 (en) Method, device and storage medium for picture synthesis
KR101773887B1 (en) Infrared resolution and contrast enhancement with fusion
JP5472506B2 (en) Tracking imaging system and imaging control method for a plurality of moving objects
US11839721B2 (en) Information processing apparatus, information processing method, and storage medium
JP2012186593A5 (en)
JP2019067130A (en) Image processing device, image processing system, image processing method, and program
JP2019068117A5 (en) Image processing device and image processing method, imaging device
US9451165B2 (en) Image processing apparatus
JP6611531B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2012100116A (en) Display processing device, display processing method, and program
KR102599584B1 (en) Image processing apparatus
JP6375138B2 (en) Purple fringe removal processing method and purple fringe removal processing apparatus performing the processing
JP2018191053A5 (en)
JP5300413B2 (en) Motion vector detection device, motion vector detection method, imaging device, and program
JP2014147047A (en) Image processing device, method, and program, and image pickup device
JP6348020B2 (en) Image processing apparatus, image processing method, and inspection method using the same
JP2014199508A (en) Image processing apparatus, image processing method, and program
JP2018160235A5 (en)
JP4802253B2 (en) Image processing apparatus and shadow removal processing program
US20190171887A1 (en) Information processing device, information processing method, and storage medium
JP6694760B2 (en) Image synthesizing device and image synthesizing program
KR100828194B1 (en) Apparatus and method for deciding a blurriness of digital pictures, and system for image processing using the same

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant