KR101340308B1 - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR101340308B1
KR101340308B1 KR1020120061431A KR20120061431A KR101340308B1 KR 101340308 B1 KR101340308 B1 KR 101340308B1 KR 1020120061431 A KR1020120061431 A KR 1020120061431A KR 20120061431 A KR20120061431 A KR 20120061431A KR 101340308 B1 KR101340308 B1 KR 101340308B1
Authority
KR
South Korea
Prior art keywords
image
subject
background image
unit
information
Prior art date
Application number
KR1020120061431A
Other languages
English (en)
Inventor
구선회
Original Assignee
주식회사 마이씨에프
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 마이씨에프 filed Critical 주식회사 마이씨에프
Priority to KR1020120061431A priority Critical patent/KR101340308B1/ko
Priority to PCT/KR2013/006896 priority patent/WO2013183978A1/ko
Application granted granted Critical
Publication of KR101340308B1 publication Critical patent/KR101340308B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 영상 처리 장치 및 방법에 관한 것으로서, 보다 상세하게는 동영상을 인코딩할 필요 없이 동영상 데이터 용량을 줄일 수 있고, 또한 동영상의 데이터 분석을 용이하게 할 수 있는 영상 처리 장치 및 방법에 관한 것이다.
본 발명의 실시예에 따른 영상 처리 장치는, 영상 프레임이 순차적으로 입력되는 영상 입력부; 상기 영상 입력부를 통해 입력되는 영상 프레임에서 움직이는 피사체 혹은 특정 피사체를 감지하여 추출하는 피사체 추출부; 상기 영상 프레임에서 상기 피사체 추출부에 의해 추출된 피사체를 제외한 나머지 영역인 배경 영상을 이미지로 추출하는 배경 영상 추출부; 상기 피사체 추출부 및 상기 배경 영상 추출부에서 각각 추출된 피사체 및 배경 영상을 객체화시키고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하는 객체 생성부; 상기 객체화된 피사체 및 배경 영상이 저장되는 제1 저장부; 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보가 저장되는 데이터베이스를 갖는 제2 저장부; 및 상기 영상 입력부를 통해 입력되는 영상 프레임에서 상기 피사체 및 배경 영상을 추출하여 객체화시키고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하도록 상기 피사체 추출부, 상기 배경 영상 추출부, 상기 객체 생성부를 제어하는 한편, 상기 객체화된 피사체 및 배경 영상을 상기 제1 저장부에 저장하고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 상기 제2 저장부의 데이터베이스에 저장하는 제어부를 포함한다.

Description

영상 처리 장치 및 방법{Video processing apparatus and method}
본 발명은 영상 처리 장치 및 방법에 관한 것으로서, 보다 상세하게는 동영상을 인코딩할 필요 없이 동영상 데이터 용량을 줄일 수 있고, 또한 동영상의 데이터 분석을 용이하게 할 수 있는 영상 처리 장치 및 방법에 관한 것이다.
일반적으로, 영화, 애니메이션 등의 대용량의 동영상 파일은 파일의 크기가 방대하므로 유무선 인터넷으로 실시간 시청하기 어려우며, 장시간에 걸쳐 다운로드하여 시청하게 된다. 대용량의 동영상 파일을 다운로드하는 데는 많은 시간이 소요되고 컴퓨터에도 많은 저장 공간이 필요하다.
또한, 장시간 촬영되는 감시 카메라의 경우, 시간이 길어질수록 촬영된 영상의 데이터 용량이 커져 지속적으로 영상 파일을 저장하는 데 한계가 있다.
이런 문제를 해결하기 위하여, MPEG(Moving Picture Experts Group) 등과 같이 압축 기술을 이용하여 동영상의 모든 프레임 영상을 압축 규약에 따라 압축하여 전체 파일 크기를 줄이는 방법이 개시되었다.
그러나, 이 기술은 최종적으로 인코딩된 영상 파일을 만드는 방법이기 때문에 영상의 데이터 용량을 줄이는 데는 한계가 있다.
본 발명은 상기한 문제점을 개선하기 위해 안출된 것으로, 동영상을 인코딩할 필요 없이 동영상 데이터 용량을 줄일 수 있고, 또한 동영상의 데이터 분석을 용이하게 할 수 있는 영상 처리 장치 및 방법을 제공하는 데 그 목적이 있다.
그러나, 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 영상 처리 장치는, 영상 프레임이 순차적으로 입력되는 영상 입력부; 상기 영상 입력부를 통해 입력되는 영상 프레임에서 움직이는 피사체 혹은 특정 피사체를 감지하여 추출하는 피사체 추출부; 상기 영상 프레임에서 상기 피사체 추출부에 의해 추출된 피사체를 제외한 나머지 영역인 배경 영상을 이미지로 추출하는 배경 영상 추출부; 상기 피사체 추출부 및 상기 배경 영상 추출부에서 각각 추출된 피사체 및 배경 영상을 객체화시키고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하는 객체 생성부; 상기 객체화된 피사체 및 배경 영상이 저장되는 제1 저장부; 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보가 저장되는 데이터베이스를 갖는 제2 저장부; 및 상기 영상 입력부를 통해 입력되는 영상 프레임에서 상기 피사체 및 배경 영상을 추출하여 객체화시키고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하도록 상기 피사체 추출부, 상기 배경 영상 추출부, 상기 객체 생성부를 제어하는 한편, 상기 객체화된 피사체 및 배경 영상을 상기 제1 저장부에 저장하고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 상기 제2 저장부의 데이터베이스에 저장하는 제어부를 포함한다.
여기서, 상기 제1 저장부에 저장된 객체화된 피사체 및 배경 영상을 상기 제2 저장부의 데이터베이스에 저장된 상기 결합 정보 및 프레임 정보에 따라 조합하는 영상 조합부; 및 상기 영상 조합부에서 조합한 영상을 전달받아 재생시키는 재생부를 더 포함하고, 상기 제어부는, 재생 명령이 입력되면, 상기 제1 저장부에 저장된 객체화된 피사체 및 배경 영상을 상기 제2 저장부의 데이터베이스에 저장된 결합 정보 및 프레임 정보에 따라 조합하고, 상기 조합한 영상을 재생시키도록 상기 영상 조합부 및 상기 재생부를 제어하는 것이 바람직하다.
또한, 상기 객체화된 피사체 및 배경 영상과 관련된 영상 분석 정보를 생성하는 영상 분석 정보 생성부; 및 상기 영상 분석 정보를 기초로 상기 재생부를 통해 재생되는 영상의 특징을 분석하는 영상 분석부를 더 포함하고, 상기 제어부는 상기 영상 분석 정보 생성부를 통해 생성된 상기 영상 분석 정보를 상기 제2 저장부의 데이터베이스에 저장하고, 영상 분석 명령이 입력되면, 상기 제2 저장부의 데이터베이스에 저장된 영상 분석 정보를 기초로 상기 재생부를 통해 재생되는 영상의 특징을 분석하도록 상기 영상 분석부를 제어하는 것이 바람직하다.
그리고, 상기 영상 조합부는 상기 결합 정보 및 프레임 정보를 상기 객체화된 피사체 및 배경 영상의 속성값에 대입함으로써 영상을 조합할 수 있다.
상기 결합 정보는 상기 객체화된 피사체 및 배경 영상의 배열 순서나 프레임 위치, 크기, 밝기, 노출 시간, 기타 효과 중 적어도 하나를 포함하고, 상기 프레임 정보는 영상 재생시 어느 위치에 어떤 영상 요소들을 조합해야 하는지를 나타내는 정보를 포함한다.
상기 영상 분석 정보는 상기 객체화된 피사체 및 배경 영상을 특징하는 타이틀, 촬영 시간, 촬영 기간, 피사체의 색상, 위치, 운동 방향 중 적어도 하나를 포함한다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 영상 처리 방법은, 영상 프레임이 순차적으로 입력되는 단계; 상기 영상 프레임에서 움직이는 피사체 혹은 특정 피사체를 감지하여 추출하는 단계; 상기 영상 프레임에서 상기 추출된 피사체를 제외한 나머지 영역인 배경 영상을 이미지로 추출하는 단계; 상기 추출된 피사체 및 배경 영상을 각각 객체화시키고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하는 단계; 및 상기 객체화된 피사체 및 배경 영상을 제1 저장부에 저장하고, 상기 결합 정보 및 프레임 정보를 제2 저장부의 데이터베이스에 저장하는 단계를 포함한다.
여기서, 재생 명령이 입력되면, 상기 제1 저장부에 저장된 객체화된 피사체 및 배경 영상을 상기 제2 저장부의 데이터베이스에 저장된 상기 결합 정보 및 프레임 정보에 따라 조합하는 단계; 및 상기 조합한 영상을 재생하는 단계를 더 포함하는 것이 바람직하다.
또한, 상기 객체화된 피사체 및 배경 영상과 관련된 영상 분석 정보를 생성하는 단계; 상기 영상 분석 정보를 상기 제2 저장부의 데이터베이스에 저장하는 단계; 및 영상 분석 명령이 입력되면, 상기 제2 저장부의 데이터베이스에 저장된 상기 영상 분석 정보를 기초로 상기 재생되는 영상의 특징을 분석하는 단계를 더 포함하는 것이 바람직하다.
그리고, 상기 조합하는 단계는 상기 결합 정보 및 프레임 정보를 상기 객체화된 피사체 및 배경 영상의 속성값에 대입함으로써 영상을 조합할 수 있다.
상기 결합 정보는 상기 객체화된 피사체 및 배경 영상의 배열 순서나 프레임 위치, 크기, 밝기, 노출 시간, 기타 효과 중 적어도 하나를 포함하고, 상기 프레임 정보는 영상 재생시 어느 위치에 어떤 영상 요소들을 조합해야 하는지를 나타내는 정보를 포함한다.
상기 영상 분석 정보는 상기 객체화된 피사체 및 배경 영상을 특징하는 타이틀, 촬영 시간, 촬영 기간, 피사체의 색상, 위치, 운동 방향 중 적어도 하나를 포함한다.
상기한 바와 같이 본 발명에 의한 영상 처리 장치 및 방법에 따르면, 동영상을 인코딩할 필요 없이 동영상 데이터 용량을 줄일 수 있고, 또한 동영상의 데이터 분석을 용이하게 할 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 영상 처리 장치의 제어 블록도이다.
도 2는 본 발명의 실시예에 따른 영상 처리 방법을 나타낸 흐름도이다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있으며, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 첨부된 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명의 실시예에 따른 영상 처리 장치 및 방법에 대해 설명하도록 한다.
도 1은 본 발명의 실시예에 따른 영상 처리 장치의 제어 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 처리 장치는 영상 입력부(110), 피사체 추출부(120), 배경 영상 추출부(130), 객체 생성부(140), 영상 분석 정보 생성부(150), 제1 저장부(160), 제2 저장부(170), 영상 조합부(180), 재생부(190), 영상 분석부(210) 및 제어부(220)를 포함한다.
이러한 영상 처리 장치는 카메라를 통해 입력된 아날로그 방식의 영상 신호를 디지털 영상 신호로 전환하여 동영상 국제 압축 방식인 MPEG(Moving Picture Experts Group)으로 영상을 압축/복원하여 장시간 녹화 및 재생하여 볼 수 있는 시스템인 디지털 영상 저장 장치(Digital Video Recorder ; 이하 DVR)일 수 있다. DVR은 녹화 뿐만 아니라 동작 감지(Motion Detction), 연결 녹화, 카메라 제어, 화상 확대, 편집기 등의 다양한 선택 메뉴 기능이 있으며, 데이터를 반영구적으로 저장하는 기능을 갖추고 있다. 특히, DVR은 화상 회의나 화상 교육 또는 원격 진찰 등에 응용될 수 있으며, 특히 은행, 군사지역 등 보안이 필요한 건물이나 공간에 설치되어 특정 위치에서의 영상을 촬영한 후 이를 압축 및 저장하는 보안 감시 시스템으로 널리 사용되고 있다. 이러한 DVR은 종래의 아날로그 방식을 사용하는 CCTV(Closed Circuit Television)와는 달리 영상을 용이하게 저장하고 관리할 수 있으며, 또한 필요한 영상을 쉽게 검색하여 원하는 시간대에 저장된 영상을 짧은 시간에 확인할 수 있다. 물론, 본 영상 처리 장치는 DVR뿐만 아니라, 동영상 재생 프로그램이 설치된 개인 컴퓨터, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 이동통신 단말기 등에 적용될 수 있다.
영상 입력부(110)는 영상 프레임이 입력되는 부분으로서, 비디오 카메라, 디지털 카메라, 카메라 폰 등의 동영상 촬영 수단(미도시)으로부터 촬영된 영상이 순차적으로 입력된다. 여기서, 영상은 아날로그 영상 또는 디지털 영상을 모두 포함하지만, 디지털 영상 신호로 변환되어 입력되는 것을 전제로 한다. 디지털 신호로 변환된 영상 신호들이 프레임 단위로 순차적으로 영상 입력부(110)를 통해 입력된다.
피사체 추출부(120)는 영상 입력부(110)를 통해 입력되는 영상 프레임에서 움직이는 피사체 혹은 특정 피사체(예를 들면, 사람)를 감지하여 추출한다.
움직이는 피사체는 모션 트래킹(motion tracking)에 의하여 추출할 수 있다. 모션 트래킹은 연속되는 두 프레임 영상 사이의 차이를 판별하여 움직임 벡터를 계산하고, 움직임 벡터에 의하여 피사체를 추적한다. 구체적으로 움직임 벡터를 구하기 위해, 현재 입력되는 영상 프레임에서 특징점을 설정하고, 이전에 입력된 영상 프레임과 비교하여 특징점 좌표의 데이터가 어느 방향으로 얼마만큼 움직였는가를 계산한다. 이때, 특징점은 사용자가 설정할 수도 있으며, 이전에 입력된 영상 프레임과의 비교에 의하여 자동으로 설정될 수도 있다.
특정 피사체를 추출하는 방법으로는 현재 입력되는 영상 프레임에서 특징점을 설정하고, 특징점 좌표의 데이터를 기초로 특정 피사체 영역을 추출하는 방법이 포함된다.
배경 영상 추출부(130)는 영상 입력부(110)를 통해 입력되는 영상 프레임에서 피사체 추출부(120)에 의해 추출된 피사체를 제외한 나머지 영역인 배경 영상을 이미지로 추출한다. 이를 위해, 전체 영상 프레임에서 피사체를 뺄셈 연산하는 과정이 포함된다.
객체 생성부(140)는 피사체 추출부(120) 및 배경 영상 추출부(130)에서 각각 추출된 피사체 및 배경 영상을 객체화시키고, 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성한다. 여기서, 결합 정보는 객체화된 피사체 및 배경 영상을 조합시켜서 하나의 영상 프레임을 생성하기 위한 정보로서, 예를 들면 피사체 및 배경 영상의 배열 순서나 프레임 위치, 크기, 밝기, 노출 시간, 기타 효과 등의 정보들이다. 프레임 정보는 영상 재생시 어느 위치에 어떤 영상 요소들을 조합해야 하는지를 나타내는 정보로서, 예를 들면, 영상의 구성 요소가 되는 피사체 및 배경 영상이 몇 번째 프레임과 연결되어야 하는지, 또 해당 프레임의 화면에서 어느 영역에 위치해야 하는지 등의 정보들이다.
영상 분석 정보 생성부(150)는 객체화된 피사체 및 배경 영상과 관련된 특정 정보를 생성한다. 특정 정보는 피사체 및 배경 영상을 특징하는 타이틀을 비롯해 촬영 시간, 촬영 기간, 피사체의 색상, 위치, 운동 방향 등을 포함하며, 영상 분석을 위해 이용된다.
제1 저장부(160)는 객체 생성부(140)에 의해 객체화된 피사체 및 배경 영상이 저장되며, 제2 저장부(170)는 객체화된 피사체 및 배경 영상의 결합 정보, 프레임 정보 및 영상 분석 정보가 저장되는 데이터 베이스를 갖는다.
영상 조합부(180)는 제1 저장부(160)에 저장된 객체화된 피사체 및 배경 영상과, 제2 저장부(170)의 데이터베이스에 저장된 결합 정보 및 프레임 정보를 독출하고, 독출된 결합 정보 및 프레임 정보에 따라 객체화된 피사체 및 배경 영상을 조합한다. 구체적으로, 독출된 결합 정보 및 프레임 정보를 객체화된 피사체 및 배경 영상의 해당 속성값에 대입함으로써 영상 프레임을 생성한다.
재생부(190)는 영상 조합부(180)에서 조합한 영상을 전달받아 재생시키는 역할을 한다. 재생부(190)는 일반적으로 FlashPlayer나 SilverlightRuntime, 또는 웹 브라우저 그 자체가 될 수도 있다. 또한, C++, C#, VisualBasic 등과 같은 프로그램으로 재생부(190) 역할을 하는 프로그램을 별도로 제작할 수도 있다.
영상 분석부(210)는 제2 저장부(170)에 저장된 영상 분석 정보를 기초로 재생부(190)를 통해 재생되는 영상의 특징을 분석한다. 즉, 재생부(190)를 통해 재생되는 영상을 특징하는 타이틀을 비롯해 촬영 시간, 촬영 기간, 피사체의 색상, 위치, 운동 방향 등을 분석할 수 있다.
제어부(220)는 장치 내의 전반적인 동작을 제어한다. 제어부(220)는 영상 입력부(110)를 통해 입력되는 영상 프레임에서 피사체 및 배경 영상을 추출하도록 피사체 추출부(120) 및 배경 영상 추출부(130)를 제어한다.
그리고, 제어부(220)는 추출된 피사체 및 배경 영상을 객체화시키고, 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하도록 객체 생성부(140)를 제어한다.
제어부(220)는 객체화된 피사체 및 배경 영상을 제1 저장부(160)에 저장하는 한편, 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 제2 저장부(170)의 데이터베이스에 저장한다. 즉, 제어부(220)는 전체 영상 프레임을 하나의 파일로 저장하지 아니하고, 객체화된 피사체 및 배경 영상과, 결합 정보 및 프레임 정보를 분리하여 저장한다.
또한, 제어부(220)는 객체화된 피사체 및 배경 영상과 관련된 타이틀을 비롯해 촬영 시간, 촬영 기간, 피사체의 색상, 위치, 운동 방향 등의 영상 분석 정보를 생성하도록 영상 분석 정보 생성부(150)를 제어하고, 생성된 영상 분석 정보를 제2 저장부(170)의 데이터베이스에 저장한다.
제어부(220)는 재생 명령이 입력되면, 전체 영상 프레임을 하나의 파일로 재생하도록 제어하는 것이 아니라, 제1 저장부(160)에 저장된 객체화된 피사체 및 배경 영상을 제2 저장부(170)의 데이터베이스에 저장된 결합 정보 및 프레임 정보에 따라 조합하여 영상 프레임을 생성하도록 영상 조합부(180)를 제어한다. 그리고, 제어부(220)는 조합된 영상 프레임이 재생부(190)를 통해 재생되도록 한다.
그리고, 제어부(220)는 영상 분석 명령이 입력되면, 제2 저장부(170)에 저장된 영상 분석 정보를 기초로 재생부(190)를 통해 재생되는 영상의 특징을 분석하도록 영상 분석부(210)를 제어한다.
도 2는 본 발명의 실시예에 따른 영상 처리 방법을 나타낸 흐름도이다.
도 2를 참조하면, 먼저 영상 입력부(110)를 통해 영상 프레임이 순차적으로 입력된다(S110).
그러면, 피사체 추출부(120)는 순차적으로 입력되는 영상 프레임에서 움직이는 피사체 혹은 특정 피사체를 감지하여 추출하고, 배경 영상 추출부(130)는 피사체를 제외한 나머지 영역인 배경 영상을 추출한다(S120). 구체적인 추출 방법은 상술하였으므로, 그 설명을 생략하기로 한다.
객체 생성부(140)는 추출된 피사체 및 배경 영상을 각각 객체화시키고(S130), 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성한다(S140).
제어부(220)는 객체화된 피사체 및 배경 영상을 제1 저장부(160)에 저장하는 한편, 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 제2 저장부(170)의 데이터베이스에 저장한다(S150).
한편, 영상 분석 정보 생성부(150)는 객체화된 피사체 및 배경 영상과 관련된 타이틀을 비롯해 촬영 시간, 촬영 기간, 피사체의 색상, 위치, 운동 방향 등의 영상 분석 정보를 생성한다(S160). 그러면, 제어부(220)는 생성된 영상 분석 정보를 제2 저장부(170)의 데이터베이스에 저장한다(S170).
재생 명령이 입력되면(S180), 영상 조합부(180)는 제1 저장부(160)에 저장된 객체화된 피사체 및 배경 영상을 제2 저장부(170)의 데이터베이스에 저장된 결합 정보 및 프레임 정보에 따라 조합하여 영상 프레임을 생성한다(S190). 그리고, 제어부(220)는 조합된 영상 프레임이 재생부(190)를 통해 재생되도록 한다(S210).
한편, 영상 분석 명령이 입력되면(S220), 영상 분석부(210)는 제2 저장부(170)에 저장된 타이틀을 비롯해 촬영 시간, 촬영 기간, 피사체의 색상, 위치, 운동 방향 등의 영상 분석 정보를 기초로 재생부(190)를 통해 재생되는 영상의 특징을 분석한다(S230).
이와 같이, 본 발명은 비디오 카메라, 디지털 카메라, 카메라 폰 등의 동영상 촬영 수단을 통해 일정 시간 지속적으로 영상을 촬영해야 하는 경우나 대용량의 동영상 파일을 다운로드해야 하는 경우 등, 영상 처리 장치에 복수 개의 영상 프레임이 순차적으로 입력될 때, 먼저 영상 프레임에서 피사체 및 배경 영상을 감지하여 추출한다. 그리고, 추출된 피사체 및 배경 영상을 각각 객체화하여 저장하며, 결합 정보 및 프레임 정보를 데이터베이스에 분리하여 저장한다. 이로써, 영상을 인코딩할 필요 없이 영상 데이터 용량을 줄일 수 있으며, 영상 재생시에도 별도의 디코딩 과정이 필요하지 않다. 또한, 영상 분석 정보를 생성하여 데이터베이스에 함께 저장함으로써 영상의 데이터 분석을 용이하게 할 수 있는 장점이 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
이상 본 발명의 바람직한 실시예들을 기초로 설명되었지만, 당업자들은 본 발명이 속하는 기술분야의 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 한정되며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
110: 영상 입력부 120: 피사체 추출부
130: 배경 영상 추출부 140: 객체 생성부
150: 영상 분석 정보 생성부 160: 제1 저장부
170: 제2 저장부 180: 영상 조합부
190: 재생부 210: 영상 분석부
220: 제어부

Claims (2)

  1. 영상 프레임이 순차적으로 입력되는 영상 입력부;
    상기 영상 입력부를 통해 입력되는 영상 프레임에서 움직이는 피사체 혹은 특정 피사체를 감지하여 추출하는 피사체 추출부;
    상기 영상 프레임에서 상기 피사체 추출부에 의해 추출된 피사체를 제외한 나머지 영역인 배경 영상을 이미지로 추출하는 배경 영상 추출부;
    상기 피사체 추출부 및 상기 배경 영상 추출부에서 각각 추출된 피사체 및 배경 영상을 객체화시키고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하는 객체 생성부;
    상기 객체화된 피사체 및 배경 영상이 저장되는 제1 저장부;
    상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보가 저장되는 데이터베이스를 갖는 제2 저장부; 및
    상기 영상 입력부를 통해 입력되는 영상 프레임에서 상기 피사체 및 배경 영상을 추출하여 객체화시키고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하도록 상기 피사체 추출부, 상기 배경 영상 추출부, 상기 객체 생성부를 제어하는 한편, 상기 객체화된 피사체 및 배경 영상을 상기 제1 저장부에 저장하고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 상기 제2 저장부의 데이터베이스에 저장하는 제어부를 포함하는 영상 처리 장치.
  2. 영상 프레임이 순차적으로 입력되는 단계;
    상기 영상 프레임에서 움직이는 피사체 혹은 특정 피사체를 감지하여 추출하는 단계;
    상기 영상 프레임에서 상기 추출된 피사체를 제외한 나머지 영역인 배경 영상을 이미지로 추출하는 단계;
    상기 추출된 피사체 및 배경 영상을 각각 객체화시키고, 상기 객체화된 피사체 및 배경 영상의 결합 정보 및 프레임 정보를 생성하는 단계; 및
    상기 객체화된 피사체 및 배경 영상을 제1 저장부에 저장하고, 상기 결합 정보 및 프레임 정보를 제2 저장부의 데이터베이스에 저장하는 단계를 포함하는 영상 처리 방법.
KR1020120061431A 2012-06-08 2012-06-08 영상 처리 장치 및 방법 KR101340308B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120061431A KR101340308B1 (ko) 2012-06-08 2012-06-08 영상 처리 장치 및 방법
PCT/KR2013/006896 WO2013183978A1 (ko) 2012-06-08 2013-07-31 영상 처리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120061431A KR101340308B1 (ko) 2012-06-08 2012-06-08 영상 처리 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101340308B1 true KR101340308B1 (ko) 2013-12-11

Family

ID=49712306

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120061431A KR101340308B1 (ko) 2012-06-08 2012-06-08 영상 처리 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101340308B1 (ko)
WO (1) WO2013183978A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101746074B1 (ko) * 2015-12-31 2017-06-12 한양여자대학교 산학협력단 디지털 동영상 위변조 분석시스템 및 그 방법
WO2020080616A1 (ko) * 2018-10-18 2020-04-23 한국과학기술원 인공 신경망에 기반한 영상 처리 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032616A (ja) 2001-07-17 2003-01-31 Nhk Computer Service:Kk 映像情報生成装置及び映像編集装置及び映像情報生成プログラム並びに映像編集プログラム
JP2008187256A (ja) 2007-01-26 2008-08-14 Fujifilm Corp 動画作成装置、方法およびプログラム
JP2009296344A (ja) 2008-06-05 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> 映像処理装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体
JP2012054912A (ja) 2010-08-02 2012-03-15 Sharp Corp 映像処理装置、表示装置及び映像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032616A (ja) 2001-07-17 2003-01-31 Nhk Computer Service:Kk 映像情報生成装置及び映像編集装置及び映像情報生成プログラム並びに映像編集プログラム
JP2008187256A (ja) 2007-01-26 2008-08-14 Fujifilm Corp 動画作成装置、方法およびプログラム
JP2009296344A (ja) 2008-06-05 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> 映像処理装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体
JP2012054912A (ja) 2010-08-02 2012-03-15 Sharp Corp 映像処理装置、表示装置及び映像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101746074B1 (ko) * 2015-12-31 2017-06-12 한양여자대학교 산학협력단 디지털 동영상 위변조 분석시스템 및 그 방법
WO2020080616A1 (ko) * 2018-10-18 2020-04-23 한국과학기술원 인공 신경망에 기반한 영상 처리 방법 및 장치

Also Published As

Publication number Publication date
WO2013183978A1 (ko) 2013-12-12

Similar Documents

Publication Publication Date Title
US10956749B2 (en) Methods, systems, and media for generating a summarized video with video thumbnails
US9124860B2 (en) Storing a video summary as metadata
US8446490B2 (en) Video capture system producing a video summary
US20110293018A1 (en) Video summary method and system
US8681239B2 (en) Image capturing device, image capturing method, program, and integrated circuit
KR20080084725A (ko) 화상 처리 장치, 촬상 장치, 화상 표시 제어 방법, 및컴퓨터 프로그램
WO2009113280A1 (ja) 画像処理装置およびそれを搭載した撮像装置
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
US20110032979A1 (en) Image display control device and imaging device provided with the image display control device, image processing device and imaging device using the image processing device
KR101086372B1 (ko) 디브이알 및 그 영상 감시방법
US20120087636A1 (en) Moving image playback apparatus, moving image management apparatus, method, and storage medium for controlling the same
JP2007266659A (ja) 撮像再生装置
KR20080035891A (ko) 움직임의 스마트 서치를 지원하는 영상 재생 장치 및 방법
JP2005086734A (ja) 画像記録装置
KR101340308B1 (ko) 영상 처리 장치 및 방법
CN101753943B (zh) 图像处理设备和图像处理方法
US10783670B2 (en) Method for compression of 360 degree content and electronic device thereof
US9538119B2 (en) Method of capturing moving picture and apparatus for reproducing moving picture
KR100775187B1 (ko) 썸네일 재생 방법 및 이를 이용한 단말기
US9595292B2 (en) Image processing apparatus
KR101748576B1 (ko) 이동통신 단말기에서 동영상 데이터를 세그먼팅하기 위한 장치 및 방법
JP2007324663A (ja) ビデオカメラ
JP4631826B2 (ja) ハイライト抽出装置
KR101203971B1 (ko) 디브이알 및 그의 영상 재생방법
KR20100018162A (ko) 스킵 기능을 이용한 신속한 동영상 재생 방법 및 스킵기능을 이용한 동영상 썸네일 생성 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161125

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee