KR101007347B1 - 전방향 영상 획득 시스템 및 방법 - Google Patents

전방향 영상 획득 시스템 및 방법 Download PDF

Info

Publication number
KR101007347B1
KR101007347B1 KR1020090054503A KR20090054503A KR101007347B1 KR 101007347 B1 KR101007347 B1 KR 101007347B1 KR 1020090054503 A KR1020090054503 A KR 1020090054503A KR 20090054503 A KR20090054503 A KR 20090054503A KR 101007347 B1 KR101007347 B1 KR 101007347B1
Authority
KR
South Korea
Prior art keywords
image sensor
synchronization
data
image
sensor unit
Prior art date
Application number
KR1020090054503A
Other languages
English (en)
Other versions
KR20100136242A (ko
Inventor
박현문
김재성
Original Assignee
주식회사 세일티앤엔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 세일티앤엔 filed Critical 주식회사 세일티앤엔
Priority to KR1020090054503A priority Critical patent/KR101007347B1/ko
Publication of KR20100136242A publication Critical patent/KR20100136242A/ko
Application granted granted Critical
Publication of KR101007347B1 publication Critical patent/KR101007347B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 영상 획득 시스템 및 방법에 관한 것으로, 더욱 상세하게는 전방향으로 영상을 획득하는 시스템 및 방법에 관한 것이다.
본 발명의 일 실시예에 따른 전방향 영상 획득 시스템은 영상 데이터를 전송하는 복수의 영상 센서부, 상기 복수의 영상 센서부와 동기화를 수행하며 상기 복수의 영상 센서부 중 하나를 선택하는 제어부, 및 상기 선택된 영상 센서부의 영상 데이터를 전송 받는 데이터 처리부를 포함하며, 상기 제어부는 상기 복수의 영상 센서부로부터 각 영상 센서부의 동기화 정보를 포함하는 동기유지 프레임을 수신한다.
전방향, CMOS, 동기화, MCU

Description

전방향 영상 획득 시스템 및 방법{System and method for obtaining images around view}
본 발명은 영상 획득 시스템 및 방법에 관한 것으로, 더욱 상세하게는 전방향으로 영상을 획득하는 시스템 및 방법에 관한 것이다.
영상 센서 카메라를 이용한 응용분야는 생활가전, 정보통신 가전, 자동차, 항공기 등 다양한 영역에 적용되고 있다. 예를 들어, 영상 센서로는 CMOS(Complementary metal oxide semiconductor)를 들 수 있고, CMOS를 적용한 CMOS 카메라는 저전력, 가격대비 고성능으로 인하여 적용 범위가 급속히 넓혀지고 있다.
최근에 다중 카메라(Multi-CMOS Camera)를 통한 연구는 일본 자동차, 교통, 항공 회사나 미국, 영국은 항공, 로봇, 교통, 해양국방 분야 등에서 범세계적으로 이루어지고 있다. 한편, 이러한 다중 카메라에서는 최근 360° 전방향 카메라 시스템에 연구가 진행되고 있다. 여기서, 전방향은 소정의 위치를 중심으로 주위의 모든 방향을 의미한다.
이러한 전방향 카메라 획득 장치는 자동차, 의학, 센서 네트워크, 항공, 로 봇, 보안 등의 다양한 분야에서 영상 획득을 실시간으로 하기 위하여 저전력 및 소형화된 이미지 획득 시스템이 필요하다. 하지만, 전방향 영상을 획득하기 위하여는 특정방향을 촬영하기 위한 360°회전카메라가 있으나 촬영하려면 별도의 모터가 필요하며 단시간의 반대면 사진 촬영이 어려운 점이 있다.
본 발명이 해결하고자 하는 과제는 복수의 영상 센서부를 하나의 제어부에 의해 제어함으로써, 전방향의 영상을 획득할 수 있는 시스템 및 방법을 제공하는데 있다.
본 발명이 해결하고자 하는 다른 과제는 복수의 영상 센서부를 하나의 제어부에 의하여 동기화를 지속적으로 유지함으로써, 복수의 영상 센서부를 재동기 횟수를 최소화하거나 재동기화를 하지 않고 곧바로 영상 데이터를 전송함으로써 데이터 전송의 효율성을 높이는 전방향 영상 획득 시스템 및 방법을 제공하는데 있다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 해결하기 위한 본 발명의 영상 획득 시스템의 일 양태(Aspect)는 영상 데이터를 전송하는 복수의 영상 센서부; 상기 복수의 영상 센서부와 동기화를 수행하며, 상기 복수의 영상 센서부 중 하나를 선택하는 제어부; 및 상기 선택된 영상 센서부의 영상 데이터를 전송 받는 데이터 처리부를 포함하며, 상기 제어부는 상기 복수의 영상 센서부로부터 각 영상 센서부의 동기화 정보를 포함하는 동기유지 프레임을 수신한다.
상기 기술적 과제를 해결하기 위한 본 발명의 영상 획득 방법의 일 양 태(Aspect)는 초기 동기화를 위한 싱크 프레임을 복수의 영상 센서부로부터 각각 수신하여 각 영상 센서부와 초기 동기화를 수행하는 단계; 상기 복수의 영상 센서부 중 하나를 선택하여 영상 데이터를 수신하는 단계; 및 선택되지 아니한 영상 센서부로부터 주기적으로 영상 센서부의 동기화 정보를 포함하는 동기유지 프레임을 수신하는 단계를 포함한다.
상기한 바와 같은 본 발명의 일 실시예에 따르면, 복수의 영상 센서부를 하나의 제어부에 의해 제어함으로써 복수의 영상 센서부로 획득된 영상 데이터를 처리하여 전방향 영상을 획득할 수 있다.
이와 함께, 복수의 영상 센서부를 하나의 제어부에 의하여 동기화를 지속적으로 유지함으로써, 복수의 영상 센서부를 재동기 횟수를 최소화하거나 또는 재동기화 과정 없이 영상 데이터를 전송하여 데이터 전송의 효율성을 높일 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태 로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 실시예들에 의하여 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템 및 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
본 실시예에서 사용되는 '모듈' 또는 '부(unit)'이라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, 모듈 또는 부(unit)는 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈 또는 부(unit)는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈 또는 부(unit)는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템의 블록도를 보여준다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템은 복수의 영상 센서부(100, 120, 140, 160), 제어부(200) 및 데이터 처리부(300)를 포함할 수 있다.
영상 센서부(100, 120, 140, 160)는 외부로부터 영상을 획득하는 역할을 한다. 영상 센서부(100, 120, 140, 160)는 복수로 구성될 수 있고, 예를 들어 4개로 구성되는 경우에는 제1 영상 센서부(100), 제2 영상 센서부(120), 제3 영상 센서부(140) 및 제4 영상 센서부(160)로 구성될 수 있다. 각 영상 센서부(100, 120, 140, 160)는 소정의 방향으로 배치되어, 서로 다른 방향의 영상을 획득할 수 있다. 예를 들어, 4개의 영상 센서부(100, 120, 140, 160)로 구성되는 경우에는 각 영상 센서부(100, 120, 140, 160)는 전방향으로 획득할 수 있는 방향 간격으로 배치되어 전방향을 획득할 수 있고, 그 이하의 개수의 영상 센서부에 의하여 구성되는 경우에는 시야각이 더 큰 카메라 모듈을 소정 방향 간격으로 배치하여 전방향으로의 영상을 획득할 수 있다.
각 영상 센서부(100, 120, 140, 160)는 외부로부터 빛을 집광하는 렌즈(미도시)를 통하여 영상을 촬상할 수 있다. 영상 센서부(100, 120, 140, 160)는 외부로부터 영상광을 입사시켜 촬상시키는 이미지 센서모듈(110, 130, 150, 170) 및 촬상 된 이미지 데이터를 압축시키는 데이터 압축 모듈(115, 135, 155, 175)을 포함할 수 있다. 다만, 데이터 압축은 영상 센서부(100, 120, 140, 160)가 아닌 다른 구성요소에서 수행될 수도 있기에, 영상 센서부(100, 120, 140, 160)에서는 생략될 수도 있다.
이미지 센서모듈(110, 130, 150, 170)은 피사체에서 입사된 광을 전기적인 이미지 신호로 변환하여 영상을 생성해 내는 촬상 소자를 칭할 수 있다. 예를 들어, 그 제작 공정 및 응용 방식에 따라 크게 전하 결합 소자(CCD; Charge Coupled Device) 이미지 센서와 금속 산화물 반도체(CMOS; Complementary Metal Oxide Semiconductor) 이미지 센서 등으로 분류될 수 있다. 피사체로부터의 영상광은 렌즈 및 조리개(미도시)를 통하여 이미지 센서모듈(110, 130, 150, 170)에 입사될 수 있다. 본 발명의 일 실시예에서는 소형화, 저전력 및 가격대비 고성능을 구현하는 CMOS 이미지 센서가 적용될 수 있다. 이와 함께, 저전력으로 동작하면서 소형화되는 차세대 이미지 센서도 적용될 수 있음은 물론이다.
이미지 센서모듈(110, 130, 150, 170)은 촬상된 화상의 아날로그 신호를 디지털 영상 신호를 변환시키는 컨버터 모듈(미도시)을 더 포함시킬 수도 있다. 영상 센서부(100, 120, 140, 160)는 변환된 디지털 영상 신호를 후술할 제어부(200)에 전송할 수 있다. 한편, 영상 센서부(100, 120, 140, 160) 및 제어부(200) 사이에는 소정의 데이터 통신로에 의하여 연결될 수 있다. 예를 들어, 시리얼 버스(Serial Bus) 등에 의하여 데이터가 송수신될 수 있다.
제어부(200)는 영상 센서부(100, 120, 140, 160)를 제어하며 각 영상 센서 부(100, 120, 140, 160)의 동기화를 유지하면서 각 영상 센서부(100, 120, 140, 160)로 획득된 데이터를 전송하여 후술할 데이터 처리부(300)에 전달하는 역할을 한다.
제어부(200)는 각 영상 센서부(100, 120, 140, 160)로부터 초기 동기화를 위한 싱크 프레임을 전송받아 초기 동기화 또는 재동기화를 수행할 수 있다. 여기서, 동기화는 각 영상 센서부(100, 120, 140, 160) 및 제어부(200) 사이에 공통 클럭을 공유하여 공통된 클럭으로 작동하도록 시간 타이밍을 맞추는 것을 말하며, 초기 동기화는 시스템 동작에 초기에 수행하는 동기화이며, 재동기화는 동기화 이후에 다시 동기화를 수행하는 것을 말한다.
제어부(200)는 각 영상 센서부(100, 120, 140, 160)에 아이디(ID)를 부여하고, 해당 ID에 따라 수신된 영상 데이터 또는 영상처리 정보를 후술할 데이터 처리부(300)를 제공하는 역할을 한다.
제어부(200)는 주기적으로 각 영상 센서부(100, 120, 140, 160)로부터 동기유지 프레임을 수신할 수 있다. 여기서, 동기유지 프레임은 복수의 영상 센서부(100, 120, 140, 160)로부터 각 영상 센서부의 동기화 정보를 포함하는 프레임을 말한다.
제어부(200)는 영상 센서부(100, 120, 140, 160)들 중 하나로부터 영상 데이터를 소정의 데이터 채널을 통하여 배타적으로 수신할 수 있다. 예를 들어, 제어부(200)가 제1 영상 센서부(100)로부터 영상 데이터를 수신하는 시간 동안, 다른 영상 센서부(120, 140, 160)은 획득된 영상 데이터를 소정의 버퍼에 임시로 저장하 거나 또는 영상 데이터의 획득을 잠시 멈출 수 있다. 하지만, 이러한 시간 동안에 제1 영상 센서부(100) 이외의 다른 영상 센서부(120, 140, 160)와의 동기유지가 종료되어 재동기화가 필요할 수 있다.
본 발명의 일 실시예에 따르면, 각 영상 센서부(100, 120, 140, 160)는 소정의 시간 간격인 주기적으로 동기유지 프레임을 전송하고, 제어부(200)는 각 영상 센서부(100, 120, 140, 160)로부터 수신한 동기유지 프레임을 이용하여 데이터를 송수신하지 않는 시간 동안에서도 동기(Synchronization)를 유지할 수 있다. 따라서, 제어부(200) 및 영상 센서부(100, 120, 140, 160) 사이에 동기가 지속적으로 유지되어, 재동기화가 필요가 없거나 또는 재동기화 횟수를 최소한으로 유지할 수 있다.
제어부(200)는 주요한 연산을 수행하는 MCU(Micro Controller Unit) 모듈(210) 및 영상 데이터를 임시로 저장하는 버퍼 모듈(220)을 포함할 수 있다. MCU 모듈(210)은 단순한 처리 기능에서 특수한 기능에 이르기까지 다양한 연산 및 데이터 전송을 수행하는 역할을 한다. 예를 들어, 영상 데이터 송수신에 앞서 MCU 모듈(210)은 영상 센서부(100, 120, 140, 160)로부터 싱크 프레임을 전송 받아 영상 센서부(100, 120, 140, 160)로부터의 데이터 전송에 대한 전송률 결정 및 동기화를 수행할 수 있다. 다른 예로서, MCU 모듈(210)은 영상 센서부(100, 120, 140, 160)로부터 전송 받은 영상 데이터를 후술할 데이터 처리부(300)에 전송하는 역할을 할 수 있다.
버퍼 모듈(230)은 영상 센서부(100, 120, 140, 160)로부터 전송 받은 영상 데이터를 임시로 저정하는 역할을 한다. 버퍼 모듈(230)은 예를 들어, 롬(ROM), 피롬(PROM), 이피롬(EPROM), 이이피롬(EEPROM), 플래시 메모리와 같은 비휘발성 메모리 소자 또는 램(RAM)과 같은 휘발성 메모리 소자, 하드 디스크, 광 디스크와 같은 저장 매체 등으로 구현될 수 있다.
한편, 제어부(200)는 MCU 모듈(210)에 부가하여 영상 센서부(100, 120, 140, 160)로부터 전송 받은 영상 데이터 등의 데이터를 데이터 처리부(300)에 전송하는 서브 제어부(220)를 더 포함할 수 있다. 서브 제어부(220)는 MCU 모듈(210)의 자체적인 메모리 용량의 한계로 인하여 외부에 버퍼 모듈(230)을 추가적으로 구비하는 경우에, 이러한 버퍼 모듈(230)을 제어하고 시그널에 비하여 용량이 현저히 큰 영상 데이터를 송수신하기에 적합한 구성으로 이루어질 수 있다. 예를 들어, 서브 제어부(220)는 FPGA(field programmable gate array) 또는 ASIC 등의 논리 연산을 수행하거나, 논리 요소를 이용한 프로그래밍된 반도체 소자로 구성될 수 있다.
데이터 처리부(300)는 제어부(200)로부터 영상 데이터를 전달 받아, 영상 데이터를 처리하는 역할을 한다. 데이터 처리부(300)는 전달 받은 영상 데이터를 전달받는 데이터 처리 모듈(310) 및 영상 데이터를 통합하여 저장하는 저장 모듈(320)을 포함할 수 있다. 데이터 처리부(300)는 영상 데이터의 목적지(Target) 역할을 하는 구성으로서, 예를 들어, 데이터 처리부(300)는 영상 처리를 수행하는 그래픽 보드 또는 영상을 디스플레이 하기 전에 영상을 처리하는 소정의 온보드 형태로 구성될 수 있다.
도 2는 본 발명의 일 실시예에 따른 전방향 영상 획득 방법의 흐름도를 보여 준다. 도 2를 참조하면, 먼저 데이터 처리 모듈(310)은 서브 제어부(220)에 동기화(Syncronization)를 요청한다(S210). 여기서, 동기화는 각 이미지 센서모듈(110, 150, 170)와 MCU 모듈(210) 또는 각 이미지 센서모듈(110, 150, 170) 및 서브 제어부(220) 사이에 공통 클럭을 공유하여 공통 클럭으로 동작하도록 시간 타이밍을 맞추는 것을 말한다. 여기서, MCU 모듈(210)은 각각의 이미지 센서모듈(110, 150, 170)의 공통 클럭을 인식하여, 해당 이미지 센서모듈(110, 150, 170)의 공통 클럭에 일치시켜 서브 제어부(22)로의 영상 데이터의 송수신에 있어 타이밍을 일치시킬 수 있도록 한다.
서브 제어부(220)는 MCU 모듈(210)에 초기 동기화 요청을 전달하고(S211), MCU 모듈(210)은 각 이미지 센서모듈(110, 150, 170)에 초기 동기화를 요청한다(S212, S213, S214). 여기서, 각 이미지 센서모듈(110, 150, 170)은 제1 이미지 센서모듈(110), 제3 이미지 센서모듈(150) 및 제4 이미지 센서모듈(170)을 예로 들었지만, 제2 이미지 센서모듈(130)은 편의상 생략되었다.
MCU 모듈(210)의 초기 동기화 요청에 대응하여, 각 이미지 센서모듈(110, 150, 170)은 MCU 모듈(210)에 싱크 프레임을 전송한다(S215, S217, S219). 이와 함께, 각 이미지 센서모듈(110, 150, 170)은 서브 제어부(220)에 싱크 프레임을 전송할 수 있다(S216, S218, S2220). 또는 싱크 프레임을 전송 받은 MCU 모듈(210)이 서브 제어부(220)에 싱크 프레임을 전송할 수도 있다(S216, S218, S2220).
MCU 모듈(210)은 초기 동기화가 완료 되었음을 서브 제어부(220)에 전송하고(S22), 서브 제어부(220)는 데이터 처리모듈(310)에 초기 동기화 완료 메시지를 전송한다(S225). 한편, 각 이미지 센서모듈(110, 150, 170) 및 MCU 모듈(210) 사이에 초기 동기화가 이루어지면, 이후에는 각 이미지 센서모듈(110, 150, 170)은 주기적 또는 비주기적으로 동기유지 프레임 또는 메시지를 MCU 모듈(210)에 전송한다(S230, S232, S235). 여기서, 동기유지 메시지는 각 이미지 센서모듈(110, 150, 170) 및 MCU 모듈(210) 사이에 동기화가 이루어진 이후, 동기화 유지에 필요한 정보를 포함하는 메시지이다. 상기 동기화 메시지를 구성하는 데이터 프레임의 구조에 대하여는 뒤에서 상세히 설명하기로 한다.
데이터 처리모듈(310)이 소정의 이미지 센서에 대하여 영상 데이터를 획득하고자 하는 경우에는 먼저 서브 제어부(220)로 센서모듈을 선택하는 메시지를 전송하며(S240), 서브 제어부(220)는 MCU 모듈(210)에 센서모듈 선택 메시지를 전송한다(S242). MCU 모듈(210)은 선택된 이미지 센서모듈로 스위칭을 하여 선택된 이미지 센서모듈과의 데이터 채널로 전환(Switching)하고(S245), 선택된 이미지 센서모듈의 동기화 정보를 서브 제어부(220)에 제공한다(S220). 이 때부터, 선택된 이미지 센서모듈 및 서브 제어부(220) 사이에서 형성된 데이터 채널을 통하여 영상 데이터의 송수신이 이루어질 수 있다. 예를 들어, 선택된 이미지 센서모듈이 제4 이미지 센서모듈(170)이라고 가정하자.
선택된 제4 이미지 센서모듈(170)은 서브 제어부(220)로 획득한 영상 데이터를 전송한다(S255). 서브 제어부(220)는 데이터 처리모듈(310)에 영상 데이터를 전달한다(S257). 후속적으로, 선택된 제4 이미지 센서모듈(170)은 서브 제어부(220)로 획득한 영상 데이터를 전송하며(S260), 서브 제어부(220)는 데이터 처리모 듈(310)에 수신한 영상 데이터를 그대로 전달한다(S263).
한편, 소정의 시간이 경과된 이후에 각 이미지 센서모듈(110, 150, 170)은 주기적 또는 비주기적으로 동기유지 메시지를 MCU 모듈(210)에 전송하여 MCU 모듈(210)과의 동기화를 유지할 수 있다(S275, S277, S279). 또는 선택되지 아니한 각 이미지 선서 모듈(110, 150)이 주기적 또는 비주기적으로 동기유지 메시지를 MCU 모듈(210)에 전송하여 MCU 모듈(210)과의 동기화를 유지할 수 있다(S277, S279). 그리하여, 각 이미지 센서모듈(110, 150, 170) 및 MCU(210) 사이에서 동기화를 유지하는 도중에 다른 이미지 센서모듈을 선택하는 경우에, 해당 이미지 센서모듈과의 동기화를 다시 할 필요없이 곧바로 영상 데이터를 수신할 수 있으므로 데이터 전송의 효율을 높일 수 있다.
예를 들어, 다른 이미지 센서모듈로부터 영상 데이터를 수신하고자 하는 경우 데이터 처리모듈(310)은 소정 이미지 센서모듈을 선택하는 메시지를 서브 제어부(220)에 전송한다(S270). 서브 제어부(220)는 소정 이미지 센서모듈의 선택 메시지를 MCU 모듈(210)에 전송한다(S271).
MCU 모듈(210)은 선택된 이미지 센서모듈로 데이터 채널을 전환시키고(S280), 선택된 이미지 센서모듈의 동기화 정보를 서브 제어부(220)에 제공한다(S282). 이 때부터, 선택된 이미지 센서모듈 및 서브 제어부(220) 사이에 배타적인 데이터 채널을 통하여 영상 데이터의 송수신이 이루어질 수 있다. 예를 들어, 선택된 이미지 센서모듈이 제1 이미지 센서모듈(110)이라고 가정하자.
선택된 제1 이미지 센서모듈(110)은 서브 제어부(220)로 획득한 영상 데이터 를 전송한다(S285). 서브 제어부(220)는 데이터 처리모듈(310)에 영상 데이터를 전달한다(S287). 후속적으로, 선택된 제1 이미지 센서모듈(110)은 서브 제어부(220)로 획득한 영상 데이터를 전송하며(S288), 서브 제어부(220)는 데이터 처리모듈(310)에 수신한 영상 데이터를 그대로 전달한다(S289).
상기와 같이, 본 발명의 일 실시예에 따르면 각 이미지 센서모듈(110, 150, 170) 및 MCU(210) 사이에서 동기화를 유지하는 도중에 다른 이미지 센서모듈을 선택하여 해당 이미지 센서모듈과의 동기화를 다시 할 필요없이 곧바로 영상 데이터를 수신할 수 있으므로 데이터 전송의 효율을 높일 수 있다.
도 3은 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템에서의 프레임 구조를 개략적으로 보여주는 도면이다. 도 3을 참조하면, 제1 프레임(330)은 각 이미지 센서모듈(110, 130, 150, 170) 및 MCU 모듈(210) 사이에 송수신되는 데이터 프레임을 나타내며, 제2 프레임(340)은 MCU 모듈(210) 및 서브 제어부(220) 사이에 송수신되는 데이터 프레임을 나타낸다.
제1 프레임(330)의 데이터 구조는 CID 필드(353), CIN 필드(354), MC 필드(355) 및 페이로드 필드(356)를 포함할 수 있다. CID 필드(353)는 MCU 모듈(210)에 연결된 이미지 센서모듈(110, 130, 150, 170)에 연결된 모듈별 아이디(ID)를 나타내며, CIN 필드(354)는 획득된 영상에 대한 번호를 나타내는 필드를 나타내며, MC 필드(355)는 상위 계층에서의 이미지 센서모듈의 제어 정보 및 MCU 모듈의 명령 정보를 나타낸다. 페이로드 필드(356)는 획득된 영상의 데이터가 실려지는 필드를 말한다.
제2 프레임(340)의 데이터 구조는 FBS 필드(351), FCN 필드(352), CID 드(353), CIS 필드(354), MC 필드(355) 및 페이로드 필드(356)를 포함할 수 있다. FBS 필드(351)는 제2 서브 제어부(220) 및 MCU 모듈(210) 사이이 대역폭을 설정하는 역할을 하며, MCU 모듈(210) 및 각 이미지 센서모듈(110, 130, 150, 170) 사이의 대역폭을 설정하는 역할을 한다. FCN 필드(352)는 원하는 영상 획득 방향 또는 전방향 영상 획득을 위한 명령을 MCU 모듈(210)에 알리는 역할을 한다. 그외의 CID 필드(353), CIN 필드(354), MC 필드(355) 및 페이로드 필드(356)는 제1 프레임(330)의 데이터 구조와 동일하여 생략하기로 한다.
본 발명의 일 실시예에서는 상기의 제1 프레임(330) 및 제2 프레임(340)을 이용하여 각 이미지 센서모듈(110, 130, 150, 170), 제어부(200) 및 데이터 처리부(300) 사이에서 영상 데이터를 송수신할 수 있다.
도 4은 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템에서의 싱크 프레임의 데이터 구조를 보여준다. 여기서, 싱크 프레임(430)은 MCU 모듈(210)의 요청에 따라 각 이미지 센서모듈(110, 130, 150, 170)로부터 수신하는 데이터 프레임을 말한다. 데이터를 송수신하기 전에 먼저 각 영상 센서부(100, 120, 140, 160) 및 제어부(200) 사이에 시간 타이밍을 설정하고, 전송률을 설정함으로써 각 영상 센서부(100, 120, 140, 160)로부터의 전송되는 영상 데이터를 수신할 수 있다.
도 4을 참조하면, 싱크 프레임(430)은 동기화 패턴 필드(450), 전송률 패턴 필드(460) 및 더미 필드(470)를 포함할 수 있다.
동기화 패턴 필드(450)는 소정의 로(low) 및 하이(high) 값으로 이루어진 비 트 패턴으로 구성되는 데이터 필드이다. 동기화 패턴 필드(450)는 미리 정해진 소정의 패턴으로 구성되며, 이는 이미지 센서모듈(110, 130, 150, 170)에 의하여 또는 표준 규격에 의하여 미리 정해진 비트 패턴일 수 있다.
동기화는 데이터를 수신하는 MCU 모듈(210)에서, 비트 단위의 데이터의 경계를 감지하기 위하여 필요하다. 동기화는 송신부인 각 이미지 센서모듈(110, 130, 150, 170) 및 수신부인 MCU 모듈(210) 사이의 클럭을 공유함으로써 이루어 질 수 있다. 따라서, 동기화 패턴 필드(450)는 소정의 정해진 제1 비트 패턴(480)을 전송하고, 이를 수신하는 MCU 모듈(210)은 소정의 정해진 제1 비트 패턴(480)을 수신함으로써 해당 이미지 센서모듈(110, 130, 150, 170)과의 클럭을 동기화 시킬 수 있다. 여기서, 클럭이란 한 비트 마다의 데이터를 전송하는 시간 또는 간격으로 정의할 수 있다. 따라서, 클럭을 동기화한다는 것은 비트 단위의 데이터 전송 시에 전송 시간 즉 전송 간격을 조정하는 것을 말한다. 예를 들어, 한 비트를 0.01초 간격으로 전송하는 경우에 동기화는 0.01초 간격으로 데이터가 수신 또는 송신되는 타이밍을 맞추는 것을 말한다. 각 이미지 센서모듈(110, 130, 150, 170) 및 MCU 모듈(210)은 각각 내부적으로 주파수 또는 클럭을 이용하여 소정의 시간 간격을 인식하는 구성(예를 들어, 오실레이터 등)을 포함할 수 있다.
예를 들어, 도 4에서와 같이 동기화 패턴 필드(450)의 제1 비트 패턴(480)인 "10001110"의 7비트로 구성될 수 있다. 이와 함께 앞뒤로 시작 및 멈춤(Stop) 비트로 한 비트씩 더 포함할 수 있다. 상기 동기화 패턴 필드(450)의 제1 비트 패턴(480)을 수신하는 MCU 모듈(210)은 제1 비트 패턴(480)을 수신하고, 수신된 제1 비트 패턴(480)이 미리 정해진 패턴인지를 체크한다. MCU 모듈(210)은 상기 제 1 비트 패턴(480)을 수신하더라도, 첫번째 싱크 프레임(430)에서는 상기 제1 비트 패턴(480)의 정확한 비트 패턴을 인식하지 못할 수 있다. 따라서, MCU 모듈(210)은 하나 이상의 싱크 프레임(430)을 통하여 상기 제1 비트 패턴(480)을 인식하고, 인식된 제1 비트 패턴(480)을 이용하여 데이터를 전송하는 시간 또는 타이밍을 동기화 시킬 수 있다.
전송률 패턴 필드(460)는 각 이미지 센서모듈(110, 130, 150, 170)의 전송률에 따라 서로 다른 비트 패턴으로 구성되는 데이터 필드이다. 전송률 패턴 필드(460)는 이미지 센서모듈(110, 130, 150, 170)이 전송하려는 전송률에 따라 서로 다른 패턴의 제2 비트 패턴(490)을 MCU 모듈(210)로 전송할 수 있다. 예를 들어, 전송률이 14400 bps(bit per second), 28800 bps, 33600 bps 등의 복수의 전송률에 따라 서로 다른 제2 비트 패턴(490)이 사용될 수 있다. 다른 예로서, baud rate 는 디지털 신호를 아날로그 신호로 바꿔주는 속도를 말하는 것으로, 영상 데이터를 소정의 비트 패턴을 가지는 아날로그 신호를 변조하여 회선을 통하여 MCU 모듈(210)에 전송할 수 있다. 이와 같이, baud rate 또는 bps 등과 같이 데이터 전송률을 인식함으로써, 제어부(200)는 각 이미지 센서모듈(110, 130, 150, 170)의 전송률에 따라 영상 데이터를 수신할 수 있다.
예를 들어, 도 4에서와 같이 전송률 패턴 필드(460)의 제2 비트 패턴(490)인 "11101100"의 7비트로 구성될 수 있다. 상기 전송률 패턴 필드(460)는 싱크 프레임(430)에 포함되어, 동기화 패턴 필드(450)와 함께 전송률 패턴 필드(460)가 동시 에 전송될 수 있다. "11101100"의 제2 비트 패턴(490)에 대하여 14400 baud rate으로 정해져 있다면, MCU 모듈(210)은 상기 제2 비트 패턴(490)을 인식하여 해당 이미지 센서모듈(110, 130, 150, 170)로부터의 데이터 전송률이 14400 baud rate임을 인식할 수 있다.
다만, 전송률 패턴 필드(460)이 전송될 때에는 전송 동기화가 이루어지기 전까지는 0 및 1에 대한 인식만 가능하기에, 상기 0 및 1로 이루어진 제2 비트 패턴을 대략적으로 인식할 수 있다. 예를 들어, 7 비트로 이루어진 전송률 패턴 필드(460)에 대하여 소정의 패턴(다시 말하면, 아날로그 데이터의 하이(high) 및 로(low) 값의 패턴)을 인식함으로써 전송률을 인식할 수 있다. 다시 말하면, 전송률 패턴 필드(460)에 대하여는 복수의 비트에 의한 소정의 패턴으로 인식하여, 전송률을 인식할 수 있다. 왜냐하면, 전송률은 기본 전송률에 복수배로 커지기 때문에, 소정의 전송률에 따라 전송률 패턴 필드(460)를 구분하기 용이하도록 제2 비트 패턴(490)을 조정함으로써 MCU 모듈(210)이 전송률 패턴 필드(460)를 용이하게 인식할 수 있다.
한편, 각 이미지 센서모듈(110, 130, 150, 170)은 획득하는 영상의 해상도에 따라 데이터 전송률을 조정할 수 있다. 예를 들어, 저해상도의 영상의 획득시에는 데이터의 크기가 작아지므로 데이터 전송률을 낮추어 전송할 수 있고, 고해상도 영상의 획득시에는 데이터의 전송률을 높여 MCU 모듈(210) 또는 서브 제어부(220)에 전송할 수 있다.
MCU 모듈(210)이 전송률 패턴 필드(460)에 의하여 데이터 전송율을 인식하는 경우, MCU 모듈(210)은 동기화에 소용되는 시간을 줄일 수 있다. 데이터 전송률이 정해진 상태에서 MCU 모듈(210)은 동기화 패턴 필드(450)에 포함된 제1 비트 패턴을 용이하게 인식할 수 있다. 왜냐하면, 전송률 인식에 의하여 초당 전송되는 데이터의 비트 수를 알 수 있기 때문에, 소정의 시간 간격동안 전달된 동기화 패턴 필드(450)에 포함된 제1 비트 패턴(480)의 각 비트를 용이하게 파악할 수 있다. 따라서, MCU 모듈(210)은 파악된 제1 비트 패턴(480)의 비트의 수신 간격에 의하여 각 이미지 센서모듈(110, 130, 150, 170)과의 소정의 전송 타이밍 또는 데이터의 전송 시간 간격을 용이하게 파악하여 동기화 소요 시간을 줄일 수 있다.
더미 필드(Dummy field; 470)는 싱크 프레임(430)의 데이터 크기를 충족시키기 위하여 덫붙여지는 데이터 필드를 말한다. 더미 필드(370)는 소정의 간격으로 전송되는 싱크 프레임(430)들을 상호 구분하는 역할도 할 수 있다.
상기와 같이, 본 발명의 일 실시예에 따르면 전송률 패턴 필드(460)에 의하여 각 이미지 센서모듈(110, 130, 150, 170)이 전송하는 영상 데이터 전송률을 MCU 모듈(210)이 용이하게 인식할 수 있다. MCU 모듈(210)에 인식된 전송률을 이용하여, 동기화 패턴 필드(450)를 용이하게 인식하여, 동기화에 소요되는 시간을 줄일 수 있다. 따라서, 싱크 프레임(430)의 전송하는 횟수를 감소시켜, 과도한 갯수의 싱크 프레임(430)을 전송하지 않더라도 동기화를 수행할 수 있다.
도 5는 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템에서의 동기유지 프레임의 데이터 구조를 개략적으로 보여준다. 여기서, 동기유지 프레임은 영상 획득 모듈(100, 120, 140, 160) 및 MCU 모듈(210) 사이에서 동기를 유지하기 위하여 송수신되는 데이터 프레임을 말한다. 도 5를 참조하면, 동기유지 프레임(500)의 데이터 구조는 타이머 필드(510), 전송률 패턴필드(460), CID 필드(353), CIN 필드(354), MC 필드(355) 및 페이로드 필드(356)를 포함할 수 있다. CID 필드(353), CIN 필드(354), MC 필드(355) 및 페이로드 필드(356)는 도 3에서의 제1 프레임(330)의 데이터 구조와 동일하여 생략하기로 한다.
각 이미지 센서모듈(110, 130, 150, 170)은 상대적으로 긴 주기마다 동기유지 프레임(500)을 MCU 모듈(210)에 전송할 수 있다. 이는 각 이미지 센서모듈(110, 130, 150, 170) 중에서 데이터를 송수신하지 않는 상태에 있는 이미지 센서모듈 및 MCU 모듈(210) 사이에 내부적으로 동기화를 유지함으로써, 후속적인 이미지 센서모듈의 영상 데이터 전송 시에 재동기화를 하지 않고 영상 데이터를 송신할 수 있게 함으로써 복수의 이미지 센서모듈(110, 130, 150, 170)에 의하여 전방향의 영상을 획득할 수 있도록 한다.
한편, 동기유지 프레임(500)의 전송률 패턴필드(460)는 도 4에서 도시된 바와 같이 각 영상 센서부(100, 120, 140, 160)에 따라 서로 다른 비트 패턴으로 구성될 수 있다. 따라서, MCU 모듈(210)은 동기유지 프레임(500)의 전송률 패턴필드(460)을 수신하여, 각 이미지 센서모듈(110, 130, 150, 170)의 송신 데이터의 전송률을 인식할 수 있다. 또는 MCU 모듈(210)은 초기 동기화를 통한 싱크 프레임(430)의 전송률 패턴필드(460) 인식하여 데이터의 전송률을 미리 인식한 상태에서, 동기유지 프레임(500)의 전송률 패턴필드(460) 수신에 의하여 전송률을 재확인 할 수도 있다.
타이머 필드(510)는 각 이미지 센서모듈(110, 130, 150, 170)의 동작하는 시작점을 나타낸다. 각 이미지 센서모듈(110, 130, 150, 170)은 이미 초기 동기화가 이루어져, 소정의 전송률 및 이에 따른 클럭(주파수)은 맞춰져 있는 상태이다. 하지만, 시간이 지나면서 각 이미지 센서모듈(110, 130, 150, 170)이 동작을 시작하는 시작점이 미세하게 변동될 수 있다.
따라서, 각 이미지 센서모듈(110, 130, 150, 170)은 자신의 시작점에 대한 정보를 타이머 필드(510)를 통하여 MCU 모듈(210)에 알려준다. 예를 들어, 도 5에서와 같이 타이머 필드(510)가 16비트의 길이로 이루어지는 경우, 소정의 시그널이 전송되는 경우에 기본적으로 절대값이 가장 큰 신호가 수신된 시점 또는 신호가 수신된 소정 간격의 중간 지점을 시작점으로 지정할 수 있다. 따라서, 비트 3, 4 및 5에서 신호가 수신되었지만 아날로그 신호 등의 특성에 비추어 비트 4에서 절대값이 가장 큰 신호가 수신된 것이기에 비트 4에서의 시간을 시작점으로 할 수 있다. 여기서, 시작점이란 각 이미지 센서모듈(110, 130, 150, 170)이 자신이 동작을 시작하는 주기(0<T<360˚ 범위)중의 하나의 값 또는 각도를 말한다. 예를 들어, 각 이미지 센서모듈(110, 130, 150, 170)은 항상 90˚각도(최대 값)에서 동작을 시작하는 시작점이 될 수 있고, 여기서 동작은 데이터의 송수신을 위한 각 이미지 센서모듈(110, 130, 150, 170)의 동작을 말한다.
따라서, 각 이미지 센서모듈(110, 130, 150, 170)은 자신의 동작 시작점을 MCU 모듈(210)에 타이머 필드(510)를 통하여 제공함으로써, MCU 모듈(210)은 각 이미지 센서모듈(110, 130, 150, 170)의 시작점을 용이하게 파악할 수 있다. 이와 함 께, MCU 모듈(210)은 소정의 이미지 센서모듈이 선택된 후에 후속적인 영상 데이터 전송에 있어, 타이머 필드(510)에서 제공된 시작점을 감지한 상태에서 전송률 패턴필드(460)을 이용하여 인식된 전송률에 따라 영상 데이터를 수신할 수 있다. 한편, 서브 제어부(220)는 MCU 모듈(210)로부터 상기 MCU 모듈(210)로부터 동기화 정보를 전송 받아, 선택된 이미지 센서모듈로부터 영상 데이터를 소정의 전송률 및 타이밍에 따라 수신할 수 있다.
상기에서와 같이, 본 발명의 일 실시예에 의하면 각 이미지 센서모듈(110, 130, 150, 170)은 주기적 또는 비주기적으로 동기유지 프레임(500)을 송신함으로써, 내부적으로 동기화를 지속적으로 유지함으로써 후속 과정에서 재동기화를 거치지 않고도 곧바로 동기유지 프레임(500)으로부터 추출된 정보를 기초로 영상 데이터를 송수신할 수 있다.
도 6은 본 발명의 일 실시예에 따른 전방향 영상 획득 방법을 개략적으로 보여준다. 도 6을 참조하면, 먼저 MCU 모듈(210)은 복수의 이미지 센서모듈(110, 130, 150, 170)에 초기 동기화를 요청하는 메시지를 송신하고, 각 이미지 센서모듈(110, 130, 150, 170)에 식별 ID를 할당한다(S610).
각 이미지 센서모듈(110, 130, 150, 170)은 초기 동기화 요청에 대응하여 MCU 모듈(210)에 하나 이상의 싱크 프레임(430)을 전송하여 초기 동기화를 수행한다(S620). 초기 동기화가 수행되면 각 이미지 센서모듈(110, 130, 150, 170)로부터 영상 데이터를 수신할 수 있다. 한편, 동기화된 각 이미지 센서모듈(110, 130, 150, 170)로부터 수신된 메시지는 MCU 모듈(210)이 각각의 인트럽트로 관리할 수 있고, 개별적인 동기화 정보를 소정의 메모리에 저장하여 언제든지 접근할 수 있다.
MCU 모듈(210)은 데이터 처리부(300)로부터 소정의 이미지 센서모듈(110, 130, 150, 170)을 선택하라는 메시지에 따라 소정의 이미지 센서모듈을 선택하고, 영상 데이터를 수신할 서브 제어부(220)에 선택된 이미지 선세모듈의 동기화 정보를 제공한다(S630).
선택된 이미지 센서모듈은 획득된 영상 데이터를 서브 제어부(220)에 전송하고(S650), 서브 제어부(220)는 수신된 영상 데이터를 데이터 처리모듈(310)에 전달한다(S660).
한편, MCU 모듈(210)은 데이터 처리부(300)로부터 다른 이미지 센서모듈을 선택하는 명령을 수신할 수 있다(S670). MCU 모듈(210)은 선택된 이미지 센서모듈에게 영상 데이터 송신을 요청하고, 서브 제어부(220)에 선택된 이미지 센서모듈의 동기화 정보를 제공한다(S680). 여기서, 동기화 정보는 동기유지 프레임으로부터 추출된 동기화 정보를 말한다.
선택된 이미지 센서모듈로 스위칭된 후에는 선택된 이미지 센서모듈로부터 영상 데이터를 수신하고, 데이터 처리모듈(310)로 수신된 영상 데이터를 전송한다(S650, S660).
한편, 각 이미지 센서모듈(110, 130, 150, 170)은 주기적으로 MCU 모듈(210)에 동기유지 프레임(500)을 송신한다(S640). 동기유지 프레임(500)은 선택되지 아니한 이미지 센서모듈 및 MCU 모듈(210) 사이에서 내부적으로 동기화를 유지할 수 있도록 한다.
상기에서와 같이, 본 발명의 일 실시예에 의하면 MCU 모듈(210) 및 각 이미지 센서모듈(110, 130, 150, 170) 사이에 동기유지 프레임(500)을 소정의 Ack(Acknowledgment) 신호로서 주기적으로 수신함으로써 선택된 이미지 센서모듈을 재동기화를 하지 않고서도 영상 데이터를 전송할 수 있도록 함으로써, 영상 데이터 전송의 효율성을 높일 수 있다.
도 7은 본 발명의 일 실시예에 따른 영상 데이터 저장 및 일반적인 영상 데이터 저장을 비교한 도면이다. 도 7을 참조하면, 본 발명의 일 실시예는 재동기화를 하지 않는 기법에 따라 이미지를 저장한 갯수를 나타내며, 일반적인 기법은 재동기화를 하면서 이미지를 저장한 갯수를 나타낸다.
동일한 시간에서 비교하면, 본 발명의 일 실시예에 따라 재동기화를 하지 않는 기법이 상대적으로 많은 이미지를 수신하여 저장할 수 있음을 알 수 있다. 이는 본 발명의 일 실시예서는 재동기화를 하지 않음으로써 상대적으로 영상 획득에 더 많은 시간을 부여함으로써 동일한 시간내에서 이미지 저장 갯수를 증가시킬 수 있는 것을 알 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 벗어나지 않는 범위 내에서 여러 가지로 치환, 변형 및 변경이 가능하므로 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으 로 이해해야만 한다.
도 1은 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 전방향 영상 획득 방법의 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템에서의 프레임 구조를 개략적으로 보여주는 도면이다.
도 4은 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템에서의 싱크 프레임의 데이터 구조를 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 따른 전방향 영상 획득 시스템에서의 동기유지 프레임의 데이터 구조를 개략적으로 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 따른 전방향 영상 획득 방법을 개략적으로 보여주는 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 영상 데이터 저장 및 일반적인 영상 데이터 저장을 비교한 도면이다.
*도면의 주요 부분에 대한 설명*
100: 영상 센서부 200: 제어부
110, 130, 150, 170: 이미지 센서모듈
115, 135, 155, 175: 데이터 압축 모듈
210: MCU 모듈 220: 서버 제어부
230: 버퍼 모듈 300: 데이터 처리부
310: 데이터 처리모듈 230: 저장 모듈
330: 제1 프레임 340: 제2 프레임
430: 싱크 프레임 450: 동기화 패턴 필드
460: 전송률 패턴 필드 510: 타이머 필드

Claims (12)

  1. 영상 데이터를 전송하는 복수의 영상 센서부;
    상기 복수의 영상 센서부와 초기 동기화를 수행하며, 상기 복수의 영상 센서부 중 하나를 선택하는 제어부; 및
    상기 선택된 영상 센서부의 영상 데이터를 전송 받는 데이터 처리부를 포함하며,
    상기 제어부는 상기 복수의 영상 센서부로부터 각 영상 센서부의 동기화 정보를 포함하는 동기유지 프레임을 수신하고, 상기 수신한 동기유지 프레임을 이용하여 상기 복수의 영상 센서부와의 동기를 유지하는, 전방향 영상 획득 시스템.
  2. 제 1항에 있어서,
    상기 제어부는 상기 동기유지 프레임을 소정의 시간 간격으로 주기적으로 수신하며,
    상기 제어부는 상기 데이터 처리부로부터 상기 복수의 영상 센서부 중 하나를 선택하는 메시지를 수신하여 상기 선택된 영상 센서부로 데이터 채널을 스위칭시키는, 전방향 영상 획득 시스템.
  3. 제 1항에 있어서, 상기 동기유지 프레임은
    상기 각 영상 센서부의 동작의 시작점을 나타내는 타이머 필드 및 상기 각 영상 센서부의 전송률을 나타내는 전송률 패턴 필드를 포함하는, 전방향 영상 획득 시스템.
  4. 제 1항에 있어서, 상기 제어부는
    상기 복수의 영상 센서부 사이에서 동기화에 따른 데이터를 송수신하는 MCU 모듈; 및
    상기 선택된 영상 센서부의 영상 데이터를 수신하고 상기 데이터 처리부에 전달하는 서브 제어부를 포함하는, 전방향 영상 획득 시스템.
  5. 제 1항에 있어서,
    상기 제어부는 상기 복수의 영상 센서부로부터 초기 동기화 정보를 나타내는 싱크 프레임을 수신하고, 상기 수신한 싱크 프레임에 근거하여 상기 복수의 영상 센서부로부터의 전송률을 인식하고 전송 타이밍을 동기화함으로써, 상기 초기 동기화를 수행하는, 전방향 영상 획득 시스템.
  6. 제 5항에 있어서,
    상기 싱크 프레임은 상기 각 영상 센서부의 데이터 전송 시간을 동기화하는 동기화 패턴 필드 및 상기 각 영상 센서부로부터의 상기 전송률을 나타내는 전송률 패턴 필드를 포함하는, 전방향 영상 획득 시스템.
  7. 제 3항 또는 6항에 있어서,
    상기 전송률 패턴 필드는 상기 각 영상 센서부의 전송률에 따라 서로 다른 비트 패턴으로 구성되는, 전방향 영상 획득 시스템.
  8. 제 6항에 있어서,
    상기 동기화 패턴 필드는 정해진 패턴으로 구성되며, 상기 각 영상 센서부와의 클럭 동기를 제공하는, 전방향 영상 획득 시스템.
  9. 초기 동기화를 위한 싱크 프레임을 복수의 영상 센서부로부터 각각 수신하여 각 영상 센서부와 초기 동기화를 수행하는 단계;
    상기 복수의 영상 센서부 중 하나를 선택하여 영상 데이터를 수신하는 단계; 및
    비선택된 영상 센서부로부터 상기 비선택된 영상 센서부의 동기화 정보를 포함하는 동기유지 프레임을 수신하고, 상기 수신한 동기유지 프레임을 이용하여 상기 비선택된 영상 센서부와의 동기를 유지하는 단계를 포함하는, 전방향 영상 획득 방법.
  10. 제 9항에 있어서, 상기 초기 동기화를 수행하는 단계는
    상기 싱크 프레임 내의 전송률 패턴 필드를 이용하여 상기 각 영상 센서부로부터의 전송률을 인식하는 단계; 및
    상기 인식된 전송률을 이용하여 상기 각 영상 센서부로부터 전송된 싱크 프레임 내의 동기화 패턴 필드를 인식하는 단계를 포함하는, 전방향 영상 획득 방법.
  11. 제 9항에 있어서, 상기 동기유지 프레임은
    상기 비선택된 영상 센서부의 동작의 시작점을 나타내는 타이머 필드 및 상기 비선택된 영상 센서부의 전송률을 나타내는 전송률 패턴 필드를 포함하는, 전방향 영상 획득 방법.
  12. 제 9항에 있어서,
    상기 수신한 영상 데이터를 데이터 처리부에 전송하는 단계를 더 포함하며,
    상기 영상 데이터를 수신하는 단계는 상기 데이터 처리부로부터 상기 복수의 영상 센서부 중 하나를 선택하는 메시지를 수신하여 상기 선택된 영상 센서부로 데이터 채널을 스위칭시키는 단계를 포함하는, 전방향 영상 획득 방법.
KR1020090054503A 2009-06-18 2009-06-18 전방향 영상 획득 시스템 및 방법 KR101007347B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090054503A KR101007347B1 (ko) 2009-06-18 2009-06-18 전방향 영상 획득 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090054503A KR101007347B1 (ko) 2009-06-18 2009-06-18 전방향 영상 획득 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20100136242A KR20100136242A (ko) 2010-12-28
KR101007347B1 true KR101007347B1 (ko) 2011-01-13

Family

ID=43510345

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090054503A KR101007347B1 (ko) 2009-06-18 2009-06-18 전방향 영상 획득 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101007347B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809727B1 (ko) * 2016-09-27 2017-12-15 주식회사 켐트로닉스 Svm 시스템 및 그의 영상입력 및 처리방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020037640A (ko) * 2000-11-15 2002-05-22 김우성 복수의 영상을 처리하는 카메라
KR20030040808A (ko) * 2001-11-16 2003-05-23 이재신 360도를 동시 촬상 가능한 촬상 장치
KR20060115209A (ko) * 2005-05-04 2006-11-08 한국과학기술연구원 스테레오 줌 시각처리 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020037640A (ko) * 2000-11-15 2002-05-22 김우성 복수의 영상을 처리하는 카메라
KR20030040808A (ko) * 2001-11-16 2003-05-23 이재신 360도를 동시 촬상 가능한 촬상 장치
KR20060115209A (ko) * 2005-05-04 2006-11-08 한국과학기술연구원 스테레오 줌 시각처리 장치

Also Published As

Publication number Publication date
KR20100136242A (ko) 2010-12-28

Similar Documents

Publication Publication Date Title
US10958820B2 (en) Intelligent interface for interchangeable sensors
JP6724977B2 (ja) 画像処理装置、表示装置、再生制御方法及び画像処理システム
EP2672698B1 (en) Imaging apparatus, imaging apparatus control method, lens apparatus, and lens apparatus control method
WO2019023868A1 (zh) 一种图像拍摄的控制方法、控制装置及控制系统
JP7028857B2 (ja) 画像センサ、および制御システム
US20110110656A1 (en) Camera system and image forming apparatus
EP2672697B1 (en) Imaging apparatus, lens apparatus, and imaging apparatus control method
US20200045221A1 (en) Photographing synchronization method and apparatus
US20070013807A1 (en) Digital camera
US20190149702A1 (en) Imaging apparatus
CN111416944B (zh) 用于多路复用mipi多光谱成像设备的系统和方法
CN213092100U (zh) 一种曝光系统
RU2542343C2 (ru) Система камер, способ настройки величины задержки сигнала и программа
CN113329174B (zh) 多目摄像机的控制方法、装置、系统和电子装置
KR101007347B1 (ko) 전방향 영상 획득 시스템 및 방법
US11064156B2 (en) Camera control method, camera, and surveillance system
CN110383829B (zh) 图像处理设备和方法
WO2013069296A1 (ja) 撮像装置、撮像システムおよびプログラム
US10212329B2 (en) Synchronization system and method thereof
TW201801515A (zh) 影像產生方法及影像拍攝裝置
US9398271B2 (en) Apparatus and method of alternately capturing images with rotating prism
KR102080927B1 (ko) 스테레오 영상 생성 방법 및 장치
KR100992111B1 (ko) 영상 센서의 고속 동기화 방법 및 시스템
US20230394826A1 (en) Data processing device and method, and data processing system
US20240236512A1 (en) Control apparatus, image capturing system and control method thereof, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131231

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee