KR102107299B1 - Method of transmitting image data and apparatuses performing the same - Google Patents

Method of transmitting image data and apparatuses performing the same Download PDF

Info

Publication number
KR102107299B1
KR102107299B1 KR1020180071615A KR20180071615A KR102107299B1 KR 102107299 B1 KR102107299 B1 KR 102107299B1 KR 1020180071615 A KR1020180071615 A KR 1020180071615A KR 20180071615 A KR20180071615 A KR 20180071615A KR 102107299 B1 KR102107299 B1 KR 102107299B1
Authority
KR
South Korea
Prior art keywords
image data
camera
data
packet
cameras
Prior art date
Application number
KR1020180071615A
Other languages
Korean (ko)
Other versions
KR20190143732A (en
Inventor
김성용
김응태
Original Assignee
한국산업기술대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국산업기술대학교산학협력단 filed Critical 한국산업기술대학교산학협력단
Priority to KR1020180071615A priority Critical patent/KR102107299B1/en
Publication of KR20190143732A publication Critical patent/KR20190143732A/en
Application granted granted Critical
Publication of KR102107299B1 publication Critical patent/KR102107299B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

영상 데이터 전송 방법 및 이를 수행하는 장치들이 개시된다. 일 실시예에 따른 영상 데이터 전송 방법은 복수의 카메라들로부터 복수의 영상 데이터를 획득하는 단계와, 상기 복수의 영상 데이터를 통합하여 하나의 영상 데이터 패킷을 생성하는 단계와, 상기 하나의 영상 데이터 패킷을 전송하는 단계를 포함한다.Disclosed is an image data transmission method and apparatuses performing the same. An image data transmission method according to an embodiment may include obtaining a plurality of image data from a plurality of cameras, generating one image data packet by integrating the plurality of image data, and the one image data packet. It includes the step of transmitting.

Description

영상 데이터 전송 방법 및 이를 수행하는 장치들{METHOD OF TRANSMITTING IMAGE DATA AND APPARATUSES PERFORMING THE SAME}METHOD OF TRANSMITTING IMAGE DATA AND APPARATUSES PERFORMING THE SAME}

아래 실시예들은 영상 데이터 전송 방법 및 이를 수행하는 장치들에 관한 것이다.The following embodiments relate to an image data transmission method and apparatuses performing the same.

최근에는 ADAS(advanced driver assistance systems)에 대한 연구와 투자가 많이 이루어지고 있다. 하지만, 상용화 제품은 세계적으로 1 및 2 군데 정도로 국한되어 있다.Recently, a lot of research and investment in ADAS (advanced driver assistance systems) has been made. However, commercialized products are limited to one or two locations worldwide.

ADAS 기술 개발은 외부 환경을 인지하기 위한 센서의 역할이 중요하다. 따라서, ADAS용 카메라, 레이터 및 라이다 등의 센서 시장은 빠르게 성장할 것으로 예상된다.In developing ADAS technology, the role of the sensor to recognize the external environment is important. Therefore, the sensor market for ADAS cameras, radars and lidars is expected to grow rapidly.

ADAS용 카메라를 이용한 영상 분석 기술은 여러 개의 다양한 조건으로 영상을 분석해야 함으로, 다중 카메라 영상 데이터를 처리하는 기술이 필요하다.As the image analysis technology using the ADAS camera needs to analyze the image under various conditions, a technique for processing multiple camera image data is required.

특히, 영상 분석 기술은 모바일에서 사용하는 카메라 인터페이스 규격인 MIPI(mobile industry processor interface) CSI(camera serial interface)를 표준화하여 영상 분석에 이용할 것으로 판단된다.In particular, the image analysis technology is determined to standardize a mobile industry processor interface (MIPI) camera serial interface (CSI), which is a camera interface standard used in mobile, to use for image analysis.

실시예들은 복수의 카메라들로부터 전송된 복수의 영상 데이터이 통합된 하나의 영상 데이터 패킷, 동기 신호 및 카메라 정보를 영상 처리 장치에 전송함으로써, 복수의 카메라들과 영상 처리 장치간의 통신을 중계하는 단일 장치(또는 단일 인터페이스)를 제공하는 기술을 제공할 수 있다.Embodiments are a single device for relaying communication between a plurality of cameras and an image processing device by transmitting a single image data packet, a synchronization signal and camera information in which a plurality of image data transmitted from a plurality of cameras are integrated to the image processing device. (Or a single interface).

일 실시예에 따른 영상 데이터 전송 방법은 복수의 카메라들로부터 복수의 영상 데이터를 획득하는 단계와, 상기 복수의 영상 데이터를 통합하여 하나의 영상 데이터 패킷을 생성하는 단계와, 상기 하나의 영상 데이터 패킷을 전송하는 단계를 포함한다.An image data transmission method according to an embodiment may include obtaining a plurality of image data from a plurality of cameras, generating one image data packet by integrating the plurality of image data, and the one image data packet. It includes the step of transmitting.

상기 획득하는 단계와 상기 전송하는 단계는 하나의 CSI(camera serial interface)를 통해 수행될 수 있다.The acquiring step and the transmitting step may be performed through one camera serial interface (CSI).

상기 방법은 상기 복수의 카메라들 각각의 카메라 ID(identification) 및 카메라 위치 정보 중에서 적어도 하나를 전송하는 단계를 더 포함할 수 있다.The method may further include transmitting at least one of camera identification (ID) and camera location information of each of the plurality of cameras.

상기 적어도 하나는 상기 하나의 영상 데이터 패킷의 패킷 헤더에 포함된 데이터 ID(data identifier)에 포함될 수 있다.The at least one may be included in a data identifier (ID) included in a packet header of the one video data packet.

상기 적어도 하나는 상기 데이터 ID의 데이터 타입 중에서 user defined byte-based data에 포함될 수 있다.The at least one of the data types of the data ID may be included in user defined byte-based data.

상기 적어도 하나는 CCI(camera control interface)를 통해 전송될 수 있다.The at least one may be transmitted through a camera control interface (CCI).

도 1은 일 실시예에 따른 영상 데이터 전송 시스템의 개략적인 블록도를 나타낸다.
도 2는 도 1에 도시된 송수신 장치의 개략적인 블록도를 나타낸다.
도 3은 도 2에 도시된 CSI 송신기 모듈 및 CSI 수신기 모듈을 설명하기 위한 일 예를 나타낸다.
도 4는 일 실시예에 따른 하나의 영상 데이터 패킷을 설명하기 위한 일 예를 나타낸다.
도 5는 도 4에 도신된 long packet의 구조를 나타낸다.
도 6은 도 5에 도시된 data identifier를 나타낸다.
도 7은 도 6에 도시된 data type을 나타낸다.
도 8은 도 1에 도시된 송수신 장치의 동작을 설명하기 위한 순서도를 나타낸다.
1 is a schematic block diagram of an image data transmission system according to an embodiment.
FIG. 2 shows a schematic block diagram of the transmitting and receiving device shown in FIG. 1.
3 shows an example for describing the CSI transmitter module and the CSI receiver module shown in FIG. 2.
4 shows an example for describing one video data packet according to an embodiment.
5 shows the structure of the long packet carried in FIG. 4.
FIG. 6 shows the data identifier shown in FIG. 5.
FIG. 7 shows the data type shown in FIG. 6.
8 is a flowchart illustrating an operation of the transceiver shown in FIG. 1.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, various changes may be made to the embodiments, and the scope of the patent application right is not limited or limited by these embodiments. It should be understood that all modifications, equivalents, or substitutes for the embodiments are included in the scope of rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "include" or "have" are intended to indicate the presence of features, numbers, steps, actions, components, parts or combinations thereof described herein, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

제1 또는 제2등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해서 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 실시예의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first or second may be used to describe various components, but the components should not be limited by the terms. The terms are for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights according to the concept of the embodiment, the first component may be referred to as the second component, and similarly The second component may also be referred to as the first component.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the embodiments, detailed descriptions thereof will be omitted.

본 명세서에서의 모듈(module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다.A module in the present specification may mean hardware capable of performing functions and operations according to each name described in the present specification, or computer program code capable of performing specific functions and operations. Or, it may mean an electronic recording medium on which computer program code capable of performing a specific function and operation is mounted, for example, a processor or a microprocessor.

다시 말해, 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.In other words, the module may mean a functional and / or structural combination of hardware for performing the technical idea of the present invention and / or software for driving the hardware.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. The same reference numerals in each drawing denote the same members.

도 1은 일 실시예에 따른 영상 데이터 전송 시스템의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of an image data transmission system according to an embodiment.

도 1을 참조하면, 영상 데이터 전송 시스템(an image data transmitting system; 10)은 복수의 카메라들(a plural cameras; 100-1 내지 100-n), 송수신 장치(a transceiver; 300) 및 영상 처리 장치(an image processing apparatus; 500)를 포함한다.Referring to FIG. 1, an image data transmitting system 10 includes a plural cameras 100-1 to 100-n, a transceiver 300, and an image processing device. (an image processing apparatus; 500).

복수의 카메라들(100-1 내지 100-n)은 복수의 영상 데이터, 동기 신호 및 카메라 정보를 송수신 장치(300)에 전송할 수 있다. 복수의 카메라들(100-1 내지 100-n)은 ADAS용 다중 카메라일 수 있다. 복수의 카메라들(100-1 내지 100-n)은 MIPI CSI 규격을 가지고 있는 카메라일 수 있다. n은 1 이상의 자연수일 수 있다.The plurality of cameras 100-1 to 100-n may transmit a plurality of image data, a synchronization signal, and camera information to the transceiver 300. The plurality of cameras 100-1 to 100-n may be multiple cameras for ADAS. The plurality of cameras 100-1 to 100-n may be cameras having a MIPI CSI standard. n may be a natural number of 1 or more.

예를 들어, 복수의 카메라들(100-1 내지 100-n)은 복수의 카메라들이 촬영한 영상 데이터 및 동기 신호를 송수신 장치(300)에 전송할 수 있다. 영상 데이터는 자동차 내부, 외부 및 주변 외부 환경 등 복수의 카메라들(100-1 내지 100-n)이 촬영한 다양한 영상일 수 있다. 동기 신호는 수평 동기 신호(hotizontal synchronization signal; HSYNC) 및 수직 동기 신호(vertical synchronization signal; VSYNC)를 포함할 수 있다.For example, the plurality of cameras 100-1 to 100-n may transmit image data and synchronization signals captured by the plurality of cameras to the transceiver 300. The image data may be various images captured by a plurality of cameras 100-1 to 100-n, such as a vehicle interior, an exterior, and a surrounding external environment. The synchronization signal may include a horizontal synchronization signal (HSYNC) and a vertical synchronization signal (VSYNC).

복수의 카메라들(100-1 내지 100-n)은 복수의 카메라들(100-1 내지 100-n)의 카메라 정보를 송수신 장치(300)에 전송할 수 있다. 카메라 정보는 복수의 카메라들(100-1 내지 100-n) 각각의 카메라 ID, 카메라 위치 정보, 카메라 픽셀 크기 및 영상 데이터에 대한 정보 중에서 적어도 하나를 포함할 수 있다. 영상 데이터에 대한 정보는 영상의 수평 사이즈 및 수직 사이즈를 포함할 수 있다.The plurality of cameras 100-1 to 100-n may transmit camera information of the plurality of cameras 100-1 to 100-n to the transceiver 300. The camera information may include at least one of camera ID, camera location information, camera pixel size, and image data information for each of the plurality of cameras 100-1 to 100-n. Information about the image data may include horizontal and vertical sizes of the image.

또한, 복수의 카메라들(100-1 내지 100-n)은 송수신 장치(300)를 통해 영상 처리 장치(500)가 전송한 제어 신호에 따라 제어될 수 있다.Also, the plurality of cameras 100-1 to 100-n may be controlled according to a control signal transmitted by the image processing apparatus 500 through the transmission / reception device 300.

송수신 장치(300)는 복수의 카메라들(100-1 내지 100-n)으로부터 전송된 복수의 영상 데이터, 동기 신호 및 카메라 정보를 수신하고, 복수의 영상 데이터가 통합된 하나의 영상 데이터 패킷, 동기 신호 및 카메라 정보를 영상 처리 장치(500)에 전송(또는 송신)할 수 있다. 이때, 송수신 장치(300)는 카메라 정보를 하나의 영상 데이터 패킷에 포함할 수 있다.The transmitting and receiving device 300 receives a plurality of image data, a synchronization signal, and camera information transmitted from a plurality of cameras 100-1 to 100-n, and a single image data packet in which a plurality of image data are integrated, synchronization Signals and camera information may be transmitted (or transmitted) to the image processing apparatus 500. At this time, the transmission / reception device 300 may include camera information in one image data packet.

즉, 송수신 장치(300)는 복수의 카메라들(100-1 내지 100-n)과 영상 처리 장치(500)간의 통신을 중계하는 단일 장치(또는 단일 인터페이스)일 수 있다.That is, the transmission / reception device 300 may be a single device (or a single interface) that relays communication between a plurality of cameras 100-1 to 100-n and the image processing device 500.

영상 처리 장치(500)는 AP(application processor), 디지털 신호 프로세서 및 디스플레이 등 영상을 처리하는 다양한 장치일 수 있다.The image processing apparatus 500 may be various apparatuses for processing images, such as an application processor (AP), a digital signal processor, and a display.

영상 처리 장치(500)는 송수신 장치(300)로부터 전송된 영상 데이터를 처리할 수 있다. 예를 들어, 영상 처리 장치(500)는 송수신 장치(300)로부터 전송된 영상 데이터 및 카메라 정보를 획득(또는 수신)할 수 있다. 영상 처리 장치(500)는 카메라 정보에 기초하여 송수신 장치(300)가 제공하는 영상 데이터를 처리 및/또는 디스플레이할 수 있다.The image processing apparatus 500 may process image data transmitted from the transmission / reception apparatus 300. For example, the image processing apparatus 500 may acquire (or receive) image data and camera information transmitted from the transmission / reception apparatus 300. The image processing apparatus 500 may process and / or display image data provided by the transmission / reception apparatus 300 based on camera information.

또한, 영상 처리 장치(500)는 송수신 장치(300)를 통해 복수의 카메라들(100-1 내지 100-n)을 제어하는 제어 신호를 복수의 카메라들(100-1 내지 100-n)에 전송할 수 있다. 예를 들어, 영상 처리 장치(500)는 송수신 장치(300)로부터 전송된 동기 신호를 획득(또는 수신)할 수 있다. 영상 처리 장치(500)는 동기 신호에 기초하여 제어 신호를 복수의 카메라들(100-1 내지 100-n)에 전송할 수 있다.In addition, the image processing apparatus 500 transmits a control signal for controlling the plurality of cameras 100-1 to 100-n through the transceiver 300 to the plurality of cameras 100-1 to 100-n. You can. For example, the image processing apparatus 500 may acquire (or receive) a synchronization signal transmitted from the transmission / reception apparatus 300. The image processing apparatus 500 may transmit a control signal to the plurality of cameras 100-1 to 100-n based on the synchronization signal.

도 2는 도 1에 도시된 송수신 장치의 개략적인 블록도를 나타낸다.FIG. 2 shows a schematic block diagram of the transmitting and receiving device shown in FIG. 1.

도 2를 참조하면, 송수신 장치(300)는 송신기(transmitter; 310) 및 수신기(receiver; 330)를 포함한다.Referring to FIG. 2, the transmission / reception device 300 includes a transmitter 310 and a receiver 330.

송신기(310)는 CSI(camera serial interface) 송신기 모듈(311) 및 CCI(control interface) slave 모듈(313)을 포함할 수 있다.The transmitter 310 may include a camera serial interface (CSI) transmitter module 311 and a control interface (CCI) slave module 313.

CSI 송신기 모듈(311)은 복수의 영상 데이터, 동기 신호 및 카메라 정보를 전송(또는 송신)하는 단일 CSI 모듈일 수 있다. CSI는 AP와 카메라를 연결하는 인터페이스에 관한 표준일 수 있다.The CSI transmitter module 311 may be a single CSI module that transmits (or transmits) a plurality of image data, synchronization signals, and camera information. CSI may be a standard for an interface connecting an AP and a camera.

CSI 송신기 모듈(311)은 복수의 카메라들(100-1 내지 100-n)로부터 전송된 복수의 영상 데이터를 획득(또는 수신)하고, 복수의 영상 데이터를 통합하여 하나의 영상 데이터 패킷을 생성할 수 있다. 예를 들어, 통합된 하나의 데이터 패킷은 MIPI CSI 패킷 규격에 적합한 패킷일 수 있다.The CSI transmitter module 311 acquires (or receives) a plurality of image data transmitted from a plurality of cameras 100-1 to 100-n, and integrates the plurality of image data to generate one image data packet. You can. For example, one integrated data packet may be a packet conforming to the MIPI CSI packet standard.

또한, CSI 송신기 모듈(311)은 복수의 카메라들(100-1 내지 100-n)의 카메라 정보가 포함된 하나의 영상 데이터 패킷을 생상할 수 있다. 예를 들어, 카메라 정보는 카메라 ID 및 카메라 위치 정보 중에서 적어도 하나를 포함할 수 있다. 이때, 적어도 하나는 하나의 영상 데이터 패킷의 패킷 헤더에 포함된 데이터 ID(data identifier)의 user defined byte-based data에 포함될 수 있다.Also, the CSI transmitter module 311 may generate one image data packet including camera information of a plurality of cameras 100-1 to 100-n. For example, the camera information may include at least one of camera ID and camera location information. At this time, at least one may be included in user defined byte-based data of a data ID (data identifier) included in the packet header of one video data packet.

CSI 송신기 모듈(311)은 데이터 라인(data lane)을 통해 하나의 영상 데이터 패킷을 CSI 수신기 모듈(331)로 전송할 수 있다. 예를 들어, 데이터 라인은 복수개(예를 들어, data 1 내지 data N)로 구성될 수 있다. N은 1 이상의 자연수일 수 있다. 데이터 라인은 +와 ? 신호로 각 2개의 pin으로 구성될 수 있다.The CSI transmitter module 311 may transmit one image data packet to the CSI receiver module 331 through a data lane. For example, a plurality of data lines (eg, data 1 to data N) may be configured. N may be a natural number of 1 or more. Data lines are + and? It can be composed of 2 pins for each signal.

CSI 송신기 모듈(311)은 동기 신호를 CSI 수신기 모듈(331)에 전송(또는 송신)할 수 있다. 예를 들어, CSI 송신기 모듈(311)은 클럭 라인(clock lane)을 통해 동기 신호를 CSI 수신기 모듈(331)에 전송할 수 있다. 클럭 라인은 +와 ? 신호로 각 2개의 pin으로 구성될 수 있다.The CSI transmitter module 311 may transmit (or transmit) a synchronization signal to the CSI receiver module 331. For example, the CSI transmitter module 311 may transmit a synchronization signal to the CSI receiver module 331 through a clock lane. The clock lines are + and? It can be composed of 2 pins for each signal.

CCI slave 모듈(313)은 카메라 정보를 수신기(300)의 CCI master 모듈(333)에 전송(또는 송신)하는 단일 CCI 모듈일 수 있다. 예를 들어, 카메라 정보는 CSI 송신기 모듈(311)을 통해 전송되는 하나의 영상 데이터 패킷에 포함된 복수의 영상 데이터를 구별하기 위한 정보일 수 있다. 카메라 ID 및 카메라 위치 정보가 하나의 영상 데이터 패킷에 포함되지 않거나 포함되어 전송되어도, 카메라 ID 및 카메라 위치 정보는 CCI slave 모듈(313)을 통해 CCI master 모듈(333)로 전송될 수 있다.The CCI slave module 313 may be a single CCI module that transmits (or transmits) camera information to the CCI master module 333 of the receiver 300. For example, the camera information may be information for distinguishing a plurality of image data included in one image data packet transmitted through the CSI transmitter module 311. Even if the camera ID and the camera location information are not included or transmitted in one video data packet, the camera ID and the camera location information may be transmitted to the CCI master module 333 through the CCI slave module 313.

수신기(330)는 CSI 수신기 모듈(331) 및 CCI master 모듈(333)을 포함할 수 있다.The receiver 330 may include a CSI receiver module 331 and a CCI master module 333.

CSI 수신기 모듈(331)은 하나의 영상 데이터 패킷, 동기 신호 및 카메라 정보를 수신하는 단일 CSI 모듈일 수 있다.The CSI receiver module 331 may be a single CSI module that receives one image data packet, a synchronization signal, and camera information.

CSI 수신기 모듈(331)은 카메라 정보를 이용하여 하나의 영상 데이터 패킷에 포함된 복수의 영상 데이터를 구별하고, 복수의 영상 데이터를 영상 처리 장치(500)에 전송할 수 있다. 예를 들어, CSI 수신기 모듈(331)은 하나의 영상 데이터 패킷을 디패킷화하여 복수의 영상 데이터로 구분할 수 있다.The CSI receiver module 331 may distinguish a plurality of image data included in one image data packet using camera information, and transmit the plurality of image data to the image processing apparatus 500. For example, the CSI receiver module 331 may depacketize one image data packet into a plurality of image data.

CSI 수신기 모듈(331)은 하나의 영상 데이터 패킷에 포함된 카메라 정보 및 CCI master 모듈(333)을 통해 수신된 카메라 정보 중에서 적어도 하나를 이용하여 복수의 영상 데이터를 구별할 수 있다. 예를 들어, 복수의 영상 데이터 중에서 어느 하나의 영상 데이터는 어느 하나의 영상 데이터를 전송한 카메라의 카메라 정보와 매칭되어 구별될 수 있다.The CSI receiver module 331 may distinguish a plurality of image data using at least one of camera information included in one image data packet and camera information received through the CCI master module 333. For example, any one image data among a plurality of image data may be distinguished by matching the camera information of the camera that transmitted the one image data.

CSI 수신기 모듈(331)은 구별된 복수의 영상 데이터를 영상 처리 장치(500)에 전송할 수 있다.The CSI receiver module 331 may transmit a plurality of distinct image data to the image processing apparatus 500.

CCI master 모듈(333)은 CCI slave 모듈(313)로부터 전송된 카메라 정보만을 수신하는 단일 CCI 모듈일 수 있다.The CCI master module 333 may be a single CCI module that receives only camera information transmitted from the CCI slave module 313.

도 3은 도 2에 도시된 CSI 송신기 모듈 및 CSI 수신기 모듈을 설명하기 위한 일 예를 나타내고, 도 4는 일 실시예에 따른 하나의 영상 데이터 패킷을 설명하기 위한 일 예를 나타낸다.3 illustrates an example for describing the CSI transmitter module and the CSI receiver module illustrated in FIG. 2, and FIG. 4 illustrates an example for describing one image data packet according to an embodiment.

도 3 및 도 4를 참조하면, CSI 송신기 모듈(311)은 application layer, pixel to byte packing formats layer, low level protocol layer, lane management layer 및 phy layer로 구성될 수 있다.3 and 4, the CSI transmitter module 311 may be composed of an application layer, a pixel to byte packing formats layer, a low level protocol layer, a lane management layer, and a phy layer.

pixel to byte packing formats layer는 복수의 카메라들(100-1 내지 100-n)으로부터 전송된 복수의 영상 데이터를 통합하기 위한 layer일 수 있다. 예를 들어, pixel to byte packing formats layer는 8비트의 영상 데이터를 32비트의 영상 데이터로 변환하거나 32비트의 영상 데이터를 8비트의 영상 데이터로 변환하여 복수의 영상 데이터를 통합할 수 있다.The pixel to byte packing formats layer may be a layer for integrating a plurality of image data transmitted from a plurality of cameras 100-1 to 100-n. For example, the pixel to byte packing formats layer may convert a plurality of image data by converting 8-bit image data into 32-bit image data or converting 32-bit image data into 8-bit image data.

low level protocol layer는 통합된 복수의 영상 데이터를 하나의 영상 데이터 패킷으로 패킷화하고, 하나의 영상 데이터 패킷을 하나의 physical channel로 전송하기 위한 layer일 수 있다.The low level protocol layer may be a layer for packetizing a plurality of integrated image data into one image data packet and transmitting one image data packet to one physical channel.

low level protocol은 6 개의 특징이 있을 수 있다. low level protocol은 독립적인 payload(arbitrary data)를 전송할 수 있다. low level protocol은 8-bit word size를 제공할 수 있다. low level protocol은 동일한 링크에서 최대 4 개의 interleaved virtual channels를 지원할 수 있다. low level protocol은 frame start, frame end, line start 및 line end information에 대한 special packets을 제공할 수 있다. low level protocol은 application specific payload data의 type, pixel depth 및 format에 대한 descriptor를 제공할 수 있다. low level protocol은 에러(error) 감지를 위한 16 bit 체크섬 코드(checksum code)를 제공할 수 있다.The low level protocol can have six characteristics. The low level protocol can transmit independent payload (arbitrary data). The low level protocol can provide 8-bit word size. The low level protocol can support up to four interleaved virtual channels on the same link. The low level protocol can provide special packets for frame start, frame end, line start and line end information. The low level protocol can provide a descriptor for the type, pixel depth, and format of application specific payload data. The low level protocol can provide a 16 bit checksum code for error detection.

하나의 영상 데이터 패킷은 도 4와 같이 LPS(low power state)으로 구별되는 short packet 및 long packet 중에서 어느 하나일 수 있다. 다만, 하나의 영상 데이터 패킷은 주로 long packet일 수 있다. long packet은 star of transmission(ST) 및 end of transmission(ET)으로 패킷의 시작과 끝이 구별될 수 있다As illustrated in FIG. 4, one video data packet may be any one of a short packet and a long packet divided into LPS (low power state). However, one video data packet may be mainly a long packet. The long packet can be distinguished from the start and end of the packet by star of transmission (ST) and end of transmission (ET).

lane management layer는 데이터 라인 및 클럭 라인을 관리하기 위한 layer일 수 있다.The lane management layer may be a layer for managing data lines and clock lines.

phy layer는 D-PHY로 일반적인 물리 계층(PHY)이 담당하는 기본적인 역할을 수행할 수 있다. 예를 들어, phy layer는 하나의 영상 데이터 패킷을 고속으로 전신하는 물리 계층일 수 있다. D-PHY는 하나의 영상 데이터 패킷의 시작과 끝을 알리는 ST, ET를 추가할 수 있다. D-PHY는 하나의 영상 데이터 패킷을 송수신하기 위해 병렬 데이터를 직렬로 변환하거나 직렬데이터를 병렬로 변환할 수 있다. D-PHY의 data 신호는 low power(LP) 모드와 high speed(HP) 모드 중에서 어느 하나일 수 있다.The phy layer is a D-PHY and can perform a basic role played by a general physical layer (PHY). For example, the phy layer may be a physical layer that transmits one image data packet at high speed. The D-PHY may add ST and ET indicating the start and end of one video data packet. The D-PHY may convert parallel data in series or serial data in parallel to transmit and receive one video data packet. The data signal of D-PHY may be either low power (LP) mode or high speed (HP) mode.

CSI 수신기 모듈(331)은 application layer, byte to pixel unpacking formats layer, low level protocol layer, lane management layer 및 phy layer로 구성될 수 있다.The CSI receiver module 331 may include an application layer, a byte to pixel unpacking formats layer, a low level protocol layer, a lane management layer, and a phy layer.

CSI 수신기 모듈(331)의 application layer, byte to pixel unpacking formats layer, low level protocol layer, lane management layer 및 phy layer는 상술한 CSI 송신기 모듈(311)의 application layer, pixel to byte unpacking formats layer, low level protocol layer, lane management layer 및 phy layer와 동일할 수 있다.The application layer, byte to pixel unpacking formats layer, low level protocol layer, lane management layer and phy layer of the CSI receiver module 331 are the application layer, pixel to byte unpacking formats layer, low level of the CSI transmitter module 311 described above. It may be the same as the protocol layer, lane management layer, and phy layer.

다만, CSI 수신기 모듈(313)의 low level protocol layer는 패킷화가 아닌 디패킷화를 수행하고, byte to pixel unpacking formats layer는 복수의 영상 데이터를 통합하지 않고 구별할 뿐이다.However, the low level protocol layer of the CSI receiver module 313 performs depacketization, not packetization, and the byte to pixel unpacking formats layer only distinguishes a plurality of image data without integrating them.

도 5는 도 4에 도시된 long packet의 구조를 나타내고, 도 6은 도 5에 도신된 data identifier를 나타내고, 도 7은 도 6에 도시된 data type을 나타낸다.FIG. 5 shows the structure of the long packet shown in FIG. 4, FIG. 6 shows the data identifier shown in FIG. 5, and FIG. 7 shows the data type shown in FIG.

도 5 내지 도 7을 참조하면, long packet은 packet header(PH), packet data 및 packet footer(PF)을 포함할 수 있다.5 to 7, the long packet may include packet header (PH), packet data, and packet footer (PF).

Packet header는 byte 구조로 구성된 data iD(data identifier; DI)를 포함할 수 있다. 예를 들어, DI는 VC(virtual channel indentifier) 및 DT(data type)를 포함할 수 있다. DT(data type)는 도 7과 같이 다양한 데이터 타입을 나타낼 수 있다. 예를 들어, DT(data type)는 0x00 to 0x07 영역에 synchronization short packet data types를 나타내고, 0x08 to 0x0F 영역에 generic short packet data types를 나타내고, 0x10 ro 0x17 영역에 generic long packet data types를 나타내고, 0x18 to 0x1F 영역에 YUV data를 나타내고, 0x20 to 0x27 영역에 RGC data를 나타내고, 0x28 to 0x2F 영역에 RAW data를 나타내고, 0x30 ~ 0x37 영역에 user defined byte-based data를 나타내고, 0x38 to 0x3F 영역에 reserved를 나타낼 수 있다.The packet header may include a data identifier (DI) composed of a byte structure. For example, the DI may include a virtual channel indentifier (VC) and a data type (DT). The data type (DT) may represent various data types as shown in FIG. 7. For example, DT (data type) represents synchronization short packet data types in the 0x00 to 0x07 region, generic short packet data types in the 0x08 to 0x0F region, and generic long packet data types in the 0x10 ro 0x17 region, and 0x18 to Yx data in the 0x1F area, RGC data in the 0x20 to 0x27 area, RAW data in the 0x28 to 0x2F area, user defined byte-based data in the 0x30 to 0x37 areas, and reserved in the 0x38 to 0x3F areas. Can be represented.

0x30 ~ 0x37 영역의 user defined byte-based data는 복수의 영상 데이터를 구별할 수 있도록 정의될 수 있다. 예를 들어, 0x30에는 복수의 카메라들(100-1 내지 100-n) 중에서 제1 카메라(100-1)의 영상 데이터에 대응하는 제1 카메라(100-1)의 카메라 ID 및 카메라 위치 정보를 포함하고, 0x31에는 복수의 카메라들(100-1 내지 100-n) 중에서 제2 카메라(100-2)의 영상 데이터에 대응하는 제2 카메라(100-2)의 카메라 ID 및 카메라 위치 정보를 포함할 수 있다.User defined byte-based data in the region of 0x30 to 0x37 may be defined to distinguish a plurality of image data. For example, 0x30 displays camera ID and camera location information of the first camera 100-1 corresponding to the image data of the first camera 100-1 among the plurality of cameras 100-1 to 100-n. Included, 0x31 includes the camera ID and camera position information of the second camera 100-2 corresponding to the image data of the second camera 100-2 among the plurality of cameras 100-1 to 100-n can do.

packet data는 복수의 카메라들(100-1 내지 100-n)의 복수의 영상 데이터 및 복수의 영상 데이터의 word count가 포함될 수 있다. 예를 들어, 도 5의 data 1-0, data1-1, data 1-2 및 data1-3은 제1 카메라(100-1)의 영상 데이터이고, data n-0, data n-1, data n-2 및 data n-3은 제n 카메라(100-n)의 영상 데이터일 수 있다. data WC-1은 제1 카메라(100-1)의 영상 데이터의 word count이고, data WC-2는 제2 카메라(100-2)의 영상 데이터의 word count이고, data WC-3은 제3 카메라(100-3)의 영상 데이터의 word count이고, data WC-4는 제4 카메라(100-4)의 영상 데이터의 word count일 수 있다.The packet data may include a plurality of image data of a plurality of cameras 100-1 to 100-n and a word count of a plurality of image data. For example, data 1-0, data1-1, data 1-2, and data1-3 of FIG. 5 are image data of the first camera 100-1, and data n-0, data n-1, and data n -2 and data n-3 may be image data of the n-th camera 100-n. data WC-1 is a word count of image data of the first camera 100-1, data WC-2 is a word count of image data of the second camera 100-2, and data WC-3 is a third camera The word count of the image data of (100-3), and the data WC-4 may be the word count of the image data of the fourth camera 100-4.

Packet footer는 에러(error) 감지를 위한 16 bit 체크섬 코드(checksum code)를 포함할 수 있다.The packet footer may include a 16 bit checksum code for error detection.

도 8은 도 1에 도시된 송수신 장치의 동작을 설명하기 위한 순서도를 나타낸다.8 is a flowchart illustrating an operation of the transceiver shown in FIG. 1.

도 8을 참조하면, 송신기(310)는 복수의 카메라들(100-1 내지 100-n)의 복수의 영상 데이터를 획득(또는 수신)할 수 있다(S110).Referring to FIG. 8, the transmitter 310 may acquire (or receive) a plurality of image data of a plurality of cameras 100-1 to 100-n (S110).

송신기(310)는 복수의 영상 데이터를 통합하여 하나의 영상 데이터 패킷을 생성할 수 있다(S130). 이때, 송신기(310)는 하나의 영상 데이터 패킷에 복수의 카메라들(100-1 내지 100-n) 각각의 카메라 ID 및 카메라 위치 정보를 포함할 수 있다.The transmitter 310 may generate a single image data packet by integrating a plurality of image data (S130). In this case, the transmitter 310 may include camera ID and camera location information of each of the plurality of cameras 100-1 to 100-n in one image data packet.

송신기(330)는 하나의 영상 데이터 패킷을 수신기(330)로 전송(또는 송신)할 수 있다(S150).The transmitter 330 may transmit (or transmit) one video data packet to the receiver 330 (S150).

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (5)

복수의 카메라들로부터 복수의 영상 데이터를 획득하는 단계;
상기 복수의 영상 데이터를 통합하여 하나의 영상 데이터 패킷을 생성하는 단계; 및
상기 하나의 영상 데이터 패킷을 전송하는 단계
를 포함하고,
상기 획득하는 단계와 상기 전송하는 단계는 하나의 CSI(camera serial interface)를 통해 수행되고,
상기 하나의 영상 데이터 패킷은 상기 복수의 카메라들 각각의 카메라 정보를 포함하고,
상기 카메라 정보는 상기 하나의 영상 데이터 패킷에서 상기 복수의 영상 데이터가 구별되게 하고,
상기 복수의 카메라들 각각의 카메라 ID(identification) 및 카메라 위치 정보를 전송하는 단계
를 더 포함하고,
상기 카메라 ID 및 상기 카메라 위치 정보는 상기 하나의 영상 데이터 패킷의 패킷 헤더에 포함된 데이터 ID(data identifier)에 포함되고,
상기 카메라 ID 및 상기 카메라 위치 정보는 상기 데이터 ID의 데이터 타입 중에서 user defined byte-based data에 포함되는 영상 데이터 전송 방법.
Obtaining a plurality of image data from a plurality of cameras;
Generating one image data packet by integrating the plurality of image data; And
Transmitting the one video data packet
Including,
The acquiring step and the transmitting step are performed through one camera serial interface (CSI),
The one image data packet includes camera information of each of the plurality of cameras,
The camera information allows the plurality of image data to be distinguished from the one image data packet,
Transmitting camera identification (ID) and camera location information of each of the plurality of cameras
Further comprising,
The camera ID and the camera location information are included in a data ID (data identifier) included in the packet header of the one video data packet,
The camera ID and the camera location information are included in user defined byte-based data among the data types of the data ID.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 카메라 ID 및 상기 카메라 위치 정보는 CCI(camera control interface)를 통해 전송되는 영상 데이터 전송 방법.
According to claim 1,
The camera ID and the location information of the camera is a video data transmission method transmitted through a camera control interface (CCI).
KR1020180071615A 2018-06-21 2018-06-21 Method of transmitting image data and apparatuses performing the same KR102107299B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180071615A KR102107299B1 (en) 2018-06-21 2018-06-21 Method of transmitting image data and apparatuses performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180071615A KR102107299B1 (en) 2018-06-21 2018-06-21 Method of transmitting image data and apparatuses performing the same

Publications (2)

Publication Number Publication Date
KR20190143732A KR20190143732A (en) 2019-12-31
KR102107299B1 true KR102107299B1 (en) 2020-05-06

Family

ID=69051691

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180071615A KR102107299B1 (en) 2018-06-21 2018-06-21 Method of transmitting image data and apparatuses performing the same

Country Status (1)

Country Link
KR (1) KR102107299B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114071027B (en) * 2020-07-29 2023-04-28 华为技术有限公司 Fusion device of multiple data transmission channels and electronic equipment
US11636037B2 (en) 2020-12-21 2023-04-25 Nxp Usa, Inc. Methods and apparatuses involving radar system data paths
CN115866179B (en) * 2023-03-02 2023-05-05 上海芯浦科技有限公司 Bridge video transmission system and method avoiding video low-level protocol analysis

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145093A (en) * 1999-11-18 2001-05-25 Hitachi Ltd Supervisory camera system and its controller

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9001227B2 (en) * 2010-04-05 2015-04-07 Qualcomm Incorporated Combining data from multiple image sensors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145093A (en) * 1999-11-18 2001-05-25 Hitachi Ltd Supervisory camera system and its controller

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DRAFT MIPI Alliance specification for Camera Serial Interface 2(CSI-2), 2009.12.15*

Also Published As

Publication number Publication date
KR20190143732A (en) 2019-12-31

Similar Documents

Publication Publication Date Title
US11557024B2 (en) Processing apparatus, image sensor, and system
KR102107299B1 (en) Method of transmitting image data and apparatuses performing the same
US9681045B2 (en) Systems and methods for generating a panoramic image
WO2018017232A1 (en) Signaling camera configuration changes using metadata defined for a camera command set
CN101237548B (en) Image pickup apparatus and control method, image display apparatus and control method
CN104937947B (en) Data block transmission method/equipment, the method and receive-transmit system for determining transmission signal content
US8098690B2 (en) System and method for transferring high-definition multimedia signals over four twisted-pairs
CN104936315B (en) Method for transmitting data through wifi, main device and module device
US10469633B2 (en) Low-latency pipeline for media-to-ethernet frame packaging
EP3709662A1 (en) Transmission device
CN110347360A (en) The synchronization of display equipment in system including multiple display equipment
WO2004066613A3 (en) Adding metadata to pictures
US11601254B2 (en) Communication apparatus, communications system, and communication method
CN102866567B (en) Intelligent NFC projector and control method thereof
US10560357B2 (en) Distributed checksum calculation for communication packets
CN108271059B (en) Method for displaying television signal
US10673994B2 (en) Network packet generator employing multiple header templates and configurable hardware registers
CN103841039B (en) The method and apparatus of network streaming
KR20190017397A (en) Apparatus of interface for plug and play device and operating method thereof
US12041345B2 (en) Transmission device, reception device, and communication system
WO2021132739A1 (en) Multi-channel image transmission system and method
CN115623314A (en) Video resolution frame rate output method, device, equipment and storage medium
KR20130064294A (en) The control apparatus and method of reconfigurable display device using wireless terminal
JP2008227915A (en) Frame transmission apparatus and frame transfer control method
CN103576894A (en) Interactive image system and remote control applicable to same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant