KR20190013728A - 처리 장치, 화상 센서 및 시스템 - Google Patents

처리 장치, 화상 센서 및 시스템 Download PDF

Info

Publication number
KR20190013728A
KR20190013728A KR1020187031825A KR20187031825A KR20190013728A KR 20190013728 A KR20190013728 A KR 20190013728A KR 1020187031825 A KR1020187031825 A KR 1020187031825A KR 20187031825 A KR20187031825 A KR 20187031825A KR 20190013728 A KR20190013728 A KR 20190013728A
Authority
KR
South Korea
Prior art keywords
image
output
sensor
sensors
data
Prior art date
Application number
KR1020187031825A
Other languages
English (en)
Other versions
KR102343629B1 (ko
Inventor
히데키 미츠바야시
타카시 요코카와
나오키 요시모치
Original Assignee
소니 세미컨덕터 솔루션즈 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 세미컨덕터 솔루션즈 가부시키가이샤 filed Critical 소니 세미컨덕터 솔루션즈 가부시키가이샤
Publication of KR20190013728A publication Critical patent/KR20190013728A/ko
Application granted granted Critical
Publication of KR102343629B1 publication Critical patent/KR102343629B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • H04N5/067Arrangements or circuits at the transmitter end
    • H04N5/073Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations
    • H04N5/0733Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations for distributing synchronisation pulses to different TV cameras
    • H04N5/232
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Bus Control (AREA)

Abstract

처리 장치와 복수의 화상 센서가 데이터 버스로 접속되는 경우에 복수의 화상 센서 각각에서 소정의 기간 내에 촬상된 화상을 데이터 버스에 의해 전송하는 것이 가능한 처리 장치, 화상 센서 및 시스템을 제공한다.
데이터 버스에 접속 가능하고, 데이터 버스에 접속되는 복수의 화상 센서 각각에서 소정의 기간 내에 촬상된 화상의 출력 제어를 행하는 처리부를 구비하고, 화상 센서 각각에서의 화상의 출력 타이밍은, 출력 제어가 행하여짐에 의해 변하는 처리 장치가 제공된다.

Description

처리 장치, 화상 센서 및 시스템
본 출원은 2016년 5월 27일자로 출원된 일본 우선권 특허출원 JP2016-106555의 이익을 주장하며, 그 전체 내용은 본원에 참고로 인용된다.
본 개시는, 처리 장치, 화상 센서 및 시스템에 관한 것이다.
예를 들면 프로세서와 센서 사이의 접속 등의 디바이스 사이의 접속에 관한 기술이 개발되어 있다. 디바이스 사이의 접속에 관한 기술로서는 예를 들면 하기한 특허 문헌 1에 기재된 기술을 들 수 있다.
특허 문헌 1 : 미국 특허출원 공개 제2014/0281753호
예를 들면, 전자 기기의 고기능화, 다기능화 등에 수반하여, 프로세서 등의 처리 장치를 구비하는 전자 기기의 중에는, 복수의 화상 센서를 구비하는 것이 있다.
여기서, 프로세서(처리 장치의 한 예. 이하, 마찬가지라고 한다.)와 화상 센서를 데이터 버스(신호의 전송로)로 접속하는 규격으로서는 MIPI(Mobile Industry Processor Interface) 동맹의 CSI-2(Camera Serial Interface 2) 규격이 있다. CSI-2 규격은, 프로세서와 화상 센서를 데이터 버스에서 1대1로 접속하기 위한 규격이다. 그렇지만, CSI-2 규격과 같은 기존의 규격에서는 "데이터 버스상에서, 프로세서와 복수의 화상 센서가 접속되는 것"은 상정되어 있지 않다.
본 개시에서는 처리 장치와 복수의 화상 센서가 데이터 버스로 접속되는 경우에 복수의 화상 센서 각각에서 소정의 기간 내에 촬상된 화상을 데이터 버스에 의해 전송하는 것이 가능한 신규이면서 개량된 처리 장치, 화상 센서 및 시스템을 제안한다.
본 개시에 의하면, 데이터 버스에 접속 가능하고, 상기 데이터 버스에 접속되는 복수의 화상 센서 각각에서 소정의 기간 내에 촬상된 화상의 출력 제어를 행하는 처리부를 구비하고, 상기 화상 센서 각각에서의 상기 화상의 출력 타이밍은 상기 출력 제어가 행하여짐에 의해 변하는 처리 장치가 제공된다.
또한 본 개시에 의하면, 다른 화상 센서가 접속되는 데이터 버스에 접속 가능하고, 제어 정보에 의거한 출력 타이밍에서, 소정의 기간 내에 촬상된 화상을 출력하는 화상 센서가 제공된다.
또한 본 개시에 의하면, 데이터 버스에 각각 접속되는 복수의 화상 센서와, 상기 데이터 버스에 접속되는 처리 장치를 가지며, 상기 처리 장치는, 복수의 상기 화상 센서 각각에서 소정의 기간 내에 촬상된 화상의 출력 제어를 행하는 처리부를 구비하고, 상기 화상 센서 각각에서의 상기 화상의 출력 타이밍은 상기 출력 제어가 행하여짐에 의해 변하는 시스템이 제공된다.
본 개시에 의하면, 처리 장치와 복수의 화상 센서가 데이터 버스로 접속되는 경우에 복수의 화상 센서 각각에서 소정의 기간 내에 촬상된 화상을 데이터 버스에 의해 전송할 수 있다.
또한 상기한 효과는 반드시 한정적인 것이 아니라, 상기한 효과와 함께, 또는 상기한 효과에 대신하여, 본 명세서에 나타난 어느 하나의 효과, 또는 본 명세서로부터 파악될 수 있는 다른 효과가 이루어져도 좋다.
도 1은 본 실시 형태에 관한 시스템의 구성의 한 예를 도시하는 설명도.
도 2는 복수의 센서가 접속되어 있는 데이터 버스에서, 화상을 시분할 다중화하여 전송시키는 경우의 한 예를 도시하는 설명도.
도 3은 본 실시 형태에 관한 시스템에서의 화상의 전송의 개요를 설명하기 위한 설명도.
도 4는 본 실시 형태에 관한 시스템을 구성하는 센서의 구성의 한 예를 도시하는 설명도.
도 5는 본 실시 형태에 관한 시스템을 구성하는 센서에 의해 촬상된 화상 데이터의 한 예를 도시하는 도면.
도 6은 본 실시 형태에 관한 시스템을 구성하는 데이터 버스상에서 전송되는 화상 데이터의 패킷열의 한 예를 도시하는 도면.
도 7은 본 실시 형태에 관한 시스템을 구성하는 메모리상에 확보된 프레임 버퍼의 한 예를 도시하는 도면.
도 8은 롤링 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서(200)에서의 동작의 한 예를 도시하는 설명도.
도 9는 롤링 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서에서의 동작의 한 예를 도시하는 설명도.
도 10은 롤링 셔터 방식에 대응하는 촬상 디바이스를 각각 구비하는 2개의 센서에서의 동작의 한 예를 도시하는 설명도.
도 11은 글로벌 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서에서의 동작의 한 예를 도시하는 설명도.
도 12는 글로벌 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서에서의 동작의 한 예를 도시하는 설명도.
도 13은 본 실시 형태에 관한 시스템에서의 센서로부터의 화상의 출력의 제1의 예를 도시하는 설명도.
도 14는 본 실시 형태에 관한 시스템에서의 센서로부터의 화상의 출력의 제2의 예를 도시하는 설명도.
도 15는 본 실시 형태에 관한 시스템을 구성하는 프로세서에서의 화상의 출력 제어에 관한 처리(본 실시 형태에 관한 제어 방법에 관한 처리)의 한 예를 도시하는 흐름도.
이하에 첨부 도면을 참조하면서, 본 개시의 알맞은 실시의 형태에 관해 상세히 설명한다. 또한 본 명세서 및 도면에서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 관해서는 동일한 부호를 붙임에 의해 중복 설명을 생략한다.
또한 이하에서는 하기에 나타내는 순서로 설명을 행한다.
1. 본 실시 형태에 관한 시스템의 구성
2. 본 실시 형태에 관한 시스템에서의 화상의 출력례
3. 본 실시 형태에 관한 프로그램
(본 실시 형태에 관한 시스템의 구성)
도 1은, 본 실시 형태에 관한 시스템(1000)의 구성의 한 예를 도시하는 설명도이다. 시스템(1000)으로서는 예를 들면, 스마트 폰 등의 통신 장치나, 드론(원격 조작에 의한 동작, 또는, 자율적인 동작이 가능한 기기), 자동차 등의 이동체 등을 들 수 있다. 또한 시스템(1000)의 적용례는, 상기에 나타내는 예로 한정되지 않는다. 시스템(1000)의 다른 적용례에 관해서는 후술한다.
시스템(1000)은, 예를 들면, 프로세서(100)(본 실시 형태에 관한 처리 장치)와, 화상을 출력하는 기능을 갖는 복수의 센서(200A, 200B, …)(본 실시 형태에 관한 화상 센서)와, 메모리(300)와, 표시 디바이스(400)를 갖는다. 이하에서는 복수의 센서(200A, 200B, …)를 총칭하여, 또는, 복수의 센서(200A, 200B, …) 중의 하나의 센서를 대표적으로 나타내어 「센서(200)」로 나타내는 경우가 있다.
또한 도 1에서는 2 이상의 센서(200)를 갖는 시스템(1000)을 나타내고 있지만, 본 실시 형태에 관한 시스템이 갖는 센서(200)의 수는, 도 1에 도시하는 예로 한정되지 않는다. 예를 들면, 본 실시 형태에 관한 시스템은, 2개의 센서(200), 3개의 센서(200) 등, 2 이상의 임의의 수의 센서(200)를 갖고 있어도 좋다. 이하에서는 설명의 편의상, 시스템(1000)이 갖는 복수의 센서(200) 중의 2개의 센서(200)로부터 화상이 출력되는 경우를 주로 예로 든다.
프로세서(100)와 복수의 센서(200) 각각은, 하나의 데이터 버스(B1)에 의해 전기적으로 접속된다. 데이터 버스(B1)는, 프로세서(100)와 센서(200) 각각을 접속하는 하나의 신호의 전송로이다. 예를 들면, 센서(200) 각각으로부터 출력되는 화상을 나타내는 데이터(이하, 「화상 데이터」로 나타내는 경우가 있다.)가 센서(200)로부터 프로세서(100)로 데이터 버스(B1)를 통하여 전송된다.
시스템(1000)에서의 데이터 버스(B1)에 의해 전송되는 신호는, 예를 들면, CSI-2 규격, PCI Express 등의 데이터를 시분할 다중화하여 전송하는 것이 가능한 임의의 규격에 의해 전송된다. 이하에서는 데이터 버스(B1)에 의해 전송되는 신호가 CSI-2 규격에 의해 전송되는 예를 나타낸다.
또한 프로세서(100)와 복수의 센서(200) 각각은, 데이터 버스(B1)와는 다른 제어 버스(B2)에 의해 전기적으로 접속된다. 제어 버스(B2)는, 프로세서(100)와 센서(200) 각각을 접속하는 다른 신호의 전송로이다. 예를 들면, 프로세서(100)로부터 출력되는 제어 정보(후술한다)가 프로세서(100)로부터 센서(200)로 제어 버스(B2)를 통하여 전송된다. 이하에서는 데이터 버스(B1)와 마찬가지로, 제어 버스(B2)에 의해 전송되는 신호가 CSI-2 규격에 의해 전송되는 예를 나타낸다. 또한 도 1에서는 프로세서(100)와 복수의 센서(200) 각각이 하나의 제어 버스(B2)에 의해 접속되는 예를 나타내고 있지만, 본 실시 형태에 관한 시스템은, 센서(200)마다 제어 버스가 마련된 구성을 취하는 것도 가능하다. 또한 프로세서(100)와 복수의 센서(200) 각각은, 제어 버스(B2)를 통하여 제어 정보(후술한다)를 송수신하는 구성으로 한정되지 않고, 예를 들면, 후술하는 제어 정보의 송수신을 행하는 것이 가능한 임의의 통신 방식의 무선 통신에 의해 제어 정보(후술한다)를 송수신하는 구성이라도 좋다.
[1] 시스템(1000)에서의 화상의 전송의 개요
시스템(1000)의 구성에 관해 설명하기 전에 시스템(1000)에서의 화상의 전송의 개요를 설명한다.
시스템(1000)과 같이 화상을 출력하는 기능을 갖는 복수의 센서가 데이터 버스에 접속되어 있는 경우에는, 데이터 버스상에서 전송되는 데이터의 충돌을 회피하기 위해 화상을 시분할 다중화하여 전송시키는 것이 고려된다.
도 2는, 복수의 센서가 접속되어 있는 데이터 버스에서, 화상을 시분할 다중화하여 전송시키는 경우의 한 예를 도시하는 설명도이다. 도 2는, 촬상 디바이스를 각각 갖는 2개의 센서(도 2에 도시하는 센서(#1) 및 센서(#2))가 촬상 직후에 화상을 데이터 버스에 출력하는 경우에 있어서의 시분할 다중화에 의한 전송의 한 예를 도시하고 있다.
도 2에 도시하는 바와 같이 센서 각각이 촬상 직후에 화상을 데이터 버스에 출력하는 경우에는, 시분할 다중화에 의한 전송을 실현하기 위해 2개의 센서의 노광 타이밍을 지연시킬 필요가 있다.
따라서, 도 2에 도시하는 예에서는 센서 사이에서 촬상의 타이밍이 맞지 않기 때문에 2개의 센서에서 촬상된 화상은, 동일한 시점에 촬상된 화상(또는, 동일한 시점에 촬상되었다고 간주할 수 있는 화상)으로는 되지 않는다.
그래서, 시스템(1000)에서는 소정의 기간 내에서 복수의 센서 각각에 촬상을 행하게 하고, 복수의 센서로부터 화상이 출력되는 타이밍을 센서 사이에서 어긋냄에 의해 시분할 다중화에 의한 전송을 실현한다. 시스템(1000)에서, 복수의 센서 각각에서의 촬상의 제어와, 복수의 센서 각각에서의 화상의 출력 타이밍의 제어는 예를 들면 프로세서(100)에 의해 행하여진다.
여기서, 본 실시 형태에 관한 "소정의 기간 내"로서는 예를 들면, "1프레임 기간 내"나, "화상의 수 라인의 어긋남에 상당하는 기간 내", "동시" 등을 들 수 있다. 또한 본 실시 형태에 관한 "소정의 기간 내"는, 상기에 나타내는 예로 한정되지 않는다. 본 실시 형태에 관한 "소정의 기간 내"는, 예를 들면, 시스템(1000)의 설계자나 이용자 등이 복수의 센서가 동시에 촬상하였다고 간주할 수 있다고 하여 설정한 "임의의 기간 내"라도 좋다.
복수의 센서에 의한 소정의 기간 내에서의 촬상은, 예를 들면, 제어 버스(B2)를 통하여 프로세서(100)가 송신하는 촬상의 제어를 위한 제어 정보에 의거하여 제어된다.
촬상의 제어를 위한 제어 정보로서는 예를 들면, 촬상 명령(처리 명령의 한 예)를 포함하는 데이터를 들 수 있다.
또한 촬상의 제어를 위한 제어 정보에는, 복수의 센서를 동기하여 동작시키기 위한 동기 신호가 포함되어 있어도 좋다. 동기 신호를 포함하는 제어 정보에 의해 센서에서의 촬상이 제어되는 경우, "복수의 센서 각각에서 소정의 기간 내에 촬상된 화상은, 복수의 화상 센서가 동기하여 촬상을 행한 화상이다"라고 말할 수 있다. 또한 후술하는 바와 같이 시스템(1000)에서 동기 신호는, 시스템(1000)을 구성하는 복수의 센서(200) 중의 마스터로서 기능하는 센서(200)에 의해 송신되어도 좋다.
도 3은, 본 실시 형태에 관한 시스템(1000)에서의 화상의 전송의 개요를 설명하기 위한 설명도이다. 도 3은, 촬상 디바이스를 각각 갖는 2개의 센서(도 3에 도시하는 센서(#1) 및 센서(#2))가 동기 신호(Vsync)의 수신에 의거하여 동기하여 촬상을 행하는 예를 도시하고 있다.
여기서, 시스템(1000)에서, 동기 신호(Vsync)는, 예를 들면 제어 버스(B2)를 통하여 프로세서(100)로부터 송신된다. 동기 신호(Vsync)가 제어 버스(B2)를 통하여 프로세서(100)로부터 송신됨에 의해 시스템(1000)에서는 복수의 센서(200)를 동기하여 동작시키는 것이 실현된다. 즉, 시스템(1000)에서는 제어 버스(B2)를 통한 프로세서(100)에 의한 제어에 의해 예를 들면 복수의 센서(200)에서의 촬상과 화상의 출력을 동기시킬 수 있다.
또한 시스템(1000)에서 복수의 센서(200)를 동기하여 동작시키는 방법은 상기 "프로세서(100)가 시스템(1000)을 구성하는 전 센서(200)에 대해 동기 신호(Vsync)를 송신하는 방법"으로 한정되지 않는다.
예를 들면, 시스템(1000)에서는 프로세서(100)가 제어 버스(B2)를 통하여 센서(200) 각각을 동작 시작시킨 후에 복수의 센서(200) 중의 어느 하나의 센서(200)가 마스터로서 기능함에 의해 복수의 센서(200)가 동기하여 동작하여도 좋다. 구체적으로는, 시스템(1000)에서는 마스터로서 기능하는 센서(200)가 동기 신호(Vsync)를 다른 센서(200)(슬레이브로서 기능하는 센서(200))에 대해 송신한다. 그리고, 시스템(1000)에서는 상기 다른 센서(200)가 마스터로서 기능하는 센서(200)로부터 송신된 동기 신호(Vsync)를 수신함에 의해 복수의 센서(200)를 동기하여 동작시키는 것이 실현된다. 여기서, 센서(200) 사이에서의 동기 신호(Vsync)의 송수신은, 예를 들면 센서(200) 사이를 접속하는 1비트의 전용선 등을 통하여 행하여진다.
도 3에 도시하는 바와 같이 2개의 센서는 동기 신호(Vsync)에 의거하여 동기하여 촬상을 행한다. 그리고, 2개의 센서 각각은, 촬상된 화상을 나타내는 데이터가 데이터 버스(B1)상에서 충돌하지 않도록, 상이한 타이밍에서 출력된다. 예를 들면 도 3에 도시하는 예에서는 센서(#1)는, 촬상 직후에 화상을 데이터 버스에 출력하고, 센서(#2)는, 촬상 후, 도 3에서 "Wait"로 나타나고 있는 지연량만큼 지연시켜서 화상을 데이터 버스에 출력하고 있다.
따라서, 도 3에 도시하는 예에서는 센서 사이에서 촬상의 타이밍이 갖추어진 화상(소정의 기간 내에 촬상된 화상)을 데이터 버스(B1)상에서 시분할 다중화하여 전송시킬 수 있다.
이하, 도 1에 도시하는 시스템(1000)의 구성에 관해 설명하면서, 도 3에 도시하는 바와 같은 전송을 실현하기 위한 본 실시 형태에 관한 제어에 관한 처리를 설명한다.
[2] 프로세서(100)(본 실시 형태에 관한 처리 장치)
프로세서(100)는, MPU(Micro Processing Unit) 등의 연산 회로로 구성되는, 1 또는 2 이상의 프로세서나, 각종 처리 회로 등으로 구성된다. 또한 프로세서(100)는, 예를 들면, 데이터 버스(B1)를 접속하는 것이 가능한 단자나, 제어 버스(B2)를 접속하는 것이 가능한 단자 등의 외부 버스를 접속하는 것이 가능한 단자를 가지며, 데이터 버스(B1) 등의 외부 버스에 접속 가능하다. 프로세서(100)는, 배터리 등의 시스템(1000)을 구성하는 내부 전원(도시 생략)으로부터 공급되는 전력, 또는, 시스템(1000)의 외부 전원으로부터 공급되는 전력에 의해 구동한다.
프로세서(100)는, 본 실시 형태에 관한 처리 장치의 한 예이다. 본 실시 형태에 관한 처리 장치는, 후술하는 처리부에서의 처리(본 실시 형태에 관한 제어 방법에 관한 처리)를 행하는 것이 가능한 임의의 회로, 임의의 디바이스에 적용하는 것이 가능하다.
프로세서(100)는, "데이터 버스(B1)에 접속되는 복수의 센서(200) 각각에서 소정의 기간 내에 촬상된 화상의 출력 제어(본 실시 형태에 관한 제어 방법에 관한 제어)"를 행한다.
화상의 출력 제어는 예를 들면, 프로세서(100)가 구비하는 처리부(102)에서 행하여진다. 프로세서(100)에서는 화상의 출력 제어를 행하는 특정한 프로세서(또는 특정하는 처리 회로), 또는, 복수의 프로세서(또는 복수의 처리 회로)가 처리부(102)의 역할을 다한다.
또한 처리부(102)는, 프로세서(100)에서의 기능을 편의상 잘라 나눈 것이다. 따라서, 프로세서(100)에서는 예를 들면, 본 실시 형태에 관한 화상의 출력 제어가 복수의 기능 블록에 의해 행하여져도 좋다. 이하에서는 본 실시 형태에 관한 화상의 출력 제어가 처리부(102)에서 행하여지는 경우를 예로 든다.
[1-1] 본 실시 형태에 관한 화상의 출력 제어의 한 예
처리부(102)는, 센서(200) 각각에 대해 제어 정보를 송신함에 의해 화상의 출력 제어를 행한다.
본 실시 형태에 관한 제어 정보에는, 예를 들면, 센서(200)를 나타내는 식별 정보와, 제어를 위한 정보와, 처리 명령이 포함된다. 본 실시 형태에 관한 식별 정보로서는 예를 들면, 센서(200)에 설정되어 있는 ID 등의 센서(200)를 특정하는 것이 가능한 임의의 데이터를 들 수 있다. 또한 본 실시 형태에 관한 제어를 위한 정보의 구체례에 관해서는 후술한다.
제어 정보는, 상술한 바와 같이 예를 들면 제어 버스(B2)를 통하여 송신된다.
또한 처리부(102)에 의해 송신된 제어 정보는, 예를 들면, 센서(200) 각각이 구비하는 레지스터(기록 매체의 한 예)에 기록된다. 그리고, 후술하는 바와 같이 센서(200)는, 레지스터에 기억되어 있는 제어 정보에 의거한 출력 타이밍에서, 소정의 기간 내에 촬상된 화상을 출력한다.
처리부(102)는, 화상의 출력 제어로서, 예를 들면 하기한 (1)에 나타내는 제1의 예에 관한 제어∼하기한 (3)에 나타내는 제3의 예에 관한 제어의 어느 하나의 제어를 행한다. 또한 본 실시 형태에 관한 화상의 출력 제어에 의해 실현되는, 시스템(1000)에서의 화상의 출력례에 관해서는 후술한다.
(1) 화상의 출력 제어의 제1의 예 : 지연의 제어
처리부(102)는, 센서(200)가 화상을 출력할 때의 지연을 제어한다.
처리부(102)는, 예를 들면, 화상을 출력할 때의 지연량을 나타내는 데이터(제1 출력 정보. 제어를 위한 정보의 한 예)를 포함하는 제어 정보를 센서(200)에 대해 송신함에 의해 센서(200)에서의 화상을 출력할 때의 지연을 제어한다. 화상을 출력할 때의 지연량을 나타내는 데이터(이하, 「지연량을 나타내는 데이터」로 나타내는 경우가 있다.)로서는 예를 들면, 지연 시간을 나타내는 데이터 등의 수치 등으로 지연량을 직접적으로 나타내는 데이터나, 지연량에 대응되어 있는 ID 등의 지연량을 간접적으로 나타내는 데이터 등을 들 수 있다.
(2) 화상의 출력 제어의 제2의 예 : 송신 간격의 제어
처리부(102)는, 센서(200)가 화상을 출력할 때의 패킷의 출력 간격을 제어한다. 화상을 출력할 때의 패킷으로서는 예를 들면, 화상에서의 라인 단위의 데이터를 들 수 있다.
처리부(102)는, 예를 들면, 화상을 출력할 때의 패킷의 출력 간격(데이터 피치)을 나타내는 데이터(제2 출력 정보. 제어를 위한 정보의 한 예)를 포함하는 제어 정보를 센서(200)에 대해 송신함에 의해 센서(200)에서의 화상을 출력할 때의 패킷의 출력 간격을 제어한다. 화상을 출력할 때의 패킷의 출력 간격을 나타내는 데이터(이하, 「패킷의 출력 간격을 나타내는 데이터」로 나타내는 경우가 있다.)로서는 예를 들면, 시간 간격을 나타내는 데이터 등의 수치 등으로 출력 간격을 직접적으로 나타내는 데이터나, 출력 간격에 대응되어 있는 ID 등의 출력 간격을 간접적으로 나타내는 데이터 등을 들 수 있다.
(3) 화상의 출력 제어의 제3의 예
처리부(102)는, 상기 (1)에 나타내는 제1의 예에 관한 제어와 상기 (2)에 나타내는 제2의 예에 관한 제어의 쌍방의 제어를 행하여도 좋다.
처리부(102)는, 화상의 출력 제어로서, 예를 들면 상기 (1)에 나타내는 제1의 예에 관한 제어∼상기 (3)에 나타내는 제3의 예에 관한 제어를 행한다.
프로세서(100)는, 예를 들면 처리부(102)를 구비함에 의해 상술한 바와 같은 화상의 출력 제어에 관한 처리(본 실시 형태에 관한 제어 방법에 관한 처리)를 행한다.
여기서, 프로세서(100)에서 상기 (1)에 나타내는 제1의 예에 관한 제어∼상기 (3)에 나타내는 제3의 예에 관한 제어가 행하여짐에 의해 센서(200) 각각에서는 화상을 출력할 때의 지연과, 화상을 출력할 때의 패킷의 출력 간격의 일방 또는 쌍방이 레지스터 등에 기억된 제어 정보에 의거하여 제어된다.
따라서, 프로세서(100)는, 화상의 출력 제어에 관한 처리를 행함에 의해 센서(200)(화상 센서) 각각에서의 화상의 출력 타이밍을 바꿀 수 있다. 환언하면, 시스템(1000)에서는 센서(200) 각각에서의 화상의 출력 타이밍은, 프로세서(100)에서의 화상의 출력 제어가 행하여짐에 의해 바꾸어질 수 있다.
또한 프로세서(100)에서 행하여지는 처리는, 상술한 바와 같은 화상의 출력 제어에 관한 처리로 한정되지 않는다.
예를 들면, 프로세서(100)는, 센서(200) 각각에 대해 제어 정보를 송신함에 의해 출력되는 화상의 제어를 행하는 것이 가능하다. 출력되는 화상의 제어는 예를 들면 처리부(102)에 의해 행하여진다.
본 실시 형태에 관한 출력되는 화상의 제어로서는 예를 들면, 센서(200) 각각으로부터 출력되는 화상 사이즈의 제어와, 복수의 센서(200) 각각으로부터 출력되는 화상의 프레임 레이트의 제어의 일방 또는 쌍방을 들 수 있다.
프로세서(100)는, 예를 들면, 화상 사이즈를 나타내는 데이터와, 프레임 레이트를 나타내는 데이터의 일방 또는 쌍방(제어를 위한 정보의 한 예)을 포함하는 제어 정보를 센서(200)에 대해 송신함에 의해 센서(200)로부터 출력되는 화상을 제어한다.
또한 프로세서(100)는, 예를 들면, 메모리(300) 등의 기록 매체에의 데이터 버스(B1)를 통하여 수신된 화상 데이터의 기록 제어에 관한 처리, 표시 디바이스(400)의 표시 화면에의 화상의 표시 제어에 관한 처리, 임의의 어플리케이션 소프트웨어를 실행하는 처리 등, 다양한 처리를 행하는 것이 가능하다. 기록 제어에 관한 처리로서는 예를 들면 "기록 명령을 포함하는 제어 데이터와 기록 매체에 기록시키는 데이터를 메모리(300) 등의 기록 매체에 전달하는 처리"를 들 수 있다. 또한 표시 제어에 관한 처리로서는 예를 들면 "표시 명령을 포함하는 제어 데이터와 표시 화면에 표시시키는 데이터를 표시 디바이스(400) 등의 표시 디바이스에 전달하는 처리"를 들 수 있다.
[3] 센서(200)(본 실시 형태에 관한 화상 센서)
센서(200)는, 화상 센서이다. 본 실시 형태에 관한 화상 센서는 예를 들면, 디지털 스틸 카메라나 디지털 비디오 카메라, 스테레오 카메라 등의 촬상 디바이스나, 적외선 센서, 거리 화상 센서 등의 촬상 기능을 갖는 임의의 센서 디바이스를 포함하고, 촬상에 의해 생성된 화상을 출력하는 기능을 갖는다. 여기서, 센서(200)에서 생성된 화상은, 센서(200)에서의 센싱 결과를 나타내는 데이터에 해당한다.
센서(200)는, 예를 들면 도 1에 도시하는 바와 같이 다른 센서(200)가 접속되는 데이터 버스(B1)에 접속된다.
상술한 바와 같이 센서(200)에서의 촬상은, 예를 들면, 제어 버스(B2)를 통하여 수신된 제어 정보에 의거하여 행하여지고, 프로세서(100)에 의해 제어된다. 예를 들면 센서(200)에서의 촬상이 프로세서(100)에 의해 제어됨에 의해 센서(200)에서의 촬상과 시스템(1000)을 구성하는 다른 센서(200)에서의 촬상은, 소정의 기간 내에 행하여진다.
또한 센서(200)는, 제어 정보에 의거한 출력 타이밍에서 화상을 출력한다. 여기서, 센서(200)에서의 촬상과 다른 센서(200)에서의 촬상은, 소정의 기간 내에 행하여지기 때문에 센서(200)가 제어 정보에 의거하여 출력하는 화상은, 소정의 기간 내에 촬상된 화상이라고 말할 수 있다. 상술한 바와 같이 제어 정보는 프로세서(100)로부터 송신되고, 센서(200)는, 예를 들면 제어 버스(B2)를 통하여 제어 정보를 수신한다.
도 4는, 본 실시 형태에 관한 시스템(1000)을 구성하는 센서(200)의 구성의 한 예를 도시하는 설명도이다. 센서(200)는, 예를 들면, 프로세서(250)와, ROM(252)과, 레지스터(254)와, 센서 디바이스(256)와, 통신 디바이스(258)를 갖는다. 또한 센서(200)에서의 각 구성 요소는, 예를 들면 내부 버스(260)로 접속된다. 또한 센서(200)는, 예를 들면, 데이터 버스(B1)를 접속하는 것이 가능한 단자나, 제어 버스(B2)를 접속하는 것이 가능한 단자 등의 외부 버스를 접속하는 것이 가능한 단자를 가지며, 데이터 버스(B1) 등의 외부 버스에 접속 가능하다. 센서(200)는, 배터리 등의 시스템(1000)을 구성하는 내부 전원(도시 생략)으로부터 공급되는 전력, 또는, 시스템(1000)의 외부 전원으로부터 공급되는 전력에 의해 구동한다.
또한 센서(200)의 구성은, 도 4에 도시하는 예로 한정되지 않는다. 예를 들면, 센서(200)는, 출력하는 화상을 일시적으로 유지하기 위한 기록 매체를 또한 구비하고 있어도 좋다. 화상을 일시적으로 유지하기 위한 기록 매체로서는 예를 들면, RAM(Random Access Memory) 등의 휘발성 메모리나, 플래시 메모리 등의 불휘발성 메모리 등을 들 수 있다.
여기서, 후술하는 센서 디바이스(256)로서 기능하는 촬상 디바이스가 글로벌 셔터 방식에 대응하는 촬상 디바이스인 경우에는, 당해 촬상 디바이스를 구성하는 신호 전하를 유지하기 위한 유지 용량을 이용하여, 화상을 일시적으로 유지하는 것이 가능하다.
따라서, 센서(200)가 글로벌 셔터 방식에 대응하는 촬상 디바이스를 센서 디바이스(256)로서 구비하는 경우에는, 센서(200)는, 상기 화상을 일시적으로 유지하기 위한 기록 매체를 별도 구비할 필요는 없다. 상기 화상을 일시적으로 유지하기 위한 기록 매체를 별도 구비할 필요가 없는 경우에는, 센서(200)의 소형화나 비용의 저감 등을 도모할 수 있다.
프로세서(250)는, 센서(200) 전체를 제어하는 역할을 다한다. 프로세서(250)에 의한 제어로서는 예를 들면, 레지스터(254)에의 수신된 제어 정보의 기록의 제어 센서 디바이스(256)의 동작의 제어 통신 디바이스(258)의 통신의 제어 등을 들 수 있다.
수신된 제어 정보의 기록의 제어에 관한 처리로서는 예를 들면, "수신된 제어 정보에 포함되는 식별 정보와, ROM(252)에 기억되어 있는 식별 정보(270)를 비교하여, 비교 결과에 의거하여, 수신된 제어 정보를 선택적으로 레지스터(254)에 기록하는 처리"를 들 수 있다. 프로세서(250)는, 예를 들면, 수신된 제어 정보에 포함되는 식별 정보와, ROM(252)에 기억되어 있는 식별 정보(270)가 일치하는 경우에 수신된 제어 정보를 선택적으로 레지스터(254)에 기록한다.
센서 디바이스(256)의 동작의 제어에 관한 처리로서는 예를 들면 "촬상 명령을 포함하는 제어 정보가 수신된 경우에 센서 디바이스(256)를 동작시키는 명령을 포함하는 제어 신호를 센서 디바이스(256)에 전달하는 처리"를 들 수 있다.
통신 디바이스(258)의 통신의 제어에 관한 처리로서는 예를 들면, "송신 명령과 송신하는 데이터를 포함하는 제어 신호를 통신 디바이스(258)에 전달하는 처리"를 들 수 있다.
ROM(252)은, 센서(200)가 구비하는 하나의 기록 매체이다. ROM(252)에는, 예를 들면, 식별 정보가 기억된다.
레지스터(254)는, 센서(200)가 구비하는 다른 기록 매체이다. 레지스터(254)에는, 예를 들면, 제어 버스(B2)를 통하여 수신된 제어 정보가 기억된다. 또한 도 4에서는 제어 정보가 레지스터(254)에 기억되는 예를 나타내고 있는데, 제어 정보는, 플래시 메모리 등의 불휘발성 메모리나, 하드 디스크 등의 자기 기록 매체 등의 다른 기록 매체에 기억되어도 좋다.
센서 디바이스(256)는, 화상을 생성하는 디바이스이다. 센서 디바이스(256)로서는 예를 들면, 디지털 스틸 카메라나 디지털 비디오 카메라 등의 촬상 디바이스나, 적외선 센서, 거리 화상 센서 등의 촬상에 의해 화상을 생성하는 기능을 갖는 임의의 센서 디바이스를 들 수 있다.
센서 디바이스(256)에 관해 한 예를 들어 구체적으로 설명하면, 센서 디바이스(256)로서 기능하는 촬상 디바이스는, 예를 들면, 광학계의 렌즈(도시 생략)와, 촬상 소자(도시 생략)와, 촬상 소자(도시 생략)에 대응하는 화소 어레이(도시 생략)와, 드라이버(도시 생략)를 갖는다.
본 실시 형태에 관한 촬상 소자(도시 생략)로서는 예를 들면, CMOS(Complementary Metal Oxide Semiconductor)나, CCD(Charge Coupled Device)를 들 수 있다. 또한 본 실시 형태에 관한 촬상 소자(도시 생략)는, CMOS에 CCD 등의 다른 구성 요소가 적층되어 구성되는, 스택형의 촬상 소자라도 좋다. 즉, 촬상 디바이스를 센서 디바이스(256)로서 구비하는 센서(200)는, 글로벌 셔터 방식, 또는, 롤링 셔터 방식에 의해 촬상을 행하는 것이 가능하다.
화소 어레이(도시 생략)는, 복수의 화소 회로가 행렬형상으로 배치된 구성을 갖는다. 화소 회로 각각은, 신호선을 통하여 드라이버(도시 생략)와 전기적으로 접속된다. 화소 회로는, 예를 들면, 포토 다이오드 등의 수광 소자나 트랜지스터, 용량 소자 등으로 구성된다. 화소 회로에서는 드라이버(도시 생략)로부터 신호선을 통하여 전달되는 제어 신호에 의해 입사되는 광에 응한 신호 전하의 축전이나, 화소 회로의 초기화 등이 행하여진다.
화소 회로를 구성하는 상기 트랜지스터로서는 예를 들면, 바이폴러 트랜지스터나, TFT(Thin Film Transistor)나 MOSFET(Metal-Oxide-Semiconductor Field Effect Transistor) 등의 FET(Field-Effect Transistor) 등을 들 수 있다. 또한 화소 회로를 구성하는 상기 용량 소자로서는 예를 들면 커패시터를 들 수 있다. 또한 화소 회로를 구성하는 상기 용량 소자에는, 배선 등의 기생 용량이 포함되어 있어도 좋다.
드라이버(도시 생략)는, 화소 회로에 대해 제어 신호를 전달함에 의해 화소 회로를 구동시킨다.
센서 디바이스(256)로서 기능하는 촬상 디바이스는, 예를 들면 상기에 나타내는 바와 같은 구성을 갖는다. 또한 촬상 디바이스의 구성이 상기에 나타내는 예로 한정되지 않음은 말할 필요도 없다.
통신 디바이스(258)는, 예를 들면, 데이터 버스(B1), 제어 버스(B2) 등이 접속되어 있는 외부 버스를 통하여, 외부 디바이스와 통신을 행하기 위한 디바이스이다. 통신 디바이스(258)로서는 예를 들면, CSI-2 규격, PCI Express 등의 데이터를 시분할 다중화하여 전송하는 것이 가능한 임의의 규격에 대응하는 통신을 행하는 것이 가능한 디바이스를 들 수 있다.
센서(200)는, 예를 들면 도 4에 도시하는 구성을 가짐에 의해 제어 정보에 의거한 출력 타이밍에서 화상을 출력한다. 또한 센서(200)의 구성이 도 4에 도시하는 예로 한정되지 않음은 말할 필요도 없다.
센서(200)에서의 제어 정보에 의거한 화상의 출력에 관한 처리에 관해 보다 구체적으로 설명한다. 센서(200)는, 제어 정보에 의거한 화상의 출력에 관한 처리로서, 예를 들면 하기한 (I)에 나타내는 제1의 예에 관한 출력 처리와 하기한 (Ⅱ)에 나타내는 제2의 예에 관한 출력 처리 중의 일방 또는 쌍방을 행한다. 센서(200)에서, 하기에 나타내는 제어 정보에 의거한 화상의 출력에 관한 처리는, 예를 들면, 센서(200)를 구성하는 프로세서(250)가 레지스터(254)에 기억되어 있는 제어 정보(272)를 참조함에 의해 행하여진다.
(I) 제1의 예에 관한 출력 처리 : 제어 정보에 화상을 출력할 때의 지연량을 나타내는 데이터(제1 출력 정보)가 포함되는 경우 제어 정보에 지연량을 나타내는 데이터가 포함되는 경우, 센서(200)는, 지연량을 나타내는 데이터가 나타내는 지연량만큼 지연시켜서 화상을 출력한다.
센서(200)에서는 예를 들면, 상술한 "화상을 일시적으로 유지하기 위한 기록 매체", 또는, 상술한 "센서 디바이스(256)로서 기능하는 글로벌 셔터 방식에 대응하는 촬상 디바이스를 구성하는 유지 용량"에 화상이 유지됨에 의해 화상의 출력의 지연이 실현된다.
예를 들면, 지연량을 나타내는 데이터가 지연량을 직접적으로 나타내는 데이터인 경우, 센서(200)는, 소정의 시점에서, 지연량을 나타내는 데이터가 나타내는 지연량에 응한 시간이 경과한 때에 화상을 출력한다.
소정의 시점으로서는 예를 들면, 촬상 명령이나 동기 신호가 수신된 시점이나, 촬상에서의 노광이 종료된 시점 등을 들 수 있다. 소정의 시점을 나타내는 데이터는, 예를 들면, ROM(252) 등에 미리 기억되어 있어도 좋고, 제어 정보에 포함되어 있어도 좋다.
또한 예를 들면, 지연량을 나타내는 데이터가 지연량을 간접적으로 나타내는 데이터인 경우, 센서(200)는, 지연량을 나타내는 데이터에 의거하여 지연량을 특정한다. 예를 들면, 지연량을 간접적으로 나타내는 데이터가 지연량에 대응되어 있는 ID를 나타내는 경우, 센서(200)는, ROM(252) 등의 기록 매체에 기억되어 있는, ID와 지연량이 대응되어 있는 테이블(또는 데이터베이스)를 참조함에 의해 지연량을 특정한다. 그리고, 센서(200)는, 소정의 시점에서, 특정된 지연량에 응한 시간이 경과한 때에 화상을 출력한다.
또한 제1의 예에 관한 출력 처리만이 행하여지는 경우, 센서(200)는, 예를 들면, 설정되어 있는 출력 간격에 따라, 화상의 패킷을 출력한다. 센서(200)는, 예를 들면, ROM(252) 등의 기록 매체에 기억되어 있는 출력 간격을 나타내는 데이터를 참조함에 의해 설정되어 있는 출력 간격을 특정한다.
(Ⅱ) 제2의 예에 관한 출력 처리 : 제어 정보에 화상을 출력할 때의 패킷의 출력 간격을 나타내는 데이터(제2 출력 정보)가 포함되는 경우
제어 정보에 패킷의 출력 간격을 나타내는 데이터가 포함되는 경우, 센서(200)는, 패킷의 출력 간격을 나타내는 데이터가 나타내는 출력 간격에 따라, 화상의 패킷을 출력한다.
예를 들면, 패킷의 출력 간격을 나타내는 데이터가 출력 간격을 직접적으로 나타내는 데이터인 경우, 센서(200)는, 하나의 패킷을 출력한 후, 패킷의 출력 간격을 나타내는 데이터가 나타내는 출력 간격에 응한 시간이 경과한 때에 다음에 출력하는 패킷을 출력한다.
또한 예를 들면, 패킷의 출력 간격을 나타내는 데이터가 출력 간격을 간접적으로 나타내는 데이터인 경우, 센서(200)는, 패킷의 출력 간격을 나타내는 데이터에 의거하여 출력 간격을 특정한다. 예를 들면, 출력 간격을 간접적으로 나타내는 데이터가 출력 간격에 대응되어 있는 ID를 나타내는 경우, 센서(200)는, ROM(252) 등의 기록 매체에 기억되어 있는, ID와 출력 간격이 대응되어 있는 테이블(또는 데이터베이스)를 참조함에 의해 출력 간격을 특정한다. 그리고, 센서(200)는, 하나의 패킷을 출력한 후, 특정된 출력 간격에 응한 시간이 경과한 때에 다음에 출력하는 패킷을 출력한다.
또한 제2의 예에 관한 출력 처리만이 행하여지는 경우, 센서(200)는, 예를 들면, 설정되어 있는 지연량만큼 지연시켜서, 화상을 출력한다. 센서(200)는, 예를 들면, ROM(252) 등의 기록 매체에 기억되어 있는 지연량을 나타내는 데이터를 참조함에 의해 설정되어 있는 지연량을 특정한다.
센서(200)는, 예를 들면 상기 (I)에 나타내는 제1의 예에 관한 출력 처리와 상기 (Ⅱ)에 나타내는 제2의 예에 관한 출력 처리 중의 일방 또는 쌍방을 행한다. 따라서, 시스템(1000)에서는 프로세서(100)에 의해 센서(200)에 설정된 제어 정보에 의거한 출력 타이밍에서, 소정의 기간 내에 촬상된 화상이 센서(200)로부터 출력된다. 그리고, 시스템(1000)에서는 센서(200) 각각으로부터 데이터 버스(B1)를 통하여 출력되는 화상이 프로세서(100)에 의해 취득된다.
또한 본 실시 형태에 관한 센서(200)에서의 제어 정보에 의거한 화상의 출력에 관한 처리는, 상기 (I)에 나타내는 제1의 예에 관한 출력 처리와 상기 (Ⅱ)에 나타내는 제2의 예에 관한 출력 처리로 한정되지 않는다.
예를 들면, 제어 정보에 화상 사이즈를 나타내는 데이터가 포함되는 경우, 센서(200)는, 제어 정보가 나타내는 화상 사이즈의 화상을 출력한다.
또한 제어 정보에 프레임 레이트를 나타내는 데이터가 포함되는 경우, 센서(200)는, 제어 정보가 나타내는 프레임 레이트로, 화상을 출력시킨다.
또한 제어 정보에 화상 사이즈를 나타내는 데이터와 프레임 레이트를 나타내는 데이터가 포함되는 경우, 센서(200)는, 제어 정보가 나타내는 프레임 레이트로, 제어 정보가 나타내는 화상 사이즈의 화상을 출력시킨다.
[4] 메모리(300)
메모리(300)는, 시스템(1000)이 갖는 기록 매체이다. 메모리(300)로서는 예를 들면, RAM 등의 휘발성 메모리나, 플래시 메모리 등의 불휘발성 메모리 등을 들 수 있다.
메모리(300)에는, 예를 들면 센서(200) 각각으로부터 출력되는 화상이 기억된다. 메모리(300)에의 화상의 기록은, 예를 들면 프로세서(100)에 의해 제어된다.
[5] 표시 디바이스(400)
표시 디바이스(400)는, 시스템(1000)이 갖는 표시 디바이스이다. 표시 디바이스(400)로서는 예를 들면, 액정 디스플레이(Liquid Crystal Display)나 유기 EL 디스플레이(Organic Electro-Luminescence Display. 또는, OLED 디스플레이(Organic Light Emitting Diode Display)라고도 불린다.) 등을 들 수 있다.
표시 디바이스(400)의 표시 화면에는, 예를 들면, 센서(200) 각각으로부터 출력되는 화상이나, 프로세서(100)에서 실행되는 어플리케이션에 관한 화면, UI(User Interface)에 관한 화면 등, 다양한 화상이나 화면이 표시된다. 표시 디바이스(400)의 표시 화면에의 화상 등의 표시는, 예를 들면 프로세서(100)에 의해 제어된다.
[6] 시스템(1000)이 이루는 효과 및 시스템(1000)의 변형례
시스템(1000)은, 예를 들면 도 1에 도시하는 구성을 갖는다.
시스템(1000)에서는 프로세서(100)와 복수의 센서(200)가 데이터 버스(B1)에 의해 접속된다. 또한 시스템(1000)에서 복수의 센서(200)에서의 화상의 출력은, 프로세서(100)에 의해 화상의 출력 제어가 행하여짐에 의해 제어된다. 따라서, 시스템(1000)에서는 데이터 버스(B1)에 접속된 복수의 센서(200)가 독립적으로 출력하는 소정의 기간 내에 촬상된 화상이 데이터 버스(B1)상에서 시분할 다중화하여 전송된다. 그리고, 프로세서(100)는, 복수의 센서(200)가 독립적으로 출력하는 화상을 데이터 버스(B1)를 통하여 수신할 수 있다.
따라서 프로세서(100)(본 실시 형태에 관한 처리 장치)와 복수의 센서(200)(본 실시 형태에 관한 화상 센서)가 데이터 버스(B1)로 접속되는 경우에 복수의 센서(200) 각각에서 소정의 기간 내에 촬상된 화상을 데이터 버스(B1)에 의해 전송할 수 있다.
또한 시스템(1000)에 의해 예를 들면 "촬상의 타이밍이 동기되어 있는 복수의 센서(200)(소정의 기간 내에 촬상이 행하여지는 복수의 센서(200)의 한 예)가 각각 독립적으로 출력하는 화상을 동일한 데이터 버스(B1)상에서 시분할 다중화하는 기구"가 실현된다.
또한 시스템(1000)에서는 프로세서(100)와 복수의 센서(200)가 데이터 버스(B1)에 의해 접속되기 때문에 CSI-2 규격과 같은 기존의 규격을 단지 이용하는 경우보다도, 프로세서(100)에 접속되는 데이터 버스의 수를 줄일 수 있다.
또한 시스템(1000)에서는 프로세서(100)에 접속되는 데이터 버스의 수를 줄일 수 있음에 의해 하기한 바와 같은 효과가 이루어진다.
·프로세서(100)와 복수의 센서(200)를 접속하는 배선 영역을 보다 작게 할 수 있다·예를 들면 데이터 버스를 접속하기 위한 단자수가 감소하는 등에 의해 프로세서(100)의 하드웨어 구성을 보다 간략화할 수 있다.
또한 본 실시 형태에 관한 시스템의 구성은, 도 1에 도시하는 예로 한정되지 않는다.
예를 들면, 시스템의 외부의 기록 매체에 복수의 센서(200)로부터 출력되는 화상이 기억되는 경우, 또는, 복수의 센서(200)로부터 출력되는 화상이 프로세서(100)가 구비하는 메모리에 기억되는 경우에는, 본 실시 형태에 관한 시스템은, 도 1에 도시하는 메모리(300)를 갖지 않아도 좋다.
또한 본 실시 형태에 관한 시스템은, 도 1에 도시하는 표시 디바이스(400)를 갖지 않는 구성을 취하는 것도 가능하다.
또한 본 실시 형태에 관한 시스템은, 후술하는 본 실시 형태에 관한 시스템이 적용되는 전자 기기가 갖는 기능에 응한 임의의 구성을 갖고 있어도 좋다.
또한 본 실시 형태에 관한 시스템은, 프로세서에 M개(M은, 센서(200)의 수보다도 작은 정수)의 데이터 버스가 접속되는 구성이라도 좋다. 본 실시 형태에 관한 시스템이 프로세서에 M개(M은, 시스템이 갖는 센서(200)의 수보다도 작은 정수)의 데이터 버스가 접속되는 구성이라도, CSI-2 규격과 같은 기존의 규격을 단지 이용하는 경우보다도, 프로세서에 접속되는 데이터 버스의 수를 줄일 수 있다.
[7] 본 실시 형태에 관한 시스템의 적용례
이상, 본 실시 형태로서, 시스템을 들어서 설명하였지만, 본 실시 형태는, 이러한 형태로 한정되지 않는다. 본 실시 형태는, 예를 들면, 스마트 폰 등의 통신 장치나, 드론(원격 조작에 의한 동작, 또는, 자율적인 동작이 가능한 기기), 자동차 등의 이동체, PC(Personal Computer) 등의 컴퓨터, 태블릿형의 장치, 게임기 등, 다양한 전자 기기에 적용할 수 있다.
또한 상기에서는 본 실시 형태에 관한 시스템을 구성하는 처리 장치로서, 프로세서를 예로 들었지만, 본 실시 형태에 관한 처리 장치는, 상기에 나타내는 예로 한정되지 않는다. 예를 들면, 본 실시 형태에 관한 처리 장치는, 데이터 버스에 접속되는 복수의 화상 센서 각각으로부터 당해 데이터 버스를 통하여 출력되는 화상의 출력 제어를 행하는 것이 가능한 임의의 처리 회로, 또는, 임의의 디바이스에 적용할 수 있다.
(본 실시 형태에 관한 시스템에서의 화상의 출력례)
다음에 상술한 시스템(1000)에서의 화상의 출력례를 설명한다. 이하에서는 데이터 버스(B1)에 의해 전송되는 신호가 CSI-2 규격에 의해 전송되는 예를 나타낸다.
도 5는, 본 실시 형태에 관한 시스템(1000)을 구성하는 센서(200)에 의해 촬상된 화상 데이터의 한 예를 도시하고 있다.
센서(200)에 의해 촬상된 화상 데이터는, 예를 들면 N(N은, 1 이상의 정수)행의 데이터로 구성되고, 1행씩 데이터 버스(B1)에 출력된다.
도 6은, 본 실시 형태에 관한 시스템(1000)을 구성하는 데이터 버스(B1)상에서 전송되는 화상 데이터의 패킷열의 한 예를 도시하고 있고, CSI-2 규격에 따른 패킷열의 한 예를 나타내고 있다. 도 6에 도시하는 "FS"는, CSI-2 규격에서의 FS(FrameStart) 패킷을 나타내고 있고, 도 6에 도시하는 "FE"는, CSI-2 규격에서의 FE(Frame End) 패킷을 나타내고 있다. 또한 도 6에 도시하는 "PH"는, 패킷 헤더를 나타내고 있고, 도 6에 도시하는 "PF"는, 패킷 푸터를 나타내고 있다.
CSI-2 규격에서는 화상 데이터의 선두에 FS 패킷(P1)이 발행된 후, 화상 데이터 패킷(P2)이 N패킷 발행되고, 최후에 FE 패킷(P3)이 발행된다. 하나의 화상 데이터 패킷(P1)과 다른 화상 데이터 패킷(P1)의 간격은 라인 블랭킹(BL1)이라고 불리고, FE 패킷(P3)과 다음의 FS 패킷(P1)의 간격은 프레임 블랭킹(BL2)라고 불린다.
도 7은, 본 실시 형태에 관한 시스템(1000)을 구성하는 메모리(300)상에 확보된 프레임 버퍼의 한 예를 나타내고 있다.
도 6에 도시하는 패킷열을 수신한 프로세서(100)는, 수신한 화상 데이터를 도 7에 도시하는 바와 같이 메모리(300)의 프레임 버퍼에 기록시킨다.
센서(200)에서 촬상된 화상이 CSI-2 규격에 의해 전송되는 경우, 시스템(1000)에서는 도 6에 도시하는 바와 같은 화상 데이터의 패킷열이 데이터 버스(B1)상에서 전송되고, 프로세서(100)에 의해 수신된 화상 데이터는, 도 7에 도시하는 바와 같이 프레임 버퍼에 기억된다.
다음에 센서(200)가 센서 디바이스(256)로서 촬상 디바이스를 구비하는 경우를 예로 들어 센서(200)로부터 출력되는 화상의 출력 타이밍의 예를 설명한다.
[I] 대응하는 셔터 방식에 응한 화상의 출력례
프로세서(100)에 의한 출력 제어에 의해 실현되는, 센서(200)로부터 출력되는 화상의 출력 타이밍의 예를 설명하기 전에 센서가 구비하는 촬상 디바이스가 대응하는 셔터 방식에 응한 화상의 출력례를 설명한다.
(I-1) 촬상 디바이스가 롤링 셔터 방식에 대응하는 경우
도 8은, 롤링 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서에서의 동작의 한 예를 도시하는 설명도이다. 도 8은, 롤링 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서(이하, 「롤링 셔터 방식에 대응하는 센서」로 나타내는 경우가 있다.)가 어느 하나의 N라인을 촬상하여 N라인에 대응하는 화상 데이터를 출력할 때까지의 동작을 나타내고 있다.
도 8에 도시하는 "화소 RST"는, 화소의 리셋을 나타내고 있고, 도 8에 도시하는 "화소 RD"는, 입사된 광에 따라 축적된 전하를 판독한 것을 나타내고 있다. 도 8에 도시하는 "AD 변환"는, 아날로그-디지털 변환 회로(도시 생략)에 의해 판독된 전하에 응한 아날로그 신호를 디지털 신호로 변환한 것을 나타내고 있다. 이하, 다른 도면에도 마찬가지라고 한다.
N라인을 촬상하는 경우, 롤링 셔터 방식에 대응하는 센서에서는 N라인에 대응하는 화소의 리셋(도 8에 도시하는 화소 RST)가 행하여진다. 여기서, 화소의 리셋은, 촬상 디바이스의 셔터를 여는 동작에 해당한다.
롤링 셔터 방식에 대응하는 센서에서는 화소에 입사되는 광에 응한 신호 전하가 축적되고(도 8에 도시하는 축적), 그 후, 축적된 전하가 판독된다(도 8에 도시하는 화소 RD). 여기서, 축적된 전하의 판독은, 촬상 디바이스의 셔터를 닫는 동작에 해당한다.
롤링 셔터 방식에 대응하는 센서에서는 판독된 전하가 아날로그-디지털 변환됨에 의해(도 8에 도시하는 AD 변환) N라인에 대응하는 디지털 데이터가 얻어지고, 당해 디지털 데이터가 데이터 버스에 출력된다(도 8에 도시하는 데이터 출력).
도 9는, 롤링 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서에서의 동작의 한 예를 도시하는 설명도로서, 도 8에 도시하는 있는 N라인에서의 동작이 1라인∼N라인(도 9에서, N은 4 이상의 정수)의 복수 라인에 관해 연속해서 행하여지는 예를 나타내고 있다.
롤링 셔터 방식에 대응하는 센서에서는 도 9에 도시하는 바와 같이 각 라인에 대응하는 디지털 데이터의 데이터 버스에의 출력이 충돌하지 않도록 라인마다 타이밍을 어긋내서, 화소 리셋(도 9에 도시하는 화소 RST)∼데이터 출력(도 9에 도시하는 데이터 출력)이라는 일련의 동작이 행하여진다.
도 10은, 롤링 셔터 방식에 대응하는 촬상 디바이스를 각각 구비하는 2개의 센서에서의 동작의 한 예를 도시하는 설명도이다. 도 10은, 데이터 버스상에서 화상 데이터가 시분할 다중화되도록, 2개의 롤링 셔터 방식에 대응하는 센서(센서(#1) 및 센서(#2)) 각각에서 도 9에 도시하는 동작이 행하여지는 경우의 한 예를 나타내고 있다.
데이터 버스상의 데이터의 출력 타이밍이 2개의 롤링 셔터 방식에 대응하는 센서에서 겹쳐지지 않도록 하기 위해서는 도 2를 참조하고 도시한 바와 같이 2개의 롤링 셔터 방식에 대응하는 센서의 촬상의 타이밍을 어긋낼 필요가 있다. 그때문에 도 10에 도시하는 예에서는 하나의 센서가 모든 라인에 대응하는 데이터를 데이터 버스에 출력한 후에 다른 센서에서의 각 라인에 대응하는 데이터의 데이터 버스에의 출력이 행하여지고 있다. 따라서, 도 10에 도시하는 예에서는 2개의 롤링 셔터 방식에 대응하는 센서에서 촬상된 화상은, 동일한 시점에 촬상된 화상(또는, 동일한 시점에 촬상되었다고 간주할 수 있는 화상)으로는 되지 않는다.
(I-2) 촬상 디바이스가 글로벌 셔터 방식에 대응하는 경우
도 11은, 글로벌 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서에서의 동작의 한 예를 도시하는 설명도이다. 도 11은, 글로벌 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서(이하, 「글로벌 셔터 방식에 대응하는 센서」로 나타내는 경우가 있다.)가 어느 하나의 N라인을 촬상하여 N라인에 대응하는 화상 데이터를 출력할 때까지의 동작을 나타내고 있다.
N라인을 촬상하는 경우, 글로벌 셔터 방식에 대응하는 센서에서는 N라인에 대응하는 화소의 리셋(도 11에 도시하는 화소 RST)가 행하여진다.
글로벌 셔터 방식에 대응하는 센서에서는 화소에 입사되는 광에 응한 신호 전하가 축적되고(도 11에 도시하는 축적), 그 후, 축적된 전하가 판독된다(도 11에 도시하는 화소 RD).
글로벌 셔터 방식에 대응하는 센서에서는 롤링 셔터 방식에 대응하는 센서와 달리, 판독된 전하는 예를 들면 화소에 인접하는 용량 소자에 전송되고, 당해 용량 소자에 유지된다(도 11에 도시하는 용량 유지). 이하에서는 상기 화소에 인접하는 용량 소자와 같은, 판독된 전하가 유지되는 용량 소자를 「유지 용량」으로 나타낸다.
글로벌 셔터 방식에 대응하는 센서에서는 유지 용량에 유지되어 있는 전하가 아날로그-디지털 변환됨에 의해(도 11에 도시하는 AD 변환) N라인에 대응하는 디지털 데이터가 얻어지고, 당해 디지털 데이터가 데이터 버스에 출력된다(도 11에 도시하는 데이터 출력). 즉, 글로벌 셔터 방식에 대응하는 센서에서는 유지 용량에 전하를 유지함에 의해 아날로그-디지털 변환과 데이터 버스에의 데이터의 출력을 늦추는 것이 가능하다.
도 12는, 글로벌 셔터 방식에 대응하는 촬상 디바이스를 구비하는 센서에서의 동작의 한 예를 도시하는 설명도로서, 도 12에 도시하는 있는 N라인에서의 동작이 1라인∼N라인(도 12에서, N은, 4 이상의 정수)의 복수 라인에 관해 연속해서 행하여지는 예를 나타내고 있다.
글로벌 셔터 방식에 대응하는 센서에서는 도 12에 도시하는 바와 같이 화소 리셋(도 12에 도시하는 화소 RST)을 모든 라인으로 동시에 시작할 수 있다. 또한 글로벌 셔터 방식에 대응하는 센서에서는 예를 들면 도 12에 도시하는 바와 같이 신호 전하의 축적(도 12에 도시하는 축적)과 축적된 전하의 판독(도 12에 도시하는 화소 RD)이 모든 라인으로 동시에 행하여진다. 또한 글로벌 셔터 방식에 대응하는 센서에서는 신호 전하의 축적(도 12에 도시하는 축적)과 축적된 전하의 판독(도 12에 도시하는 화소 RD)을 라인마다 바꾸는 것도 가능하다.
글로벌 셔터 방식에 대응하는 센서는 각 라인에서 판독된 전하를 유지 용량에 전송하여 유지 용량에 유지시키고(도 12에 도시하는 용량 유지), 유지 용량에 유지된 전하를 1라인씩 순차적으로 아날로그-디지털 변환하여, 데이터 버스로 데이터를 출력한다(도 12에 도시하는 AD 변환 및 데이터 출력). 또한 도 12에서는 라인1(도 12에 도시하는 Line1)에 관해서는 편의상, 판독된 전하를 유지 용량에 전송하여 유지 용량에 유지시키는 것을 생략하고 있다(또한 후술하는 도 13, 도 14에서도, 도 12와 마찬가지로 생략한다.).
예를 들면 도 12에 도시하는 바와 같이 글로벌 셔터 방식에 대응하는 센서는 각 라인에서 판독된 전하를 유지 용량에 유지시키는 것이 가능하기 때문에 각 라인에 대응하는 데이터를 데이터 버스로 출력하는 출력 타이밍을 데이터의 충돌이 회피되도록 어긋낼 수 있다.
[Ⅱ] 시스템(1000)에서의 센서(200)로부터의 화상의 출력례
다음에 시스템(1000)에서의 센서(200)로부터의 화상의 출력례를 설명한다.
이하에서는 시스템(1000)을 구성하는 센서(200)가 구비하는 센서 디바이스(256)가 글로벌 셔터 방식에 대응하는 센서이고, 유지 용량을 이용하여 화상을 일시적으로 유지하는 경우를 주로 예로 든다. 상술한 바와 같이 글로벌 셔터 방식에 대응하는 센서를 구성하는 유지 용량을 이용하여 화상을 일시적으로 유지하는 경우에는, 센서(200)는, RAM 등의 화상을 일시적으로 유지하기 위한 기록 매체를 구비하지 않아도 좋다. 또한 상술한 바와 같이 센서(200)는, RAM 등의 화상을 일시적으로 유지하기 위한 기록 매체를 구비함에 의해 화상을 일시적으로 유지하는 것도 가능하다.
(Ⅱ-1) 제1의 출력례
도 13은, 본 실시 형태에 관한 시스템(1000)에서의 센서(200)로부터의 화상의 출력의 제1의 예를 도시하는 설명도이다. 도 13은, 글로벌 셔터 방식에 대응하는 센서를 센서 디바이스(256)로서 각각 구비하는 센서(200A, 200B)에서의 동작의 한 예를 도시하고 있다. 센서(200A)와 센서(200B)는, 예를 들면 제어 버스(B2)를 통하여 동기하여 동작한다.
센서(200A, 200B)에서는 예를 들면 동기 신호(Vsync)의 수신에 의거하여 동기하여 화소의 리셋(도 13에 도시하는 화소 RST)가 행하여지고, 그 후, 신호 전하의 축적(도 13에 도시하는 축적)과 축적된 전하의 판독(도 13에 도시하는 화소 RD)이 행하여진다.
또한 센서(200A, 200B) 각각은, 도 12를 참조하여 나타낸 바와 같이 각 라인에서 판독된 전하를 유지 용량에 전송하여 유지 용량에 유지시키고(도 13에 도시하는 용량 유지), 유지 용량에 유지된 전하를 1라인씩 순차적으로 아날로그-디지털 변환하고, 데이터 버스(B1)로 데이터를 출력한다(도 13에 도시하는 AD 변환 및 데이터 출력). 데이터 버스(B1)로 출력되는 각 라인에 각각 대응하는 데이터가 「화상의 패킷」에 해당한다.
여기서, 상술한 바와 같이 센서(200A, 200B) 각각은, 예를 들면 레지스터(254)에 기억되어 있는 제어 정보에 의거한 출력 타이밍에서, 화상을 출력한다.
예를 들면, 지연량을 나타내는 데이터가 제어 정보에 포함되는 경우, 센서(200A, 200B) 각각은, 당해 지연량을 나타내는 데이터에 대응하는 지연량만큼, 출력이 지연되도록, 각 라인에서 판독된 전하를 유지 용량에 유지시킨다.
또한 패킷의 출력 간격을 나타내는 데이터가 제어 정보에 포함되는 경우, 센서(200A, 200B) 각각은, 당해 출력 간격을 나타내는 데이터가 나타내는 출력 간격에 따라, 각 라인에 대응하는 데이터를 데이터 버스(B1)에 출력한다.
도 13에 도시하는 예는, 센서(200B)가 구비하는 레지스터(254)에 기억되어 있는 제어 정보가 나타내는 지연량이 센서(200A)가 구비하는 레지스터(254)에 기억되어 있는 제어 정보가 나타내는 지연량보다도 큰 예를 나타내고 있다. 보다 구체적으로는, 도 13에 도시하는 예는, 센서(200A)가 모든 라인에 대응하는 데이터를 데이터 버스(B1)에 출력한 후에 센서(200B)에서의 각 라인에 대응하는 데이터의 출력이 행하여지는 제어 정보가 센서(200A, 200B) 각각의 레지스터(254)에 기억되어 있는 예를 나타내고 있다.
여기서, 도 13에 도시하는 예에서는 센서(200A)가 각 라인에 대응하는 데이터(화상의 패킷)를 출력하는 간격과, 센서(200B)가 각 라인에 대응하는 데이터를 출력하는 간격이 동일한 예를 나타내고 있지만, 센서(200A, 200B) 각각이 데이터를 출력하는 간격은, 도 13에 도시하는 예로 한정되지 않는다. 예를 들면, 센서(200A, 200B) 각각이 제어 정보가 나타내는 출력 간격에 따라 각 라인에 대응하는 데이터를 데이터 버스(B1)에 출력함에 의해 센서(200A)에서의 데이터의 출력 간격과 센서(200B)에서의 데이터의 출력 간격은, 달라도 좋다.
센서(200A, 200B) 각각이 제어 정보에 의거한 출력 타이밍에서 화상을 출력함에 의해 예를 들면 도 13에 도시하는 바와 같이 센서(200A, 200B) 사이에서 촬상의 타이밍이 갖추어진 화상(소정의 기간 내에 촬상된 화상)을 데이터 버스(B1)상에서 시분할 다중화하여 전송시킬 수 있다.
(Ⅱ-2) 제2의 출력례
도 14는, 본 실시 형태에 관한 시스템(1000)에서의 센서(200)로부터의 화상의 출력의 제2의 예를 도시하는 설명도이다. 도 14는, 글로벌 셔터 방식에 대응하는 센서를 센서 디바이스(256)로서 각각 구비하는 센서(200A, 200B)에서의 동작의 다른 예를 나타내고 있다. 센서(200A)와 센서(200B)는, 예를 들면 제어 버스(B2)를 통하여 동기하여 동작한다.
도 14에 도시하는 센서(200A, 200B) 각각에서의 동작은, 도 13에 도시하는 제1의 출력례에서의 센서(200A, 200B)의 동작과 동일하다. 그렇지만, 센서(200A, 200B) 각각이 참조한 제어 정보가 도 13에 도시하는 예와 다름에 의해 도 14에 도시하는 제2의 출력례와 도 13에 도시하는 제1의 출력례에서는 화상 데이터의 출력 순서가 다르다.
도 14에 도시하는 예는, 센서(200B)가 구비하는 레지스터(254)에 기억되어 있는 제어 정보가 나타내는 지연량이 센서(200A)가 구비하는 레지스터(254)에 기억되어 있는 제어 정보가 나타내는 지연량보다도 큰 예를 나타내고 있다. 보다 구체적으로는, 도 14에 도시하는 예는, 센서(200A)에서의 각 라인에 대응하는 데이터를 데이터 버스(B1)에 출력과, 센서(200B)에서의 각 라인에 대응하는 데이터를 데이터 버스(B1)에 출력이 교대로 행하여지는 제어 정보가 센서(200A, 200B) 각각의 레지스터(254)에 기억되어 있는 예를 나타내고 있다.
여기서, 도 14에 도시하는 예에서는 센서(200A)가 각 라인에 대응하는 데이터(화상의 패킷)를 출력하는 간격과, 센서(200B)가 각 라인에 대응하는 데이터를 출력하는 간격이 동일한 예를 나타내고 있지만, 센서(200A, 200B) 각각이 데이터를 출력하는 간격은, 도 14에 도시하는 예로 한정되지 않는다. 예를 들면, 센서(200A, 200B) 각각이 제어 정보가 나타내는 출력 간격에 따라 각 라인에 대응하는 데이터를 데이터 버스(B1)에 출력함에 의해 센서(200A)에서의 데이터의 출력 간격과 센서(200B)에서의 데이터의 출력 간격은, (데이터 버스(B1)상에서 데이터의 충돌이 발생하지 않는 범위에서) 달라도 좋다.
센서(200A, 200B) 각각이 제어 정보에 의거한 출력 타이밍에서 화상을 출력함에 의해 예를 들면 도 14에 도시하는 바와 같이 센서(200A, 200B) 사이에서 촬상의 타이밍이 갖추어진 화상(소정의 기간 내에 촬상된 화상)을 데이터 버스(B1)상에서 시분할 다중화하여 전송시킬 수 있다.
(Ⅱ-3) 다른 출력례
본 실시 형태에 관한 시스템(1000)에서의 센서(200)로부터의 화상의 출력례는, 상기 (Ⅱ-1)에 나타내는 제1의 출력례와 상기 (Ⅱ-2)에 나타내는 제2의 출력례로 한정되지 않는다.
예를 들면, 도 13에 도시하는 제1의 출력례 및 도 14에 도시하는 제2의 출력례에서는 2개의 센서(200A, 200B)에서의 화상의 출력을 예로 들었다. 그렇지만, 시스템(1000)을 구성하는 센서(200)가 3개 이상인 경우에도, 각 센서(200)가 제어 정보에 의거한 출력 타이밍에서 화상을 출력함에 의해 제1의 출력례 및 제2의 출력례와 마찬가지로, 센서(200) 각각으로부터 출력되는 화상을 데이터 버스(B1)상에서 시분할 다중화하여 전송시킬 수 있다.
또한 도 13에 도시하는 제1의 출력례 및 도 14에 도시하는 제2의 출력례에서는 "복수의 센서(200)가 글로벌 셔터 방식에 대응하는 센서를 센서 디바이스(256)로서 구비하고, 유지 용량에 전하를 유지함에 의해 데이터 버스(B1)에의 데이터의 출력 타이밍이 조정되는 예"를 나타냈다. 그렇지만, 시스템(1000)에서는 예를 들면, 센서(200)가 RAM 등의 화상을 일시적으로 유지하기 위한 기록 매체를 구비하고, 각 라인에 대응하는 아날로그-디지털 변환된 데이터를 당해 기록 매체에 유지함에 의해 센서(200) 각각이 데이터 버스(B1)로 데이터를 출력하는 출력 타이밍이 조정되어도 좋다.
센서(200)가 RAM 등의 기록 매체에 각 라인에 대응하는 데이터를 유지하는 구성이라도, 각 센서(200)가 제어 정보에 의거한 출력 타이밍에서 화상을 출력함에 의해 제1의 출력례 및 제2의 출력례와 마찬가지로, 센서(200) 각각으로부터 출력되는 화상을 데이터 버스(B1)상에서 시분할 다중화하여 전송시킬 수 있다. 또한 센서(200)가 RAM 등의 기록 매체에 각 라인에 대응하는 데이터를 유지하는 구성인 경우, 센서(200)는, 예를 들면, 글로벌 셔터 방식에 대응하는 센서나, 상술한 롤링 셔터 방식에 대응하는 센서 등의 글로벌 셔터 방식에 대응하는 센서 이외의 센서 디바이스를 센서 디바이스(256)로서 구비하는 것이 가능하다.
[Ⅲ] 프로세서(100)에서의 화상의 출력 제어에 관한 처리(본 실시 형태에 관한 제어 방법에 관한 처리)의 한 예
다음에 상술한 시스템(1000)에서의 센서(200)로부터의 화상의 출력례를 실현시키는 것이 가능한 프로세서(100)에서의 화상의 출력 제어에 관한 처리의 한 예를 설명한다.
도 15는, 본 실시 형태에 관한 시스템(1000)을 구성하는 프로세서(100)에서의 화상의 출력 제어에 관한 처리(본 실시 형태에 관한 제어 방법에 관한 처리)의 한 예를 도시하는 흐름도이다. 도 15에서는 시스템(1000)이 센서(200A, 200B)라는 2개의 화상 센서를 갖고 있는 경우에 있어서의 프로세서(100)에서의 화상의 출력 제어에 관한 처리의 한 예를 나타내고 있다.
프로세서(100)는, 제어 대상의 센서(200A, 200B) 각각의 전원을 온 상태로 하고, 리셋 해제를 행한다(S100). 스텝 S100의 처리는, 예를 들면 센서(200A, 200B)를 초기화하는 처리의 한 예에 해당한다.
프로세서(100)는, 센서(200A)의 레지스터 설정을 행한다(S102). 프로세서(100)는, 제어 버스(B2)를 통하여 제어 정보를 송신함에 의해 센서(200A)의 레지스터 설정을 행한다.
여기서, 프로세서(100)는, 예를 들면, 센서(200A)가 지정되고, 또한 센서(200A)가 구비하는 레지스터의 어드레스가 지정된 제어 정보를 송신함에 의해 센서(200A)의 레지스터 설정을 행한다. 또한 프로세서(100)는, 예를 들면, 제어 대상의 모든 센서(200)가 지정되고, 또한 센서(200)가 구비하는 레지스터의 어드레스가 지정된 제어 정보를 송신함에 의해 센서(200A)의 레지스터 설정을 행하는 것도 가능하다. 제어 대상의 모든 센서(200)가 지정되고, 또한 센서(200)가 구비하는 레지스터의 어드레스가 지정된 제어 정보가 송신된 것은, 예를 들면, 모든 센서(200)가 구비하는 레지스터에 동일한 데이터를 동기하여 기록시키는 경우에 유효하다.
프로세서(100)는, 센서(200B)의 레지스터 설정을 행한다(S104). 프로세서(100)는, 스텝 S102와 마찬가지로, 제어 버스(B2)를 통하여 제어 정보를 송신함에 의해 센서(200B)의 레지스터 설정을 행한다.
프로세서(100)는, 센서(200A, 200B) 각각에 촬상 및 데이터 버스(B1)에의 화상 데이터의 출력을 행하게 한다(S106). 프로세서(100)는, 제어 버스(B2)를 통하여 제어 정보를 송신함에 의해 센서(200A, 200B) 각각에 촬상 및 데이터 버스(B1)에의 화상 데이터의 출력을 행하게 한다.
프로세서(100)는, 화상의 출력 제어에 관한 처리로서, 예를 들면 도 15에 도시하는 처리를 행한다. 또한 화상의 출력 제어에 관한 처리의 예가 도 15에 도시하는 예로 한정되지 않음은 말할 필요도 없다.
예를 들면 도 15에 도시하는 바와 같은 프로세서(100)에 의한 화상의 출력 제어에 의해 센서(200)가 구비하는 레지스터에 제어 정보가 기록된다. 또한 센서(200)는, 상술한 바와 같이 제어 정보에 의거한 출력 타이밍에서 화상을 출력한다.
따라서, 예를 들면 도 15에 도시하는 바와 같은 프로세서(100)에 의한 화상의 출력 제어에 관한 처리가 행하여짐에 의해 상술한 시스템(1000)에서의 센서(200)로부터의 화상의 출력례를 실현시킬 수 있다.
(본 실시 형태에 관한 프로그램)
컴퓨터를 본 실시 형태에 관한 처리 장치로서 기능시키기 위한 프로그램(예를 들면, 화상의 출력 제어에 관한 처리(본 실시 형태에 관한 제어 방법에 관한 처리)를 컴퓨터에 실행시키는 프로그램)이 컴퓨터에서 프로세서 등에 의해 실행됨에 의해 예를 들면 "촬상의 타이밍이 동기되어 있는 복수의 화상 센서(소정의 기간 내에 촬상이 행하여지는 복수의 화상 센서의 한 예)가 각각 독립적으로 출력하는 화상을 동일한 데이터 버스상에서 시분할 다중화하는 기구"가 실현된다.
또한 컴퓨터를 본 실시 형태에 관한 처리 장치로서 기능시키기 위한 프로그램이 컴퓨터에서 프로세서 등에 의해 실행됨에 의해 상술한 화상의 출력 제어에 관한 처리(본 실시 형태에 관한 제어 방법에 관한 처리)가 행하여짐에 의해 이루어지는 효과를 이룰 수 있다.
이상, 첨부 도면을 참조하면서 본 개시의 알맞은 실시 형태에 관해 상세히 설명하였지만, 본 개시의 기술적 범위는 이러한 예로 한정되지 않는다. 본 개시의 기술 분야에서 통상의 지식을 갖는 자라면, 특허청구의 범위에 기재된 기술적 사상의 범주 내에서, 각종의 변경례 또는 수정례에 상 할 수 있음은 분명하고, 이들에 대해서도, 당연히 본 개시의 기술적 범위에 속하는 것으로 이해된다.
예를 들면, 상기에서는 컴퓨터를 본 실시 형태에 관한 처리 장치로서 기능시키기 위한 프로그램(컴퓨터 프로그램)이 제공되는 것을 나타냈지만, 본 실시 형태는, 또한 상기 프로그램을 기억시킨 기록 매체도 아울러서 제공할 수 있다.
상술한 구성은, 본 실시 형태의 한 예를 나타내는 것이고, 당연히, 본 개시의 기술적 범위에 속하는 것이다.
또한 본 명세서에 기재된 효과는, 어디까지나 설명적 또는 예시적인 것이고 한정적이 아니다. 즉, 본 개시에 관한 기술은 상기한 효과와 함께, 또는 상기한 효과에 대신하여, 본 명세서의 기재로부터 당업자에게는 분명한 다른 효과를 이룰 수 있다.
또한, 이하와 같은 구성도 본 개시의 기술적 범위에 속한다.
(1) 데이터 버스에 접속 가능하고, 상기 데이터 버스에 접속되는 복수의 화상 센서 각각에서 소정의 기간 내에 촬상된 화상의 출력 제어를 행하는 처리부를 구비하고, 상기 화상 센서 각각에서의 상기 화상의 출력 타이밍은 상기 출력 제어가 행하여짐에 의해 변하는 처리 장치.
(2) 상기 처리부는, 상기 출력 제어로서, 상기 화상 센서가 상기 화상을 출력할 때의 지연을 제어하는 (1)에 기재된 처리 장치.
(3) 상기 처리부는, 상기 출력 제어로서, 상기 화상 센서가 상기 화상을 출력할 때의 패킷의 출력 간격을 제어하는 (1) 또는 (2)에 기재된 처리 장치.
(4) 상기 처리부는, 상기 화상 센서 각각에 대해 제어 정보를 송신함에 의해 상기 출력 제어를 행하는 (1)∼(3)의 어느 하나에 기재된 처리 장치.
(5) 상기 제어 정보는, 상기 화상 센서 각각에 접속되는, 상기 데이터 버스와 다른 제어 버스를 통하여 송신되는, (4)에 기재된 처리 장치.
(6) 상기 제어 정보는, 상기 화상 센서가 구비하는 레지스터에 기록되는, (4) 또는 (5)에 기재된 처리 장치.
(7) 상기 소정의 기간 내에 촬상된 화상은, 복수의 상기 화상 센서가 동기하여 촬상을 행하는 화상인, (1)∼(6)의 어느 하나에 기재된 처리 장치.
(8) 다른 화상 센서가 접속되는 데이터 버스에 접속 가능하고, 제어 정보에 의거한 출력 타이밍에서, 소정의 기간 내에 촬상된 화상을 출력하는 화상 센서.
(9) 상기 제어 정보에는, 화상을 출력할 때의 지연량을 나타내는 제1 출력 정보가 포함되고, 상기 제1 출력 정보가 나타내는 지연량만큼 지연시켜서 상기 화상을 출력하는 (8)에 기재된 화상 센서.
(10) 상기 제어 정보에는, 화상을 출력할 때의 패킷의 출력 간격을 나타내는 제2 출력 정보가 포함되고, 상기 제2 출력 정보가 나타내는 출력 간격에 따라, 상기 화상의 패킷을 출력하는 (8) 또는 (9)에 기재된 화상 센서.
(11) 상기 제어 정보는, 레지스터에 기억되는, (8)∼(10)의 어느 하나에 기재된 화상 센서.
(12) 데이터 버스에 각각 접속되는 복수의 화상 센서와,
상기 데이터 버스에 접속되는 처리 장치를 가지며,
상기 처리 장치는, 복수의 상기 화상 센서 각각에서 소정의 기간 내에 촬상된 화상의 출력 제어를 행하는 처리부를 구비하고,
상기 화상 센서 각각에서의 상기 화상의 출력 타이밍은 상기 출력 제어가 행하여짐에 의해 변하는 시스템.
100, 250 : 프로세서 102 : 처리부
200, 200A, 200B : 센서 252 : ROM
254 : 레지스터 256 : 센서 디바이스
258 : 통신 디바이스 260 : 내부 버스
270 : 식별 정보 272 : 제어 정보
300 : 메모리 400 : 표시 디바이스
1000 : 시스템 B1 : 데이터 버스
B2 : 제어 버스

Claims (18)

  1. 타이밍 제어 출력을 복수의 화상 센서 각각에 전송하고,
    상기 복수의 화상 센서 각각에 전송된 상기 타이밍 제어 출력에 의거하여, 상기 복수의 화상 센서 각각으로부터 화상을 수신하도록 구성된 처리 회로를 포함하는 것을 특징으로 하는 처리 장치.
  2. 제1항에 있어서,
    상기 타이밍 제어 출력은 상기 복수의 화상 센서 각각으로부터 화상의 출력을 지연시키는 타이밍을 포함하는 것을 특징으로 하는 처리 장치.
  3. 제1항에 있어서,
    상기 타이밍 제어 출력은 상기 복수의 화상 센서 각각으로부터 화상의 패킷이 출력되는 출력 간격인 타이밍을 포함하는 것을 특징으로 하는 처리 장치.
  4. 제1항에 있어서,
    상기 처리 회로는, 상기 타이밍 제어 출력을 이용하여 상기 복수의 화상 센서들로부터 화상들의 시분할 다중화를 수행하는 것을 특징으로 하는 처리 장치.
  5. 제4항에 있어서,
    상기 처리 회로는, 데이터 버스 및 상기 데이터 버스와 다른 제어 버스에 연결되며, 타이밍 제어 출력은 상기 제어 버스를 통해 상기 복수의 화상 센서 각각으로 보내지는 것을 특징으로 하는 처리 장치.
  6. 제4항에 있어서,
    상기 처리 회로는, 상기 타이밍 제어 출력을 레지스터에 기록하도록 상기 복수의 화상 센서 각각을 제어하는 것을 특징으로 하는 처리 장치.
  7. 제1항에 있어서,
    상기 복수의 화상 센서에 의해 촬상되는 화상은 실질적으로 동시에 촬상되는 것을 특징으로 하는 처리 장치.
  8. 화상을 촬상하고, 타이밍 제어 출력을 수신하며, 상기 타이밍 제어 출력에 의거하여 촬상된 화상을 출력하도록 구성된 화상 센서를 구비하는 것을 특징으로 하는 화상 장치.
  9. 제8항에 있어서,
    상기 타이밍 제어 출력은, 촬상된 화상의 출력을 지연시키는 타이밍을 포함하는 것을 특징으로 하는 화상 장치.
  10. 제8항에 있어서,
    상기 타이밍 제어 출력은, 촬상된 화상의 패킷이 출력되는 출력 간격인 타이밍을 포함하는 것을 특징으로 하는 화상 장치.
  11. 제8항에 있어서,
    상기 화상 센서는 레지스터를 더 포함하며, 상기 타이밍 제어 출력을 수신하는 것에 응답하여, 상기 화상 센서는 상기 레지스터에 타이밍 제어 출력을 저장하도록 더 구성되는 것을 특징으로 하는 화상 장치.
  12. 데이터 버스와,
    상기 데이터 버스에 접속되고, 그 각각이 화상을 촬상하도록 구성된 복수의 화상 센서들과,
    상기 데이터 버스에 접속된 처리 회로를 포함하고,
    상기 처리 회로는 상기 데이터 버스를 통해 상기 복수의 화상 센서 각각에 타이밍 제어 출력을 전송하도록 구성되며,
    상기 복수의 화상 센서 각각은 상기 처리 회로로부터 타이밍 제어 출력을 수신하고, 수신된 상기 타이밍 제어 출력에 의거하여 촬상된 화상을 출력하도록 구성되는 것을 특징으로 하는 시스템.
  13. 제12항에 있어서,
    상기 타이밍 제어 출력은 상기 복수의 화상 센서 각각으로부터 화상의 출력을 지연시키는 타이밍을 포함하는 것을 특징으로 하는 시스템.
  14. 제12항에 있어서,
    상기 타이밍 제어 출력은 상기 복수의 화상 센서 각각으로부터의 화상의 패킷이 출력되는 출력 간격인 타이밍을 포함하는 것을 특징으로 하는 시스템.
  15. 제12항에 있어서,
    상기 처리 회로는, 상기 타이밍 제어 출력을 이용하여 상기 복수의 화상 센서들로부터 화상들의 시분할 다중화를 수행하도록 구성되는 것을 특징으로 하는 시스템.
  16. 제15항에 있어서,
    상기 데이터 버스와 다른 제어 버스를 더 포함하며,
    상기 처리 회로는, 상기 제어 버스에 연결되고, 상기 타이밍 제어 출력은 제어 버스를 통해 상기 복수의 화상 센서 각각으로 보내지는 것을 특징으로 하는 시스템.
  17. 제12항에 있어서,
    상기 처리 회로는, 상기 타이밍 제어 출력을 레지스터에 기록하도록 상기 복수의 화상 센서 각각을 제어하도록 구성되는 것을 특징으로 하는 시스템.
  18. 제12항에 있어서,
    상기 복수의 화상 센서에 의해 촬상된 화상은 실질적으로 동시에 촬상되는 것을 특징으로 하는 시스템.
KR1020187031825A 2016-05-27 2017-04-10 처리 장치, 화상 센서 및 시스템 KR102343629B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2016-106555 2016-05-27
JP2016106555A JP6722044B2 (ja) 2016-05-27 2016-05-27 処理装置、画像センサ、およびシステム
PCT/JP2017/014726 WO2017203857A1 (en) 2016-05-27 2017-04-10 Processing apparatus, image sensor, and system

Publications (2)

Publication Number Publication Date
KR20190013728A true KR20190013728A (ko) 2019-02-11
KR102343629B1 KR102343629B1 (ko) 2021-12-28

Family

ID=58671877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187031825A KR102343629B1 (ko) 2016-05-27 2017-04-10 처리 장치, 화상 센서 및 시스템

Country Status (7)

Country Link
US (1) US11252305B2 (ko)
EP (1) EP3466045B1 (ko)
JP (1) JP6722044B2 (ko)
KR (1) KR102343629B1 (ko)
CN (1) CN109155814B (ko)
TW (1) TWI758286B (ko)
WO (1) WO2017203857A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102385333B1 (ko) * 2017-09-15 2022-04-12 삼성전자주식회사 복수의 이미지 센서들을 제어하기 위한 전자 장치 및 방법
WO2020039992A1 (ja) 2018-08-20 2020-02-27 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、および画像処理システム
JP2020188323A (ja) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 撮像装置および撮像方法
CN111551948B (zh) * 2020-05-20 2022-08-16 炬佑智能科技(苏州)有限公司 一种tof设备的控制方法、计算机存储介质
US11757995B2 (en) * 2021-04-27 2023-09-12 Stmicroelectronics S.R.L. Sensors with enhanced time division multiplexing frames

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004023397A (ja) * 2002-06-14 2004-01-22 Matsushita Electric Ind Co Ltd 画像処理システム
JP2007104349A (ja) * 2005-10-05 2007-04-19 Hitachi Ltd 撮像装置
US20120162511A1 (en) * 2010-12-22 2012-06-28 Texas Instruments Incorporated Multi-sensor video frame synchronization apparatus and methods
US20140281753A1 (en) 2013-03-15 2014-09-18 Mahesh Wagh Systems, Apparatuses, and Methods for Handling Timeouts

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590198B1 (en) * 1998-03-16 2003-07-08 Photon Vision Systems, Inc. Video bus for high speed multi-resolution imagers
US20020074481A1 (en) * 2000-06-01 2002-06-20 Mcgrath R. Daniel Dual-mode CMOS integrated imager
US6952228B2 (en) * 2000-10-13 2005-10-04 Canon Kabushiki Kaisha Image pickup apparatus
WO2006026354A2 (en) * 2004-08-25 2006-03-09 Newport Imaging Corporation Apparatus for multiple camera devices and method of operating same
US7557849B2 (en) 2004-10-11 2009-07-07 Mediatek Usa Inc Processor-controlled timing generator for multiple image sensors
US20070222879A1 (en) * 2006-03-24 2007-09-27 Intel Corporation Sub-ranging pixel sample and hold
JP2009532082A (ja) * 2006-03-30 2009-09-10 ギブン イメージング リミテッド 生体内検出デバイス、ならびにイメージャとイメージャのプロセッサとの間の通信方法
DE112007003452T5 (de) * 2007-04-18 2010-04-08 Opticon Inc. Verfahren und Gerät zum Abbilden eines sich bewegenden Objekts
JP5012188B2 (ja) * 2007-05-14 2012-08-29 コニカミノルタホールディングス株式会社 固体撮像装置
US7969469B2 (en) * 2007-11-30 2011-06-28 Omnivision Technologies, Inc. Multiple image sensor system with shared processing
JP5651976B2 (ja) * 2010-03-26 2015-01-14 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
CN103416071B (zh) * 2011-03-08 2015-11-25 瑞萨电子株式会社 摄像装置
JP5703132B2 (ja) * 2011-05-30 2015-04-15 株式会社東芝 固体撮像装置
WO2012170954A2 (en) * 2011-06-10 2012-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
JP2013066132A (ja) * 2011-09-20 2013-04-11 Fuji Xerox Co Ltd 画像読取装置、画像形成装置、及びプログラム
CN102447847A (zh) * 2011-11-02 2012-05-09 北京思比科微电子技术股份有限公司 包含mipi接口的多图像传感器图像处理装置及方法
KR101796481B1 (ko) * 2011-11-28 2017-12-04 삼성전자주식회사 저전력 셔터랙 제거 방법, 카메라 모듈 및 이를 구비하는 모바일 기기
US10256833B2 (en) * 2013-01-23 2019-04-09 Forza Silicon Corporation Dual reset branch analog-to-digital conversion
US9955142B2 (en) * 2013-07-05 2018-04-24 Mediatek Inc. On-line stereo camera calibration device and method for generating stereo camera parameters
JP6141160B2 (ja) * 2013-09-25 2017-06-07 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子およびその動作方法、並びに電子機器およびその動作方法
CN203813894U (zh) * 2014-05-09 2014-09-03 哈尔滨水星电子科技有限公司 一种接口共享的全景数字图像传感器
KR102618490B1 (ko) * 2018-12-13 2023-12-27 삼성전자주식회사 이미지 센서 및 이의 구동 방법
US11070754B1 (en) * 2020-03-24 2021-07-20 Stmicroelectronics Asia Pacific Pte Ltd. Slew rate control circuit for an image sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004023397A (ja) * 2002-06-14 2004-01-22 Matsushita Electric Ind Co Ltd 画像処理システム
JP2007104349A (ja) * 2005-10-05 2007-04-19 Hitachi Ltd 撮像装置
US20120162511A1 (en) * 2010-12-22 2012-06-28 Texas Instruments Incorporated Multi-sensor video frame synchronization apparatus and methods
US20140281753A1 (en) 2013-03-15 2014-09-18 Mahesh Wagh Systems, Apparatuses, and Methods for Handling Timeouts

Also Published As

Publication number Publication date
TWI758286B (zh) 2022-03-21
JP6722044B2 (ja) 2020-07-15
JP2017212690A (ja) 2017-11-30
CN109155814A (zh) 2019-01-04
US11252305B2 (en) 2022-02-15
KR102343629B1 (ko) 2021-12-28
EP3466045A1 (en) 2019-04-10
CN109155814B (zh) 2022-01-11
WO2017203857A1 (en) 2017-11-30
TW201805891A (zh) 2018-02-16
EP3466045B1 (en) 2024-04-03
US20190124235A1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
KR102343629B1 (ko) 처리 장치, 화상 센서 및 시스템
US10469775B2 (en) High dynamic range storage gate pixel circuitry
US10721412B2 (en) Generating long exposure images for high dynamic range processing
KR102396500B1 (ko) 화상 센서, 및 제어 시스템
US8896736B2 (en) Solid-state imaging device, imaging apparatus and signal reading method having photoelectric conversion elements that are targets from which signals are read in the same group
CN110463185B (zh) 摄像装置、摄像方法及存储介质
US8854509B2 (en) Image pickup apparatus, method of performing image compensation, and computer readable recording medium
KR102234041B1 (ko) 이미지 센서와 이를 포함하는 이미지 처리 시스템
US9781369B2 (en) Image sensor and image processing system including the same
KR20190013727A (ko) 처리 장치, 화상 센서 및 시스템
US10848692B2 (en) Global shutter and rolling shutter drive start timings for imaging apparatus, imaging method, and imaging program
US11032476B2 (en) Image sensor and electronic device comprising the same
US10944925B2 (en) Global shuttering, first rolling readout and second rolling readout employed with an imaging apparatus, imaging method, and imaging program
KR20160102814A (ko) 이미지 센서 이를 포함하는 이미지 처리 시스템, 및 상기 이미지 센서를 포함하는 모바일 컴퓨팅 장치
US10750105B2 (en) Imaging apparatus, operation method of imaging apparatus, and operation program of imaging apparatus
KR102617898B1 (ko) 다수의 센서 장치들에서의 이미지 캡처 동기화
CN111108743B (zh) 摄像控制装置、摄像装置、摄像控制方法及记录介质
US20060215050A1 (en) Driving controlling method for image sensing device, and imaging device
JP6539788B2 (ja) 撮像装置、静止画撮像方法、及び、静止画撮像プログラム
US20130155300A1 (en) Image pickup apparatus, image pickup method, and computer-readable medium
CN114365477A (zh) 摄像装置、摄像方法及摄像程序
JP2000253381A (ja) 撮像画像通信装置
JP2013187873A (ja) 電子カメラ

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant