WO2019221150A1 - 撮像装置および撮像システム - Google Patents

撮像装置および撮像システム Download PDF

Info

Publication number
WO2019221150A1
WO2019221150A1 PCT/JP2019/019193 JP2019019193W WO2019221150A1 WO 2019221150 A1 WO2019221150 A1 WO 2019221150A1 JP 2019019193 W JP2019019193 W JP 2019019193W WO 2019221150 A1 WO2019221150 A1 WO 2019221150A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging
substrate
vehicle
image processing
Prior art date
Application number
PCT/JP2019/019193
Other languages
English (en)
French (fr)
Inventor
哲崇 池田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/052,700 priority Critical patent/US11228729B2/en
Publication of WO2019221150A1 publication Critical patent/WO2019221150A1/ja
Priority to US17/646,056 priority patent/US11722804B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/74Circuitry for scanning or addressing the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region

Definitions

  • the present technology relates to an imaging device and an imaging system, and more particularly, to an imaging device having a structure in which an upper pixel portion and a lower signal processing circuit portion are stacked.
  • Patent Document 1 describes that an image sensor and an output interface are provided separately in a camera module. With such a configuration, it is not possible to meet the recent demand for downsizing of camera modules.
  • the purpose of this technology is to effectively meet the requirements for camera module miniaturization.
  • the concept of this technology is A pixel portion; An image processing unit for processing an image signal generated by the pixel unit; An encoding unit for encoding the image signal processed in the image processing unit; An address allocation unit that allocates an address to the compressed signal encoded by the encoding unit;
  • the pixel portion is formed on a first substrate;
  • the image processing unit, the encoding unit, and the address assigning unit are in an imaging apparatus formed on a second substrate stacked with the first substrate.
  • the pixel unit is formed on the first substrate, and the image processing unit, the encoding unit, and the address assignment unit are formed on the second substrate stacked on the first substrate.
  • the image signal generated by the pixel unit is processed by the image processing unit and then encoded by the encoding unit.
  • An address is assigned to the encoded compressed signal by the address assigning unit.
  • the image processing unit, the encoding unit, and the address assignment unit are formed on the second substrate, and the demand for downsizing of the camera module can be effectively satisfied.
  • the present technology may further include, for example, an output unit that converts a signal from the address assignment unit into an output signal and outputs the output signal to the network, and the output unit is formed on the second substrate. .
  • an output unit that converts a signal from the address assignment unit into an output signal and outputs the output signal to the network
  • the output unit is formed on the second substrate.
  • An imaging device An electronic control unit connected to the imaging device via a network, The imaging device A pixel portion; An image processing unit for processing an image signal generated by the pixel unit; An encoding unit for encoding the image signal processed in the image processing unit; An address allocation unit that allocates an address to the compressed signal encoded by the encoding unit;
  • the pixel portion is formed on a first substrate;
  • the image processing unit, the encoding unit, and the address assignment unit are formed on a second substrate stacked on the first substrate.
  • FIG. 1 It is a figure which shows the structural example of the imaging device as embodiment. It is a figure for demonstrating the time synchronization function in an Ethernet system part. It is a figure which shows the structural example of the imaging system with which the imaging device of embodiment is applied. It is a figure which shows the structural example of the other imaging system with which the imaging device of embodiment is applied. It is a block diagram which shows an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part. It is a figure which shows the other structural example of an imaging device.
  • Embodiment 2 modes for carrying out the invention (hereinafter referred to as “embodiments”) will be described. The description will be given in the following order. 1. Embodiment 2. FIG. 2. Application examples to mobile objects Modified example
  • FIG. 1 shows a configuration example of an imaging apparatus 100 as an embodiment.
  • the imaging apparatus 100 includes an upper chip (first substrate) 101 and a lower chip (second substrate) 102, which are stacked.
  • first chip 101 and the second chip 102 are shown in a separated state.
  • the upper chip 101 is formed with a pixel portion 105 in which a plurality of pixels that perform photoelectric conversion are arranged in a matrix.
  • the upper chip 101 is formed using a CIS (CMOS Image Sensor) process.
  • the lower chip 102 is formed with an ISP (Image Signal ⁇ Processor) unit 110 surrounded by a broken line frame and an Ethernet system (Ethernet System) unit 120 surrounded by a one-dot chain line frame.
  • the lower chip 102 is formed using a general-purpose logic process. “Ethernet” and “Ethernet” are registered trademarks.
  • the ISP unit 110 includes various units such as “CPU”, “RAM”, “Peripheral”, “CIS-IF”, “ISP”, and “MIPI-TX”. As is conventionally known, the ISP unit 110 performs processing such as white balance adjustment, gain adjustment, distortion correction, and guideline superposition on the image signal obtained by the pixel unit 105, and converts the processed image signal into MIPI ( Output with the serial data transmission standard of Mobile (Industry (Processor Interface)).
  • the Ethernet system unit 120 includes various units such as “CPU”, “RAM”, “Peripheral”, “codec”, and “Ethernet MAC”.
  • the Ethernet system unit 120 encodes the image signal after being processed by the “ISP” of the ISP unit 110, generates an Ethernet frame including the encoded compressed signal, and converts the Ethernet frame into an MII (Media Independent Interface).
  • RGMII Reduced Gigabit Media Independent Interface
  • the “codec” part is a part for encoding the image signal after being processed by the “ISP” of the ISP unit 110.
  • encoding is performed by a method such as MPEG-4, H264, H265, Motion JPEG.
  • the “Ethernet MAC” portion is a portion that generates an Ethernet frame including a coded compressed signal by assigning a MAC address or the like.
  • the PHY chip 103 converts the Ethernet frame sent from the “Ethernet MAC” portion of the Ethernet system unit 120 into an electrical signal that is actually transmitted from the logic signal, and sends it to the network via the Ethernet cable.
  • the “CPU” of the Ethernet system unit 120 communicates with an external device through Ethernet.
  • this “CPU” communicates with an external device to set the time based on the IEEE 802.1AS standard.
  • the “CPU” constitutes a time synchronization function unit.
  • FIG. 2 shows an imaging system in which four cameras (camera modules) 150-1 to 150-4 are connected to an ECU (Electronic Control Unit) 170 via a switch (Ethernet switch) 160. Yes.
  • Each of the cameras 150-1 to 150-4 has the imaging device 100 and the PHY chip 103 shown in FIG. Based on the IEEE802.1AS standard, communication is performed between the ECU 170 and the cameras 150-1 to 150-4 to perform time adjustment, thereby enabling highly accurate synchronous control of imaging timing.
  • FIG. 3 shows a configuration example of the imaging system.
  • five cameras 210-1 to 210-5 are arranged in a vehicle 200, each camera is connected to a switch (Ethernet switch) 220 through an Ethernet cable, and an ECU 230 is further connected to the switch 220.
  • Each of the cameras 210-1 to 210-5 has the imaging device 100 and the PHY chip 103 shown in FIG. “CIS” indicates the pixel unit 105 formed on the upper chip 101, “ISP” indicates the ISP unit 110 formed on the lower chip 102, and “H264” indicates the Ethernet system unit formed on the lower chip 102. 120 is shown.
  • PHY indicates the PHY chip 103.
  • a twisted pair cable may be applied as the Ethernet cable. The same applies to the imaging system of FIG. 4 below.
  • FIG. 4 shows another configuration example of the imaging system.
  • seven cameras 210-1 to 210-7 are arranged in a vehicle 200, and each camera is connected to switches (Ethernet switches) 220-1 to 220-4 through an Ethernet cable.
  • -1 is connected to the ECU 230.
  • Each of the cameras 210-1 to 210-7 has the imaging device 100 and the PHY chip 103 shown in FIG. “CIS” indicates the pixel unit 105 formed on the upper chip 101, “ISP” indicates the ISP unit 110 formed on the lower chip 102, and “H264” indicates the Ethernet system unit formed on the lower chip 102. 120 is shown.
  • PHY indicates the PHY chip 103.
  • a network is configured using a plurality of switches 220-1 to 220-4, and each camera is connected to a nearby switch, so that the camera to the switch is connected.
  • the length of the Ethernet cable can be shortened, and even if the number of cameras is increased, the wiring can be maintained.
  • the Ethernet system unit 120 is formed together with the ISP unit 110 on the lower chip 102, and effectively satisfies the demand for downsizing of the camera module. be able to.
  • the “CPU” of the Ethernet system unit 120 includes a time synchronization function unit that communicates with an external device and adjusts the time. High-precision time synchronization can be achieved between the two.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device that is mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, and a robot. May be.
  • FIG. 5 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, a sound image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintenance traveling, vehicle collision warning, or vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 6 is a diagram illustrating an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 6 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change of this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of automatic driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, and power poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as two-
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104.
  • pedestrian recognition is, for example, whether or not a person is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular outline for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • FIG. 7 shows a configuration example of the imaging apparatus 100A in that case. 7, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted as appropriate.
  • the imaging device 100A includes an upper chip (first substrate) 101 and a lower chip (second substrate) 102A, and these are stacked. In the illustrated example, for convenience of explanation, the first chip 101 and the second chip 102A are shown in a separated state.
  • the upper chip 101 is formed with a pixel portion 105 in which a plurality of pixels that perform photoelectric conversion are arranged in a matrix.
  • an ISP (Image Signal Processor) unit 110 surrounded by a broken line frame and an Ethernet system (120 A) unit 120A surrounded by a one-dot chain line frame are formed.
  • the Ethernet system unit 120A includes various units such as “CPU”, “RAM”, “Peripheral”, “codec”, “Ethernet MAC”, and “Ethernet PHY”.
  • “Ether PHY” is a part having a function equivalent to that of the PHY chip 103.
  • the “Ethernet PHY” portion converts the Ethernet frame sent from the “Ethernet MAC” portion into an electrical signal that is actually transmitted from the logical signal, and sends it to the network via the Ethernet cable.
  • the camera module can be further reduced in size by forming a portion having the same function as the PHY chip 103 in the lower chip 102A.
  • this technique can also take the following structures.
  • the pixel portion is formed on a first substrate;
  • an imaging device An electronic control unit connected to the imaging device via a network, The imaging device A pixel portion; An image processing unit for processing an image signal generated by the pixel unit; An encoding unit for encoding the image signal processed in the image processing unit; An address allocation unit that allocates an address to the compressed signal encoded by the encoding unit; The pixel portion is formed on a first substrate;
  • the imaging system wherein the image processing unit, the encoding unit, and the address assignment unit are formed on a second substrate stacked with the first substrate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Cameras In General (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

カメラモジュールの小型化の要求を効果的に満たすようにする。 画素部と、この画素部で生成された画像信号を処理する画像処理部と、この画像処理部において処理された画像信号を符号化する符号化部と、この符号化部において符号化された圧縮信号に対して、アドレスを割り当てるアドレス割り当て部とを備える。画素部は、第1の基板に形成される。画像処理部、符号化部およびアドレス割り当て部は、第1の基板と積層される第2の基板に形成される。

Description

撮像装置および撮像システム
 本技術は、撮像装置および撮像システムに関し、特に、上部の画素部分と下部の信号処理回路部分とが積層された構造となっている撮像装置等に関する。
 例えば、特許文献1には、カメラモジュール内にイメージセンサと出力インタフェースが別体で設けられる点が記載されている。このような構成では、近年のカメラモジュールの小型化の要求を満たすことができない。
国際公開第2012/032809号
 本技術の目的は、カメラモジュールの小型化の要求を効果的に満たすことにある。
 本技術の概念は、
 画素部と、
 前記画素部で生成された画像信号を処理する画像処理部と、
 前記画像処理部において処理された画像信号を符号化する符号化部と、
前記符号化部において符号化された圧縮信号に対して、アドレスを割り当てるアドレス割り当て部と、を備え、
 前記画素部が、第1の基板に形成され、
 前記画像処理部、前記符号化部および前記アドレス割り当て部が、前記第1の基板と積層される第2の基板に形成される
 撮像装置にある。
 本技術において、画素部が第1の基板に形成され、画像処理部、符号化部およびアドレス割り当て部が、第1の基板と積層される第2の基板に形成される。画素部で生成された画像信号は、画像処理部で処理された後、符号化部で符号化される。そして、符号化された圧縮信号に対して、アドレス割り当て部でアドレスが割り当てられる。
 このように本技術においては、第2の基板に、画像処理部、符号化部およびアドレス割り当て部が形成されるものであり、カメラモジュールの小型化の要求を効果的に満たすことができる。
 なお、本技術において、例えば、アドレス割り当て部からの信号を出力信号に変換してネットワークに出力する出力部をさらに備え、出力部が、第2の基板に形成される、ようにされてもよい。これにより、カメラモジュールのさらなる小型化を図ることができる。また、本技術において、例えば、外部機器との間で通信を行って時刻合わせを行う時刻同期機能部をさらに備え、時刻同期機能部が、第2の基板に形成される、ようにされてもよい。これにより、外部機器との間で高精度の時刻同期をとることが可能となり、さらに撮像タイミングの高精度な同期制御が可能となる。
 また、本技術の他の概念は、
 撮像装置と、
 ネットワークを介して前記撮像装置と接続される電子制御ユニットと、を具備し、
 前記撮像装置は、
 画素部と、
 前記画素部で生成された画像信号を処理する画像処理部と、
 前記画像処理部において処理された画像信号を符号化する符号化部と、
前記符号化部において符号化された圧縮信号に対して、アドレスを割り当てるアドレス割り当て部と、を備え、
 前記画素部が、第1の基板に形成され、
 前記画像処理部、前記符号化部および前記アドレス割り当て部が、前記第1の基板と積層される第2の基板に形成される
 撮像システムにある。
 本技術によれば、カメラモジュールの小型化の要求を効果的に満たすことができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
実施の形態としての撮像装置の構成例を示す図である。 イーサネットシステム部における時刻同期機能を説明するための図である。 実施の形態の撮像装置が適用される撮像システムの構成例を示す図である。 実施の形態の撮像装置が適用される他の撮像システムの構成例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 撮像装置の他の構成例を示す図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
 1.実施の形態
 2.移動体への応用例
 3.変形例
 <1.実施の形態>
 [撮像装置の構成例]
 図1は、実施の形態としての撮像装置100の構成例を示している。この撮像装置100は、上チップ(第1の基板)101と下チップ(第2の基板)102を有し、これらが積層されて構成される。なお、図示の例においては、説明の便宜のため、第1のチップ101と第2のチップ102とが分離された状態で示している。
 上チップ101には、光電変換を行う複数の画素が行列状に配列された画素部105が形成される。上チップ101は、CIS(CMOS Image Sensor)プロセスを用いて形成される。下チップ102には、破線枠で囲んで示すISP(Image Signal Processor)部110と一点鎖線枠で囲んで示すイーサネットシステム(Ethernet System)部120が形成される。下チップ102は、汎用ロジック(Logic)プロセスを用いて形成される。なお、「イーサネット」、「Ethernet」は、登録商標である。
 ISP部110は、「CPU」、「RAM」、「Perifheral」、「CIS-IF」、「ISP」、「MIPI-TX」等の各部を備えている。ISP部110は、従来周知のように、画素部105で得られた画像信号に対してホワイトバランス調整、ゲイン調整、歪補正、ガイドライン重畳などの処理を行って、処理された画像信号をMIPI(Mobile Industry Processor Interface)のシリアルデータ伝送規格で出力する。
 イーサネットシステム部120は、「CPU」、「RAM」、「Perifheral」、「codec」、「Ethernet MAC」等の各部を備えている。イーサネットシステム部120は、ISP部110の「ISP」で処理された後の画像信号を符号化し、さらに符号化された圧縮信号を含むイーサネットフレームを生成し、そのイーサネットフレームをMII(Media Independent Interface)のインタフェース規格あるいはその派生規格であるRGMII(Reduced Gigabit Media Independent Interface)のインタフェース規格などの方式で、PHYチップ103に出力する。
 「codec」の部分が、ISP部110の「ISP」で処理された後の画像信号を符号化する部分である。例えば、MPEG-4、H264、H265、Motion JPEGなどの方式で符号化がされる。また、「Ethernet MAC」の部分が、MACアドレスを割り当てるなどして、符号化された圧縮信号を含むイーサネットフレームを生成する部分である。
 PHYチップ103は、イーサネットシステム部120の「Ethernet MAC」の部分から送られてくるイーサネットフレームを、論理信号から実際に伝送する電気信号に変換して、イーサネットケーブルを介してネットワークに送る。
 イーサネットシステム部120の「CPU」は、イーサネットを通じて、外部機器との間で通信をする。この実施の形態において、この「CPU」は、IEEE802.1ASの規格に基づき、外部機器との間で通信を行って時刻合わせをする。この意味で、この「CPU」は、時刻同期機能部を構成している。
 図2は、4個のカメラ(カメラモジュール)150-1~150-4がスイッチ(イーサネットスイッチ)160を介してECU(Electronic Control Unit:電子制御ユニット)170に接続されてなる撮像システムを示している。カメラ150-1~150-4のそれぞれは、図1に示す撮像装置100およびPHYチップ103を有している。IEEE802.1ASの規格に基づき、ECU170とカメラ150-1~150-4との間で通信が行われて時刻合わせが行われ、撮像タイミングの高精度な同期制御が可能となる。
 図3は、撮像システムの構成例を示している。この撮像システムは、車両200に5個のカメラ210-1~210-5が配置され、それぞれのカメラがイーサネットケーブルを通じてスイッチ(イーサネットスイッチ)220に接続され、さらに、このスイッチ220にECU230が接続されて構成されている。カメラ210-1~210-5のそれぞれは、図1に示す撮像装置100およびPHYチップ103を有している。なお、「CIS」は上チップ101に形成された画素部105を示し、「ISP」は下チップ102に形成されたISP部110を示し、「H264」は下チップ102に形成されたイーサネットシステム部120を示している。また、「PHY」はPHYチップ103を示している。この撮像システムにおいては、イーサネットケーブルとしてツイストペアケーブルを適用してもよい。このことは、以下の図4の撮像システムにおいても同様である。
 図4は、撮像システムの他の構成例を示している。この撮像システムは、車両200に7個のカメラ210-1~210-7が配置され、それぞれのカメラがイーサネットケーブルを通じてスイッチ(イーサネットスイッチ)220-1~220-4に接続され、さらに、スイッチ220-1にECU230が接続されて構成されている。カメラ210-1~210-7のそれぞれは、図1に示す撮像装置100およびPHYチップ103を有している。なお、「CIS」は上チップ101に形成された画素部105を示し、「ISP」は下チップ102に形成されたISP部110を示し、「H264」は下チップ102に形成されたイーサネットシステム部120を示している。また、「PHY」はPHYチップ103を示している。
 図4の撮像システムの構成例においては、複数のスイッチ220-1~220-4を用いてネットワークが構成されており、それぞれのカメラは近くに存在するスイッチに接続することで、カメラからスイッチまでのイーサネットケーブルの長さを短くでき、カメラ個数が多くなっても、配線が整ったものとすることができる。
 以上説明したように、図1に示す撮像装置100においては、下チップ102に、ISP部110と共に、イーサネットシステム部120が形成されるものであり、カメラモジュールの小型化の要求を効果的に満たすことができる。また、図1に示す撮像装置100においては、イーサネットシステム部120の「CPU」は、外部機器との間で通信を行って時刻合わせを行う時刻同期機能部を備えるものであり、外部機器との間で高精度の時刻同期をとることができる。
 <.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図5は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図5に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図5の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図6は、撮像部12031の設置位置の例を示す図である。
 図6では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図6には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。撮像部12031に本開示に係る技術を適用することにより、カメラモジュールの小型化の要求を効果的に満たすことができる。
 <3.変形例>
 なお、図1に示す実施の形態においては、撮像装置100とは別にPHYチップ103が存在する例を示した。このPHYチップ103と同等の機能を有する部分を、下チップ102に形成することも考えられる。
 図7は、その場合における撮像装置100Aの構成例を示している。この図7において、図1と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。この撮像装置100Aは、上チップ(第1の基板)101と下チップ(第2の基板)102Aを有し、これらが積層されて構成される。なお、図示の例においては、説明の便宜のため、第1のチップ101と第2のチップ102Aとが分離された状態で示している。
 上チップ101には、光電変換を行う複数の画素が行列状に配列された画素部105が形成される。下チップ102Aには、破線枠で囲んで示すISP(Image Signal Processor)部110と一点鎖線枠で囲んで示すイーサネットシステム(Ethernet System)部120Aが形成される。
 イーサネットシステム部120Aは、「CPU」、「RAM」、「Perifheral」、「codec」、「Ethernet MAC」、「Ether PHY」等の各部を備えている。「Ether PHY」がPHYチップ103と同等の機能を有する部分である。この「Ether PHY」の部分は、「Ethernet MAC」の部分から送られてくるイーサネットフレームを、論理信号から実際に伝送する電気信号に変換して、イーサネットケーブルを介してネットワークに送る。
 このように、PHYチップ103と同等の機能を有する部分を下チップ102Aに形成することで、カメラモジュールのさらなる小型化を図ることができる。
 また、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本技術は、以下のような構成を取ることもできる。
 (1)画素部と、
 前記画素部で生成された画像信号を処理する画像処理部と、
 前記画像処理部において処理された画像信号を符号化する符号化部と、
前記符号化部において符号化された圧縮信号に対して、アドレスを割り当てるアドレス割り当て部と、を備え、
 前記画素部が、第1の基板に形成され、
 前記画像処理部、前記符号化部および前記アドレス割り当て部が、前記第1の基板と積層される第2の基板に形成される
 撮像装置。
 (2)前記アドレス割り当て部からの信号を出力信号に変換してネットワークに出力する出力部をさらに備え、
 前記出力部が、前記第2の基板に形成される
 前記(1)に記載の撮像装置。
 (3)外部機器との間で通信を行って時刻合わせを行う時刻同期機能部をさらに備え、
 前記時刻同期機能部が、前記第2の基板に形成される
 前記(1)または(2)に記載の撮像装置。
 (4)撮像装置と、
 ネットワークを介して前記撮像装置と接続される電子制御ユニットと、を具備し、
 前記撮像装置は、
 画素部と、
 前記画素部で生成された画像信号を処理する画像処理部と、
 前記画像処理部において処理された画像信号を符号化する符号化部と、
前記符号化部において符号化された圧縮信号に対して、アドレスを割り当てるアドレス割り当て部と、を備え、
 前記画素部が、第1の基板に形成され、
 前記画像処理部、前記符号化部および前記アドレス割り当て部が、前記第1の基板と積層される第2の基板に形成される
 撮像システム。
 100,100A・・・撮像装置
 101・・・上チップ(第1の基板)
 102,102A・・・下チップ(第2の基板)
 103・・・PHYチップ
 105・・・画素部
 110・・・ISP部
 120,120A・・・イーサネットシステム部
 150-1~150-4・・・カメラ(カメラモジュール)
 160・・・スイッチ(イーサネットスイッチ)
 170・・・ECU
 200・・・車両
 210-1~210-7・・・カメラ(カメラモジュール)
 220, 220-1~220-4・・・スイッチ(イーサネットスイッチ)
 230・・・ECU

Claims (4)

  1.  画素部と、
     前記画素部で生成された画像信号を処理する画像処理部と、
     前記画像処理部において処理された画像信号を符号化する符号化部と、
    前記符号化部において符号化された圧縮信号に対して、アドレスを割り当てるアドレス割り当て部と、を備え、
     前記画素部が、第1の基板に形成され、
     前記画像処理部、前記符号化部および前記アドレス割り当て部が、前記第1の基板と積層される第2の基板に形成される
     撮像装置。
  2.  前記アドレス割り当て部からの信号を出力信号に変換してネットワークに出力する出力部をさらに備え、
     前記出力部が、前記第2の基板に形成される
     請求項1に記載の撮像装置。
  3.  外部機器との間で通信を行って時刻合わせを行う時刻同期機能部をさらに備え、
     前記時刻同期機能部が、前記第2の基板に形成される
     請求項1に記載の撮像装置。
  4.  撮像装置と、
     ネットワークを介して前記撮像装置と接続される電子制御ユニットと、を具備し、
     前記撮像装置は、
     画素部と、
     前記画素部で生成された画像信号を処理する画像処理部と、
     前記画像処理部において処理された画像信号を符号化する符号化部と、
    前記符号化部において符号化された圧縮信号に対して、アドレスを割り当てるアドレス割り当て部と、を備え、
     前記画素部が、第1の基板に形成され、
     前記画像処理部、前記符号化部および前記アドレス割り当て部が、前記第1の基板と積層される第2の基板に形成される
     撮像システム。
PCT/JP2019/019193 2018-05-15 2019-05-14 撮像装置および撮像システム WO2019221150A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/052,700 US11228729B2 (en) 2018-05-15 2019-05-14 Imaging device and imaging system having a stacked structure for pixel portion and signal processing circuit portion
US17/646,056 US11722804B2 (en) 2018-05-15 2021-12-27 Imaging device and imaging system having a stacked structure for pixel portion and signal processing circuit portion

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018093445 2018-05-15
JP2018-093445 2018-05-15

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/052,700 A-371-Of-International US11228729B2 (en) 2018-05-15 2019-05-14 Imaging device and imaging system having a stacked structure for pixel portion and signal processing circuit portion
US17/646,056 Continuation US11722804B2 (en) 2018-05-15 2021-12-27 Imaging device and imaging system having a stacked structure for pixel portion and signal processing circuit portion

Publications (1)

Publication Number Publication Date
WO2019221150A1 true WO2019221150A1 (ja) 2019-11-21

Family

ID=68539989

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/019193 WO2019221150A1 (ja) 2018-05-15 2019-05-14 撮像装置および撮像システム

Country Status (4)

Country Link
US (2) US11228729B2 (ja)
CN (2) CN110493490B (ja)
TW (1) TWI812680B (ja)
WO (1) WO2019221150A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012511963A (ja) * 2008-12-11 2012-05-31 エムシー10 インコーポレイテッド 医療用途のための伸張性または可撓性電子部品を使用するシステム、方法、およびデバイス
JP2013026787A (ja) * 2011-07-20 2013-02-04 Sony Corp 送信装置、受信システム、通信システム、送信方法、受信方法、及びプログラム
JP2014103543A (ja) * 2012-11-20 2014-06-05 Sony Corp 撮像素子、並びに、撮像装置および方法
WO2017038403A1 (ja) * 2015-09-01 2017-03-09 ソニー株式会社 積層体

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0837637A (ja) * 1994-07-22 1996-02-06 Nikon Corp ディジタルスチルカメラ
JP3127883B2 (ja) * 1998-04-30 2001-01-29 日本電気株式会社 画像処理装置
JP2002247566A (ja) * 2000-11-30 2002-08-30 Matsushita Electric Ind Co Ltd 画像受信装置、画像送信装置および画像伝送システム
CN1167269C (zh) * 2001-02-28 2004-09-15 上海龙林通信技术有限公司 宽带网中一种视频节目存储及点播的方法
JP2002305713A (ja) * 2001-04-03 2002-10-18 Canon Inc 画像処理装置及びその方法、記憶媒体
JP3885585B2 (ja) * 2001-12-28 2007-02-21 松下電器産業株式会社 ルータ装置及びそれを用いたネットワークシステム
KR100449102B1 (ko) * 2002-03-19 2004-09-18 삼성전자주식회사 멀티미디어용 시스템온칩 프로세서
JP4095325B2 (ja) * 2002-03-29 2008-06-04 キヤノン株式会社 画像配信方法およびその動作処理を実行するプログラムおよびそのプログラムを記憶した記憶媒体、および画像配信装置および画像受信装置
JP3915652B2 (ja) * 2002-10-09 2007-05-16 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
KR100842335B1 (ko) * 2007-01-26 2008-07-01 삼성전자주식회사 시모스 이미지 센서 및 그 구동방법
CN101242370B (zh) * 2008-03-18 2010-10-27 杭州华三通信技术有限公司 实现以太网与帧中继互联的方法与协议转换设备
US8886334B2 (en) 2008-10-07 2014-11-11 Mc10, Inc. Systems, methods, and devices using stretchable or flexible electronics for medical applications
CN105023930B (zh) * 2009-12-26 2018-04-06 佳能株式会社 固态图像拾取装置和图像拾取系统
WO2012032809A1 (ja) 2010-09-06 2012-03-15 アイシン精機株式会社 運転支援装置
CN202103750U (zh) * 2011-03-04 2012-01-04 上海威乾视频技术有限公司 一种网络摄像机视频模块
JP5930158B2 (ja) * 2011-11-21 2016-06-08 オリンパス株式会社 固体撮像装置、固体撮像装置の制御方法、および撮像装置
KR20150130186A (ko) * 2014-05-13 2015-11-23 삼성전자주식회사 이미지 센서 및 그 적층 구조
JPWO2017077620A1 (ja) * 2015-11-05 2018-09-20 オリンパス株式会社 固体撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012511963A (ja) * 2008-12-11 2012-05-31 エムシー10 インコーポレイテッド 医療用途のための伸張性または可撓性電子部品を使用するシステム、方法、およびデバイス
JP2013026787A (ja) * 2011-07-20 2013-02-04 Sony Corp 送信装置、受信システム、通信システム、送信方法、受信方法、及びプログラム
JP2014103543A (ja) * 2012-11-20 2014-06-05 Sony Corp 撮像素子、並びに、撮像装置および方法
WO2017038403A1 (ja) * 2015-09-01 2017-03-09 ソニー株式会社 積層体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KITANI, MITSUHIRO ET AL.: "Development of Data Communication Method In- vehicle Network for Automated Driving", IPSJ TRANSACTIONS ON CONSUMER DEVICES & SYSTEMS, vol. 6, no. 2, 1 September 2016 (2016-09-01), pages 43 - 51, XP055653485 *

Also Published As

Publication number Publication date
TW201947926A (zh) 2019-12-16
TWI812680B (zh) 2023-08-21
CN110493490A (zh) 2019-11-22
US11722804B2 (en) 2023-08-08
US20210185263A1 (en) 2021-06-17
CN110493490B (zh) 2024-05-17
CN209949233U (zh) 2020-01-14
US20220124274A1 (en) 2022-04-21
US11228729B2 (en) 2022-01-18

Similar Documents

Publication Publication Date Title
EP3737084B1 (en) Solid-state imaging element, imaging device, and method for controlling solid-state imaging element
JP2020136958A (ja) イベント信号検出センサ及び制御方法
WO2020230660A1 (ja) 画像認識装置、固体撮像装置、および画像認識方法
WO2017175492A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
US11076148B2 (en) Solid-state image sensor, imaging apparatus, and method for controlling solid-state image sensor
WO2017195459A1 (ja) 撮像装置、および撮像方法
US11152726B2 (en) Connector device and connector system
WO2019221150A1 (ja) 撮像装置および撮像システム
WO2020230635A1 (ja) 撮像装置および撮像方法
WO2017203752A1 (ja) 撮像装置、および制御方法
CN113170067B (zh) 摄像装置、摄像系统和故障检测方法
WO2021065542A1 (ja) 照明装置、照明装置の制御方法、および、測距モジュール
WO2021192682A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2021182255A1 (ja) 通信装置および通信システム
US11201997B2 (en) Solid-state imaging device, driving method, and electronic apparatus
WO2021029167A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
WO2024075398A1 (ja) カメラモジュール、および、撮像装置
WO2021131684A1 (ja) 測距装置およびその制御方法、並びに、電子機器
WO2020137503A1 (ja) 画像処理装置
WO2018135208A1 (ja) 撮像装置と撮像システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19803436

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19803436

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP