WO2021039012A1 - 撮像装置、データ伝送システム、及びデータ伝送方法 - Google Patents

撮像装置、データ伝送システム、及びデータ伝送方法 Download PDF

Info

Publication number
WO2021039012A1
WO2021039012A1 PCT/JP2020/022300 JP2020022300W WO2021039012A1 WO 2021039012 A1 WO2021039012 A1 WO 2021039012A1 JP 2020022300 W JP2020022300 W JP 2020022300W WO 2021039012 A1 WO2021039012 A1 WO 2021039012A1
Authority
WO
WIPO (PCT)
Prior art keywords
roi
image data
unit
data
image
Prior art date
Application number
PCT/JP2020/022300
Other languages
English (en)
French (fr)
Inventor
祐介 鈴木
隆浩 小山
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2021039012A1 publication Critical patent/WO2021039012A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to an imaging device, a data transmission system, and a data transmission method.
  • Patent Document 1 describes how to cut out a part of an image from a captured image.
  • the imaging device includes a generation unit, an extraction unit, and a correction unit.
  • the generation unit generates ROI position information in the image data obtained by imaging based on the external information input from the outside.
  • the extraction unit extracts ROI image data from the image data using the ROI position information.
  • the correction unit corrects the ROI position information so that the ROI image data includes the entire object or a predetermined ratio or more.
  • ROI image data is extracted from the image data obtained by imaging using the ROI position information.
  • the amount of data can be reduced by a method other than compression.
  • the amount of data can be reduced before the data is output according to the predetermined interface standard, data transmission can be performed even if the external device is a device that converts to a low-speed interface standard. The risk of disappearing can be reduced.
  • the first data transmission system includes an imaging device and an external device.
  • the image pickup apparatus has a generation unit, an extraction unit, a correction unit, and an output unit.
  • the generation unit generates ROI position information in the image data obtained by imaging based on the external information input from the outside.
  • the extraction unit extracts ROI image data from the image data using the ROI position information.
  • the correction unit corrects the ROI position information so that the ROI image data includes the entire object or a predetermined ratio or more.
  • the output unit outputs the ROI image data to an external device according to the first interface standard.
  • the external device has a reception unit and an interface conversion unit.
  • the reception unit accepts the input of ROI image data according to the first interface standard.
  • the interface conversion unit outputs the ROI image data received by the reception unit to the external system according to the second interface standard.
  • ROI image data is extracted from the image data obtained by imaging using the ROI position information.
  • the amount of data can be reduced by a method other than compression.
  • the amount of data can be reduced before the data is output by the first interface standard, data transmission may not be possible even if the second interface standard is a low-speed interface standard. Can be reduced.
  • the second data transmission system includes an imaging device and an external device.
  • the image pickup apparatus has an extraction unit and a first output unit.
  • the extraction unit uses the ROI position information to extract ROI image data from the image data obtained by imaging.
  • the first output unit outputs ROI image data to an external device according to the first interface standard.
  • the external device has a reception unit, a generation unit, a correction unit, a second output unit, and an interface conversion unit.
  • the reception unit accepts the input of the ROI image data in the first interface standard.
  • the generation unit generates ROI position information based on external information input from the outside.
  • the correction unit sets the ROI position so that the ROI image data includes the entire object or a predetermined ratio or more. Correct the information.
  • the second output unit outputs the ROI position information generated by the generation unit or the ROI position information obtained by the correction by the correction unit to the extraction unit.
  • the interface conversion unit outputs ROI image data to an external system according to the second interface standard.
  • the ROI image data is extracted from the image data obtained by imaging by using the ROI position information.
  • the amount of data can be reduced by a method other than compression.
  • the amount of data can be reduced before the data is output by the first interface standard, data transmission may not be possible even if the second interface standard is a low-speed interface standard. Can be reduced.
  • the data transmission method includes the following three. (1) Generate ROI position information based on external information input from the outside (2) Extract ROI image data from image data obtained by imaging using ROI position information (3) ROI If the image data does not include the entire object or a proportion of the object or more, correct the ROI position information so that the ROI image data includes the entire object or the proportion of the object or more.
  • ROI image data is extracted from the image data obtained by imaging using the ROI position information generated based on the external information input from the outside.
  • the amount of data can be reduced by a method other than compression.
  • the amount of data can be reduced before the data is output by the first interface standard, data transmission may not be possible even if the second interface standard is a low-speed interface standard. Can be reduced.
  • FIG. 1 It is a figure which shows the schematic configuration example of the embedded vision system. It is a figure which shows the example which applied the embedded vision system to a conveyor. It is a figure which shows the functional block example of an embedded vision system. It is a figure which shows an example of the combination of the operation content and the component element which executes the operation content. It is a figure which shows an example of the procedure of data transmission. It is a figure which shows one modification of the functional block of an embedded vision system. It is a figure which shows an example of the combination of the operation content and the component element which executes the operation content. It is a figure which shows one modification of the functional block of an embedded vision system. It is a figure which shows an example of the combination of the operation content and the component element which executes the operation content.
  • FIG. 1 shows a schematic configuration example of the embedded vision system 1000 according to the present embodiment.
  • the embedded vision system 1000 includes, for example, an image pickup apparatus 100, an embedded processor 200, and an external system 300, as shown in FIG.
  • the image pickup apparatus 100 and the embedded processor 200 are electrically connected by a transmission line 400.
  • the transmission line 400 is a signal transmission line that connects the image pickup apparatus 100 and the embedded processor 200.
  • Data (image data) indicating an image transmitted from the image pickup apparatus 100 is transmitted from the image pickup apparatus 100 to the embedded processor 200 via a transmission line 400.
  • the embedded processor 200 and the external system 300 are electrically connected by a transmission line 500.
  • the transmission line 500 is a signal transmission line that connects the embedded processor 200 and the external system 300.
  • Data (image data) indicating an image transmitted from the embedded processor 200 is transmitted from the embedded processor 200 to the external system 300 via a transmission line 500.
  • the image pickup device 100 has an image pickup function and a transmission function, and transmits image data generated by imaging.
  • the image pickup apparatus 100 serves as a transmission apparatus in the embedded vision system 1000.
  • the image pickup device 100 can generate an image such as "an image pickup device such as a digital still camera, a digital video camera, a stereo camera, or a polarized camera", an "infrared sensor", or a “distance image sensor”. It includes an image sensor device of the above method and has a function of transmitting the generated image.
  • the image generated by the image pickup apparatus 100 corresponds to data indicating a sensing result in the image pickup apparatus 100. An example of the configuration of the image pickup apparatus 100 will be described in detail later with reference to FIG.
  • the image pickup apparatus 100 transmits data corresponding to an area set for the image data (hereinafter, also referred to as "image data of the area”) by a transmission method described later.
  • the area set for the image is called ROI (Region Of Interest).
  • ROI Region Of Interest
  • the area set for the image will be referred to as “ROI”.
  • the image data of the area is referred to as "ROI image data”.
  • the image pickup apparatus 100 transmits ROI image data, that is, by transmitting a part of the image data, the amount of data related to transmission is smaller than that of transmitting the entire image data. Therefore, when the image pickup apparatus 100 transmits the ROI image data, the amount of data is reduced, for example, the transmission time is shortened, the load related to the transmission in the embedded vision system 1000 is reduced, and so on. Various effects are produced.
  • the image pickup apparatus 100 can also transmit the entire image data.
  • the embedded processor 200 receives the data transmitted from the image pickup apparatus 100 and processes the received data.
  • the embedded processor 200 serves as an interface conversion device in the embedded vision system 1000. An example of the configuration relating to the processing of the data transmitted from the image pickup apparatus 100 will be described in detail later with reference to FIG.
  • the embedded processor 200 is composed of, for example, one or more processors composed of arithmetic circuits such as MPUs (Micro Processing Units), various processing circuits, and the like.
  • the embedded processor 200 performs various processes such as a process related to interface conversion control.
  • the embedded processor 200 may control the function in the image pickup apparatus 100 by, for example, transmitting control information to the image pickup apparatus 100.
  • the embedded processor 200 can also control the data transmitted from the image pickup apparatus 100, for example, by transmitting the area designation information to the image pickup apparatus 100.
  • FIG. 2 shows an example in which the embedded vision system 1000 is applied to a conveyor.
  • the imaging device 100 is arranged so as to image a specific area, and images an object flowing on the conveyor at a predetermined cycle.
  • a plurality of trays are arranged side by side at equal intervals on the conveyor, and each object is arranged at a predetermined position on the tray.
  • Each object is arranged on the tray so that the coordinates in the direction orthogonal to the traveling direction of the conveyor are equal to each other.
  • One object is arranged on each tray.
  • the object f is projected as a subject in the image obtained by the image pickup apparatus 100, for example, as shown in the lower part of FIG.
  • the left-right direction corresponds to the traveling direction of the conveyor.
  • the Y coordinate of the object f is constant regardless of the exposure timing
  • the X coordinate of the object is It changes according to the speed of the conveyor. From this, the moving speed of the object in the X coordinate direction can be obtained by dividing the amount of deviation of the X coordinate between the frames of the object by the exposure period.
  • the Y coordinate of the object (coordinates in the direction orthogonal to the moving direction of the object) and the moving speed of the object in the X coordinate direction (moving direction of the object) are set by the user as external information Din. It may be input to the external system 300 manually or automatically from a system such as a conveyor. Further, in this example, the image pickup apparatus 100 (control unit 1114) may acquire the external information DIN by performing image analysis on a plurality of images obtained by the image pickup apparatus 100. At this time, the moving speed of the object in the X coordinate direction (moving direction of the object) included in the external information Din is generated based on the output of the external sensor 600.
  • the image pickup device 100 (control unit 1114), for example, performs image analysis on a plurality of images obtained by the image pickup device 100 to perform image analysis on the coordinates (X coordinate, Y coordinate) of the object f included in the plurality of images. Is detected, and the movement speed of the object in the X coordinate direction is obtained by dividing the amount of deviation of the X coordinate between the frames of the detected object f by the exposure cycle.
  • the image pickup apparatus 100 (control unit 1114) further uses, for example, the coordinates (Y coordinate) thus obtained and the moving speed in the X coordinate direction (moving direction of the object) as external information Din.
  • the Y coordinate of the object is, for example, a fixed value set by arranging the tray at a predetermined position on the conveyor.
  • the moving speed of the object in the X coordinate direction is, for example, a set value set on the conveyor as the speed of the conveyor.
  • the external system 300 receives the Y coordinate of the object and the moving speed of the object in the X coordinate direction as the external information Din.
  • the external system 300 sets the X coordinate of the object (coordinates in the direction parallel to the moving direction of the object) based on the received moving speed in the X coordinate direction.
  • the Y coordinate of the object may be set in the external system 300 in advance. In this case, the Y coordinate of the object may not be included in the external information DIN.
  • the vertical direction in the image obtained by the imaging device 100, the vertical direction may be the above-mentioned X coordinate and the left-right direction may be the above-mentioned Y coordinate.
  • FIG. 3 shows an example of the functional blocks of the embedded vision system 1000.
  • the image pickup apparatus 100 includes, for example, an image pickup element 110, a signal processing block 120, and a transmission line 130.
  • the image sensor 110 and the signal processing block 120 are electrically connected by a transmission line 130.
  • the transmission line 130 is a signal transmission line that connects the image sensor 110 and the signal processing block 120.
  • Data (image data) indicating an image transmitted from the image sensor 110 is transmitted from the image sensor 110 to the signal processing block 120 via the transmission line 130.
  • data transmission is performed using an interface standard common to that of the transmission line 400.
  • the image sensor 110 includes, for example, an image pickup unit 111, an ROI cutout unit 112, an ROI analysis unit 113, a control unit 114, an encoding unit 115, and a transmission unit 116.
  • the image pickup unit 111 converts an optical image signal obtained through, for example, an optical lens or the like into image data.
  • the image capturing unit 111 acquires the image data 111A by performing imaging at the exposure timing input from the control unit 114, for example.
  • the image data 111A is luminance data for each polarization direction.
  • the imaging unit 111 includes, for example, a CCD (Charge Coupled Device) image sensor and a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the image pickup unit 111 has an analog-to-digital conversion circuit, and converts analog image data into digital image data.
  • the data format after conversion may be the YCbCr format in which the color of each pixel is represented by the luminance component Y and the color difference components Cb and Cr, or the RGB format.
  • the image capturing unit 111 outputs the image data 111A (digital image data) obtained by imaging to the ROI cutting unit 112.
  • the ROI cutting unit 112 is, for example, one or a plurality of objects (objects) to be imaged included in the image data 111A input from the imaging unit 111 when a control signal instructing the cutting out of the ROI is input from the control unit 114.
  • object is specified, and ROI is set for each specified object.
  • the ROI is, for example, a rectangular region containing the identified object.
  • the shape of the ROI is not limited to a square shape, and may be, for example, a circular shape, an elliptical shape, a polygonal shape, or an irregular shape.
  • the ROI cutting unit 112 sets one or more ROIs in the image data 111A input from the imaging unit 111, for example, based on the ROI information (for example, the position information of the ROI) input from the control unit 114. May be good.
  • the ROI cutting unit 112 cuts out one or a plurality of ROI image data (ROI image data 112A) from the image data 111A.
  • the ROI cutting unit 112 further assigns an area number as an identifier for each set ROI.
  • the ROI cutting unit 112 stores, for example, the assigned identifier (area number) in the storage unit.
  • the ROI cutting unit 112 stores, for example, one or a plurality of ROI image data 112A cut out from the image data 111A in the storage unit.
  • the ROI cutting unit 112 further stores, for example, an identifier (area number) assigned to one or a plurality of ROIs in the storage unit in association with the one or a plurality of ROI image data 112A.
  • the ROI cutting unit 112 performs predetermined processing on the image data 111A input from the imaging unit 111 when a control signal instructing the output of a normal image (whole image) is input from the control unit 114. , Thereby generating the whole image data 112B.
  • the ROI analysis unit 113 derives the position information of the ROI (ROI position information 113A) in the image data 111A for each ROI.
  • the ROI position information 113A is composed of, for example, the coordinates of the upper left end of the ROI, the length of the ROI in the X-axis direction, and the length of the ROI in the Y-axis direction.
  • the length of the ROI in the X-axis direction is, for example, the length of the physical region of the ROI in the X-axis direction.
  • the length of the ROI in the Y-axis direction is, for example, the length of the physical region of the ROI in the Y-axis direction.
  • the physical area length refers to the physical length (data length) of the ROI.
  • the ROI position information 113A the coordinates of a position different from the upper left end of the ROI may be included.
  • the ROI analysis unit 113 stores, for example, the derived ROI position information 113A in the storage unit.
  • the ROI analysis unit 113 stores, for example, the derived ROI position information 113A in the storage unit in association with the identifier (area number) assigned to the ROI.
  • the encoding unit 115 encodes one or more ROI image data 112A and one or more ROI position information 113A and outputs the encoding unit 116 to the transmitting unit 116.
  • the encoding unit 115 packs, for example, 10-bit RGB data as 16-bit or 32-bit alignment data of 30-bit data to reduce the data.
  • compression processing may be performed on one or more ROI image data 112A.
  • the control unit 114 controls the imaging unit 111 and the ROI cutting unit 112 based on the signal input from the signal processing block 120.
  • the control unit 114 instructs the imaging unit 111 to take an image at the exposure timing input from the signal processing block 120, for example.
  • the control unit 114 outputs, for example, the ROI information (for example, the position information of the ROI) input from the signal processing block 120 to the ROI cutting unit 112.
  • the transmission unit 116 is a circuit that generates and transmits transmission data 116A including data (one or more ROI image data 112A, one or more ROI position information 113A) input from the encoding unit 115.
  • the transmission unit 116 transmits, for example, one or a plurality of ROI position information 113A by the embedded data.
  • the transmission unit 116 further transmits, for example, one or more ROI image data 112A by PayloadData of LongPacket.
  • the transmission unit 116 transmits one or more ROI image data 112A by the image data frame, and transmits one or more ROI position information 113A by the header of the image data frame.
  • the transmission unit 116 generates and transmits the transmission data 116A according to the rules specified by the MIPI CSI-2 standard or the MIPI CSI-3 standard, for example.
  • the signal processing block 120 includes, for example, a receiving unit 121, a decoding unit 122, an information extraction unit 123, an ROI image generation unit 124, an image analysis unit 125, a control unit 126, an image processing unit 127, an encoding unit 128, and a transmitting unit 129. doing.
  • the receiving unit 121 has, for example, a header separation unit, a header interpretation unit, a payload separation unit, an EBD interpretation unit, and an ROI data separation unit.
  • the header separation unit receives the transmission data 116A via the transmission line 130.
  • the header separation unit receives, for example, transmission data 116A including one or more ROI position information 113A in Embedded Data and one or more ROI image data 112A in LongPacket's Payload Data.
  • the header separation unit separates the transmission data 116A according to the rules defined by, for example, the MIPI CSI-2 standard or the MIPI CSI-3 standard.
  • the header separation unit separates the received transmission data 116A into a header area and a packet area, for example.
  • the header interpreting unit specifies the position of the LongPacket PayloadData included in the packet area, for example, based on the data (specifically, EmbeddedData) contained in the header area.
  • the Payload separation unit separates the LongPacket PayloadData included in the packet area from the packet area, for example, based on the position of the LongPacket PayloadData specified by the header interpretation unit.
  • the EBD interpretation unit outputs, for example, Embedded Data as EBD data to the data separation unit.
  • the EBD interpreter further determines, for example, from the data type included in the Embedded Data, whether the image data contained in the LongPacket PayloadData is the ROI image data (ROI image data 112A).
  • the EBD interpretation unit outputs, for example, the determination result to the ROI data separation unit.
  • the ROI data separation unit When the image data included in the LongPacket PayloadData is the ROI image data (ROI image data 112A), the ROI data separation unit outputs, for example, the LongPacket PayloadData to the decoding unit 122 as the PayloadData.
  • the decoding unit 122 decodes, for example, EmbeddedData and PayloadData.
  • the information extraction unit 123 extracts, for example, the image data included in the decoded Payload Data, and extracts one or more ROI position information 113A from the decoded Embedded Data.
  • the ROI image generation unit 124 generates (restores) one or a plurality of ROI image data 112A based on, for example, the image data extracted from PayloadData and one or a plurality of ROI position information 113A extracted from the EmbeddedData. ..
  • the image analysis unit 125 analyzes one or more ROI image data 112A under the control of the embedded processor 200.
  • the image analysis unit 125 analyzes, for example, the ratio of color components such as RGB of the image and the brightness of the image, which are necessary for white balance, exposure compensation, and the like.
  • the image analysis unit 125 further analyzes, for example, whether or not one or more ROI image data 112A includes the entire object (object) as a subject or a ratio of a predetermined value or more (image deviation). Judgment).
  • the image analysis unit 125 corrects the exposure timing of the ROI position information 113A and the image pickup device 110 so that the entire ROI image data 112A includes the entire object or a ratio of a predetermined value or more.
  • the image analysis unit 125 outputs, for example, the corrected ROI position information 113A and the exposure timing of the image sensor 110 to the image sensor 110 via the control unit 126.
  • the image analysis unit 125 confirms, for example, whether or not all the ROI image data 112A included in the image data 111A have been acquired (confirmation of the completion of image acquisition).
  • the image analysis unit 125 receives, for example, one or more ROI image data 112A and one or more ROI position information 113A (or one or more corrected ROI position information 113A).
  • the data including the above is output to the image processing unit 127.
  • the control unit 126 transmits the ROI position information 113A corrected by the image analysis unit 125 and the exposure timing of the image sensor 110 to the image sensor 110.
  • the control unit 126 transmits the signal input from the signal processing block 120 to the image sensor 110.
  • the control unit 126 transmits, for example, the exposure timing input from the signal processing block 120 and ROI information (for example, ROI position information) to the image sensor 110.
  • the control unit 126 outputs the above-mentioned execution command for determining the image deviation and the above-mentioned execution command for confirming the completion of image acquisition, which are input from the signal processing block 120, to the image analysis unit 125.
  • the image processing unit 127 performs predetermined processing on one or more ROI image data 112A, and then performs one or more ROI image data 112A and one or more ROI position information 113A (or one after correction). Alternatively, data including a plurality of ROI position information 113A) is output to the encoding unit 128.
  • the image processing unit 127 includes, for example, digital gain, white balance, LUT, color matrix conversion, defect correction, shading correction, noise removal, image data sorting, ⁇ correction, and demosaic (for example, output from an image sensor in a Bayer array). Is returned to RGB.
  • the encoding unit 128 encodes one or more ROI image data 112A and one or more ROI position information 113A and outputs the encoding unit 128 to the transmitting unit 129.
  • the encoding unit 128 packs, for example, 10-bit RGB data as 16-bit or 32-bit alignment data of 30-bit data to reduce the data. Note that the encoding unit 128 may perform compression processing on one or more ROI image data 112A.
  • the transmission unit 129 is a circuit that generates and transmits transmission data 129A including various data (one or a plurality of ROI image data 112A, one or a plurality of ROI position information 113A) input from the encoding unit 128.
  • the transmission unit 129 transmits, for example, one or a plurality of ROI position information 113A by Embedded Data.
  • the transmission unit 129 further transmits, for example, one or more ROI image data 112A by PayloadData of LongPacket.
  • the transmission unit 129 transmits one or more ROI image data 112A by the image data frame, and transmits one or more ROI position information 113A by the header of the image data frame.
  • the transmitter 129 is, for example, MIPI. Transmission data 129A is generated and transmitted to the embedded processor 200 via the transmission line 400 according to the rules defined by the CSI-2 standard or the MIPI CSI-3 standard.
  • the embedded processor 200 has, for example, a receiving unit 210, a decoding unit 220, an image analysis unit 230, a control unit 240, an image processing unit 250, an encoding unit 260, and a transmitting unit 270.
  • the receiving unit 210 has, for example, a header separating unit, a header interpreting unit, a payload separating unit, an EBD interpreting unit, and an ROI data separating unit, and performs the same processing as the receiving unit 121 described above for the transmission data 129A. Execute.
  • the decoding unit 220 decodes, for example, EmbeddedData and PayloadData.
  • the image analysis unit 230 extracts, for example, the image data included in the decoded Payload Data, and extracts one or more ROI position information 113A from the decoded Embedded Data.
  • the image analysis unit 230 generates (restores) one or more ROI image data 112A based on, for example, the image data extracted from PayloadData and one or more ROI position information 113A extracted from EmbeddedData.
  • the image analysis unit 230 analyzes one or more ROI image data 112A according to the control by the control unit 240.
  • the image analysis unit 230 analyzes, for example, the ratio of color components such as RGB of the image necessary for white balance, exposure compensation, and the brightness of the image in one or more ROI image data 112A. Further, for example, when the image analysis unit 125 does not perform the above-mentioned image deviation determination, the image analysis unit 230 determines the above-mentioned image deviation for one or more ROI image data 112A.
  • the image analysis unit 230 controls the corrected ROI position information 113A and the exposure timing. It is output to the image sensor 110 via the unit 240 and the signal processing block 120.
  • the image analysis unit 230 confirms the above-mentioned image acquisition completion for one or a plurality of ROI image data 112A, for example, when the image analysis unit 125 has not confirmed the above-mentioned image acquisition completion.
  • the image analysis unit 230 outputs data including one or more ROI image data 112A and one or more ROI position information 113A to the image processing unit 250, for example.
  • the image analysis unit 230 outputs the corrected ROI position information 113A to the control unit 240.
  • the control unit 240 transmits the corrected ROI position information 113A to the signal processing block 120. That is, when the ROI position information 113A is corrected by the image analysis unit 230, the control unit 240 transmits the corrected ROI position information 113A to the image sensor 110 via the signal processing block 120.
  • the image processing unit 250 performs predetermined processing on one or more ROI image data 112A, and then encodes data including one or more ROI image data 112A and one or more ROI position information 113A. Output to unit 260.
  • the image processing unit 250 uses, for example, digital gain, white balance, LUT, color matrix conversion, defect correction, shading correction, noise removal, image data sorting, ⁇ correction, and demosaic (for example, output from an image sensor in a Bayer array). Is returned to RGB.
  • the encoding unit 260 encodes one or more ROI image data 112A and one or more ROI position information 113A and outputs them to the transmitting unit 270.
  • the encoding unit 260 packs, for example, 10-bit RGB data as 16-bit or 32-bit alignment data of 30-bit data to reduce the data.
  • the transmission unit 270 is a circuit that generates and transmits transmission data 270A including data (one or more ROI image data 112A, one or more ROI position information 113A) input from the encoding unit 260.
  • the transmission unit 270 generates transmission data 270A according to a rule defined by a transmission standard such as GigE, and transmits the transmission data 270A to the external system 300 via the transmission line 500.
  • FIG. 4 shows an example of a combination of a calculation content and a component that executes the calculation content in the embedded vision system 1000 according to the present embodiment.
  • FIG. 4 illustrates six combinations. For example, which of the six combinations is selected depends on the same signal processing block (specifically, the signal processing block 120 or the embedded processor 200) for determining the image deviation and confirming the completion of image acquisition. When executed in, it is determined whether or not a transfer speed higher than a predetermined frame rate can be realized.
  • the signal processing block specifically, the signal processing block 120 or the embedded processor 200
  • the control unit 240 when it is determined that a transfer speed equal to or higher than a predetermined frame rate cannot be realized, the control unit 240 causes the signal processing block 120 to determine the image deviation, and causes the embedded processor 200 to confirm the completion of image acquisition. Let it run. That is, in this case, the control unit 240 selects the leftmost combination or the second combination from the left in FIG. Further, for example, when it is determined that a transfer speed equal to or higher than a predetermined frame rate can be realized, the control unit 240 determines, for example, image misalignment and confirms the completion of image acquisition by the signal processing block 120 or the embedded processor 200. To execute. That is, in this case, the control unit 240 selects the third, fourth, fifth, or sixth combination from the left in FIG.
  • control unit 240 omits the execution instruction for the determination of the image deviation. It is possible.
  • FIG. 5 shows an example of a data transmission procedure in the embedded vision system 1000 according to the present embodiment.
  • the external system 300 manually acquires the external information Din from the user or automatically from the system such as the conveyor (step S101).
  • the external system 300 acquires at least one of the position information and the velocity information of the object as the external information Din, for example.
  • the position information of the object is, for example, the position coordinates within the coordinates of the captured image or the position information of the object itself (position information in the real space by GPS or the like).
  • the velocity information of the object is, for example, velocity information regarding the relative movement of the object, and is derived from the movement of the object itself or the movement of the camera itself.
  • the external system 300 outputs the acquired external information Din or the information generated based on the acquired external information Din to the signal processing block 120 via the embedded processor 200 or the embedded processor 200.
  • the embedded processor 200 or the signal processing block 120 is a row as a result of determining the external information Din (or information generated based on the external information Din) input from the external system 300 or the above-mentioned image deviation.
  • the information obtained by the corrected correction (ROI position information 113A after correction and exposure timing) is output to the image sensor 110 as ROI position information 113A and exposure timing after the next frame (step S102).
  • the image pickup device 100 (control unit 1114) may acquire the external information DIN by performing image analysis on a plurality of images obtained by the image pickup device 100.
  • the image pickup apparatus 100 (control unit 1114) is subjected to the obtained external information Din (or information generated based on the external information Din) or the correction performed as a result of the above-mentioned determination of the image deviation.
  • the obtained information (ROI position information 113A after correction and exposure timing) is used as ROI position information 113A and exposure timing after the next frame.
  • the embedded processor 200 or the signal processing block 120 may be used.
  • the corrected ROI position information 113A may be output to the image sensor 110 as the correction data of the ROI position in the image data 111A.
  • the image pickup unit 111 acquires the image data 111A by taking an image based on the determined exposure timing.
  • the ROI cutting unit 112 acquires image data (ROI image data 112A) of one or more ROIs from the image data 111A acquired by the image pickup unit 111 based on the determined position of the ROI (ROI image data 112A). Step S103).
  • the embedded processor 200 or the signal processing block 120 analyzes whether or not one or a plurality of ROI image data 112A includes the entire object (object) as a subject or a ratio of a predetermined value or more ( Image misalignment determination) (step S104).
  • the embedded processor 200 or the signal processing block 120 may include, for example, the entire object (object) as a subject or a ratio of a predetermined value or more in all ROI image data 112A.
  • the ROI position information 113A is corrected.
  • the embedded processor 200 or the signal processing block 120 outputs, for example, the corrected ROI position information 113A to the image sensor 110.
  • the embedded processor 200 or the signal processing block 120 confirms, for example, whether or not all the ROI image data 112A included in the image data 111A have been acquired (confirmation of the completion of image acquisition).
  • the embedded processor 200 transmits, for example, transmission data 270A including one or more ROI image data 112A and one or more ROI position information 113A within the transmission band of the transmission line 500.
  • the data is output to the transmission line 500 (step S105). In this way, data transmission is performed in the embedded vision system 1000 according to the present embodiment.
  • the ROI image data 112A is extracted from the image data 111A obtained by imaging using the ROI position information 113A.
  • the amount of data can be reduced by a method other than compression.
  • the amount of data can be reduced before the embedded processor 200 outputs data in the interface standard of the transmission line 500. Therefore, when the embedded processor 200 is a device that converts to a low-speed interface standard. Even if there is, it is possible to reduce the possibility that data transmission cannot be performed.
  • the position of the ROI is set based on the external information DIN including at least one of the position information and the speed information of the object.
  • the amount of signal processing can be reduced as compared with the case where the ROI position for each frame is automatically set without utilizing the external information DIN. As a result, it becomes easy to support high-speed data transmission.
  • the position of the ROI is set based on the external information Din including the moving speed of the moving direction of the object, with the coordinates in the direction orthogonal to the moving direction of the target as the speed information of the target. If so, the ROI position and exposure timing for each frame are set. As a result, the amount of signal processing can be reduced as compared with the case where the ROI position and the exposure timing for each frame are automatically set without utilizing the external information DIN. As a result, it becomes easy to support high-speed data transmission.
  • the image sensor 110 generates image data 111A by imaging, and one or more ROI image data 112A are extracted from the generated image data 111A.
  • the amount of data transferred to the subsequent stage can be reduced as compared with the case where the image data 111A itself is transmitted to the subsequent stage (signal processing block 120). As a result, it becomes easy to support high-speed data transmission.
  • an object (object) as a subject is included in at least one data of one or a plurality of ROI image data 112A, and at least a part of the object is determined. If it is not included, the exposure timing of the ROI position information 113A and the image sensor 110 is corrected so that the entire object or a predetermined ratio or more is included in all the ROI image data 112A. This makes it possible to transfer data meaningful to the external system 300 while reducing the amount of data transferred.
  • FIG. 6 shows a modified example of the functional block of the embedded vision system 1000 according to the above embodiment.
  • the ROI cutting unit 112 and the ROI analysis unit 113 are omitted in the image sensor 110, and the information extraction unit 123, the ROI image generation unit 124, the image analysis unit 125, and the image processing unit in the signal processing block 120. 127 is omitted.
  • the signal processing block 120 is provided with an ROI cutting unit 131 and an ROI analysis unit 132.
  • the ROI cutting unit 131 executes the same processing as the ROI cutting unit 112.
  • the ROI cutting unit 131 identifies one or more objects (objects) to be imaged included in the image data 111A input from the decoding unit 122, and sets the ROI for each specified object.
  • the ROI cutting unit 131 sets one or more ROIs in the image data 111A input from the decoding unit 122 based on the ROI information (for example, the position information of the ROI) input from the decoding unit 122, for example. May be good.
  • the ROI cutting unit 131 cuts out one or a plurality of ROI image data (ROI image data 112A) from the image data 111A.
  • the ROI cutting unit 131 further assigns an area number as an identifier for each set ROI.
  • the ROI cutting unit 131 stores, for example, the assigned identifier (area number) in the storage unit.
  • the ROI cutting unit 131 stores, for example, one or a plurality of ROI image data 112A cut out from the image data 111A in the storage unit.
  • the ROI cutting unit 131 further stores, for example, an identifier (area number) assigned to one or a plurality of ROIs in the storage unit in association with the one or a plurality of ROI image data 112A.
  • the ROI analysis unit 132 executes the same processing as the ROI analysis unit 113.
  • the ROI analysis unit 132 derives the position information of the ROI (ROI position information 113A) in the image data 111A for each ROI.
  • the ROI analysis unit 132 stores, for example, the derived ROI position information 113A in the storage unit.
  • the ROI analysis unit 132 stores, for example, the derived ROI position information 113A in the storage unit in association with the identifier (area number) assigned to the ROI.
  • FIG. 7 shows an example of a combination of a calculation content and a component that executes the calculation content in the embedded vision system 1000 according to this modification.
  • FIG. 7 illustrates six combinations. For example, which of the six combinations is selected depends on the same signal processing block (specifically, the signal processing block 120 or the embedded processor 200) for determining the image deviation and confirming the completion of image acquisition. When executed in, it is determined whether or not a transfer speed higher than a predetermined frame rate can be realized.
  • the signal processing block specifically, the signal processing block 120 or the embedded processor 200
  • the control unit 240 when it is determined that a transfer speed equal to or higher than a predetermined frame rate cannot be realized, the control unit 240 causes the signal processing block 120 to determine the image deviation, and causes the embedded processor 200 to confirm the completion of image acquisition. Let it run. That is, in this case, the control unit 240 selects the leftmost combination or the second combination from the left in FIG. 7. Further, for example, when it is determined that a transfer speed equal to or higher than a predetermined frame rate can be realized, the control unit 240 determines, for example, image misalignment and confirms the completion of image acquisition by the signal processing block 120 or the embedded processor 200. To execute. That is, in this case, the control unit 240 selects the third, fourth, fifth, or sixth combination from the left in FIG. 7.
  • control unit 240 omits the execution instruction for the determination of the image deviation. It is possible.
  • This modification is the same as the above embodiment except that the ROI cutting process is performed by the signal processing block. Therefore, the same effect can be obtained in the above embodiment within a range in which the load on the data transmission due to the ROI cutting process is allowed.
  • FIG. 8 shows a modified example of the functional block of the embedded vision system 1000 according to the above embodiment.
  • the information extraction unit 123, the ROI image generation unit 124, the image analysis unit 125, and the image processing unit 127 are omitted, and the ROI cutout unit 131 and the ROI analysis unit 132 are provided. There is.
  • FIG. 9 shows an example of a combination of a calculation content and a component that executes the calculation content in the embedded vision system 1000 according to this modification.
  • FIG. 9 illustrates six combinations. For example, which of the six combinations is selected depends on the same signal processing block (specifically, the signal processing block 120 or the embedded processor 200) for determining the image deviation and confirming the completion of image acquisition. When executed in, it is determined whether or not a transfer speed higher than a predetermined frame rate can be realized.
  • the signal processing block specifically, the signal processing block 120 or the embedded processor 200
  • the control unit 240 when it is determined that a transfer speed equal to or higher than a predetermined frame rate cannot be realized, the control unit 240 causes the signal processing block 120 to determine the image deviation, and causes the embedded processor 200 to confirm the completion of image acquisition. Let it run. That is, in this case, the control unit 240 selects the leftmost combination or the second combination from the left in FIG. Further, for example, when it is determined that a transfer speed equal to or higher than a predetermined frame rate can be realized, the control unit 240 determines, for example, image misalignment and confirms the completion of image acquisition by the signal processing block 120 or the embedded processor 200. To execute. That is, in this case, the control unit 240 selects the third, fourth, fifth, or sixth combination from the left in FIG.
  • control unit 240 omits the execution instruction for the determination of the image deviation. It is possible.
  • the ROI cutting process can be performed by the image sensor 110 or the signal processing block 120 while considering the load on the data transmission due to the ROI cutting process. Therefore, the ROI can be cut out while suppressing the influence on the data transmission.
  • FIG. 10 shows an example in which the embedded vision system 1000 is applied to a conveyor.
  • the embedded vision system 1000 includes an external sensor 600 that detects a position (Y coordinate) of an object flowing on the conveyor in a direction orthogonal to the traveling direction of the conveyor.
  • the external sensor 600 is configured to include, for example, a line sensor.
  • the external sensor 600 may be configured by an image sensor for position detection, GPS set on a tray, or the like.
  • the Y coordinate of the object included in the external information DIN is generated based on the output of the external sensor 600.
  • the external sensor 600 detects the Y coordinate of the object (coordinates in the direction orthogonal to the moving direction of the object) according to the control from the external system 300.
  • each object does not need to be arranged so that the coordinates in the direction orthogonal to the traveling direction of the conveyor are equal to each other.
  • the Y coordinate of the object obtained by the external sensor 600 is, for example, a control unit 126 via a GPIO (General-purpose input / output) 140 provided in the image pickup apparatus 100 as a part of the external information Din. Is entered in.
  • the GPIO 140 receives the Y coordinate of the object as a part of the external information Din, and outputs the received Y coordinate of the object to the control unit 126.
  • the external sensor 600 that detects the Y coordinate of the object is provided.
  • the size of the ROI can be reduced as compared with the case where the Y coordinate of the object is derived from the image data 111A without providing the external sensor 600. Therefore, the amount of data transmission can be reduced as compared with the case where the Y coordinate of the object is derived from the image data 111A.
  • FIG. 14 shows a modified example of the functional block of the embedded vision system 1000 according to the modified example C.
  • the embedded vision system 1000 may perform ROI cutting in the embedded processor 200.
  • the embedded processor 200 may further include an ROI cutting unit 280 and an ROI analysis unit 290, for example, as shown in FIG.
  • the ROI cutting unit 280 identifies one or more objects (objects) to be photographed included in the image data 111A obtained by the decoding unit 220, and sets the ROI for each specified object.
  • the ROI cutting unit 280 cuts out one or a plurality of ROI image data (ROI image data 112A) from the image data 111A.
  • the ROI cutting unit 280 further assigns an area number as an identifier for each set ROI.
  • the ROI cutting unit 280 stores, for example, the assigned identifier (area number) in the storage unit.
  • the ROI cutting unit 280 stores, for example, one or a plurality of ROI image data 112A cut out from the image data 111A in the storage unit.
  • the ROI cutting unit 280 further stores, for example, an identifier (area number) assigned to one or a plurality of ROIs in the storage unit in association with the one or a plurality of ROI image data 112A.
  • the ROI analysis unit 290 derives the position information of the ROI (ROI position information 113A) in the image data 111A for each ROI.
  • the ROI analysis unit 290 stores, for example, the derived ROI position information 113A in the storage unit.
  • the ROI analysis unit 290 stores, for example, the derived ROI position information 113A in the storage unit in association with the identifier (area number) assigned to the ROI.
  • the embedded processor 200 can perform the ROI cutting process.
  • the embedded processor 200 can perform the ROI cutting process while considering the load on the data transmission due to the ROI cutting process. Therefore, the ROI can be cut out while suppressing the influence on the data transmission.
  • FIG. 15 shows a modified example of the functional block of the embedded vision system 1000 according to the modified example C.
  • the external sensor 600 is attached to a moving body such as a soccer ball or a specific player.
  • the external sensor 600 is configured by a wireless device such as GPS.
  • the size of the ROI can be reduced as compared with the case where the position of the moving body is detected from the image data 111A without providing the external sensor 600. Therefore, the amount of data transmission can be reduced as compared with the case where the position of the moving body is detected from the image data 111A.
  • FIG. 17 shows an example in which the embedded vision system 1000 is applied to a conveyor.
  • the embedded vision system 1000 detects the position (Y coordinate) of the object flowing on the conveyor in the direction orthogonal to the traveling direction of the conveyor from the image data 111A.
  • the external sensor 600 or the like it is not necessary to newly add the external sensor 600 or the like as described above, so that the system configuration can be simplified.
  • FIG. 18 shows an example in which the embedded vision system 1000 is applied as a part of a road traffic system.
  • the image pickup device 100 is installed, for example, at a position and orientation capable of photographing a road including a plurality of lanes from a direction parallel to the traveling direction of the vehicle.
  • the image data 111A obtained by imaging includes, for example, the license plate of the vehicle traveling on the first lane or the license plate of the vehicle traveling on the second lane, as shown in FIG. It can be.
  • the X coordinate of the object is either the X coordinate corresponding to the vicinity of the center of the first lane or the X coordinate corresponding to the vicinity of the center of the second lane. It becomes one of the coordinates. Therefore, even in this case, since the X coordinate of the object is narrowed down to some extent, it is possible to reduce the size of the ROI as compared with the case where the position of the object moves randomly. Therefore, the amount of data transmission can be reduced as compared with the case where the position of the object moves randomly.
  • FIG. 20 shows an example in which the embedded vision system 1000 is applied to a drone (unmanned aerial vehicle).
  • the imaging device 100 and the embedded processor 200 are mounted on the drone, and the external system 300 is configured to be capable of wireless communication with the embedded processor 200 and is installed on the ground.
  • the ROI cutting units 112 and 131 may dynamically change the position of the ROI for each frame, for example, as shown in FIG.
  • the position of the ROI may be specified according to the polarization characteristics such as the degree of polarization and the polarization angle. In this case, it is possible to reduce the size of the ROI as compared with the case where the position of the ROI is changed for each of a plurality of frames. Therefore, the amount of data transmission can be reduced as compared with the case where the ROI position is changed for each of a plurality of frames.
  • the embedded vision system 1000 when the embedded vision system 1000 is applied to a drone (unmanned aerial vehicle), for example, as shown in FIG. 21, the camera mounted on the drone traveling in a straight line direction from left to right is a building on the ground. It is assumed that the ROI cutout process is performed on the object. In this case, the ROI image cut out before passing directly above the building is the image of the angle of view from the left side of the building, and the ROI image cut out after passing directly above the building is the image of the angle of view from the right side of the building. Become. Therefore, for example, the image processing unit 127 or the image processing unit 250 can obtain parallax data from these images. As a result, for example, the image processing unit 127 or the image processing unit 250 can generate three-dimensional data by using the parallax data.
  • FIG. 22 shows how a plurality of ROIs are included in one image data 111A.
  • the encoding units 115, 128, 260 encode each ROI, for example, as shown in FIG. 23, and the transmitting unit 116,
  • the 129 and 270 may send compressed image data 115A, 129A and 260A for each ROI.
  • the encoding units 115, 128, 260 may embed the three ROI image data 112A in the packet area of the data frame, for example, as shown in FIG. 26.
  • the data frame usually has a header area, a packet area, and a footer area.
  • the description of the footer region is omitted for convenience.
  • the packet area contains LongPacket's PayloadData for each line. Further, the packet area includes, for example, three ROI image data 112A as shown in FIG. 26. The PayloadData of the LongPacket of each line contains the imageData of one line in the three ROI image data 112A.
  • the header area includes Embedded Data. Embedded Data refers to additional information that can be embedded in the header or footer of a data frame. At this time, the Embedded Data includes the ROI position information 113A as metadata (metaData).
  • the metadata includes, for example, ROI ID, Upper Left Coordinate, Height, Wide, Exposure Time, Gain Setting, and the like.
  • the amount of transmitted data can be reduced as compared with the case where the image data 111A is embedded in the packet area of the data frame.
  • the encoding units 115, 128, 260 may pack 10-bit RGB image data as 30-bit data of 16-bit or 32-bit alignment data. Even in this case, the amount of transmitted data can be reduced.
  • the present disclosure may have the following structure.
  • a generator that generates ROI (Region Of Interest) position information in image data obtained by imaging based on external information input from the outside.
  • An extraction unit that extracts ROI image data from the image data using the ROI position information, When the ROI image data does not include the entire object or a predetermined ratio or more, the ROI position information is corrected so that the ROI image data includes the entire object or a predetermined ratio or more.
  • the correction unit corrects the ROI position information according to a determination result by the determination unit.
  • the correction unit takes the image so that the ROI image data includes the entire object or a predetermined ratio or more.
  • the image pickup apparatus according to any one of (1) to (4), which corrects the exposure timing of the element.
  • the external information includes a moving speed of the object in a moving direction as speed information of the object.
  • the external information includes coordinates in a direction orthogonal to the moving direction of the object as position information of the object.
  • Imaging device and Equipped with an external device The image pickup device A generator that generates ROI position information in image data obtained by imaging based on external information input from the outside, An extraction unit that extracts ROI image data from the image data using the ROI position information, When the ROI image data does not include the entire object or a predetermined ratio or more, the ROI position information is corrected so that the ROI image data includes the entire object or a predetermined ratio or more.
  • Department and It has an output unit that outputs the ROI image data to the external device according to the first interface standard.
  • the external device is A reception unit that accepts input of the ROI image data in the first interface standard, and A data transmission system having an interface conversion unit that outputs the ROI image data received by the reception unit to an external system according to a second interface standard.
  • the image pickup apparatus further includes a determination unit for determining whether or not the ROI image data includes the entire object or a predetermined ratio or more.
  • the correction unit corrects the ROI position information according to a determination result by the determination unit.
  • the image pickup device further includes an image pickup element that generates the image data by imaging. When the ROI image data does not include the entire object or a predetermined ratio or more, the correction unit performs the image pickup so that the ROI image data includes the entire object or a predetermined ratio or more.
  • the data transmission system according to any one of (8) to (11), which corrects the exposure timing of the element.
  • (13) Imaging device and Equipped with an external device The image pickup device An extraction unit that extracts ROI image data from image data obtained by imaging using ROI position information, It has a first output unit that outputs the ROI image data to the external device according to the first interface standard.
  • the external device is A reception unit that accepts input of the ROI image data in the first interface standard, and A generator that generates the ROI position information based on external information input from the outside, When the ROI image data received by the reception unit does not include the entire object or a predetermined ratio or more, the ROI position so that the ROI image data includes the entire object or a predetermined ratio or more.
  • the external information includes at least one of the position information and the speed information of the object.
  • the external device further includes a determination unit for determining whether or not the ROI image data includes the entire object or a predetermined ratio or more.
  • the correction unit corrects the ROI position information according to a determination result by the determination unit.
  • the image pickup device further includes an image pickup element that generates the image data by imaging.
  • the correction unit performs the image pickup so that the ROI image data includes the entire object or a predetermined ratio or more. Correct the exposure timing of the element and The data transmission system according to any one of (13) to (16), wherein the second output unit outputs the exposure timing obtained by the correction by the correction unit to the image pickup device.
  • the ROI image data is extracted from the image data obtained by imaging using the ROI position information, so that the amount of data can be reduced by a method other than compression. Furthermore, the amount of data can be reduced at a stage before data is output according to a predetermined interface standard. As a result, even if the external device is a device that converts to a low-speed interface standard, it is possible to reduce the possibility that data transmission cannot be performed. As a result, data transmission can be performed smoothly.
  • the ROI image data is extracted from the image data obtained by imaging by using the ROI position information, so that the data is extracted by a method other than compression.
  • the amount can be reduced, and further, the amount of data can be reduced before the data is output by the first interface standard.
  • the second interface standard is a low-speed interface standard, it is possible to reduce the possibility that data transmission cannot be performed. As a result, data transmission can be performed smoothly.
  • the ROI image data is extracted from the image data obtained by imaging by using the ROI position information, so that the data is extracted by a method other than compression.
  • the amount can be reduced, and further, the amount of data can be reduced before the data is output by the first interface standard.
  • the second interface standard is a low-speed interface standard, it is possible to reduce the possibility that data transmission cannot be performed. As a result, data transmission can be performed smoothly.
  • the ROI image data is extracted from the image data obtained by imaging by using the ROI position information generated based on the external information input from the outside. Therefore, the amount of data can be reduced by a method other than compression, and the amount of data can be reduced before the data is output by the first interface standard. As a result, even when the second interface standard is a low-speed interface standard, it is possible to reduce the possibility that data transmission cannot be performed. As a result, data transmission can be performed smoothly.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

本開示の一実施形態に係る送信装置は、生成部と、抽出部と、補正部とを備えている。生成部は、外部から入力された外部情報に基づいて、撮像により得られた画像データにおけるROI位置情報を生成する。抽出部は、ROI位置情報を用いて画像データからROI画像データを抽出する。補正部は、ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合にはROI画像データに対象物の全体もしくは所定以上の割合が含まれるようにROI位置情報を補正する。

Description

撮像装置、データ伝送システム、及びデータ伝送方法
 本開示は、撮像装置、データ伝送システム、及びデータ伝送方法に関する。
 近年、データ量の大きなデータを大量に送信する用途が増えてきている。伝送システムに大きな負荷がかかりやすく、最悪の場合には、伝送システムがダウンし、データ伝送が行えなくなるおそれがある。
 従来では、伝送システムのダウンを避けるために、例えば、撮影した画像を全て送信するのではなく、撮影対象の物体を特定し、特定した物体を切り出した一部の画像だけを送信することが行われている。なお、撮影した画像から一部の画像を切り出すことについては、例えば、下記の特許文献1に記載されている。
特開2018-137567号公報 特表2013-537376号公報
 マシンビジョンや車載等で使用される産業用インターフェースには、様々な方式(GigE、USB3.0、CameraLink、CoaXpress、MIPI、SLVS、SLVSec、GMSL、PCIe,Wifi等の無線方式等)が存在している。そして、それぞれのインターフェースごとに“伝送帯域(伝送速度)”、“伝送距離”、“接続可能カメラ数”といった特徴に差がある。そのため、インターフェース変換によって複数のインターフェースを使用するにあたって、いくつかの課題が存在する。例えば、高速/近距離伝送インターフェース”から“低速/長距離伝送インターフェース”へ変換する場合、インターフェース変換が完了する前にいかにデータ量を削減できるかが課題となる。また、例えば、高精度の画像解析のために非圧縮のRAWデータを伝送する場合、圧縮によってデータ量を削減できないという背景がある。この場合、データ量削減のためには圧縮以外の別の手段が求められる。なお、テレビジョン放送用途における長距離伝送を目的としたシステムにおいて、インターフェース変換によってデータの長距離伝送を実現する方法が、例えば、上記の特許文献2に記載されている。
 データ伝送を円滑に行うことを可能とする撮像装置、データ伝送システム、及びデータ伝送方法を提供することが望ましい。
 本開示の一実施形態に係る撮像装置は、生成部と、抽出部と、補正部とを備えている。生成部は、外部から入力された外部情報に基づいて、撮像により得られた画像データにおけるROI位置情報を生成する。抽出部は、ROI位置情報を用いて画像データからROI画像データを抽出する。補正部は、ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合にはROI画像データに対象物の全体もしくは所定以上の割合が含まれるようにROI位置情報を補正する。
 本開示の一実施形態に係る撮像装置では、ROI位置情報を用いて、撮像により得られた画像データからROI画像データが抽出される。このように、本開示では、圧縮以外の方法でデータ量を削減することができる。また、所定のインターフェース規格でデータを出力する前の段階で、データ量を削減することができるので、外部装置が低速のインターフェース規格に変換する装置であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。
 本開示の一実施形態に係る第1のデータ伝送システムは、撮像装置と、外部装置とを備えている。撮像装置は、生成部と、抽出部と、補正部と、出力部とを有している。生成部は、外部から入力された外部情報に基づいて、撮像により得られた画像データにおけるROI位置情報を生成する。抽出部は、ROI位置情報を用いて画像データからROI画像データを抽出する。補正部は、ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合にはROI画像データに対象物の全体もしくは所定以上の割合が含まれるようにROI位置情報を補正する。出力部は、ROI画像データを、第1インターフェース規格で外部装置に出力する。外部装置は、受付部と、インターフェース変換部とを有している。受付部は、第1インターフェース規格でROI画像データの入力を受け付ける。インターフェース変換部は、受付部で受け付けたROI画像データを、第2インターフェース規格で外部システムに出力する。
 本開示の一実施形態に係る第1のデータ伝送システムでは、ROI位置情報を用いて、撮像により得られた画像データからROI画像データが抽出される。このように、本開示では、圧縮以外の方法でデータ量を削減することができる。また、第1インターフェース規格でデータを出力する前の段階で、データ量を削減することができるので、第2インターフェース規格が低速のインターフェース規格であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。
 本開示の一実施形態に係る第2のデータ伝送システムは、撮像装置と、外部装置とを備えている。撮像装置は、抽出部と、第1出力部とを有している。抽出部は、ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出する。第1出力部は、ROI画像データを、第1インターフェース規格で外部装置に出力する。外部装置は、受付部と、生成部と、補正部と、第2出力部と、インターフェース変換部とを有している。受付部は、第1インターフェース規格で前記ROI画像データの入力を受け付ける。生成部は、外部から入力された外部情報に基づいて、ROI位置情報を生成する。補正部は、受付部で受け付けたROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合にはROI画像データに対象物の全体もしくは所定以上の割合が含まれるようにROI位置情報を補正する。第2出力部は、生成部で生成されたROI位置情報、または、補正部での補正により得られたROI位置情報を抽出部に出力する。インターフェース変換部は、ROI画像データを、第2インターフェース規格で外部システムに出力する。
 本開示の一実施形態に係る第2のデータ伝送システムでは、ROI位置情報を用いて、撮像により得られた画像データからROI画像データが抽出される。このように、本開示では、圧縮以外の方法でデータ量を削減することができる。また、第1インターフェース規格でデータを出力する前の段階で、データ量を削減することができるので、第2インターフェース規格が低速のインターフェース規格であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。
 本開示の一実施形態に係るデータ伝送方法は、以下の3つを含む。
(1)外部から入力された外部情報に基づいて、ROI位置情報を生成すること
(2)ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出すること
(3)ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合にはROI画像データに対象物の全体もしくは所定以上の割合が含まれるようにROI位置情報を補正すること
 本開示の一実施形態に係るデータ伝送方法では、外部から入力された外部情報に基づいて生成されたROI位置情報を用いて、撮像により得られた画像データからROI画像データが抽出される。このように、本開示では、圧縮以外の方法でデータ量を削減することができる。また、第1インターフェース規格でデータを出力する前の段階で、データ量を削減することができるので、第2インターフェース規格が低速のインターフェース規格であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。
エンベデッドビジョンシステムの概略構成例を表す図である。 エンベデッドビジョンシステムをコンベアに適用した例を表す図である。 エンベデッドビジョンシステムの機能ブロック例を表す図である。 演算内容と、その演算内容を実行する構成要素の組み合わせの一例を表す図である。 データ伝送の手順の一例を表す図である。 エンベデッドビジョンシステムの機能ブロックの一変形例を表す図である。 演算内容と、その演算内容を実行する構成要素の組み合わせの一例を表す図である。 エンベデッドビジョンシステムの機能ブロックの一変形例を表す図である。 演算内容と、その演算内容を実行する構成要素の組み合わせの一例を表す図である。 エンベデッドビジョンシステムをコンベアに適用した例を表す図である。 エンベデッドビジョンシステムの機能ブロック例を表す図である。 エンベデッドビジョンシステムの機能ブロック例を表す図である。 エンベデッドビジョンシステムの機能ブロック例を表す図である。 エンベデッドビジョンシステムの機能ブロック例を表す図である。 エンベデッドビジョンシステムをサッカー競技に適用した例を表す図である。 フレーム画像の一例を表す図である。 エンベデッドビジョンシステムをコンベアに適用した例を表す図である。 エンベデッドビジョンシステムを交通管理に適用した例を表す図である。 フレーム画像の一例を表す図である。 エンベデッドビジョンシステムをドローンに適用した例を表す図である。 フレーム画像の一例を表す図である。 ROIの一例を表す図である。 ROIのデータ伝送の一例を表す図である。 パッキングされたROIのデータ伝送の一例を表す図である。 ROIの一例を表す図である。 データフレームの一例を表す図である。 図26のデータフレームのヘッダに含まれるROI位置情報の一例を表す図である。
 以下、本開示を実施するための形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。
<1.実施の形態>
[構成]
 図1は、本実施の形態に係るエンベデッドビジョンシステム1000の概略構成例を表したものである。エンベデッドビジョンシステム1000は、例えば、図1に示したように、撮像装置100、エンベデッドプロセッサ200および外部システム300を備えている。
 撮像装置100とエンベデッドプロセッサ200とは、伝送路400により電気的に接続される。伝送路400は、撮像装置100とエンベデッドプロセッサ200とを接続する、一の信号の伝送路である。撮像装置100から送信される画像を示すデータ(画像データ)は、撮像装置100からエンベデッドプロセッサ200へと伝送路400を介して伝送される。エンベデッドプロセッサ200と外部システム300とは、伝送路500により電気的に接続される。伝送路500は、エンベデッドプロセッサ200と外部システム300とを接続する、一の信号の伝送路である。エンベデッドプロセッサ200から送信される画像を示すデータ(画像データ)は、エンベデッドプロセッサ200から外部システム300へと伝送路500を介して伝送される。
 撮像装置100は、撮像機能と送信機能とを有し、撮像により生成した画像データを送信する。撮像装置100は、エンベデッドビジョンシステム1000において送信装置の役目を果たす。撮像装置100は、例えば、“デジタルスチルカメラやデジタルビデオカメラ、ステレオカメラ、偏光カメラなどの撮像デバイス”や、“赤外線センサ”、“距離画像センサ”などの、画像を生成することが可能な任意の方式の画像センサデバイスを含み、生成された画像を送信する機能を有する。撮像装置100において生成される画像は、撮像装置100におけるセンシング結果を示すデータに該当する。撮像装置100の構成の一例については、後に図3を用いて詳述する。
 撮像装置100は、後述する送信方法により、画像データに対して設定される領域に対応するデータ(以下、「領域の画像データ」とも称する。)を送信する。画像に対して設定される領域は、ROI(Region Of Interest)と呼ばれる。以下では、画像に対して設定される領域を、「ROI」と称する。また、領域の画像データを、「ROI画像データ」と称する。
 撮像装置100は、ROI画像データを送信すること、すなわち、画像データの一部を送信することによって、画像データ全体を伝送するよりも伝送に係るデータ量を小さくする。よって、撮像装置100が、ROI画像データを送信することによって、例えば、伝送時間が短縮される、エンベデッドビジョンシステム1000における伝送に係る負荷が低減されるなど、データ量が低減されることにより奏される様々な効果が、奏される。なお、撮像装置100は、画像データ全体を送信することも可能である。
 エンベデッドプロセッサ200は、撮像装置100から送信されたデータを受信し、受信されたデータを処理する。エンベデッドプロセッサ200は、エンベデッドビジョンシステム1000においてインターフェース変換装置の役目を果たす。撮像装置100から送信されたデータの処理に係る構成の一例については、後に図3を用いて詳述する。
 エンベデッドプロセッサ200は、例えば、MPU(Micro  Processing  Unit)など
の演算回路で構成される、1または2以上のプロセッサや、各種処理回路などで構成される。エンベデッドプロセッサ200は、例えば、記インターフェース変換制御に係る処理など、様々な処理を行う。エンベデッドプロセッサ200は、例えば、撮像装置100に対して制御情報を送信することによって、撮像装置100における機能を制御してもよい。エンベデッドプロセッサ200は、例えば、撮像装置100に対して領域指定情報を送信することによって、撮像装置100から送信されるデータを制御することも可能である。
 図2は、エンベデッドビジョンシステム1000をコンベアに適用した例を表したものである。エンベデッドビジョンシステム1000において、撮像装置100は、特定の領域を撮像するように配置されており、コンベア上を流れてくる対象物を所定の周期で撮像する。例えば、図2に示したように、コンベアには、複数のトレーが等間隔で並んで配置されており、各対象物は、トレー上の所定の位置に配置されている。各対象物は、コンベアの進行方向と直交する方向の座標が互いに等しくなるように、トレー上に配置されている。各トレーには、対象物が1つずつ配置されている。
 この場合、撮像装置100によって得られる画像には、例えば、図2の下段に示したように、対象物fが被写体として映し出される。なお、図2の下段には、露光タイミングの互いに異なる3枚の画像が例示されている。図2に示した各画像において、左右方向がコンベアの進行方向に対応している。図2に示した各画像において、左右方向をX座標とし、上下方向をY座標とすると、対象物fのY座標は、露光タイミングによらず一定となっており、対象物のX座標は、コンベアの速度に応じて変化している。このことから、対象物の、フレーム間のX座標のズレ量を露光周期で割ることにより、対象物の、X座標方向の移動速度が得られる。この例において、対象物のY座標(対象物の移動方向と直交する方向の座標)と、対象物の、X座標方向(対象物の移動方向)の移動速度が、外部情報Dinとして、ユーザによって手動で、または、コンベアなどのシステムから自動的に、外部システム300に入力されてもよい。また、この例において、撮像装置100(制御部1114)が、撮像装置100によって得られた複数の画像に対して画像解析を行うことにより外部情報Dinを取得してもよい。このとき、外部情報Dinに含まれる、対象物のX座標方向(対象物の移動方向)の移動速度は、外部センサ600の出力に基づいて生成される。撮像装置100(制御部1114)は、例えば、撮像装置100によって得られた複数の画像に対して画像解析を行うことにより、複数の画像に含まれる対象物fの座標(X座標、Y座標)を検出し、検出した対象物fの、フレーム間のX座標のズレ量を露光周期で割ることにより、対象物の、X座標方向の移動速度を得る。撮像装置100(制御部1114)は、例えば、さらに、このようにして得られた座標(Y座標)と、X座標方向(対象物の移動方向)の移動速度とを外部情報Dinとする。
 対象物のY座標は、例えば、コンベア上にトレーが所定の位置に配置されることによって設定される固定値である。一方、対象物の、X座標方向の移動速度は、例えば、コンベアの速度としてコンベアに設定される設定値である。この場合、外部システム300は、対象物のY座標と、対象物の、X座標方向の移動速度とを、外部情報Dinとして受け付ける。外部システム300は、受け付けた、X座標方向の移動速度に基づいて、対象物のX座標(対象物の移動方向と平行な方向の座標)を設定する。
 なお、対象物のY座標が固定値となっている場合、対象物のY座標があらかじめ、外部システム300に設定されていてもよい。この場合、対象物のY座標は、外部情報Dinには含まれていなくてもよい。なお、撮像方法によっては、撮像装置100によって得られる画像において、上下方向が上述のX座標となり、左右方向が上述のY座標となる場合もある。
(撮像装置100)
 図3は、エンベデッドビジョンシステム1000の機能ブロックの一例を表したものである。撮像装置100は、例えば、撮像素子110、信号処理ブロック120および伝送路130を有している。撮像素子110と信号処理ブロック120とは、伝送路130により電気的に接続される。伝送路130は、撮像素子110と信号処理ブロック120とを接続する、一の信号の伝送路である。撮像素子110から送信される画像を示すデータ(画像データ)は、撮像素子110から信号処理ブロック120へと伝送路130を介して伝送される。伝送路130では、例えば、伝送路400と共通のインターフェース規格でデータ伝送が行われる。
 撮像素子110は、例えば、撮像部111、ROI切り出し部112、ROI解析部113、制御部114、エンコード部115および送信部116を有している。
 撮像部111は、例えば、光学レンズなどを通して得られた光学的な画像信号を画像データに変換する。撮像部111は、例えば、制御部114から入力された露光タイミングで撮像を行うことにより、画像データ111Aを取得する。撮像部111が偏光カメラの場合には、画像データ111Aは、偏光方向毎の輝度データである。撮像部111は、例えば、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含んで構成されている。撮像部111は、アナログ-デジタル変換回路を有しており、アナログの画像データをデジタルの画像データに変換する。変換した後のデータ形式は、各画素の色を輝度成分Yおよび色差成分Cb,Crで表現するYCbCr形式であってもよいし、RGB形式などであってもよい。撮像部111は、撮像により得られた画像データ111A(デジタルの画像データ)をROI切り出し部112に出力する。
 ROI切り出し部112は、例えば、ROIの切り出しを指示する制御信号が制御部114から入力された場合に、撮像部111から入力された画像データ111Aに含まれる撮影対象の1または複数の物体(対象物)を特定し、特定した物体ごとにROIを設定する。ROIは、例えば、特定した物体を含む方形状の領域である。なお、ROIの形状は、方形状に限定されるものではなく、例えば、円形状、楕円形状、多角形状、または、不規則な形状となっていてもよい。ROI切り出し部112は、例えば、制御部114から入力されたROI情報(例えばROIの位置情報など)に基づいて、撮像部111から入力された画像データ111Aにおいて、1または複数のROIを設定してもよい。
 ROI切り出し部112は、画像データ111Aから、1または複数のROIの画像データ(ROI画像データ112A)を切り出す。ROI切り出し部112は、さらに、設定したROIごとに、識別子として領域番号を付与する。ROI切り出し部112は、例えば、付与した識別子(領域番号)を記憶部に格納する。ROI切り出し部112は、例えば、画像データ111Aから切り出した1または複数のROI画像データ112Aを記憶部に格納する。ROI切り出し部112は、さらに、例えば、1または複数のROIに付与した識別子(領域番号)を、1または複数のROI画像データ112Aと関連づけて、記憶部に格納する。なお、ROI切り出し部112は、通常画像(全体画像)の出力を指示する制御信号が制御部114から入力された場合に、撮像部111から入力された画像データ111Aに対して所定の処理を行い、それにより全体画像データ112Bを生成する。
 ROI解析部113は、ROIごとに、画像データ111AにおけるROIの位置情報(ROI位置情報113A)を導出する。ROI位置情報113Aは、例えば、ROIの左上端座標と、ROIのX軸方向の長さと、ROIのY軸方向の長さとによって構成されている。ROIのX軸方向の長さは、例えば、ROIのX軸方向の物理領域長さである。ROIのY軸方向の長さは、例えば、ROIのY軸方向の物理領域長さである。物理領域長さとは、ROIの物理的な長さ(データ長)を指している。ROI位置情報113Aにおいて、ROIの左上端とは異なる位置の座標が含まれていてもよい。ROI解析部113は、例えば、導出したROI位置情報113Aを記憶部に格納する。ROI解析部113は、例えば、導出したROI位置情報113Aを、ROIに対して付与された識別子(領域番号)と関連づけて、記憶部に格納する。
 エンコード部115は、1または複数のROI画像データ112Aと、1または複数のROI位置情報113Aとをエンコードして、送信部116に出力する。エンコード部115は、例えば、10bitのRGBデータを16bitもしくは32bitアライメントデータの30bitのデータとしてパッキングしてデータ削減する。なお、エンコード部115において、1または複数のROI画像データ112Aに対して圧縮処理がなされてもよい。
 制御部114は、信号処理ブロック120から入力される信号に基づいて、撮像部111やROI切り出し部112を制御する。制御部114は、例えば、信号処理ブロック120から入力された露光タイミングで撮像部111に撮像を指示する。制御部114は、例えば、信号処理ブロック120から入力されたROI情報(例えばROIの位置情報など)をROI切り出し部112に出力する。
 送信部116は、エンコード部115から入力されたデータ(1または複数のROI画像データ112A、1または複数のROI位置情報113A)を含む伝送データ116Aを生成し、送出する回路である。送信部116は、例えば、1または複数のROI位置情報113AをEmbeddedDataで送出する。送信部116は、さらに、例えば、1または複数のROI画像データ112AをLongPacketのPayloadDataで送出する。送信部116は、例えば、1または複数のROI画像データ112Aを画像データフレームによって送出するとともに、1または複数のROI位置情報113Aを画像データフレームのヘッダで送出する。送信部116は、例えば、MIPI CSI-2規格もしくはMIPI CSI-3規格で規定されたルールに従って、伝送データ116Aを生成し、送信する。
 信号処理ブロック120は、例えば、受信部121、デコード部122、情報抽出部123、ROI画像生成部124、画像解析部125、制御部126、画像処理部127、エンコード部128および送信部129を有している。
 受信部121は、例えば、ヘッダ分離部、ヘッダ解釈部、Payload分離部、EBD解釈部およびROIデータ分離部を有している。
 ヘッダ分離部は、伝送データ116Aを、伝送路130を介して受信する。ヘッダ分離部は、例えば、1または複数のROI位置情報113AをEmbeddedDataに含むとともに、1または複数のROI画像データ112AをLongPacketのPayloadDataに含む伝送データ116Aを受信する。ヘッダ分離部は、例えば、MIPI CSI-2規格もしくはMIPI CSI-3規格で規定されたルールに従って、伝送データ116Aを分離する。ヘッダ分離部は、例えば、受信した伝送データ116Aをヘッダ領域とパケット領域とに分離する。
 ヘッダ解釈部は、例えば、ヘッダ領域に含まれるデータ(具体的にはEmbeddedData)に基づいて、パケット領域に含まれるLongPacketのPayloadDataの位置を特定する。Payload分離部は、例えば、ヘッダ解釈部によって特定されたLongPacketのPayloadDataの位置に基づいて、パケット領域に含まれるLongPacketのPayloadDataを、パケット領域から分離する。
 EBD解釈部は、例えば、EmbeddedDataをEBDデータとして、データ分離部に出力する。EBD解釈部は、さらに、例えば、EmbeddedDataに含まれるデータタイプから、LongPacketのPayloadDataに含まれる画像データがROIの画像データ(ROI画像データ112A)であるか否か判別する。EBD解釈部は、例えば、その判別結果をROIデータ分離部に出力する。
 LongPacketのPayloadDataに含まれる画像データがROIの画像データ(ROI画像データ112A)である場合、ROIデータ分離部は、例えば、LongPacketのPayloadDataをPayloadDataとして、デコード部122に出力する。
 デコード部122は、例えば、EmbeddedDataおよびPayloadDataをデコードする。情報抽出部123は、例えば、デコードされたPayloadDataに含まれる画像データを抽出し、デコードされたEmbeddedDataから、1または複数のROI位置情報113Aを抽出する。ROI画像生成部124は、例えば、PayloadDataから抽出された画像データと、EmbeddedDataから抽出された1または複数のROI位置情報113Aとに基づいて、1または複数のROI画像データ112Aを生成(復元)する。
 画像解析部125は、エンベデッドプロセッサ200による制御に従って、1または複数のROI画像データ112Aについて解析を行う。画像解析部125は、例えば、ホワイトバランスや露出補正等に必要な画像のRGB等の色成分の比率や画像の明るさを解析する。画像解析部125は、さらに、例えば、1または複数のROI画像データ112Aにおいて、被写体としての物体(対象物)の全体もしくは所定以上の割合が含まれているか否かについての解析を行う(画像ズレの判定)。その結果、1または複数のROI画像データ112Aのうち少なくとも1つのデータにおいて、対象物の一部が欠けていた場合や、対象物の所定以上の割合が含まれていない場合には、画像解析部125は、例えば、全てのROI画像データ112Aにおいて、対象物の全体もしくは所定以上の割合が含まれるように、ROI位置情報113Aや撮像素子110の露光タイミングを補正する。画像解析部125は、例えば、補正後のROI位置情報113Aや撮像素子110の露光タイミングを、制御部126を介して撮像素子110に出力する。画像解析部125は、例えば、画像データ111Aに含まれる全てのROI画像データ112Aの取得が完了したか否かについて確認を行う(画像取得完了の確認)。画像取得完了が確認されると、画像解析部125は、例えば、1または複数のROI画像データ112Aと、1または複数のROI位置情報113A(もしくは補正後の1または複数のROI位置情報113A)とを含むデータを画像処理部127に出力する。
 制御部126は、画像解析部125で補正されたROI位置情報113Aや撮像素子110の露光タイミングを撮像素子110に送信する。制御部126は、信号処理ブロック120から入力された信号を撮像素子110に送信する。制御部126は、例えば、信号処理ブロック120から入力された露光タイミングや、ROI情報(例えばROIの位置情報など)を撮像素子110に送信する。制御部126は、例えば、信号処理ブロック120から入力された、上述の画像ズレの判定の実行指令や、上述の画像取得完了の確認の実行指令を画像解析部125に出力する。
 画像処理部127は、1または複数のROI画像データ112Aに対して所定の処理を行った上で、1または複数のROI画像データ112Aと、1または複数のROI位置情報113A(もしくは補正後の1または複数のROI位置情報113A)とを含むデータをエンコード部128に出力する。画像処理部127は、例えば、デジタルゲイン、ホワイトバランス、LUT、カラーマトリクス変換、欠陥補正、シェーディング補正、ノイズ除去、画像データの並び替え、γ補正、デモザイク(例えば、Bayer配列の撮像素子
からの出力をRGBの並びに戻す処理)を行う。エンコード部128は、1または複数のROI画像データ112Aと、1または複数のROI位置情報113Aとをエンコードして、送信部129に出力する。エンコード部128は、例えば、10bitのRGBデータを16bitもしくは32bitアライメントデータの30bitのデータとしてパッキングしてデータ削減する。なお、エンコード部128において、1または複数のROI画像データ112Aに対して圧縮処理がなされてもよい。
 送信部129は、エンコード部128から入力された種々のデータ(1または複数のROI画像データ112A、1または複数のROI位置情報113A)を含む伝送データ129Aを生成し、送出する回路である。送信部129は、例えば、1または複数のROI位置情報113AをEmbeddedDataで送出する。送信部129は、さらに、例えば、1または複数のROI画像データ112AをLongPacketのPayloadDataで送出する。送信部129は、例えば、1または複数のROI画像データ112Aを画像データフレームによって送出するとともに、1または複数のROI位置情報113Aを画像データフレームのヘッダで送出する。送信部129は、例えば、MIPI
CSI-2規格もしくはMIPI CSI-3規格で規定されたルールに従って、伝送データ129Aを生成し、伝送路400を介してエンベデッドプロセッサ200に送信する。
 エンベデッドプロセッサ200は、例えば、受信部210、デコード部220、画像解析部230、制御部240、画像処理部250、エンコード部260および送信部270を有している。
 受信部210は、例えば、ヘッダ分離部、ヘッダ解釈部、Payload分離部、EBD解釈部およびROIデータ分離部を有しており、伝送データ129Aに対して、上述の受信部121と同様の処理を実行する。
 デコード部220は、例えば、EmbeddedDataおよびPayloadDataをデコードする。画像解析部230は、例えば、デコードされたPayloadDataに含まれる画像データを抽出し、デコードされたEmbeddedDataから、1または複数のROI位置情報113Aを抽出する。画像解析部230は、例えば、PayloadDataから抽出された画像データと、EmbeddedDataから抽出された1または複数のROI位置情報113Aとに基づいて、1または複数のROI画像データ112Aを生成(復元)する。
 画像解析部230は、制御部240による制御に従って、1または複数のROI画像データ112Aについて解析を行う。画像解析部230は、例えば、1または複数のROI画像データ112Aにおいて、ホワイトバランスや露出補正等に必要な画像のRGB等の色成分の比率や画像の明るさを解析する。画像解析部230は、さらに、例えば、画像解析部125において、上述の画像ズレの判定が行われていない場合には、1または複数のROI画像データ112Aについて、上述の画像ズレの判定を行う。画像解析部230は、上述の画像ズレの判定を行った結果、ROI位置情報113Aや撮像素子110の露光タイミングの補正を行った場合には、補正後のROI位置情報113Aや露光タイミングを、制御部240および信号処理ブロック120を介して撮像素子110に出力する。
 画像解析部230は、例えば、画像解析部125において、上述の画像取得完了の確認が行われていない場合には、1または複数のROI画像データ112Aについて、上述の画像取得完了の確認を行う。画像解析部230は、例えば、1または複数のROI画像データ112Aと、1または複数のROI位置情報113Aとを含むデータを画像処理部250に出力する。画像解析部230は、ROI位置情報113Aを補正した場合には、補正後の1または複数のROI位置情報113Aを制御部240に出力する。
 制御部240は、画像解析部230でROI位置情報113Aが補正された場合には、補正されたROI位置情報113Aを信号処理ブロック120に送信する。つまり、制御部240は、画像解析部230でROI位置情報113Aが補正された場合には、補正されたROI位置情報113Aを、信号処理ブロック120を介して撮像素子110に送信する。
 画像処理部250は、1または複数のROI画像データ112Aに対して所定の処理を行った上で、1または複数のROI画像データ112Aと、1または複数のROI位置情報113Aとを含むデータをエンコード部260に出力する。画像処理部250は、例えば、デジタルゲイン、ホワイトバランス、LUT、カラーマトリクス変換、欠陥補正、シェーディング補正、ノイズ除去、画像データの並び替え、γ補正、デモザイク(例えば、Bayer配列の撮像素子からの出力をRGBの並びに戻す処理)を行う。エンコード部260は、1または複数のROI画像データ112Aと、1または複数のROI位置情報113Aとをエンコードして、送信部270に出力する。エンコード部260は、例えば、10bitのRGBデータを16bitもしくは32bitアライメントデータの30bitのデータとしてパッキングしてデータ削減する。
 送信部270は、エンコード部260から入力されたデータ(1または複数のROI画像データ112A、1または複数のROI位置情報113A)を含む伝送データ270Aを生成し、送出する回路である。送信部270は、例えば、GigEなどの伝送規格で規定されたルールに従って、伝送データ270Aを生成し、伝送路500を介して外部システム300に送信する。
 図4は、本実施の形態に係るエンベデッドビジョンシステム1000において、演算内容と、その演算内容を実行する構成要素の組み合わせの一例を表したものである。図4には、6通りの組み合わせが例示されている。例えば、6通りの組み合わせのうちのいずれが選択されるかは、画像ズレの判定と、画像取得完了の確認とを同一の信号処理ブロック(具体的には、信号処理ブロック120またはエンベデッドプロセッサ200)で実行した場合に、所定のフレームレート以上の転送速度が実現可能か否かで判断される。
 例えば、所定のフレームレート以上の転送速度が実現不能と判断した場合には、制御部240は、例えば、画像ズレの判定を信号処理ブロック120に実行させ、画像取得完了の確認をエンベデッドプロセッサ200に実行させる。つまり、この場合は、制御部240は、図4の一番左側もしくは左から2番目の組み合わせを選択する。また、例えば、所定のフレームレート以上の転送速度が実現可能と判断した場合には、制御部240は、例えば、画像ズレの判定および画像取得完了の確認の双方を信号処理ブロック120またはエンベデッドプロセッサ200に実行させる。つまり、この場合は、制御部240は、図4の左から3番目、4番目、5番目もしくは6番目の組み合わせを選択する。
 なお、例えば、コンベアの設定と、撮像装置100の露光タイミングとが、画像ズレが生じないように予め設定されている場合には、制御部240は、画像ズレの判定についての実行指示を省略することが可能である。
(データ伝送)
 図5は、本実施の形態に係るエンベデッドビジョンシステム1000における、データ伝送の手順の一例を表したものである。本実施の形態では、外部システム300が、ユーザから手動で、または、コンベアなどのシステムから自動的に外部情報Dinを取得する(ステップS101)。外部システム300は、外部情報Dinとして、例えば、対象物の位置情報および速度情報の少なくとも一方を取得する。対象物の位置情報は、例えば、撮像画像の座標内の位置座標、または、対象物自身の位置情報(GPSなどによる現実空間上の位置情報)である。対象物の速度情報は、例えば、対象物の相対的な移動に関する速度情報であり、対象物自身の移動やカメラ自身の移動に由来する。外部システム300は、取得した外部情報Din、または、取得した外部情報Dinに基づいて生成した情報を、エンベデッドプロセッサ200、または、エンベデッドプロセッサ200を介して信号処理ブロック120に出力する。次に、エンベデッドプロセッサ200または信号処理ブロック120は、外部システム300から入力された外部情報Din(もしくは、外部情報Dinに基づいて生成された情報)、または、上述の画像ズレの判定の結果、行われた補正によって得られた情報(補正後のROI位置情報113Aや露光タイミング)を、次フレーム以降のROI位置情報113Aや露光タイミングとして、撮像素子110に出力する(ステップS102)。なお、撮像装置100(制御部1114)が、撮像装置100によって得られた複数の画像に対して画像解析を行うことにより外部情報Dinを取得してもよい。この場合、撮像装置100(制御部1114)は、得られた外部情報Din(もしくは、外部情報Dinに基づいて生成された情報)、または、上述の画像ズレの判定の結果、行われた補正によって得られた情報(補正後のROI位置情報113Aや露光タイミング)を、次フレーム以降のROI位置情報113Aや露光タイミングとする。
 なお、撮像素子110内に、上述の画像ズレの判定に用いた1または複数のROI画像データ112Aが抽出された画像データ111Aが記憶されている場合には、エンベデッドプロセッサ200または信号処理ブロック120は、当該画像データ111AにおけるROIの位置の修正データとして、補正後のROI位置情報113Aを撮像素子110に出力してもよい。
 撮像素子110において、撮像部111は、決定された露光タイミングに基づいて、撮像を行うことにより、画像データ111Aを取得する。撮像素子110において、ROI切り出し部112は、決定されたROIの位置に基づいて、撮像部111で取得した画像データ111Aから、1または複数のROIの画像データ(ROI画像データ112A)を取得する(ステップS103)。
 次に、エンベデッドプロセッサ200または信号処理ブロック120は、1または複数のROI画像データ112Aにおいて、被写体としての物体(対象物)全体もしくは所定以上の割合が含まれているか否かについての解析を行う(画像ズレの判定)(ステップS104)。その結果、1または複数のROI画像データ112Aのうち少なくとも1つのデータにおいて、被写体としての物体(対象物)の一部が欠けていた場合、または、被写体としての物体(対象物)の所定以上の割合が含まれていない場合には、エンベデッドプロセッサ200または信号処理ブロック120は、例えば、全てのROI画像データ112Aにおいて、被写体としての物体(対象物)全体もしくは所定以上の割合が含まれるように、ROI位置情報113Aを補正する。
エンベデッドプロセッサ200または信号処理ブロック120は、例えば、補正後のROI位置情報113Aを、撮像素子110に出力する。エンベデッドプロセッサ200または信号処理ブロック120は、例えば、画像データ111Aに含まれる全てのROI画像データ112Aの取得が完了したか否かについて確認を行う(画像取得完了の確認)。
 画像取得完了が確認されると、エンベデッドプロセッサ200は、例えば、1または複数のROI画像データ112Aと、1または複数のROI位置情報113Aとを含む伝送データ270Aを、伝送路500の伝送帯域内にバッファリング(伝送データレート変換)を行った上で伝送路500に出力する(ステップS105)。このようにして、本実施の形態に係るエンベデッドビジョンシステム1000においてデータ伝送が行われる。
[効果]

 次に、本実施の形態に係るエンベデッドビジョンシステム1000の効果について説明する。
 近年、データ量の大きなデータを大量に送信する用途が増えてきている。伝送システムに大きな負荷がかかりやすく、最悪の場合には、伝送システムがダウンし、データ伝送が行えなくなるおそれがある。
 従来では、伝送システムのダウンを避けるために、例えば、撮影した画像を全て送信するのではなく、撮影対象の物体を特定し、特定した物体を切り出した一部の画像だけを送信することが行われている。
 ところで、例えば、マシンビジョンや車載等で使用される産業用インターフェースには、様々な方式(GigE、USB3.0、CameraLink、CoaXpress、MIPI、SLVS、SLVSec、GMSL、PCIe,Wifi等の無線方式等)が存在している。そして、それぞれのインターフェースごとに“伝送帯域(伝送速度)”、“伝送距離”、“接続可能カメラ数”といった特徴に差がある。そのため、インターフェース変換によって複数のインターフェースを使用するにあたって、いくつかの課題が存在する。例えば、“高速/近距離伝送インターフェース”から“低速/長距離伝送インターフェース”へ変換する場合、インターフェース変換が完了する前にいかにデータ量を削減できるかが課題となる。また、例えば、高精度の画像解析のために非圧縮のRAWデータを伝送する場合、圧縮によってデータ量を削減できないという背景がある。この場合、データ量削減のためには圧縮以外の別の手段が求められる。
 一方、本実施の形態では、ROI位置情報113Aを用いて、撮像により得られた画像データ111AからROI画像データ112Aが抽出される。このように、本実施の形態では、圧縮以外の方法でデータ量を削減することができる。これにより、エンベデッドプロセッサ200において伝送路500のインターフェース規格でデータを出力する前の段階で、データ量を削減することができるので、エンベデッドプロセッサ200が低速のインターフェース規格に変換する装置であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。
 また、本実施の形態では、対象物の位置情報および速度情報の少なくとも一方を含む外部情報Dinに基づいて、ROIの位置が設定される。これにより、外部情報Dinを活用せずに、フレームごとのROIの位置を自動的に設定するようにした場合と比べて、信号処理量を削減することができる。その結果、高速のデータ伝送にも対応することが容易となる。
 また、本実施の形態において、対象物の移動方向と直交する方向の座標が対象物の速度情報として、対象物の移動方向の移動速度を含む外部情報Dinに基づいて、ROIの位置が設定される場合には、フレームごとのROIの位置や露光タイミングが設定される。これにより、外部情報Dinを活用せずに、フレームごとのROIの位置や露光タイミングを自動的に設定するようにした場合と比べて、信号処理量を削減することができる。その結果、高速のデータ伝送にも対応することが容易となる。
 また、本実施の形態では、撮像素子110において、撮像により画像データ111Aが生成されるとともに、生成した画像データ111Aから1または複数のROI画像データ112Aが抽出される。これにより、画像データ111Aそのものを後段(信号処理ブロック120)に伝送した場合と比べて、後段(信号処理ブロック120)へのデータ転送量を減らすことができる。その結果、高速のデータ伝送にも対応することが容易となる。
 また、本実施の形態では、1または複数のROI画像データ112Aのうち少なくとも1つのデータにおいて、被写体としての物体(対象物)が含まれているか否かが判定され、対象物の少なくとも一部が含まれていない場合には、全てのROI画像データ112Aにおいて、対象物全体もしくは所定以上の割合が含まれるように、ROI位置情報113Aや撮像素子110の露光タイミングが補正される。これにより、データ転送量を減らしつつ、外部システム300にとって意味のあるデータを転送することが可能となる。
<2.変形例>
[変形例A]
 図6は、上記実施の形態に係るエンベデッドビジョンシステム1000の機能ブロックの一変形例を表したものである。本変形例では、撮像素子110において、ROI切り出し部112およびROI解析部113が省略されており、信号処理ブロック120において、情報抽出部123、ROI画像生成部124、画像解析部125および画像処理部127が省略されている。さらに、本変形例では、信号処理ブロック120において、ROI切り出し部131およびROI解析部132が設けられている。
 ROI切り出し部131は、ROI切り出し部112と同様の処理を実行する。ROI切り出し部131は、デコード部122から入力された画像データ111Aに含まれる撮影対象の1または複数の物体(対象物)を特定し、特定した物体ごとにROIを設定する。ROI切り出し部131は、例えば、デコード部122から入力されたROI情報(例えばROIの位置情報など)に基づいて、デコード部122から入力された画像データ111Aにおいて、1または複数のROIを設定してもよい。
 ROI切り出し部131は、画像データ111Aから、1または複数のROIの画像データ(ROI画像データ112A)を切り出す。ROI切り出し部131は、さらに、設定したROIごとに、識別子として領域番号を付与する。ROI切り出し部131は、例えば、付与した識別子(領域番号)を記憶部に格納する。ROI切り出し部131は、例えば、画像データ111Aから切り出した1または複数のROI画像データ112Aを記憶部に格納する。ROI切り出し部131は、さらに、例えば、1または複数のROIに付与した識別子(領域番号)を、1または複数のROI画像データ112Aと関連づけて、記憶部に格納する。
 ROI解析部132は、ROI解析部113と同様の処理を実行する。ROI解析部132は、ROIごとに、画像データ111AにおけるROIの位置情報(ROI位置情報113A)を導出する。ROI解析部132は、例えば、導出したROI位置情報113Aを記憶部に格納する。ROI解析部132は、例えば、導出したROI位置情報113Aを、ROIに対して付与された識別子(領域番号)と関連づけて、記憶部に格納する。
 図7は、本変形例に係るエンベデッドビジョンシステム1000において、演算内容と、その演算内容を実行する構成要素の組み合わせの一例を表したものである。図7には、6通りの組み合わせが例示されている。例えば、6通りの組み合わせのうちのいずれが選択されるかは、画像ズレの判定と、画像取得完了の確認とを同一の信号処理ブロック(具体的には、信号処理ブロック120またはエンベデッドプロセッサ200)で実行した場合に、所定のフレームレート以上の転送速度が実現可能か否かで判断される。
 例えば、所定のフレームレート以上の転送速度が実現不能と判断した場合には、制御部240は、例えば、画像ズレの判定を信号処理ブロック120に実行させ、画像取得完了の確認をエンベデッドプロセッサ200に実行させる。つまり、この場合は、制御部240は、図7の一番左側もしくは左から2番目の組み合わせを選択する。また、例えば、所定のフレームレート以上の転送速度が実現可能と判断した場合には、制御部240は、例えば、画像ズレの判定および画像取得完了の確認の双方を信号処理ブロック120またはエンベデッドプロセッサ200に実行させる。つまり、この場合は、制御部240は、図7の左から3番目、4番目、5番目もしくは6番目の組み合わせを選択する。
 なお、例えば、コンベアの設定と、撮像装置100の露光タイミングとが、画像ズレが生じないように予め設定されている場合には、制御部240は、画像ズレの判定についての実行指示を省略することが可能である。
 本変形例では、ROIの切り出し処理が信号処理ブロックで行われる以外は、上記実施の形態と同様である。従って、ROIの切り出し処理によるデータ伝送への負荷が許容される範囲内で、上記実施の形態で同様の効果が得られる。
[変形例B]
 図8は、上記実施の形態に係るエンベデッドビジョンシステム1000の機能ブロックの一変形例を表したものである。本変形例では、信号処理ブロック120において、情報抽出部123、ROI画像生成部124、画像解析部125および画像処理部127が省略されており、ROI切り出し部131およびROI解析部132が設けられている。
 図9は、本変形例に係るエンベデッドビジョンシステム1000において、演算内容と、その演算内容を実行する構成要素の組み合わせの一例を表したものである。図9には、6通りの組み合わせが例示されている。例えば、6通りの組み合わせのうちのいずれが選択されるかは、画像ズレの判定と、画像取得完了の確認とを同一の信号処理ブロック(具体的には、信号処理ブロック120またはエンベデッドプロセッサ200)で実行した場合に、所定のフレームレート以上の転送速度が実現可能か否かで判断される。
 例えば、所定のフレームレート以上の転送速度が実現不能と判断した場合には、制御部240は、例えば、画像ズレの判定を信号処理ブロック120に実行させ、画像取得完了の確認をエンベデッドプロセッサ200に実行させる。つまり、この場合は、制御部240は、図9の一番左側もしくは左から2番目の組み合わせを選択する。また、例えば、所定のフレームレート以上の転送速度が実現可能と判断した場合には、制御部240は、例えば、画像ズレの判定および画像取得完了の確認の双方を信号処理ブロック120またはエンベデッドプロセッサ200に実行させる。つまり、この場合は、制御部240は、図9の左から3番目、4番目、5番目もしくは6番目の組み合わせを選択する。
 なお、例えば、コンベアの設定と、撮像装置100の露光タイミングとが、画像ズレが生じないように予め設定されている場合には、制御部240は、画像ズレの判定についての実行指示を省略することが可能である。
 本変形例では、撮像素子110だけでなく、信号処理ブロック120においても、ROIの切り出し処理を行うことが可能となっている。これにより、ROIの切り出し処理によるデータ伝送への負荷を考慮しながら、撮像素子110または信号処理ブロック120でROIの切り出し処理を行うことができる。従って、データ伝送への影響を抑えつつ、ROIの切り出し処理を行うことができる。
[変形例C]
 図10は、エンベデッドビジョンシステム1000をコンベアに適用した例を表したものである。本変形例では、エンベデッドビジョンシステム1000は、コンベア上を流れてくる対象物の、コンベアの進行方向と直交する方向の位置(Y座標)を検出する外部センサ600を備えている。外部センサ600は、例えば、ラインセンサを含んで構成されている。なお、外部センサ600は、位置検知用の撮像素子や、トレーに設定されたGPSなどによって構成されていてもよい。このとき、外部情報Dinに含まれる、対象物のY座標は、外部センサ600の出力に基づいて生成される。
 図11、図12、図13は、上記実施の形態、変形例Aおよび変形例Bに係るエンベデッドビジョンシステム1000の機能ブロックの一変形例を表したものである。本変形例では、上述したように、外部センサ600が設けられている。外部センサ600は、外部システム300からの制御に従って、対象物のY座標(対象物の移動方向と直交する方向の座標)を検知する。この場合、例えば、図10に示したように、各対象物は、コンベアの進行方向と直交する方向の座標が互いに等しくなるように配置されている必要はない。外部センサ600によって得られた、対象物のY座標は、例えば、外部情報Dinの一部として、撮像装置100内に設けられたGPIO(General-purpose input/output)140を介して、制御部126に入力される。この場合、GPIO140は、対象物のY座標を外部情報Dinの一部として受け付け、受け付けた対象物のY座標を制御部126に出力する。
 このように、本変形例では、対象物のY座標を検知する外部センサ600が設けられている。これにより、外部センサ600を設けずに、画像データ111Aから、対象物のY座標を導出する場合と比べて、ROIの大きさを小さくすることが可能である。従って、画像データ111Aから、対象物のY座標を導出する場合と比べて、データ伝送量を減らすことができる。
[変形例D]
 図14は、上記変形例Cに係るエンベデッドビジョンシステム1000の機能ブロックの一変形例を表したものである。本変形例では、エンベデッドビジョンシステム1000は、エンベデッドプロセッサ200において、ROI切り出しを行ってもよい。このとき、エンベデッドプロセッサ200は、例えば、図14に示したように、ROI切り出し部280およびROI解析部290を更に備えていてもよい。
 ROI切り出し部280は、デコード部220で得られた画像データ111Aに含まれる撮影対象の1または複数の物体(対象物)を特定し、特定した物体ごとにROIを設定する。ROI切り出し部280は、画像データ111Aから、1または複数のROIの画像データ(ROI画像データ112A)を切り出す。ROI切り出し部280は、さらに、設定したROIごとに、識別子として領域番号を付与する。ROI切り出し部280は、例えば、付与した識別子(領域番号)を記憶部に格納する。ROI切り出し部280は、例えば、画像データ111Aから切り出した1または複数のROI画像データ112Aを記憶部に格納する。ROI切り出し部280は、さらに、例えば、1または複数のROIに付与した識別子(領域番号)を、1または複数のROI画像データ112Aと関連づけて、記憶部に格納する。
 ROI解析部290は、ROIごとに、画像データ111AにおけるROIの位置情報(ROI位置情報113A)を導出する。ROI解析部290は、例えば、導出したROI位置情報113Aを記憶部に格納する。ROI解析部290は、例えば、導出したROI位置情報113Aを、ROIに対して付与された識別子(領域番号)と関連づけて、記憶部に格納する。
 本変形例では、エンベデッドプロセッサ200において、ROIの切り出し処理を行うことが可能となっている。これにより、ROIの切り出し処理によるデータ伝送への負荷を考慮しながら、エンベデッドプロセッサ200でROIの切り出し処理を行うことができる。従って、データ伝送への影響を抑えつつ、ROIの切り出し処理を行うことができる。
[変形例E]
 図15は、上記変形例Cに係るエンベデッドビジョンシステム1000の機能ブロックの一変形例を表したものである。本変形例では、外部センサ600が、サッカーボールや特定の競技者などの移動体に取り付けられている。本変形例において、外部センサ600は、例えば、GPSなどの無線デバイスによって構成されている。これにより、例えば、図16に示したように、外部センサ600を設けずに、画像データ111Aから移動体の位置を検出する場合と比べて、ROIの大きさを小さくすることが可能である。従って、画像データ111Aから移動体の位置を検出する場合と比べて、データ伝送量を減らすことができる。
[変形例F]
 図17は、エンベデッドビジョンシステム1000をコンベアに適用した例を表したものである。本変形例では、エンベデッドビジョンシステム1000は、コンベア上を流れてくる対象物の、コンベアの進行方向と直交する方向の位置(Y座標)が画像データ111Aから検出される。このようにした場合には、上述したような外部センサ600などを新たに追加する必要がないので、システム構成を簡素化することができる。
[変形例G]
 図18は、エンベデッドビジョンシステム1000を道路交通システムの一部として適用した例を表したものである。本変形例では、撮像装置100は、例えば、複数のレーンを含む道路を、車の走行方向と平行な方向から撮影することの可能な位置および向きに設置される。このとき、撮像により得られる画像データ111Aには、例えば、図19に示したように、第1レーン上を走行する車のナンバープレート、または、第2レーン上を走行する車のナンバープレートが含まれ得る。このナンバープレートが、検出対象の物体(対象物)である場合、対象物のX座標は、第1レーンの中央付近に対応するX座標、および第2レーンの中央付近に対応するX座のいずれか一方の座標となる。従って、この場合にも、対象物のX座標はある程度絞られることから、対象物の位置がランダムに動く場合と比べて、ROIの大きさを小さくすることが可能である。従って、対象物の位置がランダムに動く場合と比べて、データ伝送量を減らすことができる。
[変形例H]
 図20は、エンベデッドビジョンシステム1000をドローン(無人移動飛行体)に適用した例を表したものである。本変形例では、撮像装置100およびエンベデッドプロセッサ200がドローンに搭載されており、外部システム300は、エンベデッドプロセッサ200と無線通信可能に構成されており、地上に設置されている。
 このとき、ROI切り出し部112,131は、例えば、図21に示したように、フレームごとにダイナミックに、ROIの位置を変更してもよい。対象物が何らかの偏光特性を持つ場合(例えば、鏡面反射する物体等である場合)、偏光度や偏光角度等の偏光特性に応じて、ROIの位置を指定してもよい。このようにした場合には、複数フレームごとにROIの位置を変更した場合と比べて、ROIの大きさを小さくすることが可能である。従って、複数フレームごとにROIの位置を変更した場合と比べて、データ伝送量を減らすことができる。
 また、エンベデッドビジョンシステム1000をドローン(無人移動飛行体)に適用した場合に、例えば、図21に示したように、左から右の直線方向に進むドローンに搭載されたカメラが地上の建造物などに対してROI切り出し処理を行ったとする。この場合、建物の直上通過前に切り出されたROI画像は建物の左側からの画角の画像となっており、建物の直上通過後に切り出されたROI画像は建物の右側からの画角の画像となる。そのため、例えば、画像処理部127または画像処理部250は、これらの画像から視差データを得ることができる。その結果、例えば、画像処理部127または画像処理部250は、その視差データを利用して、3次元データを生成することができる。
[変形例I]
 図22は、1つの画像データ111Aに複数のROIが含まれている様子を表したものである。このように、1つの画像データ111Aに複数のROIが含まれている場合、エンコード部115,128,260は、例えば、図23に示したように、ROIごとにエンコードを行い、送信部116,129,270は、ROIごとに、圧縮画像データ115A,129A,260Aを送出してもよい。
 ところで、例えば、図24に示したようなパッキングされた複数のROIを含むデータをエンコードし、送出した場合には、図22、図24に記載のX,X,Y,Zの領域のデータ分だけ、余分にデータ伝送を行うことになる。一方、上述したように、複数のROIをROIごとに送出した場合には、送出されるデータには、そのような余分なデータが含まれることがないので、余分なデータの分だけ、データ伝送量を減らすことができる。
[変形例J]
 上記実施の形態において、例えば、図25に示したように、画像データ111Aから3つのROI画像データ112Aが抽出されたとする。この場合、エンコード部115,128,260は、例えば、図26に示したように、3つのROI画像データ112Aをデータフレームのパケット領域に埋め込んでもよい。ここで、データフレームは、通常、ヘッダ領域、パケット領域、およびフッタ領域を有している。図25では、便宜的に、フッタ領域の記載が省略されている。
 データフレームにおいて、パケット領域には、1ラインごとに、LongPacketのPayloadDataが含まれている。また、パケット領域には、例えば、図26に示したように、3つのROI画像データ112Aが含まれている。各ラインのLongPacketのPayloadDataには、3つのROI画像データ112Aにおける1ライン分のimageDataが含まれている。また、データフレームにおいて、ヘッダ領域には、EmbeddedDataが含まれている。EmbeddedDataとは、データフレームのヘッダもしくはフッタに埋め込むことの可能な追加情報を指している。このとき、EmbeddedDataには、メタデータ(metaData)としてのROI位置情報113Aが含まれている。
 メタデータ(metaData)には、例えば、図27に示したように、ROI ID,Upper Left Coordinate,Height,Width,Exposure Tiem,Gain Settingなどが含まれている。
 このように、3つのROI画像データ112Aをデータフレームのパケット領域に埋め込むことにより、画像データ111Aをデータフレームのパケット領域に埋め込む場合と比べて、伝送データ量を削減することができる。
 また、上記実施の形態において、エンコード部115,128,260は、10bitのRGB画像データを16bitまたは32bitのアライメントデータの30bitデータとしてパッキングしてもよい。このようにした場合にも、伝送データ量を削減することができる。
 以上、実施の形態およびその変形例を挙げて本開示を説明したが、本開示は上記実施の形態等に限定されるものではなく、種々変形が可能である。なお、本明細書中に記載された効果は、あくまで例示である。本開示の効果は、本明細書中に記載された効果に限定されるものではない。本開示が、本明細書中に記載された効果以外の効果を持っていてもよい。
 また、例えば、本開示は以下のような構成を取ることができる。
(1)
 外部から入力された外部情報に基づいて、撮像により得られた画像データにおけるROI(Region Of Interest)位置情報を生成する生成部と、
 前記ROI位置情報を用いて前記画像データからROI画像データを抽出する抽出部と、
 前記ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記ROI位置情報を補正する補正部と
 を備えた
 撮像装置。
(2)
 前記外部情報は、前記対象物の位置情報および速度情報の少なくとも一方を含む
 (1)に記載の撮像装置。
(3)
 前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれているか否かを判定する判定部を更に備えた
 (1)または(2)に記載の撮像装置。
(4)
 前記補正部は、前記判定部による判定結果に応じて前記ROI位置情報を補正する
 (3)に記載の撮像装置。
(5)
 撮像により前記画像データを生成する撮像素子を更に備え、
 前記補正部は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記撮像素子の露光タイミングを補正する
 (1)ないし(4)のいずれか1つに記載の撮像装置。
(6)
 前記外部情報は、前記対象物の速度情報として、前記対象物の移動方向の移動速度を含む
 (2)に記載の撮像装置。
(7)
 前記外部情報は、前記対象物の位置情報として、前記対象物の移動方向と直交する方向の座標を含む
 (6)に記載の撮像装置。
(8)
 撮像装置と、
 外部装置と
 を備え、
 前記撮像装置は、
 外部から入力された外部情報に基づいて、撮像により得られた画像データにおけるROI位置情報を生成する生成部と、
 前記ROI位置情報を用いて前記画像データからROI画像データを抽出する抽出部と、
 前記ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記ROI位置情報を補正する補正部と、
 前記ROI画像データを、第1インターフェース規格で前記外部装置に出力する出力部と
 を有し、
 前記外部装置は、
 前記第1インターフェース規格で前記ROI画像データの入力を受け付ける受付部と、
 前記受付部で受け付けた前記ROI画像データを、第2インターフェース規格で外部システムに出力するインターフェース変換部と
 を有する
 データ伝送システム。
(9)
 前記外部情報は、前記対象物の位置情報および速度情報の少なくとも一方を含む
 (8)に記載のデータ伝送システム。
(10)
 前記撮像装置は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれているか否かを判定する判定部を更に備えた
 (8)または(9)に記載のデータ伝送システム。
(11)
 前記補正部は、前記判定部による判定結果に応じて前記ROI位置情報を補正する
 (10)に記載のデータ伝送システム。
(12)
 前記撮像装置は、撮像により前記画像データを生成する撮像素子を更に備え、
 前記補正部は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記撮像素子の露光タイミングを補正する
 (8)ないし(11)のいずれか1つに記載のデータ伝送システム。
(13)
 撮像装置と、
 外部装置と
 を備え、
 前記撮像装置は、
 ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出する抽出部と、
 前記ROI画像データを、第1インターフェース規格で前記外部装置に出力する第1出力部と
 を有し、
 前記外部装置は、
 前記第1インターフェース規格で前記ROI画像データの入力を受け付ける受付部と、
 外部から入力された外部情報に基づいて、前記ROI位置情報を生成する生成部と、
 前記受付部で受け付けたROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記ROI位置情報を補正する補正部と、
 前記生成部で生成された前記ROI位置情報、または、前記補正部での補正により得られたROI位置情報を前記抽出部に出力する第2出力部と、
 前記ROI画像データを、第2インターフェース規格で外部システムに出力するインターフェース変換部と
 を有する
 データ伝送システム。
(14)
 前記外部情報は、前記対象物の位置情報および速度情報の少なくとも一方を含む
 (13)に記載のデータ伝送システム。
(15)
 前記外部装置は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれているか否かを判定する判定部を更に備えた
 (13)または(14)に記載のデータ伝送システム。
(16)
 前記補正部は、前記判定部による判定結果に応じて前記ROI位置情報を補正する
 (15)に記載のデータ伝送システム。
(17)
 前記撮像装置は、撮像により前記画像データを生成する撮像素子を更に備え、
 前記補正部は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記撮像素子の露光タイミングを補正し、
 前記第2出力部は、前記補正部での補正により得られた前記露光タイミングを前記撮像素子に出力する
 (13)ないし(16)のいずれか1つに記載のデータ伝送システム。
(18)
 外部から入力された外部情報に基づいて、ROI位置情報を生成することと、
 前記ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出することと、
 前記ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記ROI位置情報を補正することと
 を含む
 データ伝送方法。
(19)
 前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記撮像素子の露光タイミングを補正すること
 を更に含む
 (18)に記載のデータ伝送方法。
 本開示の一実施形態に係る撮像装置によれば、ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出するようにしたので、圧縮以外の方法でデータ量を削減することができ、さらに、所定のインターフェース規格でデータを出力する前の段階で、データ量を削減することができる。これにより、外部装置が低速のインターフェース規格に変換する装置であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。その結果、データ伝送を円滑に行うことができる。
 本開示の一実施形態に係る第1のデータ伝送システムによれば、ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出するようにしたので、圧縮以外の方法でデータ量を削減することができ、さらに、第1インターフェース規格でデータを出力する前の段階で、データ量を削減することができる。これにより、第2インターフェース規格が低速のインターフェース規格であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。その結果、データ伝送を円滑に行うことができる。
 本開示の一実施形態に係る第2のデータ伝送システムによれば、ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出するようにしたので、圧縮以外の方法でデータ量を削減することができ、さらに、第1インターフェース規格でデータを出力する前の段階で、データ量を削減することができる。これにより、第2インターフェース規格が低速のインターフェース規格であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。その結果、データ伝送を円滑に行うことができる。
 本開示の一実施形態に係るデータ伝送方法によれば、外部から入力された外部情報に基づいて生成されたROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出するようにしたので、圧縮以外の方法でデータ量を削減することができ、さらに、第1インターフェース規格でデータを出力する前の段階で、データ量を削減することができる。これにより、第2インターフェース規格が低速のインターフェース規格であった場合であっても、データ伝送が行えなくなるおそれを低減することができる。その結果、データ伝送を円滑に行うことができる。
 本出願は、日本国特許庁において2019年8月30日に出願された日本特許出願番号2019-158784を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (19)

  1.  外部から入力された外部情報に基づいて、撮像により得られた画像データにおけるROI(Region Of Interest)位置情報を生成する生成部と、
     前記ROI位置情報を用いて前記画像データからROI画像データを抽出する抽出部と、
     前記ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記ROI位置情報を補正する補正部と
     を備えた
     撮像装置。
  2.  前記外部情報は、前記対象物の位置情報および速度情報の少なくとも一方を含む
     請求項1に記載の撮像装置。
  3.  前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれているか否かを判定する判定部を更に備えた
     請求項1に記載の撮像装置。
  4.  前記補正部は、前記判定部による判定結果に応じて前記ROI位置情報を補正する
     請求項3に記載の撮像装置。
  5.  撮像により前記画像データを生成する撮像素子を更に備え、
     前記補正部は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記撮像素子の露光タイミングを補正する
     請求項1に記載の撮像装置。
  6.  前記外部情報は、前記対象物の速度情報として、前記対象物の移動方向の移動速度を含む
     請求項2に記載の撮像装置。
  7.  前記外部情報は、前記対象物の位置情報として、前記対象物の移動方向と直交する方向の座標を含む
     請求項6に記載の撮像装置。
  8.  撮像装置と、
     外部装置と
     を備え、
     前記撮像装置は、
     外部から入力された外部情報に基づいて、撮像により得られた画像データにおけるROI位置情報を生成する生成部と、
     前記ROI位置情報を用いて前記画像データからROI画像データを抽出する抽出部と、
     前記ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記ROI位置情報を補正する補正部と、
     前記ROI画像データを、第1インターフェース規格で前記外部装置に出力する出力部と
     を有し、
     前記外部装置は、
     前記第1インターフェース規格で前記ROI画像データの入力を受け付ける受付部と、
     前記受付部で受け付けた前記ROI画像データを、第2インターフェース規格で外部システムに出力するインターフェース変換部と
     を有する
     データ伝送システム。
  9.  前記外部情報は、画像解析によって、もしくはセンサ出力に基づいて生成される
     請求項8に記載のデータ伝送システム。
  10.  前記撮像装置は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれているか否かを判定する判定部を更に備えた
     請求項8に記載のデータ伝送システム。
  11.  前記補正部は、前記判定部による判定結果に応じて前記ROI位置情報を補正する
     請求項10に記載のデータ伝送システム。
  12.  前記撮像装置は、撮像により前記画像データを生成する撮像素子を更に備え、
     前記補正部は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記撮像素子の露光タイミングを補正する
     請求項8に記載のデータ伝送システム。
  13.  撮像装置と、
     外部装置と
     を備え、
     前記撮像装置は、
     ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出する抽出部と、
     前記ROI画像データを、第1インターフェース規格で前記外部装置に出力する第1出力部と
     を有し、
     前記外部装置は、
     前記第1インターフェース規格で前記ROI画像データの入力を受け付ける受付部と、
     外部から入力された外部情報に基づいて、前記ROI位置情報を生成する生成部と、
     前記受付部で受け付けたROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記ROI位置情報を補正する補正部と、
     前記生成部で生成された前記ROI位置情報、または、前記補正部での補正により得られたROI位置情報を前記抽出部に出力する第2出力部と、
     前記ROI画像データを、第2インターフェース規格で外部システムに出力するインターフェース変換部と
     を有する
     データ伝送システム。
  14.  前記外部情報は、画像解析によって、もしくはセンサ出力に基づいて生成される
     請求項13に記載のデータ伝送システム。
  15.  前記外部装置は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれているか否かを判定する判定部を更に備えた
     請求項13に記載のデータ伝送システム。
  16.  前記補正部は、前記判定部による判定結果に応じて前記ROI位置情報を補正する
     請求項15に記載のデータ伝送システム。
  17.  前記撮像装置は、撮像により前記画像データを生成する撮像素子を更に備え、
     前記補正部は、前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記撮像素子の露光タイミングを補正し、
     前記第2出力部は、前記補正部での補正により得られた前記露光タイミングを前記撮像素子に出力する
     請求項13に記載のデータ伝送システム。
  18.  外部から入力された外部情報に基づいて、ROI位置情報を生成することと、
     前記ROI位置情報を用いて、撮像により得られた画像データからROI画像データを抽出することと、
     前記ROI画像データに対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記ROI位置情報を補正することと
     を含む
     データ伝送方法。
  19.  前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれていない場合には前記ROI画像データに前記対象物の全体もしくは所定以上の割合が含まれるように前記撮像素子の露光タイミングを補正すること
     を更に含む
     請求項18に記載のデータ伝送方法。
PCT/JP2020/022300 2019-08-30 2020-06-05 撮像装置、データ伝送システム、及びデータ伝送方法 WO2021039012A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-158784 2019-08-30
JP2019158784 2019-08-30

Publications (1)

Publication Number Publication Date
WO2021039012A1 true WO2021039012A1 (ja) 2021-03-04

Family

ID=74683607

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022300 WO2021039012A1 (ja) 2019-08-30 2020-06-05 撮像装置、データ伝送システム、及びデータ伝送方法

Country Status (1)

Country Link
WO (1) WO2021039012A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279568A (ja) * 2005-03-29 2006-10-12 Fujitsu Ltd 撮影装置
JP2008171141A (ja) * 2007-01-10 2008-07-24 Omron Corp 画像処理装置および方法、並びに、プログラム
JP2010219581A (ja) * 2009-03-13 2010-09-30 Panasonic Corp 画像通信システム
JP2011234065A (ja) * 2010-04-27 2011-11-17 Nec Corp 動画像通信システム
JP2014039201A (ja) * 2012-08-17 2014-02-27 Nippon Telegr & Teleph Corp <Ntt> 複数カメラ利用時のroiを用いた遠隔制御の方法
JP2014160017A (ja) * 2013-02-20 2014-09-04 Nippon Telegr & Teleph Corp <Ntt> 管理装置、方法及びプログラム
WO2018225449A1 (ja) * 2017-06-09 2018-12-13 ソニーセミコンダクタソリューションズ株式会社 映像送信装置および映像受信装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279568A (ja) * 2005-03-29 2006-10-12 Fujitsu Ltd 撮影装置
JP2008171141A (ja) * 2007-01-10 2008-07-24 Omron Corp 画像処理装置および方法、並びに、プログラム
JP2010219581A (ja) * 2009-03-13 2010-09-30 Panasonic Corp 画像通信システム
JP2011234065A (ja) * 2010-04-27 2011-11-17 Nec Corp 動画像通信システム
JP2014039201A (ja) * 2012-08-17 2014-02-27 Nippon Telegr & Teleph Corp <Ntt> 複数カメラ利用時のroiを用いた遠隔制御の方法
JP2014160017A (ja) * 2013-02-20 2014-09-04 Nippon Telegr & Teleph Corp <Ntt> 管理装置、方法及びプログラム
WO2018225449A1 (ja) * 2017-06-09 2018-12-13 ソニーセミコンダクタソリューションズ株式会社 映像送信装置および映像受信装置

Similar Documents

Publication Publication Date Title
KR102509132B1 (ko) 영상 송신 장치 및 영상 수신 장치
KR101512222B1 (ko) 다중 이미지 센서들로부터 데이터의 결합
KR20130028095A (ko) 다중 이미지 센서들로부터 데이터의 결합
TWI812609B (zh) 視訊傳輸裝置及視訊接收裝置
JP7007160B2 (ja) 送信装置
JP7357620B2 (ja) 画像処理装置、および画像処理システム
KR102641559B1 (ko) 송신 장치
JP2014222825A (ja) 映像処理装置および映像処理方法
US20220217310A1 (en) Transmitting apparatus, receiving apparatus, and transmission system
CN114846608A (zh) 包括图像传感器的电子设备及其操作方法
US20220279110A1 (en) Imaging device, processing device, data transmission system, and data transmission method
WO2021039012A1 (ja) 撮像装置、データ伝送システム、及びデータ伝送方法
JP7152475B2 (ja) 送信装置、受信装置、及び通信システム
TWI827725B (zh) 圖像處理裝置及圖像處理方法
JP7450704B2 (ja) 送信装置、受信装置及び伝送システム
US20220245828A1 (en) Transmitter, receiver, and communication system
WO2022063060A1 (zh) 双模态信号处理系统和方法
KR102471978B1 (ko) 이미지의 에러 데이터를 보정하여 압축하기 위한 장치 및 그에 관한 방법
US20210306624A1 (en) Electronic device for performing image compression and operating method of electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20859345

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20859345

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP