JP2020198535A - Imaging device, information processing device, imaging method, information processing method, and program - Google Patents

Imaging device, information processing device, imaging method, information processing method, and program Download PDF

Info

Publication number
JP2020198535A
JP2020198535A JP2019103387A JP2019103387A JP2020198535A JP 2020198535 A JP2020198535 A JP 2020198535A JP 2019103387 A JP2019103387 A JP 2019103387A JP 2019103387 A JP2019103387 A JP 2019103387A JP 2020198535 A JP2020198535 A JP 2020198535A
Authority
JP
Japan
Prior art keywords
data
pixel
change
state
data representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019103387A
Other languages
Japanese (ja)
Other versions
JP7393851B2 (en
Inventor
慎太朗 芝
Shintaro Shiba
慎太朗 芝
陸 荒川
Riku Arakawa
陸 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019103387A priority Critical patent/JP7393851B2/en
Publication of JP2020198535A publication Critical patent/JP2020198535A/en
Priority to JP2023119527A priority patent/JP2023130522A/en
Application granted granted Critical
Publication of JP7393851B2 publication Critical patent/JP7393851B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

To enable more appropriate function to be realized in an information processing technique using a digital image.SOLUTION: In an imaging unit 1, an imaging unit 10 transmits data representing a change in the state of a pixel corresponding to the imaging element on the basis of a change in the output of the imaging element provided in an imaging sensor that images a subject. A data receiving unit 21 asynchronously receives the data representing the change in the state of the pixels transmitted by the imaging unit 10 for each pixel. A storage unit 20B stores the data representing the change in the state of the pixel, time information regarding the data representing the change in the state of the pixel, and an address of the pixel in a preset storage format. A data storage control unit 22 stores the data representing the change in the state of the pixels received by the data receiving unit 21 in the storage unit 20B as data in a storage format.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、情報処理装置、撮像方法、情報処理方法及びプログラムに関する。 The present invention relates to an image pickup apparatus, an information processing apparatus, an imaging method, an information processing method and a program.

近年、自動車の自動運転やAI(Artificial Inteligence)等の幅広い分野において、デジタル画像が活用されるようになっている。
デジタル画像としては、一般に、実世界をカラー画像として撮像した静止画像または動画像等が用いられている。
なお、特許文献1には、デジタル画像を用いて車両等の物体を認識する技術が開示されている。
In recent years, digital images have come to be used in a wide range of fields such as automatic driving of automobiles and AI (Artificial Intelligence).
As the digital image, a still image or a moving image obtained by capturing the real world as a color image is generally used.
Patent Document 1 discloses a technique for recognizing an object such as a vehicle using a digital image.

特開2018−097766号公報JP-A-2018-0976766

しかしながら、デジタル画像を用いてアプリケーションを構築する場合、従来用いられているデジタル画像(実世界をカラー画像として撮像した静止画像または動画像等)では、目的とする機能に適さない場合がある。
例えば、自動車の自動運転等において障害物を検出しようとする場合、カメラに近い物体ほど動きが速くなることから、撮像されたデジタル画像にはブレが生じる可能性が高くなる。そのため、カメラに近く、注目度が高い物体ほど、正確に検出することが困難になり、障害物の検出を適切に行えない事態が生じ得る。
また、従来用いられているデジタル画像は、撮像センサから出力されたデータを基に1フレームの画像を生成する処理を経て出力されるため、高速な処理が要求されるアプリケーション等において、充分な処理速度を確保することが困難な場合がある。
即ち、従来のデジタル画像を用いた情報処理技術では、適切な機能を実現できない場合があった。
However, when constructing an application using a digital image, a conventionally used digital image (a still image or a moving image obtained by capturing a real world as a color image, etc.) may not be suitable for the desired function.
For example, when trying to detect an obstacle in automatic driving of an automobile or the like, an object closer to the camera moves faster, so that the captured digital image is more likely to be blurred. Therefore, an object that is closer to the camera and has a higher degree of attention becomes more difficult to detect accurately, and an obstacle may not be detected properly.
Further, since the conventionally used digital image is output after a process of generating a one-frame image based on the data output from the image sensor, sufficient processing is performed in an application or the like that requires high-speed processing. It can be difficult to ensure speed.
That is, there are cases where an appropriate function cannot be realized by the conventional information processing technology using a digital image.

本発明の課題は、デジタル画像を用いた情報処理技術において、より適切な機能を実現可能とすることである。 An object of the present invention is to make it possible to realize more appropriate functions in an information processing technique using a digital image.

上記課題を解決するため、本発明の一実施形態に係る撮像装置は、
被写体を撮像する撮像センサに備えられた撮像素子の出力の変化に基づいて、前記撮像素子に対応する画素の状態の変化を表すデータを送信する撮像手段と、
前記撮像手段によって送信された前記画素の状態の変化を表すデータを、画素毎に非同期的に受信するデータ受信手段と、
前記画素の状態の変化を表すデータと、当該画素の状態の変化を表すデータに関する時刻情報及び画素のアドレスとが、予め設定された保存形式で記憶される記憶手段と、
前記データ受信手段によって受信された前記画素の状態の変化を表すデータを、前記保存形式のデータとして前記記憶手段に記憶させる記憶制御手段と、
を備えることを特徴とする。
In order to solve the above problems, the imaging device according to the embodiment of the present invention is
An imaging means that transmits data representing a change in the state of pixels corresponding to the image sensor based on a change in the output of the image sensor provided in the image sensor that images the subject.
A data receiving means that asynchronously receives data representing a change in the state of the pixel transmitted by the imaging means for each pixel.
A storage means in which data representing a change in the state of the pixel, time information relating to the data representing the change in the state of the pixel, and the address of the pixel are stored in a preset storage format.
A storage control means for storing data representing a change in the state of the pixel received by the data receiving means in the storage means as data in the storage format.
It is characterized by having.

本発明によれば、デジタル画像を用いた情報処理技術において、より適切な機能を実現することが可能となる。 According to the present invention, it is possible to realize more appropriate functions in the information processing technology using digital images.

本実施形態に係る撮像装置1全体の構成を示す模式図である。It is a schematic diagram which shows the structure of the whole image pickup apparatus 1 which concerns on this embodiment. 出力データ記憶部24の記憶領域の構成を示す模式図である。It is a schematic diagram which shows the structure of the storage area of the output data storage unit 24. 撮像ユニット10の動き量に対する単位時間当たりの受信データ量(撮像デバイス12の出力データ量)の基準範囲を示す模式図である。It is a schematic diagram which shows the reference range of the received data amount (the output data amount of the imaging device 12) per unit time with respect to the movement amount of the imaging unit 10. 情報処理ユニット20で実行されるデータ受信処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the data reception process executed by the information processing unit 20. 情報処理ユニット20で実行される閾値調整処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the threshold value adjustment process executed by the information processing unit 20. 情報処理ユニット20で実行されるデータ格納処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the data storage process executed by the information processing unit 20. 情報処理ユニット20で実行されるアプリケーション実行処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of application execution processing executed by information processing unit 20. 撮像素子に特定波長の光を透過するフィルタが配置された撮像センサの構成例を示す模式図である。It is a schematic diagram which shows the structural example of the image pickup sensor in which the filter which transmits light of a specific wavelength is arranged in the image pickup element. 1次元の連続アドレスを有する記憶領域に保存形式1の画素データが記憶された状態の一例を示す模式図である。It is a schematic diagram which shows an example of the state in which the pixel data of a storage format 1 is stored in the storage area which has a one-dimensional continuous address. 具体的適用例1における撮像装置1全体の構成を示す模式図である。It is a schematic diagram which shows the structure of the whole image pickup apparatus 1 in the specific application example 1. FIG. 情報処理ユニット20の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an information processing unit 20. 撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データにより物体の形状を補間する概念を示す模式図である。It is a schematic diagram which shows the concept of interpolating the shape of an object by the pixel data including the data which shows the state of the pixel imaged by the image pickup unit 10. 自動運転のシミュレーションが行われる経路の一例を示す模式図である。It is a schematic diagram which shows an example of the path where the simulation of automatic driving is performed. 撮像装置1が実行する環境構築処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the environment construction process executed by the image pickup apparatus 1. 撮像装置1が実行するシミュレーション処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the simulation process executed by the image pickup apparatus 1. 撮像装置1が実行する解析処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the analysis process executed by the image pickup apparatus 1.

以下、本発明の実施形態について、図面を参照して説明する。
[第1実施形態]
[構成]
図1は、本実施形態に係る撮像装置1全体の構成を示す模式図である。
撮像装置1は、撮像素子が配列された撮像センサを有する撮像ユニット10において、画素毎の状態(ここでは輝度値の変化とする)を検出し、情報処理ユニット20において、その検出結果のデータ(以下、適宜「画素データ」と称する。)を受信し、所定の保存形式で記憶領域に格納する。また、情報処理ユニット20は、記憶領域に格納された撮像ユニット10の検出結果のデータ(画素データ)を読み出し、各種アプリケーションで用いると共に、アプリケーションの要求等に応じて、撮像ユニット10における撮像パラメータ(画素毎の状態を検出するための閾値等)を変更する。
そのため、撮像装置1においては、画角における被写体の変化を画素毎に検出し、変化が生じた画素について、変化が生じていることを示す画素データとして出力することができる。
これにより、撮像装置1は、画角における被写体の変化を少ないデータ量で高速に検出することを可能としている。
また、撮像装置1は、所定の保存形式で格納された画素データを読み出し、各種アプリケーションに用いることができる。
したがって、撮像装置1によれば、デジタル画像を用いた情報処理技術において、より適切な機能を実現することが可能となる。
以下、撮像装置1の構成を具体的に説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
[Constitution]
FIG. 1 is a schematic view showing the configuration of the entire image pickup apparatus 1 according to the present embodiment.
The image pickup device 1 detects a state for each pixel (here, it is a change in the brightness value) in the image pickup unit 10 having an image pickup sensor in which the image pickup elements are arranged, and the information processing unit 20 detects the detection result data ( Hereinafter, it is appropriately referred to as “pixel data”) and stores it in a storage area in a predetermined storage format. Further, the information processing unit 20 reads out the detection result data (pixel data) of the imaging unit 10 stored in the storage area and uses it in various applications, and also receives imaging parameters (pixel data) in the imaging unit 10 in response to a request of the application or the like. Change the threshold for detecting the state of each pixel, etc.).
Therefore, the image pickup apparatus 1 can detect a change in the subject at the angle of view for each pixel and output the changed pixel as pixel data indicating that the change has occurred.
This makes it possible for the imaging device 1 to detect changes in the subject at an angle of view at high speed with a small amount of data.
Further, the image pickup apparatus 1 can read pixel data stored in a predetermined storage format and use it for various applications.
Therefore, according to the image pickup apparatus 1, it is possible to realize more appropriate functions in the information processing technology using digital images.
Hereinafter, the configuration of the image pickup apparatus 1 will be specifically described.

図1に示すように、撮像装置1は、撮像ユニット10と、情報処理ユニット20と、センサユニット30とを備え、情報処理ユニット20は、撮像ユニット10及びセンサユニット30と有線または無線の通信ネットワークによって接続されている。なお、撮像ユニット10、情報処理ユニット20及びセンサユニット30のうちの2つあるいは全てを一体として構成することも可能である。 As shown in FIG. 1, the image pickup apparatus 1 includes an image pickup unit 10, an information processing unit 20, and a sensor unit 30, and the information processing unit 20 is a wired or wireless communication network with the image pickup unit 10 and the sensor unit 30. Connected by. It is also possible to integrally configure two or all of the image pickup unit 10, the information processing unit 20, and the sensor unit 30.

撮像ユニット10は、レンズ11と、撮像デバイス12とを備えている。
レンズ11は、画角内の被写体からの光線を集束させ、撮像デバイス12の撮像センサ上に被写体像を結像させる。
撮像デバイス12は、複数の撮像素子が配列された撮像センサ及び撮像センサの出力信号を処理する処理回路を含んで構成される。撮像デバイス12は、撮像素子に対応する画素毎に、レンズ11によって結像された被写体像の各部の状態を表す信号を出力する。即ち、被写体像の各部の状態を表す信号により、撮像デバイス12から各画素の状態を表すデータを含む画素データが出力される。本実施形態においては、各画素の状態を表すパラメータの一例として、各画素の輝度値の変化が用いられている。即ち、撮像デバイス12は、撮像素子毎に蓄積される電荷の変化量が設定された閾値に達した場合に、各画素の状態を表すデータ(polarity)として、増加を表す「+1」または減少を表す「−1」を出力する。具体的には、撮像デバイス12は、画素毎に検出される輝度の増加が設定された閾値Th1以上となった場合に、増加を表すデータ(+1)を出力し、画素毎に検出される輝度の減少が設定された閾値Th1以上となった場合に、減少を表すデータ(−1)を出力する。なお、輝度の増加及び減少の判定に用いられる閾値Th1は、情報処理ユニット20によって設定される。
上述のような構成により、撮像デバイス12は、画素毎に、非同期的に画素の状態を表すデータ(+1または−1)を含む画素データを出力することとなる。
The image pickup unit 10 includes a lens 11 and an image pickup device 12.
The lens 11 focuses the light rays from the subject within the angle of view and forms a subject image on the image sensor of the image pickup device 12.
The image pickup device 12 includes an image pickup sensor in which a plurality of image pickup elements are arranged, and a processing circuit for processing an output signal of the image pickup sensor. The image pickup device 12 outputs a signal representing the state of each part of the subject image imaged by the lens 11 for each pixel corresponding to the image pickup element. That is, pixel data including data representing the state of each pixel is output from the imaging device 12 by the signal representing the state of each part of the subject image. In the present embodiment, a change in the brightness value of each pixel is used as an example of a parameter representing the state of each pixel. That is, when the amount of change in the electric charge accumulated for each image sensor reaches a set threshold value, the image pickup device 12 sets "+1" or decrease as data (polarity) representing the state of each pixel. The representative "-1" is output. Specifically, the imaging device 12 outputs data (+1) indicating an increase when the increase in the brightness detected for each pixel becomes the set threshold Th1 or more, and the brightness detected for each pixel. When the decrease of is equal to or higher than the set threshold value Th1, the data (-1) indicating the decrease is output. The threshold value Th1 used for determining the increase and decrease of the brightness is set by the information processing unit 20.
With the above configuration, the imaging device 12 asynchronously outputs pixel data including data (+1 or -1) representing the pixel state for each pixel.

情報処理ユニット20は、PC(Personal Computer)、マイクロコンピュータあるいはスマートフォン等の情報処理装置によって構成され、プロセッサ20Aと、記憶部20Bとを備えている。
プロセッサ20Aは、CPU(Central Processing Unit)等の演算処理装置によって構成される。プロセッサ20Aが情報処理のためのプログラムを実行することにより、プロセッサ20Aには、機能的構成として、データ受信部21と、データ格納制御部22と、処理部23とが実現される。
The information processing unit 20 is composed of an information processing device such as a PC (Personal Computer), a microcomputer, or a smartphone, and includes a processor 20A and a storage unit 20B.
The processor 20A is composed of an arithmetic processing unit such as a CPU (Central Processing Unit). When the processor 20A executes a program for information processing, the processor 20A is provided with a data receiving unit 21, a data storage control unit 22, and a processing unit 23 as functional configurations.

記憶部20Bは、ハードディスクあるいは半導体メモリ等の記憶装置によって構成され、その記憶領域の一部に、出力データ記憶部24が形成される。
出力データ記憶部24には、撮像ユニット10から出力された画素データが記憶される。
図2は、出力データ記憶部24の記憶領域の構成を示す模式図である。
図2に示すように、出力データ記憶部24には、撮像ユニット10が撮像する画像のアドレスに対応したアドレスを有する2次元メモリ(フレームメモリ)が形成される。具体的には、出力データ記憶部24には、各画素の状態を表すデータが増加している場合に用いられるフレームメモリ(増加時用フレームメモリ24a)と、各画素の状態を表すデータが減少している場合に用いられるフレームメモリ(減少時用フレームメモリ24b)とが独立して形成される。
The storage unit 20B is composed of a storage device such as a hard disk or a semiconductor memory, and an output data storage unit 24 is formed in a part of the storage area.
The output data storage unit 24 stores the pixel data output from the image pickup unit 10.
FIG. 2 is a schematic diagram showing the configuration of the storage area of the output data storage unit 24.
As shown in FIG. 2, the output data storage unit 24 is formed with a two-dimensional memory (frame memory) having an address corresponding to the address of the image captured by the image pickup unit 10. Specifically, in the output data storage unit 24, the frame memory (frame memory 24a for increasing) used when the data representing the state of each pixel is increasing, and the data representing the state of each pixel are reduced. The frame memory (frame memory for reduction 24b) used in this case is formed independently.

これら増加時用フレームメモリ24a及び減少時用フレームメモリ24bには、後述するように、データ格納制御部22によって、撮像ユニット10から出力された画素データが記憶される。
なお、出力データ記憶部24(増加時用フレームメモリ24a及び減少時用フレームメモリ24b)の記憶内容は、所定時間毎(例えば、10[ms]毎)にリセットされる。ただし、リセット後にも過去の画素データを参照可能とするため、バックアップ用の増加時用フレームメモリ24a及び減少時用フレームメモリ24bを別の記憶領域に形成することとしてもよい。
As will be described later, the pixel data output from the image pickup unit 10 is stored in the increasing frame memory 24a and the decreasing frame memory 24b by the data storage control unit 22.
The stored contents of the output data storage unit 24 (frame memory 24a for increasing and frame memory 24b for decreasing) are reset every predetermined time (for example, every 10 [ms]). However, since the past pixel data can be referred to even after the reset, the increasing frame memory 24a and the decreasing frame memory 24b for backup may be formed in different storage areas.

データ受信部21は、撮像ユニット10の撮像デバイス12から出力される画素データを非同期的に受信し、受信した画素データを受信データ用のバッファに一時的に記憶する。また、データ受信部21は、情報処理ユニット20の内部動作を規定する所定のタイミングで(例えば、1[ms]毎に)、受信データ用のバッファ内に記憶された画素データをデータ格納制御部22に出力する。具体的には、データ受信部21は、撮像デバイス12から画素データを受信すると、受信した時刻情報と共に、画素のアドレス、各画素の状態を表すデータ(+1または−1)を受信データ用のバッファに記憶する。そして、データ受信部21は、所定のタイミングで、受信データ用のバッファ内に記憶されている時刻情報、画素のアドレス、各画素の状態を表すデータ(+1または−1)を対応付けて、データ格納制御部22に出力する。 The data receiving unit 21 asynchronously receives the pixel data output from the imaging device 12 of the imaging unit 10, and temporarily stores the received pixel data in a buffer for receiving data. Further, the data receiving unit 21 stores pixel data stored in the buffer for receiving data at a predetermined timing (for example, every 1 [ms]) that defines the internal operation of the information processing unit 20. Output to 22. Specifically, when the data receiving unit 21 receives the pixel data from the imaging device 12, the data receiving unit 21 receives the received time information, the pixel address, and the data (+1 or -1) representing the state of each pixel as a buffer for the received data. Remember in. Then, the data receiving unit 21 associates the time information stored in the buffer for the received data, the pixel address, and the data (+1 or -1) representing the state of each pixel with the data at a predetermined timing. Output to the storage control unit 22.

また、本実施形態において、データ受信部21は、単位時間あたりの受信データ量及び撮像ユニット10の動き量に基づいて、撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1を変更する。
図3は、撮像ユニット10の動き量に対する単位時間当たりの受信データ量(撮像デバイス12の出力データ量)の基準範囲を示す模式図である。
図3に示すように、撮像ユニット10の動き量(回転運動及び並進運動)が大きくなるほど、単位時間当たりの受信データ量の基準値(図3中の破線)が大きくなる。また、単位時間当たりの受信データ量の基準範囲は、基準値から一定のデータ量以内に設定されている。
図3によれば、撮像ユニット10の動き量に応じて、単位時間当たりの受信データ量として適正な範囲(基準範囲)が定まり、基準範囲から逸脱している場合、撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1が不適切な値(過大または過小)になっていると考えられる。
Further, in the present embodiment, the data receiving unit 21 changes the threshold value Th1 used for determining the increase and decrease of the brightness in the imaging device 12 based on the received data amount per unit time and the movement amount of the imaging unit 10. ..
FIG. 3 is a schematic diagram showing a reference range of the amount of received data (the amount of output data of the imaging device 12) per unit time with respect to the amount of movement of the imaging unit 10.
As shown in FIG. 3, the larger the movement amount (rotational movement and translational movement) of the imaging unit 10, the larger the reference value (broken line in FIG. 3) of the received data amount per unit time. Further, the reference range of the received data amount per unit time is set within a certain amount of data from the reference value.
According to FIG. 3, an appropriate range (reference range) as the amount of received data per unit time is determined according to the amount of movement of the imaging unit 10, and when the range deviates from the reference range, the brightness of the imaging device 12 increases. It is considered that the threshold value Th1 used for determining the decrease is an inappropriate value (excess or under).

即ち、単位時間当たりの受信データ量が、基準範囲を超えている場合、撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1を増加させることが適切であると考えられる。そのため、データ受信部21は、閾値Th1を増加させる指示を撮像デバイス12に出力する。また、単位時間当たりの受信データ量が、基準範囲を下回っている場合、撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1を減少させることが適切であると考えられる。そのため、データ受信部21は、閾値Th1を減少させる指示を撮像デバイス12に出力する。
なお、単位時間当たりの受信データ量として適正な範囲(基準範囲)は、撮像ユニット10の動きがない状態、動きが小さい状態、動きが大きい状態等において、各種被写体を撮像することにより、キャリブレーションを行って具体的な数値を設定することができる。
That is, when the amount of received data per unit time exceeds the reference range, it is considered appropriate to increase the threshold Th1 used for determining the increase and decrease of the brightness in the imaging device 12. Therefore, the data receiving unit 21 outputs an instruction to increase the threshold value Th1 to the imaging device 12. Further, when the amount of received data per unit time is less than the reference range, it is considered appropriate to reduce the threshold Th1 used for determining the increase and decrease of the brightness in the imaging device 12. Therefore, the data receiving unit 21 outputs an instruction to reduce the threshold value Th1 to the imaging device 12.
The appropriate range (reference range) for the amount of received data per unit time is calibrated by imaging various subjects in a state where the image pickup unit 10 does not move, a state where the movement is small, a state where the movement is large, and the like. Can be performed to set a specific numerical value.

また、データ受信部21は、処理部23から撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1の変更指示が入力された場合にも、変更指示の内容に応じて、閾値Th1を増加または減少させる指示を撮像デバイス12に出力する。
なお、データ受信部21は、撮像デバイス12から出力される受信データの分布(アドレスの偏り等)に基づいて、画角内の特定の領域にフォーカスしたり、ズームアップしたりすることとしてもよい。例えば、監視カメラにおける物体検出等を行う場合、侵入者が写された領域において画素の状態を表すデータが集中して出力されると考えられるため、データ受信部21が受信した画素データのアドレスが偏在している場合には、データ受信部21(または情報処理ユニット20の他の機能ブロック)が撮像ユニット10に対して、当該アドレス付近にズームアップする指示等を出力することができる。
Further, even when the data receiving unit 21 inputs a change instruction of the threshold value Th1 used for determining the increase and decrease of the brightness in the image pickup device 12 from the processing unit 23, the data receiving unit 21 sets the threshold value Th1 according to the content of the change instruction. An instruction to increase or decrease is output to the imaging device 12.
The data receiving unit 21 may focus on or zoom in on a specific area within the angle of view based on the distribution of received data (address bias, etc.) output from the imaging device 12. .. For example, when an object is detected by a surveillance camera, it is considered that the data representing the pixel state is concentrated and output in the area where the intruder is captured, so that the address of the pixel data received by the data receiving unit 21 is When the data is unevenly distributed, the data receiving unit 21 (or another functional block of the information processing unit 20) can output an instruction to zoom in to the vicinity of the address to the imaging unit 10.

データ格納制御部22は、データ受信部21から入力された画素データ(時刻情報、画素のアドレス、各画素の状態を表すデータ(+1または−1))を出力データ記憶部24に記憶する。
データ格納制御部22は、データ受信部21から入力された画素データにおいて、画素の状態を表すデータが増加を表す「+1」である場合、増加時用フレームメモリ24aにおいて、画素データの画素のアドレスと対応するアドレスに、時刻情報を格納する。また、データ格納制御部22は、データ受信部21から入力された画素データにおいて、画素の状態を表すデータが減少を表す「−1」である場合、減少時用フレームメモリ24bにおいて、画素データの画素のアドレスと対応するアドレスに、時刻情報を格納する。なお、本実施形態において、画素データが同一の画素において複数回出力された場合、増加時用フレームメモリ24aまたは減少時用フレームメモリ24bにおいて、当該画素の時刻情報が上書きされる。
The data storage control unit 22 stores the pixel data (time information, pixel address, data representing the state of each pixel (+1 or -1)) input from the data reception unit 21 in the output data storage unit 24.
In the pixel data input from the data receiving unit 21, when the data representing the pixel state is "+1" indicating the increase, the data storage control unit 22 has the pixel address of the pixel data in the frame memory 24a for increasing. The time information is stored in the address corresponding to. Further, when the data representing the pixel state is "-1" indicating the decrease in the pixel data input from the data receiving unit 21, the data storage control unit 22 sets the pixel data in the frame memory 24b for reduction. Time information is stored in the address corresponding to the pixel address. In the present embodiment, when the pixel data is output a plurality of times in the same pixel, the time information of the pixel is overwritten in the increasing frame memory 24a or the decreasing frame memory 24b.

これにより、増加時用フレームメモリ24aには、画素の輝度値の増加量が閾値Th1以上となった画素のアドレスに、その時刻情報が逐次書き込まれ、減少時用フレームメモリ24bには、画素の輝度値の減少量が閾値Th1以上となった画素のアドレスに、その時刻情報が逐次書き込まれることとなる。
なお、データ格納制御部22は、画素データが出力された際に判定に用いられた閾値Th1の値を取得し、時刻情報に加えて、閾値Th1の値を画素のアドレスに格納することとしてもよい。
As a result, the time information is sequentially written to the address of the pixel in which the increase amount of the brightness value of the pixel is the threshold Th1 or more in the frame memory 24a for increase, and the frame memory 24b for decrease is the pixel. The time information is sequentially written to the addresses of the pixels in which the amount of decrease in the luminance value is equal to or greater than the threshold value Th1.
The data storage control unit 22 may acquire the value of the threshold Th1 used for the determination when the pixel data is output, and store the value of the threshold Th1 in the pixel address in addition to the time information. Good.

処理部23は、出力データ記憶部24に記憶された画素データを読み出し、アプリケーションに応じた各種処理を実行する。処理部23においては、撮像ユニット10によって出力された画素データを用いる種々のアプリケーションを実行することが可能であり、例えば、自動運転における環境認識のためのアプリケーションや、監視カメラにおける物体検出のためのアプリケーション、さらに、これらに関連する機械学習やデータ処理等を実行することができる。 The processing unit 23 reads the pixel data stored in the output data storage unit 24 and executes various processes according to the application. The processing unit 23 can execute various applications using the pixel data output by the imaging unit 10, for example, an application for environment recognition in automatic operation and an object detection in a surveillance camera. Applications, as well as machine learning and data processing related to them, can be executed.

また、処理部23は、実行中のアプリケーションの要求等に応じて、撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1の変更指示をデータ受信部21に適宜出力することができる。
なお、処理部23は、出力データ記憶部24に記憶された画素データを読み出し、種々の加工を施して利用することができる。
例えば、増加時用フレームメモリ24a及び減少時用フレームメモリ24bに記憶された画素データ全体を対象として、所定時間内における各画素の輝度値の変化の回数分、撮像デバイス12における輝度の増加及び減少の判定に用いられた閾値Th1を符号付きで積分することにより、各画素における輝度値の実際の変化量を算出することができる。
Further, the processing unit 23 can appropriately output a change instruction of the threshold value Th1 used for determining the increase and decrease of the brightness in the imaging device 12 to the data receiving unit 21 in response to a request of the application being executed.
The processing unit 23 can read the pixel data stored in the output data storage unit 24 and perform various processing for use.
For example, the brightness of the imaging device 12 is increased or decreased by the number of changes in the brightness value of each pixel within a predetermined time for the entire pixel data stored in the frame memory 24a for increasing and the frame memory 24b for decreasing. By integrating the threshold value Th1 used in the determination of the above with a code, the actual amount of change in the luminance value in each pixel can be calculated.

また、増加時用フレームメモリ24a及び減少時用フレームメモリ24bそれぞれに記憶された画素データを対象として、所定時間内における各画素の輝度値の変化の回数分、撮像デバイス12における輝度の増加及び減少の判定に用いられた閾値Th1を積分することにより、各画素における輝度値の累積増加量及び累積減少量をそれぞれ算出することができる。
このように算出された画素のデータによってフレームのデータを構成することにより、被写体における状態の変化がマッピングされた画像(ここでは輝度の変化を表す画像)を生成することができる。
このように生成された画像を単独で、または、カラー画像と併用して用いることで、環境認識や物体検出等の性能を向上させることが可能となる。
Further, for the pixel data stored in each of the increasing frame memory 24a and the decreasing frame memory 24b, the brightness of the imaging device 12 is increased or decreased by the number of changes in the brightness value of each pixel within a predetermined time. By integrating the threshold value Th1 used for the determination of, the cumulative increase amount and the cumulative decrease amount of the luminance value in each pixel can be calculated respectively.
By constructing the frame data from the pixel data calculated in this way, it is possible to generate an image (here, an image showing the change in brightness) in which the change in the state of the subject is mapped.
By using the image generated in this way alone or in combination with a color image, it is possible to improve the performance of environment recognition, object detection, and the like.

なお、処理部23は、アプリケーションを実行する場合、シングルスレッド及びマルチスレッドのいずれによって処理を行うことも可能である。スレッドとは、並列で動作する異なるプロセスを意味する。
例えば、処理部23は、シングルスレッドによる処理を行っている場合に、そのスレッド内(同一のプロセス内)で、撮像ユニット10からの画素データの取得と、出力データ記憶部24からの画素データの読み出し等を同時に行うことができる。
また、処理部23は、マルチスレッドによる処理を行っている場合に、異なるスレッド間(異なるプロセス間)で、メモリ等を介して画素データの受け渡しを行いながら、第1のスレッドによる撮像ユニット10からの画素データの取得と、第2のスレッドによる出力データ記憶部24からの画素データの読み出し等を行うことができる。
When executing the application, the processing unit 23 can perform processing by either single thread or multi-thread. Threads mean different processes that run in parallel.
For example, when the processing unit 23 is performing processing by a single thread, the processing unit 23 acquires pixel data from the imaging unit 10 and obtains pixel data from the output data storage unit 24 in the thread (in the same process). Reading and the like can be performed at the same time.
Further, when the processing unit 23 is performing processing by multithreading, the processing unit 23 transfers pixel data between different threads (between different processes) via a memory or the like from the imaging unit 10 by the first thread. It is possible to acquire the pixel data of the above and read the pixel data from the output data storage unit 24 by the second thread.

センサユニット30は、加速度センサあるいはジャイロセンサ等、動きを検出するための各種センサを備えている。センサユニット30は、撮像ユニット10に取り付けること、または、撮像ユニット10と一体とされた情報処理ユニット20に取り付けることが可能となっており、撮像ユニット10の動きを検出するために設置される。センサユニット30の検出結果は、情報処理ユニット20に出力される。 The sensor unit 30 includes various sensors for detecting movement, such as an acceleration sensor or a gyro sensor. The sensor unit 30 can be attached to the image pickup unit 10 or to the information processing unit 20 integrated with the image pickup unit 10, and is installed to detect the movement of the image pickup unit 10. The detection result of the sensor unit 30 is output to the information processing unit 20.

[動作]
次に、撮像装置1の動作を説明する。
[データ受信処理]
図4は、情報処理ユニット20で実行されるデータ受信処理の流れを説明するフローチャートである。
データ受信処理は、撮像装置1の起動と共に開始され、繰り返し実行される。
ステップS1において、データ受信部21は、撮像デバイス12から画素データを受信したか否かの判定を行う。
撮像デバイス12から画素データを受信していない場合、ステップS1においてNOと判定されて、ステップS1の処理が繰り返される。
一方、撮像デバイス12から画素データを受信した場合、ステップS1においてYESと判定されて、処理はステップS2に移行する。
[motion]
Next, the operation of the image pickup apparatus 1 will be described.
[Data reception processing]
FIG. 4 is a flowchart illustrating a flow of data reception processing executed by the information processing unit 20.
The data reception process is started at the start of the imaging device 1 and is repeatedly executed.
In step S1, the data receiving unit 21 determines whether or not pixel data has been received from the imaging device 12.
When the pixel data is not received from the image pickup device 12, NO is determined in step S1, and the process of step S1 is repeated.
On the other hand, when the pixel data is received from the image pickup device 12, YES is determined in step S1, and the process proceeds to step S2.

ステップS2において、データ受信部21は、受信した画素データを受信データ用のバッファに記憶する。
ステップS3において、データ受信部21は、データ格納制御部22への出力タイミングとなっているか否かの判定を行う。
データ格納制御部22への出力タイミングとなっていない場合、ステップS3においてNOと判定されて、処理はステップS1に移行する。
一方、データ格納制御部22への出力タイミングとなっている場合、ステップS3においてYESと判定されて、処理はステップS4に移行する。
In step S2, the data receiving unit 21 stores the received pixel data in the received data buffer.
In step S3, the data receiving unit 21 determines whether or not the output timing is set to the data storage control unit 22.
If it is not the output timing to the data storage control unit 22, NO is determined in step S3, and the process proceeds to step S1.
On the other hand, when the output timing is set to the data storage control unit 22, YES is determined in step S3, and the process proceeds to step S4.

ステップS4において、データ受信部21は、受信データ用のバッファ内に記憶された画素データをデータ格納制御部22に出力する。
ステップS4の後、データ受信処理が繰り返される。
In step S4, the data receiving unit 21 outputs the pixel data stored in the buffer for the received data to the data storage control unit 22.
After step S4, the data reception process is repeated.

[閾値調整処理]
図5は、情報処理ユニット20で実行される閾値調整処理の流れを説明するフローチャートである。
閾値調整処理は、撮像装置1の起動と共に開始され、繰り返し実行される。
ステップS11において、データ受信部21は、センサユニット30の検出結果が表す撮像ユニット10の動き量に対して、単位時間あたりの受信データ量が基準範囲内であるか否かの判定を行う。
センサユニット30の検出結果が表す撮像ユニット10の動き量に対して、単位時間あたりの受信データ量が基準範囲内でない場合、ステップS11においてNOと判定されて、処理はステップS13に移行する。
一方、センサユニット30の検出結果が表す撮像ユニット10の動き量に対して、単位時間あたりの受信データ量が基準範囲内である場合、ステップS11においてYESと判定されて、処理はステップS12に移行する。
[Threshold adjustment processing]
FIG. 5 is a flowchart illustrating a flow of the threshold value adjustment process executed by the information processing unit 20.
The threshold adjustment process is started at the start of the imaging device 1 and is repeatedly executed.
In step S11, the data receiving unit 21 determines whether or not the received data amount per unit time is within the reference range with respect to the movement amount of the imaging unit 10 represented by the detection result of the sensor unit 30.
If the amount of received data per unit time is not within the reference range with respect to the amount of movement of the imaging unit 10 represented by the detection result of the sensor unit 30, NO is determined in step S11, and the process proceeds to step S13.
On the other hand, if the amount of received data per unit time is within the reference range with respect to the amount of movement of the imaging unit 10 represented by the detection result of the sensor unit 30, YES is determined in step S11, and the process proceeds to step S12. To do.

ステップS12において、データ受信部21は、処理部23から撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1の変更指示が入力されたか否かの判定を行う。
処理部23から撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1の変更指示が入力されていない場合、ステップS12においてNOと判定されて、処理はステップS11に移行する。
一方、処理部23から撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1の変更指示が入力された場合、ステップS12においてYESと判定されて、処理はステップS13に移行する。
In step S12, the data receiving unit 21 determines whether or not a change instruction of the threshold Th1 used for determining the increase or decrease of the brightness in the imaging device 12 is input from the processing unit 23.
If no instruction for changing the threshold value Th1 used for determining the increase or decrease of the brightness in the image pickup device 12 is input from the processing unit 23, NO is determined in step S12, and the process proceeds to step S11.
On the other hand, when the processing unit 23 inputs an instruction to change the threshold value Th1 used for determining the increase and decrease of the brightness in the imaging device 12, it is determined as YES in step S12, and the process proceeds to step S13.

ステップS13において、データ受信部21は、閾値Th1を増加または減少させる指示を撮像デバイス12に出力する。
ステップS13の後、閾値調整処理が繰り返される。
In step S13, the data receiving unit 21 outputs an instruction to increase or decrease the threshold Th1 to the imaging device 12.
After step S13, the threshold adjustment process is repeated.

[データ格納処理]
図6は、情報処理ユニット20で実行されるデータ格納処理の流れを説明するフローチャートである。
データ格納処理は、撮像装置1の起動と共に開始され、繰り返し実行される。
ステップS21において、データ格納制御部22は、データ受信部21から画素データが入力されたか否かの判定を行う。
データ受信部21から画素データが入力されていない場合、ステップS21においてNOと判定されて、ステップS21の処理が繰り返される。
一方、データ受信部21から画素データが入力された場合、ステップS21においてYESと判定されて、処理はステップS22に移行する。
[Data storage process]
FIG. 6 is a flowchart illustrating a flow of data storage processing executed by the information processing unit 20.
The data storage process is started at the start of the imaging device 1 and is repeatedly executed.
In step S21, the data storage control unit 22 determines whether or not pixel data has been input from the data reception unit 21.
When the pixel data is not input from the data receiving unit 21, NO is determined in step S21, and the process of step S21 is repeated.
On the other hand, when the pixel data is input from the data receiving unit 21, YES is determined in step S21, and the process proceeds to step S22.

ステップS22において、データ格納制御部22は、入力された画素データのうち画素の状態を表すデータが増加(+1)を表しているか否かの判定を行う。
入力された画素データのうち画素の状態を表すデータが増加を表していない(即ち、減少(−1)を表している)場合、ステップS22においてNOと判定されて、処理はステップS24に移行する。
一方、入力された画素データのうち画素の状態を表すデータが増加を表している場合、ステップS22においてYESと判定されて、処理はステップS23に移行する。
In step S22, the data storage control unit 22 determines whether or not the data representing the pixel state among the input pixel data represents an increase (+1).
If the input pixel data that represents the pixel state does not represent an increase (that is, represents a decrease (-1)), it is determined as NO in step S22, and the process proceeds to step S24. ..
On the other hand, when the data representing the pixel state among the input pixel data represents an increase, YES is determined in step S22, and the process proceeds to step S23.

ステップS23において、データ格納制御部22は、入力された画素データのうち時刻情報を増加時用フレームメモリ24aに格納する。
ステップS24において、データ格納制御部22は、入力された画素データのうち時刻情報を減少時用フレームメモリ24bに格納する。
ステップS23及びステップS24の後、データ格納処理が繰り返される。
In step S23, the data storage control unit 22 stores the time information of the input pixel data in the frame memory 24a for increasing time.
In step S24, the data storage control unit 22 stores the time information of the input pixel data in the frame memory 24b for reduction.
After step S23 and step S24, the data storage process is repeated.

[アプリケーション実行処理]
図7は、情報処理ユニット20で実行されるアプリケーション実行処理の流れを説明するフローチャートである。
アプリケーション実行処理は、アプリケーション実行処理の開始を指示する操作が行われることにより開始される。
ステップS31において、処理部23は、指定されたアプリケーションプログラムを読み出す。なお、アプリケーションプログラムは、記憶部20Bあるいは不図示のリムーバブルメディア等の記憶媒体に記憶されている。
[Application execution process]
FIG. 7 is a flowchart illustrating a flow of application execution processing executed by the information processing unit 20.
The application execution process is started by performing an operation instructing the start of the application execution process.
In step S31, the processing unit 23 reads the designated application program. The application program is stored in a storage medium such as a storage unit 20B or a removable medium (not shown).

ステップS32において、処理部23は、指定されたアプリケーションプログラムに基づく処理(以下、「指定アプリケーション処理」と称する。)を実行する。
ステップS32の後、アプリケーション実行処理は終了となる。
In step S32, the processing unit 23 executes a process based on the designated application program (hereinafter, referred to as “designated application process”).
After step S32, the application execution process ends.

以上のように、本実施形態に係る撮像装置1は、撮像ユニット10によって、画素の状態を表すデータを含む画素データを画素毎に、非同期的に出力し、情報処理ユニット20によって、画素データを出力データ記憶部24に格納する。
そして、情報処理ユニット20は、指定アプリケーション処理において、出力データ記憶部24に格納された画素データを読み出して利用することにより、画角における被写体の変化を検出しながら、種々のアプリケーションを実行する。
これにより、画素毎に変化が検出され次第、非同期的に画素の状態を表すデータが出力されることから、撮像された1フレーム毎のデジタル画像を出力して物体検出等のアプリケーションに用いる従来の技術に比べ、画角における被写体の変化を少ないデータ量で高速に検出することが可能となる。
また、撮像装置1は、所定の保存形式で格納された画素データを読み出し、各種アプリケーションに用いることができる。
したがって、撮像装置1によれば、デジタル画像を用いた情報処理技術において、より適切な機能を実現することが可能となる。
As described above, the image pickup apparatus 1 according to the present embodiment asynchronously outputs pixel data including data representing a pixel state by the image pickup unit 10 for each pixel, and the information processing unit 20 outputs the pixel data. It is stored in the output data storage unit 24.
Then, the information processing unit 20 executes various applications while detecting a change in the subject at the angle of view by reading and using the pixel data stored in the output data storage unit 24 in the designated application processing.
As a result, as soon as a change is detected for each pixel, data representing the state of the pixel is output asynchronously. Therefore, a conventional digital image for each frame captured is output and used for applications such as object detection. Compared to technology, it is possible to detect changes in the subject at an angle of view at high speed with a small amount of data.
Further, the image pickup apparatus 1 can read pixel data stored in a predetermined storage format and use it for various applications.
Therefore, according to the image pickup apparatus 1, it is possible to realize more appropriate functions in the information processing technology using digital images.

また、出力データ記憶部24には、撮像ユニット10が撮像する画像のアドレスに対応したアドレスを有する2次元メモリ(増加時用フレームメモリ24a及び減少時用フレームメモリ24b)が形成される。そして、情報処理ユニット20は、画素の状態を表すデータが増加を表すものであるか減少を表すものであるかに応じて、増加時用フレームメモリ24aまたは減少時用フレームメモリ24bにおける当該画素のアドレスと対応するアドレスに、画素データにおける時刻情報を格納する。
これにより、必要なデータを参照しやすい形態で画素データを保存することができる。また、画素データ(時刻情報、画素のアドレス、各画素の状態を表すデータ(+1または−1))のうち、時刻情報のみを所定のアドレスに格納すればよいため、これら全てを保存する場合に比べ、保存するデータ量を削減することができる。さらに、増加時用フレームメモリ24a及び減少時用フレームメモリ24bのサイズは予め決まることから、画素データを保存するために必要な記憶容量を容易に見積もることが可能となる。
Further, the output data storage unit 24 is formed with a two-dimensional memory (frame memory 24a for increase and frame memory 24b for decrease) having an address corresponding to the address of the image captured by the image pickup unit 10. Then, the information processing unit 20 of the pixel in the increasing frame memory 24a or the decreasing frame memory 24b, depending on whether the data representing the pixel state represents an increase or a decrease. The time information in the pixel data is stored in the address corresponding to the address.
As a result, the pixel data can be saved in a form in which the necessary data can be easily referred to. Further, of the pixel data (time information, pixel address, data representing the state of each pixel (+1 or -1)), only the time information needs to be stored at a predetermined address, so that all of them need to be stored. In comparison, the amount of data to be saved can be reduced. Further, since the sizes of the frame memory 24a for increasing and the frame memory 24b for decreasing are determined in advance, it is possible to easily estimate the storage capacity required for storing the pixel data.

[変形例1]
上述の実施形態において、撮像デバイス12が備える撮像センサは、複数の撮像素子が配列されたものであれば採用可能であるが、撮像センサに更なる機能を備えることも可能である。
例えば、撮像センサにおける各撮像素子に特定波長の光を透過するフィルタ(カラーフィルタ等)を配置し、撮像ユニット10が、特定波長の光に対応する画素の状態を表すデータを出力することとしてもよい。
[Modification 1]
In the above-described embodiment, the image sensor included in the image pickup device 12 can be adopted as long as a plurality of image pickup elements are arranged, but the image pickup sensor can also be provided with further functions.
For example, a filter (color filter or the like) that transmits light of a specific wavelength may be arranged in each image sensor of the image sensor, and the image pickup unit 10 may output data representing the state of pixels corresponding to the light of the specific wavelength. Good.

図8は、撮像素子に特定波長の光を透過するフィルタが配置された撮像センサの構成例を示す模式図である。
なお、図8におけるRは赤色フィルタ、Gは緑色フィルタ、Bは青色フィルタを示している。
図8に示す撮像センサにおいて、撮像素子毎に蓄積される電荷の変化量が設定された閾値に達した場合、上述の撮像装置1における場合と同様に、画素データとして、増加を表す「+1」または減少を表す「−1」が出力される。
情報処理ユニット20のデータ格納制御部22では、撮像ユニット10が撮像する画像のアドレスと、そのアドレスの撮像センサに配置されているフィルタの種類(透過する光の波長)とが対応付けて登録されており、フィルタの種類と対応付けた画素データの格納及び読み出しを行うことが可能である。
FIG. 8 is a schematic diagram showing a configuration example of an image sensor in which a filter that transmits light of a specific wavelength is arranged in the image sensor.
In FIG. 8, R indicates a red filter, G indicates a green filter, and B indicates a blue filter.
In the image sensor shown in FIG. 8, when the amount of change in the electric charge accumulated for each image sensor reaches a set threshold value, as in the case of the image sensor 1 described above, the pixel data is “+1” indicating an increase. Alternatively, "-1" indicating a decrease is output.
In the data storage control unit 22 of the information processing unit 20, the address of the image captured by the image pickup unit 10 and the type of filter (wavelength of transmitted light) arranged in the image pickup sensor at that address are registered in association with each other. Therefore, it is possible to store and read pixel data associated with the type of filter.

このような撮像センサの構成とすることにより、例えば、画素の状態を表すフレームをカラー毎に生成すること等が可能となる。
一例として、光源の波長が偏っている場合に、その補色系の波長の光を透過するフィルタが配置された画素データを選択して、被写体の変化を検出することができる。この場合、被写体の変化がより明確にフレームに現れることから、より適切に被写体の変化を検出することが可能となる。
即ち、変形例1の構成により、光の波長を反映させた処理が有効なアプリケーションにおいて、より利便性の高い技術を提供することができる。
With such an image sensor configuration, for example, it is possible to generate a frame representing the state of pixels for each color.
As an example, when the wavelength of the light source is biased, it is possible to detect a change in the subject by selecting pixel data in which a filter that transmits light having a wavelength of the complementary color system is arranged. In this case, the change in the subject appears more clearly in the frame, so that the change in the subject can be detected more appropriately.
That is, according to the configuration of the first modification, it is possible to provide a more convenient technique in an application in which processing reflecting the wavelength of light is effective.

[変形例2]
上述の実施形態において、出力データ記憶部24には、撮像ユニット10が撮像する画像のアドレスに対応したアドレスを有する2次元メモリ(増加時用フレームメモリ24a及び減少時用フレームメモリ24b)が形成され、画素の状態を表すデータが増加を表すものであるか減少を表すものであるかに応じて、増加時用フレームメモリ24aまたは減少時用フレームメモリ24bにおける当該画素のアドレスと対応するアドレスに、画素データに付された時刻情報を格納するものとした。
[Modification 2]
In the above-described embodiment, the output data storage unit 24 is formed with two-dimensional memories (frame memory 24a for increase and frame memory 24b for decrease) having an address corresponding to the address of the image captured by the image pickup unit 10. Depending on whether the data representing the state of the pixel represents an increase or a decrease, the address corresponding to the address of the pixel in the frame memory 24a for increase or the frame memory 24b for decrease The time information attached to the pixel data is stored.

これに対し、以下のような画素データの保存形式とすることが可能である。
(保存形式1)
画素データの保存形式を(時刻t、画像のアドレス(x,y)、polarity)の形式とする。
なお、「polarity」は、画素の状態として増加または減少を示す値(+1または−1等)である。
保存形式1とした場合、出力データ記憶部24の記憶領域は2次元メモリとする必要がなく、1次元の連続アドレスとすることができる。
On the other hand, the following pixel data storage format can be used.
(Save format 1)
The storage format of the pixel data is (time t, image address (x, y), polarity).
In addition, "polarity" is a value (+1 or -1 etc.) indicating an increase or decrease as a pixel state.
When the storage format 1 is used, the storage area of the output data storage unit 24 does not need to be a two-dimensional memory, and can be a one-dimensional continuous address.

図9は、1次元の連続アドレスを有する記憶領域に保存形式1の画素データが記憶された状態の一例を示す模式図である。
図9に示すように、1次元の連続アドレスとして、記憶領域には0番地から1ずつ増加するメモリアドレスが付与されており、データ受信部21が受信した順に、番地の小さいメモリアドレスに保存形式1の画素データが記憶される。
保存形式1で画素データを保存した場合、データの保持管理が容易になると共に、受信データの量に応じて、柔軟に記憶領域を拡大または縮小することができる。
FIG. 9 is a schematic diagram showing an example of a state in which pixel data of the storage format 1 is stored in a storage area having a one-dimensional continuous address.
As shown in FIG. 9, as a one-dimensional continuous address, a memory address that increases by 1 from address 0 is assigned to the storage area, and the storage format is stored in the memory address with the smaller address in the order received by the data receiving unit 21. The pixel data of 1 is stored.
When the pixel data is saved in the storage format 1, the data retention management becomes easy, and the storage area can be flexibly expanded or reduced according to the amount of received data.

(保存形式2)
画素データの保存形式を、画素毎に用意された記憶領域に最新の画素データ(例えば、アドレス以外のデータ)を記憶する形式とする。
例えば、画素毎に用意された記憶領域(即ち、各画素専用の記憶領域)に、画素データが受信された時刻及びpolarityを上書きして保存することができる。
なお、保存形式2においては、出力データ記憶部24の記憶領域を上述の実施形態のように2次元メモリとする必要はなく、図9に示す記憶領域と同様に、1次元の連続アドレスとすることができる。
ただし、上述の実施形態と同様に、増加時用の記憶領域と減少時用の記憶領域とを独立して形成し、polarityの値に応じて、いずれかの記憶領域に時刻情報のみを格納することとしてもよい。
(Save format 2)
The pixel data storage format is a format in which the latest pixel data (for example, data other than an address) is stored in a storage area prepared for each pixel.
For example, the time and polarity at which the pixel data is received can be overwritten and stored in the storage area prepared for each pixel (that is, the storage area dedicated to each pixel).
In the storage format 2, the storage area of the output data storage unit 24 does not need to be a two-dimensional memory as in the above embodiment, and is a one-dimensional continuous address as in the storage area shown in FIG. be able to.
However, as in the above-described embodiment, the storage area for increase and the storage area for decrease are formed independently, and only the time information is stored in one of the storage areas according to the value of polarity. It may be that.

(保存形式3)
画素データを記憶する1つの領域に、複数回分の画素データを、再構築可能なデータ構造で保存する形式とする。
具体的には、画素データを記憶する1つの領域のデータ幅に対して、複数回分の画素データを割り付けて保存する。例えば、画素データを記憶する1つの領域が64ビットを有する場合に、時刻情報が16ビットで表されているものとすると、64ビットの記憶領域には、4回分の時刻情報を保存することができる。
(Save format 3)
A format is used in which pixel data for a plurality of times is stored in a reconstructable data structure in one area for storing pixel data.
Specifically, the pixel data for a plurality of times is allocated and saved with respect to the data width of one area for storing the pixel data. For example, if one area for storing pixel data has 64 bits and the time information is represented by 16 bits, the time information for four times can be stored in the 64-bit storage area. it can.

このようなデータの保存形式とする場合、新たに受信された画素データの時刻情報を保存する際には、例えば、対象となる記憶領域のデータを64ビット分読み出し、削除対象の時刻情報(最も古いもの等)を除外した上で、新たな時刻情報を追加した64ビットのデータを構成し、対象となる記憶領域に書き戻すこととする。
なお、記憶領域の上位の桁ほど古い時刻情報を保存するようにすることで、時刻情報の入れ替えを容易に行うことができる。
When using such a data storage format, when storing the time information of newly received pixel data, for example, 64 bits of data in the target storage area is read out and the time information to be deleted (most). After excluding old ones, etc.), 64-bit data with new time information added is constructed and written back to the target storage area.
It should be noted that the time information can be easily replaced by storing the time information older than the upper digit of the storage area.

(保存形式4)
画素データを記憶する領域に、時刻情報に代えて、一定時間内に画素データが何回出力されたかの回数情報を保存する。
具体的には、上述の実施形態及び本変形例における各保存形式において、時刻情報を保存せずに、一定時間内に画素の状態が変化した回数(即ち、画素データが出力された回数)を保存する。
一定時間として設定された時間がごく短時間であり、具体的な時刻情報までは必要でない場合、画素データが出力された回数で設定時間を除算すれば、おおよその時刻情報が取得できる。
また、保存すべきデータは、回数を表す数値(所定範囲の整数)のみであることから、時刻情報を保存する場合に比べ、必要な記憶容量を低減することができる。
したがって、保存形式4を用いることで、記憶容量及び数値演算の負荷の低減を図ることができるため、撮像装置1として必要な装置スペックを抑制することができる。
(Save format 4)
In the area for storing pixel data, instead of time information, information on the number of times pixel data is output within a certain period of time is stored.
Specifically, in each of the storage formats in the above-described embodiment and this modification, the number of times the pixel state changes within a certain period of time without storing the time information (that is, the number of times the pixel data is output) is calculated. save.
If the time set as a fixed time is very short and specific time information is not required, the approximate time information can be obtained by dividing the set time by the number of times the pixel data is output.
Further, since the data to be stored is only a numerical value (integer in a predetermined range) representing the number of times, the required storage capacity can be reduced as compared with the case of storing the time information.
Therefore, by using the storage format 4, the storage capacity and the load of numerical calculation can be reduced, so that the device specifications required for the image pickup device 1 can be suppressed.

[変形例3]
上述の実施形態及び各変形例において、出力データ記憶部24に記憶された画素データを保持するか否かを所定方針に従って制御することができる。
所定方針としては、主として、時間を基準として保持の要否を判定すること、及び、画素データのアドレスを基準として保持の要否を判定することが可能である。
具体的には、以下の保持方針とすることができる。
[Modification 3]
In the above-described embodiment and each modification, it is possible to control whether or not to retain the pixel data stored in the output data storage unit 24 according to a predetermined policy.
As a predetermined policy, it is possible to determine the necessity of holding mainly based on the time and the necessity of holding based on the address of the pixel data.
Specifically, the following retention policy can be adopted.

(保持方針1)
一定時間(設定された閾値時間)以上、過去のデータを削除する。
即ち、画素データが現在時刻から設定された閾値時間以上、古いものとなった場合、そのデータを削除する。
これにより、画素の状態に変化がない場合に、過度に古い画素データが保持され続けることを防止できる。
(Retention policy 1)
Delete past data for a certain period of time (set threshold time) or longer.
That is, when the pixel data becomes older than the set threshold time from the current time, the data is deleted.
This makes it possible to prevent excessively old pixel data from being retained when there is no change in the pixel state.

(保持方針2)
一定要素数(設定された画素データの数)以上、過去のデータを削除する。
即ち、画素データが直近の一定要素数(設定された画素データの数)以上、古いものとなった場合、そのデータを削除する。
これにより、画素の状態が変化し、画素データが逐次受信される場合に、不要と考えられる過去の画素データを削除することができる。
(Retention policy 2)
Delete past data over a certain number of elements (the number of set pixel data).
That is, when the pixel data is older than the latest fixed number of elements (the number of set pixel data), the data is deleted.
As a result, when the pixel state changes and the pixel data is sequentially received, it is possible to delete the past pixel data that is considered unnecessary.

(保持方針3)
同一のアドレスに過去一定時間以内の画素データが存在する場合、その画素データを保持し、その他の画素データは削除する。
画素データに変化が生じた場合、一定時間内に、その変化とは逆の変化が生じる可能性が高いため、その画素データは保持することが適当である。
例えば、監視カメラにおける物体検出等において、侵入者が画角内を通過する場合、夜間であれば、侵入者の身体に該当する画素は従前よりも暗くなり、侵入者が通過すると再び明るくなるといった状況が発生し得る。
そのため、物体が検出された際に画素データからフレームを生成する場合等において、有用な画素データを保持しておくことが可能となる。
(Retention policy 3)
If pixel data within a certain period of time exists at the same address, the pixel data is retained and other pixel data is deleted.
When a change occurs in the pixel data, there is a high possibility that a change opposite to the change will occur within a certain period of time, so it is appropriate to retain the pixel data.
For example, in object detection by a surveillance camera, when an intruder passes through the angle of view, the pixels corresponding to the intruder's body become darker than before at night, and become brighter again when the intruder passes through. A situation can occur.
Therefore, it is possible to retain useful pixel data when a frame is generated from the pixel data when an object is detected.

(保持方針4)
近傍のアドレスに保持されている画素データが存在する場合、中心の画素データを保持し、近傍のアドレスに保持されている画素データが存在しない場合、その画素データを削除する。
この場合、被写体に実際に変化があったと考えられる画素データを保持すると共に、ノイズ等で離散的に発生した画素データを削除することができる。
即ち、有効な画素データを保持すると共に、不要な画素データを削除することが可能となる。
(Retention policy 4)
If there is pixel data held at a nearby address, the center pixel data is held, and if there is no pixel data held at a nearby address, the pixel data is deleted.
In this case, it is possible to retain the pixel data that is considered to have actually changed in the subject, and to delete the pixel data that is discretely generated due to noise or the like.
That is, it is possible to retain valid pixel data and delete unnecessary pixel data.

[変形例4]
上述の実施形態及び各変形例において、単位時間当たりの受信データ量が基準範囲内であるか否かの判定を行う周期を、予め設定された条件に応じて変更することとしてもよい。
撮像デバイス12における輝度の増加及び減少の判定に用いられる閾値Th1が不適切な場合、被写体の変化を適切に検出できないことから、閾値Th1を変更(補正)することが有用である。
一方、閾値Th1を逐次補正するため、単位時間当たりの受信データ量が基準範囲内であるか否かの判定を高頻度に行うと、処理負荷の増大やシステムの不安定化を招く可能性がある。
そこで、撮像装置1に入力される各種情報を基に、単位時間当たりの受信データ量が基準範囲内であるか否かの判定を行う周期に関する条件を設定しておき、この条件に従って判定を行うことで、より効率的に閾値Th1を補正することができる。
なお、単位時間当たりの受信データ量が基準範囲内であるか否かの判定を画素毎に行い、閾値Th1も画素毎に設定することとしてもよい。
これにより、画素毎に、画素の状態に応じた判定周期で、位時間当たりの受信データ量が基準範囲内であるか否かを判定し、より適切な閾値Th1を設定することができる。
[Modification example 4]
In the above-described embodiment and each modification, the cycle for determining whether or not the amount of received data per unit time is within the reference range may be changed according to preset conditions.
When the threshold value Th1 used for determining the increase and decrease of the brightness in the image pickup device 12 is inappropriate, the change of the subject cannot be detected appropriately. Therefore, it is useful to change (correct) the threshold value Th1.
On the other hand, since the threshold Th1 is sequentially corrected, if it is frequently determined whether or not the amount of received data per unit time is within the reference range, the processing load may increase and the system may become unstable. is there.
Therefore, based on various information input to the image pickup apparatus 1, a condition regarding a cycle for determining whether or not the amount of received data per unit time is within the reference range is set, and the determination is performed according to this condition. Therefore, the threshold value Th1 can be corrected more efficiently.
It should be noted that the determination as to whether or not the amount of received data per unit time is within the reference range may be performed for each pixel, and the threshold Th1 may also be set for each pixel.
As a result, it is possible to determine whether or not the amount of received data per position time is within the reference range in the determination cycle according to the state of the pixel for each pixel, and set a more appropriate threshold Th1.

[具体的適用例1]
次に、撮像装置1の具体的な適用例について説明する。
本適用例では、撮像装置1を自動車に設置し、自動運転を行うための撮像装置として用いるものとする。
この場合、撮像装置1は、実世界を撮像した撮像結果及び仮想空間を仮想的な撮像装置1で撮像した撮像結果を取得し、自動車が走行する空間のデータを生成する機能を実現する。また、撮像装置1は、生成した空間において自動車の自動運転のシミュレーションを行い、シミュレーションの結果を解析する機能を実現する。
これらの機能を実現するにあたり、撮像装置1において、目的とする処理を簡単に実行するためのライブラリが用意され、各種処理を実行する際に、必要なライブラリが適宜用いられる。
[Specific application example 1]
Next, a specific application example of the image pickup apparatus 1 will be described.
In this application example, the image pickup device 1 is installed in an automobile and used as an image pickup device for automatic driving.
In this case, the image pickup device 1 realizes a function of acquiring the image pickup result of capturing the real world and the image pickup result of the virtual space captured by the virtual image pickup device 1 and generating data of the space in which the automobile travels. Further, the image pickup device 1 realizes a function of simulating the automatic driving of an automobile in the generated space and analyzing the result of the simulation.
In order to realize these functions, the image pickup apparatus 1 prepares a library for easily executing the target process, and the necessary library is appropriately used when executing various processes.

[構成]
図10は、具体的適用例1における撮像装置1全体の構成を示す模式図である。
図10に示す構成は、図1に示す全体構成に対し、デジタル画像(実世界をカラー画像として撮像した静止画像または動画像等)を撮像する撮像ユニット100が備えられている点が異なっている。
撮像ユニット100は、画角内の被写体を2次元のカラー画像として撮像する既存のデジタルビデオカメラによって構成することができる。
撮像ユニット100は、レンズ111と、撮像デバイス112とを備えている。
レンズ111は、画角内の被写体からの光線を集束させ、撮像デバイス112の撮像センサ上に被写体像を結像させる。
[Constitution]
FIG. 10 is a schematic view showing the configuration of the entire image pickup apparatus 1 in the specific application example 1.
The configuration shown in FIG. 10 differs from the overall configuration shown in FIG. 1 in that an imaging unit 100 for capturing a digital image (a still image or a moving image obtained by capturing a real world as a color image) is provided. ..
The image pickup unit 100 can be configured by an existing digital video camera that captures a subject within the angle of view as a two-dimensional color image.
The image pickup unit 100 includes a lens 111 and an image pickup device 112.
The lens 111 focuses the light rays from the subject within the angle of view and forms a subject image on the image sensor of the image pickup device 112.

撮像デバイス112は、複数の撮像素子が配列された撮像センサ及び撮像センサの出力信号を処理する処理回路を含んで構成される。
なお、撮像ユニット10及び撮像ユニット100の画角(撮影範囲)は一致(または重複)されており、撮像ユニット100で撮像された被写体の変化を表す画素データが、撮像ユニット10によって出力される。
また、撮像ユニット100が備えられていることに伴い、情報処理ユニット20のデータ受信部21は、撮像ユニット10から出力される画素データを受信する機能に加え、撮像ユニット100から出力される画素データ(フレーム毎の画素データ群)を所定周期(例えば、100[ms]周期)で受信する機能を備えている。データ受信部21は、撮像ユニット100から受信した画素データをデータ格納制御部22に出力し、フレームを表すデータとして出力データ記憶部24に記憶する。
The image pickup device 112 includes an image pickup sensor in which a plurality of image pickup elements are arranged, and a processing circuit that processes an output signal of the image pickup sensor.
The angles of view (shooting ranges) of the imaging unit 10 and the imaging unit 100 are the same (or overlapped), and pixel data representing changes in the subject imaged by the imaging unit 100 is output by the imaging unit 10.
Further, since the image pickup unit 100 is provided, the data receiving unit 21 of the information processing unit 20 has a function of receiving pixel data output from the image pickup unit 10 and pixel data output from the image pickup unit 100. It has a function of receiving (pixel data group for each frame) at a predetermined cycle (for example, 100 [ms] cycle). The data receiving unit 21 outputs the pixel data received from the imaging unit 100 to the data storage control unit 22, and stores it in the output data storage unit 24 as data representing a frame.

[機能的構成]
次に、情報処理ユニット20の機能的構成について説明する。
図11は、情報処理ユニット20の機能的構成を示すブロック図である。
図11においては、情報処理ユニット20のうち、処理部23及び記憶部20Bに形成される機能的構成を示している。
図11に示すように、本適用例における撮像装置1は、処理部23において、空間データ取得部23aと、シミュレーション処理部23bと、解析処理部23cとを備えている。また、記憶部20Bには、出力データ記憶部24に加え、ライブラリ記憶部25と、3Dモデルデータベース(3DモデルDB)26とが形成される。
[Functional configuration]
Next, the functional configuration of the information processing unit 20 will be described.
FIG. 11 is a block diagram showing a functional configuration of the information processing unit 20.
FIG. 11 shows a functional configuration formed in the processing unit 23 and the storage unit 20B of the information processing unit 20.
As shown in FIG. 11, the imaging apparatus 1 in this application example includes a spatial data acquisition unit 23a, a simulation processing unit 23b, and an analysis processing unit 23c in the processing unit 23. Further, in the storage unit 20B, in addition to the output data storage unit 24, a library storage unit 25 and a 3D model database (3D model DB) 26 are formed.

ライブラリ記憶部25には、撮像装置1において使用される頻度が高い各種機能をまとめた複数のライブラリが記憶されている。本実施形態において、ライブラリが用いられる場合、実行中のアプリケーションからAPI(Application Program Interface)として必要なライブラリが呼び出され、呼び出されたライブラリの機能による応答がアプリケーションに返される。 The library storage unit 25 stores a plurality of libraries that summarize various functions that are frequently used in the image pickup apparatus 1. In the present embodiment, when a library is used, a library required as an API (Application Program Interface) is called from a running application, and a response by the function of the called library is returned to the application.

例えば、ライブラリ記憶部25には、以下の機能を実現するライブラリが記憶されている。
(ライブラリ1)出力データを画像として読み出すか、出力データを画素データのまま読み出すかを切り替えるライブラリ
(ライブラリ2)画素データにおけるpolarityがマイナスである画素を青、画素データにおけるpolarityがプラスである画素を赤として、出力データが表す画像を表示するライブラリ
(ライブラリ3)出力データの保存形式(2次元メモリあるいは保存形式1〜4のいずれか等)を切り替えるライブラリ
(ライブラリ4)撮像時に輝度の増加及び減少の判定に用いられた閾値Th1に応じたデータの正規化を行うライブラリ
なお、ライブラリ4は、撮像装置1の出力データを後に解析する場合等に用いられる。
(ライブラリ5)撮影中に特定領域(変化が大きい領域等)にズームアップ(あるいはフォーカス)して撮像するか否かを切り替えるライブラリ
(ライブラリ6)被写体の動きに合わせて出力データ量が基準範囲となるように閾値Th1を変更するか否かを切り替えるライブラリ
(ライブラリ7)3D空間内を撮像する仮想カメラのパラメータ(視点位置、絞り値、感度等)を設定するライブラリ
For example, the library storage unit 25 stores a library that realizes the following functions.
(Library 1) A library that switches between reading output data as an image and reading output data as pixel data (Library 2) Pixels with negative polarity in pixel data are blue, and pixels with positive polarity in pixel data are Library that displays the image represented by the output data as red (Library 3) Library that switches the storage format of the output data (either two-dimensional memory or storage formats 1 to 4 etc.) (Library 4) Increases and decreases in brightness during imaging A library that normalizes the data according to the threshold Th1 used for the determination of the above. The library 4 is used when the output data of the image pickup apparatus 1 is analyzed later.
(Library 5) A library that switches whether to zoom in (or focus) on a specific area (area with large changes, etc.) during shooting (Library 6) The amount of output data is the reference range according to the movement of the subject. Library for switching whether or not to change the threshold Th1 (library 7) A library for setting parameters (viewpoint position, aperture value, sensitivity, etc.) of a virtual camera that images in 3D space.

アプリケーションのプログラムにおいては、これらのライブラリを呼び出すことで、上位の命令を記述しておけば、撮像装置1における各種機能を実現するための下位の制御を容易に実行することができる。
なお、撮像装置1において使用される頻度が高い各種機能をまとめる形態としては、ライブラリの他、ミドルウェアあるいはアプリケーションの形態とすることも可能である。
By calling these libraries in the application program, if higher-level instructions are described, lower-level controls for realizing various functions in the image pickup apparatus 1 can be easily executed.
In addition to the library, middleware or an application can be used as a form for collecting various functions frequently used in the image pickup apparatus 1.

3DモデルDB26には、自動運転のシミュレーションを行うための仮想空間の3次元モデルデータが記憶される。本実施形態において、3DモデルDB26には、自動運転のシミュレーションが行われる実空間(走行環境を構成する実空間)を表す3次元モデルデータが記憶されている。これにより、実空間を走行できない場合であっても、3DモデルDB26に記憶された3次元モデルデータを用いて、仮想空間を仮想的な撮像装置1で撮像した撮像結果を取得することが可能となる。
なお、3DモデルDB26には、自動運転のシミュレーションが行われる実空間(走行環境を構成する実空間)を表す3次元モデルデータに限らず、架空の走行環境を構成する仮想空間の3次元モデルデータを記憶することも可能である。この場合、実空間に限らず、各種走行環境を仮想的に走行した場合のシミュレーションを行うことができる。
The 3D model DB 26 stores 3D model data of a virtual space for simulating automatic driving. In the present embodiment, the 3D model DB 26 stores 3D model data representing a real space (a real space constituting a driving environment) in which an automatic driving simulation is performed. As a result, even when the vehicle cannot travel in the real space, it is possible to acquire the imaging result obtained by imaging the virtual space with the virtual imaging device 1 by using the three-dimensional model data stored in the 3D model DB 26. Become.
The 3D model DB 26 is not limited to the 3D model data representing the real space (the real space constituting the driving environment) in which the simulation of automatic driving is performed, but also the 3D model data of the virtual space constituting the fictitious driving environment. It is also possible to memorize. In this case, it is possible to perform a simulation of virtually traveling in various driving environments, not limited to the real space.

空間データ取得部23aは、自動運転のシミュレーション環境を表す空間のデータを構築する処理(環境構築処理)を実行する。
即ち、空間データ取得部23aは、自動車に設置された撮像ユニット10及び撮像ユニット100によって自動車の走行範囲における実空間を撮像した画素データ(以下、適宜「実データ」と称する。)を取得して出力データ記憶部24に記憶する。また、空間データ取得部23aは、3DモデルDB26に記憶された3次元モデルデータを用いて、仮想空間内に設定された走行範囲を仮想的な撮像装置1で撮像した画素データ(以下、適宜「仮想データ」と称する。)を画素毎に非同期的に取得して出力データ記憶部24に記憶する。このとき、空間データ取得部23aは、上述のライブラリ7を呼び出し、3D空間内を撮像する仮想カメラのパラメータ(視点位置、絞り値、感度等)を設定することができる。また、空間データ取得部23aは、上述のライブラリ3を呼び出し、出力データの保存形式を適宜切り替えることができる。
The spatial data acquisition unit 23a executes a process (environment construction process) for constructing spatial data representing a simulation environment for automatic driving.
That is, the spatial data acquisition unit 23a acquires pixel data (hereinafter, appropriately referred to as “real data”) obtained by imaging the real space in the traveling range of the automobile by the imaging unit 10 and the imaging unit 100 installed in the automobile. It is stored in the output data storage unit 24. In addition, the spatial data acquisition unit 23a uses the three-dimensional model data stored in the 3D model DB 26 to capture pixel data in which the traveling range set in the virtual space is captured by the virtual imaging device 1 (hereinafter, appropriately “). (Referred to as "virtual data") is acquired asynchronously for each pixel and stored in the output data storage unit 24. At this time, the spatial data acquisition unit 23a can call the above-mentioned library 7 and set parameters (viewpoint position, aperture value, sensitivity, etc.) of the virtual camera that images the inside of the 3D space. Further, the spatial data acquisition unit 23a can call the above-mentioned library 3 and appropriately switch the storage format of the output data.

そして、空間データ取得部23aは、取得した実データ及び仮想データを合成し、自動運転のシミュレーション環境を表す空間のデータを構築する。このとき、空間データ取得部23aは、上述のライブラリ1を呼び出し、撮像ユニット10によって出力されたデータを画像として読み出すことにより、自動運転のシミュレーション環境を表す空間のデータを構築する。さらに、空間データ取得部23aは、構築した空間のデータを不図示のメモリまたは記憶部20Bの記憶領域に記憶する。 Then, the spatial data acquisition unit 23a synthesizes the acquired real data and virtual data, and constructs spatial data representing the simulation environment of automatic driving. At this time, the spatial data acquisition unit 23a calls the above-mentioned library 1 and reads out the data output by the imaging unit 10 as an image to construct the spatial data representing the simulation environment of the automatic driving. Further, the spatial data acquisition unit 23a stores the constructed spatial data in a memory (not shown) or a storage area of the storage unit 20B.

ここで、自動運転のシミュレーション環境を表す空間のデータを構成する実データは、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データと、撮像ユニット100によって撮像された風景を表す画素データとを構成要素としている。撮像ユニット10は、撮像ユニット100よりも早い周期で画素データを出力することから、撮像ユニット100によって撮像された風景を表す画素データ及び撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データが併せて取得されているタイミングと、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データのみが取得されているタイミングとが存在する。そこで、空間データ取得部23aが自動運転のシミュレーション環境を表す空間のデータを構築する場合、撮像ユニット100によって撮像された風景を表す画素データ及び撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データが併せて取得されているタイミング以外において、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データにより物体の形状を補間し、自動運転のシミュレーション環境を表す空間のデータをより高精度なものに変換する。 Here, the actual data constituting the space data representing the simulation environment of the automatic operation includes pixel data including data representing the state of the pixels imaged by the imaging unit 10 and pixels representing the landscape imaged by the imaging unit 100. Data is a component. Since the imaging unit 10 outputs pixel data at a cycle earlier than that of the imaging unit 100, pixels including pixel data representing the landscape imaged by the imaging unit 100 and data representing the state of the pixels imaged by the imaging unit 10. There is a timing at which the data is acquired together and a timing at which only the pixel data including the data representing the state of the pixels imaged by the imaging unit 10 is acquired. Therefore, when the spatial data acquisition unit 23a constructs spatial data representing the simulation environment for automatic operation, pixel data representing the landscape imaged by the imaging unit 100 and data representing the state of the pixels imaged by the imaging unit 10 are used. Except for the timing when the included pixel data is also acquired, the shape of the object is interpolated by the pixel data including the data representing the state of the pixels imaged by the imaging unit 10, and the spatial data representing the simulation environment of automatic operation is obtained. Convert to a more accurate one.

具体的には、以下の手順に従って、自動運転のシミュレーション環境を表す空間のデータを構成することができる。
(手順1)併せて取得された撮像ユニット100によって撮像された風景を表す画素データと撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データとを対象として、撮像ユニット10によって撮像された風景を表す画素データを基に算出される物体の形状に、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データから算出される形状を対応付ける。
(手順2)撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データのみが取得されているタイミングにおいて、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データを過去の所定期間において積分し、物体の形状を時間的に補間する。
(手順3)手順1及び手順2の結果を基に、撮像ユニット100によって撮像された風景を表す画素データ及び撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データが併せて取得されているタイミングの物体の形状のデータ及び撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データのみが取得されているタイミングの物体の形状のデータを合成し、自動運転のシミュレーション環境を表す空間のデータを構築する。
Specifically, according to the following procedure, spatial data representing a simulation environment for autonomous driving can be configured.
(Procedure 1) The pixel data representing the landscape imaged by the imaging unit 100 and the pixel data including the data representing the state of the pixels imaged by the imaging unit 10 are captured by the imaging unit 10. The shape of the object calculated based on the pixel data representing the landscape is associated with the shape calculated from the pixel data including the data representing the state of the pixels imaged by the imaging unit 10.
(Procedure 2) At the timing when only the pixel data including the data representing the state of the pixel imaged by the imaging unit 10 is acquired, the pixel data including the data representing the state of the pixel imaged by the imaging unit 10 is stored in the past. It integrates in a predetermined period and interpolates the shape of the object in time.
(Procedure 3) Based on the results of steps 1 and 2, pixel data including data representing the landscape imaged by the imaging unit 100 and data representing the state of the pixels imaged by the imaging unit 10 are also acquired. A simulation environment for automatic operation is created by synthesizing the data of the shape of the object at the timing when only the pixel data including the data representing the state of the pixels imaged by the imaging unit 10 is acquired. Construct the data of the space to be represented.

図12は、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データにより物体の形状を補間する概念を示す模式図である。
なお、図12は、撮像装置1が設置された自動車が、時刻ta→時刻tb→時刻tc→時刻tdの順に進行し、道路に隣接する建物を撮像する様子を示している。
図12において、撮像ユニット100は、その撮像周期に従い、時刻ta及び時刻tdで撮像を行うものとする。このとき、被写体となる建物は、時刻taで撮像された画像に全体が含まれているものの、時刻tdで撮像された画像には、ほぼ撮像されていない。
一方、撮像ユニット10は、撮像ユニット10に比べて短い撮像周期で撮像を行う(画素データを出力する)ことができるため、時刻taと時刻tdの間にも、建物を撮像した画素の状態の変化を表す画素データを逐次出力することができる。
そのため、時刻taと時刻tdの間における時刻tb及び時刻tcにおいて、撮像ユニット10によって出力された画素データを用いて、物体(建物)の形状のデータを合成して補間し、自動運転のシミュレーション環境を表す空間のデータを構築することができる。
FIG. 12 is a schematic diagram showing a concept of interpolating the shape of an object by pixel data including data representing the state of pixels imaged by the imaging unit 10.
Note that FIG. 12 shows a state in which the automobile in which the image pickup apparatus 1 is installed advances in the order of time ta → time tb → time tk → time td and images a building adjacent to the road.
In FIG. 12, the imaging unit 100 shall perform imaging at time ta and time td according to the imaging cycle. At this time, although the entire building to be the subject is included in the image captured at time ta, it is hardly captured in the image captured at time td.
On the other hand, since the imaging unit 10 can perform imaging (output pixel data) in a shorter imaging cycle than the imaging unit 10, the state of the pixels that imaged the building is also between the time ta and the time td. Pixel data representing changes can be output sequentially.
Therefore, at time tb and time tk between time ta and time td, the pixel data output by the imaging unit 10 is used to synthesize and interpolate the shape data of the object (building), and the simulation environment for automatic operation is performed. It is possible to construct the data of the space representing.

シミュレーション処理部23bは、空間データ取得部23aによって構築された自動運転のシミュレーション環境を表す空間のデータを参照し、設定された自動運転のアルゴリズムに従って、この空間における自動運転のシミュレーションを行う処理(シミュレーション処理)を実行する。このとき、シミュレーション処理部23bは、上述のライブラリ1を呼び出し、撮像ユニット10によって出力されたデータを画素データのまま読み出す。これにより、シミュレーション処理部23bは、画素の状態を表すデータを非同期的に取得しながら、自動運転のシミュレーションを行う。また、シミュレーション処理部23bは、自動運転のシミュレーションを行うにあたり、上述のライブラリ5を呼び出し、撮影中に特定領域(変化が大きい領域等)にズームアップ(あるいはフォーカス)して撮像するか否かを切り替えることができる。また、シミュレーション処理部23bは、自動運転のシミュレーションを行うにあたり、上述のライブラリ6を呼び出し、被写体の動きに合わせて出力データ量が基準範囲となるように閾値Th1を変更するか否かを切り替えることができる。さらに、シミュレーション処理部23bは、自動運転のシミュレーションを行うにあたり、上述のライブラリ3を呼び出し、出力データの保存形式を適宜切り替えることができる。 The simulation processing unit 23b refers to the data in the space representing the simulation environment of the automatic driving constructed by the spatial data acquisition unit 23a, and performs a process (simulation) of simulating the automatic driving in this space according to the set automatic driving algorithm. Process) is executed. At this time, the simulation processing unit 23b calls the above-mentioned library 1 and reads out the data output by the imaging unit 10 as pixel data. As a result, the simulation processing unit 23b asynchronously acquires data representing the state of the pixels and simulates the automatic operation. Further, the simulation processing unit 23b calls the above-mentioned library 5 when simulating the automatic operation, and determines whether or not to zoom up (or focus) on a specific area (area with a large change, etc.) during shooting. You can switch. Further, the simulation processing unit 23b calls the above-mentioned library 6 when simulating the automatic operation, and switches whether or not to change the threshold Th1 so that the output data amount becomes the reference range according to the movement of the subject. Can be done. Further, the simulation processing unit 23b can call the above-mentioned library 3 and appropriately switch the storage format of the output data when simulating the automatic operation.

また、シミュレーション処理部23bは、自動運転のシミュレーションによって取得された運転履歴(シミュレーション結果)のデータを不図示のメモリまたは記憶部20Bの記憶領域に記憶する。自動運転のアルゴリズムとして、テスト等の対象となる種々のものを設定することにより、自動運転のシミュレーション結果を基に、自動運転のアルゴリズムの性能評価等を行うことができる。
さらに、シミュレーション処理部23bは、自動運転のシミュレーション結果を解析処理部23cによって解析した結果がより適切なものになるように、自動運転のアルゴリズムに対する機械学習を行うことができる。
Further, the simulation processing unit 23b stores the operation history (simulation result) data acquired by the simulation of the automatic operation in a memory (not shown) or a storage area of the storage unit 20B. By setting various algorithms to be tested or the like as the algorithm of the automatic driving, it is possible to evaluate the performance of the algorithm of the automatic driving based on the simulation result of the automatic driving.
Further, the simulation processing unit 23b can perform machine learning on the automatic operation algorithm so that the result of analyzing the simulation result of the automatic operation by the analysis processing unit 23c becomes more appropriate.

解析処理部23cは、シミュレーション処理部23bによって取得されたシミュレーション結果のデータを基に、自動運転のアルゴリズムの性能評価等のために解析を行う処理(解析処理)を実行する。
このとき、解析処理部23cは、上述のライブラリ2を呼び出すことにより、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データにおいて、polarityがマイナスである画素を青、polarityがプラスである画素を赤として、出力データが表す画像を表示することができる。また、解析処理部23cは、上述のライブラリ4を呼び出すことにより、撮像時に輝度の増加及び減少の判定に用いられた閾値Th1に応じたデータの正規化を行い、自動運転のシミュレーションにおいて検出された画素の状態の変化を時系列にグラフ化して表示することができる。
The analysis processing unit 23c executes a process (analysis process) for performing an analysis for performance evaluation of an automatic driving algorithm or the like based on the simulation result data acquired by the simulation processing unit 23b.
At this time, by calling the library 2 described above, the analysis processing unit 23c calls the above-mentioned library 2, and in the pixel data including the data representing the state of the pixels imaged by the image pickup unit 10, the pixel having a negative polarity is blue and the polarity is positive. The image represented by the output data can be displayed with a certain pixel as red. Further, the analysis processing unit 23c calls the library 4 described above to normalize the data according to the threshold Th1 used for determining the increase and decrease of the brightness at the time of imaging, and is detected in the simulation of automatic operation. Changes in the state of pixels can be graphed and displayed in chronological order.

[動作]
次に、本適用例の撮像装置1の動作を説明する。
図13は、自動運転のシミュレーションが行われる経路の一例を示す模式図である。
図13に示す経路は、自宅(地点A)を出発し、住宅街を通過して地点Bにおいて右折して国道に入り、さらに、地点Cにおいて左折して商店街に進入すると共に、踏切を通過して公園(地点D)に至るものである。ただし、地点Cから地点Dの区間は、工事中等の理由により、実際の走行ができない区間である。
以下、図13に例示される経路を対象として、自動運転のシミュレーション環境を表す空間のデータを構築し、その経路における自動運転のシミュレーション及びシミュレーション結果の解析を行う場合を想定して、撮像装置1の動作を説明する。
[motion]
Next, the operation of the image pickup apparatus 1 of this application example will be described.
FIG. 13 is a schematic diagram showing an example of a route on which an automatic driving simulation is performed.
The route shown in FIG. 13 departs from home (point A), passes through a residential area, turns right at point B to enter the national highway, then turns left at point C to enter the shopping district, and passes through a railroad crossing. Then it reaches the park (point D). However, the section from point C to point D is a section in which actual driving is not possible due to reasons such as construction.
Hereinafter, assuming a case where data of a space representing an automatic driving simulation environment is constructed for the route illustrated in FIG. 13 and automatic driving simulation and simulation result analysis are performed on the route, the imaging device 1 The operation of is explained.

[環境構築処理]
図14は、撮像装置1が実行する環境構築処理の流れを説明するフローチャートである。
環境構築処理は、環境構築処理の開始を指示する操作が行われることにより開始される。
ステップS41において、空間データ取得部23aは、自動車に設置された撮像ユニット10及び撮像ユニット100によって自動車の走行範囲における実空間を撮像した画素データ(実データ)を取得して出力データ記憶部24に記憶する。このとき、空間データ取得部23aは、撮像ユニット100によって撮像された風景を表す画素データ及び撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データを併せて取得できるタイミングでは、これらの画素データを併せて取得する。また、空間データ取得部23aは、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データのみを取得できるタイミングでは、撮像ユニット10が出力する画素データのみを取得する。
[Environment construction process]
FIG. 14 is a flowchart illustrating the flow of the environment construction process executed by the image pickup apparatus 1.
The environment construction process is started by performing an operation instructing the start of the environment construction process.
In step S41, the spatial data acquisition unit 23a acquires pixel data (actual data) obtained by imaging the real space in the traveling range of the automobile by the imaging unit 10 and the imaging unit 100 installed in the automobile, and causes the output data storage unit 24 to acquire the pixel data (actual data). Remember. At this time, at the timing when the spatial data acquisition unit 23a can acquire pixel data including the pixel data representing the landscape imaged by the image pickup unit 100 and the state of the pixels imaged by the image pickup unit 10 together, these Pixel data is also acquired. Further, the spatial data acquisition unit 23a acquires only the pixel data output by the imaging unit 10 at the timing when only the pixel data including the data representing the state of the pixels imaged by the imaging unit 10 can be acquired.

ステップS42において、空間データ取得部23aは、3DモデルDB26に記憶された3次元モデルデータを用いて、仮想空間内に設定された走行範囲を仮想的な撮像装置1で撮像した画素データ(仮想データ)を取得して出力データ記憶部24に記憶する。このとき、空間データ取得部23aは、撮像ユニット100の撮像周期と同一のタイミングで撮像ユニット10からの出力となる画素データを算出し、仮想的な撮像ユニット10及び撮像ユニット100が出力する画素データを併せて取得する。
なお、ステップS42において、空間データ取得部23aは、上述のライブラリ7を呼び出し、3D空間内を撮像する仮想カメラのパラメータ(視点位置、絞り値、感度等)を設定することができる。また、ステップS41及びステップS42において、空間データ取得部23aは、上述のライブラリ3を呼び出し、出力データの保存形式を適宜切り替えることができる。
In step S42, the spatial data acquisition unit 23a uses the three-dimensional model data stored in the 3D model DB 26 to capture pixel data (virtual data) in which the traveling range set in the virtual space is captured by the virtual imaging device 1. ) Is acquired and stored in the output data storage unit 24. At this time, the spatial data acquisition unit 23a calculates the pixel data output from the imaging unit 10 at the same timing as the imaging cycle of the imaging unit 100, and the pixel data output by the virtual imaging unit 10 and the imaging unit 100. Is also acquired.
In step S42, the spatial data acquisition unit 23a can call the above-mentioned library 7 and set parameters (viewpoint position, aperture value, sensitivity, etc.) of the virtual camera that images the inside of the 3D space. Further, in step S41 and step S42, the spatial data acquisition unit 23a can call the above-mentioned library 3 and appropriately switch the storage format of the output data.

ステップS43において、空間データ取得部23aは、取得した実データ及び仮想データを合成し、自動運転のシミュレーション環境を表す空間のデータを構築する。このとき、空間データ取得部23aは、上述のライブラリ1を呼び出し、撮像ユニット10によって出力されたデータを画像として読み出すことにより、自動運転のシミュレーション環境を表す空間のデータを構築する。なお、自動運転のシミュレーション環境を表す空間の実データには、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データと、撮像ユニット100によって撮像された風景を表す画素データとが含まれている。ステップS43の処理では、空間データ取得部23aは、撮像ユニット100によって撮像された風景を表す画素データ及び撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データが併せて取得されているタイミング以外において、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データにより物体の形状を補間し、自動運転のシミュレーション環境を表す空間のデータをより高精度なものに変換する。 In step S43, the spatial data acquisition unit 23a synthesizes the acquired real data and virtual data, and constructs spatial data representing a simulation environment for automatic driving. At this time, the spatial data acquisition unit 23a calls the above-mentioned library 1 and reads out the data output by the imaging unit 10 as an image to construct the spatial data representing the simulation environment of the automatic driving. The actual data in the space representing the simulation environment for automatic operation includes pixel data including data representing the state of the pixels imaged by the imaging unit 10 and pixel data representing the landscape imaged by the imaging unit 100. It has been. In the process of step S43, the spatial data acquisition unit 23a also acquires pixel data representing the landscape imaged by the imaging unit 100 and pixel data including data representing the state of the pixels imaged by the imaging unit 10. Other than the timing, the shape of the object is interpolated by the pixel data including the data representing the state of the pixels imaged by the imaging unit 10, and the space data representing the simulation environment of automatic operation is converted into a more accurate one.

ステップS44において、空間データ取得部23aは、構築した空間のデータを不図示のメモリまたは記憶部20Bの記憶領域に記憶する。
ステップS44の後、環境構築処理は終了となる。
In step S44, the spatial data acquisition unit 23a stores the constructed spatial data in a memory (not shown) or a storage area of the storage unit 20B.
After step S44, the environment construction process ends.

[シミュレーション処理]
図15は、撮像装置1が実行するシミュレーション処理の流れを説明するフローチャートである。
シミュレーション処理は、シミュレーション処理の開始を指示する操作が行われることにより開始される。
ステップS51において、シミュレーション処理部23bは、自動運転のシミュレーション環境を表す空間のデータを取得する。
ステップS52において、シミュレーション処理部23bは、自動運転のシミュレーション環境を表す空間内で、出発地点からの移動(シミュレーション)を開始する。
[Simulation processing]
FIG. 15 is a flowchart illustrating a flow of simulation processing executed by the image pickup apparatus 1.
The simulation process is started by performing an operation instructing the start of the simulation process.
In step S51, the simulation processing unit 23b acquires the data of the space representing the simulation environment of the automatic operation.
In step S52, the simulation processing unit 23b starts moving (simulation) from the starting point in the space representing the simulation environment for automatic driving.

ステップS53において、シミュレーション処理部23bは、設定された自動運転アルゴリズムに従い、自動運転のシミュレーション環境を表す空間内を移動し、自動車の応答(運転履歴)をシミュレーション結果として記録する。
ステップS54において、シミュレーション処理部23bは、自動運転のシミュレーション環境を表す空間内で、目的地へ到達したか否かの判定を行う。
自動運転のシミュレーション環境を表す空間内で、目的地へ到達していない場合、ステップS54においてNOと判定されて、処理はステップS53に移行する。
一方、自動運転のシミュレーション環境を表す空間内で、目的地へ到達した場合、ステップS54においてYESと判定されて、シミュレーション処理は終了となる。
In step S53, the simulation processing unit 23b moves in the space representing the simulation environment of automatic driving according to the set automatic driving algorithm, and records the response (driving history) of the automobile as the simulation result.
In step S54, the simulation processing unit 23b determines whether or not the destination has been reached in the space representing the simulation environment for automatic driving.
If the destination has not been reached in the space representing the simulation environment for automatic driving, NO is determined in step S54, and the process proceeds to step S53.
On the other hand, when the destination is reached in the space representing the simulation environment for automatic driving, YES is determined in step S54, and the simulation process ends.

[解析処理]
図16は、撮像装置1が実行する解析処理の流れを説明するフローチャートである。
解析処理は、解析処理の開始を指示する操作が行われることにより開始される。
ステップS61において、解析処理部23cは、自動車の運転履歴(シミュレーション結果)のデータを読み出す。
[Analysis processing]
FIG. 16 is a flowchart illustrating a flow of analysis processing executed by the image pickup apparatus 1.
The analysis process is started by performing an operation instructing the start of the analysis process.
In step S61, the analysis processing unit 23c reads out the data of the driving history (simulation result) of the automobile.

ステップS62において、解析処理部23cは、撮像装置1を視点とする画像を時系列に読み出し、風景の画像として表示する。解析処理部23cは、上述のライブラリ2を呼び出すことにより、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データにおいて、polarityがマイナスである画素を青、polarityがプラスである画素を赤として、出力データが表す画像を表示することができる。なお、ステップS62においては、自動運転のシミュレーションにおいて検出された画素の状態の変化を時系列にグラフ化する等、解析の内容に応じて、異なる解析結果を表示させることとしてもよい。 In step S62, the analysis processing unit 23c reads out the images with the image pickup device 1 as the viewpoint in time series and displays them as landscape images. By calling the library 2 described above, the analysis processing unit 23c calls the pixel data including the data representing the state of the pixels imaged by the imaging unit 10 to display pixels having a negative polarity as blue and pixels having a positive polarity. The image represented by the output data can be displayed as red. In step S62, different analysis results may be displayed depending on the content of the analysis, such as graphing the changes in the state of the pixels detected in the simulation of automatic driving in time series.

ステップS63において、解析処理部23cは、解析処理の終了が指示されたか否かの判定を行う。
解析処理の終了が指示されていない場合、ステップS63においてNOと判定されて、処理はステップS62に移行する。
一方、解析処理の終了が指示された場合、ステップS63においてYESと判定されて、解析処理は終了となる。
In step S63, the analysis processing unit 23c determines whether or not the end of the analysis processing is instructed.
If the end of the analysis process is not instructed, NO is determined in step S63, and the process proceeds to step S62.
On the other hand, when the end of the analysis process is instructed, YES is determined in step S63, and the analysis process ends.

以上のように、本適用例における撮像装置1は、自動車に設置された撮像ユニット10及び撮像ユニット100によって自動車の走行範囲における実空間を撮像した実データを取得すると共に、3DモデルDB26に記憶された3次元モデルデータを用いて、仮想空間内に設定された走行範囲を仮想的な撮像装置1で撮像した仮想データを取得する。そして、撮像装置1は、取得した実データ及び仮想データを合成し、自動運転のシミュレーション環境を表す空間のデータを構築する。
そのため、撮像ユニット100によって撮像された風景を表す画素データ及び撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データが併せて取得されているタイミング以外において、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データにより物体の形状を補間し、自動運転のシミュレーション環境を表す空間のデータをより高精度なものに変換することができる。
さらに、撮像装置1は、構築した空間のデータを参照し、設定された自動運転のアルゴリズムに従って、この空間におけるシミュレーション処理を実行する。
したがって、自動運転のアルゴリズムとして、テスト等の対象となる種々のものを設定し、自動運転のシミュレーション結果を取得することができる。
As described above, the imaging device 1 in this application example acquires actual data obtained by imaging the real space in the traveling range of the automobile by the imaging unit 10 and the imaging unit 100 installed in the automobile, and is stored in the 3D model DB 26. Using the three-dimensional model data, the virtual data obtained by capturing the traveling range set in the virtual space with the virtual imaging device 1 is acquired. Then, the image pickup apparatus 1 synthesizes the acquired real data and virtual data, and constructs the data of the space representing the simulation environment of the automatic driving.
Therefore, the image was taken by the image pickup unit 10 except at the timing when the pixel data including the pixel data representing the landscape imaged by the image pickup unit 100 and the data representing the state of the pixels imaged by the image pickup unit 10 were acquired together. The shape of the object can be interpolated by the pixel data including the data representing the pixel state, and the space data representing the simulation environment of automatic operation can be converted into a more accurate one.
Further, the image pickup apparatus 1 refers to the data of the constructed space and executes the simulation process in this space according to the set automatic driving algorithm.
Therefore, as an algorithm for automatic driving, various algorithms to be tested or the like can be set, and simulation results of automatic driving can be obtained.

また、撮像装置1は、シミュレーション結果のデータを基に、自動運転のアルゴリズムの性能評価等のための解析処理を実行する。
これにより、構築した空間を利用して、設定された自動運転のアルゴリズムによる自動運転の結果を解析することができ、自動運転のアルゴリズムに対する機械学習を行うことが可能となる。
また、機械学習により適切化された自動運転のアルゴリズムを実際の自動車における自動運転に用いることが可能となる。
Further, the image pickup apparatus 1 executes an analysis process for evaluating the performance of the algorithm of the automatic driving based on the data of the simulation result.
As a result, the constructed space can be used to analyze the result of automatic driving by the set automatic driving algorithm, and machine learning for the automatic driving algorithm can be performed.
In addition, it becomes possible to use an automatic driving algorithm optimized by machine learning for automatic driving in an actual automobile.

また、シミュレーション結果のデータを可視化して解析し、自動運転のアルゴリズムの高性能化に反映させることができる。
また、本適用例の撮像装置1により、撮像ユニット10が出力する画素データにより被写体の変化を早期に検出できると共に、撮像ユニット10及び撮像ユニット100が出力する画素データを併せて用いることにより、被写体となる物体の形状をより正確に把握し、構築することができる。さらに、撮像装置1により、自動運転時の状況把握及び応答を迅速化することができる。
In addition, the simulation result data can be visualized and analyzed, and reflected in the high performance of the automatic driving algorithm.
Further, the image pickup device 1 of this application example can detect a change in the subject at an early stage by the pixel data output by the image pickup unit 10, and by using the pixel data output by the image pickup unit 10 and the image pickup unit 100 together, the subject can be detected. It is possible to more accurately grasp and construct the shape of the object. Further, the image pickup device 1 can speed up the situation grasping and the response at the time of automatic operation.

また、本適用例の撮像装置1には、使用される頻度が高い各種機能をまとめたライブラリが用意されている。
これにより、アプリケーションにおいては、ライブラリを呼び出すことで、上位の命令を記述しておけば、撮像装置1における各種機能を実現するための下位の制御を容易に実行することができる。
Further, in the image pickup apparatus 1 of this application example, a library that summarizes various functions that are frequently used is prepared.
As a result, in the application, if the upper instruction is described by calling the library, the lower control for realizing various functions in the image pickup apparatus 1 can be easily executed.

なお、撮像装置1は、自動車に限らず、移動可能な装置の自律的な移動または手動操作による移動において、撮像ユニット10が出力する画素データを取得し、被写体の変化を検出することができる。例えば、撮像装置1を用いることにより、歩行可能なロボット、ドローン等の飛行体、船舶、潜水艇等の移動において、撮像ユニット10が出力する画素データを取得し、被写体の変化を検出することができる。また、撮像装置1は、自動車の自動運転を始め、これら移動可能な装置の自律制御のシミュレーションあるいは実働に用いることが可能である。
また、解析処理における解析の対象は、自動運転のシミュレーション結果に限らず、実際の自動運転の運転履歴のデータとすることも可能である。
The imaging device 1 can acquire pixel data output by the imaging unit 10 and detect changes in the subject when the movable device is autonomously moved or moved manually, not limited to the automobile. For example, by using the image pickup device 1, it is possible to acquire pixel data output by the image pickup unit 10 and detect a change in a subject when moving a walking robot, a flying object such as a drone, a ship, a submersible, or the like. it can. Further, the image pickup device 1 can be used for simulation or actual operation of autonomous control of these movable devices, including automatic driving of an automobile.
Further, the target of analysis in the analysis process is not limited to the simulation result of the automatic operation, but can be the data of the operation history of the actual automatic operation.

また、上述の実施形態において撮像装置1が実行するものとして説明した各種処理を、撮像装置1以外の情報処理装置で行うこととしてもよい。
また、上述の実施形態において撮像装置1が実行するものとして説明した各種処理の一部を撮像装置1以外の情報処理装置で実行し、撮像装置1は、その実行結果を取得することとしてもよい。
また、上述の実施形態において、撮像装置1が用いる各種データ(実空間の3次元モデルデータ等)は、撮像装置1以外の情報処理装置に記憶しておき、必要なデータを適宜ダウンロードして撮像装置1に記憶することとしてもよい。
Further, the various processes described as those executed by the image pickup apparatus 1 in the above-described embodiment may be performed by an information processing apparatus other than the image pickup apparatus 1.
Further, a part of the various processes described as being executed by the image pickup apparatus 1 in the above-described embodiment may be executed by an information processing apparatus other than the image pickup apparatus 1, and the image pickup apparatus 1 may acquire the execution result. ..
Further, in the above-described embodiment, various data (three-dimensional model data in real space, etc.) used by the imaging device 1 are stored in an information processing device other than the imaging device 1, and necessary data is appropriately downloaded and imaged. It may be stored in the device 1.

以上のように構成される撮像装置1は、撮像ユニット10と、情報処理ユニット20と、を備える。情報処理ユニット20は、データ受信部21と、データ格納制御部22と、処理部23と、記憶部20Bと、を備える。
撮像ユニット10は、被写体を撮像する撮像センサに備えられた撮像素子の出力の変化に基づいて、撮像素子に対応する画素の状態の変化を表すデータを送信する。
データ受信部21は、撮像ユニット10によって送信された画素の状態の変化を表すデータを、画素毎に非同期的に受信する。
記憶部20Bは、画素の状態の変化を表すデータと、当該画素の状態の変化を表すデータに関する時刻情報及び画素のアドレスとが、予め設定された保存形式で記憶される。
データ格納制御部22は、データ受信部21によって受信された画素の状態の変化を表すデータを、予め設定された保存形式のデータとして記憶部20Bに記憶させる。
これにより、画素毎に変化が検出され次第、非同期的に画素の状態を表すデータが出力されることから、撮像された1フレーム毎のデジタル画像を出力して物体検出等のアプリケーションに用いる従来の技術に比べ、画角における被写体の変化を少ないデータ量で高速に検出することが可能となる。
また、撮像装置1は、所定の保存形式で格納された画素データを読み出し、各種アプリケーションに用いることができる。
したがって、撮像装置1によれば、デジタル画像を用いた情報処理技術において、より適切な機能を実現することが可能となる。
The image pickup apparatus 1 configured as described above includes an image pickup unit 10 and an information processing unit 20. The information processing unit 20 includes a data receiving unit 21, a data storage control unit 22, a processing unit 23, and a storage unit 20B.
The image pickup unit 10 transmits data representing a change in the state of the pixels corresponding to the image pickup element based on the change in the output of the image pickup element provided in the image pickup sensor that images the subject.
The data receiving unit 21 asynchronously receives the data representing the change in the state of the pixels transmitted by the imaging unit 10 for each pixel.
The storage unit 20B stores data representing the change in the state of the pixel, time information regarding the data representing the change in the state of the pixel, and the address of the pixel in a preset storage format.
The data storage control unit 22 stores the data representing the change in the state of the pixels received by the data reception unit 21 in the storage unit 20B as data in a preset storage format.
As a result, as soon as a change is detected for each pixel, data representing the state of the pixel is output asynchronously. Therefore, a conventional digital image for each frame captured is output and used for applications such as object detection. Compared to technology, it is possible to detect changes in the subject at an angle of view at high speed with a small amount of data.
Further, the image pickup apparatus 1 can read pixel data stored in a predetermined storage format and use it for various applications.
Therefore, according to the image pickup apparatus 1, it is possible to realize more appropriate functions in the information processing technology using digital images.

また、記憶部20Bは、画素の状態の変化を表すデータが増加を表している場合に当該データを記憶する増加時用フレームメモリ24aと、画素の状態の変化を表すデータが減少を表している場合に当該データを記憶する減少時用フレームメモリ24bとを備える。
これにより、必要なデータを参照しやすい形態で画素データを保存することができる。また、例えば、画素データ(時刻情報、画素のアドレス、各画素の状態を表すデータ等)のうち、時刻情報のみを所定のアドレスに格納すればよいため、これら全てを保存する場合に比べ、保存するデータ量を削減することができる。さらに、増加時用フレームメモリ24a及び減少時用フレームメモリ24bのサイズは予め決まることから、画素データを保存するために必要な記憶容量を容易に見積もることが可能となる。
Further, in the storage unit 20B, when the data representing the change in the pixel state represents an increase, the frame memory 24a for increasing that stores the data and the data representing the change in the pixel state represent a decrease. A reduced frame memory 24b for storing the data in some cases is provided.
As a result, the pixel data can be saved in a form in which the necessary data can be easily referred to. Further, for example, among the pixel data (time information, pixel address, data representing the state of each pixel, etc.), only the time information needs to be stored at a predetermined address, so that it is saved as compared with the case where all of them are saved. The amount of data to be generated can be reduced. Further, since the sizes of the frame memory 24a for increasing and the frame memory 24b for decreasing are determined in advance, it is possible to easily estimate the storage capacity required for storing the pixel data.

また、撮像ユニット10から送信されるデータ量に基づいて、撮像素子の出力の変化を判定するための閾値が変更される。
これにより、撮像ユニット10から送信されるデータ量を設定された範囲に収束させることができる。
Further, the threshold value for determining the change in the output of the image sensor is changed based on the amount of data transmitted from the image sensor 10.
As a result, the amount of data transmitted from the imaging unit 10 can be converged to a set range.

データ格納制御部22は、撮像素子に対応する画素の状態の変化を表すデータと、当該データについて撮像素子の出力の変化を判定するために用いられた閾値とを対応付けて記憶部20Bに記憶させる。
これにより、撮像素子の出力の変化を判定する際に用いられた閾値を参照することで、画素の状態の変化量を算出することが可能となる。
The data storage control unit 22 stores the data representing the change in the state of the pixel corresponding to the image sensor and the threshold value used for determining the change in the output of the image sensor for the data in the storage unit 20B in association with each other. Let me.
This makes it possible to calculate the amount of change in the pixel state by referring to the threshold value used when determining the change in the output of the image sensor.

また、情報処理ユニット20は、撮像ユニット10から送信される撮像素子に対応する画素の状態の変化を表すデータの分布に応じて、撮像ユニット10におけるフォーカスまたはズームの制御を行う。
これにより、画角内において変化が大きい領域等に着目して被写体の状態を検出することができる。
Further, the information processing unit 20 controls the focus or zoom in the image pickup unit 10 according to the distribution of data representing the change in the state of the pixels corresponding to the image pickup element transmitted from the image pickup unit 10.
As a result, the state of the subject can be detected by focusing on a region or the like where the change is large within the angle of view.

また、撮像センサは、撮像素子にカラーフィルタを備える。
撮像素子に対応する画素の状態の変化を表すデータは、撮像素子に備えられたカラーフィルタが透過する光の波長に対応する画素の状態を表す。
これにより、光の波長を反映させた処理が有効なアプリケーションにおいて、より利便性の高い技術を提供することができる。
In addition, the image sensor includes a color filter in the image sensor.
The data representing the change in the state of the pixel corresponding to the image sensor represents the state of the pixel corresponding to the wavelength of the light transmitted through the color filter provided in the image sensor.
As a result, it is possible to provide a more convenient technique in an application in which processing that reflects the wavelength of light is effective.

また、撮像装置1は、撮像ユニット100を備える。
撮像ユニット100は、風景を表す画像のデータを取得する。
処理部23は、撮像ユニット10から送信された撮像素子に対応する画素の状態の変化を表すデータと、撮像ユニット100によって取得された画像のデータとを対応付けて、アプリケーションによる処理を実行する。
これにより、撮像ユニット100によって取得された画像のデータから物体の形状を構築することに加え、撮像ユニット10によって撮像された画素の状態を表すデータを含む画素データにより物体の形状を補間し、より高精度な空間のデータを構築することができる。
Further, the image pickup device 1 includes an image pickup unit 100.
The image pickup unit 100 acquires image data representing a landscape.
The processing unit 23 associates the data representing the change in the state of the pixels corresponding to the image sensor transmitted from the image sensor 10 with the image data acquired by the image sensor 100, and executes the processing by the application.
As a result, in addition to constructing the shape of the object from the image data acquired by the image pickup unit 100, the shape of the object is interpolated by the pixel data including the data representing the state of the pixels captured by the image pickup unit 10. Highly accurate spatial data can be constructed.

処理部23は、記憶部20Bに記憶された撮像素子に対応する画素の状態の変化を表すデータを画像として読み出すか、または、画素データとして読み出すかを切り替える。
これにより、処理内容に応じて、画素の状態の変化を表すデータを適切な形式で読み出すことが可能となる。
The processing unit 23 switches between reading the data representing the change in the state of the pixel corresponding to the image sensor stored in the storage unit 20B as an image or reading it as pixel data.
As a result, it is possible to read data representing a change in the pixel state in an appropriate format according to the processing content.

また、情報処理装置としての撮像装置1は、情報処理ユニット20に空間データ取得部23aを備える。
空間データ取得部23aは、3次元仮想空間において、被写体を仮想的に撮像した際の仮想的な撮像素子に対応する画素の状態の変化を表すデータを、画素毎に非同期的に取得する。
これにより、実空間を実際に撮像できない場合であっても、仮想的に被写体の状態を検出したデータを取得することができる。
Further, the image pickup device 1 as an information processing device includes a spatial data acquisition unit 23a in the information processing unit 20.
In the three-dimensional virtual space, the spatial data acquisition unit 23a asynchronously acquires data representing a change in the state of the pixels corresponding to the virtual image sensor when the subject is virtually imaged for each pixel.
As a result, even when the real space cannot be actually imaged, it is possible to acquire the data that virtually detects the state of the subject.

また、撮像装置1は、撮像ユニット10と、データ受信部21と、データ格納制御部22と、処理部23と、記憶部20Bと、を備える。
撮像ユニット10は、被写体を撮像する撮像センサに備えられた撮像素子の出力の変化に基づいて、撮像素子に対応する画素の状態の変化を表すデータを送信する。
データ受信部21は、撮像ユニット10によって送信された画素の状態の変化を表すデータを、画素毎に非同期的に受信する。
記憶部20Bは、空間データ取得部23aによって取得された画素の状態の変化を表すデータ及びデータ受信部21によって受信された画素の状態の変化を表すデータと、当該画素の状態の変化を表すデータに関する時刻情報及び画素のアドレスとが、予め設定された保存形式で記憶される。
データ格納制御部22は、空間データ取得部23aによって取得された画素の状態の変化を表すデータ及びデータ受信部21によって受信された画素の状態の変化を表すデータを、予め設定された保存形式のデータとして記憶部20Bに記憶させる。
これにより、画素毎に変化が検出され次第、非同期的に画素の状態を表すデータが出力されることから、撮像された1フレーム毎のデジタル画像を出力して物体検出等のアプリケーションに用いる従来の技術に比べ、画角における被写体の変化を少ないデータ量で高速に検出することが可能となる。
また、撮像装置1は、所定の保存形式で格納された画素データを読み出し、各種アプリケーションに用いることができる。
また、仮想的に被写体の状態を検出したデータと、撮像により検出した画素の状態の変化を表すデータとを相互に補間させて、より適切な処理を行うことができる。
したがって、撮像装置1によれば、デジタル画像を用いた情報処理技術において、より適切な機能を実現することが可能となる。
Further, the imaging device 1 includes an imaging unit 10, a data receiving unit 21, a data storage control unit 22, a processing unit 23, and a storage unit 20B.
The image pickup unit 10 transmits data representing a change in the state of the pixels corresponding to the image pickup element based on the change in the output of the image pickup element provided in the image pickup sensor that images the subject.
The data receiving unit 21 asynchronously receives the data representing the change in the state of the pixels transmitted by the imaging unit 10 for each pixel.
The storage unit 20B includes data representing a change in the state of the pixel acquired by the spatial data acquisition unit 23a, data representing the change in the state of the pixel received by the data receiving unit 21, and data representing the change in the state of the pixel. Time information and pixel addresses related to the data are stored in a preset storage format.
The data storage control unit 22 stores the data representing the change in the pixel state acquired by the spatial data acquisition unit 23a and the data representing the change in the pixel state received by the data receiving unit 21 in a preset storage format. It is stored in the storage unit 20B as data.
As a result, as soon as a change is detected for each pixel, data representing the state of the pixel is output asynchronously. Therefore, a conventional digital image for each frame captured is output and used for applications such as object detection. Compared to technology, it is possible to detect changes in the subject at an angle of view at high speed with a small amount of data.
Further, the image pickup apparatus 1 can read pixel data stored in a predetermined storage format and use it for various applications.
Further, it is possible to perform more appropriate processing by interpolating the data that virtually detects the state of the subject and the data that represents the change in the state of the pixels detected by imaging.
Therefore, according to the image pickup apparatus 1, it is possible to realize more appropriate functions in the information processing technology using digital images.

空間データ取得部23aは、取得した画素の状態の変化を表すデータ及びデータ受信部21によって受信された画素の状態の変化を表すデータの少なくともいずれかに基づいて、3次元空間を表す空間データを構築する。
これにより、仮想的に被写体の状態を検出したデータと、撮像により検出した画素の状態の変化を表すデータとを相互に補間させて、3次元空間のデータをより高精度なものとすることができる。
The spatial data acquisition unit 23a obtains spatial data representing a three-dimensional space based on at least one of data representing a change in the state of the acquired pixel and data representing a change in the state of the pixel received by the data receiving unit 21. To construct.
As a result, the data that virtually detects the state of the subject and the data that represents the change in the state of the pixels detected by imaging can be interpolated with each other to make the data in the three-dimensional space more accurate. it can.

また、撮像装置1は、シミュレーション処理部23bを備える。
シミュレーション処理部23bは、空間データ取得部23aによって構築された空間データに基づいて、移動可能な装置から視認される被写体の変化を検出し、移動を制御するためのシミュレーションを行う。
これにより、移動可能な装置を制御するための種々のアルゴリズムを設定し、シミュレーション結果を取得することができる。
Further, the imaging device 1 includes a simulation processing unit 23b.
The simulation processing unit 23b detects a change in the subject visually recognized from the movable device based on the spatial data constructed by the spatial data acquisition unit 23a, and performs a simulation for controlling the movement.
Thereby, various algorithms for controlling the movable device can be set and the simulation result can be acquired.

また、撮像装置1は、解析処理部23cを備える。
解析処理部23cは、シミュレーション処理部23bによるシミュレーションの結果に基づいて、移動を制御するためのアルゴリズムに関する学習を行う。
これにより、構築された空間データを用いてシミュレーションを繰り返し行うことで、より適切なアルゴリズムを生成することができる。
Further, the image pickup apparatus 1 includes an analysis processing unit 23c.
The analysis processing unit 23c learns about an algorithm for controlling the movement based on the result of the simulation by the simulation processing unit 23b.
As a result, a more appropriate algorithm can be generated by repeating the simulation using the constructed spatial data.

解析処理部23cは、空間データ取得部23aによって取得された画素の状態の変化を表すデータ及びデータ受信部21によって受信された画素の状態の変化を表すデータを、当該データについて撮像素子の出力の変化を判定するために用いられた閾値に基づいて正規化し、画素の変化を表示する。
これにより、取得された画素の状態の変化を客観的に解析可能な形態で表示することができる。
The analysis processing unit 23c outputs data representing the change in the pixel state acquired by the spatial data acquisition unit 23a and data representing the change in the pixel state received by the data receiving unit 21 to the output of the image sensor for the data. Normalize based on the threshold used to determine the change and display the pixel change.
As a result, it is possible to display the change in the state of the acquired pixel in a form that can be objectively analyzed.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
即ち、本発明は、撮像機能を備える各種電子機器、あるいは、情報処理機能を備える各種電子機器に対して適用することができる。
The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the range in which the object of the present invention can be achieved are included in the present invention.
That is, the present invention can be applied to various electronic devices having an imaging function or various electronic devices having an information processing function.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図1及び図10の構成、図11の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be executed by hardware or software.
In other words, the configurations of FIGS. 1 and 10 and the functional configurations of FIG. 11 are merely examples and are not particularly limited. That is, it is sufficient that the image pickup apparatus 1 is provided with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is not particularly limited.
Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.
The functional configuration in the present embodiment is realized by a processor that executes arithmetic processing, and the processor that can be used in the present embodiment is composed of various processing units such as a single processor, a multiprocessor, and a multicore processor. In addition to the above, it includes a combination of these various processing units and processing circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array).

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processes are executed by software, the programs constituting the software are installed on a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されているROM(Read Only Memory)や、記憶部20Bに含まれる半導体メモリ等で構成される。 The recording medium containing such a program is not only composed of removable media distributed separately from the device main body in order to provide the program to the user, but is also provided to the user in a state of being preliminarily incorporated in the device main body. It is composed of a recording medium and the like. The removable media is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versaille Disk), a Blu-ray (registered trademark) Disc (Blu-ray Disc), or the like. The magneto-optical disk is composed of MD (Mini-Disk) or the like. Further, the recording medium provided to the user in a state of being incorporated in the apparatus main body in advance includes, for example, a ROM (Read Only Memory) in which the program is recorded, a semiconductor memory included in the storage unit 20B, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various modifications such as omission and substitution can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1 撮像装置、10,100 撮像ユニット、11,111 レンズ、12,112 撮像デバイス、20 情報処理ユニット、20A プロセッサ、20B 記憶部、21 データ受信部、22 データ格納制御部、23 処理部、23a 空間データ取得部、23b シミュレーション処理部、23c 解析処理部、24 出力データ記憶部、24a 増加時用フレームメモリ、24b 減少時用フレームメモリ、25 ライブラリ記憶部、26 3Dモデルデータベース、30 センサユニット 1 Imaging device, 10,100 Imaging unit, 11,111 lens, 12,112 Imaging device, 20 Information processing unit, 20A processor, 20B storage unit, 21 Data receiving unit, 22 Data storage control unit, 23 Processing unit, 23a space Data acquisition unit, 23b simulation processing unit, 23c analysis processing unit, 24 output data storage unit, 24a frame memory for increase, 24b frame memory for decrease, 25 library storage unit, 26 3D model database, 30 sensor unit

Claims (18)

被写体を撮像する撮像センサに備えられた撮像素子の出力の変化に基づいて、前記撮像素子に対応する画素の状態の変化を表すデータを送信する撮像手段と、
前記撮像手段によって送信された前記画素の状態の変化を表すデータを、画素毎に非同期的に受信するデータ受信手段と、
前記画素の状態の変化を表すデータと、当該画素の状態の変化を表すデータに関する時刻情報及び画素のアドレスとが、予め設定された保存形式で記憶される記憶手段と、
前記データ受信手段によって受信された前記画素の状態の変化を表すデータを、前記保存形式のデータとして前記記憶手段に記憶させる記憶制御手段と、
を備えることを特徴とする撮像装置。
An imaging means that transmits data representing a change in the state of pixels corresponding to the image sensor based on a change in the output of the image sensor provided in the image sensor that images the subject.
A data receiving means that asynchronously receives data representing a change in the state of the pixel transmitted by the imaging means for each pixel.
A storage means in which data representing a change in the state of the pixel, time information relating to the data representing the change in the state of the pixel, and the address of the pixel are stored in a preset storage format.
A storage control means for storing data representing a change in the state of the pixel received by the data receiving means in the storage means as data in the storage format.
An imaging device characterized by comprising.
前記記憶手段は、前記画素の状態の変化を表すデータが増加を表している場合に当該データを記憶する増加時用記憶領域と、前記画素の状態の変化を表すデータが減少を表している場合に当該データを記憶する減少時用記憶領域とを備え、
前記記憶制御手段は、前記画素の状態の変化を表すデータが増加を表している場合、当該データを前記記憶手段における前記増加時用記憶領域に記憶させ、前記画素の状態の変化を表すデータが減少を表している場合、当該データを前記記憶手段における前記減少時用記憶領域に記憶させることを特徴とする請求項1に記載の撮像装置。
The storage means has an increasing storage area for storing the data when the data representing the change in the state of the pixel represents an increase, and a storage area for increasing when the data representing the change in the state of the pixel represents a decrease. It is equipped with a storage area for reduction to store the data.
When the data representing the change in the state of the pixel represents an increase, the storage control means stores the data in the storage area for increase in the storage means, and the data representing the change in the state of the pixel is stored. The imaging apparatus according to claim 1, wherein when the data represents a decrease, the data is stored in the storage area for reduction in the storage means.
前記撮像手段から送信されるデータ量に基づいて、前記撮像素子の出力の変化を判定するための閾値が変更されることを特徴とする請求項1または2に記載の撮像装置。 The imaging device according to claim 1 or 2, wherein a threshold value for determining a change in the output of the imaging element is changed based on the amount of data transmitted from the imaging means. 前記記憶制御手段は、前記撮像素子に対応する画素の状態の変化を表すデータと、当該データについて前記撮像素子の出力の変化を判定するために用いられた閾値とを対応付けて前記記憶手段に記憶させることを特徴とする請求項1から3のいずれか1項に記載の撮像装置。 The storage control means provides the storage means with data representing a change in the state of pixels corresponding to the image sensor and a threshold value used for determining a change in the output of the image sensor for the data. The image pickup apparatus according to any one of claims 1 to 3, wherein the image sensor is stored. 前記撮像手段から送信される前記撮像素子に対応する画素の状態の変化を表すデータの分布に応じて、前記撮像手段におけるフォーカスまたはズームの制御を行う撮像制御手段を備えることを特徴とする請求項1から4のいずれか1項に記載の撮像装置。 A claim comprising an image pickup control means for controlling focus or zoom in the image pickup means according to a distribution of data representing a change in the state of pixels corresponding to the image pickup element transmitted from the image pickup means. The image pickup apparatus according to any one of 1 to 4. 前記撮像センサは、前記撮像素子にカラーフィルタを備え、
前記撮像素子に対応する画素の状態の変化を表すデータは、前記撮像素子に備えられた前記カラーフィルタが透過する光の波長に対応する画素の状態を表すことを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
The image sensor includes a color filter in the image sensor.
Claims 1 to 5 are characterized in that the data representing the change in the state of the pixel corresponding to the image sensor represents the state of the pixel corresponding to the wavelength of the light transmitted through the color filter provided in the image sensor. The image pickup apparatus according to any one of the above items.
風景を表す画像のデータを取得する画像取得手段と、
前記撮像手段から送信された前記撮像素子に対応する画素の状態の変化を表すデータと、前記画像取得手段によって取得された前記画像のデータとを対応付けて、アプリケーションによる処理を実行する処理手段と、
を備えることを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
Image acquisition means for acquiring image data representing landscapes,
A processing means for executing processing by an application by associating data representing a change in the state of pixels corresponding to the image pickup element transmitted from the image pickup means with the data of the image acquired by the image acquisition means. ,
The imaging device according to any one of claims 1 to 6, wherein the image pickup apparatus is provided with.
前記処理手段は、前記記憶手段に記憶された前記撮像素子に対応する画素の状態の変化を表すデータを画像として読み出すか、または、画素データとして読み出すかを切り替えることを特徴とする請求項7に記載の撮像装置。 The seventh aspect of the present invention is characterized in that the processing means switches between reading out data representing a change in the state of the pixels corresponding to the image sensor stored in the storage means as an image or reading out as pixel data. The imaging device described. 3次元仮想空間において、被写体を仮想的に撮像した際の仮想的な撮像素子に対応する画素の状態の変化を表すデータを、画素毎に非同期的に取得する仮想データ取得手段を備えることを特徴とする情報処理装置。 In a three-dimensional virtual space, it is characterized by providing a virtual data acquisition means for asynchronously acquiring data representing a change in the state of pixels corresponding to a virtual image sensor when a subject is virtually imaged for each pixel. Information processing device. 被写体を撮像する撮像センサに備えられた撮像素子の出力の変化に基づいて、前記撮像素子に対応する画素の状態の変化を表すデータを送信する撮像手段と、
前記撮像手段によって送信された前記画素の状態の変化を表すデータを、画素毎に非同期的に受信するデータ受信手段と、
前記仮想データ取得手段によって取得された前記画素の状態の変化を表すデータ及び前記データ受信手段によって受信された画素の状態の変化を表すデータと、当該画素の状態の変化を表すデータに関する時刻情報及び画素のアドレスとが、予め設定された保存形式で記憶される記憶手段と、
前記仮想データ取得手段によって取得された前記画素の状態の変化を表すデータ及び前記データ受信手段によって受信された画素の状態の変化を表すデータを、前記保存形式のデータとして前記記憶手段に記憶させる記憶制御手段と、
を備えることを特徴とする請求項9に記載の情報処理装置。
An imaging means that transmits data representing a change in the state of pixels corresponding to the image sensor based on a change in the output of the image sensor provided in the image sensor that images the subject.
A data receiving means that asynchronously receives data representing a change in the state of the pixel transmitted by the imaging means for each pixel.
Data representing the change in the state of the pixel acquired by the virtual data acquisition means, data representing the change in the state of the pixel received by the data receiving means, time information relating to data representing the change in the state of the pixel, and time information. A storage means in which pixel addresses are stored in a preset storage format, and
A storage in which the data representing the change in the state of the pixel acquired by the virtual data acquisition means and the data representing the change in the state of the pixel received by the data receiving means are stored in the storage means as the data in the storage format. Control means and
9. The information processing apparatus according to claim 9.
前記仮想データ取得手段によって取得された前記画素の状態の変化を表すデータ及び前記データ受信手段によって受信された画素の状態の変化を表すデータの少なくともいずれかに基づいて、3次元空間を表す空間データを構築する空間データ構築手段を備えることを特徴とする請求項10に記載の情報処理装置。 Spatial data representing a three-dimensional space based on at least one of data representing a change in the state of the pixel acquired by the virtual data acquisition means and data representing a change in the state of the pixel received by the data receiving means. The information processing apparatus according to claim 10, further comprising a spatial data construction means for constructing the data. 前記空間データ構築手段によって構築された前記空間データに基づいて、移動可能な装置から視認される被写体の変化を検出し、移動を制御するためのシミュレーションを行うシミュレーション手段を備えることを特徴とする請求項11に記載の情報処理装置。 A claim comprising a simulation means for detecting a change in a subject visually recognized from a movable device and performing a simulation for controlling the movement based on the spatial data constructed by the spatial data construction means. Item 11. The information processing apparatus according to item 11. 前記シミュレーション手段によるシミュレーションの結果に基づいて、移動を制御するためのアルゴリズムに関する学習を行う学習手段を備えることを特徴とする請求項12に記載の情報処理装置。 The information processing apparatus according to claim 12, further comprising a learning means for learning about an algorithm for controlling movement based on the result of simulation by the simulation means. 前記仮想データ取得手段によって取得された前記画素の状態の変化を表すデータ及び前記データ受信手段によって受信された画素の状態の変化を表すデータを、当該データについて前記撮像素子の出力の変化を判定するために用いられた閾値に基づいて正規化し、前記画素の変化を表示する解析手段を備えることを特徴とする請求項9から13のいずれか1項に記載の情報処理装置。 The data representing the change in the state of the pixel acquired by the virtual data acquisition means and the data representing the change in the state of the pixel received by the data receiving means are used to determine the change in the output of the image pickup element for the data. The information processing apparatus according to any one of claims 9 to 13, further comprising an analysis means for normalizing based on a threshold value used for the purpose and displaying a change in the pixel. 被写体を撮像する撮像センサに備えられた撮像素子の出力の変化に基づいて、前記撮像素子に対応する画素の状態の変化を表すデータを送信する撮像ステップと、
前記撮像ステップにおいて送信された前記画素の状態の変化を表すデータを、画素毎に非同期的に受信するデータ受信ステップと、
前記画素の状態の変化を表すデータと、当該画素の状態の変化を表すデータに関する時刻情報及び画素のアドレスとが、予め設定された保存形式で記憶される記憶手段に、前記データ受信ステップにおいて受信された前記画素の状態の変化を表すデータを、前記保存形式のデータとして記憶させる記憶制御ステップと、
を含むことを特徴とする撮像方法。
An imaging step of transmitting data representing a change in the state of pixels corresponding to the image sensor based on a change in the output of the image sensor provided in the image sensor that images the subject.
A data receiving step in which data representing a change in the state of the pixel transmitted in the imaging step is asynchronously received for each pixel, and
In the data receiving step, the data representing the change in the state of the pixel, the time information regarding the data representing the change in the state of the pixel, and the address of the pixel are received by the storage means stored in the preset storage format. A storage control step for storing the data representing the change in the state of the pixel as the data in the storage format, and
An imaging method comprising:
3次元仮想空間において、被写体を仮想的に撮像した際の仮想的な撮像素子に対応する画素の状態の変化を表すデータを、画素毎に非同期的に取得する仮想データ取得ステップと、
を含むことを特徴とする情報処理方法。
In a three-dimensional virtual space, a virtual data acquisition step of asynchronously acquiring data representing a change in the state of pixels corresponding to a virtual image sensor when a subject is virtually imaged for each pixel,
An information processing method characterized by including.
コンピュータに、
被写体を撮像する撮像センサに備えられた撮像素子の出力の変化に基づいて、前記撮像素子に対応する画素の状態の変化を表すデータを送信する撮像手段によって送信された前記画素の状態の変化を表すデータを、画素毎に非同期的に受信するデータ受信機能と、
前記画素の状態の変化を表すデータと、当該画素の状態の変化を表すデータに関する時刻情報及び画素のアドレスとが、予め設定された保存形式で記憶される記憶手段に、前記データ受信機能によって受信された前記画素の状態の変化を表すデータを、前記保存形式のデータとして記憶させる記憶制御機能と、
を実現させることを特徴とするプログラム。
On the computer
Based on the change in the output of the image sensor provided in the image sensor that images the subject, the change in the state of the pixel transmitted by the image pickup means that transmits data representing the change in the state of the pixel corresponding to the image sensor. A data reception function that receives the represented data asynchronously for each pixel,
The data representing the change in the state of the pixel, the time information related to the data representing the change in the state of the pixel, and the address of the pixel are received by the data receiving function in a storage means stored in a preset storage format. A storage control function for storing the data representing the change in the state of the pixel as the data in the storage format, and
A program characterized by realizing.
コンピュータに、
3次元仮想空間において、被写体を仮想的に撮像した際の仮想的な撮像素子に対応する画素の状態の変化を表すデータを、画素毎に非同期的に取得する仮想データ取得機能と、
を実現させることを特徴とするプログラム。
On the computer
A virtual data acquisition function that asynchronously acquires data representing changes in the state of pixels corresponding to a virtual image sensor when a subject is virtually imaged in a three-dimensional virtual space, for each pixel.
A program characterized by realizing.
JP2019103387A 2019-05-31 2019-05-31 Imaging device, imaging method and program Active JP7393851B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019103387A JP7393851B2 (en) 2019-05-31 2019-05-31 Imaging device, imaging method and program
JP2023119527A JP2023130522A (en) 2019-05-31 2023-07-22 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019103387A JP7393851B2 (en) 2019-05-31 2019-05-31 Imaging device, imaging method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023119527A Division JP2023130522A (en) 2019-05-31 2023-07-22 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2020198535A true JP2020198535A (en) 2020-12-10
JP7393851B2 JP7393851B2 (en) 2023-12-07

Family

ID=73649348

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019103387A Active JP7393851B2 (en) 2019-05-31 2019-05-31 Imaging device, imaging method and program
JP2023119527A Pending JP2023130522A (en) 2019-05-31 2023-07-22 Information processing device, information processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023119527A Pending JP2023130522A (en) 2019-05-31 2023-07-22 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (2) JP7393851B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008547071A (en) * 2005-06-15 2008-12-25 オーストリアン リサーチ センターズ ゲーエムベーハー−アーエルツェー Method and image evaluation unit for scene analysis
US20140320706A1 (en) * 2013-04-30 2014-10-30 Samsung Electronics Co., Ltd. Method and apparatus for sensing spatial information based on vision sensor
JP2020182122A (en) * 2019-04-25 2020-11-05 トヨタ自動車株式会社 Event camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008547071A (en) * 2005-06-15 2008-12-25 オーストリアン リサーチ センターズ ゲーエムベーハー−アーエルツェー Method and image evaluation unit for scene analysis
US20140320706A1 (en) * 2013-04-30 2014-10-30 Samsung Electronics Co., Ltd. Method and apparatus for sensing spatial information based on vision sensor
JP2020182122A (en) * 2019-04-25 2020-11-05 トヨタ自動車株式会社 Event camera

Also Published As

Publication number Publication date
JP2023130522A (en) 2023-09-20
JP7393851B2 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
CN102891960B (en) Method and camera for determining an image adjustment parameter
CN105611230B (en) Image processing apparatus and image processing method
US9542754B2 (en) Device and method for detecting moving objects
US7973833B2 (en) System for and method of taking image and computer program
CN103179350B (en) The camera and method of the exposure of picture frame in picture frame sequence based on the sports level optimization capturing scenes in scene
JP4694589B2 (en) Automatic monitoring system
US10984550B2 (en) Image processing device, image processing method, recording medium storing image processing program and image pickup apparatus
JP7334432B2 (en) Object tracking device, monitoring system and object tracking method
CN110677585A (en) Target detection frame output method and device, terminal and storage medium
JP6924064B2 (en) Image processing device and its control method, and image pickup device
JP2022520772A (en) How to process a series of events received asynchronously from a pixel array of event-based optical sensors
JP2021005846A (en) Stacked imaging device, imaging device, imaging method, learning method, and image readout circuit
CN115760912A (en) Moving object tracking method, device, equipment and computer readable storage medium
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
JP4664878B2 (en) Image processing device
CN110930437B (en) Target tracking method and device
JP7393851B2 (en) Imaging device, imaging method and program
WO2022227916A1 (en) Image processing method, image processor, electronic device, and storage medium
KR20230064959A (en) Surveillance Camera WDR(Wide Dynamic Range) Image Processing Using Object Detection Based on Artificial Intelligence
CN115037869A (en) Automatic focusing method and device, electronic equipment and computer readable storage medium
JP2017038243A (en) Imaging apparatus
CN115512242B (en) Scene change detection method and flight device
JP7324066B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
CN114979607B (en) Image processing method, image processor and electronic equipment
CN113132645B (en) Image acquisition method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231126

R150 Certificate of patent or registration of utility model

Ref document number: 7393851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150