JP2023143123A - Imaging apparatus, imaging system, control method, and program - Google Patents

Imaging apparatus, imaging system, control method, and program Download PDF

Info

Publication number
JP2023143123A
JP2023143123A JP2022050339A JP2022050339A JP2023143123A JP 2023143123 A JP2023143123 A JP 2023143123A JP 2022050339 A JP2022050339 A JP 2022050339A JP 2022050339 A JP2022050339 A JP 2022050339A JP 2023143123 A JP2023143123 A JP 2023143123A
Authority
JP
Japan
Prior art keywords
size
subject
imaging
readout
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022050339A
Other languages
Japanese (ja)
Inventor
泰輝 眞下
Taiki Mashimo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022050339A priority Critical patent/JP2023143123A/en
Publication of JP2023143123A publication Critical patent/JP2023143123A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus, an imaging system, a control method, and a program that are capable of quickly detecting a subject regardless of the size of the subject in a capturing image and suppressing the reduction of a detection rate.SOLUTION: An imaging apparatus 100 includes an imaging unit 102 that has a pixel area 102a in which a plurality of pixels is arranged and reads out a captured image from the pixel area 102a, a DSP 106 that performs recognition processing for recognizing a subject included in the captured image, and a subject size calculation unit 115 for detecting the size of the subject. When reading out the captured image, the imaging unit 102 changes the size of a read-out area to be read out in the pixel area 102a.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置、撮像システム、制御方法およびプログラムに関する。 The present invention relates to an imaging device, an imaging system, a control method, and a program.

近年、デジタル一眼カメラやビデオカメラ、スマートフォン等様々な分野で機械学習による被写体認識が行われてきている。特許文献1には、撮像信号を読み出す際に任意の読み出し単位を設定し、読み出し単位毎に教師あり学習を行った学習モデルに基づいて、被写体を認識する認識処理を行う撮像装置が開示されている。そして、この撮像装置では、1フレームの画像データが揃う前に、被写体の認識を行うことができる。 In recent years, object recognition using machine learning has been performed in various fields such as digital single-lens cameras, video cameras, and smartphones. Patent Document 1 discloses an imaging device that performs recognition processing to recognize a subject based on a learning model in which an arbitrary readout unit is set when reading out an imaging signal and supervised learning is performed for each readout unit. There is. In this imaging device, a subject can be recognized before one frame of image data is collected.

特許6635222号公報Patent No. 6635222

特許文献1に記載の撮像装置では、読み出し速度を向上させるために、読み出し単位に間欠したパターンを設定したり、読み出しを間引いたりしている。しかしながら、このような読み出し構成では、撮像面上に被写体が比較的小さく結像されている場合、その被写体の検出率が低下するという問題がある。 In the imaging device described in Patent Document 1, in order to improve the readout speed, an intermittent pattern is set in the readout unit or the readout is thinned out. However, such a readout configuration has a problem in that when a relatively small image of a subject is formed on the imaging surface, the detection rate of the subject decreases.

本発明は、撮像画像内での被写体の大きさに関わらず、当該被写体を迅速に検出することができるともに、その検出率の低下を抑制することができる撮像装置、撮像システム、制御方法およびプログラムを提供することを目的とする。 The present invention provides an imaging device, an imaging system, a control method, and a program that can quickly detect an object regardless of the size of the object in a captured image and can suppress a decrease in the detection rate. The purpose is to provide

上記目的を達成するために、本発明の撮像装置は、複数の画素が配列された画素領域を有し、画素領域から撮像画像を読み出す撮像手段と、撮像画像に含まれる被写体を認識する認識処理を行う認識手段と、被写体の大きさを検出する検出手段と、を備え、撮像手段は、撮像画像を読み出す際には、被写体の大きさに応じて、画素領域において読み出される読出領域の大きさが変更されることを特徴とする。 In order to achieve the above object, an imaging device of the present invention has a pixel area in which a plurality of pixels are arranged, an imaging means for reading out a captured image from the pixel area, and a recognition process for recognizing a subject included in the captured image. and a detection means that detects the size of the subject. is characterized by being changed.

本発明によれば、撮像画像内での被写体の大きさに関わらず、当該被写体を迅速に検出することができるともに、その検出率の低下を抑制することができる。 According to the present invention, regardless of the size of the subject in a captured image, it is possible to quickly detect the subject, and it is possible to suppress a decrease in the detection rate.

第1実施形態の撮像装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of an imaging device according to a first embodiment; FIG. 撮像部で撮像された撮像画像の一例である。This is an example of a captured image captured by the imaging unit. 図1に示す撮像装置の詳細ブロック図である。FIG. 2 is a detailed block diagram of the imaging device shown in FIG. 1. FIG. 被写体サイズ算出部が実行する被写体サイズ算出処理のフローチャートである。3 is a flowchart of a subject size calculation process executed by a subject size calculation unit. 読出領域決定部が実行する読出領域決定処理のフローチャートである。3 is a flowchart of a readout area determination process executed by a readout area determination unit. 第2実施形態の撮像装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of an imaging device according to a second embodiment. 第3実施形態の撮像装置の構成例を示すブロック図である。FIG. 7 is a block diagram showing a configuration example of an imaging device according to a third embodiment.

以下、本発明の各実施形態について図面を参照しながら詳細に説明する。しかしながら、以下の各実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は各実施形態に記載されている構成によって限定されることはない。 Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings. However, the configurations described in each embodiment below are merely examples, and the scope of the present invention is not limited by the configurations described in each embodiment.

<第1実施形態>
以下、図1~図5を参照して、第1実施形態について説明する。図1は、第1実施形態の撮像装置の構成例を示すブロック図である。図1に示すように、撮像装置100は、撮像レンズ101、撮像部(撮像手段)102、A/D変換器103、信号処理部104、メモリ105、DSP(Digital Signal Processor)106、出力部107、CPU108を有する。
<First embodiment>
The first embodiment will be described below with reference to FIGS. 1 to 5. FIG. 1 is a block diagram showing a configuration example of an imaging device according to a first embodiment. As shown in FIG. 1, the imaging device 100 includes an imaging lens 101, an imaging section (imaging means) 102, an A/D converter 103, a signal processing section 104, a memory 105, a DSP (Digital Signal Processor) 106, and an output section 107. , has a CPU 108.

撮像レンズ101は、ズームレンズ、フォーカスレンズ、シフトレンズ、絞り等を含むレンズ群で構成される。撮像部102は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器103は、アナログ信号をデジタル信号に変換する。このA/D変換器103は、撮像部102から出力されるアナログ信号をデジタル信号に変換するために用いられる。信号処理部104は、A/D変換器103からのデータに対し、所定の画素補間や縮小等を行うリサイズ処理、その他、色変換処理等を行う。A/D変換器103からの出力データは、信号処理部104を介してメモリ105に直接書き込まれる。 The imaging lens 101 is composed of a lens group including a zoom lens, a focus lens, a shift lens, an aperture, and the like. The imaging unit 102 is an imaging device configured with a CCD, CMOS device, or the like that converts an optical image into an electrical signal. A/D converter 103 converts analog signals into digital signals. This A/D converter 103 is used to convert an analog signal output from the imaging section 102 into a digital signal. The signal processing unit 104 performs resizing processing such as predetermined pixel interpolation and reduction, and other color conversion processing on the data from the A/D converter 103. Output data from the A/D converter 103 is directly written into the memory 105 via the signal processing unit 104.

DSP106は、信号処理部104からの出力データ、または、信号処理部104からメモリ105を介して取得したデータに対して、視認用の画像処理を行う。また、DSP106は、画像処理が行われたデータをメモリ105へ格納したり、出力部107へ出力したりする。また、DSP106は、信号処理部104からの出力データ、または、信号処理部104からメモリ105を介して取得したデータを入力データとして、当該データ(撮像画像)に含まれる被写体を認識する認識処理を行う(認識工程)。この認識処理は、機械学習が行われた学習モデルに基づいて行われる。これにより、学習が行われるたびに、被写体の認識率(推定率)が向上していく。そして、DSP106は、認識処理が行われたデータを出力データとして、当該データをメモリ105へ格納したり、出力部107へ出力したりする。このようにDSP106は、視認用の画像処理を行う画像処理手段としての機能と、被写体を認識する認識処理を行う認識手段としての機能とを有する。 The DSP 106 performs visual image processing on output data from the signal processing unit 104 or data acquired from the signal processing unit 104 via the memory 105. Further, the DSP 106 stores the image-processed data in the memory 105 or outputs it to the output unit 107. Further, the DSP 106 uses output data from the signal processing unit 104 or data acquired from the signal processing unit 104 via the memory 105 as input data, and performs recognition processing to recognize a subject included in the data (captured image). (recognition process). This recognition process is performed based on a learning model that has been subjected to machine learning. As a result, the object recognition rate (estimation rate) improves each time learning is performed. Then, the DSP 106 stores the data on which the recognition process has been performed as output data in the memory 105 or outputs the data to the output unit 107. In this way, the DSP 106 has a function as an image processing means that performs image processing for visual recognition, and a function as a recognition means that performs recognition processing for recognizing a subject.

メモリ105は、DSP106によって処理された画像データや認識結果等の各種のデータを格納する。メモリ105は、各種のデータを格納するのに十分な記憶容量を有する。また、メモリ105は、不揮発性メモリを兼ねている。不揮発性メモリは、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリには、DSP106やCPU108の動作用の定数、プログラム等が記憶される。このプログラムには、例えば、撮像装置100の各部や各手段の作動をCPU108(コンピュータ)に実行させるためのプログラム等が含まれる。出力部107は、DSP106によって処理された画像データや認識結果を外部に出力する。 The memory 105 stores various data such as image data processed by the DSP 106 and recognition results. Memory 105 has sufficient storage capacity to store various types of data. Furthermore, the memory 105 also serves as a nonvolatile memory. The nonvolatile memory is a memory that can be electrically erased and recorded, and for example, an EEPROM or the like is used. Constants, programs, etc. for the operation of the DSP 106 and the CPU 108 are stored in the nonvolatile memory. This program includes, for example, a program for causing the CPU 108 (computer) to execute operations of each section and each means of the imaging apparatus 100. The output unit 107 outputs the image data and recognition results processed by the DSP 106 to the outside.

CPU108は、撮像装置100全体を制御する。CPU108は、前述したメモリ105に記録されたプログラムに基づいて、後述する各処理を実行する。なお、メモリ105は、システムメモリを兼ねている。システムメモリには、RAMが用いられ、CPU108の動作用の定数、変数、不揮発性メモリから読み出したプログラム等が展開される。 The CPU 108 controls the entire imaging device 100. The CPU 108 executes each process described below based on the program recorded in the memory 105 described above. Note that the memory 105 also serves as a system memory. A RAM is used as the system memory, and constants and variables for the operation of the CPU 108, programs read from the nonvolatile memory, and the like are expanded.

前述したように、撮像装置100は、撮像部102を有する。撮像部102は、ライン順次で読み出しを行うローリングシャッタ方式であってもよいし、全画素を一括で読み出すグローバルシャッタ方式であってもよい。また、撮像部102は、撮像面である画素領域102a内の部分的な領域を、画素領域102aにおいて最小単位で読み出される読出単位として設定し、デジタル信号の読み出しを行うことができる。また、DSP106は、読出単位毎に教師データあり機械学習を行い、認識処理を実行することができる。これにより、本来であれば1フレームのデジタル信号が揃ってから行っていた処理を、時分割して撮像周期より短い周期で処理を行うことができ、認識処理の高速化を期待することができる。読出単位は、例えば、ローリングシャッタ方式の場合は、任意の連続したライン群であったり、離散的なライン群であったりする。グローバルシャッタ方式の場合は、読出単位は、連続した画素群の矩形領域であったり、さらに、それらを離散的に配置したパターンであったりする。 As described above, the imaging device 100 includes the imaging section 102. The imaging unit 102 may be of a rolling shutter type that reads out lines sequentially, or may be of a global shutter type that reads out all pixels at once. Furthermore, the imaging unit 102 can read out digital signals by setting a partial area within the pixel area 102a, which is the imaging surface, as a reading unit that is read out in the smallest unit in the pixel area 102a. Further, the DSP 106 can perform machine learning with training data for each reading unit and execute recognition processing. As a result, processing that would normally be performed after one frame of digital signals has been completed can be time-divided and processed in a cycle shorter than the imaging cycle, which can be expected to speed up recognition processing. . For example, in the case of a rolling shutter method, the reading unit may be any continuous line group or a discrete line group. In the case of the global shutter method, the readout unit is a rectangular area of a continuous pixel group, or a pattern in which these are arranged discretely.

また、撮像部102は、デジタル信号の読み出しを間引いて行うこともできる。間引いて読み出したデジタル信号に対して認識処理を行うことで演算周期の高速化を期待することができる。例えば、撮像部102は、全画素領域102aの画素数の1/4のみ読み出して認識処理を実行することができる。また、撮像部102は、この1/4の認識処理でも依然として所望の認識結果が得られなかった場合は、順次、全画素領域102aの画素数の2/4、3/4、全画素と読み出す画素数を増加させることが可能である。これにより、いずれは所望の認識結果に到達することができる。 Further, the imaging unit 102 can also read out digital signals by thinning out the reading. By performing recognition processing on the digital signals that have been thinned out and read out, it is possible to expect a faster calculation cycle. For example, the imaging unit 102 can read out only 1/4 of the number of pixels in the total pixel area 102a and execute the recognition process. Further, if the desired recognition result is still not obtained even after this 1/4 recognition process, the imaging unit 102 sequentially reads out 2/4, 3/4, and all pixels of the number of pixels in the total pixel area 102a. It is possible to increase the number of pixels. With this, it is possible to eventually reach the desired recognition result.

図2は、撮像部で撮像された撮像画像の一例である。図2に示すように、撮像部102は、複数の画素が配列された画素領域102aを有し、図示の場合、画素領域102aが縦方向と横方向とそれぞれ16分割されている、すなわち、画素が縦方向と横方向とそれぞれ16個配列されている。1つの画素は、正方形であり、画素領域102aから撮像画像を読み出す際(撮像工程)の読出単位となる。図2では、撮像画像に含まれる被写体として、2つのアルファベット「Z」があり、遠近法により、撮像装置100に近い方の「Z」が大きく、撮像装置100に遠い方の「Z」が小さくなっている。また、図2では、画素領域102aには、白抜きされた白抜き部と、ハッチングが施されたハッチング部とがある。白抜き部は、読み出される部分(以下「読出領域102b」と言う)である。ハッチング部は、読み出されずに間引きされる、すなわち、画素領域102aにおいて読み出しが停止される部分(以下「間引き領域102c」と言う)である。 FIG. 2 is an example of a captured image captured by the imaging unit. As shown in FIG. 2, the imaging unit 102 has a pixel area 102a in which a plurality of pixels are arranged. are arranged vertically and horizontally, 16 each. One pixel is a square, and serves as a readout unit when reading out a captured image from the pixel area 102a (imaging process). In FIG. 2, there are two alphabets "Z" as subjects included in the captured image, and due to perspective, the "Z" closer to the imaging device 100 is larger, and the "Z" farther from the imaging device 100 is smaller. It has become. Further, in FIG. 2, the pixel area 102a includes an outlined portion and a hatched portion. The white portion is the portion to be read (hereinafter referred to as "readout area 102b"). The hatched portion is a portion that is thinned out without being read out, that is, a portion where reading is stopped in the pixel region 102a (hereinafter referred to as “thinned out region 102c”).

図2(a)に示すように、全画素領域102aの1/4を読出領域102bとした場合、大きな被写体「Z」は、被写体として認識されるが、小さな被写体「Z」は、間引き領域102cを占める割合が多くなり、被写体として認識されない傾向となる。図2(a)では、被写体として認識された方を太線で囲んでいる。以降の図2(b)、(c)についても同様とする。図2(b)に示すように、全画素領域102aの3/4を読出領域102bとした場合には、大きな被写体「Z」、小さな被写体「Z」は、いずれも被写体として認識される。そこで、撮像装置100では、撮像部102は、撮像画像を読み出す際に、被写体サイズ(被写体の大きさ)に応じて、画素領域102aにおいて読み出される読出領域102bの大きさが変更されるよう構成されている。例えば図2(c)に示すように、大きな被写体「Z」と、小さな被写体「Z」とで間引き領域102cの数(量)を調整して読み出しを行う。これにより、撮像画像(画素領域102a)の読み出し速度を適切に維持しつつ、小さな被写体「Z」の検出率を向上させることができる。 As shown in FIG. 2A, when 1/4 of the total pixel area 102a is set as the readout area 102b, a large subject "Z" is recognized as a subject, but a small subject "Z" is located in the thinning area 102c. occupies a large proportion of the image, and tends not to be recognized as a subject. In FIG. 2(a), the one recognized as the subject is surrounded by a thick line. The same applies to subsequent FIGS. 2(b) and 2(c). As shown in FIG. 2B, when 3/4 of the total pixel area 102a is set as the readout area 102b, both the large object "Z" and the small object "Z" are recognized as objects. Therefore, in the imaging device 100, the imaging unit 102 is configured to change the size of the readout area 102b read out in the pixel area 102a according to the subject size (size of the subject) when reading out the captured image. ing. For example, as shown in FIG. 2C, reading is performed by adjusting the number (amount) of the thinning areas 102c for a large subject "Z" and a small subject "Z". Thereby, it is possible to improve the detection rate of the small subject "Z" while appropriately maintaining the readout speed of the captured image (pixel region 102a).

図3は、図1に示す撮像装置の詳細ブロック図である。なお、図3では、図1中の撮像レンズ101、A/D変換器103、信号処理部104、出力部107が省略されている。図3に示すように、撮像部102は、撮像センサ109、撮像制御部110を有する。撮像センサ109は、二次元に配列される画素アレイであり、撮像レンズ101により結像された被写体像を電気信号として読み出す。また、撮像センサ109は、画素に2つの光電変換部を持ち、各光電変換部から位相差検知用の電気信号を読み出すことができる。撮像制御部110は、撮像センサ109に蓄積されるアナログ信号の読出領域や読み出しタイミング等を制御する。また、撮像制御部110は、CPU108の読出領域決定部114により決定された読出単位と読出位置とに基づいて読み出しを制御する。 FIG. 3 is a detailed block diagram of the imaging device shown in FIG. 1. Note that in FIG. 3, the imaging lens 101, A/D converter 103, signal processing section 104, and output section 107 in FIG. 1 are omitted. As shown in FIG. 3, the imaging unit 102 includes an imaging sensor 109 and an imaging control unit 110. The image sensor 109 is a two-dimensional pixel array, and reads out a subject image formed by the image pickup lens 101 as an electrical signal. Further, the image sensor 109 has two photoelectric conversion units in each pixel, and can read out an electrical signal for phase difference detection from each photoelectric conversion unit. The imaging control unit 110 controls the readout area, readout timing, etc. of analog signals accumulated in the imaging sensor 109. Further, the imaging control unit 110 controls readout based on the readout unit and readout position determined by the readout area determination unit 114 of the CPU 108.

DSP106は、視認処理部111、認識処理部112、位相差算出部113を有する。メモリ105には、学習データ116、読出領域情報117が記憶されている。視認処理部111は、撮像制御部110で読み出され、A/D変換器103および信号処理部104を介して所定の変換処理を施されたデジタル信号に対して、デモザイク処理、ホワイトバランス処理等の視認処理を行う。また、視認処理部111は、視認処理で得られた視認用の画像データを、出力部107を介して出力する。認識処理部112は、メモリ105に記録され、機械学習によって作成された学習データ116に基づいて、演算処理を行うことにより、認識処理を実行する。また、認識処理部112は、認識処理で得られた認識結果を、出力部107を介して出力することができる。これにより、認識結果を外部で記録したり、使用したりすることが可能となる。位相差算出部113は、撮像制御部110の2つの光電変換部から読み出された被写体像の像面上の位相差を算出する。 The DSP 106 includes a visual recognition processing section 111, a recognition processing section 112, and a phase difference calculation section 113. The memory 105 stores learning data 116 and read area information 117. The visibility processing unit 111 performs demosaic processing, white balance processing, etc. on the digital signal read out by the imaging control unit 110 and subjected to predetermined conversion processing via the A/D converter 103 and the signal processing unit 104. Performs visual recognition processing. Furthermore, the visual recognition processing unit 111 outputs the image data for visual recognition obtained through the visual recognition process via the output unit 107 . The recognition processing unit 112 performs recognition processing by performing arithmetic processing based on learning data 116 recorded in the memory 105 and created by machine learning. Further, the recognition processing unit 112 can output the recognition result obtained in the recognition process via the output unit 107. This allows recognition results to be recorded and used externally. The phase difference calculation unit 113 calculates the phase difference on the image plane of the subject images read out from the two photoelectric conversion units of the imaging control unit 110.

なお、認識処理部112は、例えばGPU(Graphic Processing Unit)を有する。GPUは、ニューラルネットワーク演算のためのプロセッサであり、データをより多く並列処理して効率的な演算を行うことができる。例えばディープラーニングで学習させた学習モデルを用いて、その学習をさらに複数回にわたって行う場合には、GPUにより、当該学習処理を迅速に行うことができる。また、認識処理部112は、TPU(Tensor Processing Unit)、NPU(Neural Processing Unit/Neural Network Processing Unit)等をさらに有していてもよい。また、学習データは、認識処理部112が認識処理を実行するときに用いられる学習モデルを有する。学習モデルは、例えば、誤差逆伝搬法等によりパラメータが調整されたニューラルネットワークを用いた学習モデルである。これにより、認識処理部112は、例えば、学習するための特徴量、重み(結合重み付け係数)等の各種パラメータを自ら生成するディープラーニング(深層学習)を行うことができる。なお、機械学習としては、ディープラーニングに限定されず、例えば、サポートベクターマシン、ロジスティクス回帰、決定木、最近傍法、ナイーブベイズ法等の任意の機械学習アルゴリズムを用いた機械学習であってもよい。また、学習モデルは、ニューラルネットワーク以外を用いたモデルであってもよい。このような認識処理部112は、教師あり学習を行う。この教師あり学習では、認識対象となる被写体が含まれ、間引き領域102cが無い画像が正解データ(教師データ)とする。また、教師データとする画像は、複数あり、各画像では、被写体の大きさや位置等が互いに異なる。 Note that the recognition processing unit 112 includes, for example, a GPU (Graphic Processing Unit). A GPU is a processor for neural network calculations, and can process data in parallel to perform efficient calculations. For example, if a learning model trained by deep learning is used and the learning is performed multiple times, the learning process can be performed quickly using the GPU. Further, the recognition processing unit 112 may further include a TPU (Tensor Processing Unit), an NPU (Neural Processing Unit/Neural Network Processing Unit), and the like. Further, the learning data includes a learning model used when the recognition processing unit 112 executes recognition processing. The learning model is, for example, a learning model using a neural network whose parameters are adjusted by an error backpropagation method or the like. Thereby, the recognition processing unit 112 can perform, for example, deep learning in which various parameters such as feature amounts and weights (connection weighting coefficients) for learning are generated by itself. Note that machine learning is not limited to deep learning, and may be machine learning using any machine learning algorithm such as support vector machine, logistics regression, decision tree, nearest neighbor method, naive Bayes method, etc. . Furthermore, the learning model may be a model using something other than a neural network. Such a recognition processing unit 112 performs supervised learning. In this supervised learning, an image that includes the object to be recognized and does not have the thinned out region 102c is assumed to be correct data (supervised data). Further, there are a plurality of images to be used as training data, and each image has a different size, position, etc. of the subject.

CPU108は、読出領域決定部114、被写体サイズ算出部115を有する。被写体サイズ算出部115は、被写体サイズ(被写体の大きさ)を検出する検出手段であり、位相差算出部113により算出された位相差に基づいて、被写体サイズを表す数値データを算出する(検出工程)。読出領域決定部114は、被写体サイズ算出部115により算出された被写体サイズに応じて、撮像センサ109での読出領域102bの大きさや位置を決定する決定手段である。読出領域102bは、メモリ105に読出領域情報117として記録されている。読出領域情報117は、撮像センサ109の画素領域102aに対する読出単位および間引き領域102cの大きさ(量)に関する情報である。 The CPU 108 includes a readout area determining section 114 and a subject size calculating section 115. The subject size calculation unit 115 is a detection means that detects the subject size (size of the subject), and calculates numerical data representing the subject size based on the phase difference calculated by the phase difference calculation unit 113 (detection step ). The readout area determination unit 114 is a determining unit that determines the size and position of the readout area 102b in the image sensor 109 according to the subject size calculated by the subject size calculation unit 115. The reading area 102b is recorded in the memory 105 as reading area information 117. The readout area information 117 is information regarding the readout unit and the size (amount) of the thinning area 102c for the pixel area 102a of the image sensor 109.

なお、撮像装置100は、撮像部102が構成される(実装された)第1基板と、第1基板とは別に構成され、DSP106、CPU108およびメモリ105が構成される(実装された)第2基板とを有するのが好ましい。これにより、例えば、撮像装置100での撮像部102の配置位置を、撮影に適した位置に優先的に設計することができる。 Note that the imaging device 100 includes a first board on which the imaging unit 102 is configured (mounted), and a second board, which is configured separately from the first board and on which the DSP 106, CPU 108, and memory 105 are configured (mounted). It is preferable to have a substrate. Thereby, for example, the arrangement position of the imaging unit 102 in the imaging device 100 can be designed preferentially to a position suitable for imaging.

図4は、被写体サイズ算出部が実行する被写体サイズ算出処理のフローチャートである。図4のフローチャートに基づくプログラムは、メモリ105の不揮発性メモリに記録されている。このプログラムは、RAMに展開されて、被写体サイズ算出部115で実行される。 FIG. 4 is a flowchart of the subject size calculation process executed by the subject size calculation unit. A program based on the flowchart of FIG. 4 is recorded in the nonvolatile memory of the memory 105. This program is loaded into the RAM and executed by the subject size calculation unit 115.

被写体サイズ算出部115は、撮像面位相差方式により被写体サイズ(被写体までの距離)を検出する。具体的には、ステップS1000では、被写体サイズ算出部115は、位相差算出部113から像面位相差マップ(撮像面位相差マップ)を取得する。「像面位相差マップ」とは、画素領域102a内の基準領域に対する各画素の位相差を算出して、その算出結果を位相差マップとして表示したもののことを言う。 The subject size calculation unit 115 detects the subject size (distance to the subject) using an imaging plane phase difference method. Specifically, in step S1000, the subject size calculation unit 115 obtains an image plane phase difference map (imaging plane phase difference map) from the phase difference calculation unit 113. The "image plane phase difference map" refers to a map in which the phase difference of each pixel with respect to a reference area within the pixel area 102a is calculated and the calculation result is displayed as a phase difference map.

ステップS1001では、被写体サイズ算出部115は、撮像制御部110に現在設定されている読出単位と読出位置とを、読出領域決定部114を介して撮像制御部110から取得する。 In step S<b>1001 , the subject size calculation unit 115 acquires the readout unit and readout position currently set in the imaging control unit 110 from the imaging control unit 110 via the readout area determination unit 114 .

ステップS1002では、被写体サイズ算出部115は、像面位相差マップから像面位相差サブマップを抽出する。「像面位相差サブマップ」とは、撮像制御部110に現在設定されている読出単位と読出位置とに対応する、画素領域102a内の領域を位相差マップとして表示したもののことを言う。また、位相差算出部113に入力される位相差算出用のデジタル信号は、読出単位毎の信号でもよい。この場合は、現在の読出領域と像面位相差との対応が取れているため、ステップS1000およびステップS1001の処理を省略することができる。 In step S1002, the subject size calculation unit 115 extracts an image plane phase difference submap from the image plane phase difference map. The "image plane phase difference submap" refers to a region within the pixel area 102a that corresponds to the readout unit and readout position currently set in the imaging control unit 110 and is displayed as a phase difference map. Further, the digital signal for phase difference calculation inputted to the phase difference calculation unit 113 may be a signal for each readout unit. In this case, since there is a correspondence between the current readout area and the image plane phase difference, the processes of step S1000 and step S1001 can be omitted.

ステップS1003では、被写体サイズ算出部115は、像面位相差サブマップに所定の処理を施すことで、現在の読出単位における像面位相差データを算出する。この所定の処理としては、特に限定されず、例えば、加算平均や加重平均、あるいは中心位置のデータを代表値とする処理等が挙げられる。 In step S1003, the subject size calculation unit 115 calculates image plane phase difference data in the current readout unit by performing predetermined processing on the image plane phase difference submap. This predetermined process is not particularly limited, and includes, for example, an additive average, a weighted average, or a process in which center position data is used as a representative value.

ステップS1004では、被写体サイズ算出部115は、ステップS1003で算出した像面位相差データを被写体サイズとして、読出領域決定部114に送信する。以上のような撮像面位相差方式により、被写体サイズを正確に検出することができる。 In step S1004, the subject size calculation unit 115 transmits the image plane phase difference data calculated in step S1003 to the readout area determination unit 114 as the subject size. By using the imaging plane phase difference method as described above, it is possible to accurately detect the object size.

図5は、読出領域決定部が実行する読出領域決定処理のフローチャートである。図5のフローチャートに基づくプログラムは、メモリ105の不揮発メモリに記録されている。このプログラムは、RAMに展開されて、読出領域決定部114で実行される。 FIG. 5 is a flowchart of the readout area determination process executed by the readout area determination unit. A program based on the flowchart of FIG. 5 is recorded in the nonvolatile memory of the memory 105. This program is loaded into the RAM and executed by the read area determination unit 114.

ステップS1100では、読出領域決定部114は、ステップS1004で被写体サイズ算出部115から送信された被写体サイズを受信して、取得する。 In step S1100, the readout area determination unit 114 receives and acquires the subject size transmitted from the subject size calculation unit 115 in step S1004.

ステップS1101では、読出領域決定部114は、撮像制御部110に現在設定されている読出単位と読出位置とを、撮像制御部110から取得する。 In step S<b>1101 , the readout area determination unit 114 acquires the readout unit and readout position currently set in the imaging control unit 110 from the imaging control unit 110 .

ステップS1102では、読出領域決定部114は、ステップS1100で取得された被写体サイズが所定の閾値より小さいか否かを判定する。ステップS1102での判定の結果、被写体サイズが所定の閾値より小さいと判定された場合には、処理はステップS1103に進む。一方、ステップS1102での判定の結果、被写体サイズが所定の閾値より小さくはないと判定された場合には、処理はステップS1104に進む。所定の閾値としては、検出対象である最小被写体サイズの要件から選択された画素サイズとしたり、読出単位の画素サイズとしたりすることができる。また、被写体サイズに応じた閾値を複数有し、読出単位または間引き量(間引き領域102cの大きさ)を段階的に変更して、読出領域102bの大きさを段階的に変更してもよい。このように、読出領域102bの大きさの変更には、読出単位の大きさと、間引き領域102cの大きさのうちの少なくとも一方の変更が含まれる。例えば、読出領域102bの大きさを変更する際に、読出単位の大きさと、間引き領域102cの大きさとをそれぞれ変更した場合には、その大きさの変更をきめ細かく行うことができ、被写体の認識率の向上に寄与する。なお、所定の閾値は、予めメモリ105に記憶されており、適宜変更可能である。 In step S1102, the readout area determining unit 114 determines whether the subject size acquired in step S1100 is smaller than a predetermined threshold. As a result of the determination in step S1102, if it is determined that the subject size is smaller than the predetermined threshold, the process proceeds to step S1103. On the other hand, as a result of the determination in step S1102, if it is determined that the subject size is not smaller than the predetermined threshold value, the process advances to step S1104. The predetermined threshold value may be a pixel size selected from the requirements of the minimum object size to be detected, or a pixel size of a readout unit. Alternatively, the size of the readout area 102b may be changed in steps by having a plurality of threshold values depending on the subject size and changing the readout unit or the thinning amount (the size of the thinning area 102c) in steps. In this way, changing the size of the reading area 102b includes changing at least one of the size of the reading unit and the size of the thinning area 102c. For example, when changing the size of the readout area 102b, if the size of the readout unit and the size of the thinning area 102c are changed respectively, the size can be changed finely, and the recognition rate of the object can be changed. Contribute to the improvement of Note that the predetermined threshold value is stored in the memory 105 in advance and can be changed as appropriate.

ステップS1103では、読出領域決定部114は、撮像センサ109から読み出される読出領域102b(データ)が密になる、すなわち、単位面積当たりの読出領域102bが占める割合を増大させるように、読出単位または間引き量を変更する。これにより、読出領域102bは、例えば図2(c)中の太線で囲まれた小さな被写体「Z」側のようになる。 In step S1103, the readout area determination unit 114 performs a readout unit or thinning process so that the readout area 102b (data) read out from the image sensor 109 becomes dense, that is, increases the ratio occupied by the readout area 102b per unit area. Change the amount. As a result, the readout area 102b becomes, for example, on the side of the small subject "Z" surrounded by the thick line in FIG. 2(c).

ステップS1104では、読出領域決定部114は、撮像センサ109から読み出される読出領域102b(データ)が疎になる、すなわち、単位面積当たりの読出領域102bが占める割合を減少させるように、読出単位または間引き量を変更する。これにより、読出領域102bは、例えば図2(c)中の太線で囲まれた大きな被写体「Z」側のようになる。なお、ステップS1103およびステップS1104では、それぞれ、読出単位および間引き量が、メモリ105内の不揮発性メモリである読出領域情報117から選択される。 In step S1104, the readout area determination unit 114 performs a readout unit or thinning process so that the readout area 102b (data) read out from the image sensor 109 becomes sparse, that is, the ratio occupied by the readout area 102b per unit area is reduced. Change the amount. As a result, the readout area 102b becomes, for example, on the side of the large subject "Z" surrounded by the thick line in FIG. 2(c). Note that in steps S1103 and S1104, the readout unit and the thinning amount are respectively selected from the readout area information 117, which is a nonvolatile memory in the memory 105.

ステップS1005では、読出領域決定部114は、次の読み出しに用いられる読出単位および読出位置を決定する。この決定は、撮像制御部110に現在設定されている読出単位および読出位置と、ステップS1103またはステップS1104で選択した読出単位または間引き量とに基づいて行われる。 In step S1005, the read area determining unit 114 determines the read unit and read position to be used for the next read. This determination is made based on the readout unit and readout position currently set in the imaging control unit 110, and the readout unit or thinning amount selected in step S1103 or step S1104.

ステップS1106では、読出領域決定部114は、ステップS1005で決定された読出単位および読出位置を撮像制御部110に送信する。そして、撮像制御部110は、ステップS1106で送信された読出単位および読出位置に基づいて、撮像センサ109の読み出し制御を行う。 In step S1106, the readout area determination unit 114 transmits the readout unit and readout position determined in step S1005 to the imaging control unit 110. Then, the imaging control unit 110 performs readout control of the imaging sensor 109 based on the readout unit and readout position transmitted in step S1106.

以上のように撮像装置100では、読出領域102bの大きさの変更に、読出領域決定部114で決定された読出領域102bの大きさが用いられる。そして、撮像画像内での被写体の大きさが所定の大きさよりも小さい場合には、読出単位または間引き量を減少させて、読出領域102bを密状態とする。これに対し、撮像画像内での被写体の大きさが所定の大きさ以上場合には、読出単位または間引き量を増大させて、読出領域102bを疎状態とする。このように、撮像装置100では、被写体の大きさに応じて、読出領域102bの大きさが変更される。これにより、撮像画像内での被写体の大きさに関わらず、当該被写体を迅速に検出することができる、すなわち、読み出し速度を維持することができる。また、被写体の検出率の低下を抑制することもできる。 As described above, in the imaging device 100, the size of the readout area 102b determined by the readout area determination unit 114 is used to change the size of the readout area 102b. If the size of the subject in the captured image is smaller than a predetermined size, the readout unit or thinning amount is decreased to make the readout area 102b dense. On the other hand, if the size of the subject in the captured image is larger than a predetermined size, the readout unit or the thinning amount is increased to make the readout area 102b sparse. In this way, in the imaging device 100, the size of the readout area 102b is changed depending on the size of the subject. Thereby, regardless of the size of the subject within the captured image, the subject can be detected quickly, that is, the readout speed can be maintained. Further, it is also possible to suppress a decrease in the detection rate of the subject.

<第2実施形態>
以下、図6を参照して、第2実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。本実施形態は、被写体サイズの取得についての構成(方法)が異なること以外は前記第1実施形態と同様である。第1実施形態では、撮像部102から検出された撮像面位相差に基づいて被写体サイズを算出し、読み出しを制御する方法を提示したが、被写体サイズを算出するためのデータは、外部からの入力データであってもよい。DSP106やCPU108をセンサ内部に集積させる場合、ハードウェア上の制約等から多数の複雑な処理を実行することは困難となるおそれがある。そこで、本実施形態では、外部からより精度の高い距離画像等を取得して、読み出しを制御する。
<Second embodiment>
The second embodiment will be described below with reference to FIG. 6, but the explanation will focus on the differences from the embodiments described above, and the explanation of similar matters will be omitted. This embodiment is the same as the first embodiment except for the configuration (method) for acquiring the object size. In the first embodiment, a method was presented in which the subject size was calculated based on the imaging plane phase difference detected by the imaging unit 102 and the readout was controlled. It may be data. When integrating the DSP 106 and the CPU 108 inside the sensor, it may be difficult to execute a large number of complex processes due to hardware constraints and the like. Therefore, in this embodiment, a more accurate distance image or the like is obtained from the outside and readout is controlled.

図6は、第2実施形態の撮像装置の構成例を示すブロック図である。図6に示すように、本実施形態では、撮像装置100は、外部装置400とともに撮像システム500を構成する。外部装置400は、情報取得部(情報取得手段)401を有する。情報取得部401は、被写体サイズ算出部115で被写体の大きさを検出するための情報(被写体までの距離情報)を取得するよう構成されている。情報取得部401としては、例えば、距離センサ、ステレオカメラのうち少なくとも1つで構成することができる。距離センサには、例えば、LRF(Laser Range Finder)やLiDAR(Light Detection And Ranging)等を用いることができる。ステレオカメラには、複数のカメラを有するもの等を用いることができる。これにより、被写体までの距離を正確に検出することができる。そして、この距離情報は、撮像装置100に送信される。 FIG. 6 is a block diagram showing a configuration example of an imaging device according to the second embodiment. As shown in FIG. 6, in this embodiment, the imaging device 100 constitutes an imaging system 500 together with an external device 400. The external device 400 has an information acquisition section (information acquisition means) 401. The information acquisition unit 401 is configured to acquire information (distance information to the subject) for the subject size calculation unit 115 to detect the size of the subject. The information acquisition unit 401 can be configured with at least one of a distance sensor and a stereo camera, for example. For example, an LRF (Laser Range Finder) or a LiDAR (Light Detection and Ranging) can be used as the distance sensor. A stereo camera having a plurality of cameras can be used. Thereby, the distance to the subject can be accurately detected. This distance information is then transmitted to the imaging device 100.

撮像装置100は、入力部200をさらに有する。入力部200は、距離情報である距離画像や像面位相差マップ等のデータを情報取得部401から受信して、メモリ105へ転送する。そして、被写体サイズ算出部115は、距離情報(被写体の距離の大小)に応じて、被写体の大きさを検出することができる。例えば、被写体サイズ算出部115は、撮像装置100から被写体が遠位にある場合には、被写体が小さいものとして検出し、撮像装置100から被写体が近位にある場合には、被写体が大きいものとして検出する。また、撮像部102から読み出した位相差算出用のデジタル信号は、外部装置400で位相差を算出してもよい。この場合も、複雑な処理を外部で実行することで精度向上が期待できる。例えば、図6で構成される撮像装置100をデジタルスチルカメラやデジタルビデオカメラに内蔵して構成し、撮像面位相差マップの生成をカメラ本体側のプロセッサで実行することが考えらえる。このように撮像システム500は、例えば、撮像装置100と外部装置400とをそれぞれ別体で構成して、外部装置400で得られた距離情報を撮像装置100で用いたい場合に有効な構成となっている。 The imaging device 100 further includes an input section 200. The input unit 200 receives data such as distance images and image plane phase difference maps, which are distance information, from the information acquisition unit 401 and transfers them to the memory 105 . Then, the subject size calculation unit 115 can detect the size of the subject according to the distance information (the magnitude of the distance to the subject). For example, when the subject is far from the imaging device 100, the subject size calculation unit 115 detects the subject as being small, and when the subject is close to the imaging device 100, it detects the subject as being large. To detect. Further, the external device 400 may calculate the phase difference of the digital signal for phase difference calculation read from the imaging unit 102. In this case as well, accuracy can be expected to improve by executing complex processing externally. For example, it is conceivable that the imaging device 100 configured as shown in FIG. 6 is built into a digital still camera or a digital video camera, and the generation of the imaging plane phase difference map is executed by a processor on the camera body side. In this way, the imaging system 500 has an effective configuration, for example, when the imaging device 100 and the external device 400 are configured separately and the distance information obtained by the external device 400 is to be used in the imaging device 100. ing.

<第3実施形態>
以下、図7を参照して、第3実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。本実施形態は、被写体サイズの取得についての構成(方法)が異なること以外は前記第1実施形態と同様である。第1実施形態では、撮像部102から検出された撮像面位相差に基づいて被写体サイズを算出し、読み出しを制御する方法を提示したが、被写体サイズを算出するためのデータは、画像処理等で算出したデータであってもよい。撮像面位相差で被写体サイズ検出する場合、画素に位相差検出用の光電変換部を備える必要がある。そこで、本実施形態では、被写体サイズを用いる代わりに、画像処理等で被写体サイズに関連があるデータを算出して、当該算出されたデータを簡易的な被写体サイズとして扱う。
<Third embodiment>
The third embodiment will be described below with reference to FIG. 7, but the explanation will focus on the differences from the embodiments described above, and the explanation of similar matters will be omitted. This embodiment is similar to the first embodiment except for the configuration (method) for acquiring the object size. In the first embodiment, a method was presented in which the subject size was calculated based on the imaging plane phase difference detected by the imaging unit 102 and the readout was controlled. It may be calculated data. When detecting the object size based on the phase difference on the imaging plane, it is necessary to provide each pixel with a photoelectric conversion unit for detecting the phase difference. Therefore, in this embodiment, instead of using the subject size, data related to the subject size is calculated by image processing or the like, and the calculated data is treated as a simple subject size.

図7は、第3実施形態の撮像装置の構成例を示すブロック図である。図7に示すように、撮像装置100は、図3における位相差算出部113に代えて、画像処理部300を有する。画像処理部300は、撮像制御部110から取得したデジタル信号に対して、被写体サイズを算出するための簡易的な画像処理やルールベースの判定処理を行う。例えば、画像処理部300は、Watershedアルゴリズムやスーパーピクセル等汎用的な領域分割法により、被写体を分離してサイズを算出することができる。また、画像処理部300は、ルールベースで画像中の上側は撮像装置100に対して遠位側、下側は撮像装置100に対して近位側として扱うこと等も可能である。これにより、被写体サイズを簡易的なデータとして扱うことができる。このような構成は、撮像部102での読み出し速度の維持に寄与する。 FIG. 7 is a block diagram showing a configuration example of an imaging device according to the third embodiment. As shown in FIG. 7, the imaging device 100 includes an image processing section 300 instead of the phase difference calculation section 113 in FIG. The image processing unit 300 performs simple image processing and rule-based determination processing for calculating the subject size on the digital signal acquired from the imaging control unit 110. For example, the image processing unit 300 can separate the subject and calculate its size using a general-purpose area division method such as the Watershed algorithm or superpixel. The image processing unit 300 can also treat the upper side of the image as distal to the imaging device 100 and the lower side of the image as proximal to the imaging device 100, based on a rule. This allows the subject size to be treated as simple data. Such a configuration contributes to maintaining the readout speed in the imaging unit 102.

以上、本発明の好ましい実施形態について説明したが、本発明は上述した各実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。本発明は、上述の各実施形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステムまたは装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the embodiments described above, and various modifications and changes can be made within the scope of the gist thereof. The present invention provides a program that implements one or more functions of each embodiment described above to a system or device via a network or a storage medium, and one or more processors of a computer in the system or device reads the program. It is also possible to implement the process by executing the process. The present invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100 撮像装置
102 撮像部(撮像手段)
102a 画素領域
102b 読出領域
102c 間引き領域
106 DSP(Digital Signal Processor)
108 CPU
112 認識処理部
114 読出領域決定部
115 被写体サイズ算出部
100 Imaging device 102 Imaging unit (imaging means)
102a Pixel region 102b Readout region 102c Thinning region 106 DSP (Digital Signal Processor)
108 CPUs
112 Recognition processing unit 114 Reading area determination unit 115 Subject size calculation unit

Claims (21)

複数の画素が配列された画素領域を有し、該画素領域から撮像画像を読み出す撮像手段と、
前記撮像画像に含まれる被写体を認識する認識処理を行う認識手段と、
前記被写体の大きさを検出する検出手段と、を備え、
前記撮像手段は、前記撮像画像を読み出す際には、前記被写体の大きさに応じて、前記画素領域において読み出される読出領域の大きさが変更されることを特徴とする撮像装置。
an imaging means having a pixel area in which a plurality of pixels are arranged, and reading out a captured image from the pixel area;
recognition means that performs recognition processing to recognize a subject included in the captured image;
Detecting means for detecting the size of the subject,
The imaging device is characterized in that, when the imaging means reads out the captured image, the size of the readout area read out in the pixel area is changed depending on the size of the subject.
前記読出領域の大きさの変更には、前記画素領域において最小単位で読み出される読出単位の大きさと、前記画素領域において読み出しが停止される間引き領域の大きさのうちの少なくとも一方の変更が含まれることを特徴とする請求項1に記載の撮像装置。 Changing the size of the readout area includes changing at least one of the size of a readout unit that is read out in the pixel area in the smallest unit, and the size of a thinning area where readout is stopped in the pixel area. The imaging device according to claim 1, characterized in that: 前記撮像手段は、前記被写体の大きさが所定の大きさよりも小さい場合には、前記間引き領域の大きさを減少させ、前記被写体の大きさが所定の大きさ以上場合には、前記間引き領域の大きさを増大させることを特徴とする請求項2に記載の撮像装置。 The imaging means decreases the size of the thinning area when the size of the subject is smaller than a predetermined size, and decreases the size of the thinning area when the size of the subject is larger than a predetermined size. The imaging device according to claim 2, characterized in that the size is increased. 前記被写体の大きさに応じて、前記読出領域の大きさを決定する決定手段を備え、
前記撮像手段は、前記読出領域の大きさの変更に、前記決定手段で決定された前記読出領域の大きさを用いることを特徴とする請求項1乃至3のうちの何れか1項に記載の撮像装置。
comprising determining means for determining the size of the readout area according to the size of the subject;
4. The imaging device according to claim 1, wherein the imaging device uses the size of the readout area determined by the determining device to change the size of the readout area. Imaging device.
前記撮像手段は、前記読出領域の大きさが段階的に変更されることを特徴とする請求項1乃至4のうちの何れか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 4, wherein the imaging means changes the size of the readout area in stages. 前記検出手段は、前記画素領域からの前記被写体の距離の大小に応じて、前記被写体の大きさを検出することを特徴とする請求項1乃至5のうちの何れか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 5, wherein the detection means detects the size of the subject depending on a distance of the subject from the pixel area. . 前記検出手段は、撮像面位相差方式により前記被写体の距離を検出することを特徴とする請求項6に記載の撮像装置。 7. The imaging apparatus according to claim 6, wherein the detection means detects the distance to the subject using an imaging plane phase difference method. 前記認識手段は、前記認識処理を行う際には、機械学習が行われた学習モデルに基づいて、前記被写体を認識することを特徴とする請求項1乃至7のうちの何れか1項に記載の撮像装置。 8. The recognition means recognizes the subject based on a learning model subjected to machine learning when performing the recognition process. imaging device. 前記撮像手段が構成される第1基板と、
前記第1基板とは別に構成され、前記認識手段と前記検出手段とが構成される第2基板とを、備えることを特徴とする請求項1乃至8のうちの何れか1項に記載の撮像装置。
a first substrate on which the imaging means is configured;
The imaging device according to any one of claims 1 to 8, further comprising a second substrate configured separately from the first substrate and configured with the recognition means and the detection means. Device.
複数の画素が配列された画素領域を有し、該画素領域から撮像画像を読み出す撮像手段と、前記撮像画像に含まれる被写体を認識する認識処理を行う認識手段と、前記被写体の大きさを検出する検出手段と、を有する撮像装置と、
前記検出手段で前記被写体の大きさを検出するための情報を取得する情報取得手段を有し、前記情報を前記撮像装置に送信可能な外部装置と、を備え、
前記撮像手段は、前記撮像画像を読み出す際には、前記被写体の大きさに応じて、前記画素領域において読み出される読出領域の大きさが変更されることを特徴とする撮像システム。
An imaging device having a pixel area in which a plurality of pixels are arranged, and reading out a captured image from the pixel area, a recognition device performing recognition processing to recognize a subject included in the captured image, and detecting the size of the subject. an imaging device having a detection means for
an external device having information acquisition means for acquiring information for detecting the size of the subject by the detection means and capable of transmitting the information to the imaging device,
The imaging system is characterized in that, when the imaging means reads out the captured image, the size of the readout area read out in the pixel area is changed according to the size of the subject.
前記情報取得手段は、前記被写体までの距離を検出する距離センサ、複数のカメラを有し、前記被写体までの距離を検出するステレオカメラのうち少なくとも1つで構成されることを特徴とする請求項10に記載の撮像システム。 2. The information acquisition means includes at least one of a distance sensor that detects the distance to the subject, a plurality of cameras, and a stereo camera that detects the distance to the subject. 10. The imaging system according to 10. 前記読出領域の大きさの変更には、前記画素領域において最小単位で読み出される読出単位の大きさと、前記画素領域において読み出しが停止される間引き領域の大きさのうちの少なくとも一方の変更が含まれることを特徴とする請求項10または11に記載の撮像システム。 Changing the size of the readout area includes changing at least one of the size of a readout unit that is read out in the pixel area in the smallest unit, and the size of a thinning area where readout is stopped in the pixel area. The imaging system according to claim 10 or 11, characterized in that: 前記撮像手段は、前記被写体の大きさが所定の大きさよりも小さい場合には、前記間引き領域の大きさを減少させ、前記被写体の大きさが所定の大きさ以上場合には、前記間引き領域の大きさを増大させることを特徴とする請求項12に記載の撮像システム。 The imaging means decreases the size of the thinning area when the size of the subject is smaller than a predetermined size, and decreases the size of the thinning area when the size of the subject is larger than a predetermined size. 13. The imaging system of claim 12, characterized in that it has an increased size. 前記撮像装置は、前記被写体の大きさに応じて、前記読出領域の大きさを決定する決定手段を備え、
前記撮像手段は、前記読出領域の大きさの変更に、前記決定手段で決定された前記読出領域の大きさを用いることを特徴とする請求項10乃至13のうちの何れか1項に記載の撮像システム。
The imaging device includes determining means for determining the size of the readout area according to the size of the subject,
14. The imaging device according to claim 10, wherein the imaging device uses the size of the readout region determined by the determining device to change the size of the readout region. Imaging system.
前記撮像手段は、前記読出領域の大きさが段階的に変更されることを特徴とする請求項10乃至14のうちの何れか1項に記載の撮像システム。 15. The imaging system according to claim 10, wherein the imaging means changes the size of the readout area in stages. 前記情報は、前記被写体までの距離情報であり、
前記検出手段は、前記距離情報に応じて、前記被写体の大きさを検出することを特徴とする請求項10乃至15のうちの何れか1項に記載の撮像システム。
The information is distance information to the subject,
16. The imaging system according to claim 10, wherein the detection means detects the size of the subject according to the distance information.
前記情報取得手段は、撮像面位相差方式により前記被写体の距離を検出することを特徴とする請求項16に記載の撮像システム。 17. The imaging system according to claim 16, wherein the information acquisition means detects the distance to the subject using an imaging plane phase difference method. 前記認識手段は、前記認識処理を行う際には、機械学習が行われた学習モデルに基づいて、前記被写体を認識することを特徴とする請求項10乃至17のうちの何れか1項に記載の撮像システム。 According to any one of claims 10 to 17, the recognition means recognizes the subject based on a learning model subjected to machine learning when performing the recognition process. imaging system. 前記撮像手段が構成される第1基板と、
前記第1基板とは別に構成され、前記認識手段と前記検出手段とが構成される第2基板とを、備えることを特徴とする請求項10乃至18のうちの何れか1項に記載の撮像システム。
a first substrate on which the imaging means is configured;
The imaging device according to any one of claims 10 to 18, further comprising a second substrate configured separately from the first substrate and configured with the recognition means and the detection means. system.
複数の画素が配列された画素領域を有し、該画素領域から撮像画像を読み出す撮像工程と、
前記撮像画像に含まれる被写体を認識する認識処理を行う認識工程と、
前記被写体の大きさを検出する検出工程と、を有し、
前記撮像工程は、前記撮像画像を読み出す際には、前記検出工程で検出された前記被写体の大きさに応じて、前記画素領域において読み出される読出領域の大きさが変更されることを特徴とする制御方法。
an imaging step of having a pixel area in which a plurality of pixels are arranged, and reading out a captured image from the pixel area;
a recognition step of performing recognition processing to recognize a subject included in the captured image;
a detection step of detecting the size of the subject,
In the imaging step, when reading out the captured image, the size of the readout region read out in the pixel region is changed depending on the size of the subject detected in the detection step. Control method.
請求項1乃至9の何れか1項に記載の撮像装置の各手段をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute each means of the imaging apparatus according to claim 1.
JP2022050339A 2022-03-25 2022-03-25 Imaging apparatus, imaging system, control method, and program Pending JP2023143123A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022050339A JP2023143123A (en) 2022-03-25 2022-03-25 Imaging apparatus, imaging system, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022050339A JP2023143123A (en) 2022-03-25 2022-03-25 Imaging apparatus, imaging system, control method, and program

Publications (1)

Publication Number Publication Date
JP2023143123A true JP2023143123A (en) 2023-10-06

Family

ID=88219612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022050339A Pending JP2023143123A (en) 2022-03-25 2022-03-25 Imaging apparatus, imaging system, control method, and program

Country Status (1)

Country Link
JP (1) JP2023143123A (en)

Similar Documents

Publication Publication Date Title
KR102574141B1 (en) Image display method and device
CN110149482B (en) Focusing method, focusing device, electronic equipment and computer readable storage medium
US11457138B2 (en) Method and device for image processing, method for training object detection model
US8311385B2 (en) Method and device for controlling video recordation property of camera module according to velocity of object
CN110248097B (en) Focus tracking method and device, terminal equipment and computer readable storage medium
US9330446B2 (en) Method and apparatus for processing image
CN110493527B (en) Body focusing method and device, electronic equipment and storage medium
JP7297470B2 (en) Image processing method, image processing apparatus, program, image processing system, and method for manufacturing trained model
JP6577703B2 (en) Image processing apparatus, image processing method, program, and storage medium
CN110660090B (en) Subject detection method and apparatus, electronic device, and computer-readable storage medium
WO2021093637A1 (en) Focusing method and apparatus, electronic device, and computer readable storage medium
CN110490196B (en) Subject detection method and apparatus, electronic device, and computer-readable storage medium
JP6924064B2 (en) Image processing device and its control method, and image pickup device
JP6685823B2 (en) Subject tracking device, control method thereof, imaging device, and program
JP2016208075A (en) Image output device, method for controlling the same, imaging apparatus, and program
JP2019175112A (en) Image processing device, photographing device, image processing method, and program
JP2023143123A (en) Imaging apparatus, imaging system, control method, and program
CN110399823B (en) Subject tracking method and apparatus, electronic device, and computer-readable storage medium
JP6063680B2 (en) Image generation apparatus, image generation method, imaging apparatus, and imaging method
CN115037869A (en) Automatic focusing method and device, electronic equipment and computer readable storage medium
JP6556033B2 (en) Image processing apparatus, image processing method, and program
JP7444585B2 (en) Recognition device, recognition method
JP7458723B2 (en) Image processing device, imaging device, control method, and program
US20230073357A1 (en) Information processing apparatus, machine learning model, information processing method, and storage medium
JP2022158305A (en) Imaging device, control method thereof, program, and storage medium