JP2021052319A - Imaging device and machine learning processing method - Google Patents

Imaging device and machine learning processing method Download PDF

Info

Publication number
JP2021052319A
JP2021052319A JP2019174317A JP2019174317A JP2021052319A JP 2021052319 A JP2021052319 A JP 2021052319A JP 2019174317 A JP2019174317 A JP 2019174317A JP 2019174317 A JP2019174317 A JP 2019174317A JP 2021052319 A JP2021052319 A JP 2021052319A
Authority
JP
Japan
Prior art keywords
filter
image
optical
types
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019174317A
Other languages
Japanese (ja)
Other versions
JP7305501B2 (en
Inventor
翔 加藤
Sho Kato
翔 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2019174317A priority Critical patent/JP7305501B2/en
Publication of JP2021052319A publication Critical patent/JP2021052319A/en
Application granted granted Critical
Publication of JP7305501B2 publication Critical patent/JP7305501B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide technology for efficiently collecting video data.SOLUTION: An imaging device of the present invention comprises multiple types of optical filters, an optical filter switching mechanism, an imaging unit and an imaging drive unit. The multiple types of optical filters have mutually different optical characteristics. The optical filter switching mechanism selectively switches the multiple types of optical filters and inserts one in the imaging optical path of a subject. The imaging unit images the subject via the optical filter inserted in the imaging optical path and outputs filter video data. The imaging drive unit drives the imaging unit in synchronism with optical filter insertion timing while switching the optical filters to be inserted in the imaging optical path by the optical filter switching mechanism, and thereby generates multiple types of filter video data that corresponds to the subject.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置および機械学習処理方法に関する。 The present invention relates to an imaging device and a machine learning processing method.

近年、機械学習処理を用いた画像検査の技術が注目され、医療、農業、食品や精密機器の工場など、多様な分野に導入されている。この種の技術では、予め機械学習された機械学習器を使用することにより、対象物の画像的な特徴を捉えた検査結果を得ることができる。このような画像検査の精度を高めるためには、機械学習器の学習を綿密に行う必要があり、画像検査に関連する多種多様な映像データを数多く用意する必要があった。 In recent years, image inspection technology using machine learning processing has attracted attention and has been introduced into various fields such as medical care, agriculture, food and precision equipment factories. In this kind of technology, by using a machine learning device that has been machine-learned in advance, it is possible to obtain an inspection result that captures an image feature of an object. In order to improve the accuracy of such image inspection, it is necessary to carefully learn the machine learning device, and it is necessary to prepare a large amount of various video data related to the image inspection.

学習用に数多くの映像データを用意する方法としては、データオーギュメンテーション(データ増強法)が知られている。このデータオーギュメンテーションでは、1つの映像データに対して回転や平行移動などの画像処理を施すことにより、映像データの数を増やしている。 Data augmentation (data augmentation method) is known as a method of preparing a large amount of video data for learning. In this data augmentation, the number of video data is increased by performing image processing such as rotation and translation on one video data.

例えば、特許文献1には、「少数の映像データを画像補間装置でデータ補間したり、あるいは画像変形装置でデータ変形したりして、多数の画像を生成する」旨の技術が開示される。 For example, Patent Document 1 discloses a technique of "generating a large number of images by interpolating a small amount of video data with an image interpolation device or transforming data with an image transforming device".

特開平9−237340号公報Japanese Unexamined Patent Publication No. 9-237340

機械学習処理では、学習用の映像データを効率よく収集する技術が要望される。
そこで、本発明は、映像データを効率よく収集するための技術を提供することを目的とする。
In machine learning processing, a technique for efficiently collecting video data for learning is required.
Therefore, an object of the present invention is to provide a technique for efficiently collecting video data.

上記課題を解決するために、本発明の撮像装置の代表的な一つは、複数種類の光学フィルタ、光学フィルタ切替機構、撮像部、および撮像駆動部を備える。
複数種類の光学フィルタは、互いに異なる光学特性を有する。
光学フィルタ切替機構は、複数種類の光学フィルタを選択的に切り替えて、被写体の撮影光路に挿置する。
撮像部は、撮影光路に挿置された光学フィルタを介して被写体を撮像して、フィルタ映像をデータ出力する。
撮像駆動部は、光学フィルタ切替機構により撮影光路に挿置する光学フィルタを切り替えながら、光学フィルタの挿置タイミングに同期して撮像部を駆動することにより、被写体に対応する複数種類のフィルタ映像をデータ生成する。
In order to solve the above problems, a typical image pickup apparatus of the present invention includes a plurality of types of optical filters, an optical filter switching mechanism, an image pickup unit, and an image pickup drive unit.
The plurality of types of optical filters have different optical characteristics from each other.
The optical filter switching mechanism selectively switches a plurality of types of optical filters and inserts them into the shooting optical path of the subject.
The imaging unit captures the subject through an optical filter inserted in the photographing optical path, and outputs the filter image as data.
The image pickup drive unit drives the image pickup unit in synchronization with the insertion timing of the optical filter while switching the optical filter to be inserted in the shooting optical path by the optical filter switching mechanism, thereby displaying a plurality of types of filter images corresponding to the subject. Generate data.

本発明により、映像データを効率よく収集することが可能になる。 According to the present invention, video data can be efficiently collected.

上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。 Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.

図1は、実施例1の撮像装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of the image pickup apparatus of the first embodiment. 図2は、機械学習器20の基本構成の例を示す図である。FIG. 2 is a diagram showing an example of the basic configuration of the machine learning device 20. 図3は、撮像装置の外形と、光学フィルタ切替機構11の内部配置を説明する図である。FIG. 3 is a diagram illustrating the outer shape of the image pickup apparatus and the internal arrangement of the optical filter switching mechanism 11. 図4は、開口穴110A、110Bと撮像素子103との位置関係を説明する図である。FIG. 4 is a diagram illustrating the positional relationship between the opening holes 110A and 110B and the image sensor 103. 図5は、開口穴110A、110Bと撮像素子103との位置関係を説明する図である。FIG. 5 is a diagram illustrating the positional relationship between the opening holes 110A and 110B and the image sensor 103. 図6は、ロータリーアクチュエータ105の回転角度と、撮像素子103の電子シャッタ制御(電荷蓄積制御など)との関係を説明する図である。FIG. 6 is a diagram illustrating the relationship between the rotation angle of the rotary actuator 105 and the electronic shutter control (charge accumulation control, etc.) of the image sensor 103. 図7は、フィルタ映像の合成処理の例を説明する図である。FIG. 7 is a diagram illustrating an example of a filter image compositing process. 図8は、フィルタ映像の映像加工の例を説明する図である。FIG. 8 is a diagram illustrating an example of image processing of a filtered image. 図9は、映像加工と合成処理とを組み合わせた複合処理の例を説明する図である。FIG. 9 is a diagram illustrating an example of combined processing in which video processing and composition processing are combined. 図10は、撮像装置の撮像モードについて説明する流れ図(1/2)である。FIG. 10 is a flow chart (1/2) for explaining the imaging mode of the imaging apparatus. 図11は、撮像装置の撮像モードについて説明する流れ図(2/2)である。FIG. 11 is a flow chart (2/2) for explaining the imaging mode of the imaging apparatus.

以下、図面を用いて、本発明の実施例を説明する。 Hereinafter, examples of the present invention will be described with reference to the drawings.

<撮像装置の構成>
まず、実施例1の撮像装置について構成を説明する。
図1は、実施例1の撮像装置の構成を示すブロック図である。
同図において、撮像装置は、複数種類の光学フィルタ10の群、光学フィルタ切替機構11、撮像部12、撮像駆動部13、映像処理部14、映像出力部17、および機械学習器20を備える。
<Configuration of imaging device>
First, the configuration of the image pickup apparatus of the first embodiment will be described.
FIG. 1 is a block diagram showing the configuration of the image pickup apparatus of the first embodiment.
In the figure, the image pickup apparatus includes a group of a plurality of types of optical filters 10, an optical filter switching mechanism 11, an image pickup unit 12, an image pickup drive unit 13, an image processing unit 14, an image output unit 17, and a machine learning device 20.

複数種類の光学フィルタ10は、異なる光学特性を有する光学的素子の群である。このような光学フィルタ10としては、例えば、可視光を選択的に透過する可視光フィルタや、近赤外光を選択的に透過する赤外フィルタなどがあげられる。 The plurality of types of optical filters 10 are a group of optical elements having different optical characteristics. Examples of such an optical filter 10 include a visible light filter that selectively transmits visible light, an infrared filter that selectively transmits near-infrared light, and the like.

光学フィルタ切替機構11は、複数種類の光学フィルタ10を選択的に切り替えて、被写体と撮像部12との間の撮影光路に挿置する。 The optical filter switching mechanism 11 selectively switches a plurality of types of optical filters 10 and inserts them in the photographing optical path between the subject and the imaging unit 12.

撮像部12は、撮影光路に挿置された光学フィルタ10を介して被写体を撮像し、フィルタ映像をデータ出力する。 The imaging unit 12 images the subject through the optical filter 10 inserted in the photographing optical path, and outputs the filter image as data.

撮像駆動部13は、光学フィルタ切替機構により撮影光路に挿置する光学フィルタ10を切り替えながら、光学フィルタ10の挿置タイミングに同期して撮像部12を駆動することにより、同一の被写体に対して複数種類のフィルタ映像のデータを生成する。 The image pickup drive unit 13 drives the image pickup unit 12 in synchronization with the insertion timing of the optical filter 10 while switching the optical filter 10 to be inserted in the photographing optical path by the optical filter switching mechanism, thereby for the same subject. Generate data for multiple types of filtered video.

映像処理部14は、複数種類のフィルタ映像のデータに対して、複数種類の映像加工15と、複数種類の合成処理16とを選択的に実施することにより、同一の被写体に対するフィルタ映像の種類数をさらに増やす。
このようにして、撮像装置では、同一の被写体に対して、複数種類のフィルタ映像をまとめて生成することが可能になる。
The image processing unit 14 selectively performs a plurality of types of image processing 15 and a plurality of types of compositing processing 16 on data of a plurality of types of filtered images, whereby the number of types of filtered images for the same subject is increased. Further increase.
In this way, the image pickup apparatus can collectively generate a plurality of types of filter images for the same subject.

映像出力部17は、映像処理部14を経由した複数種類のフィルタ映像を外部機器へ出力する。例えば、映像出力部17は、複数種類のフィルタ映像を、所定のフレームレートで、USB、GiGE、CameraLink、CoaXPress、SD-SDI、HD-SDI、NTSC等のインターフェースに合わせて出力する。 The video output unit 17 outputs a plurality of types of filtered video to an external device via the video processing unit 14. For example, the video output unit 17 outputs a plurality of types of filtered video at a predetermined frame rate according to an interface such as USB, GiGE, CameraLink, CoaXPress, SD-SDI, HD-SDI, or NTSC.

機械学習器20には、映像処理部14を経由した複数種類のフィルタ映像が、学習材料または推定材料として入力される。なお、機械学習器20において複数種類のフィルタ映像を学習材料として入力される場合は、被写体に関する教師値や、フィルタ映像の種類などの付随情報も機械学習器20に入力される。 A plurality of types of filtered images that have passed through the image processing unit 14 are input to the machine learning device 20 as learning materials or estimation materials. When a plurality of types of filter images are input to the machine learning device 20 as learning materials, incidental information such as a teacher value regarding the subject and the type of the filter image is also input to the machine learning device 20.

<機械学習処理方法について>
続いて、実施例1における機械学習処理方法について説明する。
<About machine learning processing method>
Subsequently, the machine learning processing method in the first embodiment will be described.

図2は、機械学習器20の基本構成の例を示す図である。
同図において、機械学習器20は、前処理部31、入力層32、畳み込み層・活性化関数33、プーリング層34、ニューラルネットワーク35、出力層36、および学習アルゴリズム部37を備える。
FIG. 2 is a diagram showing an example of the basic configuration of the machine learning device 20.
In the figure, the machine learning device 20 includes a preprocessing unit 31, an input layer 32, a convolutional layer / activation function 33, a pooling layer 34, a neural network 35, an output layer 36, and a learning algorithm unit 37.

前処理部31は、入力されるフィルタ映像に対して、画像検査の検査内容に応じた前処理を実施する。例えば、前処理部31は、解析領域設定(クロップ、リサイズ、鳥瞰変換、視点変換、歪み補正、畳み込み前のパディングなど)や、差分処理(背景差分、輪郭抽出など)や、ベクトル解析(動きベクトル検出、動き追跡)や、信号処理(特徴抽出、形状抽出、輪郭強調、階調補正、ダイナミックレンジの拡大縮小、レベル正規化、ノイズ抑制、モアレ除去、ホワイトバランス調整、色処理、減色処理、モノクロ化など)や、その他の前処理を実施する。 The pre-processing unit 31 performs pre-processing on the input filter image according to the inspection content of the image inspection. For example, the preprocessing unit 31 can set an analysis area (crop, resize, bird's-eye view conversion, viewpoint conversion, distortion correction, padding before convolution, etc.), difference processing (background subtraction, contour extraction, etc.), and vector analysis (motion vector). Detection, motion tracking) and signal processing (feature extraction, shape extraction, contour enhancement, gradation correction, dynamic range scaling, level normalization, noise suppression, moire removal, white balance adjustment, color processing, color reduction processing, monochrome And other pretreatments.

前処理部31において前処理されたフィルタ映像は、入力層32に入力される。 The filter image preprocessed by the preprocessing unit 31 is input to the input layer 32.

入力層32のフィルタ映像は、畳み込み層・活性化関数33およびプーリング層34を介して処理される。 The filter image of the input layer 32 is processed via the convolution layer / activation function 33 and the pooling layer 34.

畳み込み層・活性化関数33は、画像空間の局所的な特徴に応じて活性化するニューロン配列を備える。プーリング層34は、ニューロン配列により活性化されたニューロン値を適度に集約する機能を有する。このような機能により、畳み込み層・活性化関数33およびプーリング層34は、フィルタ映像の画像的特徴を抽象化した特徴マップを生成する。なお、この畳み込み層・活性化関数33およびプーリング層34は、画像的特徴の抽象化を多段階に行うために多層化される。 The convolutional layer / activation function 33 includes a neuron sequence that activates according to local features of the image space. The pooling layer 34 has a function of appropriately aggregating the neuron values activated by the neuron sequence. With such a function, the convolutional layer / activation function 33 and the pooling layer 34 generate a feature map that abstracts the image features of the filtered image. The convolutional layer / activation function 33 and the pooling layer 34 are multi-layered in order to abstract the image features in multiple stages.

多層化された畳み込み層・活性化関数33およびプーリング層34を経由した特徴マップのニューロン値はシリアル化された後、ニューラルネットワーク35に入力される。 The neuron values of the feature map via the multi-layered convolutional layer / activation function 33 and the pooling layer 34 are serialized and then input to the neural network 35.

ニューラルネットワーク35は、画像検査に必要な段数でニューロン層を結合(例えば全結合)して構成される。ニューラルネットワーク35の最終端の出力層36からは、フィルタ映像の推定結果(尤度など)を示すデータやデータパターンが出力される。 The neural network 35 is configured by connecting (for example, fully connecting) neuron layers at the number of stages required for image inspection. From the output layer 36 at the final end of the neural network 35, data and a data pattern indicating the estimation result (likelihood and the like) of the filter image are output.

学習アルゴリズム部37は、入力される複数種類のフィルタ映像と、フィルタ映像の被写体に関する教師値(またはフィルタ映像それ自体に関する教師値)とを組み合わせてデータセットとし、機械学習器20の学習データとして内部メモリにデータ蓄積する。学習アルゴリズム部37は、データ蓄積された学習データを用いて、機械学習器20の機械学習を行う。例えば、学習アルゴリズム部37は、フィルタ映像を機械学習器20に与えた際の推定結果が教師値に近づくように、誤差逆伝播法などに基づいて、畳み込み層・活性化関数33およびニューラルネットワーク35の各ニューロンの重み係数およびバイアス値を調整する。 The learning algorithm unit 37 combines a plurality of types of input filter images and a teacher value (or a teacher value related to the filter image itself) regarding the subject of the filter image to form a data set, and internally serves as learning data of the machine learning device 20. Data is stored in the memory. The learning algorithm unit 37 performs machine learning of the machine learning device 20 by using the learned data accumulated in the data. For example, the learning algorithm unit 37 has a convolution layer / activation function 33 and a neural network 35 based on an error backpropagation method or the like so that the estimation result when the filter image is given to the machine learning device 20 approaches the teacher value. Adjust the weighting coefficient and bias value of each neuron.

なお、上述した機械学習処理方法において、同一被写体であってもフィルタ映像の種類が大きく異なると、画像的特徴の差が大きくなって一括りに機械学習処理できない場合がある。その場合は、フィルタ映像の種類別に、専用の機械学習器20を設けて機械学習処理方法を行うことが好ましい。 In the machine learning processing method described above, if the types of filter images are significantly different even for the same subject, the difference in image features may become large and the machine learning processing may not be performed collectively. In that case, it is preferable to provide a dedicated machine learning device 20 for each type of filter image to perform the machine learning processing method.

<光学フィルタ切替機構11の構成例について>
次に、光学フィルタ切替機構11の一例について説明する。
<About the configuration example of the optical filter switching mechanism 11>
Next, an example of the optical filter switching mechanism 11 will be described.

図3は、撮像装置の外形と、光学フィルタ切替機構11の内部配置を説明する図である。 FIG. 3 is a diagram illustrating the outer shape of the image pickup apparatus and the internal arrangement of the optical filter switching mechanism 11.

同図において、撮像装置の筐体101には、レンズマウント102が設けられる。このレンズマウント102には、被写体光を結像するための撮影レンズが装着される。この撮影レンズの結像位置には、撮像部12の主要部品である撮像素子103が配置される。 In the figure, the lens mount 102 is provided in the housing 101 of the image pickup apparatus. A photographing lens for forming a subject light is attached to the lens mount 102. An image sensor 103, which is a main component of the image pickup unit 12, is arranged at the image formation position of the photographing lens.

この撮像素子103の撮影光路には、ロータリーアクチュエータ105からなる光学フィルタ切替機構11が配置される。このロータリーアクチュエータ105はアクチュエータ内のモータ(以下「内蔵モータ」という)により回転する。ロータリーアクチュエータ105は回転角度に応じて周方向に6区分される。この6区分には、可視光を選択的に透過する可視光フィルタ106(近赤外域をカットする光学フィルタ)と、近赤外光を選択的に透過する赤外フィルタ107(可視域をカットする光学フィルタ)とが交互に配置される。なお、6区分に対して、光学特性のすべて異なる6種類の光学フィルタ10を装着してもよい。また、6区分の角度区分は、後述するように撮像素子103の露光時間と関係する。そこで、露光時間が長くなる光学フィルタ10については角度区分を大きくし、露光時間が短くなる光学フィルタ10については角度区分を小さくしてもよい。 An optical filter switching mechanism 11 including a rotary actuator 105 is arranged in the photographing optical path of the image sensor 103. The rotary actuator 105 is rotated by a motor (hereinafter referred to as "built-in motor") in the actuator. The rotary actuator 105 is divided into 6 in the circumferential direction according to the rotation angle. The six categories include a visible light filter 106 (optical filter that cuts the near-infrared region) that selectively transmits visible light and an infrared filter 107 (optical filter that cuts the near-infrared region) that selectively transmits near-infrared light. Optical filters) are arranged alternately. Six types of optical filters 10 having different optical characteristics may be attached to the six categories. Further, the angle divisions of the six divisions are related to the exposure time of the image sensor 103 as described later. Therefore, the angle division may be increased for the optical filter 10 having a long exposure time, and the angle division may be made small for the optical filter 10 having a short exposure time.

ロータリーアクチュエータ105の6区分の仕切り部分には、回転位置を検出するための開口穴110A、110Bが径方向にずらして形成される。撮像装置の内部104には、開口穴110A、110Bを照明する位置に光源108が設けられる。光源108の照明光は、ロータリーアクチュエータ105の6区分の仕切り部分が撮像素子103の上を横切る瞬間に点灯し、それ以外の期間は消灯する。なお、ロータリーアクチュエータ105のサイド側などの隙間から迷光が入射しないよう、ロータリーアクチュエータ105の外周部分は遮光される。 Opening holes 110A and 110B for detecting the rotation position are formed in the six divisions of the rotary actuator 105 so as to be displaced in the radial direction. Inside the image pickup apparatus 104, a light source 108 is provided at a position for illuminating the opening holes 110A and 110B. The illumination light of the light source 108 is turned on at the moment when the six divisions of the rotary actuator 105 cross over the image sensor 103, and is turned off during the other periods. The outer peripheral portion of the rotary actuator 105 is shielded from light so that stray light does not enter through a gap such as the side of the rotary actuator 105.

<光学フィルタ切替機構11とフレームレートとの同期制御について>
図4および図5は、開口穴110A、110Bと撮像素子103との位置関係を説明する図である。
<Synchronous control between the optical filter switching mechanism 11 and the frame rate>
4 and 5 are views for explaining the positional relationship between the opening holes 110A and 110B and the image sensor 103.

撮像素子103の撮像面の中央ラインには、向かって左側に開口穴110Aの光点が通過するエリアAが領域設定され、向かって右側に開口穴110Bの光点が通過するエリアBが領域設定される。 In the center line of the image pickup surface of the image sensor 103, an area A through which the light spot of the opening hole 110A passes is set as an area on the left side, and an area B through which the light spot of the opening hole 110B passes is set as an area on the right side. Will be done.

撮像部12は、撮像素子103から中央ラインのライン信号を順次に読み出すことにより。エリアAを通過する開口穴110Aの光点と、エリアBを通過する開口穴110Bの光点とを交互に検出する。 The image pickup unit 12 sequentially reads out the line signal of the center line from the image pickup element 103. The light spot of the opening hole 110A passing through the area A and the light spot of the opening hole 110B passing through the area B are alternately detected.

図5[A]は、撮影光路に挿置される光学フィルタ10が、可視光フィルタ106から赤外フィルタ107へ切り替わるタイミングである。撮像部12は、エリアAに開口穴110Aの光点を検出することにより、このタイミングを検知する。このタイミング検知により、撮像装置は、ロータリーアクチュエータ105の回転位置を初期化する。 FIG. 5A shows the timing at which the optical filter 10 inserted in the photographing optical path switches from the visible light filter 106 to the infrared filter 107. The imaging unit 12 detects this timing by detecting the light spot of the opening hole 110A in the area A. By this timing detection, the image pickup apparatus initializes the rotation position of the rotary actuator 105.

図5[B]は、撮影光路に挿置される光学フィルタ10が、赤外フィルタ107から可視光フィルタ106へ切り替わるタイミングである。撮像部12は、エリアBに開口穴110Bの光点を検出することにより、このタイミングを検知する。このタイミング検知により、撮像装置は、ロータリーアクチュエータ105の回転位置を初期化する。 FIG. 5B shows the timing at which the optical filter 10 inserted in the photographing optical path switches from the infrared filter 107 to the visible light filter 106. The imaging unit 12 detects this timing by detecting the light spot of the opening hole 110B in the area B. By this timing detection, the image pickup apparatus initializes the rotation position of the rotary actuator 105.

図6は、ロータリーアクチュエータ105の回転角度と、撮像素子103の電子シャッタ制御(電荷蓄積制御など)との関係を説明する図である。 FIG. 6 is a diagram illustrating the relationship between the rotation angle of the rotary actuator 105 and the electronic shutter control (charge accumulation control, etc.) of the image sensor 103.

同図に示すように、初期化された回転位置からロータリーアクチュエータ105が約(φ/2)角度だけステップ回転すると、ロータリーアクチュエータ105の仕切り部分が撮像素子103から外れる。そこで、撮像駆動部13は電子シャッタ制御により撮像素子103の電荷蓄積を開始する。この電荷蓄積開始の時点からロータリーアクチュエータ105が約(2θ)角度だけステップ回転すると、ロータリーアクチュエータ105の仕切り部分が撮像素子103に再びかかる。そのため、撮像駆動部13は電子シャッタ制御により電荷蓄積を完了する。この電荷蓄積完了からロータリーアクチュエータ105が約(φ/2)角度だけステップ回転すると、ロータリーアクチュエータ105の回転位置は初期化される。この回転位置の初期化が定期的に検知されることにより、ロータリーアクチュエータ105の回転安定度が確認される。 As shown in the figure, when the rotary actuator 105 is step-rotated by an angle of about (φ / 2) from the initialized rotation position, the partition portion of the rotary actuator 105 is detached from the image sensor 103. Therefore, the image pickup drive unit 13 starts charge accumulation of the image pickup device 103 by electronic shutter control. When the rotary actuator 105 is step-rotated by an angle of about (2θ) from the time when the charge accumulation starts, the partition portion of the rotary actuator 105 is applied to the image sensor 103 again. Therefore, the image pickup drive unit 13 completes charge accumulation by electronic shutter control. When the rotary actuator 105 is step-rotated by about (φ/2) angles from the completion of the charge accumulation, the rotation position of the rotary actuator 105 is initialized. The rotational stability of the rotary actuator 105 is confirmed by periodically detecting the initialization of the rotational position.

このようにして、撮像素子103の電子シャッタ制御とそれに伴うフィルタ映像の出力が、回転速度に同期するタイミングで繰り返される。その結果、ロータリーアクチュエータ105の回転速度と、撮像装置のフレームレートとは連動する。例えば、ロータリーアクチュエータ105が40回転/秒で回転した場合、ロータリーアクチュエータ105の1回転ごとに可視光映像3フレームと、近赤外画像3フレームが順次に撮像される。そのため、可視光映像のフレームレートは120fpsになり、近赤外映像のフレームレートは120fpsになる。また、両画像についてフレームレートを半分の60fpsにしたい場合は、ロータリーアクチュエータ105を半分の20回転/秒で回転させればよい。 In this way, the electronic shutter control of the image sensor 103 and the output of the filter image accompanying the electronic shutter control are repeated at the timing synchronized with the rotation speed. As a result, the rotation speed of the rotary actuator 105 and the frame rate of the image pickup apparatus are linked. For example, when the rotary actuator 105 rotates at 40 rotations / second, three frames of visible light images and three frames of near-infrared images are sequentially imaged for each rotation of the rotary actuator 105. Therefore, the frame rate of the visible light image is 120 fps, and the frame rate of the near infrared image is 120 fps. Further, if it is desired to reduce the frame rate to 60 fps, which is half of both images, the rotary actuator 105 may be rotated at half 20 rpm.

このように、ロータリーアクチュエータ105の回転速度がフレームレートに同期することにより、撮像装置の可変フレームレートに適応したタイミングで光学フィルタ10(可視光フィルタ106、赤外フィルタ107)の切り替えが適切に実施される。 In this way, by synchronizing the rotation speed of the rotary actuator 105 with the frame rate, the optical filters 10 (visible light filter 106, infrared filter 107) are appropriately switched at the timing adapted to the variable frame rate of the image pickup apparatus. Will be done.

なお、実施例1では、ロータリーアクチュエータ105を6区分している。しかしながら、本発明はこれに限定されない。高速フレームレートが不要な場合は、ロータリーアクチュエータ105の区分数を少なくしてもよい。また、撮像装置を小型化したい場合には、ロータリーアクチュエータ105の区分数を少なくすることにより、ロータリーアクチュエータ105の直径を小さくしてもよい。さらに、光学フィルタ10の種類数を増やしたい場合は、ロータリーアクチュエータ105の区分数を光学フィルタ10の種類数に応じて増やしてもよい。 In the first embodiment, the rotary actuator 105 is divided into six categories. However, the present invention is not limited to this. If a high frame rate is not required, the number of divisions of the rotary actuator 105 may be reduced. Further, when it is desired to reduce the size of the image pickup apparatus, the diameter of the rotary actuator 105 may be reduced by reducing the number of divisions of the rotary actuator 105. Further, when it is desired to increase the number of types of the optical filter 10, the number of divisions of the rotary actuator 105 may be increased according to the number of types of the optical filter 10.

また、実施例1では、ロータリーアクチュエータ105の回転速度(光学フィルタ10の切り替え)に対して、撮像装置の可変フレームレートを同期させている。しかしながら、本発明はこれに限定されない。例えば、撮像装置のフレームレートの同期信号(垂直同期信号や水平同期信号)をPLL逓倍化した逓倍化信号を生成し、逓倍化信号によりロータリーアクチュエータ105をステップ回転させてもよい。この場合は、撮像装置の可変フレームレートに対して、ロータリーアクチュエータ105の回転速度(光学フィルタ10の切り替え)を同期させることが可能になる。 Further, in the first embodiment, the variable frame rate of the image pickup apparatus is synchronized with the rotation speed of the rotary actuator 105 (switching of the optical filter 10). However, the present invention is not limited to this. For example, a multiplication signal obtained by multiplying the frame rate synchronization signal (vertical synchronization signal or horizontal synchronization signal) of the image pickup apparatus by PLL may be generated, and the rotary actuator 105 may be step-rotated by the multiplication signal. In this case, the rotation speed of the rotary actuator 105 (switching of the optical filter 10) can be synchronized with the variable frame rate of the image pickup apparatus.

<フィルタ映像の合成処理について>
次に、複数種類のフィルタ映像に対する合成処理について説明する。
<About the composition process of filtered video>
Next, the compositing process for a plurality of types of filtered images will be described.

図7は、フィルタ映像の合成処理の例を説明する図である。 FIG. 7 is a diagram illustrating an example of a filter image compositing process.

映像処理部14は、可視光フィルタ106を通して撮影された可視光映像(図7に示すローパス可視光画像)と、赤外フィルタ107を通して撮影された近赤外映像(図7に示すハイパス近赤外モノクロ画像)とを、フィルタ映像として取得する。この可視光映像と近赤外映像を所定の合成条件の設定で重ね合わせ合成することにより、新たなフィルタ映像(合成画像)が生成される。 The image processing unit 14 includes a visible light image (low-pass visible light image shown in FIG. 7) taken through the visible light filter 106 and a near-infrared image (high-pass near-infrared image shown in FIG. 7) taken through the infrared filter 107. Monochrome image) and is acquired as a filter image. A new filter image (composite image) is generated by superimposing and synthesizing the visible light image and the near infrared image under predetermined composition conditions.

例えば、近赤外映像には、近赤外光を吸収しない(反射する)ゴミや傷などの不純物が写る。一方、可視域の映像は写らない。一方、可視光映像には、可視域の映像と共に、ゴミや傷などの不純物が一緒に写る。そのため、近赤外映像を除去マスクにして、可視光映像からゴミや傷を除去する合成処理を行うことにより、ゴミや傷などを除去した新たなフィルタ映像(合成画像)が得られる。また、近赤外映像と可視光映像とを乗算(論理積)する合成処理を行うことにより、ゴミや傷などを強調した新たなフィルタ映像(合成映像)が得られる。 For example, near-infrared images show impurities such as dust and scratches that do not absorb (reflect) near-infrared light. On the other hand, the image in the visible range is not captured. On the other hand, in the visible light image, impurities such as dust and scratches are shown together with the image in the visible range. Therefore, a new filter image (composite image) from which dust and scratches have been removed can be obtained by performing a composition process for removing dust and scratches from the visible light image using a near-infrared image as a removal mask. Further, by performing a compositing process of multiplying (logically producting) the near-infrared image and the visible light image, a new filtered image (composited image) emphasizing dust and scratches can be obtained.

このように可視光映像と近赤外映像を所定の設定で重ね合わせ合成することにより、人間が目視で確認できる可視光映像と、人間が通常目視では確認できない近赤外映像とを明確に分離したり、また、合成前にそれぞれの露光時間、ゲインをコントロールすることで、人間の目では暗くて見えない部分を明るく強調したフィルタ映像(合成画像)を得ることができる。 By superimposing and synthesizing the visible light image and the near-infrared image with predetermined settings in this way, the visible light image that can be visually confirmed by humans and the near-infrared image that cannot be normally visually confirmed by humans are clearly separated. In addition, by controlling each exposure time and gain before compositing, it is possible to obtain a filtered image (composite image) in which a part that is dark and invisible to the human eye is brightly emphasized.

このような合成処理では、合成処理を施すフィルタ映像の組み合わせの数を増やしたり、合成条件の種類をさらに追加設定したり、多段階に合成処理を重ねることにより、限られた数のフィルタ映像の種類数をさらに増やすことが可能になる。 In such a composition process, a limited number of filter images can be obtained by increasing the number of combinations of filter images to be combined, setting additional types of composition conditions, and repeating the composition process in multiple stages. It will be possible to further increase the number of types.

<フィルタ映像の映像加工について>
次に、フィルタ映像に対する映像加工について説明する。
<About image processing of filtered images>
Next, image processing for the filtered image will be described.

図8は、フィルタ映像の映像加工の例を説明する図である。
同図において、映像処理部14は、フィルタ映像一つ一つに対して次の映像加工をそれぞれ実施する。
(1)色調補正・変換、(2)輪郭補正、(3)二値化、(4)輪郭マーキング、(5)ガンマ補正、(7)その他の映像加工
FIG. 8 is a diagram illustrating an example of image processing of a filtered image.
In the figure, the image processing unit 14 performs the following image processing on each of the filtered images.
(1) Color tone correction / conversion, (2) Contour correction, (3) Binarization, (4) Contour marking, (5) Gamma correction, (7) Other video processing

このような映像加工では、映像加工の種類をさらに追加設定したり、多段階に映像加工を重ねることにより、限られた数のフィルタ映像の種類数をさらに増やすことが可能になる。 In such image processing, it is possible to further increase the number of types of filtered images, which is limited, by further setting the types of image processing or by repeating image processing in multiple stages.

<映像加工と合成処理とを組み合わせた複合処理について>
次に、映像加工と合成処理とを組み合わせた複合処理について説明する。
<Composite processing that combines video processing and compositing processing>
Next, a composite process that combines video processing and composition processing will be described.

図9は、映像加工と合成処理とを組み合わせた複合処理の例を説明する図である。 FIG. 9 is a diagram illustrating an example of combined processing in which video processing and composition processing are combined.

映像処理部14は、近赤外映像(図9に示すハイパス近赤外モノクロ画像)に対して所定のスレッショルド以上の映像レベル部分を切り出して、アンダーレベルカット画像を生成する。 The image processing unit 14 cuts out an image level portion of a predetermined threshold or higher with respect to the near infrared image (high-pass near-infrared monochrome image shown in FIG. 9) to generate an under-level cut image.

次に、映像処理部14は、アンダーレベルカット画像を、可視光映像(図9に示すローパス可視光画像)に対して、複数種類のブレンド比率(80:20、50:50・・)で合成する。 Next, the image processing unit 14 synthesizes the under-level cut image with respect to the visible light image (low-pass visible light image shown in FIG. 9) at a plurality of types of blend ratios (80:20, 50:50 ...). To do.

このような映像加工と合成処理との複合処理では、映像加工や合成処理の組み合わせをさらに追加設定することにより、限られた数のフィルタ映像の種類数をさらに増やすことが可能になる。 In such combined processing of video processing and compositing processing, it is possible to further increase the number of types of a limited number of filter images by further setting a combination of video processing and compositing processing.

<撮像装置の撮像モードについて>
続いて、実施例1の撮像モードについて説明する。
図10および図11は、撮像装置の撮像モードについて説明する流れ図である。
以下、図に示すステップ番号の順番に説明する。
<About the imaging mode of the imaging device>
Subsequently, the imaging mode of the first embodiment will be described.
10 and 11 are flow charts illustrating an imaging mode of the imaging apparatus.
Hereinafter, the steps will be described in the order of the step numbers shown in the figure.

ステップS01: 撮像駆動部13は、位置確認用の光源108を点灯し、ロータリーアクチュエータ105の回転位置を初期化する。 Step S01: The image pickup drive unit 13 turns on the position confirmation light source 108 and initializes the rotation position of the rotary actuator 105.

ステップS02: 撮像駆動部13は、撮像装置の設定に基づいて、モード単独かモード切替かを判定する。モード単独の場合、撮像駆動部13はステップS03に動作を移行する。モード切替の場合、撮像駆動部13はステップS14に動作を移行する。 Step S02: The image pickup drive unit 13 determines whether the mode is single or mode switching based on the setting of the image pickup apparatus. In the case of the mode alone, the image pickup driving unit 13 shifts the operation to step S03. In the case of mode switching, the image pickup drive unit 13 shifts the operation to step S14.

ステップS03: 撮像駆動部13は、撮像装置の設定に基づいて、可視モードか近赤外モードかを判定する。可視モードの場合、撮像駆動部13はステップS04に動作を移行する。近赤外モードの場合、撮像駆動部13はステップS05に動作を移行する。 Step S03: The image pickup driving unit 13 determines whether it is a visible mode or a near infrared mode based on the setting of the image pickup apparatus. In the visible mode, the image pickup driving unit 13 shifts to the operation in step S04. In the near-infrared mode, the image pickup driving unit 13 shifts to the operation in step S05.

ステップS04: 撮像駆動部13は、ロータリーアクチュエータ105を初期化された位置から所定のステップ角度だけ回転させることにより、可視光フィルタ106を撮影光路に挿置する。この動作の後、撮像駆動部13は、ステップS06に動作を移行する。 Step S04: The imaging drive unit 13 inserts the visible light filter 106 into the photographing optical path by rotating the rotary actuator 105 from the initialized position by a predetermined step angle. After this operation, the image pickup driving unit 13 shifts to the operation in step S06.

ステップS05: 撮像駆動部13は、ロータリーアクチュエータ105を初期化された位置から所定のステップ角度だけ回転させることにより、赤外フィルタ107を撮影光路に挿置する。 Step S05: The imaging drive unit 13 inserts the infrared filter 107 into the photographing optical path by rotating the rotary actuator 105 from the initialized position by a predetermined step angle.

ステップS06: 撮像駆動部13は、位置確認用の光源108を消灯する。 Step S06: The image pickup drive unit 13 turns off the position confirmation light source 108.

ステップS07: 撮像駆動部13は、挿置された光学フィルタ10に応じて、適正な露光時間を撮像条件として設定する。また、挿置された光学フィルタ10の結像距離の違いに応じて焦点調整を行ってもよい。 Step S07: The image pickup driving unit 13 sets an appropriate exposure time as an image pickup condition according to the inserted optical filter 10. Further, the focus may be adjusted according to the difference in the imaging distance of the inserted optical filter 10.

ステップS08: 撮像駆動部13は、設定された撮像条件に応じて撮像部12(撮像素子103)を駆動し、挿置された光学フィルタ10に応じたフィルタ映像を生成する。 Step S08: The image pickup drive unit 13 drives the image pickup unit 12 (image sensor 103) according to the set imaging conditions, and generates a filter image according to the inserted optical filter 10.

ステップS09: 映像処理部14は、撮像装置の設定に基づいて、映像加工を行うか否かを判定する。ここで、映像加工を行う場合、映像処理部14はステップS10に動作を移行する。映像加工を行わない場合、映像処理部14はステップS11に動作を移行する。 Step S09: The image processing unit 14 determines whether or not to perform image processing based on the setting of the image pickup apparatus. Here, when performing video processing, the video processing unit 14 shifts the operation to step S10. When no video processing is performed, the video processing unit 14 shifts the operation to step S11.

ステップS10: 映像処理部14は、フィルタ映像に対して複数通りの映像加工を行い、フィルタ映像の種類数を増やす。 Step S10: The image processing unit 14 performs a plurality of types of image processing on the filtered image to increase the number of types of the filtered image.

ステップS11: 映像処理部14または映像出力部17は、撮像装置の外部から入力される同期信号(以下「外部同期」という)、または撮像装置の内部で生成される同期信号(以下「内部同期」という)にタイミングを合わせて、複数種類のフィルタ映像を並べ替えるタイミング処理を行う。 Step S11: The video processing unit 14 or the video output unit 17 has a synchronization signal input from the outside of the image pickup apparatus (hereinafter referred to as “external synchronization”) or a synchronization signal generated inside the imaging apparatus (hereinafter referred to as “internal synchronization”). ), And perform timing processing to rearrange multiple types of filter images.

ステップS12: 映像処理部14または映像出力部17は、フィルタ映像についてエンコーディングを行い、出力用の映像信号を生成する。 Step S12: The video processing unit 14 or the video output unit 17 encodes the filtered video and generates a video signal for output.

ステップS13: 映像処理部14は、機械学習器20に対して映像信号を出力する。静止画撮影の場合、撮像駆動部13は撮像動作をここで一旦完了する。なお、動画撮影の場合、撮像駆動部13は、ステップS01に動作を戻して、動画撮影を継続する。 Step S13: The video processing unit 14 outputs a video signal to the machine learning device 20. In the case of still image shooting, the image pickup driving unit 13 temporarily completes the image pickup operation here. In the case of moving image shooting, the imaging drive unit 13 returns to step S01 to continue moving image shooting.

ステップS14: 撮像駆動部13は、外部同期または内部同期に合わせて、ロータリーアクチュエータ105の回転を開始する。 Step S14: The image pickup drive unit 13 starts the rotation of the rotary actuator 105 in accordance with the external synchronization or the internal synchronization.

ステップS15: 撮像駆動部13は、ロータリーアクチュエータ105の回転が安定化するまで待機する。例えば、ロータリーアクチュエータ105の回転位置の初期化タイミングの時間間隔が一定するまで待機する。 Step S15: The image pickup drive unit 13 waits until the rotation of the rotary actuator 105 stabilizes. For example, it waits until the time interval of the initialization timing of the rotation position of the rotary actuator 105 becomes constant.

ステップS16: 撮像駆動部13は、開口穴110A、110Bの検知結果に基づいて、撮影光路を次に通過する光学フィルタ10が、可視光フィルタ106と赤外フィルタ107のいずれかを判定する。可視光フィルタ106の場合、撮像駆動部13はステップS17に動作を移行する。赤外フィルタ107の場合、撮像駆動部13はステップS20に動作を移行する。 Step S16: The image pickup driving unit 13 determines which of the visible light filter 106 and the infrared filter 107 is the optical filter 10 that next passes through the photographing optical path based on the detection results of the opening holes 110A and 110B. In the case of the visible light filter 106, the image pickup driving unit 13 shifts to the operation in step S17. In the case of the infrared filter 107, the image pickup driving unit 13 shifts to the operation in step S20.

ステップS17: 撮像駆動部13は、可視光フィルタ106に応じて、適正な露光時間を撮像条件として設定する。 Step S17: The image pickup driving unit 13 sets an appropriate exposure time as an image pickup condition according to the visible light filter 106.

ステップS18: 撮像駆動部13は、光源108を一時的に消灯し、撮像部12(撮像素子103)を駆動し、挿置された可視光フィルタ106に応じた可視光のフィルタ映像(例えばカラー映像)をデータ生成する。撮像を完了すると、撮像駆動部13は光源108を再び点灯する。 Step S18: The image pickup drive unit 13 temporarily turns off the light source 108, drives the image pickup unit 12 (image sensor 103), and drives a visible light filter image (for example, a color image) according to the inserted visible light filter 106. ) Is generated. When the imaging is completed, the imaging drive unit 13 turns on the light source 108 again.

ステップS19: 映像処理部14は、可視光のフィルタ映像に複数通りの映像加工を行い、複数種類のフィルタ映像を生成する。この動作の後に、映像処理部14はステップS23に動作を移行する。 Step S19: The image processing unit 14 performs a plurality of types of image processing on the filtered image of visible light to generate a plurality of types of filtered images. After this operation, the video processing unit 14 shifts the operation to step S23.

ステップS20: 撮像駆動部13は、赤外フィルタ107に応じて、適正な露光時間を撮像条件として設定する。また、近赤外光の結像距離に応じて焦点調整を行ってもよい。 Step S20: The image pickup driving unit 13 sets an appropriate exposure time as an image pickup condition according to the infrared filter 107. Further, the focus may be adjusted according to the imaging distance of the near infrared light.

ステップS21: 撮像駆動部13は、光源108を一時的に消灯し、撮像部12(撮像素子103)を駆動し、挿置された赤外フィルタ107に応じた近赤外光のフィルタ映像(例えばモノクロ映像)をデータ生成する。撮像を完了すると、撮像駆動部13は光源108を再び点灯する。 Step S21: The image pickup drive unit 13 temporarily turns off the light source 108, drives the image pickup unit 12 (image sensor 103), and filters an image of near-infrared light (for example, according to the inserted infrared filter 107). Monochrome video) is generated as data. When the imaging is completed, the imaging drive unit 13 turns on the light source 108 again.

ステップS22: 映像処理部14は、近赤外光のフィルタ映像に複数通りの映像加工を行い、複数種類のフィルタ映像を生成する。 Step S22: The image processing unit 14 performs a plurality of types of image processing on the near-infrared light filter image to generate a plurality of types of filter images.

ステップS23: 映像処理部14は、内部メモリに対して、種類数を増やしたフィルタ映像を一時記録する。 Step S23: The video processing unit 14 temporarily records an increased number of types of filtered video in the internal memory.

ステップS24: 撮像駆動部13は、光学フィルタ10の切り替えがすべて完了したか否かを判定する。光学フィルタ10の切り替えがすべて完了した場合、撮像駆動部13はステップS25に動作を移行する。光学フィルタ10の切り替えが完了していない場合、残りの光学フィルタ10について撮像を行うため、ステップS16に動作を戻す。 Step S24: The image pickup driving unit 13 determines whether or not all the switching of the optical filters 10 is completed. When all the switching of the optical filters 10 is completed, the image pickup driving unit 13 shifts to the operation in step S25. If the switching of the optical filters 10 is not completed, the operation is returned to step S16 in order to perform imaging on the remaining optical filters 10.

ステップS25: 映像処理部14は、内部メモリ上のフィルタ映像について複数通りの組み合わせを作成し、複数通りの組み合わせについて複数種類の合成処理を実施する。この合成処理により、フィルタ映像の種類数を相乗的に増やす。なお、合成処理後のフィルタ映像に対して、複数通りの映像加工を追加して行ってもよい。また、映像加工と合成処理とを繰り返しもよい。 Step S25: The image processing unit 14 creates a plurality of combinations of the filter images on the internal memory, and performs a plurality of types of synthesis processing on the plurality of combinations. This compositing process synergistically increases the number of types of filtered images. It should be noted that a plurality of types of image processing may be added to the filtered image after the composition processing. Further, the image processing and the composition processing may be repeated.

ステップS26: 映像処理部14は、撮像装置の設定に基づいて、種類数の増えたフィルタ映像を出力順に並べ替える。この動作の後に、映像処理部14はステップS11に動作を移行する。
上述した一連の動作により、撮像装置の撮像モードに応じた動作が実施される。
Step S26: The image processing unit 14 sorts the filtered images with an increased number of types in the order of output based on the settings of the imaging device. After this operation, the video processing unit 14 shifts the operation to step S11.
By the series of operations described above, the operation according to the image pickup mode of the image pickup apparatus is performed.

<実施例1の効果など>
(1)実施例1では、異なる光学特性を有する複数種類の光学フィルタ10を選択的に切り替えながら、光学フィルタ10の挿置タイミングに同期して撮像部を駆動することにより、同一の被写体について複数種類のフィルタ映像をデータ生成する。そのため、機械学習処理において必要になる学習用の映像データを効率よく収集することが可能になる。
<Effects of Example 1>
(1) In the first embodiment, a plurality of types of optical filters 10 having different optical characteristics are selectively switched, and the imaging unit is driven in synchronization with the insertion timing of the optical filters 10 to obtain a plurality of the same subject. Generate data of various types of filter images. Therefore, it becomes possible to efficiently collect video data for learning required in machine learning processing.

(2)さらに、実施例1では、光学フィルタ10を切り替えて撮像した複数種類のフィルタ映像に対して、映像加工または合成処理を実施することにより、同一の被写体について取得されるフィルタ映像の種類数をさらに増やすことが可能になる。そのため、機械学習処理において必要になる学習用の映像データを一段と効率よく収集することが可能になる。 (2) Further, in the first embodiment, the number of types of filter images acquired for the same subject by performing image processing or compositing processing on a plurality of types of filter images captured by switching the optical filter 10. Can be further increased. Therefore, it becomes possible to more efficiently collect the video data for learning required in the machine learning process.

(3)特に、実施例1では、例えば次のように段階的にフィルタ映像の種類数を増やすことが可能になる。
第1段階:「N」種類の光学フィルタ10を切り替えてフィルタ映像の種類数をN(N>1)とする。
第2段階:「N」種類のフィルタ映像にM(M>1)通りの映像加工を施してフィルタ映像の種類数を「N×M」とする。
第3段階:「N×M」種類のフィルタ映像の組み合わせごとにL通りの合成処理を施した場合、「(組み合わせの数の総和)×L」までフィルタ映像の種類数を増やすことが可能になる。
このように実施例1では、複数種類の光学フィルタ10、複数種類の映像加工、および合成処理を組み合わせるので、フィルタ映像の種類数を相乗的に増やすことができる。そのため、機械学習処理において必要になる学習用の映像データをさらに一段と効率よく収集することが可能になる。
(3) In particular, in the first embodiment, the number of types of filter images can be increased stepwise as follows, for example.
First stage: The number of types of the filter image is set to N (N> 1) by switching the optical filter 10 of the “N” type.
Second stage: The number of types of the filter image is set to "N × M" by performing image processing according to M (M> 1) on the filter image of the "N" type.
Third stage: When L-like composition processing is performed for each combination of "N x M" types of filter images, it is possible to increase the number of types of filter images to "(total number of combinations) x L". Become.
As described above, in the first embodiment, since the plurality of types of optical filters 10, the plurality of types of image processing, and the composition processing are combined, the number of types of filter images can be synergistically increased. Therefore, it becomes possible to more efficiently collect the video data for learning required in the machine learning process.

(4)また、実施例1では、複数種類の光学フィルタ10として、可視光を選択的に透過する可視光フィルタと、近赤外光を選択的に透過する赤外フィルタとを少なくとも有する。赤外フィルタを介した近赤外映像は、人間の目視できない映像であるため、目視では不可能な画像検査が可能になる。そのため、目視では不可能な画像検査(機械学習処理など)を行うために必要な学習材料または推定材料としてのフィルタ映像を得ることが可能になる。 (4) Further, in the first embodiment, the plurality of types of optical filters 10 include at least a visible light filter that selectively transmits visible light and an infrared filter that selectively transmits near-infrared light. Since the near-infrared image passed through the infrared filter is an image that cannot be seen by humans, image inspection that cannot be visually inspected becomes possible. Therefore, it becomes possible to obtain a filter image as a learning material or an estimation material necessary for performing an image inspection (machine learning process, etc.) that cannot be visually inspected.

<実施形態の補足事項>
なお、実施例1では、機械学習器20として、畳込みニューラルネットワーク(図2参照)を使用した。しかしながら、本発明はこれに限定されない。例えば、このような機械学習器としては、決定木学習、相関ルール学習、ニューラルネットワーク、遺伝的プログラミング、帰納論理プログラミング、サポートベクターマシン、クラスタリング、ベイジアンネットワーク、強化学習、表現学習、主成分分析、エクストリーム・ラーニング・マシン、およびその他の機械学習技法の少なくとも一つの技法に基づく機械学習器を採用してもよい。
<Supplementary matters of the embodiment>
In Example 1, a convolutional neural network (see FIG. 2) was used as the machine learning device 20. However, the present invention is not limited to this. For example, such machine learning devices include decision tree learning, correlation rule learning, neural networks, genetic programming, inductive logic programming, support vector machines, clustering, Bayesian networks, reinforcement learning, expression learning, principal component analysis, and extremes. • A machine learning device based on at least one of the learning machines and other machine learning techniques may be employed.

また、実施例1では、ロータリーアクチュエータ105を用いた光学フィルタ切替機構11を開示する。しかしながら、本発明はこれに限定されない。複数種類の光学フィルタ10を撮影光路に選択的に挿置する機構であればよい。例えば、光学フィルタ10をスライド式に切り替える光学フィルタ切替機構を採用してもよい。また、光学フィルタ切替機構11では、フィルタ映像の一つとして、光学的に無加工の映像をデータ生成するために、素通しの光学フィルタ(空き枠や反射防止フィルタなど)を切り替え可能にしてもよい。 Further, in the first embodiment, the optical filter switching mechanism 11 using the rotary actuator 105 is disclosed. However, the present invention is not limited to this. Any mechanism may be used as long as it is a mechanism for selectively inserting a plurality of types of optical filters 10 into the photographing optical path. For example, an optical filter switching mechanism for switching the optical filter 10 to a slide type may be adopted. Further, in the optical filter switching mechanism 11, as one of the filter images, a transparent optical filter (empty frame, antireflection filter, etc.) may be switched in order to generate data of an optically unprocessed image. ..

さらに、実施例1では、光学フィルタ10として、可視光フィルタと赤外フィルタを開示する。しかしながら、本発明はこれに限定されない。入射光を光学的に加工する光学素子であればよい。例えば、入射光のうち波長域などの所定の性質を持つ光を選択的に透過、反射、吸収、または除去するものでもよいし、入射光を局所的にずらして重畳させる光学的ローパスフィルタでもよいし、入射光の透過光量を下げるNDフィルタでもよいし、入射光を変位または回動させる光学系でもよいし、入射光を所定の拡散分布で拡散する軟焦点フィルタでもよいし、入射光に反応して透過波長や透過率が変化するフィルタでもよいし、入射光の偏光成分を加工する偏光光学素子でもよいし、被写体の像倍率を変化させる焦点距離変換光学系でもよいし、被写体の合焦距離を変化させる合焦距離変換光学系(クローズアップフィルタなど)でもよいし、入射光を複数方向に分割して多重像を形成する光学系でもよいし、被写体像の一部分(中央部や周辺部や上半分など)のみを光学的に加工する光学素子でもよいし、入射光にハロ(滲み)をつけるフォギーフィルタでもよいし、入射光にクロス状の光芒をつけるクロスフィルタでもよい。 Further, in Example 1, a visible light filter and an infrared filter are disclosed as the optical filter 10. However, the present invention is not limited to this. Any optical element that optically processes the incident light may be used. For example, among the incident light, light having a predetermined property such as a wavelength range may be selectively transmitted, reflected, absorbed, or removed, or an optical low-pass filter that locally shifts and superimposes the incident light may be used. It may be an ND filter that reduces the amount of transmitted light of the incident light, an optical system that displaces or rotates the incident light, a soft focus filter that diffuses the incident light with a predetermined diffusion distribution, or reacts to the incident light. It may be a filter that changes the transmitted wavelength or the transmittance, a polarized optical element that processes the polarization component of the incident light, a focal distance conversion optical system that changes the image magnification of the subject, or a focusing of the subject. It may be an in-focus distance conversion optical system (close-up filter, etc.) that changes the distance, an optical system that divides the incident light in multiple directions to form multiple images, or a part of the subject image (central part or peripheral part). It may be an optical element that optically processes only the upper half, etc., a foggy filter that adds halo (bleeding) to the incident light, or a cross filter that adds a cross-shaped light beam to the incident light.

また、本発明は実施例1に限定されるものではなく、様々な変形例が含まれる。例えば、実施例1は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、実施例1の構成の一部について、他の構成の追加・削除・置換をすることも可能である。 Further, the present invention is not limited to the first embodiment, and includes various modifications. For example, Example 1 has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is also possible to add / delete / replace a part of the configuration of the first embodiment with another configuration.

10…光学フィルタ、11…光学フィルタ切替機構、12…撮像部、13…撮像駆動部、14…映像処理部、17…映像出力部、20…機械学習器、31…前処理部、32…入力層、33…畳み込み層・活性化関数、34…プーリング層、35…ニューラルネットワーク、36…出力層、37…学習アルゴリズム部、101…筐体、102…レンズマウント、103…撮像素子、105…ロータリーアクチュエータ、106…可視光フィルタ、107…赤外フィルタ、110A…開口穴、110B…開口穴 10 ... Optical filter, 11 ... Optical filter switching mechanism, 12 ... Imaging unit, 13 ... Imaging drive unit, 14 ... Video processing unit, 17 ... Video output unit, 20 ... Machine learning device, 31 ... Preprocessing unit, 32 ... Input Layer, 33 ... Folding layer / activation function, 34 ... Pooling layer, 35 ... Neural network, 36 ... Output layer, 37 ... Learning algorithm unit, 101 ... Housing, 102 ... Lens mount, 103 ... Imaging element, 105 ... Rotary Actuator, 106 ... Visible light filter, 107 ... Infrared filter, 110A ... Opening hole, 110B ... Opening hole

Claims (5)

異なる光学特性を有する複数種類の光学フィルタと、
複数種類の前記光学フィルタを選択的に切り替えて、被写体の撮影光路に挿置する光学フィルタ切替機構と、
前記撮影光路に挿置された前記光学フィルタを介して被写体を撮像してフィルタ映像をデータ出力する撮像部と、
前記光学フィルタ切替機構により前記撮影光路に挿置する前記光学フィルタを切り替えながら、前記光学フィルタの挿置タイミングに同期して前記撮像部を駆動することにより、被写体に対応する複数種類の前記フィルタ映像をデータ生成する撮像駆動部と
を備えたことを特徴とする撮像装置。
Multiple types of optical filters with different optical characteristics and
An optical filter switching mechanism that selectively switches between a plurality of types of the optical filters and inserts them into the shooting optical path of the subject.
An imaging unit that images a subject through the optical filter inserted in the photographing optical path and outputs filter images as data.
By switching the optical filter inserted in the photographing optical path by the optical filter switching mechanism and driving the imaging unit in synchronization with the insertion timing of the optical filter, a plurality of types of the filter images corresponding to the subject are displayed. An image pickup device equipped with an image pickup drive unit that generates data.
請求項1に記載の撮像装置であって、
複数種類の前記フィルタ映像に対して、映像加工または合成処理を実施することにより、前記被写体に対応する前記フィルタ映像の種類数をさらに増やす映像処理部
を備えたことを特徴とする撮像装置。
The imaging device according to claim 1.
An imaging device including an image processing unit that further increases the number of types of the filtered images corresponding to the subject by performing image processing or compositing processing on the plurality of types of the filtered images.
請求項1〜2のいずれか一項に記載の撮像装置であって、
複数種類の前記光学フィルタとして、可視光を選択的に透過する可視光フィルタと、近赤外光を選択的に透過する赤外フィルタとを少なくとも有する
ことを特徴とする撮像装置。
The imaging device according to any one of claims 1 and 2.
An image pickup apparatus comprising at least a visible light filter that selectively transmits visible light and an infrared filter that selectively transmits near-infrared light, as the plurality of types of the optical filters.
請求項1〜3のいずれか一項に記載の撮像装置によって前記被写体に対応する複数種類の前記フィルタ映像を取得するデータ増強ステップと、
前記被写体について生成される複数種類の前記フィルタ映像と、前記被写体または前記フィルタ映像に関する教師値とを組み合わせたデータセットを含む学習データを機械学習器に与えて、前記機械学習器の機械学習を行う機械学習ステップと、
推定対象の映像を前記機械学習器に入力して推定を行う推定ステップと
を備えたことを特徴とする機械学習処理方法。
A data enhancement step of acquiring a plurality of types of the filter images corresponding to the subject by the imaging device according to any one of claims 1 to 3.
Machine learning of the machine learning device is performed by giving learning data including a data set in which a plurality of types of the filtered images generated for the subject and a teacher value related to the subject or the filtered image are combined to the machine learning device. Machine learning steps and
A machine learning processing method including an estimation step in which an image to be estimated is input to the machine learning device and estimation is performed.
請求項4に記載の機械学習処理方法であって、
前記推定ステップは、
前記撮像装置により前記推定対象に対応する複数種類の前記フィルタ映像を取得して前記機械学習器に入力し、前記機械学習器の出力データに基づいて推定を行う
ことを特徴とする機械学習処理方法。
The machine learning processing method according to claim 4.
The estimation step
A machine learning processing method characterized in that a plurality of types of the filter images corresponding to the estimation target are acquired by the imaging device, input to the machine learning device, and estimation is performed based on the output data of the machine learning device. ..
JP2019174317A 2019-09-25 2019-09-25 Imaging device and machine learning processing method Active JP7305501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019174317A JP7305501B2 (en) 2019-09-25 2019-09-25 Imaging device and machine learning processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174317A JP7305501B2 (en) 2019-09-25 2019-09-25 Imaging device and machine learning processing method

Publications (2)

Publication Number Publication Date
JP2021052319A true JP2021052319A (en) 2021-04-01
JP7305501B2 JP7305501B2 (en) 2023-07-10

Family

ID=75156521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174317A Active JP7305501B2 (en) 2019-09-25 2019-09-25 Imaging device and machine learning processing method

Country Status (1)

Country Link
JP (1) JP7305501B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022201459A1 (en) 2021-03-25 2022-09-29 Ngk Insulators, Ltd. COMPOSITE INTERBODY, HONEYCOMB STRUCTURE, ELECTRICALLY HEATED CATALYST AND METHOD OF MAKING THE COMPOSITE INTERBODY

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09166493A (en) * 1995-12-15 1997-06-24 Nikon Corp Image pick-up device and method therefor and light reception device
JP2002102146A (en) * 2000-09-29 2002-04-09 Fuji Photo Film Co Ltd Method and device for displaying fluorescent image
JP2014076223A (en) * 2012-10-12 2014-05-01 Hoya Corp Image signal processing device and electronic endoscope system
CN109583482A (en) * 2018-11-13 2019-04-05 河海大学 A kind of infrared human body target image identification method based on multiple features fusion Yu multicore transfer learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09166493A (en) * 1995-12-15 1997-06-24 Nikon Corp Image pick-up device and method therefor and light reception device
JP2002102146A (en) * 2000-09-29 2002-04-09 Fuji Photo Film Co Ltd Method and device for displaying fluorescent image
JP2014076223A (en) * 2012-10-12 2014-05-01 Hoya Corp Image signal processing device and electronic endoscope system
CN109583482A (en) * 2018-11-13 2019-04-05 河海大学 A kind of infrared human body target image identification method based on multiple features fusion Yu multicore transfer learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022201459A1 (en) 2021-03-25 2022-09-29 Ngk Insulators, Ltd. COMPOSITE INTERBODY, HONEYCOMB STRUCTURE, ELECTRICALLY HEATED CATALYST AND METHOD OF MAKING THE COMPOSITE INTERBODY

Also Published As

Publication number Publication date
JP7305501B2 (en) 2023-07-10

Similar Documents

Publication Publication Date Title
JP7003238B2 (en) Image processing methods, devices, and devices
CN103997599B (en) Image processing equipment, image pick up equipment and image processing method
US8390729B2 (en) Method and apparatus for providing a video image having multiple focal lengths
JP5988790B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5917054B2 (en) Imaging apparatus, image data processing method, and program
JP6838994B2 (en) Imaging device, control method and program of imaging device
CN107948500A (en) Image processing method and device
CN107959778A (en) Imaging method and device based on dual camera
EP1856907A2 (en) Method of controlling an action, such as a sharpness modification, using a colour digital image
JP5766077B2 (en) Image processing apparatus and image processing method for noise reduction
JP2014082533A (en) Image processing apparatus, image processing method and program
JP2016024489A (en) Image processing apparatus, imaging device, image processing method, and program
JP2010041586A (en) Imaging device
CN108781250A (en) Video camera controller, camera shooting control method and photographic device
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
KR20220058593A (en) Systems and methods for acquiring smart panoramic images
CN105939439A (en) Image processing apparatus, image pickup apparatus, image processing method
CN114651275B (en) Image stitching of full field of view reference images
JP7305501B2 (en) Imaging device and machine learning processing method
JP5843599B2 (en) Image processing apparatus, imaging apparatus, and method thereof
CN105007405B (en) Image processing method, image processing equipment and picture pick-up device
JP2010135984A (en) Compound-eye imaging apparatus and imaging method
CN110995982B (en) Image processing apparatus, control method therefor, imaging apparatus, and recording medium
JP2002010126A (en) Image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230628

R150 Certificate of patent or registration of utility model

Ref document number: 7305501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150