JP6989873B2 - System, image recognition method, and computer - Google Patents
System, image recognition method, and computer Download PDFInfo
- Publication number
- JP6989873B2 JP6989873B2 JP2018003548A JP2018003548A JP6989873B2 JP 6989873 B2 JP6989873 B2 JP 6989873B2 JP 2018003548 A JP2018003548 A JP 2018003548A JP 2018003548 A JP2018003548 A JP 2018003548A JP 6989873 B2 JP6989873 B2 JP 6989873B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- image data
- learning
- tracking target
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 60
- 230000006870 function Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 2
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像認識を行うシステム、方法、及び計算機に関する。 The present invention relates to a system, a method, and a computer for performing image recognition.
動画等の画像データから人物及び車両等の対象物を追跡する技術が知られている(例えば、特許文献1を参照)。 A technique for tracking an object such as a person or a vehicle from image data such as a moving image is known (see, for example, Patent Document 1).
特許文献1には、「画像を逐次取得する取得部と、画像から部分領域を抽出して当該部分領域から特徴量を抽出する抽出部と、抽出された特徴量と、対象物体を示す正事例の特徴量および対象物体の背景を示す負事例の特徴量を含む第1の認識モデルまたは正事例の特徴量を含む第2の認識モデルとに基づいて、部分領域が対象物体か否か認識する認識部と、認識の結果に基づいて、抽出された特徴量を第1の認識モデルへ追加して更新する更新部と、対象物体と認識された物体領域を出力する出力部と、を備え、認識部は、取得部により取得された前の画像について物体領域が出力されている場合、第1の認識モデルに基づいて認識し、前の画像について物体領域が出力されていない場合、第2の認識モデルに基づいて認識する。」ことが記載されている。
従来の画像認識システムでは、追跡対象を追跡するためには、予め、追跡対象を認識するための認識モデル(識別器)を用意する必要がある。一般的に、認識モデルは、多数の学習用データを用いる事前学習を行って生成する必要があり、事前学習の完了までに時間を要する。 In the conventional image recognition system, in order to track the tracking target, it is necessary to prepare a recognition model (discriminator) for recognizing the tracking target in advance. Generally, the recognition model needs to be generated by performing pre-learning using a large amount of training data, and it takes time to complete the pre-learning.
本発明は、追跡対象の追跡の開始が指示された場合、事前学習を行うことなく、追跡対象の追跡を迅速に開始することができるシステム、方法、及び計算機を提供する。 The present invention provides a system, a method, and a computer capable of promptly starting tracking of a tracked object without prior learning when instructed to start tracking the tracked object.
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、画像データに含まれる追跡対象を追跡するための認識処理を実行する認識サーバ及び前記認識処理に使用される識別器の学習を行う学習サーバを備えるシステムであって、前記認識サーバは、第1演算装置、前記第1演算装置に接続される第1記憶装置、前記第1演算装置に接続される第1インタフェースを有し、前記学習サーバは、第2演算装置、前記第2演算装置に接続される第2記憶装置、前記第2演算装置に接続される第2インタフェースを有し、前記認識サーバは、前記追跡対象が指定された初期画像データを受け付け、前記追跡対象より小さいサイズの複数のブロックに前記初期画像データを分割し、前記初期画像データに含まれる各ブロックの特徴量を算出し、前記追跡対象の一部を含むブロックであるか否かを示す教師信号を、前記初期画像データに含まれる各ブロックの特徴量に付与することによって初期学習用データを生成し、前記初期学習用データを前記学習サーバに送信し、前記学習サーバは、前記初期学習用データを用いた学習を行うことによって、受信した前記画像データに含まれる各ブロックを、前記追跡対象の一部を含むブロック及び前記追跡対象を含まないブロックのいずれかに分類する識別器を生成し、前記識別器を前記認識サーバに送信し、前記認識サーバは、前記識別器を用いて、受信した前記画像データに対する前記認識処理を実行し、前記認識処理の結果を出力することを特徴とする。 A typical example of the invention disclosed in the present application is as follows. That is, it is a system including a recognition server that executes recognition processing for tracking the tracking target included in the image data and a learning server that learns the classifier used for the recognition processing, and the recognition server is the first. It has 1 arithmetic unit, a 1st storage device connected to the 1st arithmetic apparatus, and a 1st interface connected to the 1st arithmetic apparatus, and the learning server is used in the 2nd arithmetic apparatus and the 2nd arithmetic apparatus. The recognition server has a second storage device to be connected and a second interface connected to the second arithmetic unit, and the recognition server receives initial image data to which the tracking target is designated, and a plurality of sizes smaller than the tracking target. The initial image data is divided into blocks, the feature amount of each block included in the initial image data is calculated, and a teacher signal indicating whether or not the block includes a part of the tracking target is used as the initial image. Initial learning data is generated by adding to the feature amount of each block included in the data, the initial learning data is transmitted to the learning server, and the learning server performs learning using the initial learning data. By doing so, a discriminator for classifying each block included in the received image data into either a block including a part of the tracking target or a block not including the tracking target is generated, and the discriminator is referred to as the discriminator. The data is transmitted to the recognition server, and the recognition server uses the classifier to execute the recognition process on the received image data and outputs the result of the recognition process.
本発明の一形態によれば、多数の学習用データを用いる事前学習を行うことなく、追跡対象の追跡を迅速に開始できる。上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。 According to one embodiment of the present invention, tracking of a tracking target can be started quickly without performing pre-learning using a large amount of learning data. Issues, configurations and effects other than those mentioned above will be clarified by the description of the following examples.
以下、本発明に係る実施例を添付図面を用いて説明する。各図において共通の構成については同一の参照符号が付されている。 Hereinafter, examples of the present invention will be described with reference to the accompanying drawings. The same reference numerals are given to the common configurations in each figure.
図1は、実施例1の計算機システムの構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of the computer system of the first embodiment.
計算機システムは、認識サーバ100、学習サーバ101、撮像装置105、及びデータベース106から構成される。なお、計算機システムは、撮像装置105及びデータベース106のいずれかを含む構成でもよい。
The computer system includes a
認識サーバ100、学習サーバ101、撮像装置105、及びデータベース106は、直接又はネットワークを介して互いに接続される。本発明はネットワークの種別に限定されない。ネットワークの種別としては、LAN(Local Area Network)及びWAN(Wide Area Network)がある。また、ネットワークの接続方式は有線及び無線のいずれでもよい。
The
撮像装置105は、カメラ等の装置であり、撮影された画像を画像データ150として認識サーバ100又はデータベース106に送信する。データベース106は、画像データ150を格納する。
The
認識サーバ100は、認識処理を実行する認識モジュール110を有する。認識モジュール110は、撮像装置105又はデータベース106から画像データ150を取得し、取得された画像データ150の認識処理を実行する。また、認識モジュール110は、画像データ150を用いて学習用データを生成し、学習サーバ101に送信する。
The
なお、本実施例の認識処理は、画像データに含まれる追跡対象を追跡するための処理である。 The recognition process of this embodiment is a process for tracking the tracking target included in the image data.
学習サーバ101は、深層学習による学習を行う学習モジュール120を有する。学習モジュール120は、学習用データを用いて認識処理に使用される識別器の学習を行う。また、学習モジュール120は、学習された識別器を認識サーバ100に送信する。
The
識別器は関数又は行列等のデータとして表される。本実施例では、追跡対象が指定された画像データ150が入力される時点では、当該追跡対象を認識するための識別器は学習されていない。後述するように、学習モジュール120は、追跡対象が指定された画像データ150に基づいて生成された初期学習用データを用いて識別器の学習を行う。
The classifier is represented as data such as a function or a matrix. In this embodiment, at the time when the
以下の説明では、追跡対象が指定された画像データ150を初期画像データ150と記載する。
In the following description, the
なお、認識サーバ100及び学習サーバ101は、物理的に異なる計算機として表しているが、一つの計算機上で稼働する仮想計算機を用いて実現してもよい。
Although the
図2は、実施例1の認識サーバ100のハードウェア構成及びソフトウェア構成の一例を示す図である。
FIG. 2 is a diagram showing an example of a hardware configuration and a software configuration of the
認識サーバ100は、ハードウェアとして、演算装置201、記憶装置202、ネットワークインタフェース203、及びI/Oインタフェース204を有する。各ハードウェアは、内部バス等を介して互いに接続される。
The
なお、学習サーバ101のハードウェア構成は、認識サーバ100と同一であるものとする。
It is assumed that the hardware configuration of the
演算装置201は、記憶装置202に格納されるプログラムを実行する。演算装置201がプログラムにしたがって処理を実行することによって、特定の機能を実現するモジュールとして動作する。以下の説明では、モジュールを主語に処理を説明する場合、演算装置201が当該モジュールを実現するプログラムを実行していることを示す。
The
記憶装置202は、演算装置201が実行するプログラム及びプログラムが使用する情報を格納する。また、記憶装置202は、プログラムが一時的に使用するワークエリアを含む。記憶装置202は、例えば、メモリ等が考えられる。
The storage device 202 stores the program executed by the
実施例1の記憶装置202は、認識モジュール110を実現するプログラムを格納する。また、記憶装置202には、処理対象の画像データ150が一時的に格納される。
The storage device 202 of the first embodiment stores a program that realizes the
ネットワークインタフェース203は、ネットワークを介して他の装置と接続するためのインタフェースである。
The
I/Oインタフェース204は、図示しない入力装置及び出力装置と接続するためのインタフェースである。入力装置は、例えば、キーボード、マウス、及びタッチパネル等である。出力装置は、例えば、タッチパネル及びディスプレイ等である。 The I / O interface 204 is an interface for connecting to an input device and an output device (not shown). The input device is, for example, a keyboard, a mouse, a touch panel, or the like. The output device is, for example, a touch panel, a display, or the like.
なお、認識サーバ100が有する認識モジュール110については、一つのモジュールを機能毎に複数のモジュールに分けてもよい。
Regarding the
図3A及び図3Bは、実施例1の認識モジュール110が実行する処理を説明するフローチャートである。図3Aは、実施例1の認識モジュールが実行する初期学習の処理を説明するフローチャートである。図3Bは、実施例1の認識モジュールが実行する、初期学習完了後の追跡対象の追跡処理を説明するフローチャートである。図4は、実施例1の認識サーバ100に入力される、追跡対象領域が設定された画像データ150の一例を示す図である。図5は、実施例1の学習用データの生成過程の一例を示す図である。
3A and 3B are flowcharts illustrating the processing executed by the
まず、認識モジュール110は、初期画像データ150の入力を受け付ける(ステップS101)。本実施例では、初期画像データ150は一つであるものとする。
First, the
ここで、図4を用いて追跡対象を指定する方法について説明する。ユーザは、出力装置に表示される画像データ150を参照し、追跡対象を囲む領域を設定することによって追跡対象を指定する。以下の説明では、追跡対象が存在する領域を追跡対象領域と記載する。
Here, a method of designating a tracking target will be described with reference to FIG. The user refers to the
認識モジュール110は、追跡対象領域によって追跡対象が指定された初期画像データ150の入力を受け付ける。このとき、認識モジュール110は、追跡対象領域の中心位置及びサイズ等を追跡対象領域の設定情報として保持する。
The
以下の説明では、画像データ150の追跡対象でない部分を背景と記載し、また、追跡対象領域を除く領域を背景領域と記載する。
In the following description, the portion of the
なお、追跡対象の指定は、認識モジュール110が初期画像データ150を受け付けた後に行われてもよい。例えば、認識モジュール110は、初めて画像データ150を受け付けた場合、図4に示すような画面を出力装置に表示し、追跡対象領域の設定を促す表示を行う。
The tracking target may be specified after the
本実施例では、初期画像データ150の数は一つであるが、複数でもよい。ただし、初期画像データ150の数は従来の機械学習で用いる学習用データの数より十分少ないものとする。
In this embodiment, the number of
次に、認識モジュール110は初期化処理を実行する(ステップS102)。
Next, the
具体的には、認識モジュール110は、追跡対象に分類されたブロックを格納する記憶領域及び背景に分類されたブロックを格納する記憶領域を初期化する。以下の説明では、追跡対象に分類されたブロックを格納する記憶領域を第1記憶領域と記載し、背景に分類されたブロックを格納する記憶領域を第2記憶領域と記載する。
Specifically, the
次に、認識モジュール110は、初期画像データ150を用いて初期学習用データを生成し、学習サーバ101に送信する(ステップS103)。具体的には、認識モジュール110は、以下のような処理を実行する。
Next, the
(処理1)認識モジュール110は、図5に示すように初期画像データ150を任意のサイズの領域に分割する。以下の説明では、一つの領域をブロックと記載する。ブロックのサイズは、画素以上かつ追跡対象より小さくなるように設定される。例えば、画像データのサイズが640×480の場合、認識モジュール110は、縦及び横をそれぞれ32分割することによって、300個のブロックを生成する。分割数は予め設定されているものとする。ただし、分割数は任意の値に変更できる。なお、ブロック内の矩形は画素を表す。
(Process 1) The
(処理2)認識モジュール110は、各ブロックの特徴量を算出する。例えば、式(1)に示すような、ブロックに含まれる各画素のRGB値の組合せがブロックの特徴量fiとして算出される。この場合、画像データ150の特徴量Fは式(2)のように表される。
(Process 2) The
ここで、iはブロックの識別番号であり、1からnまでの値を取る。なお、nは1より大きい整数とする。x及びyはブロック内の相対的な画素の位置を示す座標である。 Here, i is a block identification number and takes a value from 1 to n. Note that n is an integer larger than 1. x and y are coordinates indicating the relative positions of pixels in the block.
(処理3)認識モジュール110は、追跡対象領域に含まれるブロックに、追跡対象であることを示す教師信号を付与する。また、認識モジュール110は、背景領域に含まれるブロックに、背景であることを示す教師信号を付与する。本実施例では、ブロックの一部が追跡対象領域に含まれる場合、当該ブロックは追跡対象領域に含まれるブロックとして扱われる。以下の説明では、追跡対象であることを示す教師信号を第1教師信号と記載し、背景であることを示す教師信号を第2教師信号と記載する。
(Process 3) The
ここで、識別番号がiのブロックに付与する教師信号tiを式(3)のように定義した場合、初期学習用データSは式(4)のように与えられる。 Here, when the teacher signal ti given to the block whose identification number is i is defined as in the equation (3), the initial learning data S is given as in the equation (4).
(処理4)認識モジュール110は、式(4)に示す初期学習用データSを学習サーバ101に送信する。以上がステップS103の説明である。
(Process 4) The
次に、認識モジュール110は、初期学習が終了したか否かを判定する(ステップS104)。
Next, the
具体的には、認識モジュール110は、学習サーバ101によって生成された識別器を受信したか否かを判定する。本実施例の識別器は、ブロックを追跡対象及び背景のいずれかに分類する。
Specifically, the
初期学習が終了していないと判定された場合、認識モジュール110は、初期学習が終了するまで待ち状態に移行する。
If it is determined that the initial learning has not been completed, the
初期学習が終了したと判定された場合、認識モジュール110は、新たな画像データ150を取得し(ステップS105)、ブロックのループ処理を開始する(ステップS106)。
When it is determined that the initial learning is completed, the
具体的には、認識モジュール110は、取得した画像データ150をブロックに分割し、各ブロックの特徴量を算出する。また、認識モジュール110は、ブロックの中からターゲットブロックを選択する。また、認識モジュール110は、追跡対象領域の設定情報に基づいて検索領域を設定する。本実施例では、検索領域の中心位置は追跡対象領域の中心位置と同一に設定され、検索領域のサイズは追跡対象領域のサイズより大きくなるように設定される。例えば、検索領域のサイズは、追跡対象領域のサイズの1.5倍に設定される。認識モジュール110は、一時的に検索領域の設定情報を保持する。
Specifically, the
認識モジュール110は、ターゲットブロックが検索領域に含まれるか否かを判定する(ステップS107)。
The
具体的には、認識モジュール110は、画像データ150内のターゲットブロックの位置及び検索領域の設定情報に基づいて、ターゲットブロックが検索領域に含まれるか否かを判定する。
Specifically, the
ターゲットブロックが検索領域に含まれないと判定された場合、認識モジュール110は、ターゲットブロックを背景に分類し、ターゲットブロックを第2記憶領域に格納する(ステップS111)。その後、認識モジュール110はステップS112に進む。
When it is determined that the target block is not included in the search area, the
ターゲットブロックが検索領域に含まれると判定された場合、認識モジュール110は、認識処理を実行する(ステップS108)。
When it is determined that the target block is included in the search area, the
具体的には、認識モジュール110は、識別器にターゲットブロックの特徴量を入力し、識別器から得られた値に基づいて、ターゲットブロックが追跡対象の一部を含むか否かを判定する。ターゲットブロックが追跡対象の一部を含む場合、ターゲットブロックは追跡対象に分類される。ターゲットブロックが追跡対象の一部を含まない場合、ターゲットブロックは背景に分類される。当該分類の結果によって画像データ中の追跡対象の追跡が可能となる。
Specifically, the
ターゲットブロックが背景に分類された場合、認識モジュール110は、ターゲットブロックを第2記憶領域に格納する(ステップS111)。その後、認識モジュール110はステップS112に進む。
When the target block is classified as the background, the
ターゲットブロックが追跡対象に分類された場合、認識モジュール110は、ターゲットブロックを第1記憶領域に格納する(ステップS110)。その後、認識モジュール110はステップS112に進む。
When the target block is classified as a tracking target, the
ステップS112では、認識モジュール110は、全てのブロックに対して処理が完了したか否かを判定する(ステップS112)。
In step S112, the
全てのブロックに対して処理が完了していないと判定された場合、認識モジュール110は、ステップS106に戻り、新たなターゲットブロックを選択し、同様の処理を実行する。
If it is determined that the processing is not completed for all the blocks, the
全てのブロックに対して処理が完了したと判定された場合、認識モジュール110は、追跡対象領域を更新する(ステップS113)。
When it is determined that the processing is completed for all the blocks, the
具体的には、認識モジュール110は、画像データ150内の追跡対象に分類されたブロックの分布に基づいて追跡対象領域を推定する。認識モジュール110は、推定結果に基づいて追跡対象領域の設定情報を更新する。
Specifically, the
例えば、追跡対象に分類された全てのブロックを囲む領域を追跡対象領域として推定する。また、認識モジュール110は、追跡対象に分類されたブロックの重心を算出し、重心を基準とする任意のサイズの矩形を追跡対象領域として推定する。なお、追跡対象領域の推定方法は一例であってこれに限定されない。
For example, the area surrounding all the blocks classified as the tracking target is estimated as the tracking target area. Further, the
次に、認識モジュール110は、追跡対象の認識結果を出力する(ステップS114)。
Next, the
例えば、認識モジュール110は、追跡対象の認識結果を表示するための表示情報を生成し、出力装置に出力する。当該表示情報には、例えば、追跡対象と判定されたブロック及び追跡対象領域等を表示するためのデータが含まれる。
For example, the
次に、認識モジュール110は、認識が行われた画像データ150を用いて追加学習用データを生成し、学習サーバ101に送信する(ステップS115)。
Next, the
具体的には、認識モジュール110は、追跡対象と判定されたブロックに第1教師信号を付与し、背景と判定されたブロックに第2教師信号を付与することによって追加学習用データを生成する。なお、追加学習用データの構造は、初期学習用データSと同一である。
Specifically, the
次に、認識モジュール110は、追跡対象の追跡が終了したか否かを判定する(ステップS116)。例えば、追跡の終了指示を受け付けた場合、認識モジュール110は、追跡が終了したと判定する。
Next, the
追跡対象の追跡が終了したと判定された場合、認識モジュール110は処理を終了する。
When it is determined that the tracking of the tracking target is completed, the
追跡対象の追跡が終了していないと判定された場合、認識モジュール110は、ステップS105に戻り、同様の処理を実行する。認識モジュール110は、学習サーバ101によって逐次更新される識別器を用いて同様の処理を実行する。なお、ステップS105に戻る場合に、認識モジュール110は、更新された識別器を受信するまで待ち状態に移行してもよい。
If it is determined that the tracking of the tracking target has not been completed, the
図6は、実施例1の学習モジュール120が実行する処理を説明するフローチャートである。
FIG. 6 is a flowchart illustrating a process executed by the
学習サーバ101は、認識サーバ100から初期学習用データ又は追加学習用データを受信した場合、以下で説明する処理を開始する。以下の説明では、初期学習用データ及び追加学習用データを区別しない場合、学習用データと記載する。
When the learning
学習モジュール120は、学習用データを用いて深層学習による学習を行う(ステップS201)。当該学習によって、ブロック単位の追跡対象及び背景を学習できる。
The
なお、本発明は、使用する深層学習の手法に限定されない。例えば、RBM(Restricted Boltzmann Machine)を用いることが考えられる。 The present invention is not limited to the deep learning method used. For example, it is conceivable to use RBM (Restricted Boltzmann Machine).
次に、学習モジュール120は、学習結果に基づいて識別器を生成又は更新し、認識サーバ100に識別器を送信する(ステップS202)。その後、学習モジュール120は処理を終了する。
Next, the
具体的には、初期学習用データを受信した場合、学習モジュール120は識別器を生成し、認識サーバ100に生成された識別器を送信する。また、追加学習用データを受信した場合、学習モジュール120は識別器を更新し、認識サーバ100に更新された識別器を送信する。
Specifically, when the initial learning data is received, the
従来の学習では、追跡対象全体を認識するための識別器(認識モデル)が生成されていた。このような識別器を生成するためには、多数の学習用データを用いた学習を行う必要がある。そのため、多数の学習用データを用意するためのコストがかかり、また、学習時間が非常に長いという問題があった。 In conventional learning, a classifier (recognition model) for recognizing the entire tracked object has been generated. In order to generate such a classifier, it is necessary to perform learning using a large amount of learning data. Therefore, there is a problem that it is costly to prepare a large amount of learning data and the learning time is very long.
一方、本実施例の学習サーバ101は、一つの初期学習用データを分割したブロックの特徴量を用いて深層学習による学習を行う。すなわち、学習サーバ101は、追跡対象領域に含まれる複数のブロックを追跡対象として学習する。したがって、多数の学習用データを用意する必要がなく、また、学習時間が短い。追加学習用データを用いた学習も同様に高速に行うことができる。
On the other hand, the learning
従来の認識処理では、追跡対象全体の認識が行われる。追跡対象全体が一つの特徴量として扱われるため、初めて入力された画像データのみを用いた学習で生成された識別器は認識精度が非常に低い。したがって、当該識別器を用いても迅速な追跡対象の追跡を開始できない。 In the conventional recognition process, the entire tracking target is recognized. Since the entire tracking target is treated as one feature quantity, the discriminator generated by learning using only the image data input for the first time has very low recognition accuracy. Therefore, even if the classifier is used, rapid tracking of the tracking target cannot be started.
一方、本実施例の認識サーバ100は、検索領域に含まれるブロックに対して追跡対象の認識を行う。ブロックの特徴量は、追跡対象の移動及び追跡対象の形状の変化に対する変化量が小さいものと考えられる。したがって、追跡対象が指定された直後に追跡対象の認識を行わせる場合でも、一定の認識精度を保つことができる。したがって、初期学習用データを用いて生成された識別器を用いて迅速な追跡対象の追跡を開始できる。また、認識処理の対象となるブロックは、検索領域に含まれるブロックのみであるため、リアルタイムな追跡対象の追跡が可能となる。
On the other hand, the
なお、追跡の継続中にも学習サーバ101によって識別器が更新されるため、時間の経過とともに認識精度が高くなることは明らかである。
Since the discriminator is updated by the learning
以上で説明したように、本実施例によれば、多数の学習用データを用いた学習を行うことなく、追跡対象の追跡を迅速に開始するシステム、画像認識方法、及び計算機を実現できる。 As described above, according to the present embodiment, it is possible to realize a system, an image recognition method, and a computer that quickly start tracking of a tracking target without performing learning using a large amount of learning data.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. Further, for example, the above-described embodiment describes the configuration in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add, delete, or replace a part of the configuration of each embodiment with other configurations.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. The present invention can also be realized by a software program code that realizes the functions of the examples. In this case, a storage medium in which the program code is recorded is provided to the computer, and the processor included in the computer reads out the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the program code itself and the storage medium storing it constitute the present invention. Examples of the storage medium for supplying such a program code include a flexible disk, a CD-ROM, a DVD-ROM, a hard disk, an SSD (Solid State Drive), an optical disk, a magneto-optical disk, a CD-R, and a magnetic tape. Non-volatile memory cards, ROMs, etc. are used.
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。 In addition, the program code that realizes the functions described in this embodiment can be implemented in a wide range of programs or script languages such as assembler, C / C ++, perl, Shell, PHP, and Java (registered trademark).
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Further, by distributing the program code of the software that realizes the functions of the embodiment via the network, the program code is stored in a storage means such as a hard disk or a memory of a computer or a storage medium such as a CD-RW or a CD-R. The processor included in the computer may read and execute the program code stored in the storage means or the storage medium.
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 In the above-described embodiment, the control lines and information lines show what is considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. All configurations may be interconnected.
100 認識サーバ
101 学習サーバ
105 撮像装置
106 データベース
110 認識モジュール
120 学習モジュール
150 画像データ
201 演算装置
202 記憶装置
203 ネットワークインタフェース
204 I/Oインタフェース
100
Claims (8)
前記認識サーバは、第1演算装置、前記第1演算装置に接続される第1記憶装置、前記第1演算装置に接続される第1インタフェースを有し、
前記学習サーバは、第2演算装置、前記第2演算装置に接続される第2記憶装置、前記第2演算装置に接続される第2インタフェースを有し、
前記認識サーバは、
前記追跡対象が指定された初期画像データを受け付け、前記追跡対象より小さいサイズの複数のブロックに前記初期画像データを分割し、
前記初期画像データに含まれる各ブロックの特徴量を算出し、
前記追跡対象の一部を含むブロックであるか否かを示す教師信号を、前記初期画像データに含まれる各ブロックの特徴量に付与することによって初期学習用データを生成し、
前記初期学習用データを前記学習サーバに送信し、
前記学習サーバは、
前記初期学習用データを用いた学習を行うことによって、受信した前記画像データに含まれる各ブロックを、前記追跡対象の一部を含むブロック及び前記追跡対象を含まないブロックのいずれかに分類する識別器を生成し、
前記識別器を前記認識サーバに送信し、
前記認識サーバは、
前記識別器を用いて、受信した前記画像データに対する前記認識処理を実行し、
前記認識処理の結果を出力することを特徴とするシステム。 A system including a recognition server that executes a recognition process for tracking a tracking target included in image data and a learning server that learns a classifier used for the recognition process.
The recognition server has a first arithmetic unit, a first storage device connected to the first arithmetic unit, and a first interface connected to the first arithmetic unit.
The learning server has a second arithmetic unit, a second storage device connected to the second arithmetic unit, and a second interface connected to the second arithmetic unit .
The recognition server is
The initial image data specified by the tracking target is received, and the initial image data is divided into a plurality of blocks having a size smaller than the tracking target.
The feature amount of each block included in the initial image data is calculated, and the feature amount is calculated.
Initial learning data is generated by applying a teacher signal indicating whether or not the block includes a part of the tracking target to the feature amount of each block included in the initial image data.
The initial learning data is transmitted to the learning server, and the initial learning data is transmitted to the learning server.
The learning server is
By performing learning using the initial learning data, identification that classifies each block included in the received image data into either a block containing a part of the tracking target or a block not including the tracking target. Generate a vessel,
Send the classifier to the recognition server and
The recognition server is
Using the classifier, the recognition process for the received image data is executed.
A system characterized by outputting the result of the recognition process.
前記第1記憶装置は、前記画像データの前記追跡対象を含む領域である追跡対象領域の設定情報を格納し、
前記認識サーバは、
前記学習サーバから前記識別器を受信した後に、新規画像データを受信した場合、前記新規画像データを前記複数のブロックに分割し、
前記新規画像データに含まれる各ブロックの特徴量を算出し、
前記追跡対象領域の設定情報に基づいて、前記認識処理の対象となる領域である検索領域を設定し、
前記新規画像データに含まれる複数のブロックの中からターゲットブロックを選択し、
前記ターゲットブロックが前記検索領域に含まれるブロックであるか否かを判定し、
前記ターゲットブロックが前記検索領域に含まれるブロックでないと判定された場合、前記ターゲットブロックを、前記追跡対象の一部を含まないブロックに分類し、
前記ターゲットブロックが前記検索領域に含まれるブロックであると判定された場合、前記識別器に前記ターゲットブロックの特徴量を入力し、
前記識別器の出力に基づいて、前記ターゲットブロックを、前記追跡対象の一部を含むブロック及び前記追跡対象の一部を含まないブロックのいずれかに分類し、
前記追跡対象の一部を含むブロックの分布に基づいて新たな追跡対象領域を推定し、
前記新たな追跡対象領域の推定の結果に基づいて、前記追跡対象領域の設定情報を更新することを特徴とするシステム。 The system according to claim 1.
The first storage device stores setting information of a tracking target area, which is an area including the tracking target of the image data.
The recognition server is
When new image data is received after receiving the classifier from the learning server, the new image data is divided into the plurality of blocks.
The feature amount of each block included in the new image data is calculated, and the feature amount is calculated.
Based on the setting information of the tracking target area, the search area, which is the target area of the recognition process, is set.
Select the target block from the plurality of blocks included in the new image data, and select the target block.
It is determined whether or not the target block is a block included in the search area, and it is determined.
If it is determined that the target block is not a block included in the search area, the target block is classified into a block that does not include a part of the tracking target.
When it is determined that the target block is a block included in the search area, the feature amount of the target block is input to the classifier.
Based on the output of the classifier, the target block is classified into either a block containing a part of the tracking target or a block not including a part of the tracking target.
A new tracked area is estimated based on the distribution of blocks containing a part of the tracked object.
A system characterized in that the setting information of the tracking target area is updated based on the estimation result of the new tracking target area.
前記学習サーバは、
前記認識サーバによって生成された追加学習用データを受信した場合、前記追加学習用データを用いた学習を行うことによって前記識別器を更新し、
更新された前記識別器を前記認識サーバに送信し、
前記認識サーバは、
前記新規画像データに含まれる複数のブロックの特徴量に、前記分類の結果に対応する前記教師信号を付与することによって前記追加学習用データを生成し、
前記追加学習用データを前記学習サーバに送信し、
更新された前記識別器を用いて、受信した前記画像データに対する前記認識処理を実行し、
前記認識処理の結果を出力することを特徴とするシステム。 The system according to claim 2.
The learning server is
When the additional learning data generated by the recognition server is received, the discriminator is updated by performing learning using the additional learning data.
The updated classifier is sent to the recognition server and
The recognition server is
The additional learning data is generated by adding the teacher signal corresponding to the result of the classification to the feature quantities of the plurality of blocks included in the new image data.
The additional learning data is transmitted to the learning server, and the data is transmitted to the learning server.
Using the updated classifier, the recognition process for the received image data is executed.
A system characterized by outputting the result of the recognition process.
前記システムは、画像データに含まれる追跡対象を追跡するための認識処理を実行する認識サーバ及び前記認識処理に使用される識別器の学習を行う学習サーバを含み、
前記認識サーバは、第1演算装置、前記第1演算装置に接続される第1記憶装置、前記第1演算装置に接続される第1インタフェースを有し、
前記学習サーバは、第2演算装置、前記第2演算装置に接続される第2記憶装置、前記第2演算装置に接続される第2インタフェースを有し、
前記画像認識方法は、
前記認識サーバが、前記追跡対象が指定された初期画像データを受け付け、前記追跡対象より小さいサイズの複数のブロックに前記初期画像データを分割するステップと、
前記認識サーバが、前記初期画像データに含まれる各ブロックの特徴量を算出するステップと、
前記認識サーバが、前記追跡対象の一部を含むブロックであるか否かを示す教師信号を、前記初期画像データに含まれる各ブロックの特徴量に付与することによって初期学習用データを生成するステップと、
前記認識サーバが、前記初期学習用データを前記学習サーバに送信するステップと、
前記学習サーバが、前記初期学習用データを用いた学習を行うことによって、受信した前記画像データに含まれる各ブロックを、前記追跡対象の一部を含むブロック及び前記追跡対象を含まないブロックのいずれかに分類する識別器を生成するステップと、
前記学習サーバが、前記識別器を前記認識サーバに送信するステップと、
前記認識サーバが、前記識別器を用いて、受信した前記画像データに対する前記認識処理を実行するステップと、
前記認識サーバが、前記認識処理の結果を出力するステップと、を含むことを特徴とする画像認識方法。 An image recognition method performed by a system with multiple computers.
The system includes a recognition server that executes a recognition process for tracking a tracking target included in image data and a learning server that learns a classifier used for the recognition process.
The recognition server has a first arithmetic unit, a first storage device connected to the first arithmetic unit, and a first interface connected to the first arithmetic unit.
The learning server has a second arithmetic unit, a second storage device connected to the second arithmetic unit, and a second interface connected to the second arithmetic unit.
The image recognition method is
A step in which the recognition server receives the initial image data to which the tracking target is specified and divides the initial image data into a plurality of blocks having a size smaller than the tracking target.
A step in which the recognition server calculates the feature amount of each block included in the initial image data, and
A step of generating initial learning data by applying a teacher signal indicating whether or not the recognition server is a block including a part of the tracking target to the feature amount of each block included in the initial image data. When,
A step in which the recognition server transmits the initial learning data to the learning server,
When the learning server performs learning using the initial learning data , each block included in the received image data is either a block containing a part of the tracking target or a block not including the tracking target. Steps to generate a classifier to classify into
A step in which the learning server transmits the classifier to the recognition server,
A step in which the recognition server executes the recognition process for the received image data using the classifier.
An image recognition method comprising the step of outputting the result of the recognition process by the recognition server.
前記第1記憶装置は、前記画像データの前記追跡対象を含む領域を示す追跡対象領域の設定情報を格納し、
前記画像認識方法は、
前記認識サーバが、前記識別器を受信した後に、新規画像データを受信した場合、前記新規画像データを前記複数のブロックに分割するステップと、
前記認識サーバが、前記新規画像データに含まれる各ブロックの特徴量を算出するステップと、
前記認識サーバが、前記追跡対象領域の設定情報に基づいて、前記認識処理の対象となる領域である検索領域を設定するステップと、
前記認識サーバが、前記新規画像データに含まれる複数のブロックの中からターゲットブロックを選択するステップと、
前記認識サーバが、前記ターゲットブロックが前記検索領域に含まれるブロックであるか否かを判定するステップと、
前記認識サーバが、前記ターゲットブロックが前記検索領域に含まれるブロックでないと判定された場合、前記ターゲットブロックを、前記追跡対象を含まないブロックに分類するステップと、
前記認識サーバが、前記ターゲットブロックが前記検索領域に含まれるブロックであると判定された場合、前記識別器に前記ターゲットブロックの特徴量を入力し、前記識別器の出力に基づいて、前記ターゲットブロックを、前記追跡対象の一部を含むブロック及び前記追跡対象を含まないブロックのいずれかに分類するステップと、
前記認識サーバが、前記追跡対象の一部を含むブロックの分布に基づいて新たな追跡対象領域を推定するステップと、
前記認識サーバが、前記新たな追跡対象領域の推定の結果に基づいて、前記追跡対象領域の設定情報を更新するステップと、を含むことを特徴とする画像認識方法。 The image recognition method according to claim 4.
The first storage device stores setting information of a tracking target area indicating an area including the tracking target of the image data.
The image recognition method is
When the recognition server receives the new image data after receiving the classifier, the step of dividing the new image data into the plurality of blocks and the step of dividing the new image data into the plurality of blocks.
A step in which the recognition server calculates the feature amount of each block included in the new image data, and
A step in which the recognition server sets a search area, which is an area to be recognized, based on the setting information of the tracking target area.
A step in which the recognition server selects a target block from a plurality of blocks included in the new image data.
A step in which the recognition server determines whether or not the target block is a block included in the search area.
When the recognition server determines that the target block is not a block included in the search area, the step of classifying the target block into a block not including the tracking target, and
When the recognition server determines that the target block is a block included in the search area, the feature amount of the target block is input to the classifier, and the target block is based on the output of the classifier. Is classified into either a block containing a part of the tracking target or a block not including the tracking target.
A step in which the recognition server estimates a new tracking target area based on the distribution of blocks containing a part of the tracking target.
An image recognition method comprising the step of updating the setting information of the tracking target area based on the estimation result of the new tracking target area.
前記認識サーバが、前記新規画像データに含まれる複数のブロックの特徴量に、前記分類の結果に対応する前記教師信号を付与することによって追加学習用データを生成するステップと、
前記認識サーバが、前記追加学習用データを前記学習サーバに送信するステップと、
前記学習サーバが、前記追加学習用データを受信した場合、前記追加学習用データを用いた学習を行うことによって前記識別器を更新するステップと、
前記学習サーバが、更新された前記識別器を前記認識サーバに送信するステップと、
前記認識サーバが、更新された前記識別器を用いて、受信した前記画像データに対する前記認識処理を実行するステップと、
前記認識サーバが、前記認識処理の結果を出力するステップと、を含むことを特徴とする画像認識方法。 The image recognition method according to claim 5.
A step in which the recognition server generates additional learning data by adding the teacher signal corresponding to the result of the classification to the feature quantities of the plurality of blocks included in the new image data.
A step in which the recognition server transmits the additional learning data to the learning server,
When the learning server receives the additional learning data, the step of updating the classifier by performing learning using the additional learning data, and
A step in which the learning server sends the updated classifier to the recognition server,
A step in which the recognition server executes the recognition process for the received image data by using the updated classifier.
An image recognition method comprising the step of outputting the result of the recognition process by the recognition server.
演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを有し、
前記演算装置は、
前記追跡対象を指定する情報として、前記追跡対象を含む領域である追跡対象領域が設定された初期画像データを受け付け、前記追跡対象領域の設定情報を前記記憶装置に格納し、
前記追跡対象より小さいサイズの複数のブロックに前記初期画像データを分割し、
前記初期画像データに含まれる各ブロックの特徴量を算出し、
前記追跡対象の一部を含むブロックであるか否かを示す教師信号を、前記初期画像データに含まれる各ブロックの特徴量に付与することによって初期学習用データを生成し、
前記初期学習用データを、前記認識処理に使用する識別器の学習を行う学習部に出力し、
前記学習部によって生成された、前記画像データに含まれる各ブロックを前記追跡対象の一部を含むブロック及び前記追跡対象を含まないブロックのいずれかに分類する識別器を受信した後に、新規画像データを受信した場合、前記新規画像データを前記複数のブロックに分割し、
前記新規画像データに含まれる各ブロックの特徴量を算出し、
前記追跡対象領域の設定情報に基づいて、前記認識処理の対象となる領域である検索領域を設定し、
前記新規画像データに含まれる複数のブロックの中からターゲットブロックを選択し、
前記ターゲットブロックが前記検索領域に含まれるブロックであるか否かを判定し、
前記ターゲットブロックが前記検索領域に含まれるブロックでないと判定された場合、前記ターゲットブロックを、前記追跡対象を含まないブロックに分類し、
前記ターゲットブロックが前記検索領域に含まれるブロックであると判定された場合、前記識別器に前記ターゲットブロックの特徴量を入力し、
前記識別器の出力に基づいて、前記ターゲットブロックを、前記追跡対象の一部を含むブロック及び前記追跡対象を含まないブロックのいずれかに分類し、
前記追跡対象を含むブロックの分布に基づいて新たな追跡対象領域を推定し、
前記新たな追跡対象領域の推定の結果に基づいて、前記追跡対象領域の設定情報を更新し、
前記分類の結果を含む前記認識処理の結果を出力することを特徴とする計算機。 It is a computer that executes a recognition process that recognizes the tracking target included in the image data.
It has an arithmetic unit, a storage device connected to the arithmetic unit, and an interface connected to the arithmetic unit.
The arithmetic unit is
As the information for designating the tracking target, the initial image data in which the tracking target area including the tracking target is set is received, and the setting information of the tracking target area is stored in the storage device.
The initial image data is divided into a plurality of blocks having a size smaller than the tracking target, and the initial image data is divided into a plurality of blocks.
The feature amount of each block included in the initial image data is calculated, and the feature amount is calculated.
Initial learning data is generated by applying a teacher signal indicating whether or not the block includes a part of the tracking target to the feature amount of each block included in the initial image data.
The initial learning data is output to a learning unit that learns the classifier used for the recognition process.
New image data after receiving a classifier that classifies each block included in the image data generated by the learning unit into either a block containing a part of the tracking target or a block not including the tracking target. Is received, the new image data is divided into the plurality of blocks, and the new image data is divided into the plurality of blocks.
The feature amount of each block included in the new image data is calculated, and the feature amount is calculated.
Based on the setting information of the tracking target area, the search area, which is the target area of the recognition process, is set.
Select the target block from the plurality of blocks included in the new image data, and select the target block.
It is determined whether or not the target block is a block included in the search area, and it is determined.
When it is determined that the target block is not a block included in the search area, the target block is classified into a block not including the tracking target.
When it is determined that the target block is a block included in the search area, the feature amount of the target block is input to the classifier.
Based on the output of the classifier, the target block is classified into either a block containing a part of the tracking target or a block not including the tracking target.
A new track target area is estimated based on the distribution of blocks containing the track target, and a new track target area is estimated.
Based on the result of the estimation of the new tracking target area, the setting information of the tracking target area is updated.
A computer characterized by outputting the result of the recognition process including the result of the classification.
前記演算装置は、
前記新規画像データに含まれる前記複数のブロックの特徴量に、前記分類の結果に対応する前記教師信号を付与することによって追加学習用データを生成し、
前記追加学習用データを前記学習部に出力し、
前記学習部によって更新された前記識別器を用いて、受信した前記画像データに対する前記認識処理を実行することを特徴とする計算機。 The computer according to claim 7.
The arithmetic unit is
Additional learning data is generated by adding the teacher signal corresponding to the result of the classification to the feature quantities of the plurality of blocks included in the new image data.
The additional learning data is output to the learning unit, and the data is output to the learning unit.
A computer characterized in that the recognition process for the received image data is executed by using the classifier updated by the learning unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003548A JP6989873B2 (en) | 2018-01-12 | 2018-01-12 | System, image recognition method, and computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003548A JP6989873B2 (en) | 2018-01-12 | 2018-01-12 | System, image recognition method, and computer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019125031A JP2019125031A (en) | 2019-07-25 |
JP6989873B2 true JP6989873B2 (en) | 2022-01-12 |
Family
ID=67398770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018003548A Active JP6989873B2 (en) | 2018-01-12 | 2018-01-12 | System, image recognition method, and computer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6989873B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7463686B2 (en) * | 2019-10-24 | 2024-04-09 | 株式会社Jvcケンウッド | IMAGE RECORDING APPARATUS, IMAGE RECORDING METHOD, AND IMAGE RECORDING PROGRAM |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145791A (en) | 2010-01-13 | 2011-07-28 | Hitachi Ltd | Classifier learning image production program, method and system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5180922B2 (en) * | 2009-07-09 | 2013-04-10 | 株式会社日立製作所 | Image search system and image search method |
JP2013037549A (en) * | 2011-08-08 | 2013-02-21 | Sumitomo Electric Ind Ltd | Moving object detector, computer program, and moving object detection method |
-
2018
- 2018-01-12 JP JP2018003548A patent/JP6989873B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145791A (en) | 2010-01-13 | 2011-07-28 | Hitachi Ltd | Classifier learning image production program, method and system |
Non-Patent Citations (2)
Title |
---|
田口弘貴, 外1名,"弱識別器の適応的学習によるオンライン物体追跡",研究報告コンピュータビジョンとイメージメディア(CVIM),日本,情報処理学会,2013年05月23日,第2013-CVIM-187巻, 第27号,p.1-4 |
長森藤江,""あなただけの人工知能をつくる" Deep Learning画像認識システム",画像ラボ,日本,日本工業出版株式会社,2016年12月10日,第27巻, 第12号,p.31-35 |
Also Published As
Publication number | Publication date |
---|---|
JP2019125031A (en) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10936911B2 (en) | Logo detection | |
JP6843086B2 (en) | Image processing systems, methods for performing multi-label semantic edge detection in images, and non-temporary computer-readable storage media | |
US10452899B2 (en) | Unsupervised deep representation learning for fine-grained body part recognition | |
CN109478239B (en) | Method for detecting object in image and object detection system | |
US9852358B2 (en) | Information processing device, information processing method, and information processing system | |
JP7172472B2 (en) | RULE GENERATION DEVICE, RULE GENERATION METHOD AND RULE GENERATION PROGRAM | |
JP2017033529A (en) | Image recognition method, image recognition device and program | |
CN110582783B (en) | Training device, image recognition device, training method, and computer-readable information storage medium | |
US20220044147A1 (en) | Teaching data extending device, teaching data extending method, and program | |
CN113012054A (en) | Sample enhancement method and training method based on sectional drawing, system and electronic equipment thereof | |
CN112906794A (en) | Target detection method, device, storage medium and terminal | |
CN112102929A (en) | Medical image labeling method and device, storage medium and electronic equipment | |
US20230237777A1 (en) | Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium | |
CN112541394A (en) | Black eye and rhinitis identification method, system and computer medium | |
JP2019180749A (en) | Image processing program, image processing apparatus, and image processing method | |
CN114762004A (en) | Data generation method, data generation device, model generation method, model generation device, and program | |
JP6623851B2 (en) | Learning method, information processing device and learning program | |
JP6989873B2 (en) | System, image recognition method, and computer | |
JP6785181B2 (en) | Object recognition device, object recognition system, and object recognition method | |
US20180005089A1 (en) | Information processing apparatus, method and computer program product | |
CN111652080A (en) | Target tracking method and device based on RGB-D image | |
US11373313B2 (en) | Image processing apparatus and image processing method | |
US12051135B2 (en) | System and method for a precise semantic segmentation | |
CN111860261B (en) | Passenger flow value statistical method, device, equipment and medium | |
JP6855175B2 (en) | Image processing equipment, image processing methods and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6989873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |