JP7301467B2 - Image Interpretation Support System and Image Interpretation Support Program - Google Patents
Image Interpretation Support System and Image Interpretation Support Program Download PDFInfo
- Publication number
- JP7301467B2 JP7301467B2 JP2019076504A JP2019076504A JP7301467B2 JP 7301467 B2 JP7301467 B2 JP 7301467B2 JP 2019076504 A JP2019076504 A JP 2019076504A JP 2019076504 A JP2019076504 A JP 2019076504A JP 7301467 B2 JP7301467 B2 JP 7301467B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- estimated
- type
- article
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像に映っている物品の種類を判別する技術に関するものである。 TECHNICAL FIELD The present invention relates to a technique for discriminating the type of article appearing in an image.
リモートセンシング画像等の判読において、業務を省力化したり個人の技量差を解消したりする目的で、たとえば特許文献1に開示されているようなシステムが用いられる。
このシステムは、入力された画像中の対象物の位置および種類を出力する。
ここで、対象物とは、ユーザが、位置を特定したり型名を識別したりしたい物品である。
2. Description of the Related Art In interpreting remote sensing images, for example, a system as disclosed in Japanese Unexamined Patent Application Publication No. 2002-100002 is used for the purpose of saving labor and eliminating differences in individual skills.
This system outputs the location and type of objects in the input image.
Here, the object is an article whose position or model name the user wants to identify.
このようなシステムを実現する手段として、非特許文献1に挙げるようなニューラルネットワークが有効である。
ニューラルネットワークは、教師あり学習によって出力の正確さを向上できる。但し、十分な数量の学習データを確保する必要がある。
十分な数量の学習データを現実の計測によって確保できない場合、非特許文献2に開示された手法によって学習データを補てんすることができる。この手法は、シミュレーションによって模擬画像を生成して学習データを補填する。
As means for realizing such a system, a neural network as described in Non-Patent Document 1 is effective.
Neural networks can improve the accuracy of their output through supervised learning. However, it is necessary to secure a sufficient amount of learning data.
If a sufficient amount of learning data cannot be secured by actual measurement, the method disclosed in Non-Patent Document 2 can compensate for the learning data. This method generates a simulated image by simulation and supplements the learning data.
ニューラルネットワークの出力の誤りを訂正したりニューラルネットワークの出力の正しさを保証したりする目的で、ユーザはニューラルネットワークの出力の妥当性を確認する作業を実施する。
妥当性の確認において、ユーザは、ニューラルネットから出力された識別結果に基づき、対象物のイメージの想起を実施する。識別結果は、画像中の対象物の種類を示す。
対象物の見え方は、観測する方向によって異なる。そのため、イメージの想起は、観測する方向を脳内で変化させながら反復して実施する必要がある。この反復が原因となって、妥当性の確認の認知負荷が高くなっている。
このように、妥当性を確認する作業の負荷が高いため、妥当性を確認する作業を高精度に多数回実施することが難しい。
For the purpose of correcting errors in the output of the neural network or guaranteeing the correctness of the output of the neural network, the user carries out work to confirm the validity of the output of the neural network.
In validation, the user recalls the image of the object based on the identification results output from the neural network. The identification result indicates the type of object in the image.
The appearance of an object differs depending on the observation direction. Therefore, it is necessary to recollect images repeatedly while changing the direction of observation in the brain. This repetition contributes to the high cognitive load of validation.
In this way, since the work load for checking the validity is high, it is difficult to perform the work for checking the validity many times with high accuracy.
本発明は、画像の判読において、ニューラルネットワークの出力の妥当性を確認する作業の負荷を軽減することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to reduce the work load of confirming the validity of the output of a neural network in image interpretation.
本発明の画像判読支援システムは、
実画像に映っている対象物の種類と前記対象物に対する撮像の方向とをニューラルネットワークを利用して推定する推定部と、
推定された種類と推定された方向とに基づいて撮像シミュレーションを行うことによって、前記対象物と同じ種類の物品を前記推定された方向と同じ方向から撮像することによって得られる推定画像を生成する推定画像生成部と、
前記実画像と前記推定画像とをディスプレイに表示する表示部とを備える。
The image interpretation support system of the present invention is
an estimating unit that uses a neural network to estimate the type of an object appearing in an actual image and the imaging direction of the object;
Estimation for generating an estimated image obtained by imaging an article of the same type as the target from the same direction as the estimated direction by performing an imaging simulation based on the estimated type and the estimated direction an image generator;
a display unit for displaying the actual image and the estimated image on a display.
本発明によれば、ニューラルネットワークの出力(推定された種類、推定された方向)に基づく推定画像が表示される。これにより、画像の判読において、ニューラルネットワークの出力の妥当性を確認する作業の負荷が軽減される。 According to the present invention, an estimated image based on the output of the neural network (estimated type, estimated direction) is displayed. This reduces the work load of confirming the validity of the output of the neural network in image interpretation.
実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。 The same or corresponding elements are denoted by the same reference numerals in the embodiments and drawings. Descriptions of elements having the same reference numerals as those described will be omitted or simplified as appropriate. Arrows in the figure mainly indicate the flow of data or the flow of processing.
実施の形態1.
画像判読支援システム100について、図1から図6に基づいて説明する。
Embodiment 1.
The image interpretation support system 100 will be described with reference to FIGS. 1 to 6. FIG.
***構成の説明***
図1に基づいて、画像判読支援システム100の構成を説明する。
画像判読支援システム100は、ニューラルネットワークを利用して画像を判読するシステムであり、判読結果の妥当性を確認する業務においてユーザの負荷を軽減する。
*** Configuration description ***
The configuration of the image interpretation support system 100 will be described based on FIG.
The image interpretation support system 100 is a system that uses a neural network to interpret images, and reduces the user's load in the task of confirming the validity of interpretation results.
画像判読支援システム100は、ディスプレイ101と画像判読支援装置200とを備える。
画像判読支援装置200は、判読結果の妥当性の確認を支援するための画面をディスプレイ101に表示する。表示される画面については後述する。
The image interpretation support system 100 includes a display 101 and an image
The image
図2に基づいて、画像判読支援装置200の構成を説明する。
画像判読支援装置200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204と入出力インタフェース205といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
The configuration of the image
The image
プロセッサ201は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ201は、CPU、DSPまたはGPUである。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
DSPは、Digital Signal Processorの略称である。
GPUは、Graphics Processing Unitの略称である。
A
IC is an abbreviation for Integrated Circuit.
CPU is an abbreviation for Central Processing Unit.
DSP is an abbreviation for Digital Signal Processor.
GPU is an abbreviation for Graphics Processing Unit.
メモリ202は揮発性の記憶装置である。メモリ202は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ202はRAMである。メモリ202に記憶されたデータは必要に応じて補助記憶装置203に保存される。
RAMは、Random Access Memoryの略称である。
RAM is an abbreviation for Random Access Memory.
補助記憶装置203は不揮発性の記憶装置である。例えば、補助記憶装置203は、ROM、HDDまたはフラッシュメモリである。補助記憶装置203に記憶されたデータは必要に応じてメモリ202にロードされる。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
ROM is an abbreviation for Read Only Memory.
HDD is an abbreviation for Hard Disk Drive.
通信装置204はレシーバ及びトランスミッタである。例えば、通信装置204は通信チップまたはNICである。
NICは、Network Interface Cardの略称である。
NIC is an abbreviation for Network Interface Card.
入出力インタフェース205は、入力装置および出力装置が接続されるポートである。例えば、入出力インタフェース205はUSB端子であり、入力装置はキーボードおよびマウスであり、出力装置はディスプレイ101である。
USBは、Universal Serial Busの略称である。
The input/
USB is an abbreviation for Universal Serial Bus.
画像判読支援装置200は、学習部210と推定部220と支援部230といった要素を備える。これらの要素はソフトウェアで実現される。
学習部210は、模擬画像生成部211とパラメータ調整部212とを備える。
支援部230は、推定画像生成部231と表示部232とを備える。
The image
The
The
補助記憶装置203には、学習部210と推定部220と支援部230としてコンピュータを機能させるための画像判読支援プログラムが記憶されている。画像判読支援装プログラムは、メモリ202にロードされて、プロセッサ201によって実行される。
補助記憶装置203には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
プロセッサ201は、OSを実行しながら、画像判読支援プログラムを実行する。
OSは、Operating Systemの略称である。
The
The
The
OS is an abbreviation for Operating System.
画像判読支援プログラムの入出力データは記憶部290に記憶される。例えば、記憶部290には、実画像291および三次元モデルファイル292などが記憶される。
メモリ202は記憶部290として機能する。但し、補助記憶装置203、プロセッサ201内のレジスタおよびプロセッサ201内のキャッシュメモリなどの記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部290として機能してもよい。
The input/output data of the image interpretation support program are stored in the
画像判読支援装置200は、プロセッサ201を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、プロセッサ201の役割を分担する。
The image
画像判読支援プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。 The image reading support program can be recorded (stored) in a non-volatile recording medium such as an optical disc or flash memory in a computer-readable manner.
***動作の説明***
画像判読支援装置200の動作は画像判読支援方法に相当する。また、画像判読支援方法の手順は画像判読支援プログラムの手順に相当する。
***Description of operation***
The operation of the image
図3に基づいて、画像判読支援方法の概要を説明する。
ステップS110において、学習部210は、ニューラルネットワーク120の内部パラメータ121を教師あり学習によって調整する。ニューラルネットワーク120は、画像を入力として判読を支援するための情報を推定するために利用されるニューラルネットワークである。内部パラメータは、ニューラルネットワークの入力に対する推定結果を左右する数値パラメータである。具体的には、内部パラメータは、ニューラルネットワークを構成するユニットのバイアス、及び、ニューラルネットワークを構成するコネクションの重みである。
ステップS120において、推定部220は、実画像291に映っている対象物の種類と対象物に対する撮像の方向とをニューラルネットワーク120を利用して推定する。対象物は、実画像291に映っている物品である。
ステップS130において、支援部230は、実画像291と推定結果に基づく推定画像132とをディスプレイ101に表示する。
Based on FIG. 3, the outline of the image interpretation support method will be described.
In step S110, the
In step S120, the
In step S<b>130 , the
図4に基づいて、学習処理(S110)の詳細を説明する。
ステップS111において、模擬画像生成部211は、物品の種類を決定し、種類情報111を生成する。
種類情報111は、決定された種類を示す情報である。物品の種類は識別子によって識別される。
具体的には、模擬画像生成部211は、物品の種類をランダムに決定する。
Based on FIG. 4, the details of the learning process (S110) will be described.
In step S<b>111 , the simulated
The
Specifically, the
ステップS112において、模擬画像生成部211は、物品に対する撮像の方向を決定し、方向情報112を生成する。
物品に対する撮像の方向は、物品を観測する方向に相当する。
方向情報112は、決定された方向を示す情報である。撮像の方向は識別子によって識別される。
具体的には、模擬画像生成部211は、撮像の方向をランダムに決定する。
In step S<b>112 , the simulated
The imaging direction with respect to the article corresponds to the observation direction of the article.
Specifically, the
ステップS113において、模擬画像生成部211は、三次元モデルファイル292を検索することによって、三次元モデル113を三次元モデルファイル292から取得する。
三次元モデルファイル292は、物品の種類と物品の三次元モデルとが互いに対応付けられたファイルであり、記憶部290に予め記憶される。三次元モデルファイル292には、複数の種類情報と複数の三次元モデルとが互いに対応付けられている。三次元モデルは、物品の三次元形状を表すデータである。具体的には、三次元モデルは、物品の表面を複数の多角形の組合せで表現した際の頂点の番号、X座標、Y座標及びZ座標、並びに、多角形を構成する頂点の番号の組合せから成るデータである。
三次元モデル113は、種類情報111に示される種類と同じ種類に対応付けられた三次元モデルである。
In step S<b>113 , the simulated
The
The
ステップS114において、模擬画像生成部211は、三次元モデル113と方向情報112に示される方向とに基づいて、撮像シミュレーションを行う。これにより、模擬画像114が生成される。
模擬画像114は、種類情報111に示される種類と同じ種類の物品を方向情報112に示される方向と同じ方向から撮像することによって得られる画像に相当する。
撮像シミュレーションは、撮像をシミュレートすることによって画像を生成する処理である。具体的には、撮像シミュレーションは、光線追跡法等の手法で、物品の表面で反射する電磁波に対して撮像素子における計測値を求める。
In step S<b>114 , the
The
Imaging simulation is the process of generating an image by simulating imaging. Specifically, in the imaging simulation, a method such as a ray tracing method is used to obtain a measurement value of the electromagnetic waves reflected on the surface of the article in the imaging device.
ステップS115において、パラメータ調整部212は、ニューラルネットワーク120の内部パラメータ121に対する教師あり学習を行う。
教師あり学習において、パラメータ調整部212は、模擬画像114を入力データとして使用すると共に種類情報111に示される種類と方向情報112に示される方向とを教師データとして使用する。
これにより、ニューラルネットワーク120の内部パラメータ121が調整される。
In step S<b>115 , the
In supervised learning, the
This adjusts the
具体的には、パラメータ調整部212は、ニューラルネットワーク120によって推定される種類が種類情報111に示される種類と一致し、且つ、ニューラルネットワーク120によって推定される方向が方向情報112に示される方向と一致するように、内部パラメータ121を調整する。
Specifically, the
図5に基づいて、推定処理(S120)の詳細を説明する。
ニューラルネットワーク120には、調整後の内部パラメータ121が設定されている。
Based on FIG. 5, the details of the estimation process (S120) will be described.
ステップS121において、推定部220は、実画像291に映っている対象物の種類と対象物に対する撮像の方向とをニューラルネットワーク120を利用して推定する。これにより、種類推定結果123と方向推定結果124とが得られる。
実画像291は、対象物を撮像することによって得られた画像であり、記憶部290に予め記憶される。または、実画像291は、ユーザによって画像判読支援装置200に入力される。
対象物に対する撮像の方向は、対象物を観測する方向に相当する。
種類推定結果123は、推定された種類を示す情報である。
方向推定結果124は、推定された方向を示す情報である。
In step S<b>121 , the
A
The imaging direction with respect to the object corresponds to the direction in which the object is observed.
The
The
図6に基づいて、支援処理(S130)の詳細を説明する。
ステップS131において、推定画像生成部231は、三次元モデルファイル292を検索することによって、三次元モデル131を三次元モデルファイル292から取得する。
三次元モデル131は、種類推定結果123に示される種類と同じ種類に対応付けられた三次元モデルである。
Based on FIG. 6, the details of the support process (S130) will be described.
In step S<b>131 , the estimated
The
ステップS132において、推定画像生成部231は、三次元モデル131と方向推定結果124に示される方向とに基づいて、撮像シミュレーションを行う。これにより、推定画像132が生成される。
撮像シミュレーションは、ステップS114で行われる処理と同じである。
推定画像132は、種類推定結果123に示される種類と同じ種類の物品を方向推定結果124に示される方向と同じ方向から撮像することによって得られる画像に相当する。
In step S<b>132 , the estimated
The imaging simulation is the same as the processing performed in step S114.
The estimated
推定画像132は、ニューラルネットワーク120の出力(種類推定結果123、方向推定結果124)に基づいて生成される。そのため、推定画像132はニューラルネットワーク120の出力を画像の形式で表現したものである、と言える。
The estimated
ステップS133において、表示部232は、実画像291と推定画像132とをディスプレイ101に表示する。
具体的には、表示部232は、確認画面をディスプレイ101に表示する。確認画面は、実画像291と推定画像132とが並べて表示される画面である。
In step S<b>133 , the
Specifically,
***実施の形態1の効果***
画像判読支援装置200は、ニューラルネットワーク120の出力を画像化して推定画像132を生成し、実画像291と推定画像132とを並べてディスプレイ101に表示することができる。
そして、利用者は、実画像291と推定画像132を照合することによって、ニューラルネットワーク120の出力の妥当性を確認することができる。つまり、利用者は、対象物を観測する方向を変化させながら対象物のイメージを想起することなく、ニューラルネットワーク120の出力の妥当性を確認することができる。
*** Effect of Embodiment 1 ***
The image
The user can confirm the validity of the output of the
***実施の形態1の補足***
実施の形態は、好ましい形態の例示であり、本発明の技術的範囲を制限することを意図するものではない。実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。
*** Supplement to Embodiment 1 ***
The embodiments are examples of preferred modes and are not intended to limit the technical scope of the present invention. Embodiments may be implemented partially or in combination with other embodiments. The procedures described using flowcharts and the like may be changed as appropriate.
画像判読支援装置200は、複数の装置で実現されてもよい。例えば、三次元モデルファイル292が、外部のサーバ装置に記憶されていてもよい。この場合、画像判読支援装置200は、外部のサーバ装置と通信することによって、三次元モデルファイル292にアクセスする。
画像判読支援装置200の各要素は、ソフトウェア、ハードウェア、ファームウェアまたはこれらの組み合わせのいずれで実現されてもよい。
画像判読支援装置200の要素である「部」は、「処理」または「工程」と読み替えてもよい。
Image
Each element of the image
The “unit”, which is an element of the image
100 画像判読支援システム、101 ディスプレイ、111 種類情報、112 方向情報、113 三次元モデル、114 模擬画像、120 ニューラルネットワーク、121 内部パラメータ、123 種類推定結果、124 方向推定結果、131 三次元モデル、132 推定画像、200 画像判読支援装置、201 プロセッサ、202 メモリ、203 補助記憶装置、204 通信装置、205 入出力インタフェース、210 学習部、211 模擬画像生成部、212 パラメータ調整部、220 推定部、230 支援部、231 推定画像生成部、232 表示部、290 記憶部、291 実画像、292 三次元モデルファイル。
100 image interpretation support system, 101 display, 111 type information, 112 direction information, 113 three-dimensional model, 114 simulated image, 120 neural network, 121 internal parameter, 123 type estimation result, 124 direction estimation result, 131 three-dimensional model, 132
Claims (4)
実画像に映っている物品を対象物として、当該対象物の種類と当該対象物を観測する撮像方向とを、前記内部パラメータが調整された後のニューラルネットワークを利用して推定する推定部と、
物品の種類と物品の三次元形状を表す三次元モデルとが互いに対応付けられた三次元モデルファイルから、前記推定部により推定した前記実画像に映っている対象物の種類と同じ種類に対応付けられた三次元モデルを取得し、取得された三次元モデルと前記推定部により推定した前記対象物を観測する撮像方向とに基づいて撮像シミュレーションを行うことによって、前記推定部により推定した前記実画像に映っている対象物の種類と同じ種類の物品を前記推定部により推定した前記対象物を観測する撮像方向と同じ方向から撮像することによって得られる推定画像を生成する推定画像生成部と、
前記実画像と前記推定画像の照合によって前記推定部により推定した前記対象物の種類と前記対象物を観測する撮像方向の妥当性を確認する利用者に対して、前記実画像と前記推定画像とをディスプレイに表示する表示部と、
を備える画像判読支援システム。 a learning unit that adjusts internal parameters of the neural network by supervised learning;
an estimating unit for estimating the type of the object and the imaging direction for observing the object by using the neural network after the internal parameters have been adjusted;
From the three-dimensional model file in which the type of the article and the three-dimensional model representing the three-dimensional shape of the article are associated with each other, the same type as the type of the object shown in the actual image estimated by the estimation unit is associated. the real image estimated by the estimation unit by performing an imaging simulation based on the acquired three-dimensional model and the imaging direction in which the object is observed estimated by the estimation unit; an estimated image generation unit that generates an estimated image obtained by imaging an article of the same type as the type of the object shown in the image from the same direction as the imaging direction in which the object estimated by the estimation unit is observed;
The actual image and the estimated image are presented to a user who confirms the validity of the type of the object estimated by the estimation unit by matching the actual image and the estimated image and the imaging direction in which the object is observed. a display unit for displaying on the display;
An image interpretation support system.
実画像に映っている物品を対象物として、当該対象物の種類と当該対象物を観測する撮像方向とを、前記内部パラメータが調整された後のニューラルネットワークを利用して推定する推定部と、
物品の種類と物品の三次元形状を表す三次元モデルとが互いに対応付けられた三次元モデルファイルから、前記推定部により推定した前記実画像に映っている対象物の種類と同じ種類に対応付けられた三次元モデルを取得し、取得された三次元モデルと前記推定部により推定した前記対象物を観測する撮像方向とに基づいて撮像シミュレーションを行うことによって、前記推定部により推定した前記実画像に映っている対象物の種類と同じ種類の物品を前記推定部により推定した前記対象物を観測する撮像方向と同じ方向から撮像することによって得られる推定画像を生成する推定画像生成部と、
前記実画像と前記推定画像の照合によって前記推定部により推定した前記対象物の種類と前記対象物を観測する撮像方向の妥当性を確認する利用者に対して、前記実画像と前記推定画像とを、実画像の判読結果の妥当性の確認を支援するためのディスプレイに表示する表示部と、
を備え、
前記学習部は、
物品の種類と当該物品を観測する撮像方向とを決定し、
決定した種類と同じ種類に対応付けられた物品の三次元モデルを前記三次元モデルファイルから取得し、取得された三次元モデルと決定した撮像方向とに基づいて前記撮像シミュレーションを行うことによって、前記決定した種類と同じ種類の物品を前記決定した撮像方向と同じ方向から撮像することによって得られる模擬画像を生成し、
前記模擬画像を入力データとして使用すると共に前記決定した種類と前記決定した撮像方向とを教師データとして使用することによって前記教師あり学習を行う
画像判読支援システム。 a learning unit that adjusts internal parameters of the neural network by supervised learning;
an estimating unit for estimating the type of the object and the imaging direction for observing the object by using the neural network after the internal parameters have been adjusted;
From the three-dimensional model file in which the type of the article and the three-dimensional model representing the three-dimensional shape of the article are associated with each other, the same type as the type of the object shown in the actual image estimated by the estimation unit is associated. the real image estimated by the estimation unit by performing an imaging simulation based on the acquired three-dimensional model and the imaging direction in which the object is observed estimated by the estimation unit; an estimated image generation unit that generates an estimated image obtained by imaging an article of the same type as the type of the object shown in the image from the same direction as the imaging direction in which the object estimated by the estimation unit is observed;
The actual image and the estimated image are presented to a user who confirms the validity of the type of the object estimated by the estimation unit by matching the actual image and the estimated image and the imaging direction in which the object is observed. A display unit that displays on a display for supporting confirmation of the validity of the interpretation result of the actual image,
with
The learning unit
Determine the type of article and the imaging direction for observing the article,
Obtaining from the three-dimensional model file a three-dimensional model of an article associated with the same type as the determined type, and performing the imaging simulation based on the obtained three-dimensional model and the determined imaging direction, generating a simulated image obtained by imaging an article of the same type as the determined type from the same direction as the determined imaging direction;
An image interpretation support system that performs the supervised learning by using the simulated image as input data and using the determined type and the determined imaging direction as teacher data.
実画像に映っている物品である対象物の種類と前記対象物を観測する撮像方向とを、前記内部パラメータが調整された後のニューラルネットワークを利用して推定する推定部と、
物品の種類と物品の形状を表す三次元モデルとが互いに対応付けられた三次元モデルファイルから、前記推定部により推定した前記実画像に映っている対象物の種類と同じ種類に対応付けられた三次元モデルを取得し、取得された三次元モデルと前記推定部により推定した前記対象物を観測する撮像方向とに基づいて撮像シミュレーションを行うことによって、前記推定部により推定した前記実画像に映っている対象物の種類と同じ種類の物品を前記推定部により推定した前記対象物を観測する撮像方向と同じ方向から撮像することによって得られる推定画像を生成する推定画像生成部と、
前記実画像と前記推定画像の照合によって前記推定部により推定した前記対象物の種類と前記対象物を観測する撮像方向の妥当性を確認する利用者に対して、前記実画像と前記推定画像とをディスプレイに表示する表示部として、
コンピュータを機能させるための画像判読支援プログラム。 a learning unit that adjusts internal parameters of the neural network by supervised learning;
an estimating unit for estimating the type of an object, which is an article in an actual image, and the imaging direction in which the object is observed, using a neural network after the internal parameters have been adjusted;
The 3D model file in which the type of the article and the 3D model representing the shape of the article are associated with each other is associated with the same type as the type of the object appearing in the actual image estimated by the estimating unit. A three-dimensional model is obtained, and an imaging simulation is performed based on the obtained three-dimensional model and the imaging direction in which the object is observed , which is estimated by the estimation unit. an estimated image generation unit configured to generate an estimated image obtained by capturing an article of the same type as the type of the object being observed from the same direction as the imaging direction in which the object estimated by the estimation unit is observed;
The actual image and the estimated image are presented to a user who confirms the validity of the type of the object estimated by the estimation unit by matching the actual image and the estimated image and the imaging direction in which the object is observed. As a display unit that displays on the display,
An image interpretation support program that makes computers work.
実画像に映っている物品である対象物の種類と前記対象物を観測する撮像方向とを、前記内部パラメータが調整された後のニューラルネットワークを利用して推定する推定部と、
物品の種類と物品の三次元形状を表す三次元モデルとが互いに対応付けられた三次元モデルファイルから、前記推定部により推定した前記実画像に映っている対象物の種類と同じ種類に対応付けられた三次元モデルを取得し、取得された三次元モデルと前記推定部により推定した前記対象物を観測する撮像方向とに基づいて撮像シミュレーションを行うことによって、前記推定部により推定した前記実画像に映っている対象物の種類と同じ種類の物品を前記推定部により推定した前記対象物を観測する撮像方向と同じ方向から撮像することによって得られる推定画像を生成する推定画像生成部と、
前記実画像と前記推定画像の照合によって前記推定部により推定した前記対象物の種類と前記対象物を観測する撮像方向の妥当性を確認する利用者に対して、前記実画像と前記推定画像とを、実画像の判読結果の妥当性の確認を支援するためのディスプレイに表示する表示部として、
コンピュータを機能させるための画像判読支援プログラムであって、
前記学習部は、
物品の種類と当該物品を観測する撮像方向とを決定し、
決定した種類と同じ種類に対応付けられた三次元モデルを前記三次元モデルファイルから取得し、取得された三次元モデルと決定した撮像方向とに基づいて前記撮像シミュレーションを行うことによって、前記決定した種類と同じ種類の物品を前記決定した撮像方向と同じ方向から撮像することによって得られる模擬画像を生成し、
前記模擬画像を入力データとして使用すると共に前記決定した種類と前記決定した撮像方向とを教師データとして使用することによって前記教師あり学習を行う
画像判読支援プログラム。 a learning unit that adjusts internal parameters of the neural network by supervised learning;
an estimating unit for estimating the type of an object, which is an article in an actual image, and the imaging direction in which the object is observed, using a neural network after the internal parameters have been adjusted;
From the three-dimensional model file in which the type of the article and the three-dimensional model representing the three-dimensional shape of the article are associated with each other, the same type as the type of the object shown in the actual image estimated by the estimation unit is associated. the real image estimated by the estimation unit by performing an imaging simulation based on the acquired three-dimensional model and the imaging direction in which the object is observed estimated by the estimation unit; an estimated image generation unit that generates an estimated image obtained by imaging an article of the same type as the type of the object shown in the image from the same direction as the imaging direction in which the object estimated by the estimation unit is observed;
The actual image and the estimated image are presented to a user who confirms the validity of the type of the object estimated by the estimation unit by matching the actual image and the estimated image and the imaging direction in which the object is observed. As a display unit that displays on the display to support the confirmation of the validity of the interpretation result of the actual image,
An image interpretation support program for functioning a computer,
The learning unit
Determine the type of article and the imaging direction for observing the article,
A three-dimensional model associated with the same type as the determined type is obtained from the three-dimensional model file, and the imaging simulation is performed based on the obtained three-dimensional model and the determined imaging direction. generating a simulated image obtained by imaging an article of the same type as the type from the same direction as the determined imaging direction;
An image interpretation support program that performs the supervised learning by using the simulated image as input data and using the determined type and the determined imaging direction as teacher data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019076504A JP7301467B2 (en) | 2019-04-12 | 2019-04-12 | Image Interpretation Support System and Image Interpretation Support Program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019076504A JP7301467B2 (en) | 2019-04-12 | 2019-04-12 | Image Interpretation Support System and Image Interpretation Support Program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020173720A JP2020173720A (en) | 2020-10-22 |
JP7301467B2 true JP7301467B2 (en) | 2023-07-03 |
Family
ID=72831409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019076504A Active JP7301467B2 (en) | 2019-04-12 | 2019-04-12 | Image Interpretation Support System and Image Interpretation Support Program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7301467B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007293558A (en) | 2006-04-25 | 2007-11-08 | Hitachi Ltd | Program and device for object recognition |
JP2009037466A (en) | 2007-08-02 | 2009-02-19 | Hitachi Ltd | Reference image generation and display device |
JP2019029021A (en) | 2017-07-30 | 2019-02-21 | 国立大学法人 奈良先端科学技術大学院大学 | Learning data set preparing method, as well as object recognition and position attitude estimation method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09282460A (en) * | 1996-04-18 | 1997-10-31 | Mitsubishi Electric Corp | Automatic target recognizing device |
-
2019
- 2019-04-12 JP JP2019076504A patent/JP7301467B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007293558A (en) | 2006-04-25 | 2007-11-08 | Hitachi Ltd | Program and device for object recognition |
JP2009037466A (en) | 2007-08-02 | 2009-02-19 | Hitachi Ltd | Reference image generation and display device |
JP2019029021A (en) | 2017-07-30 | 2019-02-21 | 国立大学法人 奈良先端科学技術大学院大学 | Learning data set preparing method, as well as object recognition and position attitude estimation method |
Also Published As
Publication number | Publication date |
---|---|
JP2020173720A (en) | 2020-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10163003B2 (en) | Recognizing combinations of body shape, pose, and clothing in three-dimensional input images | |
CN108875766B (en) | Image processing method, device, system and computer storage medium | |
US11069115B2 (en) | Method of controlling display of avatar and electronic device therefor | |
CN110675487A (en) | Three-dimensional face modeling and recognizing method and device based on multi-angle two-dimensional face | |
TW201327478A (en) | Face feature vector construction | |
US11941796B2 (en) | Evaluation system, evaluation device, evaluation method, evaluation program, and recording medium | |
JP6317725B2 (en) | System and method for determining clutter in acquired images | |
CN108229375B (en) | Method and device for detecting face image | |
US20230169686A1 (en) | Joint Environmental Reconstruction and Camera Calibration | |
CN111524216A (en) | Method and device for generating three-dimensional face data | |
KR20210133880A (en) | Image depth determining method and living body identification method, circuit, device, and medium | |
US20210056337A1 (en) | Recognition processing device, recognition processing method, and program | |
JP2019092007A (en) | Information processing apparatus, information processing method, and program | |
US20210358189A1 (en) | Advanced Systems and Methods for Automatically Generating an Animatable Object from Various Types of User Input | |
JP2015184061A (en) | Extracting device, method, and program | |
CN111353325A (en) | Key point detection model training method and device | |
JP7301467B2 (en) | Image Interpretation Support System and Image Interpretation Support Program | |
CN112883920A (en) | Point cloud deep learning-based three-dimensional face scanning feature point detection method and device | |
JP6786015B1 (en) | Motion analysis system and motion analysis program | |
CN113167568B (en) | Coordinate calculation device, coordinate calculation method, and computer-readable recording medium | |
CN113343951A (en) | Face recognition countermeasure sample generation method and related equipment | |
US11202000B2 (en) | Learning apparatus, image generation apparatus, learning method, image generation method, and program | |
US10976721B2 (en) | Information processing apparatus, method, and medium to generate management three-dimensional model data | |
JP6963030B2 (en) | Information processing device and measurable area simulation method | |
WO2023238342A1 (en) | Measurement device, communication system, measurement method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230516 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7301467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |