JP2019121283A - 予測モデル生成システム及び予測システム - Google Patents

予測モデル生成システム及び予測システム Download PDF

Info

Publication number
JP2019121283A
JP2019121283A JP2018002078A JP2018002078A JP2019121283A JP 2019121283 A JP2019121283 A JP 2019121283A JP 2018002078 A JP2018002078 A JP 2018002078A JP 2018002078 A JP2018002078 A JP 2018002078A JP 2019121283 A JP2019121283 A JP 2019121283A
Authority
JP
Japan
Prior art keywords
image
prediction
prediction model
feature point
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018002078A
Other languages
English (en)
Other versions
JP6607364B2 (ja
Inventor
篤史 小塩
Atsushi Koshio
篤史 小塩
尋 丹田
Hiroshi Tanda
尋 丹田
小林 健一郎
Kenichiro Kobayashi
健一郎 小林
博幸 梅木
Hiroyuki Umeki
博幸 梅木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NNG CO Ltd
IF Co Ltd
Original Assignee
NNG CO Ltd
IF Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NNG CO Ltd, IF Co Ltd filed Critical NNG CO Ltd
Priority to JP2018002078A priority Critical patent/JP6607364B2/ja
Publication of JP2019121283A publication Critical patent/JP2019121283A/ja
Application granted granted Critical
Publication of JP6607364B2 publication Critical patent/JP6607364B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 画像における人体の特徴点の位置の予測を簡易かつ正確に行う。【解決手段】 画像分析システム1に含まれる予測モデル生成システム10は、人体の画像を入力して当該画像における当該人体の特徴点の位置を予測する予測モデルを生成するシステムである。予測モデル生成システム10は、機械学習に用いる学習データである人体の学習用画像及び当該学習用画像における当該人体の特徴点の位置を示す位置情報を取得する学習データ取得部11と、学習用画像に基づく情報を予測モデルへの入力とし、位置情報に基づく情報を予測モデルの出力として機械学習を行って予測モデルを生成する予測モデル生成部12とを備える。【選択図】 図1

Description

本発明は、人体の特徴点の位置を予測する予測モデルを生成する予測モデル生成システム及び当該予測モデルを用いた予測を行う予測システムに関する。
矯正歯科において、頭蓋に対する顎顔面のバランスを分析し適切な治療計画を立てることは重要である。従来はセファログラム(頭部X線規格写真)を使って分析を下していた(例えば、特許文献1参照)。これにより、上下顎の大きさとそのズレ、顎の形、歯の傾斜角度及び口元のバランス等が分かる。
特開2006−115990号公報
分析は、セファログラムの主要な計測点を線で結んで得られる様々な角度及び距離を用いて行う。このようなセファロ分析の方法の一つとして、例えば、プロフィログラムを用いたものが知られている。セファログラムからプロフィログラムを生成するのに、経験豊富な医師でも1事例あたり数十分程度の時間がかかる。また、分析者である医師によってプロフィログラムが異なる形状となることが常である。プロフィログラムの作成時のズレが後の治療において致命的となる場合があり、プロフィログラムの作成には高い正確さが求められる。
本発明は、上記に鑑みてなされたものであり、画像における人体の特徴点の位置の予測を簡易かつ正確に行うことができる予測モデル生成システムを提供することを目的とする。
上記の目的を達成するために、本発明に係る予測モデル生成システムは、人体の画像を入力して当該画像における当該人体の特徴点の位置を予測する予測モデルを生成する予測モデル生成システムであって、機械学習に用いる学習データである人体の学習用画像及び当該学習用画像における当該人体の特徴点の位置を示す位置情報を取得する学習データ取得手段と、学習データ取得手段によって取得された学習用画像に基づく情報を予測モデルへの入力とし、学習データ取得手段によって取得された位置情報に基づく情報を予測モデルの出力として機械学習を行って予測モデルを生成する予測モデル生成手段と、を備える。
本発明に係る予測モデル生成システムでは、機械学習によって予測モデルが生成される。当該予測モデルを用いることで画像における人体の特徴点の位置の予測を簡易かつ正確に行うことができる。
予測モデル生成手段は、学習データ取得手段によって取得された学習用画像から複数の部分画像を切り出して、切り出した部分画像に基づく情報を予測モデルへの入力として、機械学習を行って予測モデルを生成することとしてもよい。この構成によれば、学習データの数が少ない場合でも、適切に機械学習を行うことができ、予測を正確に行うことができる予測モデルを生成することができる。
予測モデルは、頭部の画像を入力して当該画像における当該頭部の特徴点の位置を予測するものであることとしてもよい。また、予測モデルは、顎部の画像を入力して当該画像における当該顎部の特徴点の位置を予測するものであることとしてもよい。
予測モデルは、ニューラルネットワークを含むこととしてもよい。この構成によれば、確実かつ適切に本発明を実施することができる。
上記の予測モデル生成システムに加えて、以下の予測システムも、本発明に係る予測モデル生成システムに対応する新規な構成を有しており、発明に相当する。本発明に係る予測システムは、上記の予測モデル生成システムによって生成された予測モデルを用いて予測を行う予測システムであって、予測対象である人体の画像を取得する予測対象画像取得手段と、予測対象画像取得手段によって取得された人体の画像に基づく情報を、予測モデルへ入力して当該画像における当該人体の特徴点の位置を予測する予測手段と、予測手段によって予測された位置を示す位置情報を出力する出力手段と、を備える。
また、本発明に係る予測システムは、上記の予測モデル生成システムによって生成された予測モデルを用いて予測を行う予測システムであって、予測対象である人体の画像を入力する予測対象画像取得手段と、予測対象画像取得手段によって取得された人体の画像から複数の部分画像を切り出して、切り出した部分画像に基づく情報それぞれを、予測モデルへ入力して当該画像における当該人体の特徴点の位置を予測する予測手段と、予測手段によって予測された位置を示す位置情報を出力する出力手段と、を備える。
予測手段は、部分画像に基づく情報それぞれを予測モデルへ入力して得られた出力のうち、出力によって示される特徴点の位置が予測モデルへ入力した部分画像上にないものを除外して、当該特徴点の位置を予測することとしてもよい。この構成によれば、部分画像を用いて予測を行う場合に、より正確に予測を行うことができる。
本発明によれば、機械学習によって生成される予測モデルを用いることで画像における人体の特徴点の位置の予測を簡易かつ正確に行うことができる。
本発明の実施形態に係る予測モデル生成システム及び予測システムである画像分析システムの構成を示す図である。 本実施形態に係る画像分析システムで用いられる画像(セファログラム)の例を示す図である。 画像からのパッチ画像の切り出しを示す図である。 本実施形態におけるニューラルネットワークを模式的に示す図である。 特徴点の位置を予測するための画素のスコアの例を示す図である。 本発明の実施形態に係る画像分析システムにおいて、予測モデルを生成する際に実行される処理を示すフローチャートである。 本発明の実施形態に係る機械翻訳システムにおいて、特徴点の位置を予測する際に実行される処理を示すフローチャートである。
以下、図面と共に本発明に係る予測モデル生成システム及び予測システムの実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
図1に本実施形態に係る予測モデル生成システム及び予測システムである画像分析システム1を示す。画像分析システム1は、矯正歯科において用いられる画像を分析するシステムである。分析対象となる画像は、図2(a)に示すような患者頭部を撮像したセファログラムである。但し、分析対象となる画像は、必ずしもX線を用いた撮像装置によって撮像されたセファログラムでなくてもよく、側面からの患者の頭蓋及び歯の画像であればよい。例えば、当該画像は、患者の頭部のCT(Computed Tomography)画像から、従来のソフトウェア等によって生成されたセファログラムに相当する二次元画像であってもよい。
画像分析システム1は、分析対象の画像を入力して、当該画像における患者(人体)の特徴点(注目点)の位置を予測する。図2(b)に示すように、予測される特徴点Cは、プロフィログラムを生成するためのセファログラムの主要な計測点である。画像分析システム1は、複数の特徴点Cを予測して、当該特徴点を結ぶことでプロフィログラムを自動的に生成することとしてもよい。
画像分析システム1は、機械学習を行って予測モデル(学習済モデル)を生成して、生成した予測モデルを用いて特徴点Cの予測を行う。即ち、画像分析システム1は、AI(人工知能)によって特徴点の予測を行う。画像分析システム1は、予測モデルを生成する構成として予測モデル生成システム10と、特徴点の予測を行う構成として予測システム20とを含む。
画像分析システム1は、具体的には、CPU(Central ProcessingUnit)、メモリ等のハードウェアを含むコンピュータであるサーバ装置によって構成されている。画像分析システム1の後述する各機能は、これらの構成要素がプログラム等により動作することによって発揮される。なお、画像分析システム1は、一つのコンピュータで実現されてもよいし、複数のコンピュータがネットワークにより互いに接続されて構成されるコンピュータシステムにより実現されていてもよい。
引き続いて、本実施形態に係る画像分析システム1に含まれる予測モデル生成システム10と、予測システム20とのそれぞれの機能を説明する。図1に示すように、予測モデル生成システム10は、学習データ取得部11と、予測モデル生成部12とを備えて構成される。
学習データ取得部11は、機械学習に用いる学習データ(教師データ)を取得する学習データ取得手段である。学習データは、人体の学習用画像及び当該学習用画像における当該人体の特徴点Cの位置を示す位置情報を含む。学習用画像は、既に特徴点Cが分かっている画像であり、予測対象(分析対象)となる予測対象画像(分析対象画像)と同様の形式の画像である。即ち、学習用画像は、既に特徴点が分かっている患者頭部を撮像したセファログラム等である。本実施形態で用いられるセファログラム等の画像は、撮像装置によって得られた画像が縮小されたもの(例えば、元画像の1/5にされたもの)であってもよい。位置情報は、具体的には例えば、画像中の特徴点の位置の座標(x座標、y座標)を示す情報である。通常、プロフィログラムの生成に用いられる特徴点には、S、N、Or及びANS等、複数の種類(19種類)があるため、位置情報は、特徴点の種類毎の情報を含む。学習データのうち、学習用画像は、予測モデルへの入力に対応するものであり、位置情報は、予測モデルの出力に対応するものである。
学習データは、画像分析システム1の管理者等によって用意され、学習データ取得部11は、用意された学習データを取得する。学習データの位置情報に係る特徴点の位置は、例えば、予め医師が学習用画像を分析して特定したものである。当該位置は、機械学習に用いるため、なるべく正確なものであることが望ましい。また、機械学習を適切に行うため、なるべく多くの(患者についての)学習データがあることが望ましい。また、学習データは、多くの年代及び性別(例えば、20−80歳の男女)に係るものであることが望ましい。学習データ取得部11は、取得した学習データを予測モデル生成部12に出力する。
予測モデル生成部12は、学習データ取得部11によって取得された学習用データを用いて機械学習を行って予測モデルを生成する予測モデル生成手段である。予測モデル生成部12は、学習データ取得部11によって取得された学習用画像に基づく情報を予測モデルへの入力とし、学習データ取得部11によって取得された位置情報に基づく情報を予測モデルの出力として機械学習を行う。予測モデル生成部12は、学習用画像から複数の部分画像を切り出して、切り出した部分画像に基づく情報を予測モデルへの入力として、機械学習を行う。
予測モデル生成部12によって生成される予測モデルは、予測対象画像に基づく情報を入力して当該画像における当該人体の特徴点の位置を予測するモデルである。予測モデルは、ニューラルネットワークを含む。ニューラルネットワークは、多層のものであってもよい。即ち、予測モデル生成部12は、ディープラーニングを行って予測モデルを生成してもよい。予測モデル生成部12は、具体的には、以下のように予測モデルを生成する。
予測モデル生成部12は、学習データ取得部11から学習データを入力する。予測モデル生成部12は、図3に示すように、各学習データに含まれる学習用画像から複数の部分画像(局所画像)であるパッチ画像Pを切り出して生成する。パッチ画像Pのサイズは、予め設定されている。例えば、学習用画像のサイズが387×480ピクセルであれば、パッチ画像のサイズは70×70ピクセルとされる。予測モデル生成部12は、学習用画像から予め設定された数のパッチ画像Pを切り出す。例えば、予測モデル生成部12は、1枚の学習用画像から300枚のパッチ画像Pを切り出す。学習用画像におけるパッチ画像Pが切り出される位置は、ランダムとされる。あるいは、学習用画像におけるパッチ画像Pが切り出される位置は、予め設定された位置であってもよい。
予測モデル生成部12は、切り出した各パッチ画像Pの学習用画像における位置と、学習データの位置情報によって示される当該学習用画像における特徴点Cの位置との位置関係を特定する。例えば、予測モデル生成部12は、各パッチ画像Pの学習用画像における中心の位置と、特徴点Cの位置との差分(距離)dを算出する。当該差分dは、各パッチ画像Pの学習用画像における中心の位置のx座標及びy座標それぞれと、特徴点Cの位置のx座標及びy座標それぞれとの差分を取ることで算出できる。予測モデル生成部12は、上記の差分dを特徴点Cの種類毎に算出する。
予測モデル生成部12は、パッチ画像P及び差分dを用いて機械学習を行ってニューラルネットワークを生成する。図4に予測モデル生成部12によって生成されるニューラルネットワークを模式的に示す。ニューラルネットワークは、パッチ画像Pの各ピクセル(画素)の画素値を入力して、入力したパッチ画素と特徴点Cの位置との差分dを出力するものである。
ニューラルネットワークの入力層Iには、パッチ画像Pの画素の数分のニューロンが設けられる。例えば、パッチ画像Pのサイズが70×70ピクセルとされた場合、入力層Iには4900個のニューロンが設けられる。ニューラルネットワークの中間層Hは、例えば、図4に示すように3層設けられる。中間層Hを入力層に近い側から第1層、第2層及び第3層とすると、例えば、第1層には1000個、第2層には200個、第3層には100個のニューロンが設けられる。なお、中間層Hの数及び各層のニューロンの数は、上記のものに限られない。ニューラルネットワークの出力層Oには、差分dを出力するためのニューロンが設けられる。例えば、差分dのx軸成分及びy軸成分の2つのニューロンが設けられる。
予測モデル生成部12は、パッチ画像Pの各ピクセルの画素値をニューラルネットワークへの入力値とし、当該パッチ画像Pの差分dのx軸成分及びy軸成分のそれぞれの値をニューラルネットワークの出力値として機械学習を行ってニューラルネットワークを生成する。画素値を入力値とする際には、それぞれの画素(パッチ画像P上の画素の位置)に対応付いたニューロンの入力値とする。また、差分dのx軸成分及びy軸成分のそれぞれの値を出力値とする際には、それぞれに対応付いたニューロンの出力値とする。上記の機械学習自体は、従来と同様に行うことができる。
予測モデル生成部12は、上記のニューラルネットワークである予測モデルを特徴点Cの種類毎に生成する。即ち、予測モデル生成部12は、特徴点Cの種類毎に機械学習を行う。予測モデル生成部12は、生成した予測モデルを予測システム20に出力する。以上が、本実施形態に係る予測モデル生成システム10の機能である。
引き続いて、本実施形態に係る予測システム20の機能を説明する。図1に示すように、予測システム20は、予測対象画像取得部21と、予測部22と、出力部23とを備えて構成される。
予測対象画像取得部21は、特徴点Cの予測対象である人体の画像である予測対象画像を取得する予測対象画像取得手段である。予測対象画像は、学習用画像と同様の形式の(特徴点Cが分かっていない)画像であり、例えば、上述したようにセファログラムである。
予測対象画像取得部21は、例えば、端末2から送信される予測対象画像を受信して取得する。端末2は、例えば、セファログラムの特徴点Cを知りたい医師等によって用いられる。画像分析システム1と端末2とは、ネットワーク等を介して接続されており、互いに情報の送受信を行うことができるようになっている。なお、予測対象画像取得部21は、上記以外の方法で予測対象画像を取得してもよい。予測対象画像取得部21は、取得した予測対象画像を予測部22に出力する。
予測部22は、予測対象画像取得部21によって取得された予測対象画像に基づく情報を、予測モデル生成システム10によって生成された予測モデルへ入力して当該予測対象画像における当該人体の特徴点Cの位置を予測する予測手段である。予測部22は、予測対象画像から複数の部分画像を切り出して、切り出した部分画像に基づく情報それぞれを、予測モデルへ入力して特徴点Cの位置を予測する。予測部22は、部分画像に基づく情報それぞれを予測モデルへ入力して得られた出力のうち、出力によって示される特徴点Cの位置が予測モデルへ入力した部分画像上にないものを除外して、当該特徴点Cの位置を予測する。具体的には、予測部22は、以下のように特徴点Cの予測を行う。
予測部22は、予測モデル生成システム10によって生成されたニューラルネットワークである予測モデルを入力して記憶しておき、特徴点Cの位置の予測に用いる。予測部22は、予測対象画像取得部21から予測対象画像を入力する。予測部22は、予測対象画像から複数の部分画像であるパッチ画像Pを切り出して生成する。予測部22によるパッチ画像Pの切り出しは、予測モデル生成部12によるパッチ画像Pの切り出しと同様に行われる。
予測部22は、切り出したパッチ画像Pの各ピクセルの画素値をニューラルネットワークへの入力値として、ニューラルネットワークからの出力値を得る。画素値をニューラルネットワークへの入力値とする際には、それぞれの画素(パッチ画像P上の画素の位置)に対応付いたニューロンの入力値とする。得られる出力値は、予測対象画像におけるパッチ画像Pの位置と(予測される)特徴点Cの位置との(予測される)差分dである。当該差分dは、予測モデル生成部12によって算出される差分dに対応するものである。
予測部22は、パッチ画像Pの予測対象画像における位置と差分dとから、(当該パッチ画像Pから予測される)予測対象画像における特徴点Cの位置(座標)を算出する。予測部22は、算出された特徴点Cの位置が、予測元となったパッチ画像の領域に含まれるか否かを判断する。予測部22は、パッチ画像の領域に含まれないと判断した特徴点Cの位置については、当該特徴点Cの位置の最終的な予測に用いるものから除外する。即ち、予測部22は、パッチ画像の領域に含まれると判断した特徴点Cの位置のみから、当該特徴点Cの位置の最終的な予測を行う。
予測部22は、パッチ画像の領域に含まれると判断した特徴点Cの位置(予測対象画像における座標)から、予測対象画像の各座標(画素)にスコアを付ける。例えば、スコアは、以下のように付けられる。予測部22は、パッチ画像の領域に含まれると判断した特徴点Cの位置の画素に最も高いスコア(例えば、2)を付ける。また、予測部22は、パッチ画像の領域に含まれると判断した特徴点Cの位置から1画素だけ離れた周囲の8画素に次に高いスコア(例えば、1)を付ける。予測部22は、それ以外の画素のスコアを0とする。予測部22は、パッチ画像の領域に含まれると判断した特徴点Cの全ての位置について、上記のスコア付けを行って、図5に示すように各画素についてのスコアの合計を算出する。予測部22は、算出したスコアのうち、最もスコアが高い画素の位置を最終的な特徴点Cの位置とする。
上述したように予測モデルは、特徴点Cの種類毎に生成されている。予測部22は、特徴点Cの種類毎の予測モデルを用いて、種類毎の特徴点Cを予測する。予測部22は、予測した特徴点Cの位置(予測対象画像における座標)を示す位置情報を出力部23に出力する。
出力部23は、予測部22によって予測された特徴点Cの位置を示す位置情報を出力する出力手段である。出力部23は、予測部22から予測された特徴点Cの位置を示す位置情報を入力する。出力部23は、例えば、位置情報を端末2に送信して出力する。その際、図2(b)に示すように、特徴点Cの位置を示す表示を重畳した予測対象画像を送信することとしてもよい。また、当該特徴点Cを結んだプロフィログラムを生成してもよい。
端末2では、位置情報が受信されて表示等がなされる。端末2を使用する医師等は、当該表示等を参照して、患者の特徴点Cの位置を把握することができる。画像分析システム1はWebアプリケーションによって構成されていてもよく、端末2ではWebベース(例えば、Webブラウザ等)で画像分析システム1との間で情報の送受信が行われてもよい。なお、端末2によって受信された表示される特徴点Cの位置は、端末2において修正等の編集ができるようになっていてもよい。また、出力部23は、上記以外の方法で位置情報を出力してもよい。以上が、本実施形態に係る予測システム20の機能である。
引き続いて、図6及び図7のフローチャートを用いて、本実施形態に係る画像分析システム1で実行される処理(画像分析システム1が行う動作方法)を説明する。まず、図6のフローチャートを用いて、予測モデルを生成する際に実行される処理、即ち、本実施形態に係る予測モデル生成システム10で実行される処理を説明する。
本処理では、まず、学習データ取得部11によって、機械学習に用いる学習データが取得される(S01)。続いて、予測モデル生成部12によって、学習データに含まれる学習用画像から複数のパッチ画像が切り出されて生成される(S02)。また、あわせて、パッチ画像Pの学習用画像における位置と、学習データに含まれる位置情報によって示される当該学習用画像における特徴点Cの位置との差分dが算出される。続いて、予測モデル生成部12によって、パッチ画像Pの各ピクセルの画素値を入力値とし、当該パッチ画像Pの差分dの値を出力値として機械学習が行われて、予測モデルであるニューラルネットワークが生成される(S03)。以上が、予測モデルを生成する際に実行される処理である。
引き続いて、図7のフローチャートを用いて、特徴点Cの位置を予測する際に実行される処理、即ち、本実施形態に係る予測システム20で実行される処理を説明する。本処理では、まず、予測対象画像取得部21によって予測対象画像が取得される(S11)。続いて、予測部22によって、予測対象画像から複数のパッチ画像が切り出されて生成される(S12)。続いて、予測部22によって、パッチ画像Pの各ピクセルの画素値が、予測モデルであるニューラルネットワークへの入力値とされて、出力値である差分dが得られる。差分dは、パッチ画像Pの予測対象画像における位置と、当該予測対象画像における特徴点Cの位置との差分である。続いて、予測部22によって、各パッチ画像Pから得られる差分dから、特徴点Cの位置が予測される(S13)。続いて、出力部23によって、予測された特徴点Cの位置を示す位置情報が出力される(S14)。以上が、特徴点Cの位置を予測する際に実行される処理である。
上述したように本実施形態では、機械学習によって予測モデルが生成される。当該予測モデルを用いることで予測対象画像における人体の特徴点の位置の予測を簡易かつ正確に行うことができる。具体的には、セファログラム、あるいはセファログラムに類する画像から、プロフィログラムを生成するための特徴点Cの位置の予測を簡易かつ正確に行うことができる。
これにより、分析者である医師の習熟度による特徴点Cのズレ等のプロフィログラム生成時のヒューマンエラーを防止することができる。また、プロフィログラムの作成に係る医師の労力及び時間の負担を減らすことができる。
以下に、本発明の発明者によって行われた本実施形態に係る特徴点Cの予測結果の評価を示す。プロフィログラムを生成する19の特徴点のうちの一つであるSellaが医師によって特定されている予測対象画像に対して、本実施形態による方法で予測を行った。当該予測において、以下のように評価値Pz=4.0mmを算出した。

上記の式において、Δx及びΔyは、予測された特徴点と医師によって特定されている特徴点(正解の特徴点)とのx軸方向及びy軸方向の誤差である。kは、予測対象画像のインデックス、nは、予測対象画像の数である。Pz=4.0mmは、予測した特徴点が正解とみなせる範囲に誤差が入っている割合を示すものであり、値が高いほど予測が正確であることを示している。本実施形態による方法では、Pz=4.0mm=93.5%であり、本実施形態による方法が高い予測精度で予測できていることを示している。
また、本実施形態のようにパッチ画像を用いた予測モデルの生成及び特徴点Cの予測を行うこととしてもよい。この構成によれば、学習データの数が少ない場合でも、適切に機械学習を行うことができ、予測を正確に行うことができる予測モデルを生成することができ、予測を正確に行うことができる。
セファログラム全体を用いて、正確に予測を行うことができる予測モデルを生成するためには多くのセファログラムを用意する必要がある。また、機械学習を行うための学習データを生成するため、医師等がそのセファログラムにおける特徴点Cを特定する必要がある。特徴点が付与された多くのセファログラムを用意することが困難な場合であっても、上記の構成によれば予測を正確に行うことができる。
例えば、特徴点が付与されたセファログラムが200枚しかない場合であっても、上述したように1枚のセファログラムから300枚のパッチ画像を生成すれば、機械学習に用いることができるデータの総数を200×300=60000とすることができる。
但し、セファログラムを数多く取得できる場合等には、パッチ画像を生成せずにセファログラム全体をニューラルネットワークへの入力とする予測モデルを生成して、予測を行うこととしてもよい。
また、パッチ画像を用いた予測を行う場合に、パッチ画像の領域に含まれないと判断した特徴点Cの位置については、最終的な特徴点Cの位置の予測から除外することとしてもよい。この構成によれば、特徴点Cから離れたパッチ画像を特徴点Cの予測から除外することができ、パッチ画像を用いて予測を行う場合に、より正確に予測を行うことができる。なお、本実施形態では、スコアを用いて最終的な特徴点Cの位置を予測したがそれ以外の方法で予測を行ってもよい(例えば、各パッチ画像から予測された特徴点Cの位置の平均を取る等)。また、除外を行わずに全てのパッチ画像から予測された特徴点Cを用いて、最終的な特徴点Cの位置の予測を行うこととしてもよい。
また、生成される予測モデルは、本実施形態のようにニューラルネットワークを含むものとしてもよい。この構成によれば、確実かつ適切に本発明を実施することができる。但し、ニューラルネットワークを含まない予測モデルを機械学習によって生成して予測に用いることとしてもよい。
なお、本実施形態では、プロフィログラムを生成するための特徴点Cを予測するものであったが、本発明は、プロフィログラム以外に用いられる特徴点Cを予測するものであってもよい。例えば、リケッツ法又はノースウェスタン法等といった他の方法によるセファロ分析にも用いることができる。また、本実施形態では、分析対象となる画像は、患者(人体)の頭部の画像としたが、矯正歯科の目的であれば、頭部全体でなくても、患者(人体)の顎部のみの画像が分析対象となってもよい。また、本発明は、人体の特徴点の位置を予測するものであれば、歯科矯正以外の目的で画像の分析を行うものであってもよい。その場合、予測対象の画像は、頭部のみの画像ではなく、人体の任意の部分が写った任意の画像としてもよい。
本実施形態では、画像分析システム1は、予測モデル生成システム10と、予測システム20とを含むこととしたが、本発明としては、予測モデル生成システム10と、予測システム20とが独立してそれぞれ実施されてもよい。
また、予測モデル生成システム10によって生成される予測モデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定される。当該予測モデルは、CPU及びメモリを備えるコンピュータにて用いられる。具体的には、コンピュータのCPUが、メモリに記憶された予測モデルからの指令に従って、ニューラルネットワークの入力層に予測対象画像に基づく情報を入力して、ニューラルネットワークにおける学習済の重み付け係数等に基づく演算を行って、ニューラルネットワークの出力層から結果(特徴点の位置に係る情報)を出力するように動作する。
1…画像分析システム、10…予測モデル生成システム、11…学習データ取得部、12…予測モデル生成部、20…予測システム、21…予測対象画像取得部、22…予測部、23…出力部、2…端末。

Claims (8)

  1. 人体の画像を入力して当該画像における当該人体の特徴点の位置を予測する予測モデルを生成する予測モデル生成システムであって、
    機械学習に用いる学習データである人体の学習用画像及び当該学習用画像における当該人体の特徴点の位置を示す位置情報を取得する学習データ取得手段と、
    前記学習データ取得手段によって取得された学習用画像に基づく情報を予測モデルへの入力とし、前記学習データ取得手段によって取得された位置情報に基づく情報を予測モデルの出力として機械学習を行って予測モデルを生成する予測モデル生成手段と、
    を備える予測モデル生成システム。
  2. 前記予測モデル生成手段は、前記学習データ取得手段によって取得された学習用画像から複数の部分画像を切り出して、切り出した部分画像に基づく情報を予測モデルへの入力として、機械学習を行って予測モデルを生成する請求項1に記載の予測モデル生成システム。
  3. 前記予測モデルは、頭部の画像を入力して当該画像における当該頭部の特徴点の位置を予測するものである請求項1又は2に記載の予測モデル生成システム。
  4. 前記予測モデルは、顎部の画像を入力して当該画像における当該顎部の特徴点の位置を予測するものである請求項3に記載の予測モデル生成システム。
  5. 前記予測モデルは、ニューラルネットワークを含む請求項1〜4の何れか一項に記載の予測モデル生成システム。
  6. 請求項1〜5の何れか一項に記載の予測モデル生成システムによって生成された予測モデルを用いて予測を行う予測システムであって、
    予測対象である人体の画像を取得する予測対象画像取得手段と、
    前記予測対象画像取得手段によって取得された人体の画像に基づく情報を、前記予測モデルへ入力して当該画像における当該人体の特徴点の位置を予測する予測手段と、
    前記予測手段によって予測された位置を示す位置情報を出力する出力手段と、
    を備える予測システム。
  7. 請求項2に記載の予測モデル生成システムによって生成された予測モデルを用いて予測を行う予測システムであって、
    予測対象である人体の画像を入力する予測対象画像取得手段と、
    前記予測対象画像取得手段によって取得された人体の画像から複数の部分画像を切り出して、切り出した部分画像に基づく情報それぞれを、前記予測モデルへ入力して当該画像における当該人体の特徴点の位置を予測する予測手段と、
    前記予測手段によって予測された位置を示す位置情報を出力する出力手段と、
    を備える予測システム。
  8. 前記予測手段は、部分画像に基づく情報それぞれを前記予測モデルへ入力して得られた出力のうち、出力によって示される特徴点の位置が前記予測モデルへ入力した部分画像上にないものを除外して、当該特徴点の位置を予測する請求項7に記載の予測システム。
JP2018002078A 2018-01-10 2018-01-10 予測システム Active JP6607364B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018002078A JP6607364B2 (ja) 2018-01-10 2018-01-10 予測システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018002078A JP6607364B2 (ja) 2018-01-10 2018-01-10 予測システム

Publications (2)

Publication Number Publication Date
JP2019121283A true JP2019121283A (ja) 2019-07-22
JP6607364B2 JP6607364B2 (ja) 2019-11-20

Family

ID=67307305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018002078A Active JP6607364B2 (ja) 2018-01-10 2018-01-10 予測システム

Country Status (1)

Country Link
JP (1) JP6607364B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006228A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006231A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006234A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006230A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006232A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006233A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006227A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021174596A (ja) * 2020-04-21 2021-11-01 株式会社島津製作所 スイートスポットの予測方法及びスイートスポット予測装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006122211A (ja) * 2004-10-27 2006-05-18 Yoshida Dental Mfg Co Ltd 画像認識によるx線撮影条件の自動設定装置
JP2009129237A (ja) * 2007-11-26 2009-06-11 Toshiba Corp 画像処理装置及びその方法
WO2017141958A1 (ja) * 2016-02-15 2017-08-24 学校法人慶應義塾 脊柱配列推定装置、脊柱配列推定方法及び脊柱配列推定プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006122211A (ja) * 2004-10-27 2006-05-18 Yoshida Dental Mfg Co Ltd 画像認識によるx線撮影条件の自動設定装置
JP2009129237A (ja) * 2007-11-26 2009-06-11 Toshiba Corp 画像処理装置及びその方法
WO2017141958A1 (ja) * 2016-02-15 2017-08-24 学校法人慶應義塾 脊柱配列推定装置、脊柱配列推定方法及び脊柱配列推定プログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
保黒 政大、外3名: ""ニューラルネットワークによる顔の特徴点検出の評価"", 情報処理学会研究報告, vol. 94, no. 110, JPN6019007126, 17 December 1994 (1994-12-17), JP, pages 23 - 30, ISSN: 0004111963 *
松田 龍英、外2名: ""顔形状による制約を考慮した線形回帰に基づく顔特徴点自動検出"", 画像ラボ, vol. 24, no. 6, JPN6019026694, 10 June 2013 (2013-06-10), JP, pages 32 - 38, ISSN: 0004073816 *
菅井 満、外3名: ""ニューラルネットワークを用いた顔特徴点の検出とその精度"", 電子情報通信学会技術研究報告, vol. 97, no. 112, JPN6019007125, 19 June 1997 (1997-06-19), JP, pages 63 - 70, ISSN: 0004073815 *
遠山 泰弘、外4名: ""三次元顔認証のための顔特徴点検出"", SSII2010 第16回 画像センシングシンポジウム講演論文集, JPN6019007127, 9 June 2010 (2010-06-09), JP, pages 1 - 6, ISSN: 0004111964 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006228A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006231A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006234A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006230A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006232A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006233A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021006227A (ja) * 2019-06-28 2021-01-21 京楽産業.株式会社 遊技機
JP2021174596A (ja) * 2020-04-21 2021-11-01 株式会社島津製作所 スイートスポットの予測方法及びスイートスポット予測装置
JP7338544B2 (ja) 2020-04-21 2023-09-05 株式会社島津製作所 スイートスポットの予測方法及びスイートスポット予測装置

Also Published As

Publication number Publication date
JP6607364B2 (ja) 2019-11-20

Similar Documents

Publication Publication Date Title
JP6607364B2 (ja) 予測システム
Hwang et al. Automated identification of cephalometric landmarks: Part 2-Might it be better than human?
US10984529B2 (en) Systems and methods for automated medical image annotation
US11676701B2 (en) Systems and methods for automated medical image analysis
KR101952887B1 (ko) 해부학적 랜드마크의 예측 방법 및 이를 이용한 디바이스
Bulatova et al. Assessment of automatic cephalometric landmark identification using artificial intelligence
KR101913586B1 (ko) 치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체
US20210153976A1 (en) Method of optimization in orthodontic applications
Vučinić et al. Automatic landmarking of cephalograms using active appearance models
Demétrio et al. Accuracy between virtual surgical planning and actual outcomes in orthognathic surgery by iterative closest point algorithm and color maps: A retrospective cohort study
Leonardi et al. An evaluation of cellular neural networks for the automatic identification of cephalometric landmarks on digital images
CN110246580B (zh) 基于神经网络和随机森林的颅侧面影像分析方法和系统
US20220084267A1 (en) Systems and Methods for Generating Quick-Glance Interactive Diagnostic Reports
Lee et al. Deep learning based cephalometric landmark identification using landmark-dependent multi-scale patches
Radwan et al. Artificial intelligence‐based algorithm for cervical vertebrae maturation stage assessment
Goutham et al. Automatic localization of landmarks in cephalometric images via modified U-Net
Ólafsdóttir et al. Computational mouse atlases and their application to automatic assessment of craniofacial dysmorphology caused by the Crouzon mutation Fgfr2C342Y
US11589949B1 (en) System and methods of creating a 3D medical representation for use in performing reconstructive surgeries
Kim et al. Deep convolutional neural network-based skeletal classification of cephalometric image compared with automated-tracing software
EP4184433A2 (en) System and methods for medical image quality assessment using deep neural networks
WO2023194500A1 (en) Tooth position determination and generation of 2d reslice images with an artificial neural network
KR20230053888A (ko) 교정 진단에 이용되는 화면을 디스플레이하는 방법, 디바이스 및 그 기록매체
KR20200012707A (ko) 해부학적 랜드마크의 예측 방법 및 이를 이용한 디바이스
KR101796111B1 (ko) 3차원 형태 기술자를 이용한 두개골 이형 자동판단시스템 및 이를 이용한 두개골 이형 자동판단방법
JP2019126654A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191008

R150 Certificate of patent or registration of utility model

Ref document number: 6607364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250