JP7211415B2 - 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル - Google Patents

演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル Download PDF

Info

Publication number
JP7211415B2
JP7211415B2 JP2020511657A JP2020511657A JP7211415B2 JP 7211415 B2 JP7211415 B2 JP 7211415B2 JP 2020511657 A JP2020511657 A JP 2020511657A JP 2020511657 A JP2020511657 A JP 2020511657A JP 7211415 B2 JP7211415 B2 JP 7211415B2
Authority
JP
Japan
Prior art keywords
learning
target signal
encoder
correct answer
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020511657A
Other languages
English (en)
Other versions
JPWO2019193899A1 (ja
Inventor
智也 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2019193899A1 publication Critical patent/JPWO2019193899A1/ja
Application granted granted Critical
Publication of JP7211415B2 publication Critical patent/JP7211415B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、演算装置の学習方法、学習装置、学習プログラム、および学習済みモデルに関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著になっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護や支援等のケアを必要とするケア対象者の増加が想定される。
ケア対象者は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、ケア対象者がこのような状態になったときに介護士や看護師等のケア実行者がすぐに駆けつけられるようにするために、ケア対象者の状態を検知するためのシステムの開発が進められている。
下記特許文献1には、次の技術が開示されている。すなわち、訓練画像および関節位置データの組合せの学習用データに基づいて、機械学習により関節推定器を学習し、学習された関節推定器により、画像から関節位置により姿勢を推定する。
下記特許文献2には、次の技術が開示されている。すなわち、コンテンツの内容情報の次元数を圧縮することで当該コンテンツの特徴情報を抽出するとともに、当該特徴情報の次元数を拡張することで当該コンテンツの内容情報を復元する機能を有する学習器を学習させる。その際、入力されたコンテンツの内容情報と復元された内容情報が同じとなり、かつ、同一カテゴリーに属する複数のコンテンツから抽出された特徴情報の類似度が、異なるカテゴリーに属する複数のコンテンツから抽出された特徴情報の類似度より大きくなるように学習させる。そして、学習された学習器により複数のコンテンツから抽出された特徴情報が類似するかどうか判断することで配信対象のコンテンツを決定する。
下記非特許文献1には、次の技術が開示されている。すなわち、人の画像と当該人の真の関節点との組合せを教師データとしてディープニューラルネットワークを学習させ、学習後のディープニューラルネットワークにより、人の画像から、関節点を人の姿勢として推定する。
特開2017-91377号公報 特開2017-201535号公報 Alexander Toshev, Christian Szegedy, DeepPose:Human Pose Estimation via Deep Neural Networks, IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2014
しかし、これらの文献に記載された技術は、ニューラルネットワーク等をあらかじめ学習させ、学習後は画像を撮影する場所や環境が変わっても追加の学習を行わないため、画像を撮影する場所等が変わることにより関節点の推定精度が低下する可能性がある。また、関節点の推定精度を維持するために新たな場所等において追加の学習を行う場合、当該場所等において撮影された未学習の大量の画像に関節点の正解付けをして学習をする必要があるため作業量が増大する。
本発明は、このような問題を解決するためになされたものである。すなわち、画像を撮影する場所等が変化しても関節点の推定精度を向上できるとともに、新たな場所等で未学習の学習データを学習する際の作業量を低減できる、演算装置の学習方法、学習装置、学習プログラム、および学習済みモデルを提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)撮影された画像を第1特徴量に変換する第1変換部、および前記第1変換部により変換された前記第1特徴量を目的信号に変換して出力する第2変換部、を有する演算装置の学習方法であって、前記目的信号の正解がある前記画像と、前記目的信号の正解がない前記画像とを用いて前記第1変換部を表現学習により教師なし学習する段階(a)と、前記段階(a)で教師なし学習をした後の前記第1変換部により、前記目的信号の正解がある前記画像を変換して得られた前記第1特徴量と、得られた前記第1特徴量に変換された前記画像に対応する前記目的信号の正解と、の組合せを教師データとして前記第2変換部を教師あり学習する段階(b)と、を有する、演算装置の学習方法。
(2)前記目的信号は関節点であり、前記演算装置は、前記画像から人の画像を含む人矩形を検出する検出部をさらに有し、前記第1変換部は、前記検出部により検出された前記人矩形を前記第1特徴量に変換するニューラルネットワークであり、前記第2変換部は、前記第1特徴量を第2特徴量に変換する、ニューラルネットワークの第1副変換部と、前記第2特徴量を前記目的信号に変換して出力する、ニューラルネットワークの第2副変換部と、を有し、前記段階(a)は、前記目的信号の正解がある前記人矩形と、前記目的信号の正解がない前記人矩形とを用いて、前記第1変換部を表現学習により教師なし学習し、前記段階(b)は、前記段階(a)で教師なし学習をした後の前記第1変換部により前記目的信号の正解がある前記人矩形が変換されて得られる前記第1特徴量と、得られた前記第1特徴量に変換される前の前記人矩形に対応する前記目的信号の正解に、前記目的信号の正解を用いてあらかじめ表現学習により教師なし学習された前記第2副変換部により変換される前記第2特徴量と、の組合せを教師データとして前記第1副変換部を教師あり学習する、上記(1)に記載の演算装置の学習方法。
(3)前記第1変換部は、第1エンコーダーと第1デコーダーとを有する第1オートエンコーダーであり、前記第2副変換部は、第2エンコーダーと第2デコーダーとを有する第2オートエンコーダーであり、前記段階(a)の前に、前記第2エンコーダーが前記目的信号の正解を変換することで得られた前記第2特徴量を前記第2デコーダーが前記目的信号に変換し、前記第2エンコーダーによる変換前の前記目的信号の正解と前記第2デコーダーによる変換後の前記目的信号とが一致するように、前記第2エンコーダーおよび前記第2デコーダーを表現学習により教師なし学習する段階(c)をさらに有し、前記段階(a)は、前記第1エンコーダーにより、前記目的信号の正解がある前記人矩形と前記目的信号の正解がない前記人矩形とがそれぞれ変換された前記第1特徴量を、それぞれ前記第1デコーダーにより前記人矩形に変換し、前記第1エンコーダーによる変換前の前記人矩形と前記第1デコーダーによる変換後の前記人矩形とを一致させるように前記第1エンコーダーおよび前記第1デコーダーを表現学習により教師なし学習し、前記段階(b)は、前記段階(a)で教師なし学習した後の前記第1エンコーダーにより前記目的信号の正解がある前記人矩形を変換して得られる前記第1特徴量と、得られた前記第1特徴量に前記第1エンコーダーにより変換される前の前記人矩形に対応する前記目的信号の正解に、前記段階(c)における学習後の前記第2エンコーダーにより変換されることで得られる前記第2特徴量と、の組合せを教師データとして前記第1副変換部を教師あり学習する、上記(2)に記載の演算装置の学習方法。
(4)撮影された画像を第1特徴量に変換する第1変換部、および前記第1変換部により変換された前記第1特徴量を目的信号に変換して出力する第2変換部、を有する演算装置を学習させるための学習装置であって、前記目的信号の正解がある前記画像と、前記目的信号の正解がない前記画像とを用いて前記第1変換部を表現学習により教師なし学習させた後、学習後の前記第1変換部により、前記目的信号の正解がある前記画像を変換して得られる前記第1特徴量と、得られた前記第1特徴量に変換された前記画像に対応する前記目的信号の正解と、の組合せを教師データとして前記第2変換部を教師あり学習させる学習制御部を有する、学習装置。
(5)前記目的信号は関節点であり、前記演算装置は、前記画像から人の画像を含む人矩形を検出する検出部をさらに有し、前記第1変換部は、前記検出部により検出された前記人矩形を前記第1特徴量に変換するニューラルネットワークであり、前記第2変換部は、前記第1特徴量を第2特徴量に変換する、ニューラルネットワークの第1副変換部と、前記第2特徴量を前記目的信号に変換して出力する、ニューラルネットワークの第2副変換部と、を有し、前記学習制御部は、前記目的信号の正解がある前記人矩形と、前記目的信号の正解がない前記人矩形とを用いて、前記第1変換部を表現学習により教師なし学習させた後、学習後の前記第1変換部により前記目的信号の正解がある前記人矩形が変換されて得られる前記第1特徴量と、得られた前記第1特徴量に変換される前の前記人矩形に対応する前記目的信号の正解に、前記目的信号の正解を用いてあらかじめ表現学習により教師なし学習された前記第2副変換部により変換される前記第2特徴量と、の組合せを教師データとして前記第1副変換部を教師あり学習させる、上記(4)に記載の学習装置。
(6)前記第1変換部は、第1エンコーダーと第1デコーダーとを有する第1オートエンコーダーであり、前記第2副変換部は、第2エンコーダーと第2デコーダーとを有する第2オートエンコーダーであり、前記第2エンコーダーが前記目的信号の正解を変換することで得られた前記第2特徴量を前記第2デコーダーが前記目的信号に変換し、前記第2エンコーダーによる変換前の前記目的信号の正解と前記第2デコーダーによる変換後の前記目的信号とが一致するように、前記第2エンコーダーおよび前記第2デコーダーが、あらかじめ表現学習により教師なし学習されており、前記学習制御部は、前記第1エンコーダーにより、前記目的信号の正解がある前記人矩形と前記目的信号の正解がない前記人矩形とがそれぞれ変換された前記第1特徴量を、それぞれ前記第1デコーダーにより前記人矩形に変換し、前記第1エンコーダーによる変換前の前記人矩形と前記第1デコーダーによる変換後の前記人矩形とを一致させるように前記第1エンコーダーおよび前記第1デコーダーを表現学習により教師なし学習させた後、学習後の前記第1エンコーダーにより、前記関節点の目的信号の正解がある前記人矩形を変換して得られる前記第1特徴量と、得られた前記第1特徴量に前記第1エンコーダーにより変換される前の前記人矩形に対応する前記目的信号の正解に、あらかじめ学習された前記第2エンコーダーにより変換されることで得られる前記第2特徴量と、の組合せを教師データとして前記第1副変換部を教師あり学習させる、上記(5)に記載の学習装置。
(7)上記(1)~(3)のいずかに記載の、演算装置の学習方法をコンピューターに実行させるための学習プログラム。
(8)撮影された画像を第1特徴量に変換するニューラルネットワークの第1変換部、および前記第1変換部により変換された前記第1特徴量を目的信号に変換して出力するニューラルネットワークの第2変換部、を有するニューラルネットワークの学習済みモデルであって、前記第1変換部のニューラルネットワークが、前記目的信号の正解がある前記画像と、前記目的信号の正解がない前記画像とを用いて前記第1変換部を表現学習により教師なし学習され、前記第2変換部のニューラルネットワークが、学習後の前記第1変換部により前記目的信号の正解がある前記画像を変換して得られた前記第1特徴量と、得られた前記第1特徴量に変換される前の前記画像に対応する前記目的信号の正解と、の組合せを教師データとして教師あり学習された、ニューラルネットワークの学習済みモデル。
画像を特徴量に変換する第1変換部、および当該特徴量を目的信号に変換する第2変換部を有する演算装置に対し、目的信号の正解がある画像と正解がない画像とで第1変換部を教師なし学習する。そして、正解がある画像が学習後の第1変換部で変換された特徴量と、当該正解の目的信号と、により第2変換部を教師あり学習する。これにより、画像を撮影する場所等が変化しても関節点の推定精度を向上できるとともに、新たな場所等で未学習の学習データを学習する際の作業量を低減できる。
演算装置を含む演算システムの概略構成を示す図である。 演算装置の構成を示すブロック図である。 演算装置の制御部の機能を示すブロック図である。 撮影画像および人矩形の例を示す図である。 人の関節点の例を示す説明図である。 演算装置により推定された関節点の例を示す説明図である。 関節点推定部の第2オートエンコーダーの学習について説明するための説明図である。 関節点推定部の第1オートエンコーダーの学習について説明するための説明図である。 関節点推定部の中間変換部の学習について説明するための説明図である。 学習制御部による関節点推定部の学習時のデータの流れを示す説明図である。 関節点推定部による推定について説明するための説明図である。 第1オートエンコーダーを撮影装置に含めるようにした場合に送信されるデータを説明するための説明図である。 学習時の演算装置の動作を示すフローチャートである。 関節点推定時の演算装置の動作を示すフローチャートである。 学習装置により学習される関節点推定部の構成を示す図である。 関節点推定部の学習時のデータの流れを示す説明図である。
以下、図面を参照して、本発明の実施形態に係る演算装置の学習方法、学習装置、学習プログラム、および学習済みモデルについて説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
(第1実施形態)
図1は、第1実施形態に係る演算装置を含む演算システムの概略構成を示す図である。
演算システム10は、演算装置100、撮影装置200、通信ネットワーク300、および携帯端末400を有する。演算装置100は、通信ネットワーク300により撮影装置200および携帯端末400と相互に通信可能に接続される。演算装置100は、演算装置100を学習するための学習装置が実装され得る。学習装置は、演算装置100は別のコンピューターにより構成してもよい。以下の説明においては、演算装置100に、演算装置100を学習するための学習装置が含まれるものとして説明する。
演算装置100は、撮影装置200により撮影された画像(以下、単に「撮影画像」と称する)を、撮影装置200から受信し、撮影画像に含まれる、対象者500である人の関節点を、人の姿勢として推定する。演算装置100は、撮影画像から目的信号ある関節点を推定できるように学習される。学習には畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)による深層学習が含まれる。なお、学習には、深層学習以外のSVM(Support Vector Machine)およびRandom Forestが含まれ得る。演算装置100は、コンピューターにより構成される。演算装置100は、サーバーとして構成され得る。
撮影装置200は、たとえば近赤外線カメラにより構成され、所定の位置に設置されることで、当該所定の位置を視点として俯瞰される撮影領域を撮影する。すなわち、撮影装置200は、LED(Light Emitting Device)により近赤外線を撮影領域に向けて照射し、撮影領域内の物体により反射される近赤外線の反射光をCMOS(Complememtary Metal Oxide Semiconductor)センサーにより受光することで撮影領域を撮影し得る。撮影画像は近赤外線の反射率を各画素とするモノクロ画像であり得る。所定の位置は、たとえば対象者500の居室の天井である。撮影領域は、たとえば居室の床全体を含む3次元の領域である。撮影装置200は、たとえば15fps~30fpsのフレームレートの動画として撮影領域を撮影する。撮影画像には動画と静止画とを含む。撮影装置200は、撮影画像を演算装置100等に送信する。
撮影装置200は、センサーボックスにより構成し得る。この場合、演算装置100の機能の一部または全部をセンサーボックスが有するようにし得る。
通信ネットワーク300には、イーサネット(登録商標)などの有線通信規格によるネットワークインターフェースを使用し得る。通信ネットワーク300には、Bluetooth(登録商標)、IEEE802.11などの無線通信規格によるネットワークインターフェースを使用してもよい。通信ネットワーク300には、アクセスポイント310が設けられ、携帯端末400と、演算装置100および撮影装置200とを無線通信ネットワークにより通信可能に接続する。
携帯端末400は、演算装置100により推定された関節点を演算装置100から受信し、関節点を画像として表示する。携帯端末400は、たとえばスマートフォンにより構成され得る。携帯端末400は、撮影装置200から撮影画像を受信して表示してもよい。
図2は、演算装置の構成を示すブロック図である。演算装置100は、制御部110、記憶部120、表示部130、入力部140、および通信部150を有する。制御部110は、学習装置(以下、「学習制御部」とも称する)115を構成する。これらの構成要素は、バス160を介して相互に接続される。
制御部110は、CPU(Central Processing Unit)により構成され、プログラムにしたがって演算装置100の各部の制御および演算処理を行う。制御部110の機能の詳細については後述する。
記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、およびSSD(Solid State Drive)により構成され得る。RAMは、制御部110の作業領域として一時的にプログラムやデータを記憶する。ROMは、あらかじめ各種プログラムや各種データを格納する。SSDは、オペレーションシステムを含む各種プログラムおよび各種データを格納する。
表示部130は、たとえば液晶ディスプレイであり、各種情報を表示する。
入力部140は、たとえばタッチパネルや各種キーにより構成される。入力部140は、各種操作、入力のために使用される。
通信部150は、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いられ得る。その他、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースが用いられ得る。通信部150は、撮影装置200から撮影画像を受信する。また、通信部150は、携帯端末400へ、撮影画像から推定した関節点を送信する。
制御部110の機能の詳細について説明する。
図3は、演算装置の制御部の機能を示すブロック図である。制御部110は、画像取得部111、人矩形検出部112、関節点推定部113、出力部114、および学習制御部115を有する。
画像取得部111は、通信部150により撮影装置200から受信した撮影画像を取得する。
人矩形検出部112は、撮影画像における、対象者500の画像を含む領域を人矩形として検出する。人矩形は、撮影画像における対象者500の画像を含む矩形内の領域である。人矩形検出部112は、人矩形をニューラルネットワークを用いた公知の検出方法により検出し得る。人矩形は、人矩形背景差分法や時間差分法により検出されてもよい。
図4は、撮影画像および人矩形の例を示す図である。図4の例においては、魚眼レンズカメラによる全方位画像が撮影画像として示されている。
人矩形210は、太線の矩形で囲まれた領域として示されている。すなわち、人矩形210は、対象者500を含む矩形内の領域として検出される。
関節点推定部113は、人矩形210から関節点を推定する。関節点推定部113は、ニューラルネットワークにより構成される。
図5は、人の関節点の例を示す説明図である。図5においては、関節点119の位置が白抜きの丸により示されている。なお、関節点119間を結ぶ黒い太線は骨を示している。図5の例においては、関節点の相対的位置により、対象者500が立位で両腕を広げている姿勢が認識できる。関節点には、たとえば、頭、首、肩、肘、手、腰、腿、膝、および足の関節点が含まれる。関節点には、上記以外の関節点が含まれてもよく、上記のいずれかが含まれなくてもよい。
図6は、演算装置により推定された関節点の例を示す説明図である。図6の例においては、関節点119を人矩形210に重畳させて示している。
図6の例においては、関節点119から、対象者500が座位の姿勢にあることが認識できる。
関節点推定部113による関節点の推定方法については後述する。
学習制御部115は、関節点推定部113に関節点を推定するための学習を行わせる。
関節点推定部113の学習については後述する。
出力部114は、関節点推定部113により推定された関節点119を目的信号として出力する。出力された関節点119は表示部130に表示される。また、出力された関節点119は携帯端末400へ送信され、携帯端末400において表示され得る。
関節点推定部113の学習について説明する。
図7は、関節点推定部の第2オートエンコーダーの学習について説明するための説明図である。
図7に示すように、関節点推定部113は、第1オートエンコーダー113A、中間変換部113B、および第2オートエンコーダー113Cを含み、これらはそれぞれニューラルネットワークで構成され得る。第1オートエンコーダー113Aは第1変換部を構成する。中間変換部113Bおよび第2オートエンコーダー113Cは第2変換部を構成する。中間変換部113Bは第1副変換部を構成し、第2オートエンコーダー113Cは第2副変換部を構成する。
第2オートエンコーダー113Cは、第2デコーダーD2および第2エンコーダーE2を有し、目的信号である関節点yによって、表現学習により教師なし学習する。具体的には、第2エンコーダーE2により関節点yから関節点yより次元の低いベクトルである第2特徴量hに変換し、第2デコーダーD2により第2特徴量hを関節点yと同じ次元の関節点y’に変換する。これらの変換は、図7においてグレーの白抜きの矢印で示されている。そして、関節点yと関節点y’との差に対応するロスが小さくなるように第2エンコーダーE2および第2デコーダーD2を学習する。すなわち、関節点yと関節点y’とが一致するように第2エンコーダーE2および第2デコーダーD2を学習する。これにより、関節点の推定時に用いられる第2デコーダーD2が第2特徴量hから関節点y’を高精度に再現できるように学習される。なお、第2エンコーダーE2は、第2オートエンコーダー113Cの表現学習による教師なし学習のときにのみ用いられ、関節点の推定時は用いられない。
教師なし学習とは、出力すべき正解を与えられずに、入力されたデータに基づいて行う学習である。後述する教師あり学習とは、入力されたデータに対し出力すべき正解が与えられ、当該入力されたデータに対し当該正解が出力されるように行う学習である。教師あり学習に用いられる、入力されるデータと、当該データに対応する正解の組合せを教師データと称する。
関数fは、第2エンコーダーE2による変換を表現する関数であり、関節点yから第2特徴量hを算出するための関数である。関数fは、第2エンコーダーE2のニューラルネットワークの各層のノード間に付与された重み付けが反映されている。
関数gは、第2デコーダーD2による変換を表現する関数であり、第2特徴量hから関節点y’を算出するための関数である。関数gは、第2デコーダーD2のニューラルネットワークの各層のノード間に付与された重み付けが反映されている。
なお、一般的に、ニューラルネットワークの各層のノード間に与えられた重み付けを定義するデータを辞書と称し、辞書をニューラルネットワークに反映させることで、ニューラルネットワークを、学習後のニューラルネットワークである学習済みモデルとすることができる。
第2オートエンコーダー113Cの教師なし学習は、目的信号である関節点の正解であるyを用いて行われる。なお、後述するように、目的信号である関節点の正解であるyは、当該正解である関節点119に対応する人矩形210と関連付けられて記憶部120に記憶されている。
第2オートエンコーダー113Cの学習は、たとえば演算装置100の出荷前に実行され得る。一方、第1オートエンコーダー113Aおよび中間変換部113Bの学習は、演算装置100の出荷後に実行される。したがって、第2オートエンコーダー113Cの学習は、後述する、第1オートエンコーダー113Aおよび中間変換部113Bの学習の前に実行される。
図8は、関節点推定部の第1オートエンコーダーの学習について説明するための説明図である。
第1オートエンコーダー113Aは、第1エンコーダーE1および第1デコーダーD1を有し、人矩形xによって、表現学習により教師なし学習する。具体的には、第1エンコーダーE1により人矩形xから人矩形xより次元の低いベクトルである第1特徴量hに変換し、第1デコーダーD1により第1特徴量hを人矩形xと同じ次元の人矩形x’に変換する。これらの変換は、図8においてグレーの白抜きの矢印で示されている。そして、人矩形xと人矩形x’との差に対応するロスが小さくなるように第1エンコーダーE1および第1デコーダーD1を学習する。すなわち、人矩形xと人矩形x’とが一致するように第1エンコーダーE1および第1デコーダーD1を学習する。これにより、関節点の推定時に用いられる第1エンコーダーE1が人矩形xの特徴を第1特徴量hとして適切に抽出できるように学習される。なお、第1デコーダーD1は、第1オートエンコーダー113Aの表現学習による教師なし学習の際にのみ用いられ、関節点の推定時は用いられない。
関数fは、第1エンコーダーE1による変換を表現する関数であり、人矩形xから第1特徴量hを算出するための関数である。関数fは、第1エンコーダーE1のニューラルネットワークの各層のノード間に付与された重み付けが反映されている。
関数gは、第1デコーダーD1による変換を表現する関数であり、第1特徴量hから人矩形x’を算出するための関数である。関数gは、第1デコーダーD1のニューラルネットワークの各層のノード間に付与された重み付けが反映されている。
第1オートエンコーダー113Aの教師なし学習は、目的信号である関節点119の正解(すなわちy)がある人矩形xと、目的信号である関節点の正解がない人矩形xとを用いて行われる。これは、第2オートエンコーダー113Cを関節点119の正解を用いて教師なし学習する一方で、第1オートエンコーダー113Aが関節点119の正解がない人矩形xのみで教師なし学習すると、次のような不具合が生じる可能性があるからである。すなわち、学習後の第1オートエンコーダー113Aにより関節点119の正解がある人矩形xを変換することで得られた第1特徴量hが適切な値とならない可能性があるからである。具体的には、関節点119の正解がある人矩形xを変換することで得られた第1特徴量hを第1デコーダD1で変換した人矩形x’が、元の人矩形xと大きく異なる可能性がある。
図9は、関節点推定部の中間変換部の学習について説明するための説明図である。
中間変換部113Bは、第1特徴量hおよび第2特徴量hの組み合わせの教師データにより教師あり学習する。教師データとして用いられる第1特徴量hは、学習後の第1エンコーダーE1により関節点の正解がある人矩形xを変換して得られる第1特徴量hである。教師データとして用いられる第2特徴量hは、目的信号である関節点119の正解yを、学習後の第2エンコーダーE2により変換して得られる第2特徴量hである。中間変換部113Bの変換は、図9においてグレーの矢印で示されている。
以下、図7~9を参照した説明と整合させて、人矩形をxまたはx’の符号を付して説明し、関節点をyまたはy’の符号を付して説明する。
上述したように、第1オートエンコーダー113Aの学習は、演算装置100の出荷後に実行される。しかし、目的信号である関節点119の正解yがある人矩形xと、目的信号である関節点119の正解yがない人矩形xとを用いる学習のうち、関節点119の正解yがある人矩形xを用いる学習は、プレトレーニングとして演算装置100の出荷前に実行され得る。これにより、演算装置100の出荷後に、演算装置100が設置される施設等において、演算装置100を学習するのに適した初期値となり、学習効率を向上できる。
目的信号である関節点119の正解yがある人矩形xを用いる第1オートエンコーダー113Aの学習は、関節点119の正解yがない人矩形xが撮影される状態や、関節点119の正解yがない人矩形xの画像の特徴が近い人矩形xを用いて行うことが望ましい。人矩形xが撮影される状態には、撮影装置200が設置される高さおよび位置や、撮影装置200が設置される部屋の明るさ等が含まれる。人矩形xの画像の特徴には、画素の輝度の分布や平均、ならびに人矩形xに含まれる対象者500の服の色やデザイン等が含まれる。これにより、第1オートエンコーダー113Aの学習効率を向上できるとともに、演算装置100による関節点119の推定精度を向上できる。
図10は、学習制御部による関節点推定部の学習時のデータの流れを示す説明図である。
記憶部120は、関節点119の正解yがある人矩形xと当該正解yとの組合せが保存されるデータベース121と、関節点119の正解yがない人矩形xが保存されるデータベース122を有する。
第2オートエンコーダー113Cの学習の際は、学習制御部115(図3参照)は、データベース121から、関節点119の正解yがある人矩形xの当該正解である関節点yを読み出し、第2オートエンコーダー113Cに、読み出した関節点yにより、教師なし学習を実行させる。
第1オートエンコーダー113Aの学習の際は、学習制御部115は、データベース121から関節点119の正解yがある人矩形xを読み出し、データベース122から関節点119の正解yがない人矩形xを読み出す。学習制御部115は、読み出した正解がある人矩形xと、正解がない人矩形xにより、第1オートエンコーダー113Aに、教師なし学習を実行させる。
中間変換部113Bの学習の際は、学習制御部115は、第1特徴量hと第2特徴量hの組合せを教師データとして中間変換部113Bに教師あり学習させる。教師あり学習に用いられる教師データの一方である第1特徴量hは、学習後の第1変換部113Aにより、関節点119の正解yがある人矩形xが変換されることで得られた第1特徴量hである。教師データの他方である第2特徴量hは、当該得られた第1特徴量hに、学習後の第1変換部113Aにより変換された、人矩形xに対応する関節点119の正解yが、学習後の第2変換部113Cにより変換されることで得られた第2特徴量hである。
関節点推定部113による関節点の推定について説明する。
図11は、関節点推定部による推定について説明するための説明図である。
第1オートエンコーダー113Aの第1エンコーダーE1は、人矩形xを第1特徴量hに変換する。中間変換部113Bは、第1エンコーダーE1により人矩形xが変換されることで得られた第1特徴量hを第2特徴量hに変換する。第2オートエンコーダー113Cの第2デコーダーD2は、中間変換部113Bにより第1特徴量hが変換されることで得られる第2特徴量hを目的信号である関節点y’に変換して出力する。これにより、人矩形xから関節点y’が推定される。
図12は、第1オートエンコーダーを撮影装置に含めるようにした場合に送信されるデータを説明するための説明図である。
撮影装置200をセンサーボックスにより構成する場合等においては、第1オートエンコーダー113Aを撮影装置200に含めるようにし得る。図12の例においては、第1オートエンコーダー113Aが撮影装置200に含まれるため、白抜きのグレーの実線の矢印で示すように、撮影装置200において、人矩形xが、人矩形xより次元の小さい第1特徴量hに圧縮される。これにより、撮影装置200から演算装置100へ人矩形xを送信する場合と比較して、撮影装置200から演算装置100へ第1特徴量hを送信するようにすることで、撮影装置200から演算装置100への通信量を抑制できる。すなわち、たとえば撮影装置200をセンサーボックス(エッジ)で構成し、演算装置100をサーバーとして構成した場合に、センサーボックスとサーバーとの通信に利用されるネットワークへの負荷を抑制できる。図12においては、撮影装置200内で処理されるデータが白抜きのグレーの実線の矢印で示され、撮影装置200から演算装置100へ送信されるデータおよび演算装置100内で処理されるデータが白抜きのグレーの破線の矢印で示されている。
演算装置100の動作について説明する。
図13は、学習時の演算装置の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムにしたがい、制御部110(より詳細には、学習制御部115)により実行される。
制御部110は、人矩形xに対応する関節点119の正解yを用いて、第2オートエンコーダー113Cを、表現学習により教師なし学習する(S101)。なお、本ステップは、演算装置100の出荷前に実行され得る。次のステップS102以降は、演算装置100が出荷された後、撮影装置200が所定の場所に設置され、撮影装置200から演算装置100へ撮影画像が送信される状態になった時以降に実行される。
制御部110は、撮影装置200により撮影された撮影画像を取得する(S102)。
制御部110は、所得した撮影画像から人矩形xを検出する(S103)。
制御部110は、検出した人矩形xを、関節点119の正解yがない人矩形xとして記憶部120に保存する(S104)。
制御部110は、関節点119の正解yがある人矩形x、および関節点119の正解yがない人矩形xを用いて、第1オートエンコーダー113Aを表現学習により教師なし学習する(S105)。
制御部110は、学習後の第1エンコーダーE1が関節点119の正解yがある人矩形xを変換して得られる第1特徴量hと、学習後の第2エンコーダーE2が当該人矩形xに対する正解を変換して得られる第2特徴量hとの組合せにより中間変換部113Bを教師あり学習する(S106)。
図14は、関節点推定時の演算装置の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムにしたがい、制御部110により実行される。
制御部110は、撮影装置200により撮影された撮影画像を取得する(S201)。
制御部110は、撮影画像から人矩形xを検出する(S202)。
制御部110は、学習後の第1エンコーダーE1により人矩形xを第1特徴量hに変換する(S203)。
制御部110は、学習後の第1エンコーダーE1により人矩形xが変換されることで得られた第1特徴量hを、学習後の中間変換部113Bにより第2特徴量hに変換する(S204)。
制御部110は、学習後の中間変換部113Bにより第1特徴量hが変換されることで得られた第2特徴量hを、学習後の第2デコーダーD2により目的信号である関節点y’に変換して出力する(S205)。
(第2実施形態)
図15は、第2実施形態に係る学習装置により学習される関節点推定部の構成を示す図である。本実施形態と第1実施形態とで異なる点は、本実施形態は、関節点推定部113が、第1オートエンコーダー113Aと後段変換部113Dで構成される点である。その他の点については、本実施形態は第1実施形態と同様であるため、重複となる説明は省略または簡略化する。
図15に示すように、関節点推定部113は、第1オートエンコーダー113Aと後段変換部113Dを有する。第1オートエンコーダー113Aは第1変換部を構成し、後段変換部113Dは第2変換部を構成する。後段変換部113Dはニューラルネットワークで構成され得る。後段変換部113Dは、SVM(Support Vector Machine)等のニューラルネットワーク以外の機械学習を用いる構成としてもよい。
なお、後段変換部113Dを、第1実施形態の中間変換部113Bおよび第2オートエンコーダー113Cにより構成することも観念し得る。このように考えると、第1実施形態は本実施形態の下位概念の実施形態とも言える。
関節点推定部113の学習について説明する。
第1オートエンコーダー113Aは、第1エンコーダーE1および第1デコーダーD1を有し、人矩形xによって、表現学習により教師なし学習する。具体的には、第1エンコーダーE1により人矩形xから人矩形xより次元の低いベクトルである特徴量hに変換し、第1デコーダーD1により特徴量hを人矩形xと同じ次元の人矩形x’に変換する。そして、人矩形xと人矩形x’との差に対応するロスが小さくなるように第1エンコーダーE1および第1デコーダーD1を学習する。これにより、関節点119の推定時に用いられる第1エンコーダーE1が人矩形xの特徴を特徴量hとして適切に抽出できるように学習される。なお、第1デコーダーD1は、第1オートエンコーダー113Aの表現学習による教師なし学習の際にのみ用いられ、関節点119の推定時は用いられない。
関数fは、第1エンコーダーE1による変換を表現する関数であり、人矩形xから特徴量hを算出するための関数である。関数fは、第1エンコーダーE1のニューラルネットワークの各層のノード間に付与された重み付けが反映されている。
関数gは、第1デコーダーD1による変換を表現する関数であり、特徴量hから人矩形x’を算出するための関数である。関数gは、第1デコーダーD1のニューラルネットワークの各層のノード間に付与された重み付けが反映されている。
第1オートエンコーダー113Aの教師なし学習は、目的信号である関節点119の正解yがある人矩形xと、目的信号である関節点119の正解yがない人矩形xとを用いて行われる。
後段変換部113Dは、特徴量hおよび目的信号である関節点119の正解yの組み合わせの教師データにより教師あり学習する。教師データとして用いられる特徴量hは、学習後の第1エンコーダーE1により関節点119の正解yがある人矩形210を変換して得られた特徴量hである。教師データとして用いられる関節点の正解yは、得られた特徴量hに変換された人矩形xに対応する関節点の正解yである。
関節点推定部113による関節点119の推定について説明する。
第1オートエンコーダー113Aの第1エンコーダーE1は、人矩形xを特徴量hに変換する。後段変換部113Dは、第1エンコーダーE1により人矩形xが変換されることで得られた特徴量hを目的信号である関節点y’に変換して出力する。これにより、人矩形xから関節点y’が推定される。
図16は、関節点推定部の学習時のデータの流れを示す説明図である。
記憶部120は、関節点119の正解yがある人矩形xと当該正解yとの組合せが保存されるデータベース121と、関節点119の正解yがない人矩形210が保存されるデータベース122を有する。
第1オートエンコーダー113Aの学習の際は、学習制御部115は、データベース121から関節点119の正解yがある人矩形xを読み出し、データベース122から関節点119の正解yがない人矩形210を読み出す。学習制御部115は、第1オートエンコーダー113Aに、読み出した人矩形xにより、教師なし学習させる。
後段変換部113Dの学習の際は、学習制御部115は、特徴量hおよび目的信号である関節点119の正解yの組合せの教師データにより、後段変換部113Dに教師あり学習させる。教師データとして用いられる特徴量hは、学習後の第1エンコーダーE1により関節点119の正解yがある人矩形xを変換して得られた特徴量hである。教師データとして用いられる関節点の正解yは、得られた特徴量hに変換された人矩形xに対応する関節点の正解yである。
再び図15を参照して、関節点推定部113による関節点の推定について説明する。
第1オートエンコーダー113Aの第1エンコーダーE1は、人矩形xを特徴量hに変換する。後段変換部113Dは、第1エンコーダーE1により人矩形xが変換されることで得られた特徴量hを目的信号である関節点y’に変換して出力する。これにより、人矩形xから関節点119が推定される。
本発明に係る実施形態は、以下の効果を奏する。
画像を特徴量に変換する第1変換部、および当該特徴量を目的信号に変換する第2変換部を備える演算装置に対し、目的信号の正解がある画像と正解がない画像とで第1変換部を教師なし学習する。そして、正解がある画像が学習後の第1変換部で変換された特徴量と、当該正解の目的信号と、により第2変換部を教師あり学習する。これにより、画像を撮影する場所等が変化しても関節点の推定精度を向上できるとともに、新たな場所等で未学習の学習データを学習する際の作業量を低減できる。
さらに、第1変換部を、画像から検出された人矩形を第1特徴量に変換するニューラルネットワークとする。第2変換部に、第1特徴量を第2特徴量に変換するニューラルネットワークの第1副変換部と、第2特徴量を関節点の目的信号に変換して出力するニューラルネットワークの第2副変換部を含める。第1変換部を、目的信号の正解がある人矩形と、目的信号の正解がない前記人矩形とを用いて教師なし学習する。第2変換部を、学習後の第1変換部により目的信号の正解がある人矩形を変換して得られる第1特徴量と、当該矩形波に対応する目的信号の正解に、学習後の第2副変換部により変換される第2特徴量と、の組合せを教師データとして教師あり学習する。これにより、画像を撮影する場所等が変化しても関節点の推定精度をより向上できる。
さらに、第1変換部および第2副変換部をそれぞれオートエンコーダーにより構成する。これにより、画像を撮影する場所等が変化しても関節点の推定精度をさらに効果的に向上できる。
本発明は上述した実施形態に限定されない。
たとえば、実施形態においてプログラムにより実行される処理の一部または全部を回路などのハードウェアに置き換えて実行されてもよい。
本出願は、2018年4月5日に出願された日本特許出願(特願2018-073132号)に基づいており、その開示内容は、参照され、全体として、組み入れられている。
10 演算システム、
100 演算装置(学習装置)、
110 制御部、
111 画像取得部、
112 人矩形検出部、
113 関節点推定部、
113A 第1オートエンコーダー、
113B 中間変換部、
113C 第2オートエンコーダー、
114 出力部、
115 学習制御部、
119 関節点、
120 記憶部、
130 表示部、
140 入力部、
150 通信部、
200 撮影装置、
210 人矩形、
300 通信ネットワーク、
310 アクセスポイント、
400 携帯端末、
500 対象者。

Claims (7)

  1. 撮影された画像を目的信号に変換して出力する演算装置の学習方法であって、
    前記演算装置は、
    第1エンコーダーと第1デコーダーとを含む第1オートエンコーダーと、
    第1副変換部と、
    第2エンコーダーと第2デコーダーとを含む第2オートエンコーダーと、を有し、
    前記第1エンコーダーは前記画像を第1特徴量に変換し、前記第1副変換部は前記第1特徴量を第2特徴量に変換し、前記第2デコーダーは前記第2特徴量を前記目的信号に変換し、
    前記第2エンコーダーが前記目的信号の正解を変換することで得られた前記第2特徴量が前記第2デコーダーにより変換された前記目的信号と、前記第2エンコーダーにより変換される前の前記目的信号の正解とを用いて前記第2オートエンコーダーを表現学習により教師なし学習する段階(c)と、
    前記目的信号の正解がある前記画像と、前記目的信号の正解がない前記画像とを用いて前記第1オートエンコーダーを表現学習により教師なし学習する段階(a)と、
    前記段階(a)で教師なし学習した後の前記第1エンコーダーにより前記目的信号の正解がある前記画像を変換して得られる前記第1特徴量と、得られた前記第1特徴量に前記第1エンコーダーにより変換される前の前記画像に対応する前記目的信号の正解が、前記段階(c)における学習後の前記第2エンコーダーにより変換されることで得られる前記第2特徴量と、の組合せを教師データとして前記第1副変換部を教師あり学習する段階(b)と、
    を有する、演算装置の学習方法。
  2. 前記目的信号は関節点であり、
    前記画像は人の画像を含む人矩形であり、
    前記演算装置は、画像から前記人矩形を検出する検出部をさらに有する、
    請求項1に記載の演算装置の学習方法。
  3. 前記段階(c)は、前記第2エンコーダーが前記目的信号の正解を変換することで得られた前記第2特徴量を前記第2デコーダーが前記目的信号に変換し、前記第2エンコーダーによる変換前の前記目的信号の正解と前記第2デコーダーによる変換後の前記目的信号とが一致するように、前記第2エンコーダーおよび前記第2デコーダーを表現学習により教師なし学習させ、
    前記段階(a)は、前記第1エンコーダーにより、前記目的信号の正解がある前記人矩形と前記目的信号の正解がない前記人矩形とがそれぞれ変換された前記第1特徴量を、それぞれ前記第1デコーダーにより前記人矩形に変換し、前記第1エンコーダーによる変換前の前記人矩形と前記第1デコーダーによる変換後の前記人矩形とを一致させるように前記第1エンコーダーおよび前記第1デコーダーを表現学習により教師なし学習させ、
    前記段階(b)は、前記段階(a)で教師なし学習した後の前記第1エンコーダーにより前記目的信号の正解がある前記人矩形を変換して得られる前記第1特徴量と、得られた前記第1特徴量に前記第1エンコーダーにより変換される前の前記人矩形に対応する前記目的信号の正解に、前記段階(c)における学習後の前記第2エンコーダーにより変換されることで得られる前記第2特徴量と、の組合せを教師データとして前記第1副変換部を教師あり学習させる、
    請求項2に記載の演算装置の学習方法。
  4. 撮影された画像を目的信号に変換して出力する演算装置を学習させるための学習装置であって、
    前記演算装置は、
    第1エンコーダーと第1デコーダーとを含む第1オートエンコーダーと、
    第1副変換部と、
    第2エンコーダーと第2デコーダーとを含む第2オートエンコーダーと、を有し、
    前記第1エンコーダーは前記画像を第1特徴量に変換し、前記第1副変換部は前記第1特徴量を第2特徴量に変換し、前記第2デコーダーは前記第2特徴量を前記目的信号に変換し、
    前記第2エンコーダーが前記目的信号の正解を変換することで得られた前記第2特徴量が前記第2デコーダーにより変換された前記目的信号と、前記第2エンコーダーにより変換される前の前記目的信号の正解とを用いて、前記第2オートエンコーダーを表現学習により教師なし学習させ、
    前記目的信号の正解がある前記画像と、前記目的信号の正解がない前記画像とを用いて、前記第1オートエンコーダーを表現学習により教師なし学習させ、
    教師なし学習した後の前記第1エンコーダーにより前記目的信号の正解がある前記画像を変換して得られる前記第1特徴量と、得られた前記第1特徴量に前記第1エンコーダーにより変換される前の前記画像に対応する前記目的信号の正解に、学習後の前記第2エンコーダーにより変換されることで得られる前記第2特徴量と、の組合せを教師データとして前記第1副変換部を教師あり学習させる学習制御部を有する、学習装置。
  5. 前記目的信号は関節点であり、
    前記画像は人の画像を含む人矩形であり、
    前記演算装置は、画像から前記人矩形を検出する検出部をさらに有する、
    請求項4に記載の学習装置。
  6. 前記学習制御部は、
    前記第2エンコーダーが前記目的信号の正解を変換することで得られた前記第2特徴量を前記第2デコーダーが前記目的信号に変換し、前記第2エンコーダーによる変換前の前記目的信号の正解と前記第2デコーダーによる変換後の前記目的信号とが一致するように、前記第2エンコーダーおよび前記第2デコーダーを、表現学習により教師なし学習させ、
    前記第1エンコーダーにより、前記目的信号の正解がある前記人矩形と前記目的信号の正解がない前記人矩形とがそれぞれ変換された前記第1特徴量を、それぞれ前記第1デコーダーにより前記人矩形に変換し、前記第1エンコーダーによる変換前の前記人矩形と前記第1デコーダーによる変換後の前記人矩形とを一致させるように前記第1エンコーダーおよび前記第1デコーダーを表現学習により教師なし学習させた後、学習後の前記第1エンコーダーにより、前記関節点の目的信号の正解がある前記人矩形を変換して得られる前記第1特徴量と、得られた前記第1特徴量に前記第1エンコーダーにより変換される前の前記人矩形に対応する前記目的信号の正解に、学習された前記第2エンコーダーにより変換されることで得られる前記第2特徴量と、の組合せを教師データとして前記第1副変換部を教師あり学習させる、
    請求項5に記載の学習装置。
  7. 請求項1~3のいずか一項に記載の、演算装置の学習方法をコンピューターに実行させるための学習プログラム。
JP2020511657A 2018-04-05 2019-03-05 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル Active JP7211415B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018073132 2018-04-05
JP2018073132 2018-04-05
PCT/JP2019/008635 WO2019193899A1 (ja) 2018-04-05 2019-03-05 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル

Publications (2)

Publication Number Publication Date
JPWO2019193899A1 JPWO2019193899A1 (ja) 2021-04-01
JP7211415B2 true JP7211415B2 (ja) 2023-01-24

Family

ID=68100608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020511657A Active JP7211415B2 (ja) 2018-04-05 2019-03-05 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル

Country Status (2)

Country Link
JP (1) JP7211415B2 (ja)
WO (1) WO2019193899A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183561B (zh) * 2020-11-09 2024-04-30 山东中医药大学 一种用于图像特征提取的联合融减自动编码器算法
CN115428011A (zh) * 2021-03-12 2022-12-02 奥林巴斯株式会社 估计用学习装置和估计用学习方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212688A (ja) 2015-05-11 2016-12-15 日本電信電話株式会社 関節位置推定装置、方法、及びプログラム
JP2018049355A (ja) 2016-09-20 2018-03-29 株式会社東芝 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156451A (ja) * 2017-03-17 2018-10-04 株式会社東芝 ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212688A (ja) 2015-05-11 2016-12-15 日本電信電話株式会社 関節位置推定装置、方法、及びプログラム
JP2018049355A (ja) 2016-09-20 2018-03-29 株式会社東芝 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム

Also Published As

Publication number Publication date
JPWO2019193899A1 (ja) 2021-04-01
WO2019193899A1 (ja) 2019-10-10

Similar Documents

Publication Publication Date Title
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
JP7211415B2 (ja) 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル
CN113066017A (zh) 一种图像增强方法、模型训练方法及设备
JP2022553252A (ja) 画像処理方法、画像処理装置、サーバ、及びコンピュータプログラム
US11423630B1 (en) Three-dimensional body composition from two-dimensional images
KR102436906B1 (ko) 대상자의 보행 패턴을 식별하는 방법 및 이를 수행하는 전자 장치
JP2022536790A (ja) 人物の単眼深度推定のための方法およびシステム
US12020374B2 (en) Body shape and pose estimation via volumetric regressor for raw three dimensional scan models
KR102410286B1 (ko) 딥러닝에 기반하여 낙상 사고를 감지하는 방법 및 그 전자장치
US20190122117A1 (en) Learning device, non-transitory computer readable storage medium, and learning method
KR20210155655A (ko) 이상 온도를 나타내는 객체를 식별하는 방법 및 장치
KR102274581B1 (ko) 개인화된 hrtf 생성 방법
CN111246177A (zh) 一种用户安全告警提示方法及系统
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2020091658A (ja) 撮像情報管理システム、撮像情報管理システムの制御方法及び撮像情報管理プログラム
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
CN113449564B (zh) 基于人体局部语义知识的行为图像分类方法
US11887252B1 (en) Body model composition update from two-dimensional face images
JP7528637B2 (ja) 機械学習装置及び遠赤外線撮像装置
CN112766168B (zh) 一种人员摔倒检测方法、装置及电子设备
US20220327733A1 (en) Information processing device, information processing method, and program
JP7124746B2 (ja) 物体の部分位置推定プログラム、物体の部分位置推定用ニューラルネットワーク構造、物体の部分位置推定方法、および物体の部分位置推定装置
WO2023195305A1 (ja) 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム
JP7443990B2 (ja) 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム
US11854146B1 (en) Three-dimensional body composition from two-dimensional images of a portion of a body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221111

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221124

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7211415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150