JP7262312B2 - 移動体識別装置、移動体識別方法及びプログラム - Google Patents

移動体識別装置、移動体識別方法及びプログラム Download PDF

Info

Publication number
JP7262312B2
JP7262312B2 JP2019104898A JP2019104898A JP7262312B2 JP 7262312 B2 JP7262312 B2 JP 7262312B2 JP 2019104898 A JP2019104898 A JP 2019104898A JP 2019104898 A JP2019104898 A JP 2019104898A JP 7262312 B2 JP7262312 B2 JP 7262312B2
Authority
JP
Japan
Prior art keywords
imaging
machine learning
moving object
feature amount
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019104898A
Other languages
English (en)
Other versions
JP2020198004A (ja
Inventor
健太 玉置
豊 江崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019104898A priority Critical patent/JP7262312B2/ja
Publication of JP2020198004A publication Critical patent/JP2020198004A/ja
Application granted granted Critical
Publication of JP7262312B2 publication Critical patent/JP7262312B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、地球周辺の宇宙空間を移動している移動体を識別する移動体識別装置、移動体識別方法及びプログラムに関する。
地球周辺の宇宙空間において、人工衛星、国際宇宙ステーションを含む多数の移動体が存在している。人工衛星は地球の周囲を周回する軌道上に、人工的に打ち上げられた衛星であり、サービス提供、観測又は監視を目的として運用されている。人工衛星は多くの種類を有し、例えば、通信衛星、気象衛星又は偵察衛星がある。このような移動体は、形状及び姿勢から、移動体の種類、及び、サービス対象エリアあるいは観測又は監視エリアを識別できる。
移動体を観測するための光学望遠鏡を用いた観測装置がある(例えば、特許文献1)。このような観測装置は、光学望遠鏡を用いて撮像した撮像画像に基づいて移動体を識別する機能を有する。
特許文献1に記載の移動体識別装置は、撮像された画像から移動体の位置及び輝度を算出しておき、複数の移動体に関する各時刻での位置及び輝度と、識別対象の移動体の位置及び輝度とを照合し、その照合結果に基づいて対象の移動体を識別する。これにより、移動体の放射光又は反射光の輝度が小さい時間帯でも、移動体を識別することができると説明されている。
また、撮像画像から対象物を識別する場合、機械学習により識別する方法も知られている(例えば、特許文献2)。機械学習とは大量のサンプルデータ及びその正解ラベルを用いた学習により特徴を捉え、新しいデータに対して予測又は決定を行う演算処理である。機械学習の画像識別においては、画像データと、その画像が何を表現しているかを示す正解ラベルと、の組み合わせである学習データを用いる。多様かつ大量の学習データが与えられることで学習モデルが汎化され、未知の入力画像に対して対象物を識別することができる。
特許文献2に記載の識別方法は、画像データの撮像条件を取得し、互いに異なる複数の撮像条件それぞれに対する学習データを用いて学習した複数の識別器を備え、取得した撮像条件に応じた識別器を用いて、取得した画像データに表現されている対象物を識別する方法である。これにより、高い精度により対象物を識別できると説明されている。
特開2017-072888号公報 特開2018-081404号公報
光学望遠鏡で移動体を撮像したときの撮像画像は、大気揺らぎの影響を受け不明瞭になる場合がある。また、撮像する地点、移動体及び太陽の3つの位置関係を含む撮像条件により、撮像された移動体の形状も大きく変わる。このため、特許文献1のように、位置及び輝度が近似した移動体の識別を誤る可能性があるという課題があった。
また、機械学習には大量のサンプルデータが必要であるが、宇宙空間の移動体の撮像機会は多くない。このため、特許文献2のように、撮像条件に応じて識別器を変更する構成は、それぞれの識別器で用いる学習データを十分に取得するのが困難であった。
また、宇宙空間の移動体は、撮像時の条件により撮像画像における形状変化が大きい。したがって、撮像画像データのみの入力による機械学習では、同じ正解ラベルの画像の形状変化が大きいため、学習が収束しない可能性があり、機械学習による移動体の識別は、実現が難しいという課題があった。
本発明は、上述のような事情に鑑みてなされたものであり、任意の撮像条件の撮像画像から、高い精度で移動体を識別することのできる移動体識別装置、移動体識別方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明の移動体識別装置は、識別対象の移動体を撮像するときの撮像日及び撮像時刻を含む撮像条件から特徴量を導出する特徴量導出部と、特徴量導出部が導出した特徴量と、撮像条件にて撮像した撮像画像に基づいて、機械学習により得られた学習済みモデルを用いて移動体を識別する移動体識別部と、を備える。そして、学習済みモデルは、予め取得した撮像データに含まれる撮像条件から導出した特徴量及び撮像データに含まれる撮像画像を用いた機械学習により得られることを特徴とする。
本発明によれば、撮像画像における移動体の形状との関連性が高い撮像条件の情報を含めて機械学習した学習済みモデルを用いるため、任意の撮像条件の撮像画像から、高い精度で移動体を識別することが可能になる。
本発明の実施の形態に係る機械学習用計算機の構成例を示すブロック図 本発明の実施の形態に係る移動体識別装置の構成例を示すブロック図 撮像地点と移動体と太陽の位置関係を示す図 撮像地点と移動体と太陽の位置関係を示す図 撮像地点と移動体と太陽の位置関係を示す図 機械学習用計算機のアクティビティ図 移動体識別装置のアクティビティ図
(実施の形態)
以下に、本発明を実施するための形態について図面を参照して詳細に説明する。なお、図中同一又は相当する部分には同じ符号を付す。
図1は、この発明の実施の形態に係る移動体識別装置1で用いる学習済みモデル113を生成するための機械学習用計算機100の構成例を示すブロック図である。機械学習用計算機100は、移動体識別装置1の移動体識別動作を行う前に、予め取得した撮像データ111に基づいて機械学習を実行し学習済みモデル113を生成する計算機である。
図2は、本実施の形態に係る移動体識別装置1の構成例を示すブロック図である。移動体識別装置1は、移動体11の画像を撮像する光学望遠鏡200と、光学望遠鏡200が撮像した撮像画像に基づいて移動体11を識別する識別用計算機300と、を備える。なお、移動体11は、地球周辺の宇宙空間を移動する任意の移動体であり、例えば、人工衛星、国際宇宙ステーションである。
まず、機械学習用計算機100について詳細に説明する。機械学習用計算機100は、図1に示すように、撮像データ111、機械学習モデル112、学習済みモデル113を含む各種データを記憶する記憶部110と、撮像データ111に基づいて機械学習を実行して機械学習モデル112及び学習済みモデル113を生成する演算部120と、を備える。
記憶部110は、任意の記憶装置であり、例えば、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)を含む不揮発性半導体メモリ、又は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)である。
一般に、画像識別のための機械学習に用いる入力データは、画像とその画像が示す対象の識別情報に対応づけられた正解ラベルのセットである。本実施の形態においては、撮像データ111が機械学習に用いる入力データベースである。撮像データ111は、移動体11を撮像した撮像画像と、撮像時の条件である撮像条件と、正解ラベルと、を互いに対応づけたデータセットを含むことを特徴としている。
撮像データ111が撮像条件を含む理由は、光学望遠鏡200を用いた移動体11の撮像画像が、撮像条件により大きく変化するからである。より詳細には、移動体11の撮像可能な形状は太陽光により照射されている部分であり、撮像により移動体11の全形状を取得することはできない。このため、撮像地点、移動体11、太陽12の3つの位置関係と移動体11の撮像画像とは相関性がある。よって、精度の高い機械学習を実行するため、機械学習の入力データとして演算部120に入力される撮像データ111は、撮像地点、移動体11、太陽12の3つの位置関係を示す撮像条件を含む。
演算部120による機械学習の結果得られた学習済みモデル113は、撮像地点、移動体11、太陽12の3つの位置関係に対応づけられて生成されたモデルである。記憶部110は、演算部120が実行する機械学習のプログラムも記憶している。
演算部120は、任意の演算処理装置であり、例えば、CPU(Central Processing Unit)又はGPU(Graphics Processing Unit)である。演算部120は、記憶部110に格納されるプログラムを実行することにより、撮像条件に基づいて特徴量を導出する特徴量導出部121と、撮像データ111に含まれる撮像画像及び正解ラベルならびに特徴量導出部121が導出した特徴量に基づいて機械学習を実行する機械学習部122として機能する。
特徴量導出部121が撮像条件から導出する特徴量は、光学望遠鏡200が位置する撮像地点、移動体11、太陽12の3つの位置関係を示すものである。このような特徴量を機械学習に用いる理由は、撮像画像における移動体11の形状が、撮像地点、移動体11、太陽12の3つの位置関係と相関があるためである。特徴量導出部121が導出する特徴量は、例えば、地球13上の撮像地点と、移動体11の中心と、太陽12の中心の3点が形成する三角形の内角である。撮像地点、移動体11、太陽12の3つの位置関係について説明する。図3から図5は、撮像地点と移動体11と太陽12の位置関係を示す図である。
光学望遠鏡200で撮像対象を撮像する場合、撮像対象が光を発するかあるいは光を反射している必要がある。移動体11の面のうち、太陽光が照射されている面が明るく現れ、照射されていない面は影となる。よって、宇宙空間の移動体11を光学望遠鏡200が撮像すると、明るい面は影の面に比べて、形状又は色を含む特徴が明確に現れる。
例えば、図3のように移動体11が地球13上の撮像地点と太陽12の中間に位置する場合、撮像画像において、一部の明るい部分Pのみの移動体11の形状が得られる。一方、図4のように移動体11に対して地球13上の撮像地点と太陽12が同方向に位置する場合、移動体11の大部分を占める明るい部分Qの形状が得られる。
図5は、地球13上の撮像地点をA、移動体11の中心をB、太陽12の中心をCとしたときの、3点の位置関係を表している。Cは太陽12の位置であり、辺AC及び辺BCは辺ABに対して十分に長いため、∠Cは0度に近い。よって、三角形ABCの内角である∠Aと∠Bの和は180度に近似できる。
図3のように、移動体11が地球13上の撮像地点と太陽12の中間に位置し、移動体11の一部しか観測できない場合は、∠Bが鈍角である。そして、∠Aは(180°-∠B)に近似できるため鋭角となる。一方、図4のように、移動体11に対して地球13上の撮像地点と太陽12が同方向に位置し、移動体11の大部分が観測できる場合は、∠Bが鋭角である。このため∠Aは鈍角となる。よって、∠Aの大きさにより撮像できる移動体11の面を特徴づけることができる。つまり、特徴量導出部121は、∠Aの大きさを特徴量として導出してもよい。
∠Aの大きさは、光学望遠鏡200から移動体11を撮像するときの方位角及び仰角αと、太陽12の方位角及び高度βと、から求めることができる。例えば、図5に示すように、移動体11と太陽12の方位角が同じ場合は、光学望遠鏡200の仰角αから太陽12の高度βを引いた角度が∠Aの大きさになる。
機械学習部122は、撮像データ111に含まれる撮像画像及び正解ラベルと、特徴量導出部121が導出した特徴量と、に基づいて機械学習を実行する。機械学習部122は、従来の任意のアルゴリズムによる機械学習を実行する。
例えば、機械学習に用いる撮像データ111を、学習データ、検証データ及びテストデータに分割する。機械学習部122は、学習データ及び対応する特徴量を用いて、調整されたパラメータで表現される機械学習モデル112を生成する。また、機械学習部122は生成した機械学習モデル112を、検証データを用いて検証する。このような機械学習モデル112の生成と検証を十分に繰り返す機械学習を実行し、その結果、得られた学習済みの機械学習モデル112に対して、テストデータで評価を行う。良好と評価された機械学習モデル112を学習済みモデル113として、記憶部110に保存する。
次に、機械学習用計算機100で生成された学習済みモデル113を用いて、移動体11の識別を実行する移動体識別装置1について、説明する。移動体識別装置1は、図2に示すように、地球周辺の宇宙空間に位置する任意の移動体11を撮像する光学望遠鏡200と、光学望遠鏡200が移動体11を撮像したときの撮像条件と撮像画像に基づいて当該移動体11を識別する識別用計算機300と、を備える。
光学望遠鏡200は、撮像設定部210及び移動体撮像部220を有する。撮像設定部210は識別対象の移動体11を撮像するための設定を実施し、撮像時の撮像条件を識別用計算機300に送信する。送信される撮像条件は、光学望遠鏡200の撮像方向を示す仰角及び方位角と、太陽12の位置情報を得るための撮像日及び撮像時刻を含む。太陽12の位置情報は、例えば太陽12の高度又は方位角である。
移動体撮像部220は、撮像設定部210で設定した撮像条件で、識別対象の移動体11を含む画像を撮像し、取得した撮像画像を識別用計算機300に送信する。
識別用計算機300は、記憶部310と演算部320を備える。記憶部310及び演算部320のハードウェア構成は機械学習用計算機100の記憶部110及び演算部120と同様である。記憶部310には、機械学習用計算機100が機械学習を実行することにより生成した学習済みモデル113を記憶する。すなわち、識別用計算機300の記憶部310に記憶されている学習済みモデル113は、機械学習用計算機100の記憶部110に記憶された学習済みモデル113をデータ複製又はデータ転送されたものである。
演算部320は記憶部310に格納されているプログラムを実行することにより、撮像条件に基づいて特徴量を導出する特徴量導出部321と、移動体撮像部220が撮像した撮像画像に表示されている移動体11を識別する移動体識別部322として機能する。
特徴量導出部321は、撮像設定部210が送信した撮像条件の情報から、光学望遠鏡200の撮像地点、移動体11、太陽12の3つの位置関係を示す特徴量を導出する。導出する方法及び情報は機械学習用計算機100の特徴量導出部121と同様である。
移動体識別部322は、特徴量導出部321が導出した特徴量及び移動体撮像部220から受信する撮像画像を基に、学習済みモデル113を用いて、移動体11を識別し識別結果を出力する。すなわち、特徴量及び撮像画像を基に、学習済みモデル113を検索し相当するモデルに対応づけられている正解ラベルを導出する。導出された正解ラベルが示す移動体11の識別情報を識別結果として出力する。
以上のように構成された機械学習用計算機100及び移動体識別装置1の動作について、図6、7に示すアクティビティ図を用いて説明する。図6は、機械学習用計算機100の機械学習動作を示すアクティビティ図である。図7は、移動体識別装置1の移動体識別動作を示すアクティビティ図である。
移動体識別装置1の移動体識別動作に先だって、機械学習用計算機100が機械学習動作を行う。ここでは、撮像データ111から分割された学習データ、検証データ及びテストデータを用いる機械学習について説明する。なお、機械学習は、従来の任意のアルゴリズムに従ったものでよく、以下の機械学習動作のフローは一例である。
最初に、機械学習用計算機100の演算部120が、記憶部110に格納されている撮像データ111から分割された学習データより、撮像条件、撮像画像及び正解ラベルのセットを読み出す。読み出したセットのうち、撮像条件を特徴量導出部121が取得し(ステップS101)、撮像画像と正解ラベルを機械学習部122が取得する(ステップS102)。
次に、特徴量導出部121が撮像条件から、撮像地点、移動体11、太陽12の3つの位置関係を示す特徴量を導出して(ステップS103)、機械学習部122に出力する。機械学習部122は、特徴量導出部121から入力された特徴量と、ステップS102で取得した撮像画像及び正解ラベルを用いて機械学習モデル112を生成し、生成された機械学習モデル112を、検証データを用いて検証する(ステップS104)。機械学習モデル112の生成は、機械学習モデル112のパラメータの値を調整することにより実行される。
検証済みの機械学習モデル112は、記憶部110に保存され、随時更新される(ステップS105)。ステップS104の学習データを用いた機械学習モデル112の生成及び検証データを用いた機械学習モデル112の検証と、ステップS105の機械学習モデル112の保存及び更新は繰り返し実行される。
そして、ステップS104及びステップS105の処理を十分に繰り返して得られた機械学習モデル112について、テストデータを用いて評価を行う(ステップS106)。ステップS106で良好な評価が得られた機械学習モデル112を学習済みモデル113として記憶部110に保存して(ステップS107)、処理を終了する。
次に、機械学習用計算機100で生成した学習済みモデル113を利用して、移動体識別装置1が移動体識別動作を行う。
まず、光学望遠鏡200の撮像設定部210が移動体11を撮像するための撮像条件に合致した設定を実行する(ステップS201)。例えば、予め定めた撮像方向を示す仰角及び方位角に光学望遠鏡200を指向させる。
次に、移動体撮像部220が、移動体11の撮像を実行し(ステップS202)、撮像を実行したときの撮像日、撮像時刻、撮像方向を含む撮像時の条件を撮像設定部210に通知する(ステップS203)。そして、移動体撮像部220は、撮像した撮像画像を識別用計算機300に送信する(ステップS204)。
撮像設定部210は、ステップ201で設定した光学望遠鏡200の条件と、ステップS203で移動体撮像部220から通知された撮像時の条件と、を含む撮像条件を識別用計算機300に対して送信する(ステップS205)。
識別用計算機300の特徴量導出部321は、光学望遠鏡200の撮像設定部210から受信した撮像条件から撮像位置と移動体11と太陽12の3つの位置関係を示す特徴量を導出する(ステップS206)。このとき、撮像設定部210が設定した撮像方向を示す仰角及び方位角の条件から移動体11の方向を取得することができる。また、移動体撮像部220から通知された撮像時の条件である撮像日、撮像時刻、撮像方向に基づいて、太陽12の方向及び高度を取得することができる。取得したこれらの情報に基づいて、撮像位置から移動体11に向かう直線と、撮像位置から太陽12に向かう直線と、がなす角を特徴量として導出することができる。
識別用計算機300の移動体識別部322は、光学望遠鏡200の移動体撮像部220から受信した撮像画像と、特徴量導出部321が導出した特徴量と、に基づいて、記憶部310に格納されている学習済みモデル113を用いて移動体11の識別を実行する(ステップS207)。具体的には、移動体識別部322は、特徴量及び撮像画像を基に、学習済みモデル113を検索し相当するモデルに対応づけられている正解ラベルを導出する。そして、導出された正解ラベルが示す移動体11の識別情報を識別結果として出力する。
以上説明したように、本実施の形態に係る移動体識別装置1は、機械学習用計算機100が予め取得した撮像データ111に含まれる撮像画像、正解ラベル、撮像条件に基づいて機械学習して生成した学習済みモデル113を用いて、移動体11の識別を実行する。移動体識別装置1の光学望遠鏡200は、移動体11を撮像したときの撮像条件を、撮像画像と共に識別用計算機300に送信する。識別用計算機300は、受信した撮像画像と、特徴量導出部321が撮像条件に基づいて導出した特徴量と、に基づいて学習済みモデル113を用いて移動体11の識別を実行することとした。これにより、高い精度で移動体11を識別することが可能になる。
このように本発明は、識別対象の移動体を撮像するときの撮像条件から特徴量を導出し、導出した特徴量と、その撮像条件にて撮像した撮像画像に基づいて、機械学習により得られた学習済みモデルを用いて移動体を識別する。そして、学習済みモデルは、予め取得した撮像データに含まれる撮像条件から導出した特徴量及び撮像データに含まれる撮像画像を用いた機械学習により得られることとした。これにより、任意の撮像条件の撮像画像から、高い精度で移動体を識別することが可能になる。
なお、本発明は、上記実施の形態に限定されず、本発明の要旨を逸脱しない範囲での種々の変更は勿論可能である。
例えば、上記実施の形態において、機械学習用計算機100と識別用計算機300はそれぞれ個々の計算機であるとしたが、1つの計算機で機械学習用計算機100と識別用計算機300の機能を実現してもよい。この場合、光学望遠鏡200が撮像した撮像画像を蓄積して撮像データ111として機械学習に用いることができる。また、特徴量導出部121及び特徴量導出部321を単一の機能部で実現し、機械学習時及び移動体識別時の両方で機能させることができ、構成を簡略化することができる。
また、機械学習用計算機100で機械学習に用いる撮像画像、及び、識別用計算機300で識別する撮像画像は、光学望遠鏡200が撮像した画像であるとしたが、光学望遠鏡200が撮像した画像を変形させた画像であってもよい。例えば、元画像に対して輝度、コントラスト、向きを含む画像情報を変更した画像であってもよい。
また、上記実施の形態に示したハードウェア構成及び演算部120,320の処理内容は一例であり、任意に変更及び修正が可能である。機械学習用計算機100と識別用計算機300で実現する各機能は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。
例えば、上記実施の形態の動作を実行するためのプログラムを、コンピュータが読み取り可能なCD-ROM(Compact Disc Read-Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、メモリカード等の記録媒体に格納して配布し、プログラムをコンピュータにインストールすることにより、各機能を実現することができるコンピュータを構成してもよい。そして、各機能をOS(Operating System)とアプリケーションとの分担、またはOSとアプリケーションとの協同により実現する場合には、OS以外の部分のみを記録媒体に格納してもよい。
1 移動体識別装置、11 移動体、12 太陽、13 地球、100 機械学習用計算機、110,310 記憶部、120,320 演算部、111 撮像データ、112 機械学習モデル、113 学習済みモデル、121,321 特徴量導出部、122 機械学習部、200 光学望遠鏡、210 撮像設定部、220 移動体撮像部、300 識別用計算機、322 移動体識別部。

Claims (14)

  1. 識別対象の移動体を撮像するときの撮像日及び撮像時刻を含む撮像条件から特徴量を導出する特徴量導出部と、
    前記特徴量導出部が導出した前記特徴量と、前記撮像条件にて撮像した撮像画像に基づいて、機械学習により得られた学習済みモデルを用いて前記移動体を識別する移動体識別部と、を備え、
    前記学習済みモデルは、予め取得した撮像データに含まれる撮像条件から導出した特徴量及び前記撮像データに含まれる撮像画像を用いた前記機械学習により得られる、
    移動体識別装置。
  2. 前記特徴量導出部が特徴量を導出するための前記撮像条件は、撮像地点を含む、
    請求項1に記載の移動体識別装置。
  3. 前記特徴量導出部が特徴量を導出するための前記撮像条件は、地球上から前記識別対象の移動体を撮像するときの方位角及び仰角を含む、
    請求項1又は請求項2に記載の移動体識別装置。
  4. 地球上から識別対象の移動体を撮像するときの方位角及び仰角を含む撮像条件から特徴量を導出する特徴量導出部と、
    前記特徴量導出部が導出した前記特徴量と、前記撮像条件にて撮像した撮像画像に基づいて、機械学習により得られた学習済みモデルを用いて前記移動体を識別する移動体識別部と、を備え、
    前記学習済みモデルは、予め取得した撮像データに含まれる撮像条件から導出した特徴量及び前記撮像データに含まれる撮像画像を用いた前記機械学習により得られる、
    移動体識別装置。
  5. 前記特徴量は、撮像地点と、前記移動体と、太陽と、の3つの位置関係を示す、
    請求項1から請求項4のいずれか1項に記載の移動体識別装置。
  6. 識別対象の移動体を撮像するときの撮像条件から特徴量を導出する特徴量導出部と、
    前記特徴量導出部が導出した、撮像地点と、前記移動体と、太陽と、の3つの位置関係を示す前記特徴量と、前記撮像条件にて撮像した撮像画像に基づいて、機械学習により得られた学習済みモデルを用いて前記移動体を識別する移動体識別部と、を備え、
    前記学習済みモデルは、予め取得した撮像データに含まれる撮像条件から導出した特徴量及び前記撮像データに含まれる撮像画像を用いた前記機械学習により得られる、
    移動体識別装置。
  7. 前記撮像画像は光学望遠鏡で撮像された画像又は当該画像を変形させた画像である、
    請求項1から請求項6のいずれか1項に記載の移動体識別装置。
  8. 識別対象の移動体を撮像するときの撮像条件から特徴量を導出する特徴量導出部と、
    前記特徴量導出部が導出した前記特徴量と、前記撮像条件にて撮像した撮像画像に基づいて、機械学習により得られた学習済みモデルを用いて前記移動体を識別する移動体識別部と、を備え、
    前記撮像画像は光学望遠鏡で撮像された画像又は当該画像を変形させた画像であり、
    前記学習済みモデルは、予め取得した撮像データに含まれる撮像条件から導出した特徴量及び前記撮像データに含まれる撮像画像を用いた前記機械学習により得られる、
    移動体識別装置。
  9. 前記特徴量導出部が特徴量を導出するための前記撮像条件は、前記光学望遠鏡の方位角及び仰角を含む、
    請求項7又は請求項8に記載の移動体識別装置。
  10. 前記移動体は人工衛星を含む、
    請求項1から請求項9のいずれか1項に記載の移動体識別装置。
  11. 識別対象の移動体を撮像するときの撮像条件から特徴量を導出する特徴量導出部と、
    前記特徴量導出部が導出した前記特徴量と、前記撮像条件にて撮像した撮像画像に基づいて、機械学習により得られた学習済みモデルを用いて前記移動体を識別する移動体識別部と、を備え、
    前記移動体は人工衛星を含み、
    前記学習済みモデルは、予め取得した撮像データに含まれる撮像条件から導出した特徴量及び前記撮像データに含まれる撮像画像を用いた前記機械学習により得られる、
    移動体識別装置。
  12. 前記学習済みモデルは、予め取得した前記撮像データに含まれる前記撮像条件から導出した前記特徴量、前記撮像データに含まれる前記撮像画像、及び、前記撮像データに含まれる前記撮像画像に対応づけられた正解ラベルを用いた前記機械学習により得られる、
    請求項1から請求項11のいずれか1項に記載の移動体識別装置。
  13. 予め取得した撮像画像と、撮像日及び撮像時刻を含む撮像条件から導出した特徴量と、に対する機械学習を実行する機械学習ステップと、
    識別対象の移動体を撮像するときの撮像条件から特徴量を導出する特徴量導出ステップと、
    前記機械学習ステップで得られた学習済みモデルを用いて、前記特徴量導出ステップで導出した前記特徴量と、前記識別対象の移動体を撮像した撮像画像に基づいて、前記移動体を識別する移動体識別ステップと、を有する、
    移動体識別方法。
  14. コンピュータを、
    予め取得した撮像画像と、撮像日及び撮像時刻を含む撮像条件から導出した特徴量と、に対する機械学習を実行して得られた学習済みモデルを記憶する記憶部、
    識別対象の移動体を撮像するときの撮像条件から特徴量を導出する特徴量導出部、
    前記記憶部に記憶された前記学習済みモデルを用いて、前記特徴量導出部が導出した前記特徴量と、前記識別対象の移動体を撮像した撮像画像に基づいて、前記移動体を識別する移動体識別部、
    として機能させるプログラム。
JP2019104898A 2019-06-04 2019-06-04 移動体識別装置、移動体識別方法及びプログラム Active JP7262312B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104898A JP7262312B2 (ja) 2019-06-04 2019-06-04 移動体識別装置、移動体識別方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104898A JP7262312B2 (ja) 2019-06-04 2019-06-04 移動体識別装置、移動体識別方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020198004A JP2020198004A (ja) 2020-12-10
JP7262312B2 true JP7262312B2 (ja) 2023-04-21

Family

ID=73649190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104898A Active JP7262312B2 (ja) 2019-06-04 2019-06-04 移動体識別装置、移動体識別方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7262312B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7360115B1 (ja) 2022-04-13 2023-10-12 株式会社Ridge-i 情報処理装置、情報処理方法及び情報処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276429A (ja) 2005-03-29 2006-10-12 Mitsubishi Electric Corp 軽量化反射鏡
JP2007293558A (ja) 2006-04-25 2007-11-08 Hitachi Ltd 目標物認識プログラム及び目標物認識装置
US20140241617A1 (en) 2013-02-22 2014-08-28 Microsoft Corporation Camera/object pose from predicted coordinates
CN104034314A (zh) 2014-05-19 2014-09-10 上海微小卫星工程中心 一种引导成像方法、空间目标天基成像方法及装置
US20150242708A1 (en) 2014-02-21 2015-08-27 Xerox Corporation Object classification with constrained multiple instance support vector machine
JP2016071830A (ja) 2014-09-26 2016-05-09 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP2018136632A (ja) 2017-02-20 2018-08-30 オムロン株式会社 形状推定装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276429A (ja) 2005-03-29 2006-10-12 Mitsubishi Electric Corp 軽量化反射鏡
JP2007293558A (ja) 2006-04-25 2007-11-08 Hitachi Ltd 目標物認識プログラム及び目標物認識装置
US20140241617A1 (en) 2013-02-22 2014-08-28 Microsoft Corporation Camera/object pose from predicted coordinates
US20150242708A1 (en) 2014-02-21 2015-08-27 Xerox Corporation Object classification with constrained multiple instance support vector machine
CN104034314A (zh) 2014-05-19 2014-09-10 上海微小卫星工程中心 一种引导成像方法、空间目标天基成像方法及装置
JP2016071830A (ja) 2014-09-26 2016-05-09 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP2018136632A (ja) 2017-02-20 2018-08-30 オムロン株式会社 形状推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川勝 正晴 外2名,監視画像における対象物とその影の分離,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1996年03月15日,第95巻 第584号,pp.61-66

Also Published As

Publication number Publication date
JP2020198004A (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
CN109117831B (zh) 物体检测网络的训练方法和装置
US9429418B2 (en) Information processing method and information processing apparatus
US8693785B2 (en) Image matching devices and image matching methods thereof
JP6488647B2 (ja) 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
US9959462B2 (en) Locating and tracking fingernails in images
US20140253679A1 (en) Depth measurement quality enhancement
EP2579210A1 (en) Face feature-point position correction device, face feature-point position correction method, and face feature-point position correction program
CN106971401B (zh) 多目标跟踪装置和方法
US20190147225A1 (en) Image processing apparatus and method
US10916019B2 (en) Moving object detection in image frames based on optical flow maps
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
JP2013508844A (ja) 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置
JP5833507B2 (ja) 画像処理装置
US11670078B2 (en) Method and system for visual based inspection of rotating objects
JP6833620B2 (ja) 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム
CN110222641B (zh) 用于识别图像的方法和装置
US11710253B2 (en) Position and attitude estimation device, position and attitude estimation method, and storage medium
JP2019032218A (ja) 位置情報記録方法および装置
JP7262312B2 (ja) 移動体識別装置、移動体識別方法及びプログラム
JPWO2018235219A1 (ja) 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
US8903124B2 (en) Object learning method, object tracking method using the same, and object learning and tracking system
US20220222859A1 (en) Difference detection apparatus, difference detection method, and program
WO2019159414A1 (ja) 読取システム、読取方法、及び記憶媒体
CN108353143B (zh) 在不规则形状显示表面上投射图像
US20220017239A1 (en) Methods and systems for orbit estimation of a satellite

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7262312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150