JP2020013274A - 表示プログラム、表示装置及び表示方法 - Google Patents
表示プログラム、表示装置及び表示方法 Download PDFInfo
- Publication number
- JP2020013274A JP2020013274A JP2018134413A JP2018134413A JP2020013274A JP 2020013274 A JP2020013274 A JP 2020013274A JP 2018134413 A JP2018134413 A JP 2018134413A JP 2018134413 A JP2018134413 A JP 2018134413A JP 2020013274 A JP2020013274 A JP 2020013274A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- display
- data
- input image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】確認が必要な対象物を含む画像データを表示する。【解決手段】表示プログラムは、複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、処理をコンピュータに実行させる。【選択図】図6
Description
本発明は、表示プログラム、表示装置及び表示方法に関する。
従来より、学習済みモデルを用いて、画像データに含まれる対象物を判別する判別技術が知られている。学習済みモデルとは、既知の対象物を含む画像データ(いわゆる教師データ)を用いて機械学習されたモデルである。
かかる学習済みモデルを用いて対象物を判別する際の確信度を向上させるには、より多くの教師データを収集して機械学習させることが必要となる。
ここで、機械学習に用いる教師データは、例えば、対象物を含む画像データを人(確認者)が確認し、確認結果を画像データと対応付けて格納することで収集される。このため、機械学習に用いる教師データを効率的に収集するには、確認が必要な対象物を含む画像データを優先して確認者に表示することが有効である。
一つの側面では、確認が必要な対象物を含む画像データを表示することを目的としている。
一態様によれば、表示プログラムは、
複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、
特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、処理をコンピュータに実行させる。
複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、
特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、処理をコンピュータに実行させる。
確認が必要な対象物を含む画像データを表示することが可能になる。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
[第1の実施形態]
<情報収集システムのシステム構成>
はじめに、第1の実施形態に係る情報表示装置を備える、情報収集システムのシステム構成について説明する。図1は、情報収集システムのシステム構成の一例を示す図である。
<情報収集システムのシステム構成>
はじめに、第1の実施形態に係る情報表示装置を備える、情報収集システムのシステム構成について説明する。図1は、情報収集システムのシステム構成の一例を示す図である。
図1に示すように、情報収集システム100は、対象物検知装置110、情報表示装置120、サーバ装置130を有する。
対象物検知装置110は、判別する対象物(対象)を検知する装置であり、対象物を検知することで得た検知データを、情報表示装置120に送信する。対象物検知装置110は、判別する対象物を、例えば、所定周期ごとに複数回検知し、複数の検知データを、順次、情報表示装置120に送信する。
情報表示装置120には、対象物表示プログラムがインストールされており、当該プログラムが実行されることで、情報表示装置120は、対象物表示部121として機能する。
対象物表示部121は、対象物検知装置110より送信された複数の検知データそれぞれに含まれる複数の対象物を判別する。なお、対象物表示部121では、予め、教師データを用いて機械学習された学習済みモデル等を含む学習結果をサーバ装置130から取得しておき、それぞれの検知データを、取得した学習結果に入力して対象物の判別を行う。
また、対象物表示部121は、複数の検知データそれぞれに含まれる複数の対象物を判別した際に算出した確信度を取得し、取得した確信度を用いて対象物を表示する際の優先順位を決定する。
更に、対象物表示部121は、決定した優先順位に基づいて対象物を表示し、優先順位が高い対象物について、確認者140による確認結果を受け付け、教師データとしてサーバ装置130に送信する。
このように、情報表示装置120において、優先順位が高い対象物(確認者140による確認が必要な対象物)を優先して確認者140に確認させることで、サーバ装置130では、対象物の判別に有効な教師データを効率的に収集することができる。
サーバ装置130には、学習プログラムと状況データ取得プログラムとがインストールされており、当該プログラムが実行されることで、サーバ装置130は、学習部131、状況データ取得部132として機能する。
学習部131は、教師データ格納部133より教師データを読み出し、学習モデルを機械学習させることで、学習済みモデルを生成する。また、学習部131は、生成した学習済みモデル等を含む学習結果を情報表示装置120に送信する。更に、学習部131は、学習結果を送信したことに応じて情報表示装置120より教師データを取得し、教師データ格納部133に格納する。
状況データ取得部132は、対象物検知装置110と対象物との位置関係を示すデータ(状況データと称す)を取得し、情報表示装置120に送信する。
<情報収集システムの適用例>
次に、情報収集システム100の適用例について説明する。図2は、情報収集システムの適用例を示す図である。図2に示すように、情報収集システム100は、例えば、対象物検知装置110の一例である撮像装置110’と、情報表示装置120とを、偵察機200に搭載させることで、海上を航行する船舶(対象物)を監視するシステムに適用できる。
次に、情報収集システム100の適用例について説明する。図2は、情報収集システムの適用例を示す図である。図2に示すように、情報収集システム100は、例えば、対象物検知装置110の一例である撮像装置110’と、情報表示装置120とを、偵察機200に搭載させることで、海上を航行する船舶(対象物)を監視するシステムに適用できる。
偵察機200の飛行中、撮像装置110’は、点線201で示す範囲を撮影範囲として、船舶211〜213を異なる方向、異なる距離から複数回撮影する。撮像装置110’は、複数回の撮影により得られた複数の検知データ(撮影画像データ)を、情報表示装置120に送信する。
なお、図2に示す適用例の場合、サーバ装置130から送信される学習結果には、学習済みモデルと、データ量情報とが含まれるものとする。データ量情報とは、学習モデルを機械学習させる際に用いられた教師データのデータ量(船舶ごとのデータ量)を示す情報である。
また、図2に示す適用例の場合、サーバ装置130から送信される状況データには、撮像装置110’を搭載する偵察機200と船舶211〜213とを含む衛星写真データが含まれていてもよいものとする。なお、サーバ装置130から送信される状況データは、衛星写真データに限定されず、レーダ照射装置により測定された距離データであってもよい。また、状況データは、サーバ装置130から送信されるものに限定されず、例えば、偵察機200自体にレーダ照射装置を搭載し、該レーダ照射装置により測定された距離データであってもよい。また、測定される距離データは、偵察機200の撮像装置110’からの距離データであることが望ましい。
更に、図2に示す適用例の場合、情報表示装置120から送信される教師データには、撮影画像データから抽出され、学習済みモデルに入力された対象画像データのうち、確認者140が確認した船舶を含む対象画像データと、確認結果とが含まれるものとする。
<サーバ装置のハードウェア構成>
次に、サーバ装置130のハードウェア構成について説明する。図3は、サーバ装置のハードウェア構成の一例を示す図である。図3に示すように、サーバ装置130は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303を有する。CPU301、ROM302、RAM303は、いわゆるコンピュータを形成する。
次に、サーバ装置130のハードウェア構成について説明する。図3は、サーバ装置のハードウェア構成の一例を示す図である。図3に示すように、サーバ装置130は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303を有する。CPU301、ROM302、RAM303は、いわゆるコンピュータを形成する。
また、サーバ装置130は、補助記憶装置304、表示装置305、操作装置306、通信装置307、ドライブ装置308を有する。なお、サーバ装置130の各ハードウェアは、バス309を介して相互に接続されている。
CPU301は、補助記憶装置304にインストールされている各種プログラム(例えば、学習プログラム、状況データ取得プログラム等)を実行する演算デバイスである。
ROM302は、不揮発性メモリである。ROM302は、補助記憶装置304にインストールされている各種プログラムをCPU301が実行するために必要な各種プログラム、データ等を格納する主記憶デバイスとして機能する。具体的には、ROM302はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。
RAM303は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM303は、補助記憶装置304にインストールされている各種プログラムがCPU301によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
補助記憶装置304は、各種プログラムや各種プログラムを実行する際に用いられる情報を格納する補助記憶デバイスである。例えば、教師データ格納部133は、補助記憶装置304において実現される。
表示装置305は、サーバ装置130の内部状態を表示する表示デバイスである。操作装置306は、サーバ装置130の管理者がサーバ装置130に対して各種指示を入力するための入力デバイスである。
通信装置307は、情報表示装置120と接続し、情報表示装置120とサーバ装置130との間で通信を行うための通信デバイスである。
ドライブ装置308は記録媒体310をセットするためのデバイスである。ここでいう記録媒体310には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体310には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
なお、補助記憶装置304にインストールされる各種プログラムは、例えば、配布された記録媒体310がドライブ装置308にセットされ、該記録媒体310に記録された各種プログラムがドライブ装置308により読み出されることでインストールされる。あるいは、補助記憶装置304にインストールされる各種プログラムは、不図示のネットワークよりダウンロードされることでインストールされてもよい。
<サーバ装置の学習部の処理>
次に、サーバ装置130の学習部131の処理の具体例について説明する。図4は、サーバ装置の学習部の処理の具体例を示す図である。図4に示すように、学習部131は、学習モデル400を有し、教師データ格納部133より読み出した教師データ410(物体の種類が既知の画像データ)を入力する。
次に、サーバ装置130の学習部131の処理の具体例について説明する。図4は、サーバ装置の学習部の処理の具体例を示す図である。図4に示すように、学習部131は、学習モデル400を有し、教師データ格納部133より読み出した教師データ410(物体の種類が既知の画像データ)を入力する。
図4に示すように、学習部131が有する学習モデル400は、n種類の他国の船舶(他国の船舶1〜他国の船舶n)、及び、m種類の自国の船舶(自国の船舶1〜自国の船舶m)が判別されるように機械学習される。学習部131は、教師データ410を用いて学習モデル400を機械学習させることで、学習済みモデルを生成する。
また、学習部131は、学習モデル400を機械学習させる際に用いた教師データ410の、船舶の種類ごとのデータ量を示すデータ量情報420を生成する。図4に示すように、データ量情報420には、情報の項目として、“種類”と“画像数”とが含まれる。
“種類”には、学習モデル400が判別する船舶(検出対象)の種類(他国の船舶1〜他国の船舶n、自国の船舶1〜自国の船舶m)が格納される。また、“画像数”には、各種類の船舶が含まれる教師データの数が格納される。
<情報表示装置のハードウェア構成>
次に、情報表示装置120のハードウェア構成について説明する。図5は、情報表示装置120のハードウェア構成の一例を示す図である。なお、情報表示装置120のハードウェア構成は、図3に示したサーバ装置130のハードウェア構成と概ね同じであるため、ここでは、相違点を中心に説明する。
次に、情報表示装置120のハードウェア構成について説明する。図5は、情報表示装置120のハードウェア構成の一例を示す図である。なお、情報表示装置120のハードウェア構成は、図3に示したサーバ装置130のハードウェア構成と概ね同じであるため、ここでは、相違点を中心に説明する。
補助記憶装置504は、各種プログラム(例えば、対象物表示プログラム等)を格納する補助記憶デバイスである。I/F(Interface)装置507は、撮像装置110’と情報表示装置120とを接続するための接続デバイスである。
<情報表示装置の機能構成>
次に、情報表示装置120の対象物表示部121の機能構成について説明する。図6は、情報表示装置の機能構成の一例を示す図である。図6に示すように、情報表示装置120は、画像データ取得部601、判別対象抽出部602、実行部603、優先順位決定部604、表示画像生成部605、表示制御部606を有する。また、情報表示装置120は、学習結果取得部611、距離データ取得部612、確認結果送信部613を有する。
次に、情報表示装置120の対象物表示部121の機能構成について説明する。図6は、情報表示装置の機能構成の一例を示す図である。図6に示すように、情報表示装置120は、画像データ取得部601、判別対象抽出部602、実行部603、優先順位決定部604、表示画像生成部605、表示制御部606を有する。また、情報表示装置120は、学習結果取得部611、距離データ取得部612、確認結果送信部613を有する。
画像データ取得部601は、撮像装置110’より送信された複数の撮影画像データを取得する。画像データ取得部601は、取得した複数の撮影画像データを、複数の入力画像データとして、判別対象抽出部602及び表示画像生成部605に通知する。
判別対象抽出部602は、画像データ取得部601より通知された複数の入力画像データそれぞれにおいて、複数の対象物(船舶)を抽出し、複数の対象画像データを生成する。また、判別対象抽出部602は、生成した複数の対象画像データ(対象画像データ群)を、実行部603及び表示画像生成部605に通知する。
実行部603は処理部または判別部の一例である。実行部603は、サーバ装置130より送信された学習済みモデルを、学習結果取得部611を介して取得し、取得した学習済みモデルに、複数の対象画像データのそれぞれを入力することで、複数の対象画像データのそれぞれに含まれる船舶を判別する。
また、実行部603は、複数の対象画像データのそれぞれにおいて船舶を判別する際に算出した確信度を取得し、判別した対象物(船舶)についての確信度の、入力画像データ間におけるばらつき(標準偏差)を対象物(船舶)ごとに算出する。更に、実行部603は、判別した対象物(船舶)ごとの確信度及び標準偏差を優先順位決定部604に通知する。
優先順位決定部604は、実行部603より通知された確信度及び標準偏差を取得する。また、優先順位決定部604は、サーバ装置130より送信されたデータ量情報を、学習結果取得部611を介して取得する。また、優先順位決定部604は、サーバ装置130より送信された状況データに基づいて距離データ取得部612において算出された、偵察機200と各対象物(船舶)との間の距離を示す距離データを取得する機能を有していてもよい。
また、優先順位決定部604は、取得した確信度、標準偏差、データ量情報、距離データを対応付けることで、対象画像データを表示する際の優先順位を決定するための決定用情報を生成する。優先順位決定部604では、決定用情報に基づいて、対象画像データを表示する際の優先順位を決定し、優先順位情報を表示画像生成部605に通知する。
表示画像生成部605は、画像データ取得部601より通知された入力画像データ、判別対象抽出部602より通知された対象画像データ、優先順位決定部604より通知された優先順位情報に基づいて、表示画像データを生成する。なお、表示画像生成部605では、対象画像データを、優先順位情報に応じた表示態様で表示するための、表示画像データを生成する。表示画像生成部605は、生成した表示画像データを表示制御部606に通知する。
表示制御部606は、表示画像生成部605より通知された表示画像データを表示装置505に表示する。表示制御部606は、表示画像データを表示装置505に表示したことに応じて、確認者140が、優先順位の高い対象画像データに含まれる船舶(確認が必要な対象物)を確認し、確認結果を入力した場合に、これを受け付ける。
また、表示制御部606は、優先順位の高い対象画像データと、入力された確認結果とを対応付けて、確認結果送信部613に通知する。
学習結果取得部611は記憶部の一例である。学習結果取得部611は、サーバ装置130より、学習結果として、学習済みモデルとデータ量情報とを取得して記憶する。また、学習結果取得部611は、記憶した学習結果のうち、学習済みモデルを実行部603に、データ量情報を優先順位決定部604にそれぞれ通知する。
距離データ取得部612は、例えば、サーバ装置130より、状況データとして衛星写真データ(あるいはレーダデータ等)を取得する。また、距離データ取得部612は、例えば、取得した衛星写真データに含まれる、偵察機200と、船舶211〜213それぞれとの間の距離を算出し、距離データを生成する。更に、距離データ取得部612は、生成した距離データを優先順位決定部604に通知する。
確認結果送信部613は、表示制御部606より通知された対象画像データと、確認結果とを、教師データとして、サーバ装置130に送信する。
<情報表示装置の各部の処理の具体例>
次に、情報表示装置120の各部(ここでは、判別対象抽出部602、実行部603、距離データ取得部612、優先順位決定部604、表示画像生成部605、表示制御部606)の処理の具体例について説明する。
次に、情報表示装置120の各部(ここでは、判別対象抽出部602、実行部603、距離データ取得部612、優先順位決定部604、表示画像生成部605、表示制御部606)の処理の具体例について説明する。
(1)判別対象抽出部の処理の具体例
はじめに、判別対象抽出部602の処理の具体例について説明する。図7は、情報表示装置の判別対象抽出部の処理の具体例を示す図である。図7において、入力画像データ710は、撮像装置110’により複数回撮影されることで得られた複数の撮影画像データのうち、T0回目に撮影された撮影画像データである。
はじめに、判別対象抽出部602の処理の具体例について説明する。図7は、情報表示装置の判別対象抽出部の処理の具体例を示す図である。図7において、入力画像データ710は、撮像装置110’により複数回撮影されることで得られた複数の撮影画像データのうち、T0回目に撮影された撮影画像データである。
図7に示すように、判別対象抽出部602では、入力画像データ710が通知されると、入力画像データ710より、対象物(船舶)を抽出し、対象画像データ721、722、723を取得する。また、判別対象抽出部602では、取得した対象画像データ721、722、723を、識別子と対応付けて対象画像データ群730に一時的に格納する。
図7に示すように、対象画像データ群730には、情報の項目として、“画像ID”、“対象画像データ”が含まれる。“画像ID”には、対象画像データを識別するための識別子が格納される。“対象画像データ”には、更に、撮影回数を示す“T0、T1、・・・”が含まれる。判別対象抽出部602では、取得した対象画像データ721、722、723を、“画像ID”と対応付けて撮影回数に応じた位置に順次格納する。
(2)実行部の処理の具体例
次に、実行部603の処理の具体例について説明する。図8は、情報表示装置の実行部の処理の具体例を示す図である。図8に示すように、実行部603は、学習結果取得部611を介してサーバ装置130より取得した学習済みモデル800を有する。
次に、実行部603の処理の具体例について説明する。図8は、情報表示装置の実行部の処理の具体例を示す図である。図8に示すように、実行部603は、学習結果取得部611を介してサーバ装置130より取得した学習済みモデル800を有する。
実行部603では、対象画像データ群730の“画像ID”に対応付けて格納された複数の対象画像データを、順次、学習済みモデル800に入力し、それぞれの対象画像データに含まれる船舶を判別する。
図8の例は、対象画像データ群730の“画像ID”=“002”に対応付けて格納された複数の対象画像データ722_T0、722_T1、・・・が、学習済みモデル800にそれぞれ入力された様子を示している。また、図8の例に示す確信度(T1)は、このうち、対象画像データ722_T1が入力されたことで対象物(他国の船舶2)が判別された際に算出された確信度を示している。
また、図8において、グラフ群810は、複数の対象画像データを学習済みモデル800に入力することで対象物を判別した際の各回の確信度を、画像IDごとに分けて示したグラフの集合であり、横軸を判別回数、縦軸を確信度としている。
このうち、グラフ811は、“画像ID”=“001”に対応付けて格納された複数の対象画像データ721_T0、721_T1、・・・を入力することで対象物を判別した際の各回の確信度を示したグラフである。なお、グラフ811は、対象画像データ721_T0、721_T1、・・・を入力することで、対象物が、“他国の船舶1”であると判別された場合を示している。つまり、グラフ811は、複数の対象画像データ721_T0、721_T1、・・・をそれぞれ入力することで対象物(他国の船舶1)を判別した際に算出された確信度の変遷を示している。
“他国の船舶1”については、教師データのデータ量が多いため、図8に示すように、判別回数が進んでも、高い確信度が安定して算出される。
一方、グラフ812は、“画像ID”=“002”に対応付けて格納された複数の対象画像データ722_T0、722_T1、・・・を入力することで対象物を判別した際の各回の確信度を示したグラフである。なお、グラフ812は、対象画像データ722_T0、722_T1、・・・を入力することで、対象物が、“他国の船舶2”であると判別された場合を示している。つまり、グラフ812は、複数の対象画像データ722_T0、722_T1、・・・をそれぞれ入力することで対象物(他国の船舶2)を判別した際に算出された確信度の変遷を示している。
“他国の船舶2”については、教師データのデータ量が少ないため、図8に示すように、判別回数が進むことで、確信度が大きく増減する。実行部603では、当該確信度のばらつき(標準偏差σ1)を算出する。ここで、信頼度の時間変化が大きな対象物では、判定結果そのものが変化してしまう場合がある。具体的には、例えば、グラフ812において判別回数が少ない初期には、“他国の船舶1”の確信度が45%に低下した時、“他国の船舶2”の確信度が50%となる場合が想定される。この場合、最初に判定した正体を基準としてそのまま標準偏差を算出してもよいし、正体そのものが信頼できないものとして信頼度をゼロとしてもよい。
なお、教師データのデータ量が少なく、かつ、確信度のばらつき(標準偏差σ1)が大きい対象物とは、教師データの収集が最も必要な対象物を意味する。
また、グラフ813は、“画像ID”=“003”に対応付けて格納された複数の対象画像データ723_T0、723_T1、・・・を入力することで対象物を判別した際の各回の確信度を示したグラフである。なお、グラフ813は、対象画像データ723_T0、723_T1、・・・を入力することで、対象物が、“他国の船舶3”であると判別された場合を示している。つまり、グラフ813は、複数の対象画像データ723_T0、723_T1、・・・をそれぞれ入力することで対象物(他国の船舶3)を判別した際に算出された確信度の変遷を示している。
“他国の船舶3”については、教師データのデータ量が多いが、判別回数が進んでも、高い確信度が算出されない。教師データのデータ量が多いにも関わらず、確信度が低い対象物とは、正体不明の船舶(いわゆる不審船)であり、教師データの収集が2番目に必要な対象物を意味する。
(3)距離データ取得部の処理の具体例
次に、距離データ取得部612の処理の具体例について説明する。図8は、情報表示装置の距離データ取得部の処理の具体例を示す図であり、ここでは、距離データ取得部612が、衛星写真データを取得する場合について説明する。
次に、距離データ取得部612の処理の具体例について説明する。図8は、情報表示装置の距離データ取得部の処理の具体例を示す図であり、ここでは、距離データ取得部612が、衛星写真データを取得する場合について説明する。
図8に示すように、距離データ取得部612は、サーバ装置130より、状況データとして衛星写真データ900を所定周期ごとに取得する。また、距離データ取得部612は、取得した衛星写真データ900に含まれる偵察機200と、船舶211〜213それぞれとの間の距離を算出し、距離データを生成する。
図9の例は、所定のタイミングにおいて距離データ取得部612が、偵察機200と船舶211との間の距離を、“D1”と算出した様子を示している。また、所定のタイミングにおいて距離データ取得部612が、偵察機200と船舶212との間の距離を、“D2”と算出し、偵察機200と船舶213との間の距離を“D3”と算出した様子を示している。
(4)優先順位決定部の処理の具体例
次に、優先順位決定部604の処理の具体例について説明する。図10は、情報表示装置の優先順位決定部の処理の具体例を示す図である。図10に示すように、優先順位決定部604は、決定用情報1000を生成する。
次に、優先順位決定部604の処理の具体例について説明する。図10は、情報表示装置の優先順位決定部の処理の具体例を示す図である。図10に示すように、優先順位決定部604は、決定用情報1000を生成する。
決定用情報1000には、情報の項目として、“画像ID”、“実行結果”、“データ量”、“距離データ”が含まれる。“画像ID”には、対象画像データを識別する識別子が格納される。
“実行結果”には、更に、“他国/自国”、“種類”、“確信度”、“標準偏差”が含まれる。“他国/自国”には、学習済みモデル800に、対応する対象画像データが入力されたことで、他国の船舶であると判別されたか、自国の船舶であると判別されたかを示す情報が格納される。“種類”には、学習済みモデル800に、対応する対象画像データが入力されたことで判別された船舶の種類を示す情報が格納される。
“確信度”には、対応する複数の対象画像データがそれぞれ入力されたことで対象物が判別された際に算出された確信度のうち、平均の確信度が格納される。“標準偏差”には、対応する複数の対象画像データが入力されたことで対象物が判別された際に算出された確信度についてのばらつき(標準偏差)が格納される。
“データ量”には、サーバ装置130より送信されたデータ量情報が、“実行結果”の“種類”に対応付けて格納される。“距離データ”には、距離データ取得部612により算出された距離データが、“実行結果”の“種類”に対応付けて格納される。なお、距離データ取得部612により複数の距離データが算出された場合、“距離データ”には、例えば、算出された複数の距離データのうちの平均値または最小値が格納される。
優先順位決定部604では、生成した決定用情報1000に基づいて、対象画像データ群730に含まれる複数の対象画像データのうち、各画像IDについて1の対象画像データを表示する場合の、画像ID間における優先順位を決定する。図11は、優先順位決定処理の流れを示す第1のフローチャートである。
ステップS1101において、優先順位決定部604は、複数の入力画像データに基づいて、決定用情報1000を生成したか否かを判定する。ステップS1101において、決定用情報1000を生成していないと判定した場合には(ステップS1101においてNoの場合には)、決定用情報1000の生成が完了するまで待機する。
一方、ステップS1101において、決定用情報1000を生成したと判定した場合には(ステップS1101においてYesの場合には)、ステップS1102に進む。
ステップS1102において、優先順位決定部604は、決定用情報1000に格納された対象物(判別された対象物)をカウントするカウンタiに“1”を代入する。
ステップS1103において、優先順位決定部604は、i番目の対象物の確信度(決定用情報1000の“確信度”)が閾値以上か否かを判定する。ここで、優先順位決定部604では、i番目の対象物の確信度が閾値以上か否かを判定するにあたり、決定用情報1000の“データ量”を参照することで、i番目の対象物についてどの程度の量の教師データを用いて機械学習が行われたかを判断する。そして、優先順位決定部604は、教師データのデータ量が少ないと判断した場合には、i番目の対象物の確信度を低い値に変更し、変更後の確信度について閾値以上か否かを判定する。
これにより、教師データのデータ量が少ないにも関わらず、偶発的に高い確信度が算出されたことで、i番目の対象物を表示する際の優先順位が低くなってしまうといった事態を回避することができる。なお、i番目の対象物の確信度を低い値に変更する変更方法としては、例えば、教師データのデータ量に応じた係数(1以下の値)を予め設定しておき、対応する係数を確信度に乗算する方法等が挙げられる。
ステップS1103において、i番目の対象物の確信度が閾値以上であると判定した場合には(ステップS1103においてYesの場合には)、ステップS1104に進む。
ステップS1104において、優先順位決定部604は、i番目の対象物が、自国の船舶であるか否かを判定する。ステップS1104において、自国の船舶であると判定した場合には(ステップS1104においてYesの場合には)、ステップS1105に進む。
ステップS1105において、優先順位決定部604は、i番目の対象物が、教師データのデータ量が充分にある自国の船舶であると判定する。更に、ステップS1106において、優先順位決定部604は、i番目の対象物を表示する際の優先順位を“低”に決定し、ステップS1107に進む。
一方、ステップS1104において、自国の船舶でないと判定した場合には(ステップS1104においてNoの場合には)、ステップS1109に進む。ステップS1109において、優先順位決定部604は、i番目の対象物が、教師データのデータ量が充分にある他国の船舶であると判定する。更に、ステップS1110において、優先順位決定部604は、i番目の対象物を表示する際の優先順位を“中”に決定し、ステップS1107に進む。
一方、ステップS1103において、i番目の対象物の確信度が閾値以上でないと判定した場合には(ステップS1103においてNoの場合には)、ステップS1111に進む。
ステップS1111において、優先順位決定部604は、i番目の対象物の標準偏差(決定用情報1000の“標準偏差”)が閾値以下であるか否かを判定する。ステップS1111において、i番目の対象物の標準偏差が閾値以下であると判定した場合には(ステップS1111においてYesの場合には)、ステップS1112に進む。
ステップS1112において、優先順位決定部604は、i番目の対象物が、正体不明の船舶であると判定する。更に、ステップS1113において、優先順位決定部604は、i番目の対象物を表示する際の優先順位を“高”に決定し、ステップS1107に進む。
一方、ステップS1111において、i番目の対象物の標準偏差が閾値以下でないと判定した場合には(ステップS1111においてNoの場合には)、ステップS1114に進む。
ステップS1114において、優先順位決定部604は、i番目の対象物が、教師データのデータ量が少ない船舶であると判定する。更に、ステップS1115において、優先順位決定部604は、i番目の対象物を表示する際の優先順位を“最高”に決定し、ステップS1107に進む。
ステップS1107において、優先順位決定部604は、判別された全ての対象物について、優先順位を決定したか否かを判定する。ステップS1107において、優先順位を決定していない対象物があると判定した場合には(ステップS1107においてNoの場合には)、ステップS1108に進む。ステップS1108において、優先順位決定部604は、カウンタiをインクリメントした後、ステップS1103に戻る。
一方、ステップS1107において、判別された全ての対象物について、優先順位を決定したと判定した場合には(ステップS1107においてYesの場合には)、優先順位決定処理を終了する。
(5)表示画像生成部及び表示制御部の処理の具体例
次に、表示画像生成部605の処理の具体例について説明する。図12は、情報表示装置の表示画像生成部及び表示制御部の処理の具体例を示す図である。表示画像生成部605では、画像データ取得部601より入力画像データを取得すると、図12(a)に示すように、入力画像データ表示領域1210に、取得した入力画像データを配置した表示画像データを生成する。表示画像生成部605では、画像データ取得部601より、入力画像データを取得するごとに、入力画像データ表示領域1210に配置する入力画像データを順次更新する。これにより、表示制御部606では、最新の入力画像データを含む表示画像データ1200を確認者140に提供することができる。
次に、表示画像生成部605の処理の具体例について説明する。図12は、情報表示装置の表示画像生成部及び表示制御部の処理の具体例を示す図である。表示画像生成部605では、画像データ取得部601より入力画像データを取得すると、図12(a)に示すように、入力画像データ表示領域1210に、取得した入力画像データを配置した表示画像データを生成する。表示画像生成部605では、画像データ取得部601より、入力画像データを取得するごとに、入力画像データ表示領域1210に配置する入力画像データを順次更新する。これにより、表示制御部606では、最新の入力画像データを含む表示画像データ1200を確認者140に提供することができる。
また、表示画像生成部605では、優先順位決定部604より、優先順位情報を取得する。また、表示画像生成部605では、優先順位=“最高”に決定された対象物を含む対象画像データを選択し、拡大処理した後、確認用画像データ1221として、確認対象表示領域1220に配置する(つまり、表示サイズの大きさを変更して表示する)。更に、表示画像生成部605では、優先順位=“高”に決定された対象物を含む対象画像データを選択し、拡大処理した後、確認用画像データ1222として、確認対象表示領域1220に配置する(つまり、表示サイズの大きさを変更して表示する)。これにより、図12(b)に示すように、表示制御部606では、複数回の撮影が完了したタイミングで、確認対象表示領域1220に確認用画像データが配置された表示画像データ1200を確認者140に提供することができる。
なお、優先順位=“最高”に決定された対象物を含む対象画像データを拡大処理する際の拡大率は、優先順位=“高”に決定された対象物を含む対象画像データを拡大処理する際の拡大率よりも高く設定されているものとする。また、確認対象表示領域1220において、複数の確認用画像データが重ねて表示される場合、優先順位=“最高”に決定された対象物を含む対象画像データに基づく確認用画像データが最前面に表示されるものとする。このように、優先順位=“最高”に決定された対象物を含む対象画像データは、確認対象表示領域1220において、他の対象画像データよりも強調表示された確認用画像データとして表示される。
なお、確認用画像データを確認対象表示領域1220に表示するようにしたのは、仮に、入力画像データ表示領域1210に表示すると、対象物が大きく表示された場合に、距離が近いのか、強調表示されているのかが区別しにくくなるためである。
確認対象表示領域1220に表示された確認用画像データに対して、確認者140による確認結果が入力されると、表示制御部606では、入力された確認結果を、確認用画像データと対応付けて、確認結果送信部613に通知する。また、表示制御部606では、当該確認用画像データを、確認対象表示領域1220から削除する。
以上の説明から明らかなように、第1の実施形態に係る情報表示装置120によれば、確認が必要な対象物を含む対象画像データを、優先して確認者に表示することができる。これにより、確認者は、確認が必要な対象物を早期に確認し、判定結果を関連付けることで、当該対象画像データを新たな教師データとして活用することが可能になる。この結果、教師データを効率的に収集することが可能になる。
[第2の実施形態]
上記第1の実施形態において、優先順位決定部604では、生成した決定用情報1000に基づいて、対象画像データを表示する際の優先順位を決定するにあたり、確信度と標準偏差と、自国と他国の区分と、を用いる場合について説明した。しかしながら、優先順位の決定方法はこれに限定されず、例えば、自国と他国の区分に代えて、距離データを用いるようにしてもよい。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。
上記第1の実施形態において、優先順位決定部604では、生成した決定用情報1000に基づいて、対象画像データを表示する際の優先順位を決定するにあたり、確信度と標準偏差と、自国と他国の区分と、を用いる場合について説明した。しかしながら、優先順位の決定方法はこれに限定されず、例えば、自国と他国の区分に代えて、距離データを用いるようにしてもよい。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。
図13は、優先順位決定処理の流れを示す第2のフローチャートである。図11で示したフローチャートとの相違点は、ステップS1301、S1302、S1303である。
ステップS1301において、優先順位決定部604は、i番目の対象物についての距離データが、所定の閾値以下であるか否かを判定する。ステップS1301において、所定の閾値以下でないと判定した場合には(ステップS1301においてNoの場合には)、ステップS1302に進む。
ステップS1302において、優先順位決定部604は、i番目の対象物は、データ量が充分にある離れた位置の船舶と判定し、ステップS1106に進む。
一方、ステップS1301において、所定の閾値以下であると判定した場合には(ステップS1301においてYesの場合には)、ステップS1303に進む。
ステップS1303において、優先順位決定部604は、i番目の対象物は、データ量が充分にある近い位置の船舶と判定し、ステップS1110に進む。
このように、第2の実施形態によれば、距離が短い対象物を含む対象画像データを、優先して確認者に表示することが可能となる。
[その他の実施形態]
上記第1及び第2の実施形態では、対象画像データを表示する際の優先順位を決定するにあたり、確信度と標準偏差以外の他のパラメータとして、自国と他国の区分、距離データを用いたが、これに限定されない。例えば、対象物の移動方向、対象物の属性等を用いてもよい。また、優先順位の決定方法は、図11及び図13に示した決定方法に限定されず、例えば、確信度と標準偏差と他のパラメータとを任意の演算式に基づいて組み合わせた決定方法を用いてもよい。
上記第1及び第2の実施形態では、対象画像データを表示する際の優先順位を決定するにあたり、確信度と標準偏差以外の他のパラメータとして、自国と他国の区分、距離データを用いたが、これに限定されない。例えば、対象物の移動方向、対象物の属性等を用いてもよい。また、優先順位の決定方法は、図11及び図13に示した決定方法に限定されず、例えば、確信度と標準偏差と他のパラメータとを任意の演算式に基づいて組み合わせた決定方法を用いてもよい。
また、上記第1及び第2の実施形態では、判別する対象物が船舶である場合について説明したが、判別する対象物は船舶に限定されず、例えば、車両等であってもよい。
また、上記第1及び第2の実施形態では、判別する対象物(船舶)と撮像装置110’の両方が動く場合について説明した。しかしながら、判別する対象物と撮像装置110’の一方のみが動き、他方は静止していてもよい(つまり、判別する対象物と撮像装置110’との相対的な位置関係が時間経過とともに変化していればよい)。
あるいは、判別する対象物と撮像装置110’との相対的な位置関係が時間経過とともに変化しなくても、例えば、判別する対象物の周辺環境(昼→夜、晴れ→雨等)が時間経過とともに変化していてもよい。
また、上記第1及び第2の実施形態では、サーバ装置130に対して、1台の情報表示装置120が通信する場合について説明したが、サーバ装置130と通信する情報表示装置120は、複数台であってもよい。
また、上記第1及び第2の実施形態では、情報表示装置120とサーバ装置130とを別体としたが、両者は一体であってもよい。また、情報表示装置120の一部の機能は、サーバ装置130において実現されてもよい。あるいは、サーバ装置130の一部の機能は、情報表示装置120において実現されてもよい。
なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、
特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、
処理をコンピュータに実行させるための表示プログラム。
(付記2)
前記表示する処理は、機械学習に用いられた教師データの量に関する情報を用いて算出された確信度が低いほど、前記入力画像データに含まれる対象を大きいサイズで表示する、ことを特徴とする付記1に記載の表示プログラム。
(付記3)
前記表示する処理は、更に、前記入力画像データを撮影した撮像装置から前記入力画像データに含まれる対象までの距離データを取得し、距離が短いほど前記入力画像データに含まれる対象を大きいサイズで表示する、ことを特徴とする付記1に記載の表示プログラム。
(付記4)
複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力する処理部と、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶する記憶部と、を有し、
前記処理部は、特定の検出対象であることの判定結果を出力する際に、該特定の検出結果についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示することを特徴とする表示装置。
(付記5)
複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、
特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、
処理をコンピュータが実行する表示方法。
(付記6)
複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別し、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する、
処理をコンピュータに実行させるための表示プログラム。
(付記7)
前記優先順位に応じて、前記複数の対象物を表示する際の表示態様を変更することを特徴とする付記6に記載の表示プログラム。
(付記8)
前記優先順位が高いほど、前記対象物を強調表示することを特徴とする付記7に記載の表示プログラム。
(付記9)
複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別する判別部と、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する決定部と
を有することを特徴とする表示装置。
(付記10)
複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別し、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する、
処理をコンピュータが実行する表示方法。
(付記1)
複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、
特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、
処理をコンピュータに実行させるための表示プログラム。
(付記2)
前記表示する処理は、機械学習に用いられた教師データの量に関する情報を用いて算出された確信度が低いほど、前記入力画像データに含まれる対象を大きいサイズで表示する、ことを特徴とする付記1に記載の表示プログラム。
(付記3)
前記表示する処理は、更に、前記入力画像データを撮影した撮像装置から前記入力画像データに含まれる対象までの距離データを取得し、距離が短いほど前記入力画像データに含まれる対象を大きいサイズで表示する、ことを特徴とする付記1に記載の表示プログラム。
(付記4)
複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力する処理部と、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶する記憶部と、を有し、
前記処理部は、特定の検出対象であることの判定結果を出力する際に、該特定の検出結果についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示することを特徴とする表示装置。
(付記5)
複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、
特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、
処理をコンピュータが実行する表示方法。
(付記6)
複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別し、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する、
処理をコンピュータに実行させるための表示プログラム。
(付記7)
前記優先順位に応じて、前記複数の対象物を表示する際の表示態様を変更することを特徴とする付記6に記載の表示プログラム。
(付記8)
前記優先順位が高いほど、前記対象物を強調表示することを特徴とする付記7に記載の表示プログラム。
(付記9)
複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別する判別部と、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する決定部と
を有することを特徴とする表示装置。
(付記10)
複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別し、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する、
処理をコンピュータが実行する表示方法。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :情報収集システム
110 :対象物検知装置
110’ :撮像装置
120 :情報表示装置
121 :対象物表示部
130 :サーバ装置
131 :学習部
132 :状況データ取得部
400 :学習モデル
420 :データ量情報
601 :画像データ取得部
602 :判別対象抽出部
603 :実行部
604 :優先順位決定部
605 :表示画像生成部
606 :表示制御部
611 :学習結果取得部
612 :距離データ取得部
613 :確認結果送信部
730 :対象画像データ群
800 :学習済みモデル
1000 :決定用情報
1200 :表示画像データ
110 :対象物検知装置
110’ :撮像装置
120 :情報表示装置
121 :対象物表示部
130 :サーバ装置
131 :学習部
132 :状況データ取得部
400 :学習モデル
420 :データ量情報
601 :画像データ取得部
602 :判別対象抽出部
603 :実行部
604 :優先順位決定部
605 :表示画像生成部
606 :表示制御部
611 :学習結果取得部
612 :距離データ取得部
613 :確認結果送信部
730 :対象画像データ群
800 :学習済みモデル
1000 :決定用情報
1200 :表示画像データ
Claims (8)
- 複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、
特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、
処理をコンピュータに実行させるための表示プログラム。 - 前記表示する処理は、機械学習に用いられた教師データの量に関する情報を用いて算出された確信度が低いほど、前記入力画像データに含まれる対象を大きいサイズで表示する、ことを特徴とする請求項1に記載の表示プログラム。
- 前記表示する処理は、更に、前記入力画像データを撮影した撮像装置から前記入力画像データに含まれる対象までの距離データを取得し、距離が短いほど前記入力画像データに含まれる対象を大きいサイズで表示する、ことを特徴とする請求項1に記載の表示プログラム。
- 複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力する処理部と、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶する記憶部と、を有し、
前記処理部は、特定の検出対象であることの判定結果を出力する際に、該特定の検出結果についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示することを特徴とする表示装置。 - 複数の検出対象のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを利用して、入力画像データに含まれる対象がいずれの検出対象であるかの判定結果を出力し、
前記複数の検出対象のそれぞれについて機械学習に利用した教師データの量に関する情報を記憶し、
特定の検出対象であることの判定結果を出力する際に、該特定の検出対象についてどの程度の量の教師データを用いて機械学習したかに応じて、前記入力画像データに含まれる対象の表示サイズの大きさを変更して表示する、
処理をコンピュータが実行する表示方法。 - 複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別し、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する、
処理をコンピュータに実行させるための表示プログラム。 - 複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別する判別部と、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する決定部と
を有することを特徴とする表示装置。 - 複数の物体のそれぞれに関する画像データを教師データとして機械学習された学習済みモデルを用いて、複数の入力画像データのそれぞれに含まれる複数の対象物を判別し、
前記複数の入力画像データのそれぞれに含まれる複数の対象物を判別した際の確信度について、入力画像データ間における対象物ごとのばらつきを算出し、前記複数の対象物を表示する際の優先順位を決定する、
処理をコンピュータが実行する表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018134413A JP2020013274A (ja) | 2018-07-17 | 2018-07-17 | 表示プログラム、表示装置及び表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018134413A JP2020013274A (ja) | 2018-07-17 | 2018-07-17 | 表示プログラム、表示装置及び表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020013274A true JP2020013274A (ja) | 2020-01-23 |
Family
ID=69169930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018134413A Pending JP2020013274A (ja) | 2018-07-17 | 2018-07-17 | 表示プログラム、表示装置及び表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020013274A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115100703A (zh) * | 2022-05-17 | 2022-09-23 | 交通运输部水运科学研究所 | 一种偷渡行为确定方法及装置 |
CN115100703B (zh) * | 2022-05-17 | 2024-05-14 | 交通运输部水运科学研究所 | 一种偷渡行为确定方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0765168A (ja) * | 1993-08-31 | 1995-03-10 | Hitachi Ltd | 関数近似装置及び方法 |
WO2011070783A1 (ja) * | 2009-12-10 | 2011-06-16 | パナソニック株式会社 | 情報表示装置及び情報表示方法 |
JP2017091062A (ja) * | 2015-11-05 | 2017-05-25 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
WO2017179258A1 (ja) * | 2016-04-11 | 2017-10-19 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
-
2018
- 2018-07-17 JP JP2018134413A patent/JP2020013274A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0765168A (ja) * | 1993-08-31 | 1995-03-10 | Hitachi Ltd | 関数近似装置及び方法 |
WO2011070783A1 (ja) * | 2009-12-10 | 2011-06-16 | パナソニック株式会社 | 情報表示装置及び情報表示方法 |
JP2017091062A (ja) * | 2015-11-05 | 2017-05-25 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
WO2017179258A1 (ja) * | 2016-04-11 | 2017-10-19 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115100703A (zh) * | 2022-05-17 | 2022-09-23 | 交通运输部水运科学研究所 | 一种偷渡行为确定方法及装置 |
CN115100703B (zh) * | 2022-05-17 | 2024-05-14 | 交通运输部水运科学研究所 | 一种偷渡行为确定方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778867B (zh) | 目标检测方法和装置、神经网络训练方法和装置 | |
US9928875B2 (en) | Efficient video annotation with optical flow based estimation and suggestion | |
EP2405393B1 (en) | Device, method and program for creating information for object position estimation | |
US9058538B1 (en) | Bundle adjustment based on image capture intervals | |
CN107329490A (zh) | 无人机避障方法及无人机 | |
CN110348454A (zh) | 匹配局部图像特征描述符 | |
EP3979065A1 (en) | Screen projection method and system | |
CN108156384A (zh) | 图像处理方法、装置、电子设备及介质 | |
CN111951158B (zh) | 一种无人机航拍图像拼接中断的恢复方法、装置和存储介质 | |
CN114662617A (zh) | 基于多模态学习策略的多源数据编织系统处理方法及装置 | |
JP2018029270A (ja) | 画像処理装置およびその制御方法、撮像装置、プログラム | |
JP2020013274A (ja) | 表示プログラム、表示装置及び表示方法 | |
JP2008158776A (ja) | 特徴検出方法及び装置、プログラム、記憶媒体 | |
US9418428B2 (en) | Position management device, position management system, position management method, and position management program | |
CN113807182B (zh) | 用于处理点云的方法、装置、介质以及电子设备 | |
JP2020071160A (ja) | 測距カメラ | |
CN105323460B (zh) | 图像处理设备及其控制方法 | |
CN115730208A (zh) | 训练方法、训练装置、训练设备及计算机可读存储介质 | |
Khan et al. | Robust Multimodal Depth Estimation using Transformer based Generative Adversarial Networks | |
KR20210024871A (ko) | 기계학습 모델 관리 시스템과 방법 및 영상 분석 장치 | |
JP2011165117A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP7370548B1 (ja) | 異常行動検出システム | |
JP2020004179A (ja) | 画像処理プログラム、画像処理装置及び画像処理方法 | |
JP2017228873A (ja) | 画像処理装置、撮像装置、制御方法およびプログラム | |
US20210409592A1 (en) | Object detection device, system, method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220920 |