JP2020106890A - 情報処理装置、その制御方法、プログラム、及びシステム - Google Patents
情報処理装置、その制御方法、プログラム、及びシステム Download PDFInfo
- Publication number
- JP2020106890A JP2020106890A JP2018242176A JP2018242176A JP2020106890A JP 2020106890 A JP2020106890 A JP 2020106890A JP 2018242176 A JP2018242176 A JP 2018242176A JP 2018242176 A JP2018242176 A JP 2018242176A JP 2020106890 A JP2020106890 A JP 2020106890A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information processing
- instruction
- time
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 title claims description 38
- 238000003384 imaging method Methods 0.000 claims abstract description 28
- 230000008569 process Effects 0.000 claims description 26
- 241000196324 Embryophyta Species 0.000 claims description 7
- 201000010099 disease Diseases 0.000 claims description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 241000404030 Anacyclus clavatus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Educational Administration (AREA)
- Primary Health Care (AREA)
- Agronomy & Crop Science (AREA)
- Signal Processing (AREA)
- Animal Husbandry (AREA)
- Development Economics (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】 本発明は、移動体に設置されたカメラにより、ユーザが任意のタイミングで行う対象物の撮影指示に適した画像を得られるように支援することを目的とする。【解決手段】 課題を解決するために、本発明の情報処理装置は、予め定義された複数種類の対象に対応する複数のアイテム(902〜904)を表示装置に表示させ、移動体に設置された撮像装置により時系列に撮影された複数の画像のそれぞれに、該画像が撮影された位置および時間に関する情報を関連付けて管理し、表示された前記複数のアイテムのいずれかを選択することによる指示が入力された時の前記移動体または前記撮像装置の位置に関する情報、前記指示が入力された時間に関する情報、および前記選択されたアイテムとに基づいて、前記複数の画像のうち前記選択されたアイテムに対応する対象(1003)が写る画像(1002)を取得する。【選択図】 図5
Description
本発明は、農作物の栽培状況を電子的に管理する技術に関する。
近年、農業分野において、広大な圃場における農作物の栽培状況を電子的に管理するシステムが提供されている。また、圃場での作業者は、農作物の病気の発生、設備の不良など、現場で起こる多様な状況を、記録または管理システムに報告(レポート)するために、現場をカメラで撮影するという方法が提案されている。特許文献1では、予め撮影目的と推奨される構図との対応関係を定義し、撮影装置から通知される撮影目的に対応する構図の情報を返送する。撮影装置の作業者は、撮影装置が受信し、表示した構図の情報を確認し、それに従う構図で対象物を撮影し、報告に用いる方法を提案している。
圃場の規模や栽培する農作物によっては、現場の作業者は、農作業の多くを農業用トラクター等の車両上で行う。従って、作業者が走行中に気づいた雑草の発生や設備の不良などの事象を撮影するには、その都度トラクターから降りる手間が発生する。そこで、車両に設置したカメラで走行中に撮影を行う方法が考えられる。しかしながら、車両上で作業を行っている作業者が記録したい対象物を発見して撮影を指示するタイミングが、発見された対象が車両に固定されたカメラの画角に収まっているタイミングと必ずしも一致するとは限らない。一方、撮り逃しを防ぐために車両に設置したカメラで常時撮影を行うと、記録される画像が膨大となる。さらには、それらの画像の大半が類似した情景を撮影したものとなるため、その中から、作業者に発見された対象が写る画像を特定する作業は大変な手間となる。
そこで本発明は、移動体に設置されたカメラにより、ユーザが任意のタイミングで行う対象物の撮影指示に適した画像を得られるように支援することを目的とする。
上記課題を解決するために、本発明の情報処理装置は、移動体に設置された撮像装置により時系列に撮影された複数の画像のそれぞれに、該画像が撮影された位置および時間に関する情報を関連付けて管理する管理手段と、予め定義された複数種類の対象に対応する複数のアイテムを表示装置に表示させる表示制御手段と、表示された前記複数のアイテムのいずれかを選択することによる指示が入力された時の前記移動体または前記撮像装置の位置に関する情報、前記指示が入力された時間に関する情報、および前記選択されたアイテムとに基づいて、前記複数の画像のうち前記選択されたアイテムに対応する対象が写る画像を取得する画像取得手段とを備える。
本発明によれば、移動体に設置されたカメラにより、ユーザが任意のタイミングで行う対象物の撮影指示に適した画像を得ることができる。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<第1の実施形態>
図1(a)は、本実施形態に係るシステムの構成例を示す図である。カメラ101は、車両に設置されたカメラであり、ネットワーク103により車両に設置されたタブレット端末である報告装置102に接続される。ここで車両とは、具体的には農業用トラクターであり、圃場内を所定の動作(例えば土の耕起、農作物の収穫、あるいは他の農業用機械の牽引等)を伴って走行する。ただしトラクターに替えて、小型トラックや乗用車が使用される場合にも本実施形態は適用可能である。また例えば、車両に限らず他の移動体であってもよい。例えば、撮像装置を備えたドローン等を作業者が操縦しながら散水や農薬散布を行うような作業であっても、作業者に直観的な操作で報告を行うのに本発明は適用され得る。以下では、圃場において農作物の間を走行する農業用車両を例に挙げて実施形態を説明する。
図1(a)は、本実施形態に係るシステムの構成例を示す図である。カメラ101は、車両に設置されたカメラであり、ネットワーク103により車両に設置されたタブレット端末である報告装置102に接続される。ここで車両とは、具体的には農業用トラクターであり、圃場内を所定の動作(例えば土の耕起、農作物の収穫、あるいは他の農業用機械の牽引等)を伴って走行する。ただしトラクターに替えて、小型トラックや乗用車が使用される場合にも本実施形態は適用可能である。また例えば、車両に限らず他の移動体であってもよい。例えば、撮像装置を備えたドローン等を作業者が操縦しながら散水や農薬散布を行うような作業であっても、作業者に直観的な操作で報告を行うのに本発明は適用され得る。以下では、圃場において農作物の間を走行する農業用車両を例に挙げて実施形態を説明する。
報告装置102は、ネットワーク103を介してカメラ制御コマンドを送信することでカメラ101による撮影を制御し、撮影画像、撮影時刻(時間)、撮影位置を取得する情報処理装置である。さらに、報告装置102は、車両上で作業者が気づいた事象に対する報告の指示や、農作業後の報告された内容の表示を行う。作業者とは、圃場で実際に農作業に従事する者であり、報告装置102のユーザである。なお、本実施形態では、報告を受けつけ、結果を表示するまでの一連の処理を同じタブレット端末で行うが、指示の入力と結果の表示を異なる端末で行うよう構成してもよい。また例えば、報告装置102とネットワーク103を介して通信するサーバ装置を構成に加え、後述する報告装置102による処理のうち、画像の管理及び選択に係る処理は、報告装置102の指示に応じてサーバ装置が行うとしてもよい。
また、本実施形態では、設備不良、雑草の発生、農作物の病気の発生の事象に作業者が気付き、それを管理システムに対して報告する、という目的で使用される情報処理装置を例に説明する。しかしながら、本実施形態でいう「報告」は、作業者が管理システムを扱う他者に情報を「通知」する場合に限らず、後に作業者自身が報告された内容を見直すこと等を可能とするために「記録」する場合を含む。
図1(b)は、本実施形態における報告装置102として機能する情報処理装置のハードウェア構成を示す図である。CPU201は、装置全体を統括的に制御する中央演算装置である。CPU201が制御プログラムに基づいて、情報の演算や加工、各ハードウェアの制御を実行することにより、本実施形態の動作を実現する。RAM202は、汎用的なRAMであり、CPU201の主メモリとして、若しくは、実行プログラムのロードやプログラム実行に必要なワークメモリとして機能する。ROM203は、汎用的なROMであり、例えば、本実施形態の動作を実現するための手順を規定するプログラムを記憶する。ROM203には、コンピュータシステムの機器制御を行うシステムプログラムである基本ソフトウェア(OS)等を記憶したプログラムROMと、システムを稼動するために必要な情報などが記憶されたデータROMが含まれる。また、ROM203の代わりに、SSD209が用いられても良い。
ネットワークIF204は、ネットワークインタフェースであり、LAN等のネットワークを介して送受信されるカメラの制御コマンドや画像データなどのデータの入出力制御を行う。ネットワークIF204は、有線や無線等、ネットワークの媒体に応じた構成を有する。VRAM205は、ビデオRAMであり、表示装置であるディスプレイ206の画面に表示される画像を展開する。ディスプレイ206は、表示装置であり、例えば、液晶ディスプレイである。入力コントローラ207は、入力装置208からの入力信号を制御するコントローラである。入力装置208は、ユーザからの操作指示を受け付けるための外部入力装置であり、例えば、タッチパネル、キーボード、などである。SSD209は、ソリッドステートドライブである。SSD209は、アプリケーションプログラムや、動画データや画像データなどのデータ保存用に用いられる。入力IF210は、メモリカードドライブ等の外部装置と接続するためのインタフェースであり、例えば、デジタルカメラで撮影した画像データの読出しなどに用いられる。入出力バス211は、上述した各ユニット間を相互に通信可能に接続するための入出力バスであり、例えばアドレスバス、データバス、制御バスを含む。
図1(c)は、本実施形態に係る報告装置102として機能する情報処理装置の機能構成の例を示すものである。これらの各機能部は、CPU201が、ROM203に格納されたプログラムをRAM202に展開し、後述する各フローチャートに従った処理を実行することで実現されている。そして、各処理の実行結果をRAM202に保持する。また例えば、CPU201を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
撮影制御部301は、車両に設置されたカメラを制御し、走行中に1秒ごとなど所定の間隔で時系列に複数の画像を撮影させる。そして、本実施形態では、撮影された画像をSSD209に記憶させるとともに、撮影した時刻、位置の情報と関連付けて管理する管理部としても機能する。本実施形態の場合、時系列に撮影された複数の画像のそれぞれに、撮影した時刻、位置の情報と関連付けて記録するテーブルを保持する。図2(a)は、撮影制御部301により、撮影した画像に関する情報が記録されるテーブルの一例である。画像情報テーブル401は、ID、画像ファイル、時刻、位置の情報で構成される。IDとしては、撮影された画像を一意に特定する識別情報が格納され、本実施形態では撮影順に対応する番号が記録される。時刻と位置は、それぞれ撮影制御部301が画像を撮影した時刻とそのときのカメラ位置の情報である。位置には、カメラ101あるいは報告装置102、車両そのものに設置されたGPSセンサなどにより取得した緯度と経度の情報が記録される。ただし、報告装置102あるいは車両に設置されたGPSセンサによって得られる位置情報が、カメラ101に撮影される対象(被写体)の実際の位置と大きくかい離する場合には、差分を変換する処理を加えた結果を格納してもよい。なお、ここで自動撮影が行われる「走行中」は、圃場の広さ、その日の作業内容、記憶装置の容量などの都合に合わせてその定義を決定すればよい。例えば、「走行中」を車両が移動をしている間としてもよく、また、移動していない時間あるいはエンジンが停止されている時間をも含めて所定の作業の開始から終了までの間とすることもできる。本実施形態では、作業の都合で車両が移動していない時間も含めて、報告装置102に所定の作業の開始を示す入力がなされてから終了を示す入力がなされるまでの間とする。
報告指示部302は、ユーザによる指示に応じて、報告内容と、その時の位置また時刻を含む報告情報を生成し記録する。本実施形態では、車両に設置された報告装置102であるタブレット端末に、図5(a)の表示状態901に示すような報告内容を指定するアイテム(ここではボタンを表現する画像902〜904)が表示される。報告指示部302は、報告すべき内容に応じたアイテムを選択(ここでは押下)することにより、ユーザは、指示を入力する。報告指示部302では、選択されたアイテムに対応する報告内容と報告した位置または時刻を含む報告指示を生成して記録する。報告内容とは、撮影する対象(撮影対象)に対応する情報である。本実施形態の場合は、圃場での作業中に、作業者であるユーザが、発見した事象を報告する目的で、その事象を記録するための対象物を撮影する。従って、報告内容は、画像を撮影する目的(撮影目的)に対応するといってもよい。
本実施形態では、図5(a)の状態901に示すように、報告内容の選択肢として「設備不良」、「雑草」、「病気」の3つのボタンアイコンが画面に表示される。各アイテムは、設備不良、雑草の発生、農作物の病気の発生、を報告するために押下される。図2(b)は、報告指示部302によって記録される情報の一例であるテーブルを表す。指示情報テーブル501は、ID、報告内容、時刻、位置の情報で構成される。報告内容は図5(a)で示すタブレット端末を用いてユーザが指定した報告内容であり、本実施形態では「設備不良」、「雑草」、「病気」のいずれかが格納される。時刻と位置は、報告内容をユーザが指定した時刻と位置の情報である。位置は、撮影制御部301により画像情報テーブル401に格納される位置情報と対応する。本実施形態では、報告装置102に入力装置208の一部として搭載されるGPSセンサで検知された位置情報とするが、カメラ101に搭載されるGPSセンサを利用してもよい。撮影制御部301とは別のGPSセンサを使って位置情報が検出される場合は、差を変換する処理を加えるなどしてもよい。
候補画像群取得部304は、時系列に撮影された複数の画像から、ユーザに指定された報告内容に対応する画像を選択する。本実施形態では、まず、画像情報テーブル401に格納された情報に基づいて、複数の画像から報告指示が記録された位置または時刻の近い画像を、候補画像群として選択する。報告画像取得部303は、候補画像群取得部304によって選択された候補画像群の各画像に対して一般物体検出技術を用いて画像に写る所定の物体を検出する処理を行う。そして、所定の物体が検出された位置により、候補画像群の中で指定された報告内容に最も適した画像を報告画像として選択する。例えば、候補画像群の中に所定の物体が写る画像が1つしかなければ、その画像が最も報告に適しているとして選ばれる。物体が複数の画像から検出されれば、物体の位置がより中央である画像が選択される。ここで所定の物体とは、報告内容に応じて予め定義された複数種類の対象物である。ここで図2(c)は、画像を選択するためのパラメータを管理するテーブルの一例である。パラメータ管理テーブル601は、ID、報告内容、対象物で構成される。対象物は、報告内容に対応する撮影対象として定義されている物体の情報である。本実施形態では、報告画像取得部303はパラメータ管理テーブル601を参照することで、指定された報告内容に対応する所定の物体を特定し、所定の記憶部から検出処理に用いるモデルを取得する。
なお、候補画像群取得部304を用いず、報告画像取得部303が、位置または時刻の近いものを優先して物体を検出し、報告内容に最適な画像を検索して報告画像を選択してもよい。また、報告画像取得部303による物体検出処理は、必ずしも報告装置102の内部で行われなくてもよい。すなわち、報告画像取得部303は、ネットワーク103を介してクラウド等に候補画像群のアドレスと検出処理の実行指示を送信し、クラウドが行った物体検出処理の結果として選択された報告画像を取得する機能部に置き換えることもできる。その場合、報告装置102が十分なリソースを有さない場合にも本実施形態による報告処理をスムーズに行うことができる。
表示制御部305は、ディスプレイ206に、各種画像やユーザインタフェースを表示させるための制御を行う。本実施形態では、所定のアプリケーションが起動された場合に、図5(a)の表示状態901に示すユーザインタフェース画面が表示される。なお図5(a)では紙面の都合上、選択肢として表示されるアイテムは全て白いボタンとしているが、ボタンの色をそれぞれ異ならせることができる。このように必要最低限の文字情報のみを表示し、さらには、識別しやすいように配色することで、農作業を行っている最中のユーザにも一見して理解することができ、速やかな操作が可能となる。なお、表示状態901のインタフェースには、ボタンだけでなくカメラが捉えている画像を表示できるようにしてもよい。その場合、作業者はさらにレンズに付着した汚れなどに気づくことができる。
また、表示制御部305は、報告画像取得部303によって選択された画像をユーザに提示するため、ディスプレイ206に表示させる。例えば、図5(c)の表示状態1001は、設備不良を発見したことを報告するために撮影された折れ曲がった杭1003の画像1002を、表示制御部305により表示したタブレット端末の画面を表す一例である。また、報告画像取得部303においては、物体を誤検出する可能性はゼロではないため、表示制御部305は、候補画像群のうちの他の画像1004を、小さく表示するなど報告画像と見た目を変えて表示してもよい。ユーザは、画像1004を確認することで、対象物(ここでは折れ曲がった杭)の他の候補画像を確認できるようにしてもよい。また、報告画像に枠をつけるなど報告画像の見た目を変えて、候補画像群と区別できるよう表示してもよい。
図3は、報告装置102によって実行される報告指示に応じた処理の一例を表すフローチャートである。以下、各工程(ステップ)は、それら符号の先頭にはSを付与して説明することとする。本実施形態では、報告装置102であるタブレット端末において、所定のアプリケーションが起動され「作業開始」を示す操作が入力されたのに応じて、S701の処理が開始される。S701〜S704は、撮影制御部301が、カメラ101を制御し所定の間隔で撮影を繰り返させる処理である。S701は、最後に撮影した時刻から1秒など所定の時間が経過したかどうかを判定する。所定の時間が経過していない場合は、S705に処理を進める。所定の時間が経過している場合は、S702では車両に設置したカメラで画像を撮影する。S703は現在の時刻と位置の情報を取得し、S704では、撮影した画像ファイル、時刻、位置の情報を画像情報テーブル401に記録する。
S705〜S707は、撮影時に報告指示部302が、ユーザによる報告指示を受け付ける処理である。S705は、ユーザが車両に設置したタブレット端末により報告内容を指定したかどうかを判定する。すなわち、表示されたボタンアイコンを押下し、アイテムを選択する操作が入力されたかを判定する。報告内容が指定されていない場合は、S708に処理を進める。指定された場合は、S706は現在の時刻と位置の情報を取得し、S707では、報告内容、時刻、位置の情報を指示情報テーブル501に記録する。
S708では、農作業が終了したかどうかを判定し、農作業が終了するまでS701〜S707の処理を繰り返す。本実施形態では、農作業の終了は、アプリケーションにおいて「作業終了」を示す操作が入力された判定する。ただし、作業の開始及び終了は、例えば車両のエンジンの起動状態や、車両の現在位置があらかじめ記録された圃場の範囲の境界を越えて内外へ移動したことの検出結果によって判定してもよい。
図4は、報告装置102によって実行される指示に応じた画像を表示する処理の一例を表すフローチャートである。本実施形態では、報告装置102であるタブレット端末において、所定のアプリケーションが起動され、ユーザによって報告画像を確認するための操作が入力されたのに応じて、S801の処理が開始される。S801では、候補画像群取得部304が、対象となる報告指示のIDを示す変数iを1に初期化する。S802では、指示情報テーブル501からIDがiの報告指示を取得する。S803では、候補画像群取得部304が、撮影後に報告指示をした場合も考慮して取得した報告指示の時刻を超えず最も近い時刻を持つ画像のIDを画像情報テーブル401から検索する。検索対象は、車両が複数同時に用いられる場合にも対応できるよう、報告指示の位置から所定の範囲内のみを対象とする。なお、複数車両に対応しない場合は、時刻または位置の何れかを用いて検索してもよい。
S804では、候補画像群取得部304が、検索された画像のIDから2つ後のIDまでの計3枚の画像を候補画像群として選択する。例えば、報告指示のIDが1の場合、画像情報テーブル401からIDが4の画像が検索され、ID4〜6の計3枚の画像が候補画像群として選択されるとする。ここで、候補画像群として複数の画像を取得するのは、ユーザが撮影を指示したタイミングが、必ずしもカメラ101の画角に所定の対象物が収まっているタイミングに一致するとは限らないためである。また特に、本実施形態では、ユーザが撮影を指示したタイミングよりも後に撮影された画像を候補に加える。一般的な傾向として、ユーザは車両の座席(車両の構造においてもっとも先頭に当たる部分)にいるが、カメラ101が設置される位置は、できる限り農作物に近づけるために車両の横であることが多い。この場合、作業者が、圃場で発生した事象に気が付いて撮影を指示した時、カメラ101の画角はユーザの視野より後方を捉えている可能性が高い。従って、カメラ101に、発見された事象に係る対象物が撮影されるのは、ユーザが撮影を指示したタイミングよりも後となる。そこで本実施形態ではS803で検索された画像から2つ後に撮影された画像までを候補画像群とする。ただし、候補画像を定める基準はこれに限らない。ユーザの乗車位置と、カメラ101の設置位置の実際の関係に基づき、候補画像群に加える画像の定義を設定することができる。
S805では、報告画像取得部303が、候補画像群の各画像からFaster R−CNNなどの一般物体検出技術を用いて画像に写る物体の名前と位置を検出する。S806では、報告画像取得部303が、パラメータ管理テーブル601から、S802で取得した報告指示の報告内容に対応する対象物を取得し、対象物が最も中央で検出された画像を報告画像として選択する。何れの画像からも対象物が検出されない場合は、S803で検索された画像を報告画像としてもよい。
S807では、表示制御部305が、報告指示の情報と報告画像をディスプレイ206に表示させる。なお、対象物を中心に報告画像から特定の領域を切り出した画像を表示させてもよい。S808では、候補画像群取得部304が、IDがiの報告指示が最後かどうかを判定し、最後でない場合はS809でiに1を足して次に進め、S802〜S807の処理を繰り返す。
以上説明したように本実施形態によれば、車両に設置されたカメラにより所定の間隔で撮影した複数の画像から、ユーザが任意のタイミングで指定した目的に合った画像を、撮影時刻・位置・被写体に基づいて取得する。本実施形態では、ユーザが指定する目的とは、農作物の圃場において発見された事象、特にはトラブルを報告することである。複数の画像から、報告される事象毎に定義された対象物が検出される画像を取得することで、ユーザが大量の画像の中から所望とする画像を探す手間を省くことができる。さらに本実施形態では、対象物が検出された画像内での位置を解析することで、車両に固定されたカメラの位置や画角を微調整することが困難な場合でも、報告内容により適した構図の画像を特定することができる。
なお、本実施形態では、撮影された画像の情報を、図2(a)の画像情報テーブル401に記録して管理したが、テーブルではなく撮影した画像のEXIF情報に記録してもよい。この場合、候補画像群の取得は、各画像のEXIF情報を解析することによって行われる。さらに、本実施形態では、車両の走行中に随時撮影された複数の画像はSSD209に蓄積されるものとしたが、撮影後の一定時間または一定距離以上報告指が無かった場合は、それらの画像が報告に用いられる可能性は低下する。従って、撮影後の経過時間に基づいて、蓄積されている画像を削除するようにしてもよい。
<変形例>
次に、変形例として、作業者によって候補画像群が指定される形態を説明する。第1の実施形態では、表示されたアイテムを選択する指示が入力された場合(S705でYes)、記録される位置情報および時間情報は、選択指示があったその時刻の情報のみであった。そして候補画像群取得部304は、選択指示があった時刻および位置の情報に基づいて候補画像を特定するため、時刻および位置に幅を持たせて複数の画像を検索した(S803)。変形例では、選択指示を起点として、時間あるいは位置により定義される一定の期間に撮影される画像群が、候補画像群となることを、ユーザ自身が指定可能とする。
次に、変形例として、作業者によって候補画像群が指定される形態を説明する。第1の実施形態では、表示されたアイテムを選択する指示が入力された場合(S705でYes)、記録される位置情報および時間情報は、選択指示があったその時刻の情報のみであった。そして候補画像群取得部304は、選択指示があった時刻および位置の情報に基づいて候補画像を特定するため、時刻および位置に幅を持たせて複数の画像を検索した(S803)。変形例では、選択指示を起点として、時間あるいは位置により定義される一定の期間に撮影される画像群が、候補画像群となることを、ユーザ自身が指定可能とする。
車両上の作業者の視野と、車両に設置された撮像装置の画角は必ずしも一致していない。特にユーザである作業者は多くの場合、車両の進行方向を見ている。一方で撮像装置は、撮影対象物が車の進行方向上に存在することは少ないため、進行方向よりも車両の左右方向を主とする方向に向けて設置される傾向にある。従って、作業者が、車両の進行方向に向けた視野の中で何らかの事象の発生に気づくタイミングは、撮像装置がその事象に対応する対象を画角に収めるのと同時かあるいはそれより早い可能性が高い。また作業者は、車両の走行スピード等を制御できる立場にあるため、目視で発見した対象が、撮像装置の画角に入って撮影されるのにかかる時間を把握できる場合がある。従って変形例では、図5(b)の表示状態911において、アイテム902〜904のそれぞれの横に、時間あるいは位置により、アイテムを選択する指示があった時の時刻あるいは位置を起点にした一定の範囲を定義するための入力部912を設ける。具体的には、数値を入力可能なテキストボックスを配置し、時間であれば秒単位、位置であればメートル単位での通知の入力を受付ける。例えば、「10(s)」という設定がなされていれば、選択指示があった時刻を起点にした10秒間で撮影される画像群が、候補画像群として特定される。そして、S805において候補画像取得部303による物体検出処理の対象となる。なお、単位を秒(s)とするかメートル(m)とするかをプルダウンなどで切り替え可能としてもよい。
変形例において、ユーザにより指定された候補画像群の取得は、図4のフローチャートにおけるS803〜S804の処理に置き換えてもよいが、それらと並列または直列に実行されてもよい。両方の処理を行う場合、S803において画像を検索するため基準となる時間と位置は、ユーザが設定した範囲の境界より外側を含むようにする。この場合には、ユーザが設定した範囲では撮影しきれなかった画像も、報告画像の候補として扱うことができ、ユーザの感覚と実際の撮影状況にずれがあったとしてもそれを補うことができる。
<第2の実施形態>
第1の実施形態では、車両1台に設置されるカメラが1台である場合を説明した。それに対し、第2の実施形態では、車両1台に上下左右計4台のカメラを設置して、より広範囲を撮影できるシステムの例を示す。以下、第1の実施形態と共通する要素については適宜説明を省略し、第1の実施形態と差異がある点を中心に説明する。
第1の実施形態では、車両1台に設置されるカメラが1台である場合を説明した。それに対し、第2の実施形態では、車両1台に上下左右計4台のカメラを設置して、より広範囲を撮影できるシステムの例を示す。以下、第1の実施形態と共通する要素については適宜説明を省略し、第1の実施形態と差異がある点を中心に説明する。
図6は、第2の実施形態に係るシステム構成を表す。図1(a)とは、カメラ101が、上下左右4台のカメラ1101〜1104に置き換わり、それぞれが報告装置102と接続するように設定されている点が異なる。報告装置102として機能する情報処理装置のハードウェア構成および機能構成は第1の実施形態に準じる。ただし、第2の実施形態において、撮影制御部301は、上下左右4台のカメラのそれぞれに関連付けて、図2(a)のテーブル401に相当する画像情報テーブルを管理する。
また、本実施形態において、表示制御部305がディスプレイ206に表示するユーザインタフェースは、図5(a)に替って図10の表示状態1601のように、同じ対象に対応する2つのアイテムを左右に並べて表示した画面となる。このようなユーザインタフェースにより、ユーザは左右どちら側に対して報告するかが指定可能となる。本実施形態では、車両の左右に独立した撮像装置を設置されているため、車両が圃場内の通路を一度走行する間に、通路の両側が同時に撮影される。ユーザ(作業者)は、車両に乗った状態で、右側で報告すべき事象の発生に気が付いた場合と、左側で報告すべき事象の発生に気が付いた場合とで、表示状態1601に表示された複数のボタンの左右列を使い分ける。ボタンの配置と、車両の左右を対応させることで、作業中であっても直観的に操作することができる。なお、ここでは一例として左右の2つの撮影方向に対応して、2列のボタンアイコンを表示するが、さらに多くの方向に対応することも可能である。例えば、車両の左右にそれぞれ前後方向を捉える撮像装置を更に設け、報告装置102では、同じ報告指示に対応するボタンアイコンを各撮影方向に対応させた4か所の表示領域にそれぞれに表示する。このように、複数の撮影方向に対応させた複数の表示領域を配置し、各表示領域に複数のアイテムのセットを表示させることで、ユーザは農作業中であっても直感的に操作することができる。
また、図7(a)の指示情報テーブル1201は、図2(b)のテーブル501に対応するもので、報告指示部302によって記録される情報の例を表す。指示情報テーブル1201では、指示情報テーブル501の項目であったID、報告内容、時刻、位置に加えて、車両の左右どちら側で発生した事象を報告するのか、左右方向の情報を示す情報が記録される。さらに、図7(b)のパラメータ管理テーブル1301は、図2(c)で示したテーブル601に対応するもので、報告内容に応じて上下いずれの撮影画像を用いるべきか、上下方向の情報を追加したものである。ここで上下のカメラを選択的に用いるのは、例えば雑草は地面を中心に、農作物の病気は葉や果実を中心に据えた構図が対象物を最も確認しやすいように、より好適な構図の画像を撮影しやすくするためである。
図8は、報告装置102によって実行される報告指示に応じた処理の一例を表すフローチャートである。第1の実施形態で説明した図3のフローチャートと共通するステップには同じ番号を付して詳細な説明は省略する。本実施形態では、S701で所定時間が経過したと判定された場合、S1401において、撮影制御部301が、車両に設置した上下左右4台のカメラを制御し撮影を実行させる。S1402では、予め各方向のカメラごとに用意した4つのカメラのそれぞれに対応する画像情報テーブルに、撮影した画像ファイル、時刻、位置の情報を記録する。S1403では、報告指示部302が、報告内容、時刻、位置に加えて左右どちら側の問題として報告されたのかタブレット端末で指定された方向の情報を指示情報テーブル1201に記録する。
図9は、報告装置102によって実行される指示に応じた画像を表示する処理の一例を表すフローチャートである。本実施形態でも、第1の実施形態で説明した図4のフローチャートと共通するステップS802でIDがiの報告指示(テーブル1201の1レコード)を取得する。そしてS1501において、候補画像群取得部304が、候補画像群取得部304が取得された報告指示から報告内容に対応する上下方向を取得する。S1502では、4つの撮影画像管理テーブルのうち報告指示に含まれる左右方向の情報と、報告内容に対して予め定義された上下方向の情報によってカメラを特定し、カメラに対応づけられた画像情報テーブルを処理対象に設定する。以降は、設定された処理対象の画像情報テーブルに対して、図4と同様の処理が行われる。
以上説明したように本実施形態によれば、複数の方向に設置した複数台のカメラで撮影した画像から、報告指示に基づいて対象となる方向を決定することで、より広範囲に撮影した画像の中から最適な画像を選択して報告に用いることができる。
また、本実施形態によれば、車両に複数の方向に向けて設置された複数台のカメラにより所定の間隔で撮影した複数の画像から、ユーザが任意のタイミングで指定した目的に合った画像を取得することができる。取得された画像は、複数台のカメラを利用することで、カメラが1台の場合に比べて一度の走行で広範囲を撮影することが可能になるので、撮影対象を撮り逃しの可能性は低減する。また、それぞれのカメラを地面や木の枝などの撮影対象が存在する複数の方向に向けて設置できるので、対象物がより適切な構図で写る画像を取得しやすくなる効果がある。
<その他の実施形態>
なお、上述した各処理部のうち、報告画像取得部303、候補画像群取得部304等については、その代わりとして、機械学習された学習済みモデルを代わりに用いて処理しても良い。その場合には、例えば、その処理部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。学習データとなる入力データは車両に設置されたカメラにより時系列に撮影された複数の画像であって、出力データはそれらから抽出された候補画像群、あるいは作業者により選択された報告用画像である。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。そして、その学習済みモデルは、前記処理部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前記処理部の処理を行う。なお、上記学習済みモデルは、必要に応じて一定の処理後に更新しても良い。
なお、上述した各処理部のうち、報告画像取得部303、候補画像群取得部304等については、その代わりとして、機械学習された学習済みモデルを代わりに用いて処理しても良い。その場合には、例えば、その処理部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。学習データとなる入力データは車両に設置されたカメラにより時系列に撮影された複数の画像であって、出力データはそれらから抽出された候補画像群、あるいは作業者により選択された報告用画像である。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。そして、その学習済みモデルは、前記処理部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前記処理部の処理を行う。なお、上記学習済みモデルは、必要に応じて一定の処理後に更新しても良い。
本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301 撮影制御部
302 報告指示部
303 報告画像取得部
304 候補画像群取得部
305 表示制御部
302 報告指示部
303 報告画像取得部
304 候補画像群取得部
305 表示制御部
Claims (20)
- 移動体に設置された撮像装置により時系列に撮影された複数の画像のそれぞれに、該画像が撮影された位置および時間に関する情報を関連付けて管理する管理手段と、
予め定義された複数種類の対象に対応する複数のアイテムを表示装置に表示させる表示制御手段と、
表示された前記複数のアイテムのいずれかを選択することによる指示が入力された時の前記移動体または前記撮像装置の位置に関する情報、前記指示が入力された時間に関する情報、および前記選択されたアイテムとに基づいて、前記複数の画像のうち前記選択されたアイテムに対応する対象が写る画像を取得する画像取得手段、
とを備えることを特徴とする情報処理装置。 - 前記表示制御手段は、前記取得手段によって取得された画像を前記表示装置に表示させることを特徴とする請求項1に記載の情報処理装置。
- 前記取得手段は、前記管理手段によって管理されている、それぞれの画像が撮影された位置およびに関する情報に基づいて、前記複数の画像のうち、前記指示が入力された時の前記移動体または前記撮像装置の位置に近い位置で撮影され、かつ、前記指示が入力された時間に近い時間に撮影された画像群から、前記選択されたアイテムに対応する対象が写る画像を取得することを特徴とする請求項1または2に記載の情報処理装置。
- 前記取得手段は、前記画像群のそれぞれの画像から前記選択されたアイテムに対応する対象を検出する処理を行った結果、前記選択されたアイテムに対応する対象が検出された画像内の位置に基づいて、前記画像を取得することを特徴とする請求項3に記載の情報処理装置。
- 前記取得手段は、前記画像群のうち、前記選択されたアイテムに対応する対象が検出された位置が画像の中心に最も近い画像を取得することを特徴とする請求項4に記載の情報処理装置。
- 前記取得手段は、前記画像群のそれぞれの画像から前記選択されたアイテムに対応する対象が検出されない場合、前記画像群のそれぞれの画像が撮影された位置および時間のいずれかに関する情報に基づいて前記画像群のうちすくなくとも1つの画像を取得することを特徴とする請求項4または5に記載の情報処理装置。
- 前記表示制御手段は、前記画像群に含まれる画像を、前記取得手段によって取得された画像とともに前記表示装置に表示させることを特徴とする請求項3乃至6のいずれか1項に記載の情報処理装置。
- 前記表示制御手段は、前記画像群に含まれる画像のうち前記取得手段によって取得された画像ではない画像の見た目を、前記取得手段によって取得された画像と異ならせることを特徴とする請求項7に記載の情報処理装置。
- 前記画像群に含まれる画像のうち前記取得手段によって取得された画像ではない画像の見た目を、前記取得手段によって取得された画像と異ならせることを特徴とする請求項7に記載の情報処理装置。
- 前記表示制御手段によって表示される前記複数のアイテムとは、ユーザインタフェースを構成する複数のボタンを表現する画像であって、
前記複数のボタンはそれぞれ異なる色で表示されることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 - 前記表示制御手段によって表示される前記複数のアイテムは、前記複数種類の対象のうち同じ対象に対応する2つのアイテムが左右に並べて表示されるものであって、
前記取得手段は、前記移動体の左右に独立して設置された複数の撮像装置のうち、前記指示において前記複数の左右のいずれのアイテムが選択されたかに応じた1以上の撮像装置によって時系列に撮影された画像から、前記選択されたアイテムに対応する対象が写る画像を取得することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。 - 前記複数の撮像装置は、前記移動体の上下左右の少なくとも4方向に向けて設置されることを特徴とする請求項11に記載の情報処理装置。
- 複数の撮影方向に向く状態で移動体に設置された複数の撮像装置により時系列に撮影された複数の画像のそれぞれに、該画像が撮影された位置および時間に関する情報を関連付けて管理する管理手段と、
表示装置に表示される画像において、前記複数の撮影方向のそれぞれに対応する位置に、予め定義された複数種類の対象に対応する複数のアイテムのセットを表示させる表示制御手段と、
表示された前記複数のアイテムのいずれかを選択することによる指示が入力された時の前記移動体または前記撮像装置の位置に関する情報と、前記指示が入力された時間に関する情報、および前記選択されたアイテムとに基づいて、前記選択されたアイテムの位置に対応する撮影方向に向く撮像装置により撮影された複数の画像のうち前記選択されたアイテムに対応する1以上の画像を取得する画像取得手段、
とを備えることを特徴とする情報処理装置。 - 前記複数の撮像装置は、前記移動体の左右の少なくとも2方向に向けて設置されることを特徴とする請求項13に記載の情報処理装置。
- 前記移動体とは、農作業に用いられる車両であって、前記予め定義された複数種類の対象には、少なくとも農作物が栽培される圃場における設備不良、雑草の発生、農作物の病気の発生のいずれかを記録するために撮影される対象を含むことを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
- 情報処理装置の制御方法であって、
管理手段により、移動体に設置された撮像装置により時系列に撮影された複数の画像のそれぞれに、該画像が撮影された位置および時間に関する情報を関連付けて管理する工程と、
表示制御手段により、予め定義された複数種類の対象に対応する複数のアイテムを表示装置に表示させる工程と、
画像取得手段により、表示された前記複数のアイテムのいずれかを選択することによる指示が入力された時の前記移動体または前記撮像装置の位置に関する情報、前記指示が入力された時間に関する情報、および前記選択されたアイテムとに基づいて、前記複数の画像のうち前記選択されたアイテムに対応する対象が写る画像を取得する工程、
とを有することを特徴とする情報処理装置の制御方法。 - 情報処理装置の制御方法であって、
管理手段により、複数の撮影方向に向く状態で移動体に設置された複数の撮像装置により時系列に撮影された複数の画像のそれぞれに、該画像が撮影された位置および時間に関する情報を関連付けて管理する工程、
表示制御手段により、表示装置に表示される画像において、前記複数の撮影方向のそれぞれに対応する位置に、予め定義された複数種類の対象に対応する複数のアイテムのセットを表示させる工程と、
画像取得手段により、表示された前記複数のアイテムのいずれかを選択することによる指示が入力された時の前記移動体または前記撮像装置の位置に関する情報と、前記指示が入力された時間に関する情報、および前記選択されたアイテムとに基づいて、前記選択されたアイテムの位置に対応する撮影方向に向く撮像装置により撮影された複数の画像のうち前記選択されたアイテムに対応する1以上の画像を取得する工程、
とを有することを特徴とする情報処理装置の制御方法。 - コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項1乃至15のいずれか1項に記載の情報処理装置として機能させるプログラム。
- 請求項18に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
- 移動体に設置された撮像装置により時系列に撮影された複数の画像のそれぞれに、該画像が撮影された位置および時間に関する情報を関連付けて管理する管理手段と、
予め定義された複数種類の対象に対応する複数のアイテムを表示装置に表示させる表示制御手段と、
表示された前記複数のアイテムのいずれかを選択することによる指示が入力された時の前記移動体または前記撮像装置の位置に関する情報、前記指示が入力された時間に関する情報、および前記選択されたアイテムとに基づいて、前記複数の画像のうち前記選択されたアイテムに対応する対象が写る画像を取得する画像取得手段、
とを備えることを特徴とする情報処理システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018242176A JP2020106890A (ja) | 2018-12-26 | 2018-12-26 | 情報処理装置、その制御方法、プログラム、及びシステム |
EP19215780.8A EP3675009A1 (en) | 2018-12-26 | 2019-12-12 | Information processing apparatus that manages image captured at site where agricultural crop is cultivated, method for controlling the same, storage medium, and system |
US16/721,728 US11386651B2 (en) | 2018-12-26 | 2019-12-19 | Information processing apparatus that manages image captured at site where agricultural crop is cultivated, method for controlling the same, storage medium, and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018242176A JP2020106890A (ja) | 2018-12-26 | 2018-12-26 | 情報処理装置、その制御方法、プログラム、及びシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020106890A true JP2020106890A (ja) | 2020-07-09 |
Family
ID=68916240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018242176A Pending JP2020106890A (ja) | 2018-12-26 | 2018-12-26 | 情報処理装置、その制御方法、プログラム、及びシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11386651B2 (ja) |
EP (1) | EP3675009A1 (ja) |
JP (1) | JP2020106890A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112022005080T5 (de) | 2021-10-18 | 2024-09-05 | Hitachi Astemo, Ltd. | Fahrzeugmontiertes bildgebungssystem |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022067957A (ja) * | 2020-10-21 | 2022-05-09 | キヤノン株式会社 | 画像表示装置、画像表示方法、画像表示システム及びプログラム |
CN112511738B (zh) * | 2020-11-19 | 2023-04-07 | 北京麦科伦科技有限公司 | 控制方法、装置、电子设备及可读存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5729476B2 (ja) | 1974-04-10 | 1982-06-23 | ||
EP2752808A4 (en) * | 2011-08-30 | 2015-02-18 | Fujitsu Ltd | IMAGING DEVICE, WORK SUPPORT PROGRAM, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING PROGRAM |
EP2752807A4 (en) | 2011-08-30 | 2015-02-18 | Fujitsu Ltd | PICTURE DEVICE, PICTURE SUPPORT PROGRAM, INFORMATION PROCESSING, AND INFORMATION PROGRAM |
US20160140438A1 (en) * | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification |
US20160350336A1 (en) * | 2015-05-31 | 2016-12-01 | Allyke, Inc. | Automated image searching, exploration and discovery |
AU2015404580B2 (en) * | 2015-08-06 | 2018-12-13 | Accenture Global Services Limited | Condition detection using image processing |
JP6357140B2 (ja) * | 2015-09-18 | 2018-07-11 | Psソリューションズ株式会社 | 画像判定方法 |
US10255670B1 (en) * | 2017-01-08 | 2019-04-09 | Dolly Y. Wu PLLC | Image sensor and module for agricultural crop improvement |
-
2018
- 2018-12-26 JP JP2018242176A patent/JP2020106890A/ja active Pending
-
2019
- 2019-12-12 EP EP19215780.8A patent/EP3675009A1/en not_active Withdrawn
- 2019-12-19 US US16/721,728 patent/US11386651B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112022005080T5 (de) | 2021-10-18 | 2024-09-05 | Hitachi Astemo, Ltd. | Fahrzeugmontiertes bildgebungssystem |
Also Published As
Publication number | Publication date |
---|---|
US11386651B2 (en) | 2022-07-12 |
US20200210698A1 (en) | 2020-07-02 |
EP3675009A1 (en) | 2020-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020151084A1 (zh) | 目标对象的监控方法、装置及系统 | |
JP2020106890A (ja) | 情報処理装置、その制御方法、プログラム、及びシステム | |
RU2727178C1 (ru) | Устройство содействия отслеживанию, система содействия отслеживанию и способ содействия отслеживанию | |
JP5227911B2 (ja) | 監視映像検索装置及び監視システム | |
JP6554280B2 (ja) | データ処理装置、画像処理方法、及び、プログラム | |
WO2016132705A1 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
JP6593742B2 (ja) | 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法 | |
DE112016002373T5 (de) | Tracking-support-vorrichtung, tracking-support-system und tracking-support-verfahren | |
JP2014153813A5 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2018032950A (ja) | 情報処理装置及びその方法、コンピュータプログラム | |
JP2017216675A (ja) | 演算処理装置及び演算処理方法 | |
JP6812203B2 (ja) | 情報処理システム、情報処理方法、携帯投影端末 | |
JP6841608B2 (ja) | 振る舞い検知システム | |
CN109886129B (zh) | 提示信息生成方法和装置,存储介质及电子装置 | |
JP6004148B1 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP6575845B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
JP2020064466A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2017011417A (ja) | 表示制御装置、表示制御方法、プログラム | |
JP6396682B2 (ja) | 監視カメラシステム | |
JP2017162432A (ja) | 画像処理システム、情報処理装置、情報端末、プログラム | |
JP2004338889A (ja) | 映像認識装置 | |
JP2020108038A (ja) | 制御装置、その制御方法、産業用自動化システム、プログラム、および記憶媒体 | |
JP2019113976A (ja) | 動線分析システム、動線分析システムの制御方法、およびプログラム | |
WO2021039666A1 (ja) | 情報処理システム、情報処理方法 | |
JP2022159637A (ja) | 情報処理装置、情報処理方法およびプログラム |