JP7444140B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP7444140B2
JP7444140B2 JP2021111815A JP2021111815A JP7444140B2 JP 7444140 B2 JP7444140 B2 JP 7444140B2 JP 2021111815 A JP2021111815 A JP 2021111815A JP 2021111815 A JP2021111815 A JP 2021111815A JP 7444140 B2 JP7444140 B2 JP 7444140B2
Authority
JP
Japan
Prior art keywords
information processing
image
unit
processing device
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021111815A
Other languages
English (en)
Other versions
JP2023008335A (ja
Inventor
萌友 根岸
憲児 大石
英生 植村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Priority to JP2021111815A priority Critical patent/JP7444140B2/ja
Priority to ARP220101709A priority patent/AR126280A1/es
Priority to BR102022013294-1A priority patent/BR102022013294A2/pt
Priority to US17/810,434 priority patent/US20230009404A1/en
Publication of JP2023008335A publication Critical patent/JP2023008335A/ja
Application granted granted Critical
Publication of JP7444140B2 publication Critical patent/JP7444140B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/25UAVs specially adapted for particular uses or applications for manufacturing or servicing
    • B64U2101/26UAVs specially adapted for particular uses or applications for manufacturing or servicing for manufacturing, inspections or repairs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本開示は、情報処理装置に関する。
従来、ドローンなどを含む飛行体を用いて点検対象物を点検するための技術が知られている。例えば、特許文献1には、飛行体に搭載した撮像装置を用いて点検対象面の静止画像を複数取得し、取得した静止画像に対して所定の解析処理を行うことで点検対象面の点検を行う点検システムが記載されている。
特開2021-022846号公報
飛行体に備わったカメラを用いて点検対象物を動画撮像すると、被写体としての点検対象物と飛行体との相対位置が常時変化する。すなわち、動画の中では、被写体の座標及び姿勢がフレームごとに連続的に変化することになる。点検対象となるフレームの区間を動画全域とすると、画像ノイズが大きい区間及び被写体を正確に捕捉できていない区間も解析対象となり、動画に基づいて点検対象物を点検するときの点検精度が著しく低下する。
本開示は、飛行体が飛行中に点検対象物を撮像する際にも、一連の撮像画像から点検に適切な画像を取得できる情報処理装置を提供することを目的とする。
幾つかの実施形態に係る情報処理装置は、飛行している飛行体が撮像した点検対象物の動画を前記飛行体から取得する画像取得部と、解析の基準となる基準静止画及び前記基準静止画と取得した前記動画に含まれるフレームとの類似度の閾値を記憶する記憶部と、前記基準静止画との前記類似度を前記フレームごとに算出し、前記類似度及び前記閾値に基づいて連続する複数の前記フレームを解析対象として抽出する画像抽出部と、を備える。
これにより、情報処理装置は、飛行体が飛行中に点検対象物を撮像する際にも、一連の撮像画像から点検に適切な画像を取得できる。情報処理装置は、飛行体と点検対象物との相対位置が変化するときであっても点検精度を向上させることが可能である。例えば、情報処理装置は、類似度及び閾値に基づいて連続する複数のフレームを解析対象として動画から抽出することで、解析対象となるフレーム範囲のみを抽出可能である。したがって、周期的に動作している点検対象物を飛行体が撮像したときの動画を用いて点検対象物を点検する場合において、画像ノイズが大きい区間及び被写体を正確に捕捉できていない区間のフレームを除いた状態で画像解析が可能となる。したがって、画像解析に不要な部分を除去してノイズの低減が実現されるので、点検対象物を点検するときの精度が向上する。
一実施形態において、前記画像抽出部は、連続する複数の前記フレームの前記類似度の平均値を、前記フレームをずらしながら算出し、算出した前記平均値が前記閾値以上である連続する複数の前記フレームを解析対象として抽出してもよい。これにより、情報処理装置は、類似度が特に高いフレーム範囲を予め抽出して後の画像解析に用いることができる。したがって、点検対象物を点検するときの精度がさらに向上する。
一実施形態において、前記画像抽出部は、前記類似度が前記閾値よりも小さいと判定した場合、前記フレームにフィルタリング処理を実行してもよい。情報処理装置は、動画の撮像時にデータに含まれた各種ノイズをフィルタリング処理によって除去することで、類似度の再算出処理において算出精度を向上させることが可能となる。
一実施形態において、情報処理装置は、前記フレームから特徴点を抽出し、抽出した前記特徴点の位置が連続する複数の前記フレームにおいて一致するように前記フレームを画像処理する画像解析部をさらに備えてもよい。これにより、情報処理装置は、取得した動画データに対して擬似的にカメラ視点を固定する画像生成処理を実行することができる。これにより、飛行体と点検対象物との間の相対位置が常時変化する場合であっても、点検対象物の動作変化が正確に捉えられる。したがって、点検対象物を点検するときの精度がさらに向上する。
一実施形態において、前記画像解析部は、画像処理した連続する複数の前記フレームから前記点検対象物の動作周波数を算出してもよい。これにより、情報処理装置は、周期的に動作している点検対象物の動作が異常であるか否かの判断指標を提供可能である。情報処理装置は、点検対象物の周期性の有無を判定することによって、動作していない点検対象物に対しては動作していないことを、動作している点検対象物に対しては角度変化を精度良く識別することが可能になる。
一実施形態において、前記記憶部は、前記動作周波数の閾値範囲を記憶し、情報処理装置は、前記動作周波数が前記閾値範囲を外れた場合、前記点検対象物の動作が異常であると判定する異常判定部をさらに備えてもよい。これにより、情報処理装置は、解析対象となる点検対象物が正常であるか又は異常であるかを判定するにあたり、ユーザが設定した閾値範囲により一意に自動判定することが可能になる。
一実施形態において、前記記憶部は、前記飛行体と前記点検対象物との距離の範囲を示す距離閾値範囲を記憶し、情報処理装置は、前記飛行体から取得した前記距離が前記距離閾値範囲を外れた場合、前記距離が前記距離閾値範囲の範囲内になるように前記飛行体を変位させる位置調整部をさらに備えてもよい。これにより、情報処理装置は、点検対象物がカメラの視界内に位置するときの動画のみを飛行体に撮像させることが可能である。したがって、情報処理装置は、そのような動画のみを取得可能であり、点検対象物を点検するときの精度を向上させることが可能である。
本開示によれば、飛行体が飛行中に点検対象物を撮像する際にも、一連の撮像画像から点検に適切な画像を取得できる情報処理装置を提供可能である。
本開示の一実施形態に係る情報処理装置を含む情報処理システムの構成を示す構成図である。 図1の情報処理装置、飛行体、及び端末装置のそれぞれの概略構成を示す機能ブロック図である。 図2の情報処理装置における制御部が実現する機能の一例を示す機能ブロック図である。 図1の情報処理装置の動作の一例を示すフローチャートである。 図1の情報処理装置によるフレーム群の抽出処理の一例を示す模式図である。 図1の情報処理装置による画像処理の一例を説明するための第1模式図である。 図1の情報処理装置による画像処理の一例を説明するための第2模式図である。
従来技術の背景及び問題点についてより詳細に説明する。
従来、国土の各地に点在する油井ポンプに異常が発生していないかを点検するとき、ほぼ全ての油井ポンプに対して人による目視点検で行われている。これは、人件費の高騰の要因となっている。このような問題を解決するべく、周期的に動作している油井ポンプをドローンなどの無人飛行体から撮像し、得られた動画に基づいてポンプの回転速度を算出する。これにより、油井ポンプの異常を検出し、かつ石油生産状況を解析可能なアプリケーションが開発段階にある。
油井ポンプは周期的に動作する構造を有している。したがって、その周期から油井ポンプの異常及び石油の生産量を算出することが可能となる。上記のアプリケーションは、当該原理を利用したものである。
ドローンなどの無人飛行体に備わったカメラを用いて油井ポンプを動画撮像すると、被写体としての油井ポンプと無人飛行体との相対位置が常時変化する。すなわち、動画の中では、被写体の座標及び姿勢がフレームごとに連続的に変化することになる。点検対象となるフレームの区間を動画全域とすると、画像ノイズが大きい区間及び被写体を正確に捕捉できていない区間も解析対象となり、動画に基づいて油井ポンプを点検するときの点検精度が著しく低下する。したがって、このような解析対象として適切でない区間のフレームを除いた状態で解析を行うことが望ましい。
特許文献1に記載の点検システムは、ドローンの撮像装置に装備された撮像センサのサイズ及び画素数と、当該撮像センサの焦点距離と、に基づいて決定された撮像高度で、点検対象面の複数の静止画像を取得するよう飛行体の飛行状況と撮像装置の撮像状況とを制御する。これにより、所定の面を効率的かつ効果的に点検することが可能となる。
しかしながら、このような従来技術では、飛行体が撮像した画像に対し解析処理を実行するときに、飛行体と点検対象物との相対位置が変化することについて十分に考慮されていなかった。したがって、飛行体によって点検対象物を点検するときの点検精度を十分に得ることが困難であった。
以下では、これらの問題点を解決可能な情報処理装置、情報処理システム、及び情報処理方法について説明する。本開示の一実施形態について、図面を参照して説明する。
図1は、本開示の一実施形態に係る情報処理装置10を含む情報処理システム1の構成を示す構成図である。図1を参照しながら、本開示の一実施形態に係る情報処理装置10を含む情報処理システム1の概要について主に説明する。情報処理システム1は、情報処理装置10に加えて飛行体20及び端末装置40を有する。情報処理装置10、飛行体20、及び端末装置40は、例えば移動体通信網及びインターネットなどを含むネットワーク50と通信可能に接続されている。
情報処理装置10は、例えば1つ又は互いに通信可能な複数のサーバ装置である。
飛行体20は、例えば人間が搭乗しない任意の飛行体である。飛行体20は、例えば、ドローン及びマルチコプタなどの飛行体を含む。飛行体20は、自律制御によって又は情報処理装置10と協働することによって飛行可能である。飛行体20は、周期的に動作している油井ポンプ30を上空から動画撮像して、油井ポンプ30に異常が発生していないかを点検するために利用される。
端末装置40は、例えばPC(Personal Computer)又はスマートフォンなどの汎用の電子機器である。端末装置40は、例えば、油井ポンプ30に異常が発生していないかを点検するユーザが管理する電子機器である。
図2は、図1の情報処理装置10、飛行体20、及び端末装置40のそれぞれの概略構成を示す機能ブロック図である。図2を参照しながら、情報処理システム1に含まれる情報処理装置10、飛行体20、及び端末装置40のそれぞれの構成について主に説明する。
図2に示すように、情報処理装置10は、通信部11、記憶部12、及び制御部13を有する。
通信部11は、ネットワーク50に接続する通信モジュールを含む。例えば、通信部11は、4G(4th Generation)及び5G(5th Generation)などの移動体通信規格又はインターネット規格に対応する通信モジュールを含む。一実施形態において、情報処理装置10は、通信部11を介してネットワーク50に接続されている。通信部11は、ネットワーク50を介して多様な情報を送信及び受信する。
記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、及びRAM(Random Access Memory)などの任意の記憶モジュールを含む。記憶部12は、情報処理装置10の動作を実現するために必要となる情報を記憶する。例えば、記憶部12は、情報処理装置10の動作を実現するために必要なファームウェアを記憶する。記憶部12は、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。
制御部13は、1つ以上のプロセッサを含む。より具体的には、制御部13は、汎用のプロセッサ又は特定の処理に特化した専用のプロセッサを含む。制御部13は、情報処理装置10を構成する各構成部に接続され、各構成部をはじめとして情報処理装置10全体を制御及び管理する。
次に、情報処理システム1に含まれる飛行体20の構成について主に説明する。図2に示すように、飛行体20は、通信部21、記憶部22、撮像部23、取得部24、及び制御部25を有する。
通信部21は、ネットワーク50に接続する通信モジュールを含む。例えば、通信部21は、4G及び5Gなどの移動体通信規格に対応する通信モジュールを含む。一実施形態において、飛行体20は、通信部21を介してネットワーク50に接続されている。通信部21は、ネットワーク50を介して多様な情報を送信及び受信する。
記憶部22は、HDD、SSD、EEPROM、ROM、及びRAMなどの任意の記憶モジュールを含む。記憶部22は、飛行体20の動作を実現するために必要となる情報を記憶する。例えば、記憶部22は、飛行体20の動作を実現するために必要なファームウェアを記憶する。記憶部22は、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。
撮像部23は、例えば上空から点検対象物を撮像可能な任意の撮像装置を含む。例えば、撮像部23はカメラを含む。
取得部24は、任意の衛星測位システムに対応する1つ以上の受信機を含む。例えば、取得部24は、GPS(Global Positioning System)受信機を含む。加えて、取得部24は、高度計を含む。取得部24は、飛行体20の位置の測定値を位置情報として取得する。位置情報は、例えば緯度、経度、及び高度などを含む。取得部24は、飛行体20の位置情報を常時、又は定期的若しくは非定期的に取得する。
制御部25は、1つ以上のプロセッサを含む。より具体的には、制御部25は、汎用のプロセッサ又は特定の処理に特化した専用のプロセッサを含む。制御部25は、飛行体20を構成する各構成部に接続され、各構成部をはじめとして飛行体20全体を制御及び管理する。
次に、情報処理システム1に含まれる端末装置40の構成について主に説明する。図2に示すように、端末装置40は、通信部41、記憶部42、入力部43、出力部44、及び制御部45を有する。
通信部41は、ネットワーク50に接続する通信モジュールを含む。例えば、通信部41は、4G及び5Gなどの移動体通信規格又はインターネット規格に対応する通信モジュールを含む。一実施形態において、端末装置40は、通信部41を介してネットワーク50に接続されている。通信部41は、ネットワーク50を介して多様な情報を送信及び受信する。
記憶部42は、HDD、SSD、EEPROM、ROM、及びRAMなどの任意の記憶モジュールを含む。記憶部42は、端末装置40の動作を実現するために必要となる情報を記憶する。例えば、記憶部42は、端末装置40の動作を実現するために必要なファームウェアを記憶する。記憶部42は、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。
入力部43は、ユーザ入力を検出して、ユーザの操作に基づく入力情報を取得する1つ以上の入力インタフェースを含む。例えば、入力部43は、物理キー、静電容量キー、出力部44のディスプレイと一体的に設けられたタッチスクリーン、及び音声入力を受け付けるマイクロフォンなどを含む。
出力部44は、情報を出力してユーザに通知する1つ以上の出力インタフェースを含む。例えば、出力部44は、情報を映像で出力するディスプレイ、又は情報を音声で出力するスピーカなどを含む。
制御部45は、1つ以上のプロセッサを含む。より具体的には、制御部45は、汎用のプロセッサ又は特定の処理に特化した専用のプロセッサを含む。制御部45は、端末装置40を構成する各構成部に接続され、各構成部をはじめとして端末装置40全体を制御及び管理する。
以下では、情報処理システム1の機能について主に説明する。
情報処理装置10は、所定地点に設置されている油井ポンプ30を点検するために、当該所定地点付近に位置する所定の飛行体20を選択する。飛行体20は、当該所定地点まで移動し、当該所定地点に設置されている油井ポンプ30の動画撮像を実行する。その後、飛行体20は、周期的に動作している油井ポンプ30を撮像したときの画像を、ネットワーク50を介して情報処理装置10にデータとして送信する。
一実施形態の概要として、情報処理装置10は、飛行している飛行体20が撮像した点検対象物の動画を飛行体20から取得する。情報処理装置10は、解析の基準となる基準静止画及び基準静止画と取得した動画に含まれるフレームとの類似度の閾値、すなわち後述の閾値を記憶する。情報処理装置10は、基準静止画との類似度をフレームごとに算出する。情報処理装置10は、算出した類似度及び閾値に基づいて連続する複数のフレームを解析対象として抽出する。
本明細書において、「点検対象物」は、例えば油井ポンプ30を含む。「画像」は、例えば動画及び複数の静止画を含む。
図3は、図2の情報処理装置10における制御部13が実現する機能の一例を示す機能ブロック図である。図3を参照しながら、制御部13に含まれる各機能部の一例についてより詳細に説明する。
制御部13は、画像取得部131と、画像抽出部132と、画像解析部133と、異常判定部134と、位置調整部135と、を含む。画像取得部131は、周期的に動作している点検対象物を飛行体20の撮像部23が撮像した動画を、ネットワーク50及び通信部11を介して飛行体20から取得する。画像取得部131は、被写体としての点検対象物と飛行体20との相対位置が変化する状態で撮像部23のカメラで撮像した動画を飛行体20から取得する。
画像抽出部132は、画像取得部131が取得した動画データから、解析対象となるフレーム範囲を抽出する。画像抽出部132は、画像取得部131が取得した動画データに対し、次工程の画像解析に用いるフレーム範囲のみを抽出する。
画像解析部133は、画像抽出部132が抽出したフレーム範囲に基づいて画像解析を実行する。画像解析部133は、取得した動画データに対して擬似的にカメラ視点を固定する画像生成処理を実行し、固定視点により点検対象物を見たときの単位時間あたりの点検対象物の画素値の変化量から単位時間あたりの回転数を算出する。
異常判定部134は、画像解析部133による画像解析の結果に基づいて点検対象物の異常を判定する。異常判定部134は、画像解析部133が算出した単位時間あたりの回転数を記憶部12が予め記憶している後述の閾値範囲と比較してユーザに通知する。
位置調整部135は、飛行体20から取得した、飛行体20と点検対象物との距離が後述の距離閾値範囲を外れた場合、当該距離が距離閾値範囲の範囲内になるように飛行体20を変位させる。
図4は、図1の情報処理装置10の動作の一例を示すフローチャートである。図4を参照しながら、情報処理装置10が実行する情報処理方法の一例について主に説明する。
ステップS100では、情報処理装置10の制御部13の位置調整部135は、撮像部23としてカメラを搭載した飛行体20と点検対象物との距離が距離閾値範囲の範囲内にあるか否かを判定する。
本明細書において、「距離閾値範囲」は、例えば飛行体20の撮像部23を構成するカメラの性能に基づいて後述する類似度を正確に算出可能な、飛行体20と点検対象物との距離に関する任意の範囲を含む。距離閾値範囲は、後述する基準静止画を撮像したときの飛行体20と点検対象物との距離範囲である。ユーザは、距離閾値範囲を定める。制御部13は、ユーザが定めた距離閾値範囲を記憶部12に予め格納する。記憶部12は、飛行体20と点検対象物との距離の範囲を示す距離閾値範囲を記憶する。
制御部13は、飛行体20の取得部24が取得した位置情報をネットワーク50及び通信部11を介して飛行体20から受信する。制御部13は、取得した当該位置情報を、記憶部12が予め記憶している点検対象物の位置情報と比較することによって飛行体20と点検対象物との距離を算出する。
制御部13は、飛行体20と点検対象物との距離が距離閾値範囲の範囲内にあると判定すると(ステップS100のYes。)、ステップS102の処理を実行する。制御部13は、飛行体20と点検対象物との距離が距離閾値範囲の範囲内にないと判定すると(ステップS100のNo。)、ステップS101の処理を実行する。
ステップS101では、制御部13の位置調整部135は、ステップS100において飛行体20と点検対象物との距離が距離閾値範囲の範囲内にないと判定すると(ステップS100のNo。)、当該距離が距離閾値範囲の範囲内になるように飛行体20を変位させる。より具体的には、位置調整部135は、飛行体20の移動を制御するための制御情報を生成し、通信部11及びネットワーク50を介して飛行体20に送信する。
ステップS102では、制御部13の画像取得部131は、ステップS100において飛行体20と点検対象物との距離が距離閾値範囲の範囲内にあると位置調整部135が判定すると(ステップS100のYes。)、飛行している飛行体20が撮像した、周期的に動作している点検対象物の動画を、ネットワーク50及び通信部11を介して飛行体20から取得する。
ステップS103では、制御部13の画像抽出部132は、ステップS102において画像取得部131が取得した動画に含まれるフレームと解析の基準となる基準静止画との類似度をフレームごとに算出する。本明細書において、「基準静止画」は、例えば飛行体20の撮像部23が予め撮像した点検対象物の一静止画を含む。制御部13は、点検対象物の基準静止画を、ネットワーク50及び通信部11を介して飛行体20から予め取得する。制御部13は、取得した基準静止画を画像データとして記憶部12に予め格納する。記憶部12は、解析の基準となる基準静止画を記憶する。画像抽出部132は、ステップS103の処理を実行するときに、記憶部12が記憶している基準静止画を参照する。
例えば、画像抽出部132は、動画に含まれるフレーム及び基準静止画のそれぞれに対して対応する画素ごとに輝度値を比較する。このとき、輝度値は、二値化又はグレースケールに基づいて定められる。画像抽出部132は、対応する画素ごとの輝度値が全体にわたって互いに近似しているときほど類似度を高く算出する。
ステップS104では、画像抽出部132は、ステップS102において画像取得部131が取得した動画に含まれるフレームに対して所定条件を満たしているか否かを判定する。一実施形態において、「所定条件」は、所定時間内で連続する各フレームに対して画像抽出部132が算出した類似度の平均値が閾値以上であることである。画像抽出部132は、ステップS103における類似度の算出処理において所定時間内で連続する各フレームに対し算出した類似度の平均値が閾値以上であるか否かを判定する。本明細書において、「閾値」は、ユーザが任意に定めるものであり、制御部13が記憶部12に予め格納するものである。記憶部12は、基準静止画と動画に含まれるフレームとの類似度の閾値を記憶する。
画像抽出部132は、類似度の平均値が閾値以上であると判定すると(ステップS104のYes。)、ステップS106の処理を実行する。画像抽出部132は、類似度の平均値が閾値よりも小さいと判定すると(ステップS104のNo。)、ステップS105の処理を実行する。
ステップS105では、画像抽出部132は、類似度が閾値よりも小さいと判定した場合、フレームにフィルタリング処理を実行する。より具体的には、画像抽出部132は、ステップS104において所定条件が満たされていない、すなわち類似度の平均値が閾値よりも小さいと判定すると、画像のデータに対するフィルタリング処理を実行する。本明細書において、「フィルタリング処理」は、例えば、画像ノイズが大きいときに有効なメディアンフィルタ、ガウシアンフィルタ、及び平均化フィルタなどを用いた平滑化画像処理を含む。また、フィルタリング処理は、点検対象物を含む画像のコントラストが低いときに有効なラプラシアンフィルタ及びソーベルフィルタなどを用いたエッジ強調処理を含む。
ステップS106では、画像抽出部132は、類似度及び閾値に基づいて連続する複数のフレームを解析対象として抽出する。より具体的には、画像抽出部132は、取得した動画の一連のフレーム群から、基準静止画との類似度の平均値が閾値以上の連続するフレーム群を解析対象として抽出する。
以上のように、画像抽出部132は、ステップS102において画像取得部が取得した動画に含まれる、連続したフレームをフレーム群として抽出する。
ステップS107では、制御部13の画像解析部133は、ステップS106において画像抽出部132が抽出したフレーム群に基づいて画像解析を実行する。このとき、画像解析部133は、ステップS106において画像抽出部132が動画から抽出したフレーム群に含まれる各フレームから特徴点を抽出し、抽出した特徴点の位置が連続する複数のフレームにおいて一致するようにフレームを画像処理する。当該画像処理は、回転及び台形補正を含む。
画像解析部133は、画像処理した連続する複数のフレームから点検対象物の動作周波数を算出する。より具体的には、画像解析部133は、ステップS106において画像抽出部132が抽出したフレーム群に基づいて点検対象物の周期性の有無を判定する。画像解析部133は、点検対象物に周期性があると判定すると、点検対象物の画素変化を時間ごとに解析することによって、点検対象物の動作周波数を算出する。画像解析部133は、点検対象物の周期性の有無を判定することによって、動作していない点検対象物に対しては動作していないことを、動作している点検対象物に対しては角度変化を精度良く識別することが可能になる。
ステップS108では、制御部13の異常判定部134は、ステップS107における画像解析部133による画像解析の結果に基づいて点検対象物の異常を判定する。異常判定部134は、画像解析部133がステップS107で算出した動作周波数が、記憶部12が記憶している動作周波数の閾値範囲を外れた場合、点検対象物の動作が異常であると判定する。本明細書において、「閾値範囲」は、ユーザが任意に定めるものであって、制御部13が記憶部12に予め格納するものである。異常判定部134は、解析対象となる点検対象物が正常であるか又は異常であるかを判定するにあたり、ユーザが設定した閾値範囲に動作周波数があれば正常と、動作周波数が閾値範囲外であれば異常と判定する。
ステップS109では、異常判定部134は、ステップS108における異常判定の結果をユーザに通知する。異常判定部134は、ネットワーク50に通信接続されているユーザの端末装置40に異常判定の結果を送信する。ユーザは、自身の端末装置40の出力部44が表示する画面を視認しながら異常判定の結果を確認する。情報処理装置10によって点検対象物の異常を機械的に判定した結果をユーザも同様に確認することになる。したがって、異常判定に対するダブルチェック機能が働き、ユーザは、異常判定のための閾値範囲を適宜更新することも可能になる。
図5は、図1の情報処理装置10によるフレーム群の抽出処理の一例を示す模式図である。図5を参照しながら、画像抽出部132が実行する上述したステップS106のフレーム群の抽出処理の一例について詳細に説明する。
画像抽出部132は、基準静止画と画像に含まれるフレームとの類似度を画像における全フレーム領域で算出する。画像抽出部132は、連続する複数のフレームの類似度の平均値を、フレームをずらしながら算出する。画像抽出部132は、所定のt秒間に含まれる複数のフレームに対して算出した類似度の平均値が閾値以上であるか否かを判定する。画像抽出部132は、算出した平均値が閾値以上である、所定のt秒間で連続する複数のフレームを、ステップS102において画像取得部131が取得した動画から解析対象として抽出する。このように、画像抽出部132は、類似度の平均値が高い所定のt秒間に含まれるフレーム群を解析対象として抽出する。
Figure 0007444140000001
表1は、所定のt秒間に含まれる複数のフレームに対して画像抽出部132が算出した類似度の平均値の一例をt秒間の各フレーム区間についてまとめたものである。図5及び表1に示すとおり、0~t秒の間で動画に含まれる複数のフレームの類似度の平均値が0.553であるとする。1~1+t秒の間で動画に含まれる複数のフレームの類似度の平均値が0.551であるとする。α~α+t秒の間で動画に含まれる複数のフレームの類似度の平均値が0.701であるとする。閾値が0.7に設定されたとき、閾値以上のα~α+t秒の間の画像に含まれるフレーム群が解析対象として抽出される。
図6Aは、図1の情報処理装置10による画像処理の一例を説明するための第1模式図である。図6Bは、図1の情報処理装置10による画像処理の一例を説明するための第2模式図である。図6A及び図6Bを参照しながら、画像解析部133が実行する上述したステップS107の画像解析に対する前処理の一例について詳細に説明する。
図6A及び図6Bは、周期的に動作している点検対象物の動作部位を飛行体20により上空から撮像したときの様子を模式的に示したものである。図6Aは、周期的に動作している点検対象物を撮像した動画に対して上記のような前処理を実行しなかったときの様子を示す。図6Bは、周期的に動作している点検対象物を撮像した動画に対して上記のような前処理を実行したときの様子を示す。
例えば、画像解析部133は、上述したステップS106において画像抽出部132が動画から抽出した各フレームの特徴点P(P1~P5)が互いに一致するように各フレームに対して画像処理を前処理として実行する。
通常、点検対象物と飛行体20との相対位置は常時変化し、飛行体20の撮像部23を構成するカメラと点検対象物との相対位置も常時変化する。したがって、周期的に動作している点検対象物を当該カメラによって撮像すると、図6Aに示すとおり、動画の中の各フレームにおける点検対象物の動作部位は、特徴点Pが互いにずれた状態で各フレーム中に表示される。
1つ目のフレームにおいて、点検対象物の動作部位F1の特徴点P1は、図6Aに示す位置にある。2つ目のフレームにおいて、点検対象物の動作部位F2の特徴点P2は、図6Aに示す位置にある。3つ目のフレームにおいて、点検対象物の動作部位F3の特徴点P3は、図6Aに示す位置にある。4つ目のフレームにおいて、点検対象物の動作部位F4の特徴点P4は、図6Aに示す位置にある。5つ目のフレームにおいて、点検対象物の動作部位F5の特徴点P5は、図6Aに示す位置にある。以上のように、各特徴点Pの位置は、フレームごとに異なっている。
画像解析部133は、図6Bに示すように、図6Aのような動画に対して回転及び台形補正を含む画像処理を実行することによって、各フレームの特徴点Pを互いに一致させる。さらに、画像解析部133は、特徴点Pを一致させたフレーム群に基づいて、点検対象物の動作周波数を検出する。また、図6Bの動画では、ユーザは、点検対象物に対する飛行体20の相対位置があたかも一定であるように認識し、点検対象物の動作部位が周期的に動作している様子を容易に視認することができる。
制御部13は、上述したステップS102において画像取得部131が取得した動画に含まれる、所定条件が満たされているフレーム群をユーザの端末装置40に表示させる。制御部13は、図6Bに示すような画像処理が行われた動画をユーザインタフェースとして端末装置40の出力部44に表示させる。このとき、制御部13は、図6Bに示すように、ステップS102において画像取得部131が取得した動画からフレーム群を抽出し始める開始時間と抽出し終わった終了時間とを共に表示させ、フレーム群が抽出された時間範囲を端末装置40の出力部44に共に表示させる。
以上のような一実施形態によれば、飛行体20が飛行中に点検対象物を撮像する際にも、一連の撮像画像から点検に適切な画像を取得できる。情報処理装置10は、飛行体20と点検対象物との相対位置が変化するときであっても点検精度を向上させることが可能である。例えば、情報処理装置10は、類似度及び閾値に基づいて連続する複数のフレームを解析対象として動画から抽出することで、解析対象となるフレーム範囲のみを抽出可能である。したがって、周期的に動作している点検対象物を飛行体20が撮像したときの動画を用いて点検対象物を点検する場合において、画像ノイズが大きい区間及び被写体を正確に捕捉できていない区間のフレームを除いた状態で画像解析が可能となる。したがって、画像解析に不要な部分を除去してノイズの低減が実現されるので、点検対象物を点検するときの精度が向上する。
情報処理装置10は、飛行体20と点検対象物との距離が距離閾値範囲の範囲内にあると判定すると動画を取得することで、点検対象物がカメラの視界内に位置するときの動画のみを取得可能である。したがって、点検対象物を点検するときの精度が向上する。
情報処理装置10は、取得した動画に含まれる連続したフレームをフレーム群として抽出することで、点検対象物の周期的な動作において当該動作が連続して変化する様子を捉えた動画を後の画像解析に用いることができる。これにより、点検対象物を点検するときの精度がさらに向上する。
情報処理装置10は、算出した類似度に基づいて、動画からフレーム群を抽出する抽出範囲を選択することで、基準静止画に類似するフレーム範囲を予め抽出して後の画像解析に用いることができる。これにより、点検対象物を点検するときの精度がさらに向上する。
情報処理装置10は、算出した類似度の平均値が閾値以上である連続する複数のフレームを解析対象として抽出することで、類似度が特に高いフレーム範囲を予め抽出して後の画像解析に用いることができる。これにより、点検対象物を点検するときの精度がさらに向上する。
情報処理装置10は、類似度が閾値よりも小さいと判定すると、フレームにフィルタリング処理を実行する。情報処理装置10は、動画の撮像時にデータに含まれた各種ノイズをフィルタリング処理によって除去することで、類似度の再算出処理において算出精度を向上させることが可能となる。
情報処理装置10は、フレームから特徴点を抽出し、抽出した特徴点の位置が連続する複数のフレームにおいて一致するようにフレームを画像処理することで、取得した動画データに対して擬似的にカメラ視点を固定する画像生成処理を実行することができる。これにより、飛行体20と点検対象物との間の相対位置が常時変化する場合であっても、点検対象物の動作変化が正確に捉えられる。したがって、点検対象物を点検するときの精度がさらに向上する。
情報処理装置10は、画像処理した連続する複数のフレームから点検対象物の動作周波数を算出することで、周期的に動作している点検対象物の動作が異常であるか否かの判断指標を提供可能である。情報処理装置10は、点検対象物の周期性の有無を判定することによって、動作していない点検対象物に対しては動作していないことを、動作している点検対象物に対しては角度変化を精度良く識別することが可能になる。
情報処理装置10は、動作周波数が閾値範囲を外れた場合、点検対象物の動作が異常であると判定する。これにより、情報処理装置10は、解析対象となる点検対象物が正常であるか又は異常であるかを判定するにあたり、ユーザが設定した閾値範囲により一意に自動判定することが可能になる。
情報処理装置10は、飛行体20と点検対象物との距離が距離閾値範囲を外れた場合、当該距離が距離閾値範囲の範囲内になるように飛行体を変位させることで、点検対象物がカメラの視界内に位置するときの動画のみを飛行体20に撮像させることが可能である。したがって、情報処理装置10は、そのような動画のみを取得可能であり、点検対象物を点検するときの精度を向上させることが可能である。
以上のような一実施形態によれば、飛行体20が飛行中に点検対象物を撮像する際にも、一連の撮像画像から点検に適切な画像を取得できる。情報処理装置10は、飛行体20と点検対象物との相対位置が変化するときであっても点検精度を向上させることが可能である。例えば、情報処理装置10は、類似度及び閾値に基づいて連続する複数のフレームをユーザの端末装置40に表示させることで、解析対象となるフレーム範囲のみを表示可能である。したがって、周期的に動作している点検対象物を飛行体20が撮像したときの動画を用いて点検対象物を点検する場合において、画像ノイズが大きい区間及び被写体を正確に捕捉できていない区間のフレームを除いた状態で画像解析が可能となる。したがって、画像解析に不要な部分を除去してノイズの低減が実現されるので、点検対象物を点検するときの精度が向上する。ユーザは、点検対象物に何らかの異常が発見されたときに、図6Bに示すようなユーザインタフェースを視認することで、点検対象物の動作状況を容易に確認できる。
本開示は、その精神又はその本質的な特徴から離れることなく、上述した実施形態以外の他の所定の形態で実現できることは当業者にとって明白である。したがって、先の記述は例示的であり、これに限定されない。開示の範囲は、先の記述によってではなく、付加した請求項によって定義される。あらゆる変更のうちその均等の範囲内にあるいくつかの変更は、その中に包含されるとする。
上述した情報処理装置10の動作における各ステップ及び各ステップに含まれる機能などは、論理的に矛盾しないように再配置可能であり、ステップの順序を変更したり、複数のステップを1つに組み合わせたり、又は分割したりすることが可能である。
本開示は、上述した情報処理装置10の各機能を実現する処理内容を記述したプログラム又はプログラムを記録した記憶媒体としても実現し得る。本開示の範囲には、これらも包含されると理解されたい。
上述した一実施形態に係る情報処理装置10が実行する少なくとも一部の処理動作を飛行体20及び端末装置40の少なくとも一方が実行してもよい。例えば、情報処理装置10に代えて、飛行体20自体が、情報処理装置10に関する上述した処理動作を実行してもよい。飛行体20又は端末装置40が実行する少なくとも一部の処理動作を情報処理装置10が実行してもよい。
上述した一実施形態において説明した情報処理装置10が飛行体20に搭載されてもよい。このとき、情報処理装置10は、ネットワーク50を介さずに飛行体20と直接的に情報通信を行ってもよい。例えば、飛行体20が画像抽出部132を有することで、ネットワーク50における通信トラフィック量の抑制が可能となる。したがって、通信帯域が狭い屋外環境及び通信周波数の制限がある環境などでも本開示を実施することが可能となる。逆に、ネットワーク50上のサーバとしての情報処理装置10が画像抽出部132を有することで、飛行体20での算出処理に関する負荷を低減でき、飛行体20の軽量化、コスト削減、及び消費電力抑制による飛行時間の増加などの効果につながる。
図1では説明の簡便のため、情報処理装置10、飛行体20、油井ポンプ30、及び端末装置40について、それぞれ1つずつ図示しているが、情報処理システム1が有する情報処理装置10、飛行体20、及び端末装置40、並びに油井ポンプ30の数はそれぞれ2つ以上であってもよい。
情報処理装置10は、1つ又は互いに通信可能な複数のサーバ装置に限定されず、PC又はスマートフォンなどの任意の汎用の電子機器であってもよいし、情報処理システム1に専用の他の電子機器であってもよい。
端末装置40は、PC又はスマートフォンなどの汎用の電子機器に限定されず、ユーザが管理する1つ又は互いに通信可能な複数のサーバ装置であってもよいし、情報処理システム1に専用の電子機器であってもよい。
記憶部12は、情報処理装置10に内蔵されているものに限定されず、USB(Universal Serial Bus)などのデジタル入出力ポートなどによって接続されている外付け型の記憶モジュールを含んでもよい。
記憶部22は、飛行体20に内蔵されているものに限定されず、USBなどのデジタル入出力ポートなどによって接続されている外付け型の記憶モジュールを含んでもよい。
記憶部42は、端末装置40に内蔵されているものに限定されず、USBなどのデジタル入出力ポートなどによって接続されている外付け型の記憶モジュールを含んでもよい。
画像抽出部132は、隣り合う画素の輝度値の差を、動画に含まれるフレーム及び基準静止画のそれぞれに対して比較することで、類似度を算出してもよい。また、画像抽出部132は、機械学習に基づいて類似度を算出してもよい。例えば、画像抽出部132は、基準静止画の中から特徴点をいくつか抽出して、動画に含まれるフレームの中に当該特徴点が含まれているか否かを判定することで、類似度を算出してもよい。画像抽出部132は、互いに一致する特徴点が多いほど類似度を高く算出してもよい。
上記実施形態では、情報処理装置10は、飛行体20と点検対象物との距離が距離閾値範囲の範囲内にあると判定すると動画を取得すると説明したが、これに限定されない。情報処理装置10は、図4のステップS100のような判定処理を実行することなくステップS102のような動画の取得処理を実行してもよい。
上記実施形態では、情報処理装置10は、取得した動画に含まれる連続したフレームをフレーム群として抽出すると説明したが、これに限定されない。情報処理装置10は、複数のフレームを離散的に含むフレーム群を動画から抽出してもよい。
上記実施形態では、情報処理装置10は、算出した類似度に基づいて、動画からフレーム群を抽出する抽出範囲を選択すると説明したが、これに限定されない。情報処理装置10の制御部13は、飛行体20と点検対象物との間の相対位置を算出し、類似度に加えて、又は代えて、算出した相対位置に基づいて、動画からフレームを抽出する抽出範囲を選択してもよい。例えば、制御部13は、飛行体20と点検対象物との間の距離が距離閾値範囲の範囲内にあるときに撮像されたフレーム範囲を抽出範囲として選択してもよい。このとき、所定条件は、飛行体20と点検対象物との間の距離が距離閾値範囲の範囲内にあることであってもよい。
制御部13は、飛行体20の取得部24が取得した位置情報をネットワーク50及び通信部11を介して飛行体20から受信してもよい。制御部13は、取得した当該位置情報を、記憶部12が予め記憶している点検対象物の位置情報と比較することで飛行体20と点検対象物との間の相対位置を算出してもよい。
以上により、情報処理装置10は、点検対象物がカメラの視界内に位置するときのフレームを抽出可能であるので、点検対象物を点検するときの精度が向上する。加えて、情報処理装置10は、類似度を必ずしも算出しなくてもよいので、画像抽出部132による算出処理の負荷を低減可能である。
上記実施形態では、情報処理装置10は、算出した類似度の平均値が閾値以上である連続する複数のフレームを解析対象として抽出すると説明したが、これに限定されない。情報処理装置10は、算出した類似度に基づく任意の方法でフレームを抽出する抽出範囲を選択してもよい。例えば、情報処理装置10は、閾値との比較処理を実行せずに、類似度が最も高いフレームを基準とする所定範囲を抽出範囲として選択してもよい。
上記実施形態では、情報処理装置10は、図5及び表1に示すとおり、t秒間という所定時間に含まれるフレーム群を抽出したが、予め指定されるn個(nは整数。)のフレーム群に対して類似度の平均値を算出し、解析対象のフレーム群を抽出してもよい。
この場合、情報処理装置10の画像抽出部132は、まず開始フレームとして第1番目のフレームから終了フレームとして第n番目のフレームに対して類似度の平均値を算出する。画像抽出部132は、開始フレームと終了フレームとをインクリメントしながらn個のフレームに対して類似度の平均値を順次算出する。
そして、画像抽出部132は、閾値以上の平均値を有するフレーム群を解析対象として抽出する。
上記実施形態では、情報処理装置10は、類似度が閾値よりも小さいと判定すると、フレームにフィルタリング処理を実行すると説明したが、これに限定されない。情報処理装置10は、フィルタリング処理に代えて、又は加えて、閾値の更新処理を実行してもよい。情報処理装置10は、閾値の更新処理を実行することで、撮像条件によってそもそも全体的に類似度が低下し現在の閾値では抽出可能なフレーム範囲が存在しないような場合であっても、点検精度が悪化しない範囲で閾値を調整することも可能となる。これにより、情報処理装置10は、点検対象物の異常を判定可能なデータをサルベージすることが可能となる。
上記実施形態では、情報処理装置10は、フレームから特徴点を抽出し、抽出した特徴点の位置が連続する複数のフレームにおいて一致するようにフレームを画像処理すると説明したが、これに限定されない。情報処理装置10は、このような画像処理を実行しなくてもよい。
上記実施形態では、情報処理システム1は、情報処理装置10に加えて飛行体20及び端末装置40を有すると説明したが、これに限定されない。情報処理システム1は、情報処理装置10に加えて飛行体20のみを有し、端末装置40を有さなくてもよい。
上記実施形態では、飛行体20は、例えば人間が搭乗しない任意の飛行体であると説明したが、これに限定されない。飛行体20は、人間が搭乗可能な任意の飛行体であってもよい。
上記実施形態では、情報処理装置10は、飛行体20が撮像した動画をネットワーク50及び通信部11を介して飛行体20からデータとして受信すると説明したが、これに限定されない。情報処理装置10は、ネットワーク50に代えて、又は加えて、SDカードなどの記録媒体を介して動画データを飛行体20から取得してもよい。
情報処理装置10の制御部13は、図3を用いて説明した上述の機能ブロックに加えて、点検対象物の動作周波数から稼働状況を算出する稼働率算出部をさらに含んでもよい。これにより、情報処理装置10は、点検対象物の異常判定だけでなく解析対象となる点検対象物の稼働状況を算出し、ユーザに通知することも可能となる。
1 情報処理システム
10 情報処理装置
11 通信部
12 記憶部
13 制御部
131 画像取得部
132 画像抽出部
133 画像解析部
134 異常判定部
135 位置調整部
20 飛行体
21 通信部
22 記憶部
23 撮像部
24 取得部
25 制御部
30 油井ポンプ
40 端末装置
41 通信部
42 記憶部
43 入力部
44 出力部
45 制御部
50 ネットワーク
F1、F2、F3、F4、F5 動作部位
P、P1、P2、P3、P4、P5 特徴点

Claims (6)

  1. 飛行している飛行体が撮像した点検対象物の動画を前記飛行体から取得する画像取得部と、
    解析の基準となる基準静止画及び前記基準静止画と取得した前記動画に含まれるフレームとの類似度の閾値を記憶する記憶部と、
    前記基準静止画との前記類似度を前記フレームごとに算出し、前記類似度及び前記閾値に基づいて連続する複数の前記フレームを解析対象として抽出する画像抽出部と、
    を備え
    前記画像抽出部は、
    連続する複数の前記フレームの前記類似度の平均値を、前記フレームをずらしながら算出し、算出した前記平均値が前記閾値以上である連続する複数の前記フレームを解析対象として抽出する情報処理装置。
  2. 前記画像抽出部は、
    前記類似度が前記閾値よりも小さいと判定した場合、前記フレームにフィルタリング処理を実行する請求項1に記載の情報処理装置。
  3. 前記フレームから特徴点を抽出し、抽出した前記特徴点の位置が連続する複数の前記フレームにおいて一致するように前記フレームを画像処理する画像解析部をさらに備える請求項1に記載の情報処理装置。
  4. 前記画像解析部は、
    画像処理した連続する複数の前記フレームから前記点検対象物の動作周波数を算出する請求項に記載の情報処理装置。
  5. 前記記憶部は、
    前記動作周波数の閾値範囲を記憶し、
    前記動作周波数が前記閾値範囲を外れた場合、前記点検対象物の動作が異常であると判定する異常判定部をさらに備える請求項に記載の情報処理装置。
  6. 前記記憶部は、
    前記飛行体と前記点検対象物との距離の範囲を示す距離閾値範囲を記憶し、
    前記飛行体から取得した前記距離が前記距離閾値範囲を外れた場合、前記距離が前記距離閾値範囲の範囲内になるように前記飛行体を変位させる位置調整部をさらに備える請求項1に記載の情報処理装置。
JP2021111815A 2021-07-05 2021-07-05 情報処理装置 Active JP7444140B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021111815A JP7444140B2 (ja) 2021-07-05 2021-07-05 情報処理装置
ARP220101709A AR126280A1 (es) 2021-07-05 2022-06-29 Aparato de procesamiento de información
BR102022013294-1A BR102022013294A2 (pt) 2021-07-05 2022-07-01 Aparelho de processamento de informações
US17/810,434 US20230009404A1 (en) 2021-07-05 2022-07-01 Information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021111815A JP7444140B2 (ja) 2021-07-05 2021-07-05 情報処理装置

Publications (2)

Publication Number Publication Date
JP2023008335A JP2023008335A (ja) 2023-01-19
JP7444140B2 true JP7444140B2 (ja) 2024-03-06

Family

ID=84798212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021111815A Active JP7444140B2 (ja) 2021-07-05 2021-07-05 情報処理装置

Country Status (4)

Country Link
US (1) US20230009404A1 (ja)
JP (1) JP7444140B2 (ja)
AR (1) AR126280A1 (ja)
BR (1) BR102022013294A2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001467A1 (ja) 2007-06-28 2008-12-31 Fujitsu Limited 低照度環境における撮影画像の明るさを改善する電子機器
JP2012049774A (ja) 2010-08-26 2012-03-08 Oki Electric Ind Co Ltd 映像監視装置
JP2019036907A (ja) 2017-08-21 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び機器
WO2020174916A1 (ja) 2019-02-26 2020-09-03 株式会社日立国際電気 撮影システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001467A1 (ja) 2007-06-28 2008-12-31 Fujitsu Limited 低照度環境における撮影画像の明るさを改善する電子機器
JP2012049774A (ja) 2010-08-26 2012-03-08 Oki Electric Ind Co Ltd 映像監視装置
JP2019036907A (ja) 2017-08-21 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び機器
WO2020174916A1 (ja) 2019-02-26 2020-09-03 株式会社日立国際電気 撮影システム

Also Published As

Publication number Publication date
BR102022013294A2 (pt) 2023-01-17
AR126280A1 (es) 2023-10-04
JP2023008335A (ja) 2023-01-19
US20230009404A1 (en) 2023-01-12

Similar Documents

Publication Publication Date Title
EP3621034B1 (en) Method and apparatus for calibrating relative parameters of collector, and storage medium
US20220343599A1 (en) System and methods for improved aerial mapping with aerial vehicles
US10620005B2 (en) Building height calculation method, device, and storage medium
US10366504B2 (en) Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images
US10218899B2 (en) Control method in image capture system, control apparatus and a non-transitory computer-readable storage medium
US11450114B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
RU2653461C2 (ru) Обнаружение блика в кадре данных изображения
JP5499050B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP6579868B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5762250B2 (ja) 画像信号処理装置および画像信号処理方法
US20190230269A1 (en) Monitoring camera, method of controlling monitoring camera, and non-transitory computer-readable storage medium
KR20150126768A (ko) 이미지 합성 방법 및 그 전자 장치
JP4999794B2 (ja) 静止領域検出方法とその装置、プログラム及び記録媒体
CN111784757A (zh) 深度估计模型的训练方法、深度估计方法、装置及设备
US9286664B2 (en) System and method for blind image deconvolution
JP7444140B2 (ja) 情報処理装置
JP6576179B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN109040604B (zh) 拍摄图像的处理方法、装置、存储介质及移动终端
US11756215B2 (en) Image processing device, image processing method, and image processing program
JP2015233202A (ja) 画像処理装置および画像処理方法、並びにプログラム
EP3588375A1 (en) Information processing apparatus, control method, and program
JP5953142B2 (ja) 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
JP2019016865A (ja) 画像処理装置、画像処理方法
JP7477764B2 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
US20230126712A1 (en) Image processing device, image processing method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7444140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150