JP7420171B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7420171B2
JP7420171B2 JP2022116147A JP2022116147A JP7420171B2 JP 7420171 B2 JP7420171 B2 JP 7420171B2 JP 2022116147 A JP2022116147 A JP 2022116147A JP 2022116147 A JP2022116147 A JP 2022116147A JP 7420171 B2 JP7420171 B2 JP 7420171B2
Authority
JP
Japan
Prior art keywords
video
image
section
index information
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022116147A
Other languages
English (en)
Other versions
JP2022153507A (ja
Inventor
博久 大貫
慎太郎 知久
想 西村
道太郎 正沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2022116147A priority Critical patent/JP7420171B2/ja
Publication of JP2022153507A publication Critical patent/JP2022153507A/ja
Application granted granted Critical
Publication of JP7420171B2 publication Critical patent/JP7420171B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
現場に設置されたカメラ等により生成される映像を利活用する、所謂映像ソリューション技術が提供されている。例えば、下記特許文献1には、監視カメラにより撮影された動画内の動きの有無を検知し、動きが検知されなかった区間の撮像映像の再生速度を、動きが検知された区間の撮像映像の再生速度よりも速くする監視カメラシステムが開示されている。
また、画像処理に係る技術の一例として、下記特許文献2には、動画内の動きに基づいて間引き対象のフレームを選択し、当該選択したフレームを間引いた動画を生成する技術が開示されている。
特開2018-38082号公報 特開2009-44611号公報
現場の監理業務に携わる監理者は、現場の状況や現場で行われている作業の成果(進捗度合い)などを、確認する必要がある。このような監理業務をコンピュータ等の装置を使って支援する場合、当該装置で実行される画像処理の演算量は少ない方が好ましい。画像処理が入力映像に対して一定に行われる場合、画像処理に向かない映像フレームも処理対象としてしまい、装置のリソースを十分に発揮できない課題がある。
本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、現場の監理業務を画像処理技術を用いて支援する装置において、その画像処理の演算量を削減する技術を提供することである。
本発明の画像処理装置は、
撮像装置から第1の動画を取得する動画取得手段と、
前記第1の動画に基づいて、前記第1の動画よりもデータ量の少ない第2の動画を生成する動画生成手段と、
前記第1の動画における色の変化に基づいて、解析対象物の変位量を求める変位量算出手段と、
前記第2の動画と前記解析対象物の変位量とを出力装置に表示させる表示出力手段と、
を備える。
本発明の画像処理方法は、
撮像装置から第1の動画を取得し、
前記第1の動画に基づいて、前記第1の動画よりもデータ量の少ない第2の動画を生成し、
前記第1の動画における色の変化に基づいて、解析対象物の変位量を求め、
前記第2の動画と前記解析対象物の変位量とを出力装置に表示させる、
ことを含む。
本発明のプログラムは、
撮像装置から第1の動画を取得する動画取得処理と、
前記第1の動画に基づいて、前記第1の動画よりもデータ量の少ない第2の動画を生成する動画生成処理と、
前記第1の動画における色の変化に基づいて、解析対象物の変位量を求める変位量算出処理と、
前記第2の動画と前記解析対象物の変位量とを出力装置に表示させる表示出力処理とを、コンピュータに実行させる。
本発明によれば、現場の監理業務を画像処理技術を用いて支援する装置において、その画像処理の演算量を削減することができる。
第1実施形態における画像処理システムの構成を概念的に示すブロック図である。 「動きの多い区間」におけるフレーム画像の一例を示す図である。 「動きの少ない区間」におけるフレーム画像の一例を示す図である。 画像解析部により「解析対象のフレーム画像」として選択されたフレーム画像を例示する図である。 画像処理装置10のハードウエア構成を例示するブロック図である。 第1実施形態の画像処理装置10により実行される処理の流れを例示するフローチャートである。 タイムラプス動画生成部によるタイムラプス動画生成処理の具体的な流れを例示するフローチャートである。 画像解析部による解析処理の具体的な流れを例示するフローチャートである。 第2実施形態の画像解析部により実行される処理の流れを例示するフローチャートである。 画像解析部が変位検出処理の対象から除外するフレーム画像の一例を示す図である。 第3実施形態の画像解析部により実行される処理の流れを例示するフローチャートである。 第3実施形態の変形例で実行される処理の流れを例示するフローチャートである。 フレームの間引き処理を概略的に説明する図である。 第5実施形態における画像処理システムのシステム構成を例示的に示す図である。 撮像装置により実行される処理の流れを例示するフローチャートである。 画像処理装置10により実行される処理の流れを例示するフローチャートである。
以下、本発明の実施形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[第1実施形態]
〔処理構成〕
図1は、第1実施形態における画像処理システム1の構成を概念的に示すブロック図である。図1に示されるように、画像処理システム1は、画像処理装置10、撮像装置20、出力装置30を含んで構成される。画像処理装置10は、撮像装置20および出力装置30と通信可能に接続されている。画像処理装置10は、現場(例えば、土木工事現場や建設現場など)に設けられた撮像装置20から動画を取得し、その動画を基に生成したタイムラプス動画および映像の解析結果を、監理者用の出力装置30に出力する。以下、画像処理装置10についてより詳細に説明する。
図1に示されるように、本実施形態の画像処理装置10は、指標情報取得部110、区間設定部120、タイムラプス動画生成部130、画像解析部140、および、出力部150を有する。
指標情報取得部110は、撮像装置20により生成された現場(土木工事現場や建設現場など)の動画から、指標情報を取得する。指標情報は、当該動画における動きを判断するための指標となる情報である。
例えば、指標情報取得部110は、動画を構成する複数のフレーム画像(映像データ)を基に、動画における動きを示す指標情報を取得することができる。具体的には、指標情報取得部110は、フレーム画像間の差分情報を、動画における動きを示す指標情報として取得することができる。例えば、動画の中で何らかの動きがあった場合、異なるフレーム画像間でその動きの大きさに応じた差分が生じる。このように、異なるフレーム画像間の差分は、動画の中での動きを判断する指標として利用可能である。指標情報取得部110は、例えば、互いに隣接する2つのフレーム画像間で差分情報を取得してもよいし、予め決められた枚数の連続フレーム画像を1つのグループとして、グループ単位で差分情報を取得してもよい。
また例えば、指標情報取得部110は、動画に音声データが含まれている場合、当該音データを基に、動画の中での動きを示す指標情報を取得することができる。具体的には、指標情報取得部110は、音データの音量を示す情報を、動画の中での動きを示す指標情報として取得することができる。例えば、動画の中で何らかの動きがあった場合、その動きの主体(例えば、作業員や建機などの動体)が音源となって音が生じることがある。また、物体の動きによって生じた音の大きさ(音量)は、その動きの大きさを示し得る。このように、動画に含まれる音データは、動画の中での動きを判断する指標情報として利用可能である。
区間設定部120は、指標情報に基づいて、動画の中で複数の部分区間を設定する。
例えば、区間設定部120は、次のように動作する。まず、区間設定部120は、指標情報に基づいて、その指標情報に対応するフレーム画像の区間が「動きの多い区間」および「動きの少ない区間」のいずれに該当するかを判別する。具体的な例として土木工事現場を撮影した動画のケースを考える。
この場合、「動きの多い区間」では、指標情報取得部110は、例えば、予め定められた基準を超える動きを示す指標情報を得ることができる。例えば、動画中の「動きの多い区間」は、主に、物体(工事用の建機や車両、または、作業員など)が写るフレーム画像(例:図2)を含む。図2は、「動きの多い区間」におけるフレーム画像の一例を示す図である。図2には、複数の工事用車両が走行している瞬間を切り取ったフレーム画像が例示されている。指標情報取得部110は、図2に例示されるようなフレーム画像を主に含む区間については、予め定められた基準を超える動きを示す指標情報(フレーム画像間の差分や音データの音量)を得ることができる。そして、区間設定部120は、指標情報取得部110により取得された指標情報に基づいて、図2に例示されるようなフレーム画像を「動きの多い区間」の画像と判断することができる。
また、「動きの少ない区間」では、指標情報取得部110は、例えば、予め定められた基準以下の動きを示す指標情報を得ることができる。例えば、動画中の「動きの少ない区間」は、主に、物体(工事用の建機や車両、または、作業員など)が写っていないフレーム画像(例:図3)を含む。図3は、「動きの少ない区間」におけるフレーム画像の一例を示す図である。指標情報取得部110は、図3に例示されるようなフレーム画像を主に含む区間については、予め定められた基準以下の動きを示す指標情報(フレーム画像間の差分や音データの音量)を得ることができる。そして、区間設定部120は、指標情報取得部110により取得された指標情報に基づいて、そのフレーム画像を「動きの少ない区間」の画像と判断することができる。
そして、区間設定部120は、「動きの多い区間」または「動きの少ない区間」として連続するフレーム画像群(部分区間)をそれぞれ特定する。そして、区間設定部120は、特定された部分区間それぞれの始端および終端のフレーム画像の位置を示す情報を図示しないメモリなどに保持する。これにより、動画の中に複数の部分区間が設定される。
なお、区間設定部120は、「動きの多い区間」を、指標情報が示す動きの大きさに応じて段階的に判別するように構成されていてもよい。その場合、「動きの多い区間」として連続するフレーム画像群(部分区間)は段階別に設定される。同様に、区間設定部120は、「動きの少ない区間」を、指標情報が示す動きの大きさに応じて段階的に判別するように構成されていてもよい。その場合、「動きの少ない区間」として連続するフレーム画像群(部分区間)は段階別に設定される。
タイムラプス動画生成部130は、撮像装置20が生成した動画を基に、タイムラプス動画を生成する。タイムラプス動画生成部130は、区間設定部120により設定された部分区間毎に、その部分区間に対応する指標情報に応じて決まるレート(再生速度)でタイムラプス処理を施すことによって、タイムラプス動画を生成する。具体的には、タイムラプス動画生成部130は、部分区間に対応する指標情報が示す動きが大きいほど、その部分区間のレートが小さく(再生速度が遅く)なるように、その部分区間に対してタイムラプス処理を実行する。言いかえると、タイムラプス動画生成部130は、「動きの多い区間」として設定された部分区間のレートが、「動きの少ない区間」として設定された部分区間のレートよりも小さくなるように、各部分区間に対してタイムラプス処理を実行する。一例として、タイムラプス動画生成部130は、「動きの多い区間」として設定された部分区間のレートおよび「動きの少ない区間」として設定された部分区間のレートが、それぞれ、「2倍」および「10倍」となるようにタイムラプス処理を実行する。ここで、ある部分区間の再生速度をN倍にする場合、タイムラプス動画生成部130は、単純にその部分区間のフレームレートをN倍にしてもよいし、当該部分区間においてN-1枚飛ばしで再生用のフレーム画像を選択(間引き)してもよい。前者の処理では、生成されるタイムラプス動画においてデータの欠落はない。つまり、前者の処理で生成したタイムラプス動画に対しては、監理者が、タイムラプス動画の再生速度を下げれば、各フレーム画像を詳細に確認することが可能である。そのため、監理者が各フレーム画像をより詳細に見る可能性がある部分区間(具体的には、動きの多い区間)に対するタイムラプス処理としては、前者の処理が好ましい。また、後者の処理では、間引いた部分のフレーム画像については監理者が確認できなくなるが、生成されるタイムラプス動画のデータ量が削減される。そのため、監理者が再生速度を変更して見る可能性が低い部分区間(具体的には、動きの少ない区間)に対するタイムラプス処理としては、後者の処理が好ましい。なお、区間設定部120によって「動きの多い区間」および「動きの少ない区間」が複数の段階で設定される場合、タイムラプス動画生成部130は、各段階に対応するレートを使って、上述したようなタイムラプス処理を実行する。
画像解析部140は、複数の部分区間のうち、特定部分区間を選択する。ここで、「特定部分区間」は、区間設定部120によって設定された複数の部分区間の中で、指標情報が示す動きが基準を満たす部分区間である。具体的には「特定部分区間」は、指標情報が示す動きが基準以下である(すなわち、動きの少ない)部分区間である。画像解析部140は、各部分区間に対応する指標情報によって示される、各部分区間の動きの大きさに基づいて、その動きが基準(例えば、予め設定された閾値)以下である部分区間を特定部分区間として選択することができる。
例えば、指標情報取得部110が、フレーム画像間の差分を示す情報を指標情報として取得したとする。この場合、画像解析部140は、各部分区間に対応する指標情報に基づいて、その指標情報が示す差分が基準(例えば、予め設定されたフレーム画像間の差分に関する閾値)以下である部分区間を、特定部分区間として選択することができる。また例えば、指標情報取得部110が、動画に含まれる音データの音量を示す情報を指標情報として取得したとする。この場合、画像解析部140は、各部分区間に対応する指標情報に基づいて、その指標情報が示す音量が基準(例えば、予め設定された音量に関する閾値)以下である部分区間を、特定部分区間として選択することができる。なお、指標情報が示す音量が基準以下である部分区間の映像では、例えば、建機、車両、作業員といった、監視対象の物体が活動していない可能性が高い。すなわち、指標情報が示す音量が基準以下の部分区間は、監理者が注視する必要性の低い映像区間とも言える。一方、指標情報が示す音量が基準を超える部分区間の映像では、上記で例示したような監視対象の物体が活動している可能性が高い。すなわち、指標情報が示す音量が基準を超える部分区間は、監理者が注視すべき映像区間とも言える。
そして、画像解析部140は、特定部分区間として選択された部分区間のフレーム画像を用いて、解析処理を実行する。具体的には、画像解析部140は、特定部分区間のフレーム画像に写る解析対象物の変位を検出する処理を、上述の解析処理として実行する。
ここで、「解析対象物」とは、現場において形状または色が時間の経過と共に少しずつ変化する物体(形状または色の経時変化が小さい物体)である。解析対象物の具体的な例としては、盛土、ダム堤体、コンクリートブロック、コンクリート舗装、法面に吹き付けられるコンクリートやモルタル、路面に散布された水分、プラントの資材置き場に置かれた資材、船舶等の積荷、埋め立て地のゴミなどが挙げられる。但し、解析対象物は、ここで挙げた例に限定されない。例えば、解析対象物が「盛土」である場合、その高さ、法長、幅などが時間の経過とともに少しずつ変化していく。また、解析対象物が「ダム堤体」である場合、その高さ、ジョイントの間隔、厚さなどが時間の経過と共に少しずつ変化していく。また、解析対象物が「コンクリートブロック」である場合、その高さ、法長、幅などが時間の経過と共に少しずつ変化していく。また、解析対象物が「コンクリート舗装」である場合、その長さや面積などが時間の経過と共に少しずつ変化していく。また、解析対象物が「路面に散布された水分」である場合、路面の水分量などが時間の経過と共に少しずつ変化していく。なお、画像解析部140は、路面の色に基づいて路面の水分量を推測することができる。また、解析対象物が「プラントの資材置き場に置かれた資材」である場合、その量などが時間の経過と共に少しずつ変化していく。また、解析対象物が「船舶等の積荷」である場合、その量などが時間の経過と共に少しずつ変化していく。また、解析対象物が「埋め立て地のゴミ」である場合、その量などが時間の経過と共に少しずつ変化していく。画像解析部140は、時間の経過と共に少しずつ変化するこれらの解析対象物について、特定部分区間(動きの少ない部分区間)のフレーム画像を解析することで、その変位を検出する。
また、画像解析部140は、活火山や河川の変位を検出する処理を、解析処理として行ってもよい。例えば、画像解析部140は、活火山から噴煙等が上がる前の(すなわち、動きの多いフレーム画像よりも前の)、動きの少ないフレーム画像を解析することによって、活火山の噴火の兆候を検出できる可能性がある。同様に、画像解析部140は、河川の水量が急激に増加する前の、動きの少ないフレーム画像を解析することによって、河川の氾濫の兆候を検出できる可能性がある。
特に限定されないが、画像解析部140は、例えば次のようにして、特定部分区間のフレーム画像に写る解析対象物の変位を検出することができる。まず、画像解析部140は、特定部分区間のフレーム画像内の解析対象物を検出する。画像解析部140は、例えば、CNN(Convolutional Neural Network)などを用いて、特定部分区間のフレーム画像に写る物体それぞれの領域を識別(セグメンテーション)する。そして、画像解析部140は、セグメンテーションの結果(識別された物体毎に付与されたラベル)に基づいて、解析対象物の領域を認識する。ここで、解析対象物として扱う物体を示す情報は、例えば、予め画像処理装置10のメモリやストレージデバイスといった記憶領域に予め定義されている。画像解析部140は、記憶領域に予め定義された情報を用いて、解析対象物の領域と、解析対象物以外の物体の領域とを切り分けて認識することができる。この場合、記憶領域において予め定義されていない物体は、例えば形状などが時間の経過と共にゆっくりと変化する物体であっても解析対象物として画像解析部140に認識されない。これにより、例えば、野外の土木工事現場や建設現場で撮影された動画に写る雲など、その変位を検出する必要のない物体について、画像解析部140が余計な演算を実行しないように制御することができる。そして、画像解析部140は、異なるフレーム画像間で解析対象物の領域を比較することによって、当該解析対象物の変位(例えば、高さ、幅、奥行きといった形状の変位など)を算出することができる。
画像解析部140の動作例について、図4を用いて説明する。図4は、画像解析部140により「解析対象のフレーム画像」として選択されたフレーム画像を例示する図である。図中の3つの画像は、上から下に時系列で並んでいる。なお、図4の例において、解析対象物は「盛土」である。また、画像解析部140は、図中の点線部の領域を解析対象物OBJ(盛土)が存在する領域と認識しているものとする。この場合、図中1枚目のフレーム画像において「盛土」が存在する領域が認識されていないため、画像解析部140は、盛土の高さの変位量として「0」を取得することができる。また、画像解析部140は、2枚目のフレーム画像における解析対象物(盛土)の認識結果に基づいて、盛土の高さの変位量として「h1」を取得することができる。また、画像解析部140は、2枚目のフレーム画像における解析対象物(盛土)の認識結果に基づいて、盛土の高さの変位量として「h2」と取得することができる。また、画像解析部140は、同様に、解析対象物の幅や奥行といった形状に関する情報を取得することができる。なお、画像解析部140は、動画に付与された撮像装置20のカメラパラメータを用いることにより、フレーム画像における解析対象物のスケールを、実際のスケールに変換することができる。このように特定部分区間毎に解析対象物の変位を検出することによって、画像解析部140は、当該解析対象物の時間的な変位を示す情報を得ることができる。
ここで、画像解析部140は、特定部分区間毎に、所定の枚数のフレーム画像を解析処理の対象のフレーム画像として選択する。一例として、区間設定部120によって5つの部分区間が設定され、画像解析部140が、当該5つの部分区間の中の第2および第4の部分区間を特定部分区間として選択したとする。この場合、画像解析部140は、第2の部分区間における複数のフレーム画像および第4の部分区間における複数のフレーム画像それぞれから、所定の枚数(例:1枚)のフレーム画像を解析処理の対象のフレーム画像として選択する。ここで、特定部分区間は、動画の動きが少ない部分区間であるが、その区間の時間が長い場合、結果として大きな変化が生じている場合もある。そこで、画像解析部140は、特定部分区間の時間の長さに応じて、選択するフレーム画像の枚数を変化させる(増やす)ように構成されていてもよい。
出力部150は、タイムラプス動画生成部130により生成されたタイムラプス動画と、画像解析部140による解析処理の結果とを、監理者用の出力装置30に出力する。例えば、出力部150は、解析処理の結果(解析対象物の変位量など)をメタデータとしてタイムラプス動画に付与することができる。この場合、解析処理の結果(解析対象物の変位量など)が、タイムラプス動画の再生位置と同期させて出力装置30に出力される。また、出力部150は、解析処理の結果(解析対象物の変位量など)をグラフ化して、タイムラプス動画に重畳表示させてもよい。監理者は、出力装置30に出力されるタイムラプス動画および解析処理の結果を用いて、監理業務を効率的に進めることができる。
〔ハードウエア構成例〕
画像処理装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、画像処理装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図5は、画像処理装置10のハードウエア構成を例示するブロック図である。画像処理装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は画像処理装置10の各機能(指標情報取得部110、区間設定部120、タイムラプス動画生成部130、画像解析部140、出力部150など)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する機能が実現される。
入出力インタフェース1050は、画像処理装置10と各種入出力デバイスとを接続するためのインタフェースである。入出力インタフェース1050には、例えば、キーボードやマウスなどの入力装置(図示せず)や、ディスプレイなどの出力装置(図示せず)が接続され得る。
ネットワークインタフェース1060は、画像処理装置10をネットワークに接続するためのインタフェースである。画像処理装置10は、ネットワークインタフェース1060を介して、現場に設置された撮像装置20や、監理者用の出力装置30と通信することができる。
なお、画像処理装置10のハードウエア構成は図5に例示される構成に限定されない。例えば、画像処理装置10の処理部の一部または全部は、画像処理システム1を構成する複数の装置に分散して或いは重複して設けられていてもよい。
〔処理の流れ〕
本実施形態における画像処理装置10により実行される処理の流れについて説明する。図6は、第1実施形態の画像処理装置10により実行される処理の流れを例示するフローチャートである。
まず、画像処理装置10は、撮像装置20により生成された動画を取得する(S102)。画像処理装置10は、例えば、撮像装置20から動画を直接受信してもよいし、撮像装置20により生成された動画を蓄積する他の外部装置(図示せず)と通信し、当該外部装置を経由して動画を取得してもよい。
指標情報取得部110は、取得された動画から、指標情報を取得する(S104)。例えば、指標情報取得部110は、動画を構成する複数のフレーム画像のうち、互いに隣接するフレーム画像間の差分を、動画の動きを示す指標情報として取得する。また、指標情報取得部110は、動画に音声データが含まれている場合、音声データの音量の変化(動画内での音量の変化など)を、動画の動きを示す指標情報として取得してもよい。
区間設定部120は、S104の処理で取得された指標情報に基づいて、動画の中で複数の部分区間を設定する(S106)。区間設定部120は、例えば、S104で取得された指標情報を基に、各指標情報に対応するフレーム画像の区間が「動きの多い区間」および「動きの少ない区間」のいずれに該当するかを判別する。そして、区間設定部120は、「動きの多い区間」または「動きの少ない区間」として連続するフレーム画像群を、それぞれ部分区間として設定する。
そして、タイムラプス動画生成部130は、タイムラプス動画生成処理(例:図7)を実行する(S108)。図7は、タイムラプス動画生成部130によるタイムラプス動画生成処理の具体的な流れを例示するフローチャートである。まず、タイムラプス動画生成部130は、区間設定部120により設定された複数の部分区間の1つを選択する(S202)。そして、タイムラプス動画生成部130は、選択した部分区間に対応する指標情報が示す動きの大きさが基準(動きの大きさに関する所定の閾値)以下か否かを判定する(S204)。すなわち、タイムラプス動画生成部130は、選択した部分区間の動きが多いか少ないかを判定する。選択した部分区間に対応する指標情報が示す動きの大きさが基準以下である(すなわち、動きが少ない)場合(S204:YES)、タイムラプス動画生成部130は、第1のレートでタイムラプス処理を実行する(S206)。一方、タイムラプス動画生成部130は、選択した部分区間に対応する指標情報が示す動きの大きさが基準を超える(すなわち、動きが多い)場合(S204:NO)、タイムラプス動画生成部130は、第2のレートでタイムラプス処理を実行する(S208)。ここで、第2のレートは、第1のレートよりも小さい値に設定されている。
その後、タイムラプス動画生成部130は、全ての部分区間が選択されたか否かを判定する(S210)。未選択の部分区間が残っている場合(S210:NO)、タイムラプス動画生成部130は、新たな部分区間を選択して、上述の処理を繰り返す。一方、全ての部分区間が選択された場合(S210:YES)、タイムラプス動画生成部130は、各部分区間の処理結果を結合して、1つのタイムラプス動画を生成する(S212)。
図6に戻り、画像解析部140は、動画を用いた解析処理(例:図8)を行う(S110)。図8は、画像解析部140による解析処理の具体的な流れを例示するフローチャートである。まず、画像解析部140は、区間設定部120により設定された複数の部分区間の1つを選択する(S302)。そして、画像解析部140は、選択した部分区間に対応する指標情報が示す動きの大きさが基準(動きの大きさに関する所定の閾値)以下か否かを判定する(S304)。すなわち、画像解析部140は、選択した部分区間の動きが多いか少ないかを判定する。選択した部分区間に対応する指標情報が示す動きの大きさが基準以下である(すなわち、動きが少ない)場合(S304:YES)、画像解析部140は、その部分区間を特定部分区間として特定する。そして、画像解析部140は、特定部分区間のフレーム画像を使って、解析対象物の変位を検出する解析処理(変位検出処理)を実行する(S306)。一方、選択した部分区間に対応する指標情報が示す動きの大きさが基準を超える(すなわち、動きが多い)場合(S304:NO)、画像解析部140は、その部分区間を特定部分区間以外の区間として特定し、その区間については変位検出処理を実行しない。ここで、画像解析部140は、指標情報が示す動きの大きさが基準を超える(すなわち、動きが多い)部分区間に対して、変位検出処理とは別の解析処理を実行するように構成されていてもよい。例えば、画像解析部140は、指標情報が示す動きの大きさが基準を超える(すなわち、動きが多い)部分区間のフレーム画像を使って、動体(例えば、建機、車両、作業員など)を検出する処理(動体検出処理)などを実行してもよい(S308)。
その後、画像解析部140は、全ての部分区間が選択されたか否かを判定する(S310)。未選択の部分区間が残っている場合(S310:NO)、画像解析部140は、新たな部分区間を選択して、上述の処理を繰り返す。一方、全ての部分区間が選択された場合(S310:YES)、画像解析部140は、各部分区間の処理結果を、タイムラプス動画と対応付ける(S312)。
図6に戻り、出力部150は、S108の処理およびS110の処理で得られる、タイムラプス動画および解析処理の結果を、監理者用の出力装置30に出力する(S112)。監理者は、出力装置30に出力されたタイムラプス動画および解析処理の結果を見て、監理作業を効率的に進めることができる。ここで、画像処理装置10は、監理者用の端末(図示せず)を介して、部分区間の再生速度を指定する入力や、解析処理の結果の表示態様を変える(例えば、グラフ化して映像に重畳させる)ための入力を受け付け、受け付けた入力に応じて出力の仕方を変更するように構成されていてもよい。
以上、本実施形態では、動きの少ない部分区間(特定部分区間)のフレーム画像を使って、解析処理(具体的には、解析対象物の変位を検出する処理)が実行される。ここで、特定部分区間のフレーム画像は、動きの少ない、言いかえれば、画像解析処理で解析対象物以外のノイズとなる物体が少ない画像と言える。よって、特定部分区間のフレーム画像を解析に用いることで、画像解析処理の精度が低下することを防止することができる。また、画像解析処理の対象とする部分区間(フレーム画像数)を絞り込むことによって、その画像解析処理の演算量を削減する効果も得られる。
また、本実施形態では、動きの多い部分区間の再生速度が、動きの少ない部分区間の再生速度よりも小さくなるようなタイムラプス動画が生成される。これにより、動画の確認作業にかかる時間を短縮しつつ、動きの多い部分区間において監理者の見落としが発生することを抑制する、という効果が得られる。また、動体(例えば、建機、車両、作業員など)を検出する別の画像解析処理を併せて実行する場合には、当該処理の対象を動きの多い部分区間に絞り込むことにより、全体の演算量を削減できる。
[第2実施形態]
上述の第1実施形態で述べたように、動く物体(例えば、土木作業現場や建築作業現場などでは建機や人物など)が解析対象物の変位等を解析する際のノイズとなり得る。そこで、上述の第1実施形態では、動きの少ない部分区間(すなわち、ノイズが少ないと考えられる部分区間)である、特定部分区間のフレーム画像を用いて、解析対象物の変位を検出する解析処理を実行する流れを説明した。しかしながら、上述したような物体が時間的に連続して静止しているといった場合、第1実施形態の構成では、ノイズを含む部分区間が「特定部分区間」として選択されてしまう可能性がある。本実施形態の画像処理装置10は、この問題を解消する構成をさらに有する。
〔機能構成〕
本実施形態の画像処理装置10は、第1実施形態と同様に、指標情報取得部110、区間設定部120、タイムラプス動画生成部130、画像解析部140、および出力部150を有する(例:図1)。本実施形態の画像解析部140は、特定部分区間の複数のフレーム画像のうち、予め定められた物体を含まないフレーム画像を、解析処理の対象のフレーム画像として選択する。ここで、動画が、土木作業現場や建築作業現場などを撮影した動画である場合、「予め定められた物体」は、例えば、作業に用いる建機や車両、および、作業を行う人物などである。
〔処理の流れ〕
図を用いて、本実施形態の画像処理装置10により実行される処理について説明する。図9は、第2実施形態の画像解析部140により実行される処理の流れを例示するフローチャートである。本図のフローチャートに例示される処理は、図8のS304の処理において、判定結果が「YES」である場合に実行される。
本実施形態において、S304の判定処理の結果が「YES」である場合、画像解析部140は、特定部分区間のフレーム画像の中に、特定物体(例えば、静止していて動体として認識されなかった建機、車両、人物など)が含まれているか否かを更に判定する(S402)。画像解析部140は、例えば、対象のフレーム画像をセグメンテーションした結果から、そのフレーム画像に建機、車両、人物などの特定物体が含まれているか否かを判定することができる。ここで、特定物体を示す情報は、例えば、予め画像処理装置10のメモリやストレージデバイスといった記憶領域に予め定義されている。特定部分区間のフレーム画像の中に特定物体が含まれている場合(S402:YES)、画像解析部140は、そのフレーム画像を変位検出処理で用いる画像から除外する。図10を用いて本実施形態の画像解析部140の動作の一例を具体的に説明する。図10は、画像解析部140が変位検出処理の対象から除外するフレーム画像の一例を示す図である。なお、図10において、工事用車両Vは停車中であり、静止している状態を時間的に連続して保っているものとする。画像解析部140は、CNNなどを用いたセグメンテーションの結果から、予め定義された特定物体がフレーム画像中に存在するか否かを判定することができる。図10の例において、トラック等の工事用車両が特定物体として予め定義されている場合、画像解析部140は、図10のフレーム画像を変位検出処理の対象外の画像として判断することができる。この場合、処理は図8のS310に進む。一方、特定部分区間のフレーム画像の中に特定物体が含まれていない場合(S402:NO)、画像解析部140は、そのフレーム画像を用いて変位検出処理を実行する(図8のS306)。
以上、本実施形態では、特定部分区間として選択された部分区間におけるフレーム画像であっても、そのフレーム画像の中に特定物体(ノイズとなり得る物体)が含まれている場合、そのフレーム画像は変位検出処理の対象から除外される。これにより、解析対象物の変位の検出精度が、ノイズの影響によって低下することを防止できる。
[第3実施形態]
撮像装置20の設置場所によっては、監理業務の対象となる現場とは関係ない別の場所が写り込んでしまうこともある。その場合、監理業務の対象となる現場とは関係ない別の場所での動きの有無が、上述の各実施形態での処理に影響を与え得る。本実施形態の画像処理装置10は、この問題を解決する構成をさらに有する。
本実施形態の画像処理装置10は、第1実施形態と同様に、指標情報取得部110、区間設定部120、タイムラプス動画生成部130、画像解析部140、および出力部150を有する(例:図1)。本実施形態の画像解析部140は、フレーム画像において指定された領域にのみ、解析処理(変位検出処理および/または動体検出処理)を実行する。例えば、本実施形態の画像解析部140は、監理者側の端末(図示せず)を介して、解析処理の対象とする領域を指定する入力を受け付け、当該入力で指定された領域にのみ解析処理を実行する。また、初期設定ファイルなどを用いて、フレーム画像内のある領域の位置座標が、解析処理の実行対象とする領域の位置座標として予め定義されていてもよい。この場合、画像解析部140は、初期設定ファイル上で定義された位置座標に基づいて、解析処理の対象とする領域を認識することができる。
〔処理の流れ〕
図を用いて、本実施形態の画像処理装置10により実行される処理について説明する。図11は、第3実施形態の画像解析部140により実行される処理の流れを例示するフローチャートである。本図のフローチャートは、S502の処理を新たに有する点を除き、図6のフローチャートと同様である。以下では、S502の処理を主に説明する。
本実施形態の画像解析部140は、撮像装置20により生成された動画の中で、監理業務の対象とする領域を指定する情報(対象領域指定情報)を取得する(S502)。対象領域指定情報は、例えば、監理者が監理業務を行う際に、図示しない監理者用端末を用いて監理者によって入力される。例えば、画像解析部140は、撮像装置20により生成された動画の任意の1フレームを出力装置30上に表示し、そのフレーム画像上で監理者に対象領域を指定する入力を実行させる。この場合、画像解析部140は、監理者用端末に入力された情報を、例えばネットワーク経由で取得することができる。そして、画像解析部140は、S502で取得された対象領域指定情報を、指標情報取得部110に通知する。指標情報取得部110は、対象領域指定情報によって指定される領域について、指標情報を取得する(S104)。以降の処理の流れは、上述したとおりである。
以上、本実施形態では、フレーム画像の中で画像解析処理の対象とする領域が指定される。これにより、監理業務で監理者が確認する領域とは関係ないその他の領域を、画像解析処理の範囲から除外することができる。これにより、解析処理の結果に誤りが生じる可能性を低減させることができる。また、解析処理の範囲を更に限定することによって、演算量のより多く削減することができる。
<変形例>
図12は、第3実施形態の変形例で実行される処理の流れを例示するフローチャートである。本図のフローチャートは、S602の処理およびS604の処理を新たに備える点を除き、図8のフローチャートと同様である。以下では、S602およびS604の処理を主に説明する。本変形例のフローチャートでは、図11のフローチャートと異なり、解析処理の対象とする領域は、動画における動きが判断された後に指定される。
本変形例において、画像解析部140は、S306の変位検出処理およびS308の動体検出処理の実行前に、フレーム画像の中で処理の対象となる領域を指定する情報(対象領域指定情報)を取得する(S602、S604)。対象領域指定情報は、例えば、監理者が監理業務を行う際に、図示しない監理者用端末を用いて入力される。例えば、画像解析部140は、撮像装置20により生成された動画の任意のフレーム画像を出力装置30上に表示し、そのフレーム画像上で監理者に対象領域を指定する入力を実行させる。この場合、画像解析部140は、監理者用端末に入力された情報を、例えばネットワーク経由で取得することができる。そして、画像解析部140は、S302の処理で選択された部分区間のフレーム画像を用いてS306の変位検出処理を実行する際、S602で取得した情報に基づいて、変位検出処理を行う画像領域を絞りこむ。同様に、画像解析部140は、S302の処理で選択された部分区間のフレーム画像を用いてS306の動体検出処理を実行する際、S604で取得した情報に基づいて、動体検出処理を行う画像領域を絞りこむ。
本変形例によっても、上述の第3実施形態の効果と同様の効果が期待できる。
[第4実施形態]
本実施形態の画像処理装置10は、生成されるタイムラプス画像の容量を削減する構成を更に備える点で、上述の各実施形態と異なる。
〔機能構成〕
本実施形態の画像処理装置10は、第1実施形態と同様に、指標情報取得部110、区間設定部120、タイムラプス動画生成部130、画像解析部140、および出力部150を有する(例:図1)。本実施形態のタイムラプス動画生成部130は、タイムラプス画像の生成時に、指標情報が示す動きが基準以下である(すなわち、動きの少ない)部分区間について、フレーム画像の間引き処理を行う。例えば、タイムラプス動画生成部130は、指標情報が示す動きが基準以下である部分区間にタイムラプス処理を施す際、その指標情報に応じて決まるレート(再生速度)に応じて選択されるフレーム画像以外のフレーム画像を除去する(例:図13)。図13は、フレームの間引き処理を概略的に説明する図である。図13では、指標情報が示す動きが基準以下である対象区間の再生速度が5倍となるようにタイムラプス処理を施した場合におけるフレームの間引き処理が例示されている。図13の例では、タイムラプス動画生成部130は、対象区間に含まれる複数のフレーム画像の中から、5フレーム間隔でタイムラプス処理での再生用フレーム画像を選択している。更に、タイムラプス動画生成部130は、再生用フレーム画像として選択されたフレーム画像以外のフレーム画像を間引いている。
本実施形態では、タイムラプス動画を生成する際、指標情報が示す動きが基準以下である(すなわち、動きの少ない)部分区間に対してフレームの間引き処理が実行される。これにより、タイムラプス動画のデータ容量を削減し、そのタイムラプス動画を再生する環境のリソースを節約することができる。なお、動きの少ない部分区間において、隣接する或いは時間的に近いフレーム画像間での動きはそれほど大きくない。そのため、ある短い期間における複数のフレーム画像の中から、代表的なフレーム画像を選定し、残りを廃棄したとしても、映像に含まれる情報に与える影響は少ないと言える。また、本実施形態では、指標情報が示す動きが基準を超える(すなわち、動きの多い)部分区間に対しては、フレームの間引き処理は実行されない。これにより、動きの多い部分区間については、撮像装置20が撮影した動画に含まれる情報をそのまま保持するタイムラプス動画を生成することができる。
[第5実施形態]
画像処理装置10の処理の少なくとも一部は、現場に設けられる装置(撮像装置20など)に備えられていてもよい。
〔システム構成〕
図14は、第5実施形態における画像処理システム1のシステム構成を例示的に示す図である。図14に示されるように、本実施形態の画像処理システム1において、撮像装置20は、動画生成部210、指標情報取得部220、画像選択部230、および、画像送信部240を備える。また、本実施形態の画像処理システム1において、画像処理装置10は、タイムラプス動画構築部160、画像解析部140、および出力部150を備える。
動画生成部210は、撮像装置20が設置された現場(土木工事現場や建設現場等)を撮影し、動画を生成する。動画生成部210は、動画生成部210により生成された動画における動きを判断するための指標情報を取得する。動画生成部210は、上述の各実施形態の指標情報取得部110と同様である。画像選択部230は、動画を構成する複数のフレーム画像の中の一部を、画像処理装置10に送信するフレーム画像(以下、「送信用フレーム画像」とも表記)として選択する。このとき、画像選択部230は、指標情報取得部220により取得された指標情報に応じて決まるレートで、動画を構成する複数のフレーム画像の中から複数の送信用フレーム画像を選択する。画像送信部240は、画像選択部230により選択されたフレーム画像を画像処理装置10に送信する。なお、撮像装置20は、一般的な動画撮影機能(動画生成部210)のみを有しており、指標情報取得部220、画像選択部230、および画像送信部240は、現場に設置される情報処理装置(図示せず)が有していてもよい。その場合、撮像装置20は当該情報処理装置を介して画像処理装置10と通信可能に接続される。
タイムラプス動画構築部160は、撮像装置20から送信された複数のフレーム画像を取得し、それらの複数のフレーム画像を繋ぎ合わせてタイムラプス動画を構築する。画像解析部140は、撮像装置20から取得した複数のフレーム画像(タイムラプス動画)の中から、レートが基準を満たすフレーム画像を用いて解析処理を実行する。出力部150は、タイムラプス動画構築部160により構築されたタイムラプス動画と、画像解析部140による解析処理の結果とを、監理者用の出力装置30に出力する。画像解析部140および出力部150の動作は、上述の各実施形態と同様である。
〔処理の流れ〕
図15および図16を用いて、本実施形態の画像処理システム1により実行される処理の流れについて説明する。図15は、撮像装置20により実行される処理の流れを例示するフローチャートである。また、図16は、画像処理装置10により実行される処理の流れを例示するフローチャートである。
<撮像装置20の処理の流れ>
まず、動画生成部210は、現場を撮影することによって動画を生成する(S702)。そして、指標情報取得部220は、S702で生成された動画から、その動画の中での動きを判断するための指標情報を取得する(S704)。指標情報取得部220は、上述の指標情報取得部110と同様にして、指標情報を取得することができる。
そして、画像選択部230は、指標情報取得部220が取得した指標情報に基づいて、画像処理装置10に送信するフレーム画像(送信用フレーム画像)を選択する(S706)。画像選択部230は、例えば次のように動作する。まず、画像選択部230は、指標情報に応じて、送信用フレーム画像を選択するレートを決定する。ここで、画像選択部230は、動画のある部分区間に対応する指標情報が示す動きが大きいほど、その部分区間のレートを小さくする。特に限定されないが、一例として、画像選択部230は、指標情報が示す動きが基準を超える(すなわち、動きの多い)区間については5フレーム毎に1枚の送信用フレーム画像を選択し、指標情報が示す動きが基準以下(すなわち、動きの少ない)区間については60フレーム毎に1枚の送信用フレームを選択する。この場合、指標情報が示す動きが基準を超える(すなわち、動きの多い)区間および指標情報が示す動きが基準以下(すなわち、動きの少ない)区間のレートは、それぞれ、「5倍」および「60倍」となる。そして、画像送信部240は、S706の処理で選択された送信用フレーム画像を画像処理装置10に送信する(S708)。このとき、画像送信部240は、送信用フレーム画像にレートを識別可能な情報(例えば、指標情報取得部220で取得された指標情報、動きが多い/少ないことを示す情報など)を付与する。
<画像処理装置10の処理の流れ>
タイムラプス動画構築部160は、撮像装置20から送信された、複数のフレーム画像を取得する(S802)。そして、タイムラプス動画構築部160は、取得した複数のフレーム画像を用いてタイムラプス動画を構築する(S804)。撮像装置20から取得するフレーム画像は、指標情報に応じた間隔で選択された上で、画像処理装置10に送信されている。そのため、タイムラプス動画構築部160は、これらのフレーム画像を繋ぎ合わせるだけで、タイムラプス動画を構築することができる。
また、画像解析部140は、撮像装置20から取得した各フレーム画像に付与された、各フレーム画像のレートを識別可能な情報に基づいて、複数の部分区間を特定する(S806)。具体的には、画像解析部140は、レートが基準以下であるフレーム画像が連続する区間を、「動きが少ない区間」として特定する。また、画像解析部140は、レートが基準を超えるフレーム画像が連続する区間を、「動きが多い区間」として特定する。そして、画像解析部140は、S806の処理結果に応じて、フレーム画像を用いた解析処理を実行する(S808)。具体的には、「動きが少ない区間」として特定された部分区間については、画像解析部140は、その部分区間のフレーム画像を用いて変位解析処理を実行する。また、「動きが少ない区間」として特定された部分区間については、画像解析部140は、その部分区間のフレーム画像を用いて動体検出処理を実行する。そして、画像解析部140は、各部分区間の処理結果を、タイムラプス動画と対応付ける(S810)。
出力部150は、上述の処理で得られる、タイムラプス動画および解析処理の結果を、監理者用の出力装置30に出力する(S812)。監理者は、出力装置30に出力されたタイムラプス動画および解析処理の結果を見て、監理作業を効率的に進めることができる。ここで、画像処理装置10は、監理者用の端末(図示せず)を介して、部分区間の再生速度を指定する入力や、解析処理の結果の表示態様を変える(例えば、グラフ化して映像に重畳させる)ための入力を受け付け、受け付けた入力に応じて出力の仕方を変更するように構成されていてもよい。
以上、本実施形態によっても、第1実施形態と同様の効果が得られる。また、本実施形態では、撮像装置20が画像処理装置10に送信するフレーム画像を、指標情報に応じたレートで選択することで、撮像装置20と画像処理装置10との間の通信データ量を削減する効果が得られる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
土木工事現場または建設現場を撮影した動画から、当該動画における動きを判断するための指標となる指標情報を取得する指標情報取得手段と、
前記指標情報に基づいて、前記動画の中で複数の部分区間を設定する区間設定手段と、
前記部分区間毎に、当該部分区間に対応する前記指標情報に応じて決まるレートでタイムラプス処理を施すことによって、タイムラプス動画を生成するタイムラプス動画生成手段と、
前記複数の部分区間のうち前記指標情報が基準を満たす特定部分区間のフレーム画像を用いた解析処理を実行する画像解析手段と、
前記タイムラプス動画および前記解析処理の結果を出力する出力手段と、
を備える画像処理装置。
2.
前記画像解析手段は、前記特定部分区間のフレーム画像に写る解析対象物の変位を検出する、
1.に記載の画像処理装置。
3.
前記画像解析手段は、
前記指標情報に基づく前記動きが基準以下である部分区間を前記特定部分区間として選択し、
当該選択した特定部分区間のフレーム画像を用いて前記解析対象物の変位を検出する、
2.に記載の画像処理装置。
4.
前記画像解析手段は、前記特定部分区間毎に、所定の枚数のフレーム画像を前記解析処理の対象のフレーム画像として選択する、
2.または3.に記載の画像処理装置。
5.
前記画像解析手段は、前記特定部分区間の複数のフレーム画像のうち、予め定められた物体を含まないフレーム画像を、前記解析処理の対象のフレーム画像として選択する、
2.から4.のいずれか1つに記載の画像処理装置。
6.
前記物体は、建機、車両、または人物の少なくともいずれか1つである、
5.に記載の画像処理装置。
7.
前記画像解析手段は、前記フレーム画像において指定された領域にのみ、前記解析処理を実行する、
1.から6.のいずれか1つに記載の画像処理装置。
8.
前記タイムラプス動画生成手段は、前記指標情報に基づく前記動きが基準以下である部分区間についてフレーム画像の間引き処理を実行する、
1.から7.のいずれか1つに記載の画像処理装置。
9.
前記指標情報取得手段は、前記動画を構成するフレーム画像を基に前記指標情報を取得する、
1.から8.のいずれか1つに記載の画像処理装置。
10.
前記指標情報取得手段は、前記動画を構成するフレーム画像間の差分を前記指標情報として取得し、
前記画像解析手段は、前記複数の部分区間の中から、前記差分が基準以下である前記部分区間を、前記特定部分区間として選択する、
9.に記載の画像処理装置。
11.
前記指標情報取得手段は、前記動画に音データが含まれている場合、当該音データを基に前記指標情報を取得する、
1.から8.のいずれか1つに記載の画像処理装置。
12.
前記指標情報取得手段は、前記音データの音量を前記指標情報として取得し、
前記画像解析手段は、前記複数の部分区間の中から、前記音量が基準以下である前記部分区間を、前記特定部分区間として選択する、
11.に記載の画像処理装置。
13.
コンピュータが、
土木工事現場または建設現場を撮影した動画から、当該動画における動きを判断するための指標となる指標情報を取得し、
前記指標情報に基づいて、前記動画の中で複数の部分区間を設定し、
前記部分区間毎に、当該部分区間に対応する前記指標情報に応じて決まるレートでタイムラプス処理を施すことによって、タイムラプス動画を生成し、
前記複数の部分区間のうち前記指標情報が基準を満たす特定部分区間のフレーム画像を用いた解析処理を実行し、
前記タイムラプス動画および前記解析処理の結果を出力する、
ことを含む画像処理方法。
14.
前記コンピュータが、前記特定部分区間のフレーム画像に写る解析対象物の変位を検出する、
ことを含む13.に記載の画像処理方法。
15.
前記コンピュータが、
前記指標情報に基づく前記動きが基準以下である部分区間を前記特定部分区間として選択し、
当該選択した特定部分区間のフレーム画像を用いて前記解析対象物の変位を検出する、
ことを含む14.に記載の画像処理方法。
16.
前記コンピュータが、前記特定部分区間毎に、所定の枚数のフレーム画像を前記解析処理の対象のフレーム画像として選択する、
ことを含む14.または15.に記載の画像処理方法。
17.
前記コンピュータが、前記特定部分区間の複数のフレーム画像のうち、予め定められた物体を含まないフレーム画像を、前記解析処理の対象のフレーム画像として選択する、
ことを含む14.から16.のいずれか1つに記載の画像処理方法。
18.
前記物体は、建機、車両、または人物の少なくともいずれか1つである、
17.に記載の画像処理方法。
19.
前記コンピュータが、前記フレーム画像において指定された領域にのみ、前記解析処理を実行する、
ことを含む13.から18.のいずれか1つに記載の画像処理方法。
20.
前記コンピュータが、前記指標情報に基づく前記動きが基準以下である部分区間についてフレーム画像の間引き処理を実行する、
ことを含む13.から19.のいずれか1つに記載の画像処理方法。
21.
前記コンピュータが、前記動画を構成するフレーム画像を基に前記指標情報を取得する、
ことを含む13.から20.のいずれか1つに記載の画像処理方法。
22.
前記コンピュータが、
前記動画を構成するフレーム画像間の差分を前記指標情報として取得し、
前記複数の部分区間の中から、前記差分が基準以下である前記部分区間を、前記特定部分区間として選択する、
ことを含む21.に記載の画像処理方法。
23.
前記コンピュータが、前記動画に音データが含まれている場合、当該音データを基に前記指標情報を取得する、
ことを含む13.から20.のいずれか1つに記載の画像処理方法。
24.
前記コンピュータが、
前記音データの音量を前記指標情報として取得し、
前記複数の部分区間の中から、前記音量が基準以下である前記部分区間を、前記特定部分区間として選択する、
ことを含む23.に記載の画像処理方法。
25.
コンピュータに、13.から24.のいずれか1つに記載の画像処理方法を実行させるプログラム。
26.
撮像装置と、
前記撮像装置と通信可能に接続された画像処理装置と、を備える画像処理システムであって、
前記撮像装置は、
土木工事現場または建設現場を撮影して動画を生成し、
前記動画における動きを判断するための指標となる指標情報を取得し、
前記指標情報に応じて決まるレートで、前記動画を構成する複数のフレーム画像の中から、前記画像処理装置に送信する複数の送信用フレーム画像を選択し、
選択した前記複数の送信用フレーム画像を前記画像処理装置に送信し、
前記画像処理装置は、
前記撮像装置から送信された前記複数の送信用フレーム画像を用いてタイムラプス動画を構築し、
前記複数の送信用フレーム画像の中から、前記レートが基準を満たす送信用フレーム画像を用いて解析処理を実行し、
前記タイムラプス動画および前記解析処理の結果を出力する、
画像処理システム。
1 画像処理システム
10 画像処理装置
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース
110 指標情報取得部
120 区間設定部
130 タイムラプス動画生成部
140 画像解析部
150 出力部
160 タイムラプス動画構築部
210 動画生成部
220 指標情報取得部
230 画像選択部
240 画像送信部
20 撮像装置
30 出力装置

Claims (10)

  1. 撮像装置から第1の動画を取得する動画取得処理と、
    前記第1の動画に基づいて、前記第1の動画よりもデータ量の少ない第2の動画を生成する動画生成処理と、
    前記第1の動画における色の変化に基づいて、解析対象物の変位量を求める変位量算出処理と、
    前記第2の動画と前記解析対象物の変位量とを出力装置に表示させる表示出力処理とを、
    コンピュータに実行させるプログラム。
  2. 前記表示出力処理は、
    前記解析対象物の変位量を前記第2の動画に重畳して前記出力装置に表示させることを含む、
    請求項1に記載のプログラム。
  3. 前記表示出力処理は、
    前記解析対象物を検出する領域の指定を受け付けることと、
    前記領域内における前記解析対象物の変位量を出力装置に表示させることと、を含む、
    請求項1または2に記載のプログラム。
  4. 前記解析対象物は、水分であり、
    前記変位量算出処理では、前記第1の動画における色の変化に基づいて、水分の変化量を求める
    請求項1から3のいずれか1項に記載のプログラム。
  5. 前記解析対象物は、盛土、ダム堤体、コンクリートブロック、コンクリート舗装、法面に吹き付けられるコンクリートやモルタル、路面に散布された水分、プラントの資材置き場に置かれた資材、船舶の積荷、及び、埋め立て地のゴミの少なくともいずれか1つを含む、
    請求項1からのいずれか1項に記載のプログラム。
  6. 前記第2の動画は、前記第1の動画に含まれる指標情報に応じて決まるレートでタイムラプス処理を施すことによって生成される、
    請求項1から5のいずれか1項に記載のプログラム。
  7. 前記指標情報は、工事用の建機、車両、及び、作業員の少なくともいずれか1つに関する情報を含む、
    請求項6に記載のプログラム。
  8. 前記第1の動画は音声データを含み、
    前記動画生成処理は、前記音声データの音量に応じて前記レートを決定することを含む、
    請求項6または7に記載のプログラム。
  9. 撮像装置から第1の動画を取得する動画取得手段と、
    前記第1の動画に基づいて、前記第1の動画よりもデータ量の少ない第2の動画を生成する動画生成手段と、
    前記第1の動画における色の変化に基づいて、解析対象物の変位量を求める変位量算出手段と、
    前記第2の動画と前記解析対象物の変位量とを出力装置に表示させる表示出力手段と、
    を備える画像処理装置。
  10. コンピュータが、
    撮像装置から第1の動画を取得し、
    前記第1の動画に基づいて、前記第1の動画よりもデータ量の少ない第2の動画を生成し、
    前記第1の動画における色の変化に基づいて、解析対象物の変位量を求め、
    前記第2の動画と前記解析対象物の変位量とを出力装置に表示させる、
    ことを含む画像処理方法。
JP2022116147A 2018-06-21 2022-07-21 画像処理装置、画像処理方法およびプログラム Active JP7420171B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022116147A JP7420171B2 (ja) 2018-06-21 2022-07-21 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018118262A JP7115058B2 (ja) 2018-06-21 2018-06-21 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP2022116147A JP7420171B2 (ja) 2018-06-21 2022-07-21 画像処理装置、画像処理方法およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018118262A Division JP7115058B2 (ja) 2018-06-21 2018-06-21 画像処理装置、画像処理方法、プログラム、および画像処理システム

Publications (2)

Publication Number Publication Date
JP2022153507A JP2022153507A (ja) 2022-10-12
JP7420171B2 true JP7420171B2 (ja) 2024-01-23

Family

ID=69097123

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018118262A Active JP7115058B2 (ja) 2018-06-21 2018-06-21 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP2022116147A Active JP7420171B2 (ja) 2018-06-21 2022-07-21 画像処理装置、画像処理方法およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018118262A Active JP7115058B2 (ja) 2018-06-21 2018-06-21 画像処理装置、画像処理方法、プログラム、および画像処理システム

Country Status (1)

Country Link
JP (2) JP7115058B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102609542B1 (ko) * 2022-04-26 2023-12-05 박상준 작업 과정 모니터링 서비스 제공 장치 및 방법
CN117111858B (zh) * 2023-10-23 2024-04-02 深圳萨尔浒网络科技有限公司 计算机文件数据匹配系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329522A (ja) 1999-05-21 2000-11-30 Hitachi Ltd 画像処理装置と水位計測システム
JP2002320198A (ja) 2001-04-23 2002-10-31 Casio Comput Co Ltd 動画記録装置
JP2002352224A (ja) 2001-05-29 2002-12-06 Topcon Corp 画像測定表示装置、画像測定表示システム、施工管理方法、施工状態監視システム
WO2003084225A1 (fr) 2002-04-03 2003-10-09 Mitsubishi Denki Kabushiki Kaisha Dispositif de liaison video, systeme de distribution video et procede de liaison video
JP2009272835A (ja) 2008-05-02 2009-11-19 Canon Inc 画像撮影装置及びその制御方法、プログラム
JP2015119335A (ja) 2013-12-18 2015-06-25 Kddi株式会社 動き変化量に応じて撮影動画像のフレームを間引く端末、システム、プログラム及び方法
JP2015133561A (ja) 2014-01-10 2015-07-23 株式会社日立製作所 計算機システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200989A (ja) 2002-12-18 2004-07-15 Fuji Photo Film Co Ltd 撮影装置及び監視システム
JP2005236724A (ja) 2004-02-20 2005-09-02 Victor Co Of Japan Ltd 撮像装置および動き検出方法
JP2006011500A (ja) * 2004-06-22 2006-01-12 Matsushita Electric Ind Co Ltd インターフォン装置
TWI298155B (en) 2005-03-14 2008-06-21 Avermedia Information Inc Surveillance system having auto-adjustment function
JP4794386B2 (ja) * 2006-07-28 2011-10-19 三洋電機株式会社 撮像装置
JP4773998B2 (ja) 2007-03-15 2011-09-14 富士フイルム株式会社 監視カメラ・システム,動画検索装置および顔画像データベース更新装置ならびにそれらの動作制御方法
JP2008311831A (ja) 2007-06-13 2008-12-25 Panasonic Corp 動画像通信装置、動画像通信システムおよび動画像通信用の半導体集積回路
JP2008311910A (ja) 2007-06-14 2008-12-25 Yamaha Corp 通信装置および会議システム
JP2013146029A (ja) 2012-01-16 2013-07-25 Toyota Motor Corp 車両周辺監視装置
JP5870470B2 (ja) 2013-01-29 2016-03-01 有限会社 ラムロック映像技術研究所 監視システム
JP6364838B2 (ja) 2014-03-14 2018-08-01 日本電気株式会社 映像処理装置および映像処理方法
JP6356552B2 (ja) * 2014-09-16 2018-07-11 東芝メモリ株式会社 情報処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329522A (ja) 1999-05-21 2000-11-30 Hitachi Ltd 画像処理装置と水位計測システム
JP2002320198A (ja) 2001-04-23 2002-10-31 Casio Comput Co Ltd 動画記録装置
JP2002352224A (ja) 2001-05-29 2002-12-06 Topcon Corp 画像測定表示装置、画像測定表示システム、施工管理方法、施工状態監視システム
WO2003084225A1 (fr) 2002-04-03 2003-10-09 Mitsubishi Denki Kabushiki Kaisha Dispositif de liaison video, systeme de distribution video et procede de liaison video
JP2009272835A (ja) 2008-05-02 2009-11-19 Canon Inc 画像撮影装置及びその制御方法、プログラム
JP2015119335A (ja) 2013-12-18 2015-06-25 Kddi株式会社 動き変化量に応じて撮影動画像のフレームを間引く端末、システム、プログラム及び方法
JP2015133561A (ja) 2014-01-10 2015-07-23 株式会社日立製作所 計算機システム

Also Published As

Publication number Publication date
JP7115058B2 (ja) 2022-08-09
JP2022153507A (ja) 2022-10-12
JP2019220895A (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
JP7420171B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6650677B2 (ja) 映像処理装置、映像処理方法、およびプログラム
JP5644097B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN108242062A (zh) 基于深度特征流的目标跟踪方法、系统、终端及介质
US10750127B2 (en) Monitoring system, monitoring method, and monitoring program
US11494975B2 (en) Method for analyzing three-dimensional model and device for analyzing three-dimensional model
JP2008046903A (ja) 対象個数検出装置および対象個数検出方法
JP2007233919A (ja) 画像処理による侵入者検知装置
JP2008090583A (ja) 情報処理システム、プログラムおよび情報処理方法
JP2009268005A (ja) 侵入物検知追跡装置
Chern et al. Impact of loss functions on semantic segmentation in far‐field monitoring
JP7078295B2 (ja) 変状検出装置、変状検出方法、及びプログラム
JP2008100814A (ja) エスカレータ監視装置、エスカレータ監視方法、エスカレータシステムおよびプログラム
CN114387544A (zh) 一种高空抛物检测方法、系统、电子设备及存储介质
JP4697761B2 (ja) 待ち行列検出方法及び待ち行列検出装置
JP2021184163A (ja) 学習装置、クラック検出装置、学習方法、クラック検出方法
CN101600110A (zh) 运动检测方法及装置
JP2007280151A (ja) 画像解析装置、画像解析方法及びプログラム
JP2021072003A (ja) 安全航行のための警報装置、警報方法、及び警報プログラム
JP2004110280A (ja) 移動物体検出装置
JP5941351B2 (ja) 画像処理装置及びその制御方法
JP2014074957A (ja) 画像処理装置及び画像処理方法
JP7483140B2 (ja) 画像処理システム、撮像装置、端末装置及び画像処理方法
JP7284401B2 (ja) 視線情報処理プログラム、情報処理装置および視線情報処理方法
WO2024053108A1 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R151 Written notification of patent or utility model registration

Ref document number: 7420171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151