JP7220861B1 - 情報処理方法、情報処理装置及びプログラム - Google Patents

情報処理方法、情報処理装置及びプログラム Download PDF

Info

Publication number
JP7220861B1
JP7220861B1 JP2022069697A JP2022069697A JP7220861B1 JP 7220861 B1 JP7220861 B1 JP 7220861B1 JP 2022069697 A JP2022069697 A JP 2022069697A JP 2022069697 A JP2022069697 A JP 2022069697A JP 7220861 B1 JP7220861 B1 JP 7220861B1
Authority
JP
Japan
Prior art keywords
moving image
importance
partial
information processing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022069697A
Other languages
English (en)
Other versions
JP2023159776A (ja
Inventor
卓哉 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2022069697A priority Critical patent/JP7220861B1/ja
Application granted granted Critical
Publication of JP7220861B1 publication Critical patent/JP7220861B1/ja
Publication of JP2023159776A publication Critical patent/JP2023159776A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 対象動画から適切なハイライト動画を作成する。【解決手段】一実施形態にかかる情報処理方法は、情報処理システムが実行する情報処理方法であって、動画を取得する取得処理と、前記動画を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する検出処理と、検出された前記第1対象物と前記第2対象物との間の距離を算出する距離算出処理と、前記距離に基づいて各部分動画の重要度を算出する重要度算出処理と、前記重要度に基づいて部分動画を選択する選択処理と、選択された部分動画を連結してハイライト動画を生成する生成処理と、を含む。【選択図】図6

Description

本発明は、情報処理方法、情報処理装置及びプログラムに関する。
近年、建設現場などにおいて、ウェアラブルカメラの導入が進められており、一人称視点動画の撮影が普及している。こうしたウェアラブルカメラを用いた現場の巡回点検が建設現場等で行われ、集積された動画を後から視聴し危険行動の監視や危険に繋がる行動の改善に生かされることが期待されている。
しかし、一度の巡回点検の所要時間は30分から1時間半程度と長時間であり、撮影後に全点検箇所を視聴するには多くの時間を要する。また、将来的にウェアラブルカメラが多くの作業員や作業現場に導入された際には、膨大な量の動画を視聴及び保管する必要がある。
短時間で動画を視聴するための支援法として、ハイライト動画の自動生成が挙げられる。スポーツ動画などにおいては、様々なハイライト動画自動生成手法が研究され、長時間の動画の視聴効率を高めることに寄与している。
このような手法として、例えば、引用文献1には、スポーツ競技を含む動画、前記スポーツ競技で発生したイベントを順次に記録したログ情報および前記動画に係るキーワードを識別するステップと、前記動画に係る競技情報を前記動画にタギングするステップと、前記キーワードに対応する少なくとも1つのログ情報を抽出し、前記タギングされた動画から前記抽出されたログ情報に対応する少なくとも1つのフレームを決定するステップと、前記決定された少なくとも1つのフレームを組み合わせてハイライト動画を生成するステップと、を含むハイライト抽出方法が開示されている。
特開2020-61729号公報
しかし、こうしたハイライト動画の自動生成手法では、対象とするジャンルに特化したダイジェスト映像生成手法が用いられることが多く、建設現場の一人称視点動画に適用可能な手法は少ない。用途に関わらずに適用可能な一人称視点動画の動画要約手法も提案されているが、ドメインに特化した動画データセットと熟練度の高いアノテーターによる重要シーンの膨大な教師データが必要であり、その準備には手間と時間を要する。
本発明は、上記の課題を鑑みてなされたものであり、対象動画から適切なハイライト動画を作成することを目的とする。
一実施形態にかかる情報処理方法は、情報処理システムが実行する情報処理方法であって、対象動画を取得する取得処理と、前記対象動画を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する検出処理と、検出された前記第1対象物と前記第2対象物との間の距離を算出する距離算出処理と、前記距離に基づいて各部分動画の重要度を算出する重要度算出処理と、前記重要度に基づいて部分動画を選択する選択処理と、選択された部分動画を連結してハイライト動画を生成する生成処理と、を含む。
一実施形態によれば、対象動画から適切なハイライト動画を作成することができる。
本実施形態に係る情報処理システムの構成の一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 情報処理装置の機能構成の一例を示す図である。 部分動画情報の一例を示す図である。 情報処理システムの処理の一例を示すフローチャートである。 フレームの一例を示す図である。
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
<システム構成>
まず、本実施形態に係る情報処理システムの概要について説明する。本実施形態に係る情報処理システムは、対象動画から適切なハイライト動画を作成するために利用可能なシステムである。対象動画は、動画中におけるシーンの重要性が、動画中における2種類の対象物の間の距離に依存する任意の動画である。
対象動画は、例えば、建設現場、工事現場、又は監視動画であるが、これに限られない。建設現場は、建物、道路及び鉄道の建設現場を含む。工事現場は、水道管、ガス管、電柱及び道路標識の工事を含む。監視動画は、交差点、店舗、歩道及び道路の監視動画を含む。
また、対象動画は、視点固定動画及び一人称視点動画を含む。視点固定動画は、監視カメラなどの固定カメラにより撮影された動画である。一人称視点動画は、撮影者が所持した非固定カメラで撮影された動画である。非固定カメラは、例えば、ウェアラブルカメラ、デジタルカメラ、スマートフォン、又はタブレット端末であるが、これに限られない。
図1は、本実施形態に係る情報処理システムの構成の一例を示す図である。図1に示すように、本実施形態に係る情報処理システムは、ネットワークNを介して相互に通信可能に接続された、ハイライト動画作成装置1(以下単に「作成装置1」という。)と、ユーザ端末2と、撮影装置3と、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。図1の例では、情報処理システムは、作成装置1、ユーザ端末2、及び撮影装置3をそれぞれ1つずつ備えるが、それぞれ複数備えてもよい。
作成装置1は、対象動画からハイライト動画を作成する情報処理装置である。対象動画は、ハイライト動画を作成する対象となる動画である。対象動画は、例えば、ウェアラブルカメラにより建設現場を撮影した一人称視点動画であるが、これに限られない。ハイライト動画は、対象動画の重要な部分を切り出して連結した、対象動画より短い動画である。作成装置1は、対象動画から1又は複数の重要な部分を切り出して連結することにより、ハイライト動画を作成する。作成装置1は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピューであるが、これに限られない。作成装置1について、詳しくは後述する。
ユーザ端末2は、本実施形態に係る情報処理システムのユーザが利用する情報処理装置である。ユーザは、例えば、建設現場の管理者であるが、これに限られない。ユーザは、例えば、ユーザ端末2を介して作成装置1に対象動画を送信し、ユーザ端末2でハイライト動画を閲覧する。ユーザ端末2は、例えば、PC、スマートフォン、又はタブレット端末であるが、これに限られない。
撮影装置3は、対象動画を撮影するカメラを備えた情報処理装置である。撮影装置3は、ウェアラブルカメラなどの非固定カメラであってもよいし、建設現場などに設置された固定カメラであってもよい。以下では、ユーザが撮影装置3を利用して対象動画を撮影する場合を例に説明するが、撮影者はユーザ以外の人物(例えば、建設現場の作業員)であってもよい。撮影装置3は、撮影した対象動画を、ネットワークNを介してユーザ端末2又は作成装置1に送信可能であってもよい。また、撮影装置3は、撮影した対象動画を、SDカードなどの記録媒体を介してユーザ端末2に提供可能であってもよい。
<ハードウェア構成>
次に、情報処理装置100のハードウェア構成について説明する。図2は、情報処理装置100のハードウェア構成の一例を示す図である。図2に示すように、情報処理装置100は、バスBを介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入出力I/F105と、ドライブ装置106と、を備える。
プロセッサ101は、ストレージ103に記憶されたOS(Operating System)を含む各種のプログラムをメモリ102に展開して実行することにより、情報処理装置100の各構成を制御し、情報処理装置100の機能を実現する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、又はこれらの組み合わせである。
メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)、SRAM(Static RAM)、又はこれらの組み合わせである。
ストレージ103は、OSを含む各種のプログラム及びデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SCM(Storage Class Memories)、又はこれらの組み合わせである。
通信I/F104は、情報処理装置100を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F104は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)、Ethernet(登録商標)、又は光通信に準拠したアダプタであるが、これに限られない。
入出力I/F105は、作成装置1に入力装置107及び出力装置108を接続するためのインタフェースである。入力装置107は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、操作ボタン、又はこれらの組み合わせである。出力装置108は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、バイブレータ、又はこれらの組み合わせである。
ドライブ装置106は、ディスクメディア109のデータを読み書きする。ドライブ装置106は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ、又はこれらの組み合わせである。ディスクメディア109は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disk)、MO(Magneto-Optical disk)、BD(Blu-ray(登録商標) Disc)、又はこれらの組み合わせである。
なお、本実施形態において、プログラムは、情報処理装置100の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して情報処理装置100に提供されてもよいし、ディスクメディア109などの非一時的でコンピュータ読み取り可能な記録媒体を介して情報処理装置100に提供されてもよい。
<機能構成>
次に、作成装置1の機能構成について説明する。図3は、作成装置1の機能構成の一例を示す図である。図3に示すように、作成装置1は、通信部11と、記憶部12と、制御部13と、を備える。
通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、ユーザ端末2又は撮影装置3との間で情報の送受信を行う。通信部11は、例えば、ユーザ端末2から対象動画を受信し、ユーザ端末2にハイライト動画を送信する。
記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、対象動画121と、部分動画情報122と、ハイライト動画123と、を記憶する。
対象動画121は、作成装置1がユーザ端末2又は撮影装置3から受信した対象動画の動画ファイルである。対象動画121は、例えば、ユーザが撮影装置3で建設現場を撮影した30fpsの一人称視点動画であるが、これに限られない。
部分動画情報122は、部分動画に関する情報である。部分動画は、対象動画121を分割した各部分に相当する動画である。部分動画は、例えば、対象動画121を所定時間(所定フレーム数)ごとに均等に分割した動画であってもよいし、それぞれ異なる時間(フレーム数)で分割した動画であってもよい。
図4は、部分動画情報122の一例を示す図である。図4の部分動画情報122は、情報項目として、「部分動画ID」、「時間」、「第1対象物」、「第2対象物」、「距離」、「静止度」及び「重要度」を含む。
「部分動画ID」は、部分動画を一意に識別する識別情報である。
「時間」は、対象動画121における部分動画の時間範囲を示す情報である。部分動画情報122は、部分動画の時間範囲を示す情報の代わりに、又は部分動画の時間範囲を示す情報と共に、部分動画のフレーム数の範囲を示す情報を含んでもよい。
「第1対象物」は、部分動画における第1対象物の検出結果を示す情報である。第1対象物の検出結果は、例えば、検出された第1対象物の重心の座標であるが、これに限られない。第1対象物の検出結果は、検出された第1対象物の位置を示す任意の情報であり得る。部分動画から複数の第1対象物が検出された場合、その部分動画の部分動画情報122は、検出された各第1対象物の検出結果を含んでもよい。なお、第1対象物については後述する。
「第2対象物」は、部分動画における第2対象物の検出結果を示す情報である。第2対象物の検出結果は、例えば、検出された第2対象物の重心の座標であるが、これに限られない。第2対象物の検出結果は、検出された第2対象物の位置を示す任意の情報であり得る。部分動画から複数の第2対象物が検出された場合、その部分動画の部分動画情報122は、検出された各第2対象物の検出結果を含んでもよい。なお、第2対象物については後述する。
「距離L」は、部分動画において検出された第1対象物と第2対象物の間の距離を示す情報である。距離Lについて、詳しくは後述する。
「静止度S」は、部分動画の静止している度合いを示す情報である。言い換えると、「静止度S」は、部分動画のブレの度合いを示す情報である。静止度Sが大きいほど、部分動画が静止している(ブレが小さい)ことを意味する。静止度Sについて、詳しくは後述する。
「重要度P」は、部分動画の重要さを示す情報である。重要度Pは、距離L及び静止度Sに基づいて算出される。重要度Pについて、詳しくは後述する。
図4の例では、部分動画M001は、「時間」が0~2であり、「第1対象物」が(x1,y1)であり、「第2対象物」が(x2,y2)であり、「距離L」が0.2であり、「静止度S」が1.0であり、「重要度P」が5.0である。これは、部分動画M001は、対象動画121における0秒以上2秒未満の範囲の動画であり、第1対象物が座標(x1,y1)に検出され、第2対象物が座標(x2,y2)に検出され、第1対象物と第2対象物の間の距離Lが0.2と算出され、静止度Sが1.0と算出され、重要度Pが5.0と算出されたことを示している。
また、部分動画M002は、「時間」が2~4であり、「第1対象物」が(x3,y3)であり、「第2対象物」が(x4,y4)であり、「距離L」が2.0であり、「静止度S」が1.2であり、「重要度P」が0.6である。これは、部分動画M002は、対象動画121における2秒以上4秒未満の範囲の動画であり、第1対象物が座標(x3,y3)に検出され、第2対象物が座標(x4,y4)に検出され、第1対象物と第2対象物の間の距離Lが2.0と算出され、静止度Sが1.2と算出され、重要度Pが0.6と算出されたことを示している。
また、部分動画M003は、「時間」が4~6であり、「第1対象物」が(x5,y5)であり、「第2対象物」が「-」であり、「距離L」が「-」であり、「静止度S」が「-」であり、「重要度P」が0である。これは、部分動画M003は、対象動画121における4秒以上6秒未満の範囲の動画であり、第1対象物が座標(x5,y5)に検出され、距離L及び静止度Sが算出されず、重要度Pが0と算出されたことを示している。
また、部分動画M004は、「時間」が6~8であり、「第1対象物」が(x6,y6)であり、「第2対象物」が(x7,y7)であり、「距離L」が0.4であり、「静止度S」が0.1であり、「重要度P」が0である。これは、部分動画M004は、対象動画121における6秒以上8秒未満の範囲の動画であり、第1対象物が座標(x6,y6)に検出され、第2対象物が座標(x7,y7)に検出され、距離Lが0.4と算出され、静止度Sが0.1と算出され、重要度Pが0と算出されたことを示している。
なお、部分動画情報122は、図4の例に限られない。部分動画情報122は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。
ハイライト動画123は、作成装置1が対象動画121から作成したハイライト動画の動画ファイルである。ハイライト動画123は、元となった対象動画121と対応づけて記憶される。ハイライト動画123は、対象動画121から重要な部分を切り出して連結した5分の動画であるが、これに限られない。
制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、作成装置1の動作全体を制御する。制御部13は、取得部131と、検出部132と、距離算出部133と、静止度算出部134と、重要度算出部135と、選択部136と、作成部137と、を備える。
取得部131は、ユーザ端末2又は撮影装置3から作成装置1の通信部11が受信した対象動画121を取得し、記憶部12に保存する。
検出部132は、対象動画121を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する。検出部132は、対象動画121を所定時間(所定フレーム数)ごとに均等に分割してもよいし、それぞれ異なる時間(フレーム数)で分割してもよい。より詳細には、検出部132は、各部分動画に対して第1対象物及び第2対象物の検出処理を実行し、検出結果(第1対象物及び第2対象物の位置)を部分動画情報122として記憶部12に保存する。
検出部132は、第1対象物を検出可能な物体検出モデルと、第2対象物を検出可能な物体検出モデルと、をそれぞれ利用して検出処理を実行してもよいし、第1対象物及び第2対象物を検出可能な1つの物体検出モデルを利用して検出処理を実行してもよい。また、検出部132は。部分動画の最初のフレームに対して検出処理を実行し、その検出結果を部分動画に対する検出結果として記憶部12に保存してもよいし、部分動画に含まれる複数のフレームに対して検出処理を実行し、複数のフレームに対する検出結果の平均を、部分動画に対する検出結果として記憶部12に保存してもよい。
ここで、第1対象物及び第2対象物について説明する。第1対象物及び第2対象物は、対象動画121の撮影対象及び撮影目的に応じて予め設定された2種類の対象物であり、それらの間の距離が、対象動画121におけるシーンの重要性に影響する2種類の対象物の組み合わせの中から任意に選択され得る。
例えば、建設現場では、人と重機が接近するほど、事故が発生する可能性が高くなる。このため、建設現場の安全性を高める(建設現場における危険な場所を確認する)ために建設現場の様子を対象動画121として撮影する場合、人と重機の間の距離が小さいシーンほど、危険性が高く、重要なシーンとなる。そこで、このような場合には、第1対象物として人が選択され、第2対象物として重機が選択され得る。
同様に、交差点では、人と車両が接近するほど、事故が発生する可能性が高くなる。このため、交差点の安全性を高める(交差点における危険な車両、時間帯、歩行者を確認する)ために交差点の様子を対象動画121として撮影する場合、人と車両の間の距離が小さいシーンほど、危険性が高く、重要なシーンとなる。そこで、このような場合には、第1対象物として人が選択され、第2対象物として車両が選択され得る。
なお、第1対象物と第2対象物の組み合わせは上記の例に限られない。第1対象物と第2対象物は、対象動画121の撮影対象及び撮影目的に応じて任意に選択可能である。
距離算出部133は、各部分動画において検出された第1対象物と第2対象物の間の距離Lを算出し、算出した距離Lを部分動画情報122として記憶部12に保存する。距離Lは、フレーム上のピクセル数であってもよいし、フレーム上のピクセル数に基づいて算出された値であってもよい。フレーム上のピクセル数に基づいて算出された値として、例えば、フレームのサイズを基準としたピクセル数の割合、ピクセル数から換算された現実の距離などが挙げられる。対象動画121中の奥行きを算出可能である場合には、距離Lは、奥行きを考慮した距離であってもよい。また、複数の第1対象物又は複数の第2対象物が検出された場合、距離Lは、複数算出される距離Lのうち、最小の距離であってもよいし、複数算出される距離Lの平均値であってもよい。なお、図4の部分動画M004のように、第1対象物又は第2対象物が検出されなかった部分動画については、距離算出部133は、距離Lを算出しなくてもよい。
静止度算出部134は、各部分動画の静止度Sを算出し、算出した静止度Sを部分動画情報122として記憶部12に保存する。静止度算出部134は、部分動画の最初のフレームに対して静止度Sの算出処理を実行し、算出された静止度Sを部分動画の静止度Sとして記憶部12に保存してもよいし、部分動画の複数のフレームに対して静止度Sの算出処理を実行し、算出された複数の静止度Sの平均を部分動画の静止度Sとして記憶部12に保存してもよいし、部分動画の複数のフレームに基づいて部分動画の静止度Sを算出して記憶部12に保存してもよい。
一般に、画像のブレが大きいほど、画像の輪郭(エッジ)は不鮮明となり、画像のエッジ成分のばらつきが小さくなる。言い換えると、画像のエッジ成分のばらつきが大きいほど、画像のブレが小さい、すなわち、画像の静止の度合いが大きいことになる。そこで、静止度Sは、フレームにおけるエッジ成分のばらつき(分散、標準偏差など)に基づいて算出することができる。静止度Sは、フレームにおけるエッジ成分のばらつき自体であってもよいし、フレームにおけるエッジ成分のばらつきに加えて、画像の静止度合いを示す他の指標を考慮した値であってもよい。また、静止度Sは、画像の静止度合いを示す、フレームにおけるエッジ成分のばらつきとは異なる指標に基づいて算出されてもよい。
なお、対象動画121が固定カメラにより撮影された動画である場合、各部分動画の静止度Sにはほとんど差がつかないため、静止度算出部134は、静止度Sを算出しなくてもよい。
また、距離Lに基づいてハイライト動画を作成する場合、図4の部分動画M003のように、距離Lが算出されていない部分動画は、重要な部分動画として選択されることはないため、静止度Sを算出しなくてもよい。これにより、作成装置1の計算量を削減できる。
重要度算出部135は、各部分動画の重要度Pを算出し、算出した重要度Pを部分動画情報122として記憶部12に保存する。重要度算出部135は、部分動画の最初のフレームに対して重要度Pの算出処理を実行し、算出された重要度Pを部分動画の重要度Pとして記憶部12に保存してもよいし、部分動画の複数のフレームに対して重要度Pの算出処理を実行し、算出された複数の重要度Pの平均を部分動画の静止度Sとして記憶部12に保存してもよい。
重要度算出部135は、対象動画121が、第1対象物と第2対象物との間の距離Lが小さいシーンほど重要な動画である場合、距離Lが小さいほど重要度Pを大きく算出する。このような対象動画121として、安全管理のために撮影される建設現場、工事現場、及び交差点などの動画が挙げられる。
また、重要度算出部135は、対象動画121が、第1対象物と第2対象物との間の距離Lが大きいシーンほど重要な動画である場合、距離Lが大きいほど重要度Pを大きく算出する。
また、重要度算出部135は、対象動画121が一人称視点動画である場合、静止度Sが大きいほど重要度Pを大きく算出する。これは、一人称視点動画の場合、撮影者が静止して撮影しているシーン(静止度Sが大きいシーン)ほど、撮影者が注視している、すなわち、撮影者にとって重要なシーンであると考えられるためである。
例えば、対象動画121が建設現場を撮影した一人称視点動画である場合、距離Lが小さく、静止度Sが大きいほど、重要度Pは大きく算出される。このような算出方法として、図4の例のように、重要度Pを1/距離L×静止度Sで算出することが考えられる。
なお、重要度Pの算出方法は上記の例に限られない。また、静止度Sが小さすぎる部分動画は、ブレが大きすぎて重要な部分動画として選択されることはないため、図4の部分動画M004のように、重要度Pを算出しなくてもよい。これにより、作成装置1の計算量を削減できる。
選択部136は、各部分動画の重要度Pに基づいて、ハイライト動画123に含める重要な部分動画を選択する。選択部136は、重要度Pが予め設定された閾値以上の部分動画を選択してもよい。例えば、閾値が1.0である場合、図4の例では、部分動画M001は選択され、部分動画M002~M004は選択されない。また、選択部136は、ハイライト動画123の長さが予め設定された長さとなるように、重要度Pが高い順に部分動画を選択してもよい。例えば、ハイライト動画123の長さが1分である場合、図4の例では、重要度Pが高い順に30個の部分動画が選択される。
作成部137は、選択部136が選択した部分動画を連結してハイライト動画123を作成し、元の対象動画121と対応づけて記憶部12に保存する。
なお、作成装置1の機能構成は、上記の例に限られない。例えば、作成装置1は、上記の機能構成の一部を備え、残りをユーザ端末2が備えてもよい。また、作成装置1は、上記以外の機能構成を備えてもよい。また、作成装置1の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC(System on Chip)、LSI(Large Scale Integration)、マイクロコンピュータ等のハードウェアによって実現されてもよい。
<情報処理システムが実行する処理>
次に、本実施形態に係る情報処理システムが実行する処理について説明する。図5は、情報処理システムが実行する処理の一例を示すフローチャートである。以下では、ユーザが所持した撮影装置3で建設現場を撮影し、得られた動画のハイライト動画をユーザ端末2で閲覧する場合を例に説明する。
(ステップS101)
撮影装置3を所持したユーザが、建設現場を歩き回って対象動画121を撮影する。対象動画121は、建設現場の一人称視点動画となる。撮影装置3は、対象動画121を、ネットワークNを介して作成装置1に送信する。
(ステップS102)
作成装置1の通信部11が撮影装置3から対象動画121を受信すると、取得部131は、受信した対象動画121を取得し、記憶部12に保存する。
(ステップS103)
検出部132は、記憶部12に保存された対象動画121を読み出し、対象動画121を複数の部分動画に分割し、各部分動画の最初のフレームに対して、人(第1対象物)と重機(第2対象物)の検出処理を実行し、検出結果を各部分動画の部分動画情報122として記憶部12に保存する。
図6は、部分動画Mの最初のフレームの一例を示す図である。図6のフレームには、人HとクレーンCが写っている。図6の例では、検出処理により、人HとクレーンCが検出され、第1対象物の検出結果として人HのバウンディングボックスBB1の重心の座標が、第2対象物の検出結果として人HのバウンディングボックスBB2の重心の座標が、部分動画Mの部分動画情報122として記憶部12に保存される。
(ステップS104)
距離算出部133は、部分動画情報122を参照して、各部分動画の距離Lを算出し、部分動画情報122として記憶部12に保存する。図6の例では、バウンディングボックスBB1の重心の座標と、バウンディングボックスBB2の重心の座標と、の間の距離が部分動画Mの距離Lとして算出される。
(ステップS105)
静止度算出部134は、各部分動画の最初のフレームに対して静止度Sの算出処理を実行し、算出した静止度Sを各部分動画の部分動画情報122として記憶部12に保存する。
(ステップS106)
重要度算出部135は、部分動画情報122を参照して、各部分動画の重要度Pを算出し、算出した重要度Pを各部分動画の部分動画情報122として記憶部12に保存する。
(ステップS107)
選択部136は、部分動画情報122を参照して、重要度Pが閾値以上の部分動画を、ハイライト動画123に含める重要な部分動画として選択する。
(ステップS108)
作成部137は、ステップS107で選択部136が選択した部分動画を連結してハイライト動画123を作成し、元の対象動画121と対応づけて記憶部12に保存する。通信部11は、記憶部12に保存されたハイライト動画123を、自動的に又はユーザ端末2からの要求に応じて、ネットワークNを介してユーザ端末2に送信する。通信部11は、ハイライト動画123と共に、元となった対象動画121をユーザ端末2に送信してもよい。
(ステップS109)
ユーザ端末2は、ネットワークNを介して作成装置1からハイライト動画123を受信すると、ユーザからの要求に応じてハイライト動画123を再生する。ユーザは、ユーザ端末2でハイライト動画123を閲覧する。
<まとめ>
以上説明した通り、本実施形態によれば、対象動画121から、第1対象物と第2対象物との距離Lに依存した重要なシーンを切り出して連結したハイライト動画123を自動的に作成することができる。
また、本実施形態に係るハイライト動画123の作成方法は、第1対象物及び第2対象物を検出可能な物体検出モデルを変更するだけで、様々な撮影対象及び撮影目的の対象動画121に適用できるため、汎用的であり、かつ、対象動画121に容易に特化させることが可能なハイライト動画123の作成方法として利用することができる。
また、本実施形態によれば、静止度Sに基づいてハイライト動画123を作成することにより、一人称視点動画から、撮影者が注視したシーンを切り出して連結したハイライト動画123、すなわち、撮影者の関心を考慮したハイライト動画123を作成することができる。
<付記>
本実施形態は、以下の開示を含む。
(付記1)
情報処理システムが実行する情報処理方法であって、
対象動画を取得する取得処理と、
前記対象動画を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する検出処理と、
検出された前記第1対象物と前記第2対象物との間の距離を算出する距離算出処理と、
前記距離に基づいて各部分動画の重要度を算出する重要度算出処理と、
前記重要度に基づいて部分動画を選択する選択処理と、
選択された部分動画を連結してハイライト動画を生成する生成処理と、
を含む情報処理方法。
(付記2)
前記重要度算出処理は、前記距離が小さいほど前記重要度を大きく算出する
付記1に記載の情報処理方法。
(付記3)
各部分動画の静止度を算出する静止度算出処理を更に含み
前記重要度算出処理は、前記距離及び前記静止度に基づいて各部分動画の重要度を算出する
付記1に記載の情報処理方法。
(付記4)
前記重要度算出処理は、前記静止度が大きいほど前記重要度を大きく算出する
付記3に記載の情報処理方法。
(付記5)
前記選択処理は、前記重要度が高い順に所定数の部分動画を選択する
付記1に記載の情報処理方法。
(付記6)
前記選択処理は、前記重要度が閾値以上の部分動画を選択する
付記1に記載の情報処理方法。
(付記7)
前記対象動画は、非固定カメラにより撮影された動画である
付記1に記載の情報処理方法。
(付記8)
前記対象動画は、ウェアラブルカメラにより撮影された動画である
付記1に記載の情報処理方法。
(付記9)
前記第1対象物は、人である
付記1に記載の情報処理方法。
(付記10)
前記第2対象物は、重機である
付記1に記載の情報処理方法。
(付記11)
前記距離は、フレーム上のピクセル数に基づいて算出される
付記1に記載の情報処理方法。
(付記12)
前記静止度は、フレームにおけるエッジ成分のばらつきに基づいて算出される
付記3に記載の情報処理方法。
(付記13)
対象動画を取得する取得部と、
前記対象動画を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する検出部と、
検出された前記第1対象物と前記第2対象物との間の距離を算出する距離算出部と、
前記距離に基づいて各部分動画の重要度を算出する重要度算出部と、
前記重要度に基づいて部分動画を選択する選択部と、
選択された部分動画を連結してハイライト動画を生成する生成部と、
を含む情報処理装置。
(付記14)
コンピュータに、
対象動画を取得する取得処理と、
前記対象動画を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する検出処理と、
検出された前記第1対象物と前記第2対象物との間の距離を算出する距離算出処理と、
前記距離に基づいて各部分動画の重要度を算出する重要度算出処理と、
前記重要度に基づいて部分動画を選択する選択処理と、
選択された部分動画を連結してハイライト動画を生成する生成処理と、
を含む情報処理方法を実行させるためのプログラム。
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1:ハイライト動画作成装置
2:ユーザ端末
3:撮影装置
11:通信部
12:記憶部
13:制御部
101:プロセッサ
102:メモリ
103:ストレージ
104:通信I/F
105:入出力I/F
106:ドライブ装置
107:入力装置
108:出力装置
109:ディスクメディア
121:対象動画
122:部分動画情報
123:ハイライト動画
131:取得部
132:検出部
133:距離算出部
134:静止度算出部
135:重要度算出部
136:選択部
137:作成部

Claims (13)

  1. 情報処理システムが実行する情報処理方法であって、
    対象動画を取得する取得処理と、
    前記対象動画を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する検出処理と、
    検出された前記第1対象物と前記第2対象物との間の距離を算出する距離算出処理と、
    前記距離に基づいて各部分動画の重要度を算出する重要度算出処理と、
    前記重要度に基づいて部分動画を選択する選択処理と、
    選択された部分動画を連結してハイライト動画を生成する生成処理と、
    各部分動画の静止度を算出する静止度算出処理と、
    を含み、
    前記重要度算出処理は、前記距離及び前記静止度に基づいて各部分動画の重要度を算出する
    情報処理方法。
  2. 前記重要度算出処理は、前記距離が小さいほど前記重要度を大きく算出する
    請求項1に記載の情報処理方法。
  3. 前記重要度算出処理は、前記静止度が大きいほど前記重要度を大きく算出する
    請求項に記載の情報処理方法。
  4. 前記選択処理は、前記重要度が高い順に所定数の部分動画を選択する
    請求項1に記載の情報処理方法。
  5. 前記選択処理は、前記重要度が閾値以上の部分動画を選択する
    請求項1に記載の情報処理方法。
  6. 前記対象動画は、非固定カメラにより撮影された動画である
    請求項1に記載の情報処理方法。
  7. 前記対象動画は、ウェアラブルカメラにより撮影された動画である
    請求項1に記載の情報処理方法。
  8. 前記第1対象物は、人である
    請求項1に記載の情報処理方法。
  9. 前記第2対象物は、重機である
    請求項1に記載の情報処理方法。
  10. 前記距離は、フレーム上のピクセル数に基づいて算出される
    請求項1に記載の情報処理方法。
  11. 前記静止度は、フレームにおけるエッジ成分のばらつきに基づいて算出される
    請求項に記載の情報処理方法。
  12. 対象動画を取得する取得部と、
    前記対象動画を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する検出部と、
    検出された前記第1対象物と前記第2対象物との間の距離を算出する距離算出部と、
    前記距離に基づいて各部分動画の重要度を算出する重要度算出部と、
    前記重要度に基づいて部分動画を選択する選択部と、
    選択された部分動画を連結してハイライト動画を生成する生成部と、
    各部分動画の静止度を算出する静止度算出部と、
    を含み、
    前記重要度算出部は、前記距離及び前記静止度に基づいて各部分動画の重要度を算出する
    情報処理装置。
  13. コンピュータに、
    対象動画を取得する取得処理と、
    前記対象動画を複数の部分動画に分割し、各部分動画から第1対象物及び第2対象物を検出する検出処理と、
    検出された前記第1対象物と前記第2対象物との間の距離を算出する距離算出処理と、
    前記距離に基づいて各部分動画の重要度を算出する重要度算出処理と、
    前記重要度に基づいて部分動画を選択する選択処理と、
    選択された部分動画を連結してハイライト動画を生成する生成処理と、
    各部分動画の静止度を算出する静止度算出処理と、
    を含み、
    前記重要度算出処理は、前記距離及び前記静止度に基づいて各部分動画の重要度を算出する
    情報処理方法を実行させるためのプログラム。
JP2022069697A 2022-04-20 2022-04-20 情報処理方法、情報処理装置及びプログラム Active JP7220861B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022069697A JP7220861B1 (ja) 2022-04-20 2022-04-20 情報処理方法、情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022069697A JP7220861B1 (ja) 2022-04-20 2022-04-20 情報処理方法、情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP7220861B1 true JP7220861B1 (ja) 2023-02-13
JP2023159776A JP2023159776A (ja) 2023-11-01

Family

ID=85198003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022069697A Active JP7220861B1 (ja) 2022-04-20 2022-04-20 情報処理方法、情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7220861B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140069A (ja) 2008-12-09 2010-06-24 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2012113433A (ja) 2010-11-22 2012-06-14 Canon Inc 文字認識装置、文字認識方法及びプログラム
JP2017010251A (ja) 2015-06-22 2017-01-12 富士フイルム株式会社 画像抽出装置、画像抽出方法、プログラムおよび記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101341808B1 (ko) * 2011-11-30 2013-12-17 고려대학교 산학협력단 영상 내 비주얼 특징을 이용한 영상 요약 방법 및 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140069A (ja) 2008-12-09 2010-06-24 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2012113433A (ja) 2010-11-22 2012-06-14 Canon Inc 文字認識装置、文字認識方法及びプログラム
JP2017010251A (ja) 2015-06-22 2017-01-12 富士フイルム株式会社 画像抽出装置、画像抽出方法、プログラムおよび記録媒体

Also Published As

Publication number Publication date
JP2023159776A (ja) 2023-11-01

Similar Documents

Publication Publication Date Title
JP5863400B2 (ja) 類似画像検索システム
JP4470759B2 (ja) 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体
US20140079340A1 (en) Image management apparatus, management method, and storage medium
US9424469B2 (en) Differing region detection system and differing region detection method
JPWO2006025272A1 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
JP4959592B2 (ja) ネットワーク映像モニタリングシステム及びモニタ装置
JP6589082B2 (ja) 類似画像検索システム
US10529122B2 (en) Information processing apparatus, information processing method, and storage medium
JP6203188B2 (ja) 類似画像検索装置
JP2010166288A (ja) 映像出力方法、映像出力装置、及び監視映像出力システム
JP6724919B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6214762B2 (ja) 画像検索システム、検索画面表示方法
JP6618349B2 (ja) 映像検索システム
JP2010011076A (ja) 画像処理装置及び画像処理方法
JP7220861B1 (ja) 情報処理方法、情報処理装置及びプログラム
JP7078295B2 (ja) 変状検出装置、変状検出方法、及びプログラム
KR102527771B1 (ko) Tof 카메라와 디지털 트윈기술을 이용한 독거노인 행동관찰 및 이상행위 모니터링 시스템 및 방법
US20130188880A1 (en) Computer-readable recording medium storing image accumulating program, method and apparatus
KR101264667B1 (ko) 비디오 파일의 썸네일 이미지 생성 방법 및 그 방법이 기록된 기록매체
KR102008672B1 (ko) 카메라와 연계해서 증강현실 프리미티브와 이벤트를 연동시키는 시스템 및 그 시스템의 구동방법
JP2012098830A (ja) 監視装置、監視方法、及びプログラム
JP5147737B2 (ja) 撮像装置
JP2009239804A (ja) 監視システム及び画像検索サーバ
US20220189103A1 (en) Generation apparatus, generation method, and storage medium
JP7485204B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221021

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7220861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150