JP2020005014A - 情報処理装置、映像テキスト変換方法、および映像データ生成方法 - Google Patents

情報処理装置、映像テキスト変換方法、および映像データ生成方法 Download PDF

Info

Publication number
JP2020005014A
JP2020005014A JP2018119668A JP2018119668A JP2020005014A JP 2020005014 A JP2020005014 A JP 2020005014A JP 2018119668 A JP2018119668 A JP 2018119668A JP 2018119668 A JP2018119668 A JP 2018119668A JP 2020005014 A JP2020005014 A JP 2020005014A
Authority
JP
Japan
Prior art keywords
video
file
server
terminal device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018119668A
Other languages
English (en)
Inventor
稔 萩尾
Minoru Hagio
稔 萩尾
桂一 宮崎
Keiichi Miyazaki
桂一 宮崎
隆恵 小口
Takae Oguchi
隆恵 小口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2018119668A priority Critical patent/JP2020005014A/ja
Priority to US16/250,653 priority patent/US10936873B2/en
Priority to US16/250,661 priority patent/US11042744B2/en
Publication of JP2020005014A publication Critical patent/JP2020005014A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】警察での事件に関連する文書の作成を容易にする情報処理装置、映像テキスト変換方法、および映像データ生成方法を提供すること。
【解決手段】情報処理装置は、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得する取得部と、取得された映像データに含まれる音声データを抽出し、抽出した音声データをテキストデータに変換する変換部と、変換されたテキストデータを端末装置に送信する送信部と、を有する。
【選択図】図1

Description

本開示は、情報処理装置、映像テキスト変換方法、および映像データ生成方法に関する。
近年、警察官の業務を効率的に支援するために、例えば、パトロール時の警察官にウェアラブルカメラを装着または所持させて撮像映像を録画するなどの運用の検討が進められている。また、警察車両に車載カメラを搭載し、撮像映像を録画するなどの運用が進められている。
従来、音声情報をテキスト情報にテキスト変換する音声認識手段を用いて議事録情報を生成する議事録情報生成システムが提案されている(例えば、特許文献1を参照)。
特開2009−86207号公報
警察官は、例えば、事件についてのレポート等の文書を作成することがある。警察官は、例えば、キーボード等の装置に文字を入力して文書を作成し、作業が大変である。また、文書は、事件内容について正確性が求められ、作成作業に時間がかかる。
また、警察官は、例えば、カメラが撮影した事件の映像を視聴し、レポート等の文書を作成することがある。カメラが撮影した映像には、レポート等の内容と関係のない映像も含まれ、そのような映像を視聴して文書を作成すると、作成作業に時間がかかる。
本開示の非限定的な実施例は、警察での事件に関連する文書の作成を容易にする情報処理装置、映像テキスト変換方法、および映像データ生成方法の提供に資する。
本開示の一態様に係る情報処理装置は、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得する取得部と、前記取得された映像データに含まれる音声データを抽出し、抽出した前記音声データをテキストデータに変換する変換部と、前記テキストデータを前記端末装置に送信する送信部と、を有する。
本開示の一態様に係る映像テキスト変換方法は、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得し、前記取得した映像データに含まれる音声データを抽出し、前記音声データをテキストデータに変換し、前記テキストデータを前記端末装置に送信する。
本開示の一態様に係る情報処理装置は、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得する取得部と、前記取得された映像データの映像を解析して事件に関連する情報を生成し、生成した前記情報に基づいて、前記映像データから事件のレポート対象となる映像部分を抽出したサマリ映像データを生成する生成部と、前記サマリ映像データを前記端末装置に送信する送信部と、を有する。
本開示の一態様に係る映像データ生成方法は、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得し、前記取得した映像データの映像を解析して事件に関連する情報を生成し、前記情報に基づいて、前記映像データから事件のレポート対象となる映像部分を抽出したサマリ映像データを生成し、前記サマリ映像データを前記端末装置に送信する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様によれば、警察での事件に関連する文書の作成を容易にする。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
第1の実施の形態に係る文書作成システムの一例を示した図 メタデータの一例を説明する図 メタデータが付加されたビデオデータの概念の一例を説明する図 サーバによって生成されたATファイルの一例を示した図 ATファイルから動画を再生する動作の一例を説明する図 ATファイルから動画を再生する動作の一例を説明する図 端末装置のブロック構成例を示した図 サーバのブロック構成例を示した図 サーバのブロック構成例を示した図 ATファイルの生成動作における端末装置の画面例を示した図 ATファイルの生成動作における端末装置の画面例を示した図 ATファイルの生成動作における端末装置の画面例を示した図 文書作成システムのATファイル生成動作例を示したシーケンス図 レポート生成動作における端末装置の画面例を示した図 レポート生成動作における端末装置の画面例を示した図 レポート生成動作における端末装置の画面例を示した図 レポート生成動作における端末装置の画面例を示した図 文書作成システムのレポート生成動作例を示したシーケンス図 エクスポート動作における端末装置の画面例を示した図 エクスポート動作における端末装置の画面例を示した図 エクスポート動作における端末装置の画面例を示した図 エクスポート動作における端末装置の画面例を示した図 文書作成システムのエクスポート動作例を示したシーケンス図 第2の実施の形態に係るサマリビデオ生成システムの一例を示した図 インテリメタデータの一例を説明する図 インテリメタファイルの生成例を説明する図 サマリビデオファイルの生成例を説明する図 サーバのブロック構成例を示した図 サーバのブロック構成例を示した図 サマリビデオファイルの生成動作における端末装置の画面例を示した図 サマリビデオファイルの生成動作における端末装置の画面例を示した図 サマリビデオファイルの生成動作における端末装置の画面例を示した図 サマリビデオファイルの生成動作における端末装置の画面例を示した図 サマリビデオ生成システムのサマリビデオファイル生成動作例を示したシーケンス図 サマリビデオファイルの閲覧動作における端末装置の画面例を示した図 サマリビデオファイルの閲覧動作における端末装置の画面例を示した図 サマリビデオファイルの閲覧動作における端末装置の画面例を示した図 サマリビデオファイルの閲覧動作における端末装置の画面例を示した図 サマリビデオ生成システムのサマリビデオファイル再生動作例を示したシーケンス図 エクスポート動作における端末装置の画面例を示した図 文書作成システムのエクスポート動作例を示したシーケンス図 ATファイルの生成動作における端末装置の画面例を示した図 サマリビデオ生成システムのATファイル生成動作例を示したシーケンス図
以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(第1の実施の形態)
図1は、第1の実施の形態に係る文書作成システムの一例を示した図である。図1に示すように、文書作成システムは、端末装置1と、サーバ2,3と、を有している。端末装置1、サーバ2、およびサーバ3は、例えば、LAN(Local Area Network)またはインターネット等のネットワークを介して互いに通信できる。
サーバ2,3の機能は、1台のサーバで実現されてもよい。また、サーバ2,3の機能は、3台以上のサーバで実現されてもよい。サーバ2,3は、1つの情報処理装置と捉えてもよい。すなわち、情報処理装置は、サーバ2,3で構成されると捉えてもよい。情報処理装置は、1台以上のサーバで構成されてもよい。
端末装置1は、例えば、パーソナルコンピュータ等の端末装置である。端末装置1は、例えば、警察署内に配置されている。端末装置1は、例えば、事件のレポート等の文書作成に用いられ、また、事件映像の視聴に用いられる。
サーバ2には、事件に関する情報が記憶されている。例えば、サーバ2には、警察官に装着または所持されたウェアラブルカメラによって撮影された事件映像のビデオファイル(ビデオデータ)が記憶されている。また、サーバ2には、警察車両に搭載されている車載カメラによって撮影された事件映像のビデオファイルが記憶されている。
以下では、ウェアラブルカメラおよび車載カメラを特に区別しないときは、単にカメラと呼ぶことがある。なお、カメラは、例えば、撮影中にビデオデータをサーバ2に送信してもよい。また、カメラは、例えば、撮影終了後にビデオファイルをサーバ2に送信してもよい。これにより、カメラが撮影した事件映像のビデオファイルがサーバ2に記憶される。
サーバ3は、音声をテキストに変換するサーバである。サーバ3には、サーバ2からビデオファイルが送られる。サーバ3は、サーバ2から送られたビデオファイルに含まれる音声データをテキストデータに変換する。サーバ3は、変換したテキストデータを含む音声テキスト化ファイル(以下、ATファイルと呼ぶことがある)を、サーバ2に送信する。ATファイルは、例えば、バイナリファイルである。
サーバ2は、例えば、事件をフォルダで分類し、管理している。例えば、ビデオファイルおよびATファイルは、事件ごとに分類され、対応するフォルダに格納されている。サーバ2は、事件に関するコンテンツを管理するサーバと言ってもよい。
なお、サーバ2に記憶されているビデオファイルは、例えば、事件の証拠等として用いられることがあり、削除および編集ができない。ただし、複製されたビデオファイルは、編集できる。サーバ2,3は、例えば、警察署内に配置されてもよいし、別の場所に配置されてもよい。
図1の文書作成システムの概略動作例について説明する。例えば、警察官であるユーザは、端末装置1を用いて、事件のレポートを作成する事件を選択(検索)する。ここでは、ユーザは、レポートを作成する事件として、事件Aを選択したとする。端末装置1は、ユーザが選択した事件Aの情報を、サーバ2に送信する(ステップS1)。
サーバ2は、端末装置1から送信された事件Aの情報を受信すると、事件Aに対応するフォルダからビデオファイルを取得する。サーバ2は、取得したビデオファイルのコピーを、サーバ3に送信する(ステップS2)。後述するが、ビデオファイルには、メタデータ(例えば、図2または図3を参照)が含まれている。メタデータは、カメラによって付加される。
サーバ3は、サーバ2から送信されたビデオファイルに含まれている音声データを抽出し、テキストデータに変換する。サーバ3は、変換したテキストデータを含むATファイル(例えば、図4を参照)を生成する。後述するが、ATファイルには、例えば、ビデオファイル内の音声が発せられた日時(タイムスタンプ)と、その日時における静止画像とが含まれる。言い換えれば、ATファイルには、ビデオファイルの映像内に登場する人物の発話時刻と、そのときの静止画像と、人物が発した音声のテキストとが含まれる。
サーバ3は、生成したATファイルを、サーバ2に送信する(ステップS3)。
サーバ2は、サーバ3から送信された事件AのATファイルを、事件Aのフォルダに格納する。これにより、事件Aのフォルダには、事件Aのビデオファイルと、事件AのATファイルとが格納(保存)される。
サーバ2は、例えば、フォルダに格納した事件AのATファイルを、端末装置1からのアクセスに応じて、端末装置1に表示する(ステップS4)。これにより、ユーザは、端末装置1を用いて、ATファイルを見ることができる。つまり、ユーザは、ビデオファイルの映像に含まれている音声を、テキストとして見ることができる。
後述するが、ユーザは、端末装置1を用いて、ATファイルを、ワード(登録商標)やエクセル(登録商標)等の汎用アプリケーションで閲覧できるファイル(以下、汎用ファイルと呼ぶことがある)に変換できる。ユーザは、例えば、変換した汎用ファイルを、事件Aのレポートとしてもよいし、変換した汎用ファイルを編集して、事件Aのレポートとしてもよい。
このように、文書作成システムは、レポートを作成する事件のビデオファイルから、音声データを抽出してテキストデータに変換する。そして、文書作成システムは、変換したテキストデータを含むATファイルを生成する。これにより、ユーザは、警察での事件に関連する文書の作成を容易にできる。
なお、事件Aのフォルダには、事件AのATファイルが保存されている。従って、ユーザは、いつでも事件AのATファイルにアクセスできる。
図2は、メタデータの一例を説明する図である。メタデータには、例えば、図2に示すデータがある。メタデータは、カメラによってビデオデータに付加される。
メタデータの「パトライト(登録商標)ON」は、警察車両のパトライトがONされたときに、ビデオデータに付加される。例えば、警察車両は、ユーザによってパトライトがONされると、パトライトがONされたことをカメラに通知する。カメラは、警察車両のパトライトONの通知に応じて、ビデオデータに「パトライトON」のメタデータを付加する。
メタデータの「急発進検知」は、警察車両が急発進されたときに、ビデオデータに付加される。例えば、警察車両は、ユーザによって急発進されると、急発進されたことをカメラに通知する。カメラは、警察車両の急発進の通知に応じて、ビデオデータに「急発進検知」のメタデータを付加する。
メタデータの「衝突検知」は、警察車両が何かに衝突されたときに(または衝突したときに)、ビデオデータに付加される。例えば、警察車両は、何かに衝突されたとき、衝突されたことをカメラに通知する。カメラは、警察車両の衝突の通知に応じて、ビデオデータに「衝突検知」のメタデータを付加する。
メタデータの「バックドアオープン」は、警察車両のバックドアがオープンされたときに、ビデオデータに付加される。例えば、警察車両は、バックドアがオープンされると、バックドアがオープンされたことをカメラに通知する。カメラは、警察車両のバックドアのオープンの通知に応じて、ビデオデータに「バックドアオープン」のメタデータを付加する。
メタデータの「銃の取り出し」は、銃フォルダから銃が取り出されたときに、ビデオデータに付加される。例えば、銃フォルダは、銃の取り出しを検知するセンサを備え、センサは、銃フォルダから銃が取り出されると、銃が取り出されたことをカメラに通知する。カメラは、センサの銃の取り出しの通知に応じて、ビデオデータに「銃の取り出し」のメタデータを付加する。
メタデータの「速度超過検出」は、警察車両が速度超過したときに、ビデオデータに付加される。例えば、警察車両は、速度センサを備え、速度超過したときに、速度超過したことをカメラに通知する。カメラは、警察車両の速度超過の通知に応じて、ビデオデータに「速度超過検出」のメタデータを付加する。
メタデータの「手動記録ON/OFF」は、カメラがユーザによってONおよびOFFされたときに、ビデオデータに付加される。
メタデータの「ダッシュ検知」は、ユーザに装着されているウェアラブルカメラが、ユーザの急な走り出しを検知したときに、ビデオデータに付加される。なお、ウェアラブルカメラは、例えば、加速度センサまたは角速度センサを備え、ユーザの急な走り出しを検知できる。
メタデータの「転倒検知」は、ユーザに装着されているウェアラブルカメラが、ユーザの転倒を検知したときに、ビデオデータに付加される。なお、ウェアラブルカメラは、例えば、加速度センサまたは角速度センサを備え、ユーザの転倒を検知できる。
メタデータの「格闘検知」は、カメラがユーザの格闘を検知したときに、ビデオデータに付加される。なお、ユーザは、例えば、カメラと無線通信する生体センサを装着している。生体センサは、例えば、ユーザの心拍数、発汗、および体温の少なくとも1つを生体情報として取得する。生体センサは、取得したユーザの生体情報を、無線通信によってカメラに送信する。カメラは、生体センサから受信したユーザの生体情報から、ユーザの格闘を検知する。例えば、カメラは、生体センサから受信したユーザの生体情報の心拍数、発汗、および体温の上昇から、ユーザの格闘を検知する。
メタデータの「興奮状態検知」は、カメラがユーザの興奮状態を検知したときに、ビデオデータに付加される。なお、ユーザは、上記した生体センサを装着している。カメラは、生体センサから送信されるユーザの生体情報から、ユーザの興奮状態を検知できる。
メタデータの「GPS(Global Positioning System)情報」は、カメラが音声を検知したときに、ビデオデータに付加される。GPS情報は、ユーザの位置を示している。なお、カメラは、GPS装置を搭載している。
図2に示すメタデータは、事件に関連して発生した出来事に関する情報と言える。例えば、パトライトは、事件が発生したときにONされる。従って、メタデータの「パトライトON」は、事件に関連して発生した出来事と言える。また、ユーザは、犯人が突然逃走したとき、犯人を追いかけるため走り出す。従って、メタデータの「ダッシュ検知」は、事件に関連して発生した出来事と言える。
なお、メタデータは、図2の例に限られない。その他の事件に関連して発生した出来事に関する情報が含まれてもよい。
図3は、メタデータが付加されたビデオデータの概念の一例を説明する図である。図3には、ウェアラブルカメラが撮影した映像の一部フレームが示してある。図3の横軸は、時間を示している。
時刻t1において、ウェアラブルカメラは、警察車両のパトライトONを検知したとする。この場合、時刻t1におけるビデオデータには、パトライトONのメタデータ(タグ)が付加される。
時刻t2において、ウェアラブルカメラは、警察車両の急発進を検知したとする。この場合、時刻t2におけるビデオデータには、急発進検知のメタデータが付加される。
時刻t3において、ウェアラブルカメラは、ユーザのダッシュを検知したとする。この場合、時刻t3におけるビデオデータには、ダッシュ検知のメタデータが付加される。
図4は、サーバ3によって生成されたATファイルの一例を示した図である。図4に示すように、ATファイル10には、タイムスタンプ11a,11bと、識別子12a,12bと、テキスト13a,13bと、メタデータ14a,14bと、画像15a,15bと、が含まれている。
サーバ3は、図1で説明したように、サーバ2から、メタデータを含むビデオファイルを受信する。サーバ3は、受信したビデオファイルに含まれる音声データを抽出する。ビデオファイルには、撮影日時の情報も含まれている。ここでは、ビデオファイルは、ウェアラブルカメラによって撮影されたビデオファイルとする。
ATファイル10に含まれるタイムスタンプ11a,11bは、サーバ3が抽出した音声の発せられた日時を示している。すなわち、タイムスタンプ11a,11bは、ビデオファイルの映像に登場する人物が発話した日時を示している。
識別子12a,12bは、音声を発した話者を識別する識別子である。サーバ3は、例えば、抽出した音声の声色を解析し、音声を発した話者を識別する。図4の例では、Speaker A,Bが登場している。
テキスト13a,13bは、サーバ3が抽出した音声のテキストを示している。サーバ3は、ビデオファイルから抽出した音声をテキスト13a,13bに変換し、ATファイル10に含める。なお、図4に示す例では、Speaker Aは「Freeze」と発し、Speaker Bは「No」と発していることが分かる。
メタデータ14a,14bは、タイムスタンプ11a,11bが示す時刻またはその時刻の前後(例えば、1分前後)で付加されたメタデータを示している。サーバ3は、例えば、タイムスタンプ11a,11bが示す時刻またはその時刻の前後に付加されたメタデータ14a,14bを抽出し、ATファイル10に含める。
例えば、図4のメタデータ14aに示す例では、2018年4月10日の12時50分30秒またはその時刻の前後に、GPS情報が取得されたことが分かる。つまり、2018年4月10日の12時50分30秒またはその時刻の前後のウェアラブルカメラの位置が分かる。また、2018年4月10日の12時50分30秒またはその時刻の前後に、パトライトがONされたことが分かる。
画像15a,15bは、タイムスタンプ11a,11bが示す日時におけるビデオファイルの静止画像を示している。サーバ3は、例えば、タイムスタンプ11a,11bが示す時刻のビデオファイルの画像15a,15bを抽出し、ATファイル10に含める。
なお、サーバ3は、図1で説明したように、ビデオファイルのATファイル10を生成すると、サーバ2に送信する。サーバ2は、サーバ3から送信されたATファイル10をフォルダに格納する。
ユーザは、端末装置1を用いて、サーバ2に格納されたATファイル10を閲覧できる。また、ユーザは、端末装置1のディスプレイに表示されたATファイル10のタイムスタンプ11a,11bをクリックすることにより、タイムスタンプ11a,11bが示す時刻からの映像を再生できる。
図5Aおよび図5Bは、ATファイル10から動画を再生する動作の一例を説明する図である。図5Aにおいて、図4と同じものには同じ符号が付してある。
ATファイル10は、端末装置1のディスプレイに表示される。端末装置1のディスプレイに表示されたATファイル10のタイムスタンプ11a,11bは、ATファイル10と同じフォルダに格納されているビデオファイルにリンクされている。タイムスタンプ11a,11bは、タイムスタンプ11a,11bが示す時刻から、ビデオファイルの映像が再生されるようにリンクされている。
例えば、サーバ2は、端末装置1のディスプレイに表示されたタイムスタンプ11aがクリックされると、タイムスタンプ11aに示す時刻から、端末装置1のディスプレイにビデオファイルの映像をストリーム再生する。例えば、端末装置1のディスプレイには、図5Bに示す動画像が表示される。
ユーザは、ATファイル10のテキスト13a,13b、メタデータ14a,14b、および画像15a,15bを参照し、映像を見たい箇所から、ビデオファイルを再生できる。例えば、ユーザは、犯人が逃げる箇所から映像を見たい場合、「ダッシュ検知」のメタデータ14bまたは犯人がダッシュする様子を示した画像15bを見て、タイムスタンプ11bをクリックすればよい。
なお、サーバ2は、タイムスタンプ11aに示す時刻より少し前から(例えば、10秒前から)、ビデオファイルを端末装置1のディスプレイにストリーム再生してもよい。これにより、ユーザは、タイムスタンプ11a,11bの時刻の状況に至った経緯等も、見ることができる。
図6は、端末装置1のブロック構成例を示した図である。図6に示すように、端末装置1は、CPU(Central Processing Unit)21と、RAM(Random access memory)22と、HDD(Hard Disk Drive)23と、通信インターフェース24と、ユーザインターフェース25と、バス26と、を有している。
端末装置1は、CPU21によって装置全体が制御されている。CPU21は、プログラムの実行によって、制御部21aとして機能する。CPU21には、バス26を介して、RAM22、HDD23、通信インターフェース24、およびユーザインターフェース25が接続されている。
RAM22には、CPU21に実行させるOS(Operating System)のプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM22には、CPU21による処理に必要な各種データが一時的に格納される。
HDD23には、OSおよびアプリケーションプログラムなどが格納される。
通信インターフェース24は、ネットワークを介して、サーバ2,3と通信を行う。
ユーザインターフェース25には、例えば、キーボード装置およびディスプレイ等が接続される。CPU21は、ユーザインターフェース25を介して、キーボード装置およびディスプレイ等とデータのやり取りを行う。
図7は、サーバ2のブロック構成例を示した図である。図7に示すように、サーバ2は、CPU31と、RAM32と、HDD33と、通信インターフェース34と、バス35と、を有している。
サーバ2は、CPU31によって装置全体が制御されている。CPU31は、プログラムの実行によって、制御部31aとして機能する。CPU31には、バス35を介して、RAM32、HDD33、および通信インターフェース34が接続されている。
RAM32には、CPU31に実行させるOSのプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM32には、CPU31による処理に必要な各種データが一時的に格納される。
HDD33には、OSおよびアプリケーションプログラムなどが格納される。また、HDD33には、ユーザが装着するウェアラブルカメラおよび警察車両に搭載される車載カメラが撮影した映像のビデオファイルが記憶される。また、HDD33には、サーバ3が生成したATファイルが記憶される。また、HDD33には、ATファイルに基づいて作成された汎用ファイルが記憶される。
通信インターフェース34は、ネットワークを介して、端末装置1およびサーバ3と通信を行う。また、通信インターフェース34は、ネットワークを介して、ユーザが装着するウェアラブルカメラおよび警察車両に搭載される車載カメラと通信を行う。
なお、サーバ2は、ユーザインターフェースを備えてもよい。ユーザインターフェースには、例えば、キーボード装置およびディスプレイ等が接続されてもよい。
図8は、サーバ3のブロック構成例を示した図である。図8に示すように、サーバ3は、CPU41と、RAM42と、HDD43と、通信インターフェース44と、バス45と、を有している。
サーバ3は、CPU41によって装置全体が制御されている。CPU41は、プログラムの実行によって、制御部41aとして機能する。CPU41には、バス45を介して、RAM42、HDD43、および通信インターフェース44が接続されている。
RAM42には、CPU41に実行させるOSのプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM42には、CPU41による処理に必要な各種データが一時的に格納される。
HDD43には、CPU41に実行させるOSのプログラムおよびアプリケーションプログラムなどが格納される。
通信インターフェース44は、ネットワークを介して、端末装置1およびサーバ2と通信を行う。
なお、サーバ3は、ユーザインターフェースを備えてもよい。ユーザインターフェースには、例えば、キーボード装置およびディスプレイ等が接続されてもよい。
以下、端末装置1のディスプレイに表示される画面例および文書作成システムのシーケンス図を用いて、文書作成システムの動作例について説明する。
文書作成システムの動作は、大きく2つに分けられる。第1の動作は、例えば、図4に示したATファイルを生成する動作である。第2の動作は、第1の動作で生成したATファイルに基づいて、所定のファイル(データ)を生成する動作であり、2つの動作に分けられる。
第2の動作の1つ目の動作(第2−1の動作)は、汎用アプリケーションで閲覧できるレポートを生成する動作である。2つ目の動作(第2−2の動作)は、ATファイルから一部範囲を抽出したATファイルを生成する動作である。抽出するATファイルの範囲は、ユーザが指定できる。
以下では、第2−1の動作をレポート生成動作と呼ぶことがある。第2−2の動作をエクスポート動作と呼ぶことがある。ATファイルから一部範囲を抽出したATファイルを、エクスポートファイルと呼ぶことがある。
<第1の動作:ATファイルの生成動作>
図9A、図9B、および図9Cは、ATファイルの生成動作における端末装置1の画面例を示した図である。なお、以下で説明する画面例は、ブラウザで表示されてもよい。また、以下で説明する画面例において表示される「戻る」ボタンは、各画面例で共通の機能を有し、クリックされると1つ前の画面に戻る。
図9Aに示す画面51aは、事件を検索する画面である。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、端末装置1のディスプレイに、画面51aを表示する。ユーザは、画面51aに表示されているテキストボックスに、ATファイルを生成したい事件の情報を入力する。
画面51aの例では、事件番号のテキストボックスに、ATファイルを生成したい事件の事件番号「NJ180425000011003」が入力されている。なお、ユーザは、例えば、ATファイルを生成したい事件の事件番号が分からなければ、事件が起きた日付、事件種別、警察官名、および分署名の少なくとも1つをテキストボックスに入力することによって、ATファイルを生成したい事件を検索できる。
図9Bに示す画面51bは、検索結果の画面例を示している。画面51bは、図9Aの画面51aのテキストボックスに検索情報が入力され、「検索」ボタンがクリックされると、端末装置1のディスプレイに表示される。
例えば、端末装置1の制御部21aは、図9Aに示す画面51aの「検索」ボタンがクリックされると、テキストボックスに入力された情報を、サーバ2に送信する。サーバ2の制御部31aは、端末装置1から送信されたテキストボックスに入力された情報に基づいて、事件を検索する。サーバ2の制御部31aは、事件を検索すると、端末装置1のディスプレイに、図9Bに示す画面51bを表示する。
画面51bには、検索された事件の事件番号「NJ180425000011003」が表示されている。また、画面51bには、検索された事件のフォルダに格納されているファイルの情報(種別一覧)が表示されている。
例えば、画面51bの「ICVビデオ」、「BWCビデオ」、「手書きメモ」、および「現場写真」は、検索された事件のフォルダに格納されているファイルの種別を示している。例えば、「ICVビデオ」は、警察車両に搭載されている車載カメラによって撮影されたビデオファイルを意味している。「BWCビデオ」は、ユーザに装着されたウェアラブルカメラによって撮影されたビデオファイルを意味している。
画面51bには、ラジオボタンが表示されている。ユーザは、ATファイルを生成したいファイルに対応するラジオボタンを選択する。例えば、ユーザは、「ICVビデオ」のビデオファイルのATファイルを生成したい場合、「ICVビデオ」に対応するラジオボタンを選択する。また、ユーザは、「BWCビデオ」のビデオファイルのATファイルを生成したい場合、「BWCビデオ」に対応するラジオボタンを選択する。
図9Cに示す画面51cは、ATファイルを生成したいファイルが選択された後の画面例を示している。画面51cでは、「BWCビデオ」が選択されている。
端末装置1の制御部21aは、画面51cに示す「音声テキスト化」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面51cの例では、「BWCビデオ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルのコピーを、サーバ3に送信する。画面51cの例では、「BWCビデオ」が選択されているので、サーバ2の制御部31aは、ウェアラブルカメラのビデオファイルのコピーを、サーバ3に送信する。
サーバ3の制御部41aは、サーバ2から送信されたビデオファイルを受信すると、音声データを抽出し、テキストデータに変換する。そして、サーバ3の制御部41aは、例えば、図4に示したようなATファイルを生成する。サーバ3の制御部41aは、ATファイルを生成すると、生成したATファイルをサーバ2に送信する。
サーバ2の制御部31aは、サーバ3からATファイルを受信すると、サーバ3に送信したビデオファイルが格納されていたフォルダに格納する。これにより、ビデオファイルと、そのビデオファイルのATファイルは紐付けられて(同じ事件のフォルダに格納されて)管理される。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、ATファイルを閲覧できる。
図10は、文書作成システムのATファイル生成動作例を示したシーケンス図である。端末装置1の制御部21aは、ユーザの操作に応じて、サーバ2にアクセスする。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、事件を検索する画面を、端末装置1のディスプレイに表示する(例えば、図9Aの画面51aを参照)。ユーザは、端末装置1のディスプレイの検索画面において、ATファイルを作成したい事件の検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS11)。
サーバ2の制御部31aは、HDD33を参照し、ステップS11にて受信した検索情報に基づいて、事件を検索する(ステップS12)。
サーバ2の制御部31aは、ステップS12にて検索した事件のフォルダに格納されているファイル(例えば、ビデオファイル、音声ファイル、およびメモの画像ファイル等)の種別情報(例えば、図9Bの画面51bを参照)を、端末装置1のディスプレイに表示する(ステップS13)。
なお、ユーザは、ステップS13の画面において、ATファイルを生成するファイルを選択する(例えば、図9Bの画面51bのラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択(指定)した、ATファイルを生成するファイルの情報(例えば、図9Cの画面51cのラジオボタンで選択されたBWCビデオの情報)を、サーバ2に送信する(ステップS14)。
サーバ2の制御部31aは、ステップS14にて送信されたファイルの情報に対応するファイル(ビデオファイル)をHDD33から取得し、取得したビデオファイルのコピーを、サーバ3に送信する(ステップS15)。
サーバ3の制御部41aは、ステップS15にて送信されたビデオファイルに含まれる音声をテキスト化する(ステップS16)。
サーバ3の制御部41aは、テキスト化されたデータを含むATファイルをサーバ2に送信する(ステップS17)。
サーバ2の制御部31aは、ステップS17にて送信されたATファイルを、ATファイルの生成元となったビデオファイル(ステップS15で送信されたビデオファイル)と紐付けてHDD33に記憶する(ステップS18)。例えば、サーバ2の制御部31aは、ATファイルの生成元となったビデオファイルが格納されているフォルダに、ATファイルを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、ATファイルを閲覧できる。
<第2−1の動作:レポート生成動作>
図11A、図11B、図11C、および図11Dは、レポート生成動作における端末装置1の画面例を示した図である。
図11Aに示す画面52aは、事件の検索後の画面例を示している。例えば、図9Aで説明したように、テキストボックスに検索情報を入力し、「検索」ボタンがクリックされると、画面52aが表示される。
画面52aには、検索された事件の事件番号「NJ180425000011003」が表示されている。また、画面52aには、検索された事件のフォルダに格納されているファイルの種別一覧が表示されている。
画面52aは、図9Bに示した検索結果の画面51bと異なり、「音声テキスト化データ」のファイル情報が追加されている。すなわち、事件番号「NJ180425000011003」の事件は、ATファイルが生成されたため、画面52aには「音声テキスト化データ」のファイル情報が追加されている。
画面52aには、ラジオボタンが表示されている。ユーザは、閲覧または視聴したいファイルに対応するラジオボタンを選択する。
例えば、ユーザは、「音声テキスト化データ」を閲覧したい場合(すなわち、サーバ3で生成されたATファイルを閲覧したい場合)、「音声テキスト化データ」に対応するラジオボタンを選択する。
図11Bに示す画面52bは、閲覧または視聴したいファイルが選択された後の画面例を示している。画面52bでは、「音声テキスト化データ」が選択されている。
端末装置1の制御部21aは、画面52bに示す「閲覧」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面52bの例では、「音声テキスト化データ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルのデータを、端末装置1に送信する。画面52bの例では、「音声テキスト化データ」が選択されているので、サーバ2の制御部31aは、検索した事件のフォルダに格納されているATファイルを取得し、端末装置1に送信する。端末装置1の制御部21aは、サーバ2から送信されたATファイルをディスプレイに表示する。
図11Cに示す画面52cは、ATファイルが表示された画面例を示している。画面52cには、例えば、図4で説明したATファイルの内容が表示される。
ユーザは、例えば、画面52cに表示されているATファイルの内容を確認し、確認したATファイルの内容に基づくレポートを作成したい場合、「レポート作成」ボタンをクリックする。
端末装置1の制御部21aは、「レポート作成」ボタンがクリックされた情報を、サーバ2に送信する。サーバ2の制御部31aは、端末装置1から、「レポート作成」ボタンのクリック情報を受信すると、生成するレポートの出力形式および出力内容をユーザに選択させるための画面を端末装置1に送信する。端末装置1の制御部21aは、サーバ2から送信された画面の情報をディスプレイに表示する。
図11Dに示す画面52dは、レポートの出力形式および出力内容を選択する画面例を示している。画面52dには、例えば、レポートの出力フォーマットを選択するプルダウンメニューが表示される。ユーザは、画面52dのプルダウンメニューから、レポートの出力フォーマットを選択できる。
また、画面52dには、レポートに含める情報(出力内容)を選択するためのチェックボックスが表示される。画面52dの例では、メタデータ、静止画、およびタイムスタンプリンクが含まれている。
メタデータが選択された場合、レポートには、メタデータのテキストが含まれる(例えば、図4のメタデータ14a,14bが含まれる)。静止画が選択された場合、レポートには、発話者が音声を発したときの静止画が含まれる(例えば、図4の画像15a,15bが含まれる)。タイムスタンプリンクが選択された場合、レポートには、タイムスタンプのリンクが含まれる(例えば、図4のタイムスタンプ11a,11bを参照)。
レポートに含める情報は、プルダウンメニューで選択するレポートの出力フォーマットに応じて、複数選択できる。例えば、ワードやエクセルの出力フォーマット(例えば、プルダウンメニューで「*.doc」や「*.xls」)を選択すると、メタデータ、静止画、およびタイムスタンプリンクを選択できる。レポートの出力フォーマットとして、テキスト(プルダウンメニューで「*.txt」)を選択すると、静止画およびタイムスタンプリンクを選択できない。
端末装置1の制御部21aは、画面52dの「スタート」ボタンがクリックされると、画面52dにおいて入力された情報を、サーバ2に送信する。サーバ2の制御部31aは、端末装置1から送信された情報に基づいて、レポートを生成する。
例えば、サーバ2の制御部31aは、レポートの出力内容として、静止画とタイムスタンプとが選択された場合、ATファイルのデータから、メタデータを削除し、レポートを生成する。また、サーバ2の制御部31aは、レポート出力形式として「*.doc」が選択された場合、「doc」ファイルとしてレポートを生成する。
図12は、文書作成システムのレポート生成動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、レポートを作成したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS21)。
サーバ2の制御部31aは、HDD33を参照し、ステップS21にて受信した検索情報に基づいて、事件を検索する(ステップS22)。
サーバ2の制御部31aは、ステップS22にて検索した事件のフォルダに格納されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびATファイル等)の種別情報(例えば、図11Aの画面52aを参照)を、端末装置1のディスプレイに表示する(ステップS23)。
なお、ユーザは、ステップS23の画面において、レポートを生成するファイルを選択する。ユーザは、レポートを生成するファイルとして、ATファイルを選択する(例えば、図11Bの画面52bの「音声テキスト化データ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(音声テキスト化データを選択した情報)を、サーバ2に送信する(ステップS24)。
サーバ2の制御部31aは、ステップS24にて送信された、ユーザが選択した情報のファイル(ATファイル)の画像(例えば、図11Cの画面52cを参照)を、端末装置1のディスプレイに表示する(ステップS25)。
なお、端末装置1のディスプレイには、ATファイルの表示とともに、レポート作成のボタンが表示される(例えば、図11Cの画面52cの「レポート作成」ボタンを参照)。サーバ2の制御部31aは、「レポート作成」ボタンがクリックされると、レポートの出力形式および出力内容を選択する画面を端末装置1のディスプレイに表示する(例えば、図11Dの画面52dを参照)。ユーザは、端末装置1のディスプレイの画面に従って、レポートの出力形式および出力内容を選択する。
端末装置1の制御部21aは、ユーザが選択したレポートの出力形式および出力内容を、サーバ2に送信する(ステップS26)。
サーバ2の制御部31aは、ステップS26にて送信されたレポートの出力形式および出力内容に基づいて、ATファイルのデータを編集し、レポートを生成する(ステップS27)。例えば、サーバ2の制御部31aは、レポートの出力内容として、静止画とタイムスタンプとが選択された場合、ATファイルのデータから、メタデータを削除し、レポートを生成する。また、サーバ2の制御部31aは、レポート出力形式として「*.doc」が選択された場合、「doc」ファイルとしてレポートを生成する。
サーバ2の制御部31aは、ステップS27にて生成されたレポートを、ATファイル(ステップS24で送信されたATファイル)と紐付けてHDD33に記憶する(ステップS28)。例えば、サーバ2の制御部31aは、レポート生成の元となったATファイルが格納されていたフォルダに、レポートを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、レポートを閲覧できる。また、ユーザは、生成されたレポートを編集できる。
<第2−2の動作:エクスポート動作>
図13A、図13B、図13C、および図13Dは、エクスポート動作における端末装置1の画面例を示した図である。
図13Aに示す画面53aは、閲覧または視聴したいファイルが選択された後の画面例を示している。画面53aは、例えば、図11Cで説明した画面52cに対応している。
例えば、画面53aは、サーバ2によって事件が検索された後、検索された事件のフォルダ内のファイルの情報が端末装置1のディスプレイに表示され、閲覧または視聴したいファイルがユーザによって選択された後の画面例を示している。画面53aには、例えば、図4で説明したATファイルの内容が表示される。
画面52aには、タイムスタンプ53aa,53abが表示されている。タイムスタンプ53aa,53abは、ATファイルの元となったビデオファイルにリンクされている。サーバ2の制御部31aは、画面52aのタイムスタンプ53aa,53abがクリックされると、ビデオ再生画面を端末装置1のディスプレイに表示する。サーバ2の制御部31aは、タイムスタンプ53aa,53abが示す時刻またはそれよりも少し前の時刻(この時刻は、ユーザによって設定されてもよい)から、ビデオ再生できるビデオ再生画面を表示する。
図13Bに示す画面53bは、画面53aのタイムスタンプ53aaがクリックされた場合の画面例を示している。端末装置1の制御部21aは、タイムスタンプ53aaがクリックされると、タイムスタンプ53aaに紐付けられたリンク情報をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1からリンク情報を受信すると、リンク情報に基づいて、ビデオ再生画面を端末装置1のディスプレイに表示する。ユーザは、端末装置1のディスプレイにおいて、ビデオの再生、一時停止、停止、早送り、および早戻し等の操作ができる。
ユーザは、例えば、1つまたは2以上のタイムスタンプをクリックし、ビデオを視聴する。ユーザは、ビデオを視聴した結果、ビデオファイルからエクスポートしたい映像の範囲を、端末装置1のディスプレイで指定する。
例えば、ユーザは、エクスポートしたいビデオの開始時間を、端末装置1のディスプレイで指定する。また、ユーザは、エクスポートしたいビデオの終了時間を、端末装置1のディスプレイで指定する。
図13Cに示す画面53cは、エクスポート範囲が入力された画面例を示している。画面53cの例では、エクスポートを開始する「開始時間」のテキストボックスに「12:25」が入力されている。また、画面53cの例では、エクスポートを終了する「終了時間」のテキストボックスに「12:32」が入力されている。
ユーザは、例えば、ビデオの閲覧中に、エクスポートを開始したい映像が表示されると、画面53cの「選択」ボタンをクリックしてもよい。端末装置1の制御部21aは、「選択」ボタンのクリックに応じて、再生しているビデオ内での時刻を、「開始時間」のテキストボックスに入力してもよい。また、端末装置1の制御部21aは、「選択」ボタンが次にクリックされると、再生しているビデオ内での時刻を、「終了時間」のテキストボックスに入力してもよい。
端末装置1の制御部21aは、ビデオファイルのエクスポート範囲が指定され、「エクスポート」ボタンがクリックされると、エクスポート内容を選択する画面を、ディスプレイに表示する。
図13Dに示す画面53dは、エクスポート内容(対象)を選択する画面例を示している。ユーザは、エクスポートする内容を、端末装置1のディスプレイにおいて指定する。エクスポートする内容には、例えば、メタデータ、静止画、およびタイムスタンプリンクがある。
エクスポートする内容は、全て選択されてもよいし、一部選択されてもよい。例えば、メタデータと静止画とをエクスポートし、タイムスタンプリンクをエクスポートしない場合、ユーザは、メタデータに対応するチェックボックスと、静止画に対応するチェックボックスとにチェックを入力する。
端末装置1の制御部21aは、ビデオファイルのエクスポート範囲が指定され、「スタート」ボタンがクリックされると、図13Cの画面53cで入力されたエクスポート範囲の情報と、図13Dの画面53dで選択されたエクスポート内容の情報とを、サーバ2に送信する。
サーバ2の制御部31aは、端末装置1から送信されたエクスポート範囲の情報と、エクスポート内容の情報とに基づいて、ATファイルを編集する。例えば、サーバ2の制御部31aは、エクスポート範囲外のビデオ内容を削除し、エクスポート内容で指示された情報以外の情報を削除したATファイルを生成する。
図14は、文書作成システムのエクスポート動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、エクスポートファイルを作成したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS31)。
サーバ2の制御部31aは、HDD33を参照し、ステップS31にて受信した検索情報に基づいて、事件を検索する(ステップS32)。
サーバ2の制御部31aは、ステップS32にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびATファイル等)の種別情報(例えば、図11Aの画面52aを参照)を、端末装置1のディスプレイに表示する(ステップS33)。
なお、ユーザは、ステップS33の画面において、エクスポートファイルを生成するATファイル(音声テキスト化データ)を選択する(例えば、図11Bの画面52bの「音声テキスト化データ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(ATファイルを選択した情報)を、サーバ2に送信する(ステップS34)。
サーバ2の制御部31aは、ステップS34にて送信された、ユーザが選択した情報のファイル(ATファイル)の内容(例えば、図13Aの画面53aを参照)を、端末装置1のディスプレイに表示する(ステップS35)。
なお、端末装置1のディスプレイに表示されるATファイルには、タイムスタンプが表示される(例えば、図13Aの画面53aのタイムスタンプ53aa,53ab)。
サーバ2の制御部31aは、タイムスタンプがクリックされると、クリックされたタイムスタンプの情報をサーバ2に送信する(ステップS36)。
サーバ2の制御部31aは、タイムスタンプの情報を受信すると、タイムスタンプの時刻に紐付けられた箇所から、ビデオファイルを再生し、端末装置1のディスプレイに表示(例えば、図13Bの画面53bを参照)する(ステップS37)。
なお、ユーザは、端末装置1のディスプレイに表示されるビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。例えば、ユーザは、映像内における時刻によって、エクスポートファイルを作成したい範囲を指定できる(例えば、図13Cの画面53cの開始時間および終了時間を参照)。ユーザは、ビデオを再生および早戻し等の操作を行って、繰り返しビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。また、ユーザは、別のタイムスタンプをクリックして、別の時刻の映像を再生し、視聴できる。
また、ユーザは、端末装置1のディスプレイにおいて、エクスポート内容を選択する。例えば、ユーザは、エクスポートファイルに含める内容として、メタデータ、静止画、およびタイムスタンプリンクを選択する(図13Dの画面53dのチェックボックスを参照)。
端末装置1の制御部21aは、ユーザが指定したエクスポート範囲およびエクスポート内容をサーバ2に送信する(ステップS38)。
サーバ2の制御部31aは、ステップS38にて送信されたエクスポート範囲およびエクスポート内容に基づいて、エクスポートファイルを生成する(ステップS39)。
サーバ2の制御部31aは、ステップS39にて生成したエクスポートファイルを、ATファイルと紐付けてHDD33に記憶する(ステップS40)。例えば、サーバ2の制御部31aは、エクスポートファイルの元となったATファイルが格納されているフォルダに、エクスポートファイルを格納する。
以上説明したように、情報処理装置を構成するサーバ2の制御部31aは、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像のビデオファイルを記憶したHDD33から、端末装置1において指定されたビデオファイルを取得する。情報処理装置を構成するサーバ3の制御部41aは、サーバ2によって取得されたビデオファイルに含まれる音声データを抽出し、抽出した音声データをテキストデータに変換する。情報処理装置を構成するサーバ2の通信インターフェース34は、サーバ3で変換されたテキストデータを含むATファイルを端末装置1に送信する。このように、情報処理装置は、警察官に装着されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像のビデオファイルから、テキストデータを生成するので、ユーザの事件に関連するレポートの作成が容易になる。
なお、上記では、サーバ3の制御部41aは、ビデオファイルの音声データをテキストデータに変換するとしたが、これに限られない。例えば、サーバ3の制御部41aは、音声ファイルの音声データをテキストデータに変換してもよい。例えば、サーバ2のHDD33には、ICレコーダ等で録音した音声ファイルが記憶されてもよい。サーバ2の制御部31aは、ユーザがATファイルを作成するデータとして、音声ファイルを指定した場合、指定された音声ファイルをサーバ3に送信する。サーバ3の制御部41aは、サーバ2から送信された音声データをテキストデータに変換し、変換したテキストデータを含むATファイルをサーバ2に送信してもよい。
また、上記では、ビデオファイルのビデオデータにメタデータが付加されるとしたが、これに限られない。メタデータは、ビデオファイルとは別のファイルで管理されてもよい。この場合、サーバ2の制御部31aは、ビデオファイル(メタデータが付加されていない)と、メタデータのファイルとをサーバ3に送信する。サーバ3の制御部41aは、サーバ2から送信されたビデオファイルと、メタデータのファイルとに基づいて、ATファイルを生成する。
また、上記では、サーバ2の制御部31aは、ATファイルからレポートを生成したが、エクスポートファイルからレポートを生成してもよい。例えば、エクスポートファイルが生成された場合、図11Aの画面52aには、エクスポートファイルを示すファイル種別と、エクスポートファイルを選択できるラジオボタンとが表示される。サーバ2の制御部31aは、エクスポートファイルのラジオボタンが選択された場合、エクスポートファイルからレポートを生成する。
また、サーバ2の制御部31aは、図11Cの画面52cにおいて、タイムスタンプがクリックされた場合、図13Cの画面53cと同様に、ビデオファイルの再生画面を、端末装置1のディスプレイに表示してもよい。
(第2の実施の形態)
第2の実施の形態では、カメラが撮影した映像のビデオファイルから、サマリビデオファイルを生成する。例えば、カメラが撮影した映像のうち、事件として重要となる部分(例えば、レポート対象となる部分)は、一部の場合がある。そこで、第2の実施の形態では、カメラが撮影した映像のうち、レポート対象として重要となる部分を抽出し、抽出した映像を含むサマリビデオファイルを生成する。
図15は、第2の実施の形態に係るサマリビデオ生成システムの一例を示した図である。図15において、図1と同じものには同じ符号が付してある。サマリビデオ生成システムは、端末装置1と、サーバ2,61,62と、を有している。
以下では、図1と異なる部分について説明する。図15には、図1に示した端末装置1と、サーバ2との他に、サーバ61,62が示してある。端末装置1、サーバ2、サーバ61、およびサーバ62は、例えば、LANまたはインターネット等のネットワークを介して互いに通信できる。
サーバ2,61,62の機能は、1台または2台のサーバで実現されてもよい。また、サーバ2,61,62の機能は、4台以上のサーバで実現されてもよい。サーバ2,61,62は、1つの情報処理装置と捉えてもよい。すなわち、情報処理装置は、サーバ2,61,62で構成されると捉えてもよい。情報処理装置は、1台以上のサーバで構成されてもよい。
サーバ61は、インテリジェントメタファイルを生成する。インテリメタファイルには、インテリジェントメタデータが含まれている。以下では、インテリジェントメタファイルをインテリメタファイルと呼ぶことがある。また、インテリジェントメタデータをインテリメタデータと呼ぶことがある。サーバ61は、AI(Artificial Intelligence)の機能を備えてもよい。
インテリメタデータは、図2で説明したメタデータと同様に、事件に関連して発生した出来事に関する情報である。ただし、メタデータは、カメラによって生成され、ビデオファイルに付加されるのに対し、インテリメタデータは、サーバ61によって生成される。
サーバ2は、インテリメタファイルの生成元となるビデオファイルをサーバ61に送信する。サーバ61は、サーバ2から送信されたビデオファイルの映像(音声を含む)を解析して、インテリメタデータを生成し、インテリメタファイルを生成する。
ウェアラブルカメラまたは車載カメラは、サーバに比べ処理能力が限られる。そのため、ビデオファイルに付加されるメタデータは、例えば、図2に示した情報等に限られる。そこで、サーバ61は、サーバ2から、カメラが撮影した映像のビデオファイルを受信し、映像を解析して、インテリメタデータ(例えば、図16を参照)を生成する。つまり、サーバ61は、カメラが生成できないメタデータ(インテリメタデータ)を生成する。サーバ61は、生成したインテリメタデータを含むインテリメタファイルをサーバ2に送信する。
サーバ2は、図1でも説明したように、例えば、事件ごとに分かれたフォルダを管理している。サーバ2は、サーバ61から送信されたインテリメタファイルを、事件ごとに分かれたフォルダに格納する。例えば、サーバ2は、インテリメタファイルの生成元となったビデオファイルと同じフォルダに、インテリメタファイルを格納する。
サーバ62は、ビデオファイルの映像を要約したサマリビデオファイルを生成する。例えば、サーバ62は、サマリビデオファイルの元となるビデオファイルのコピーと、そのビデオファイルのインテリメタファイルとをサーバ2から受信する。サーバ62は、サーバ2から受信したインテリメタファイルを参照し、サーバ2から受信したビデオファイルから、レポート対象となる映像を抽出し、サマリビデオファイルを生成する。
サーバ62は、生成したサマリビデオファイルを、サーバ2に送信する。サーバ2は、サーバ62から送信されたサマリビデオファイルを、サマリビデオファイルの元となったビデオファイルと同じフォルダに格納する。
図15のサマリビデオ生成システムの概略動作例について説明する。例えば、警察官であるユーザは、端末装置1を用いて、サマリビデオを生成したい事件を選択(検索)する。ここでは、ユーザは、サマリビデオを作成したい事件として、事件Aを選択したとする。端末装置1は、選択された事件Aの情報を、サーバ2に送信する(ステップS51)。
サーバ2は、端末装置1から送信された事件Aの情報を受信すると、事件Aに対応するフォルダから、ビデオファイルを取得する。サーバ2は、取得したビデオファイルのコピーを、サーバ61に送信する(ステップS52)。なお、ビデオファイルには、カメラによって付加されたメタデータ(例えば、図2を参照)が付加されている。
サーバ61は、サーバ2から送信されたビデオファイルの映像を解析してインテリメタデータを生成し、生成したインテリメタデータを含むインテリメタファイルを生成する。サーバ61は、生成したインテリメタファイルを、サーバ2に送信する(ステップS53)。
サーバ2は、サーバ61から送信された事件Aのインテリメタファイルを、事件Aのフォルダに格納する。これにより、事件Aのフォルダには、事件Aのビデオファイルと、インテリメタファイルとが格納(保存)される。
サーバ2は、サーバ61から送信されたインテリメタファイルと、インテリメタファイルの生成元となったビデオファイルのコピー(事件Aのビデオファイルのコピー)とをサーバ62に送信する(ステップS54)。
サーバ62は、サーバ2から送信されたインテリメタファイルを参照し、サーバ2から送信されたビデオファイルから、レポート対象となる部分の映像を抽出して、サマリビデオファイルを生成する。
サーバ62は、生成したサマリビデオファイルをサーバ2に送信する(ステップS55)。
サーバ2は、サーバ62から送信されたサマリビデオファイルを、事件Aのフォルダに格納する。これにより、サーバ2の事件Aのフォルダには、事件Aのビデオファイルと、インテリメタファイルと、サマリビデオファイルとが格納(保存)される。
サーバ2は、サーバ62から送信されたサマリビデオファイルの映像を、端末装置1のディスプレイに表示する(ステップS56)。これにより、ユーザは、レポート対象となる部分が抽出された映像を閲覧できる。
このように、サマリビデオ生成システムは、ビデオファイルの映像を解析し、インテリメタファイルを生成する。そして、サマリビデオ生成システムは、生成したインテリメタファイルに基づいて、ビデオファイルから、レポート対象となる部分の映像を抽出し、サマリビデオファイルを生成する。
これにより、ユーザは、容易にレポート対象となる部分の映像を閲覧できる。例えば、ユーザは、長時間の映像から、レポート対象となる部分の映像を探す手間が省け、容易にレポート対象となる部分の映像を閲覧できる。また、ユーザは、サマリビデオファイルから、第1の実施の形態で説明したレポートを作成できる。すなわち、ユーザは、容易に事件の重要な部分のレポートを作成できる。
図16は、インテリメタデータの一例を説明する図である。インテリメタデータには、例えば、図16に示すデータがある。インテリメタデータは、図15で説明したように、サーバ61によって生成される。
インテリメタデータの「人物検知/非検知」は、ビデオファイルの映像内において、サーバ61が人物を検知したときおよび人物を一定時間検知しなくなったときに生成される。
インテリメタデータの「車両検知/非検知」は、ビデオファイルの映像内において、サーバ61が車両を検知したときおよび車両を一定時間検知しなくなったときに生成される。
インテリメタデータの「異常行動検知/非検知」は、ビデオファイルの映像内において、サーバ61が人物の異常行動を検知したときおよび人物の異常行動を一定時間検知しなくなったときに生成される。
インテリメタデータの「群衆検知/非検知」は、ビデオファイルの映像内において、サーバ61が群衆を検知したときおよび群衆を一定時間検知しなくなったときに生成される。
インテリメタデータの「会話検知/非検知」は、ビデオファイルの映像内において、サーバ61が会話を検知したときおよび会話を一定時間検知しなくなったときに生成される。
インテリメタデータの「銃声検知/非検知」は、ビデオファイルの映像内において、サーバ61が銃声を検知したときおよび銃声を一定時間検知しなくなったときに生成される。
インテリメタデータの「爆発音検知/非検知」は、ビデオファイルの映像内において、サーバ61が爆発音を検知したときおよび爆発音を一定時間検知しなくなったときに生成される。
なお、上記の「一定時間検知しなくなったとき」の「一定時間」は、ユーザによって設定されてもよい。
図17は、インテリメタファイルの生成例を説明する図である。図17には、ウェアラブルカメラが撮影した映像の一部フレームが示してある。図17の横軸は、時間を示している。
サーバ61は、ビデオファイルの映像を解析し、インテリメタデータを生成する。サーバ61は、生成したインテリメタデータと、インテリメタデータの生成元となった映像の時刻とを関連付け、インテリメタファイルを生成する。
例えば、時刻t2において、サーバ61は、ビデオファイルの映像から人物がいなくなったことを検知したとする。この場合、サーバ61は、「人物非検知」のインテリメタデータ(タグ)を生成し、時刻t2と関連付ける。また、時刻t2において、サーバ61は、ビデオファイルの映像からな会話がなくなったことを検知したとする。この場合、サーバ61は、「会話非検知」のインテリメタデータを生成し、時刻t2と関連付ける。サーバ61は、ビデオファイルの映像内における時刻と関連付けたインテリメタデータを含むインテリメタファイルを生成する。
なお、図17に示すパトライトON、ダッシュ開始、および手動記録OFFは、ウェアラブルカメラが付加したメタデータである。
図18は、サマリビデオファイルの生成例を説明する図である。図18に示すビデオデータ、タグ、メタデータ、およびインテリメタデータは、図17に示したビデオデータ、タグ、メタデータ、およびインテリメタデータと同じである。図18には、図17に対し、サマリビデオデータが示してある。
サーバ62は、ビデオファイルに含まれるメタデータと、インテリメタファイルのインテリメタデータとに基づいて、ビデオファイルからレポート対象となる部分の映像を抽出し、サマリビデオファイルを生成する。
例えば、パトライトがONしたとき、事件が発生したと考えられる。一方、パトライトON後、映像に人物が一定時間含まれなかった場合および会話が一定時間含まれなかった場合、その後の映像には、事件のレポート対象として重要な映像が含まれていないと考えられる。また、ユーザ(ウェアラブルカメラを装着したユーザ)が走り出したとき、事件のレポート対象として重要な映像が含まれていると考えられる。
そこで、サーバ62は、例えば、図18の矢印A1〜A3に示すように、パトライトONのタグ(メタデータ)の後、人物非検知のタグおよび会話非検知のタグ(インテリメタデータ)までの映像データ(フレーム)をサマリビデオファイルのデータ(フレーム)とする。また、サーバ62は、例えば、図18の矢印A4〜A6に示すように、人物非検知のタグおよび会話非検知のタグの後の映像データを削除する。また、サーバ62は、例えば、図18の矢印A7,A8に示すように、ダッシュ開始のタグ(メタデータ)の後の映像データをサマリビデオファイルのデータとする。
図19は、サーバ61のブロック構成例を示した図である。図19に示すように、サーバ61は、CPU71と、RAM72と、HDD73と、通信インターフェース74と、バス75と、を有している。
サーバ61は、CPU71によって装置全体が制御されている。CPU71は、プログラムの実行によって、制御部71aとして機能する。CPU71には、バス75を介して、RAM72、HDD73、および通信インターフェース74が接続されている。
RAM72には、CPU71に実行させるOSのプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM72には、CPU71による処理に必要な各種データが一時的に格納される。
HDD73には、CPU71に実行させるOSのプログラムおよびアプリケーションプログラムなどが格納される。
通信インターフェース74は、ネットワークを介して、サーバ2と通信を行う。
なお、サーバ61は、ユーザインターフェースを備えてもよい。ユーザインターフェースには、例えば、キーボード装置およびディスプレイ等が接続されてもよい。
図20は、サーバ62のブロック構成例を示した図である。図20に示すように、サーバ62は、CPU81と、RAM82と、HDD83と、通信インターフェース84と、バス85と、を有している。
サーバ62は、CPU81によって装置全体が制御されている。CPU81は、プログラムの実行によって、制御部81aとして機能する。CPU81には、バス85を介して、RAM82、HDD83、および通信インターフェース84が接続されている。
RAM82には、CPU81に実行させるOSのプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM82には、CPU81による処理に必要な各種データが一時的に格納される。
HDD83には、CPU81に実行させるOSのプログラムおよびアプリケーションプログラムなどが格納される。
通信インターフェース84は、ネットワークを介して、サーバ2と通信を行う。
なお、サーバ62は、ユーザインターフェースを備えてもよい。ユーザインターフェースには、例えば、キーボード装置およびディスプレイ等が接続されてもよい。
以下、端末装置1のディスプレイに表示される画面例およびサマリビデオ生成システムのシーケンス図を用いて、サマリビデオ生成システムの動作例について説明する。
サマリビデオ生成システムの動作は、大きく2つに分けられる。第1の動作は、インテリメタデータを含むインテリメタファイルを生成し、図18に示したサマリビデオファイル(サマリビデオデータ)を生成する動作である。第2の動作は、第1の動作で生成したサマリビデオファイルを利用する動作であり、3つの動作に分けられる。
第2の動作の1つ目の動作(第2−1の動作)は、サマリビデオファイルを閲覧する動作である。2つ目の動作(第2−2の動作)は、サマリビデオファイルから一部範囲を抽出したサマリビデオファイルを生成する動作である。3つ目の動作(第2−3の動作)は、サマリビデオファイルからATファイルを生成する動作である。
以下では、第2−2の動作をエクスポート動作と呼ぶことがある。サマリビデオファイルから一部範囲を抽出したサマリビデオファイルを、エクスポートファイルと呼ぶことがある。
<第1の動作:サマリビデオファイルの生成動作>
図21A、図21B、図21C、および図21Dは、サマリビデオファイルの生成動作における端末装置1の画面例を示した図である
図21Aに示す画面91aは、例えば、端末装置1がサーバ2にアクセスすると表示される。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、端末装置1のディスプレイに、画面91aを表示する。
画面91aは、事件を検索する画面である。ユーザは、画面91aに表示されているテキストボックスに、サマリビデオファイルを生成したい事件の情報を入力することにより、サマリビデオファイルを生成したい事件を検索できる。
画面91aの例では、事件番号のテキストボックスに、サマリビデオファイルを生成したい事件の事件番号「NJ180425000011003」が入力されている。なお、ユーザは、例えば、サマリビデオファイルを生成したい事件の事件番号が分からなければ、事件が起きた日付、事件種別、警察官名、および分署名の少なくとも1つをテキストボックスに入力することによって、サマリビデオファイルを生成したい事件を検索できる。
図21Bに示す画面91bは、検索結果の画面例を示している。画面91bは、図21Aの画面91aのテキストボックスに検索情報が入力され、「検索」ボタンがクリックされると、端末装置1のディスプレイに表示される。
例えば、端末装置1の制御部21aは、図21Aに示す画面91aの「検索」ボタンがクリックされると、テキストボックスに入力された情報を、サーバ2に送信する。サーバ2の制御部31aは、端末装置1から送信されたテキストボックスに入力された情報に基づいて、ユーザがサマリビデオファイルを生成したい事件を検索する。サーバ2の制御部31aは、事件を検索すると、端末装置1のディスプレイに、図21Bに示す画面91bを表示する。
画面91bには、検索された事件の事件番号「NJ180425000011003」が表示されている。また、画面91bには、検索された事件のフォルダに格納されているファイルの種別一覧が表示されている。
例えば、画面91bの「ICVビデオ」、「BWCビデオ」、「手書きメモ」、および「現場写真」は、検索された事件のフォルダに格納されているファイルの種別を示している。例えば、「ICVビデオ」は、警察車両に搭載されている車載カメラによって撮影されたビデオファイルを意味する。「BWCビデオ」は、ユーザに装着されたウェアラブルカメラによって撮影されたビデオファイルを意味する。
画面91bには、ラジオボタンが表示されている。ユーザは、サマリビデオファイルを生成したいファイルに対応するラジオボタンを選択する。例えば、ユーザは、「ICVビデオ」のビデオファイルのサマリビデオファイルを生成したい場合、「ICVビデオ」に対応するラジオボタンを選択する。また、ユーザは、「BWCビデオ」のビデオファイルのサマリビデオファイルを生成したい場合、「BWCビデオ」に対応するラジオボタンを選択する。
図21Cに示す画面91cは、サマリビデオファイルを生成したいファイルが選択された後の画面例を示している。画面91cでは、「BWCビデオ」が選択されている。
端末装置1の制御部21aは、画面91cに示す「ビデオサマリ」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面91cの例では、「BWCビデオ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルのコピーを、サーバ61に送信する。画面91cの例では、「BWCビデオ」が選択されているので、サーバ2の制御部31aは、ウェアラブルカメラのビデオファイルのコピーを、サーバ61に送信する。
サーバ61の制御部71aは、サーバ2から送信されたビデオファイルを受信すると、受信したビデオファイルの映像を解析してインテリメタデータを生成し、インテリメタファイルを生成する。サーバ61の制御部71aは、インテリメタファイルを生成すると、生成したインテリメタファイルをサーバ2に送信する。
サーバ2は、サーバ61からインテリメタファイルを受信すると、サーバ61に送信したビデオファイルが格納されていたフォルダに格納する。これにより、ビデオファイルと、そのビデオファイルのインテリメタファイルは紐付けられて(同じ事件のフォルダに格納されて)管理される。サーバ2の制御部31aは、サーバ61から受信したインテリメタファイルをフォルダに格納すると、生成するサマリビデオファイルの映像に、メタデータおよびインテリメタデータを表示するか否かを問う画面を、端末装置1のディスプレイに表示する。
図21Dに示す画面91dは、インテリメタファイルがサーバ2のHDD33に格納された後の画面例を示している。画面91dに示すように、端末装置1のディスプレイには、生成するサマリビデオファイルの映像に、メタデータを表示させるか、またインテリメタデータを表示させるかを選択するチェックボックスが表示される。
ユーザは、例えば、生成されるサマリビデオファイルの映像に、メタデータのテキストを表示させたい場合、メタデータに対応するチェックボックスを選択する。また、ユーザは、例えば、生成されるサマリビデオファイルの映像に、インテリメタデータのテキストを表示させたい場合、インテリメタデータに対応するチェックボックスを選択する。ユーザは、メタデータおよびインテリメタデータの2つを選択でき、またいずれか一方を選択できる。また、ユーザは、メタデータおよびインテリメタデータの両方を選択しなくてもよい。
なお、メタデータが選択された場合、サマリビデオファイルの映像には、例えば、メタデータが付加された時刻に、メタデータがテキストで表示される。例えば、ある時刻において、パトライトがONされた場合、サマリビデオファイルの映像のある時刻において、「パトライトON」というテキストが表示される。
また、インテリメタデータが選択された場合、サマリビデオファイルの映像には、例えば、インテリメタデータが関連付けされた時刻に、インテリメタデータがテキストで表示される。例えば、ある時刻において、一定時間、映像に人物が含まれなかった場合、サマリビデオファイルの映像のある時刻において、「人物非検知」というテキストが表示される。
端末装置1の制御部21aは、画面91dの「スタート」ボタンがクリックされると、ユーザが選択したビデオ表示情報(サマリビデオファイルの映像に、メタデータおよびインテリメタデータのテキストを表示させるかの情報)を、サーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ビデオ表示情報を受信すると、フォルダに格納されているビデオファイルと、インテリメタファイルと、端末装置1から受信したビデオ表示情報とを、サーバ62に送信する
サーバ62の制御部81aは、サーバ2から受信した情報に基づいて、サマリビデオファイルを生成する。例えば、サーバ62の制御部81aは、インテリメタファイルのインテリメタデータと、ビデオファイルに付加されているメタデータとに基づいて、ビデオファイルの映像から、所定の映像を抽出し、サマリビデオファイルを生成する。サーバ62の制御部81aは、サマリビデオファイルを生成するとき、サーバ2から受信したビデオ表示情報に基づいて、メタデータまたはインテリメタデータのテキストを、サマリビデオファイルの映像に含める。
サーバ62の制御部81aは、生成したサマリビデオファイルをサーバ2に送信する。サーバ2の制御部31aは、サマリビデオファイルの元となったビデオファイルが格納されているフォルダに、サマリビデオファイルを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、サマリビデオファイルを閲覧できる。
図22は、サマリビデオ生成システムのサマリビデオファイル生成動作例を示したシーケンス図である。端末装置1の制御部21aは、ユーザの操作に応じて、サーバ2にアクセスする。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、事件の検索画面を、端末装置1のディスプレイに表示する(例えば、図21Aの画面91aを参照)。ユーザは、端末装置1のディスプレイの検索画面において、サマリビデオファイルを作成したい事件の検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した、サマリビデオファイルを生成する事件の検索情報を、サーバ2に送信する(ステップS61)。
サーバ2の制御部31aは、HDD33を参照し、ステップS61にて受信した検索情報に基づいて、事件を検索する(ステップS62)。
サーバ2の制御部31aは、ステップS62にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、およびメモの画像ファイル等)の種別情報(例えば、図21Bの画面91bを参照)を、端末装置1のディスプレイに表示する(ステップS63)。
なお、ユーザは、ステップS63の画面において、サマリビデオファイルを生成するファイルを選択する(例えば、図9Bの画面51bのラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択(指定)した、サマリビデオファイルを生成するファイルの情報(例えば、図21Cの画面91cのラジオボタンで選択されたBWCビデオの情報)を、サーバ2に送信する(ステップS64)。
サーバ2の制御部31aは、ステップS64にて受信したファイルの情報に対応するファイル(例えば、ウェアラブルカメラが撮影した映像のビデオファイル)をHDD33から取得し、取得したファイルのコピーを、サーバ61に送信する(ステップS65)。
サーバ61の制御部71aは、ステップS65にて送信されたビデオファイルの映像を解析し、インテリメタファイルを生成する(ステップS66)。
サーバ61の制御部71aは、生成したインテリメタファイルをサーバ2に送信する(ステップS67)。
サーバ2の制御部31aは、ステップS67にて送信されたインテリメタファイルを、インテリメタファイルの生成元となったビデオファイル(ステップS65で送信されたビデオファイル)と紐付けてHDD33に記憶する(ステップS68)。例えば、サーバ2の制御部31aは、インテリメタファイルの生成元となったビデオファイルが格納されているフォルダに、インテリメタファイルを格納する。
サーバ2の制御部31aは、インテリメタファイルをフォルダに格納すると、端末装置1のディスプレイに、メタデータおよびインテリメタデータの選択画面(例えば、図21Dの画面91d)を表示する(ステップS69)。
なお、ユーザは、例えば、生成されるサマリビデオファイルの映像に、メタデータのテキストを表示させたい場合、メタデータに対応するチェックボックスを選択する。また、ユーザは、例えば、生成されるサマリビデオファイルの映像に、インテリメタデータのテキストを表示させたい場合、インテリメタデータに対応するチェックボックスを選択する。
端末装置1の制御部21aは、ユーザが選択したメタデータおよびインテリメタデータの選択情報(ビデオ表示情報)を、サーバ2に送信する(ステップS70)。
サーバ2の制御部31aは、ステップS70にて受信したビデオ表示情報と、ステップS68にてフォルダに格納したインテリメタファイルと、インテリメタファイルの生成元となったビデオファイルとをサーバ62に送信する(ステップS71)。
サーバ62の制御部81aは、ステップS71にて送信されたビデオ表示情報と、インテリメタファイルと、ビデオファイルとから、サマリビデオファイルを生成する(ステップS72)。
サーバ62の制御部81aは、ステップS72にて生成したサマリビデオファイルをサーバ2に送信する(ステップS73)。
サーバ2の制御部31aは、ステップS72にて送信されたサマリビデオファイルを、サマリビデオファイルの元となったビデオファイルと紐付けてHDD33に記憶する(ステップS74)。例えば、サーバ2の制御部31aは、サマリビデオファイルの元となったビデオファイルが格納されているフォルダに、サマリビデオファイルを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、サマリビデオファイルを閲覧できる。
<第2−1の動作:サマリビデオファイルを閲覧する動作>
図23A、図23B、図23C、図23D、および図23Eは、サマリビデオファイルの閲覧動作における端末装置1の画面例を示した図である。
図23Aに示す画面92aは、例えば、端末装置1がサーバ2にアクセスすると表示される。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、端末装置1のディスプレイに、画面92aを表示する。
画面92aは、事件を検索する画面である。ユーザは、画面92aに表示されているテキストボックスに、サマリビデオファイルを閲覧したい事件の情報を入力することにより、サマリビデオファイルを閲覧したい事件を検索できる。
画面92aの例では、事件番号のテキストボックスに、サマリビデオファイルを閲覧したい事件の事件番号「NJ180425000011003」が入力されている。なお、ユーザは、例えば、サマリビデオファイルを閲覧したい事件の事件番号が分からなければ、事件が起きた日付、事件種別、警察官名、および分署名の少なくとも1つをテキストボックスに入力することによって、サマリビデオファイルを閲覧したい事件を検索できる。
図23Bに示す画面92bは、事件の検索後の画面例を示している。画面92bは、例えば、図23Aの「検索」ボタンがクリックされると、端末装置1のディスプレイに表示される。
画面92bには、検索された事件の事件番号「NJ180425000011003」が表示されている。また、画面92bには、検索された事件のフォルダに格納されているファイルの種別一覧が表示されている。
画面92bは、図21Bに示した検索結果の画面91bと異なり、「サマリビデオ」のファイル情報が追加されている。すなわち、事件番号「NJ180425000011003」の事件は、サマリビデオファイルが生成されたため、画面92bには「サマリビデオ」のファイル情報が追加されている。
画面92bには、ラジオボタンが表示されている。ユーザは、閲覧または視聴したいファイルに対応するラジオボタンを選択する。
例えば、ユーザは、「サマリビデオ」を視聴したい場合(すなわち、サーバ62で生成されたサマリビデオファイルを視聴したい場合)、「サマリビデオ」に対応するラジオボタンを選択する。
図23Cに示す画面92cは、閲覧または視聴したいファイルが選択された後の画面例を示している。画面92cでは、「サマリビデオ」が選択されている。
端末装置1の制御部21aは、画面92cに示す「閲覧」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面92cの例では、「サマリビデオ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルの映像を、端末装置1に表示する。画面92cの例では、「サマリビデオ」が選択されているので、サーバ2の制御部31aは、検索した事件のフォルダに格納されているサマリビデオファイルを抽出し、サマリビデオファイルの映像を端末装置1のディスプレイに表示する。
図23Dに示す画面92dは、サマリビデオファイルの映像が表示された画面例を示している。ユーザは、端末装置1のディスプレイにおいて、ビデオの再生、一時停止、停止、早送り、および早戻し等の操作をし、サマリビデオファイルを視聴できる。
図24は、サマリビデオ生成システムのサマリビデオファイル再生動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、サマリビデオファイルを視聴したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS81)。
サーバ2の制御部31aは、HDD33を参照し、ステップS81にて受信した検索情報に基づいて、事件を検索する(ステップS82)。
サーバ2の制御部31aは、ステップS82にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびサマリビデオファイル等)の種別情報(例えば、図23Bの画面92bを参照)を、端末装置1のディスプレイに表示する(ステップS83)。
なお、ユーザは、ステップS83の画面において、サマリビデオファイルを選択する(例えば、図23Cの画面92cの「サマリビデオ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(サマリビデオファイルを選択した情報)を、サーバ2に送信する(ステップS84)。
サーバ2の制御部31aは、ステップS84にて送信された、ユーザが選択した情報のファイル(サマリビデオファイル)の映像(例えば、図23Dの画面92dを参照)を、端末装置1のディスプレイに表示する(ステップS85)。
なお、端末装置1のディスプレイには、再生、一時停止、停止、早送り、および早戻し等のボタンが表示されている(例えば、図23Dの画面92dを参照)。ユーザは、これらのボタンをクリックすることにより、ビデオの再生、一時停止、停止、早送り、および早戻し等の操作ができる。
<第2−2の動作:エクスポート動作>
図25は、エクスポート動作における端末装置1の画面例を示した図である。
図25に示す画面101は、閲覧または視聴したいファイルが選択された後の画面例を示している。画面101は、例えば、図23Dで説明した画面92dに対応している。例えば、画面101は、サーバ2によって事件が検索された後、検索された事件のフォルダ内のファイルの情報が端末装置1のディスプレイに表示され、視聴したいサマリビデオファイルがユーザによって選択された後の画面例を示している。画面101には、サマリビデオファイルの映像が表示される。
ユーザは、例えば、端末装置1のディスプレイに表示されている再生、一時停止、停止、早送り、および早戻し等のボタンをクリックし、サマリビデオファイルを閲覧する。ユーザは、サマリビデオを視聴した結果、サマリビデオファイルの映像からエクスポートしたい範囲を、端末装置1のディスプレイで指定する。
例えば、ユーザは、エクスポートしたいサマリビデオの開始時間を、端末装置1のディスプレイで指定する。また、ユーザは、エクスポートしたいサマリビデオの終了時間を、端末装置1のディスプレイで指定する。
画面101の例では、エクスポートを開始する「開始時間」のテキストボックスに「12:25」が入力されている。また、画面101の例では、エクスポートを終了する「終了時間」のテキストボックスに「12:32」が入力されている。
ユーザは、例えば、ビデオの閲覧中に、エクスポートを開始したい映像が表示されると、画面101の「選択」ボタンをクリックしてもよい。端末装置1の制御部21aは、「選択」ボタンのクリックに応じて、再生しているビデオ内での時刻を、「開始時間」のテキストボックスに入力してもよい。端末装置1の制御部21aは、「選択」ボタンが次にクリックされると、再生しているビデオ内での時刻を、「終了時間」のテキストボックスに入力してもよい。
端末装置1の制御部21aは、サマリビデオファイルのエクスポート範囲が指定され、「エクスポート」ボタンがクリックされると、画面101で入力されたエクスポート範囲の情報を、サーバ2に送信する。
サーバ2の制御部31aは、端末装置1から送信されたエクスポート範囲の情報に基づいて、サマリビデオファイルのコピーファイルを編集する。例えば、サーバ2の制御部31aは、コピーファイルのエクスポート範囲外の映像を削除してエクスポートファイルを生成する。これにより、ユーザは、サマリビデオファイルから、ユーザが範囲指定した映像のビデオファイルを取得できる。
図26は、文書作成システムのエクスポート動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、エクスポートファイルを作成したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS91)。
サーバ2の制御部31aは、HDD33を参照し、ステップS91にて受信した検索情報に基づいて、事件を検索する(ステップS92)。
サーバ2の制御部31aは、ステップS92にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびサマリビデオファイル等)の種別情報(例えば、図23Bの画面92bを参照)を、端末装置1のディスプレイに表示する(ステップS93)。
なお、ユーザは、ステップS93にて端末装置1のディスプレイに表示された画面において、サマリビデオファイルを選択する(例えば、図23Cの画面92cの「サマリビデオ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(サマリビデオファイルを選択した情報)を、サーバ2に送信する(ステップS94)。
サーバ2の制御部31aは、ステップS94にて送信された、ユーザが選択した情報のファイル(サマリビデオファイル)の映像(例えば、図25の画面101を参照)を、端末装置1のディスプレイに表示する(ステップS95)。
ユーザは、端末装置1のディスプレイに表示されるビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。例えば、ユーザは、映像内における時刻によって、エクスポートファイルを作成したい範囲を指定できる(例えば、図25の画面101の開始時間および終了時間を参照)。ユーザは、ビデオを再生および早戻し等の操作を行って、繰り返しビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。
端末装置1の制御部21aは、ユーザが指定したエクスポート範囲をサーバ2に送信する(ステップS96)。
サーバ2の制御部31aは、ステップS96にて送信されたエクスポート範囲に基づいて、サマリビデオファイルのコピーファイルの映像を編集し(例えば、エクスポート範囲外の映像を削除し)、エクスポートファイルを生成する(ステップS97)。
サーバ2の制御部31aは、ステップS97にて生成したエクスポートファイルを、サマリビデオファイルと紐付けてHDD33に記憶する(ステップS98)。例えば、サーバ2の制御部31aは、エクスポートファイルの元となったサマリビデオファイルが格納されているフォルダに、エクスポートファイルを格納する。これにより、ユーザは、サマリビデオファイルから、ユーザが範囲指定した映像のビデオファイルを取得できる。
<第2−3の動作:サマリビデオファイルからATファイルを生成する動作>
図27は、ATファイルの生成動作における端末装置1の画面例を示した図である。
図27に示す画面102は、ATファイルを生成したいファイルが選択された後の画面例を示している。画面102は、例えば、図23Cで説明した画面92cに対応している。画面102では、「サマリビデオ」が選択されている。
ユーザは、サマリビデオファイルの映像のATファイルを生成したい場合、画面101の「音声テキスト化」ボタンをクリックする。
端末装置1の制御部21aは、画面102に示す「音声テキスト化」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面102の例では、「サマリビデオ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルのコピーを、第1の実施の形態で説明したサーバ3に送信する。画面101の例では、「サマリビデオ」が選択されているので、サーバ2の制御部31aは、サマリビデオファイルのコピーを、サーバ3に送信する。
サーバ3の制御部41aは、サーバ2から送信されたサマリビデオファイルを受信すると、音声データを抽出し、テキストデータに変換する。そして、サーバ3の制御部41aは、例えば、図4に示したようなATファイルを生成する。サーバ3の制御部41aは、ATファイルを生成すると、生成したATファイルをサーバ2に送信する。
サーバ2の制御部31aは、サーバ3からATファイルを受信すると、サーバ3に送信したサマリビデオファイルが格納されていたフォルダに格納する。これにより、サマリビデオファイルと、そのサマリビデオファイルのATファイルは紐付けられて(同じ事件のフォルダに格納されて)管理される。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、サマリビデオファイルのATファイルを閲覧できる。
図28は、サマリビデオ生成システムのATファイル生成動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、ATファイルを作成したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS101)。
サーバ2の制御部31aは、HDD33を参照し、ステップS101にて送信された検索情報に基づいて、事件を検索する(ステップS102)。
サーバ2の制御部31aは、ステップS102にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびサマリビデオファイル等)の種別情報(例えば、図23Bの画面92bを参照)を、端末装置1のディスプレイに表示する(ステップS103)。
なお、ユーザは、ステップS103の画面において、サマリビデオファイルを選択する(例えば、図27の画面102の「サマリビデオ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(サマリビデオファイルを選択した情報)を、サーバ2に送信する(ステップS104)。
サーバ2の制御部31aは、ステップS104にて送信された、ユーザが選択した情報のファイル(サマリビデオファイル)の映像を、端末装置1のディスプレイに表示する(ステップS105)。
ユーザは、端末装置1のディスプレイに表示されるビデオを視聴し、ATファイルを作成したい範囲を指定できる。例えば、ユーザは、映像内における時刻によって、ATファイルを作成したい範囲を指定できる。ユーザは、ビデオを再生および早戻し等の操作を行って、繰り返しビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。
サーバ2の制御部31aは、ユーザが指定したATファイルの範囲と、ATファイルの生成指示とをサーバ2に送信する(ステップS106)。
サーバ2の制御部31aは、ステップS106にて送信されたATファイルの生成指示を受信すると、ステップS105にて再生したサマリビデオファイルをコピーし、サーバ3に送信する(ステップS107)。また、サーバ2の制御部31aは、ステップS106にて送信されたATファイルの範囲をサーバ3に送信する。
サーバ3の制御部41aは、ステップS107にて送信されたATファイルの範囲において、ステップS107にて送信されたサマリビデオファイルに含まれる音声をテキスト化する(ステップS108)。
サーバ3の制御部41aは、テキスト化されたデータを含むATファイルをサーバ2に送信する(ステップS109)。
サーバ2の制御部31aは、ステップS109にて送信されたATファイルを、テキスト化されたビデオファイル(ステップS107で送信されたサマリビデオファイル)と紐付けてHDD33に記憶する(ステップS110)。例えば、サーバ2の制御部31aは、テキスト化されたサマリビデオファイルが格納されているフォルダに、ATファイルを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、ATファイルを閲覧できる。
以上説明したように、情報処理装置を構成するサーバ2の制御部31aは、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像のビデオファイルを記憶したHDD33から、端末装置1において指定されたビデオファイルを取得する。情報処理装置を構成するサーバ61の制御部71aは、サーバ2によって取得されたビデオファイルの映像を解析して事件に関するインテリメタデータを生成する。情報処理装置を構成するサーバ62の制御部81aは、サーバ61が生成したインテリメタデータに基づいて、ビデオファイルから、事件のレポート対象となる映像部分を抽出したサマリビデオファイルを生成する。情報処理装置を構成するサーバ2の通信インターフェース34は、サーバ62によって生成されたサマリビデオファイルのデータを端末装置1に送信する。このように、情報処理装置は、カメラが撮影した映像のビデオファイルから、レポート対象となる部分の映像を含むサマリビデオファイルを生成するので、ユーザの事件に関するレポートの作成が容易になる。
なお、上記では、インテリメタデータは、ビデオファイルとは別のファイルで管理されるとしたが、これに限られない。インテリメタデータは、ビデオファイルのビデオデータに付加されてもよい。
上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
上記で説明したサーバ2の制御部31aは、カメラが撮影した事件に関する映像のビデオファイルを記憶したHDD33から、端末装置1において指定されたビデオファイルを取得する取得部として機能してもよい。また、サーバ3の制御部41aは、ビデオファイルに含まれる音声データを抽出し、抽出した音声データをテキストデータに変換する変換部として機能してもよい。また、サーバ2の通信インターフェース34は、テキストデータ(ATファイル)を端末装置1に送信する送信部として機能してもよい。また、サーバ3の制御部41aは、端末装置1から指定されたファイル形式において、ATファイルを生成する生成部として機能してもよい。
また、サーバ2の制御部31aは、カメラが撮影した事件に関する映像のビデオファイルを記憶したHDD33から、端末装置1において指定されたビデオファイルを取得する取得部として機能してもよい。また、サーバ61の制御部71aは、ビデオファイルの映像を解析してインテリメタデータを生成する生成部として機能してもよい。また、サーバ62の制御部81aは、サーバ61が生成したインテリメタデータに基づいて、ビデオファイルの映像の一部を削除したサマリビデオファイルを生成する生成部として機能してもよい。また、サーバ2の通信インターフェース34は、サーバ62によって生成されたサマリビデオファイルの映像データを端末装置1に送信する送信部として機能してもよい。
本開示は、警察署の事件に関する文書作成システムおよびサマリビデオ生成システムに有用である。
1 端末装置
2,3,61,62 サーバ
10 ATファイル
11a,11b タイムスタンプ
12a,12b 識別子
13a,13b テキスト
14a,14b メタデータ
15a,15b 画像
21,31,41,71,81 CPU
21a,31a,41a,71a,81a 制御部
22,32,42,72,82 RAM
23,33,43,73,83 HDD
24,34,44,74,84 通信インターフェース
25 ユーザインターフェース

Claims (13)

  1. 警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得する取得部と、
    前記取得された映像データに含まれる音声データを抽出し、抽出した前記音声データをテキストデータに変換する変換部と、
    前記テキストデータを前記端末装置に送信する送信部と、
    を有する情報処理装置。
  2. 前記変換部は、前記音声データが抽出されたときの映像内における時刻を、前記テキストデータに含める、
    請求項1に記載の情報処理装置。
  3. 前記変換部は、前記音声データが抽出されたときの映像の画像データを、前記テキストデータに含める、
    請求項1または2に記載の情報処理装置。
  4. 前記変換部は、前記映像データに付加されている事件に関連する情報を、前記テキストデータに含める、
    請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記端末装置から指定されたファイル形式において、前記テキストデータを含むファイルを生成する生成部、をさらに有する、
    請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記生成部は、前記端末装置からの指示に応じて、前記音声データが抽出されたときの映像内における時刻、前記音声データが抽出されたときの映像の画像データ、または前記映像データに付加されている事件に関する情報を、前記ファイルに含める、
    請求項5に記載の情報処理装置。
  7. 前記変換部は、前記端末装置から指定された映像範囲において、前記音声データを前記テキストデータに変換する、
    請求項1から6のいずれか一項に記載の情報処理装置。
  8. 警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得し、
    前記取得した映像データに含まれる音声データを抽出し、
    前記音声データをテキストデータに変換し、
    前記テキストデータを前記端末装置に送信する、
    映像テキスト変換方法。
  9. 警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得する取得部と、
    前記取得された映像データの映像を解析して事件に関連する情報を生成し、生成した前記情報に基づいて、前記映像データから事件のレポート対象となる映像部分を抽出したサマリ映像データを生成する生成部と、
    前記サマリ映像データを前記端末装置に送信する送信部と、
    を有する情報処理装置。
  10. 前記生成部は、前記情報をテキストデータとして前記サマリ映像データに含め、
    前記情報は、前記端末装置のディスプレイにテキストで表示される、
    請求項9に記載の情報処理装置。
  11. 前記生成部は、前記端末装置から指定された映像範囲において、前記サマリ映像データを抽出した抽出サマリ映像データを生成する、
    請求項9または10に記載の情報処理装置。
  12. 前記サマリ映像データに含まれる音声データを抽出し、抽出した前記音声データをテキストデータに変換する変換部、をさらに有し、
    前記送信部は、変換された前記テキストデータを前記端末装置に送信する、
    請求項9から11のいずれか一項に記載の情報処理装置。
  13. 警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像の映像データを記憶した記憶装置から、端末装置において指定された映像データを取得し、
    前記取得した映像データの映像を解析して事件に関連する情報を生成し、
    前記情報に基づいて、前記映像データから事件のレポート対象となる映像部分を抽出したサマリ映像データを生成し、
    前記サマリ映像データを前記端末装置に送信する、
    映像データ生成方法。
JP2018119668A 2018-06-25 2018-06-25 情報処理装置、映像テキスト変換方法、および映像データ生成方法 Pending JP2020005014A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018119668A JP2020005014A (ja) 2018-06-25 2018-06-25 情報処理装置、映像テキスト変換方法、および映像データ生成方法
US16/250,653 US10936873B2 (en) 2018-06-25 2019-01-17 Information processing apparatus and method for generating video picture data
US16/250,661 US11042744B2 (en) 2018-06-25 2019-01-17 Information processing apparatus and method for conversion of video picture into text

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018119668A JP2020005014A (ja) 2018-06-25 2018-06-25 情報処理装置、映像テキスト変換方法、および映像データ生成方法

Publications (1)

Publication Number Publication Date
JP2020005014A true JP2020005014A (ja) 2020-01-09

Family

ID=68980772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018119668A Pending JP2020005014A (ja) 2018-06-25 2018-06-25 情報処理装置、映像テキスト変換方法、および映像データ生成方法

Country Status (2)

Country Link
US (2) US10936873B2 (ja)
JP (1) JP2020005014A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128323A (ja) * 2020-02-10 2021-09-02 株式会社時空テクノロジーズ 情報処理装置、情報処理システム、および、プログラム
JP2021150901A (ja) * 2020-03-23 2021-09-27 株式会社デンソーテン 運転情報記録装置、運転情報再生システム、及び運転情報記録方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190332899A1 (en) * 2018-04-26 2019-10-31 Sorenson Ip Holdings, Llc Analysis of image media corresponding to a communication session
CN113841417B (zh) * 2020-09-27 2023-07-28 深圳市大疆创新科技有限公司 影片生成方法、终端设备、拍摄设备及影片生成系统
US20230010320A1 (en) * 2021-07-12 2023-01-12 Getac Technology Corporation Classification and indicating of events on an edge device
CN114241392A (zh) * 2021-12-23 2022-03-25 苏州企智信息科技有限公司 一种基于视频行为识别的工厂规范自动巡检方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5664006A (en) 1995-06-07 1997-09-02 Globalstar L.P. Method for accounting for user terminal connection to a satellite communications system
WO2006016437A1 (ja) 2004-08-11 2006-02-16 Ginganet Corporation テレビ電話交番システム
JP2009086207A (ja) 2007-09-28 2009-04-23 Toppan Printing Co Ltd 議事録情報生成システム、議事録情報生成方法、及び議事録情報生成プログラム
US8542981B2 (en) * 2008-05-20 2013-09-24 Honeywell International Inc. Manual voice annotations for CCTV reporting and investigation
US20110287787A1 (en) 2009-11-25 2011-11-24 Qualcomm Incorporated Location-based service based on access point identifiers
WO2014208575A1 (ja) 2013-06-28 2014-12-31 日本電気株式会社 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム
US20150264296A1 (en) * 2014-03-12 2015-09-17 videoNEXT Federal, Inc. System and method for selection and viewing of processed video
US9661283B2 (en) * 2014-12-24 2017-05-23 Panasonic Intellectual Property Management Co., Ltd. Wearable camera
JP6202283B2 (ja) * 2015-04-16 2017-09-27 パナソニックIpマネジメント株式会社 事件映像処理装置、事件映像処理システム、事件映像処理方法、及びプログラム
US20160366327A1 (en) * 2015-06-09 2016-12-15 Collateral Opportunities, Llc Method and system for determining whether a law enforcement instrument has been removed and concurrently activating a body camera
CN105704570B (zh) * 2016-03-08 2019-05-07 上海小蚁科技有限公司 用于产生视频的一个或多个预览帧的方法和装置
US10218943B2 (en) 2017-03-02 2019-02-26 L3 Technologies, Inc. Method and apparatus for triggering multiple data recording devices
WO2019084890A1 (en) * 2017-11-03 2019-05-09 Tencent Technology (Shenzhen) Company Limited Method and system for processing audio communications over a network
US11036979B2 (en) 2018-03-15 2021-06-15 Motorola Solutions, Inc. Device, system and method for generating an alert and an automatic search for a candidate subject
US11030913B2 (en) * 2018-06-07 2021-06-08 Thinkster Learning, Inc. Intelligent and contextual system for knowledge progression and quiz management

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128323A (ja) * 2020-02-10 2021-09-02 株式会社時空テクノロジーズ 情報処理装置、情報処理システム、および、プログラム
JP2021150901A (ja) * 2020-03-23 2021-09-27 株式会社デンソーテン 運転情報記録装置、運転情報再生システム、及び運転情報記録方法
JP7417447B2 (ja) 2020-03-23 2024-01-18 株式会社デンソーテン 運転情報再生システム及び運転情報再生方法

Also Published As

Publication number Publication date
US11042744B2 (en) 2021-06-22
US20190392214A1 (en) 2019-12-26
US20190392215A1 (en) 2019-12-26
US10936873B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
JP2020005014A (ja) 情報処理装置、映像テキスト変換方法、および映像データ生成方法
JP4791288B2 (ja) デジタル写真を電子ドキュメントにリンクするための方法およびシステム
US10728502B2 (en) Multiple communications channel file transfer
JP5866728B2 (ja) 画像認識システムを備えた知識情報処理サーバシステム
US9214191B2 (en) Capture and transmission of media files and associated metadata
US8977958B2 (en) Community-based software application help system
US11100066B2 (en) Extended memory system
US9270950B2 (en) Identifying a locale for controlling capture of data by a digital life recorder based on location
US20080201299A1 (en) Method and System for Managing Metadata
US20090150425A1 (en) Systems,methods and computer products for content-derived metadata
KR20170084745A (ko) 다중-모달리티 특징 융합을 통한 퍼스널 미디어 자동 재창작 시스템 및 그 동작 방법
WO2006011900A2 (en) Method and system for managing metadata
WO2004002144A1 (ja) メタデータ作成装置、その作成方法および検索装置
KR100733095B1 (ko) 정보 처리 장치 및 정보 처리 방법
JP4354441B2 (ja) 映像データ管理装置及び方法及びプログラム
CN109614482A (zh) 标签的处理方法、装置、电子设备及存储介质
JP2004334782A (ja) 端末装置、業務指示方法、コンテンツ提供装置、コンテンツ提供方法、記録媒体、プログラム、業務管理システム、および業務管理方法
JP2007047959A (ja) 情報編集表示装置、情報編集表示方法、サーバ、情報処理システムおよび情報編集表示プログラム
JPWO2008136466A1 (ja) 動画編集装置
WO2021111872A1 (ja) コンテンツ提供システム、コンテンツ提供方法、及び記憶媒体
US20130204414A1 (en) Digital audio communication system
US20140078331A1 (en) Method and system for associating sound data with an image
JP2007207057A (ja) タイトル作成装置、タイトル作成方法およびタイトル作成プログラム
US20230350549A1 (en) Automatic incident compilation system
JP2008017050A (ja) 会議システム及び会議方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190910

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224