以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(第1の実施の形態)
図1は、第1の実施の形態に係る文書作成システムの一例を示した図である。図1に示すように、文書作成システムは、端末装置1と、サーバ2,3と、を有している。端末装置1、サーバ2、およびサーバ3は、例えば、LAN(Local Area Network)またはインターネット等のネットワークを介して互いに通信できる。
サーバ2,3の機能は、1台のサーバで実現されてもよい。また、サーバ2,3の機能は、3台以上のサーバで実現されてもよい。サーバ2,3は、1つの情報処理装置と捉えてもよい。すなわち、情報処理装置は、サーバ2,3で構成されると捉えてもよい。情報処理装置は、1台以上のサーバで構成されてもよい。
端末装置1は、例えば、パーソナルコンピュータ等の端末装置である。端末装置1は、例えば、警察署内に配置されている。端末装置1は、例えば、事件のレポート等の文書作成に用いられ、また、事件映像の視聴に用いられる。
サーバ2には、事件に関する情報が記憶されている。例えば、サーバ2には、警察官に装着または所持されたウェアラブルカメラによって撮影された事件映像のビデオファイル(ビデオデータ)が記憶されている。また、サーバ2には、警察車両に搭載されている車載カメラによって撮影された事件映像のビデオファイルが記憶されている。
以下では、ウェアラブルカメラおよび車載カメラを特に区別しないときは、単にカメラと呼ぶことがある。なお、カメラは、例えば、撮影中にビデオデータをサーバ2に送信してもよい。また、カメラは、例えば、撮影終了後にビデオファイルをサーバ2に送信してもよい。これにより、カメラが撮影した事件映像のビデオファイルがサーバ2に記憶される。
サーバ3は、音声をテキストに変換するサーバである。サーバ3には、サーバ2からビデオファイルが送られる。サーバ3は、サーバ2から送られたビデオファイルに含まれる音声データをテキストデータに変換する。サーバ3は、変換したテキストデータを含む音声テキスト化ファイル(以下、ATファイルと呼ぶことがある)を、サーバ2に送信する。ATファイルは、例えば、バイナリファイルである。
サーバ2は、例えば、事件をフォルダで分類し、管理している。例えば、ビデオファイルおよびATファイルは、事件ごとに分類され、対応するフォルダに格納されている。サーバ2は、事件に関するコンテンツを管理するサーバと言ってもよい。
なお、サーバ2に記憶されているビデオファイルは、例えば、事件の証拠等として用いられることがあり、削除および編集ができない。ただし、複製されたビデオファイルは、編集できる。サーバ2,3は、例えば、警察署内に配置されてもよいし、別の場所に配置されてもよい。
図1の文書作成システムの概略動作例について説明する。例えば、警察官であるユーザは、端末装置1を用いて、事件のレポートを作成する事件を選択(検索)する。ここでは、ユーザは、レポートを作成する事件として、事件Aを選択したとする。端末装置1は、ユーザが選択した事件Aの情報を、サーバ2に送信する(ステップS1)。
サーバ2は、端末装置1から送信された事件Aの情報を受信すると、事件Aに対応するフォルダからビデオファイルを取得する。サーバ2は、取得したビデオファイルのコピーを、サーバ3に送信する(ステップS2)。後述するが、ビデオファイルには、メタデータ(例えば、図2または図3を参照)が含まれている。メタデータは、カメラによって付加される。
サーバ3は、サーバ2から送信されたビデオファイルに含まれている音声データを抽出し、テキストデータに変換する。サーバ3は、変換したテキストデータを含むATファイル(例えば、図4を参照)を生成する。後述するが、ATファイルには、例えば、ビデオファイル内の音声が発せられた日時(タイムスタンプ)と、その日時における静止画像とが含まれる。言い換えれば、ATファイルには、ビデオファイルの映像内に登場する人物の発話時刻と、そのときの静止画像と、人物が発した音声のテキストとが含まれる。
サーバ3は、生成したATファイルを、サーバ2に送信する(ステップS3)。
サーバ2は、サーバ3から送信された事件AのATファイルを、事件Aのフォルダに格納する。これにより、事件Aのフォルダには、事件Aのビデオファイルと、事件AのATファイルとが格納(保存)される。
サーバ2は、例えば、フォルダに格納した事件AのATファイルを、端末装置1からのアクセスに応じて、端末装置1に表示する(ステップS4)。これにより、ユーザは、端末装置1を用いて、ATファイルを見ることができる。つまり、ユーザは、ビデオファイルの映像に含まれている音声を、テキストとして見ることができる。
後述するが、ユーザは、端末装置1を用いて、ATファイルを、ワード(登録商標)やエクセル(登録商標)等の汎用アプリケーションで閲覧できるファイル(以下、汎用ファイルと呼ぶことがある)に変換できる。ユーザは、例えば、変換した汎用ファイルを、事件Aのレポートとしてもよいし、変換した汎用ファイルを編集して、事件Aのレポートとしてもよい。
このように、文書作成システムは、レポートを作成する事件のビデオファイルから、音声データを抽出してテキストデータに変換する。そして、文書作成システムは、変換したテキストデータを含むATファイルを生成する。これにより、ユーザは、警察での事件に関連する文書の作成を容易にできる。
なお、事件Aのフォルダには、事件AのATファイルが保存されている。従って、ユーザは、いつでも事件AのATファイルにアクセスできる。
図2は、メタデータの一例を説明する図である。メタデータには、例えば、図2に示すデータがある。メタデータは、カメラによってビデオデータに付加される。
メタデータの「パトライト(登録商標)ON」は、警察車両のパトライトがONされたときに、ビデオデータに付加される。例えば、警察車両は、ユーザによってパトライトがONされると、パトライトがONされたことをカメラに通知する。カメラは、警察車両のパトライトONの通知に応じて、ビデオデータに「パトライトON」のメタデータを付加する。
メタデータの「急発進検知」は、警察車両が急発進されたときに、ビデオデータに付加される。例えば、警察車両は、ユーザによって急発進されると、急発進されたことをカメラに通知する。カメラは、警察車両の急発進の通知に応じて、ビデオデータに「急発進検知」のメタデータを付加する。
メタデータの「衝突検知」は、警察車両が何かに衝突されたときに(または衝突したときに)、ビデオデータに付加される。例えば、警察車両は、何かに衝突されたとき、衝突されたことをカメラに通知する。カメラは、警察車両の衝突の通知に応じて、ビデオデータに「衝突検知」のメタデータを付加する。
メタデータの「バックドアオープン」は、警察車両のバックドアがオープンされたときに、ビデオデータに付加される。例えば、警察車両は、バックドアがオープンされると、バックドアがオープンされたことをカメラに通知する。カメラは、警察車両のバックドアのオープンの通知に応じて、ビデオデータに「バックドアオープン」のメタデータを付加する。
メタデータの「銃の取り出し」は、銃フォルダから銃が取り出されたときに、ビデオデータに付加される。例えば、銃フォルダは、銃の取り出しを検知するセンサを備え、センサは、銃フォルダから銃が取り出されると、銃が取り出されたことをカメラに通知する。カメラは、センサの銃の取り出しの通知に応じて、ビデオデータに「銃の取り出し」のメタデータを付加する。
メタデータの「速度超過検出」は、警察車両が速度超過したときに、ビデオデータに付加される。例えば、警察車両は、速度センサを備え、速度超過したときに、速度超過したことをカメラに通知する。カメラは、警察車両の速度超過の通知に応じて、ビデオデータに「速度超過検出」のメタデータを付加する。
メタデータの「手動記録ON/OFF」は、カメラがユーザによってONおよびOFFされたときに、ビデオデータに付加される。
メタデータの「ダッシュ検知」は、ユーザに装着されているウェアラブルカメラが、ユーザの急な走り出しを検知したときに、ビデオデータに付加される。なお、ウェアラブルカメラは、例えば、加速度センサまたは角速度センサを備え、ユーザの急な走り出しを検知できる。
メタデータの「転倒検知」は、ユーザに装着されているウェアラブルカメラが、ユーザの転倒を検知したときに、ビデオデータに付加される。なお、ウェアラブルカメラは、例えば、加速度センサまたは角速度センサを備え、ユーザの転倒を検知できる。
メタデータの「格闘検知」は、カメラがユーザの格闘を検知したときに、ビデオデータに付加される。なお、ユーザは、例えば、カメラと無線通信する生体センサを装着している。生体センサは、例えば、ユーザの心拍数、発汗、および体温の少なくとも1つを生体情報として取得する。生体センサは、取得したユーザの生体情報を、無線通信によってカメラに送信する。カメラは、生体センサから受信したユーザの生体情報から、ユーザの格闘を検知する。例えば、カメラは、生体センサから受信したユーザの生体情報の心拍数、発汗、および体温の上昇から、ユーザの格闘を検知する。
メタデータの「興奮状態検知」は、カメラがユーザの興奮状態を検知したときに、ビデオデータに付加される。なお、ユーザは、上記した生体センサを装着している。カメラは、生体センサから送信されるユーザの生体情報から、ユーザの興奮状態を検知できる。
メタデータの「GPS(Global Positioning System)情報」は、カメラが音声を検知したときに、ビデオデータに付加される。GPS情報は、ユーザの位置を示している。なお、カメラは、GPS装置を搭載している。
図2に示すメタデータは、事件に関連して発生した出来事に関する情報と言える。例えば、パトライトは、事件が発生したときにONされる。従って、メタデータの「パトライトON」は、事件に関連して発生した出来事と言える。また、ユーザは、犯人が突然逃走したとき、犯人を追いかけるため走り出す。従って、メタデータの「ダッシュ検知」は、事件に関連して発生した出来事と言える。
なお、メタデータは、図2の例に限られない。その他の事件に関連して発生した出来事に関する情報が含まれてもよい。
図3は、メタデータが付加されたビデオデータの概念の一例を説明する図である。図3には、ウェアラブルカメラが撮影した映像の一部フレームが示してある。図3の横軸は、時間を示している。
時刻t1において、ウェアラブルカメラは、警察車両のパトライトONを検知したとする。この場合、時刻t1におけるビデオデータには、パトライトONのメタデータ(タグ)が付加される。
時刻t2において、ウェアラブルカメラは、警察車両の急発進を検知したとする。この場合、時刻t2におけるビデオデータには、急発進検知のメタデータが付加される。
時刻t3において、ウェアラブルカメラは、ユーザのダッシュを検知したとする。この場合、時刻t3におけるビデオデータには、ダッシュ検知のメタデータが付加される。
図4は、サーバ3によって生成されたATファイルの一例を示した図である。図4に示すように、ATファイル10には、タイムスタンプ11a,11bと、識別子12a,12bと、テキスト13a,13bと、メタデータ14a,14bと、画像15a,15bと、が含まれている。
サーバ3は、図1で説明したように、サーバ2から、メタデータを含むビデオファイルを受信する。サーバ3は、受信したビデオファイルに含まれる音声データを抽出する。ビデオファイルには、撮影日時の情報も含まれている。ここでは、ビデオファイルは、ウェアラブルカメラによって撮影されたビデオファイルとする。
ATファイル10に含まれるタイムスタンプ11a,11bは、サーバ3が抽出した音声の発せられた日時を示している。すなわち、タイムスタンプ11a,11bは、ビデオファイルの映像に登場する人物が発話した日時を示している。
識別子12a,12bは、音声を発した話者を識別する識別子である。サーバ3は、例えば、抽出した音声の声色を解析し、音声を発した話者を識別する。図4の例では、Speaker A,Bが登場している。
テキスト13a,13bは、サーバ3が抽出した音声のテキストを示している。サーバ3は、ビデオファイルから抽出した音声をテキスト13a,13bに変換し、ATファイル10に含める。なお、図4に示す例では、Speaker Aは「Freeze」と発し、Speaker Bは「No」と発していることが分かる。
メタデータ14a,14bは、タイムスタンプ11a,11bが示す時刻またはその時刻の前後(例えば、1分前後)で付加されたメタデータを示している。サーバ3は、例えば、タイムスタンプ11a,11bが示す時刻またはその時刻の前後に付加されたメタデータ14a,14bを抽出し、ATファイル10に含める。
例えば、図4のメタデータ14aに示す例では、2018年4月10日の12時50分30秒またはその時刻の前後に、GPS情報が取得されたことが分かる。つまり、2018年4月10日の12時50分30秒またはその時刻の前後のウェアラブルカメラの位置が分かる。また、2018年4月10日の12時50分30秒またはその時刻の前後に、パトライトがONされたことが分かる。
画像15a,15bは、タイムスタンプ11a,11bが示す日時におけるビデオファイルの静止画像を示している。サーバ3は、例えば、タイムスタンプ11a,11bが示す時刻のビデオファイルの画像15a,15bを抽出し、ATファイル10に含める。
なお、サーバ3は、図1で説明したように、ビデオファイルのATファイル10を生成すると、サーバ2に送信する。サーバ2は、サーバ3から送信されたATファイル10をフォルダに格納する。
ユーザは、端末装置1を用いて、サーバ2に格納されたATファイル10を閲覧できる。また、ユーザは、端末装置1のディスプレイに表示されたATファイル10のタイムスタンプ11a,11bをクリックすることにより、タイムスタンプ11a,11bが示す時刻からの映像を再生できる。
図5Aおよび図5Bは、ATファイル10から動画を再生する動作の一例を説明する図である。図5Aにおいて、図4と同じものには同じ符号が付してある。
ATファイル10は、端末装置1のディスプレイに表示される。端末装置1のディスプレイに表示されたATファイル10のタイムスタンプ11a,11bは、ATファイル10と同じフォルダに格納されているビデオファイルにリンクされている。タイムスタンプ11a,11bは、タイムスタンプ11a,11bが示す時刻から、ビデオファイルの映像が再生されるようにリンクされている。
例えば、サーバ2は、端末装置1のディスプレイに表示されたタイムスタンプ11aがクリックされると、タイムスタンプ11aに示す時刻から、端末装置1のディスプレイにビデオファイルの映像をストリーム再生する。例えば、端末装置1のディスプレイには、図5Bに示す動画像が表示される。
ユーザは、ATファイル10のテキスト13a,13b、メタデータ14a,14b、および画像15a,15bを参照し、映像を見たい箇所から、ビデオファイルを再生できる。例えば、ユーザは、犯人が逃げる箇所から映像を見たい場合、「ダッシュ検知」のメタデータ14bまたは犯人がダッシュする様子を示した画像15bを見て、タイムスタンプ11bをクリックすればよい。
なお、サーバ2は、タイムスタンプ11aに示す時刻より少し前から(例えば、10秒前から)、ビデオファイルを端末装置1のディスプレイにストリーム再生してもよい。これにより、ユーザは、タイムスタンプ11a,11bの時刻の状況に至った経緯等も、見ることができる。
図6は、端末装置1のブロック構成例を示した図である。図6に示すように、端末装置1は、CPU(Central Processing Unit)21と、RAM(Random access memory)22と、HDD(Hard Disk Drive)23と、通信インターフェース24と、ユーザインターフェース25と、バス26と、を有している。
端末装置1は、CPU21によって装置全体が制御されている。CPU21は、プログラムの実行によって、制御部21aとして機能する。CPU21には、バス26を介して、RAM22、HDD23、通信インターフェース24、およびユーザインターフェース25が接続されている。
RAM22には、CPU21に実行させるOS(Operating System)のプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM22には、CPU21による処理に必要な各種データが一時的に格納される。
HDD23には、OSおよびアプリケーションプログラムなどが格納される。
通信インターフェース24は、ネットワークを介して、サーバ2,3と通信を行う。
ユーザインターフェース25には、例えば、キーボード装置およびディスプレイ等が接続される。CPU21は、ユーザインターフェース25を介して、キーボード装置およびディスプレイ等とデータのやり取りを行う。
図7は、サーバ2のブロック構成例を示した図である。図7に示すように、サーバ2は、CPU31と、RAM32と、HDD33と、通信インターフェース34と、バス35と、を有している。
サーバ2は、CPU31によって装置全体が制御されている。CPU31は、プログラムの実行によって、制御部31aとして機能する。CPU31には、バス35を介して、RAM32、HDD33、および通信インターフェース34が接続されている。
RAM32には、CPU31に実行させるOSのプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM32には、CPU31による処理に必要な各種データが一時的に格納される。
HDD33には、OSおよびアプリケーションプログラムなどが格納される。また、HDD33には、ユーザが装着するウェアラブルカメラおよび警察車両に搭載される車載カメラが撮影した映像のビデオファイルが記憶される。また、HDD33には、サーバ3が生成したATファイルが記憶される。また、HDD33には、ATファイルに基づいて作成された汎用ファイルが記憶される。
通信インターフェース34は、ネットワークを介して、端末装置1およびサーバ3と通信を行う。また、通信インターフェース34は、ネットワークを介して、ユーザが装着するウェアラブルカメラおよび警察車両に搭載される車載カメラと通信を行う。
なお、サーバ2は、ユーザインターフェースを備えてもよい。ユーザインターフェースには、例えば、キーボード装置およびディスプレイ等が接続されてもよい。
図8は、サーバ3のブロック構成例を示した図である。図8に示すように、サーバ3は、CPU41と、RAM42と、HDD43と、通信インターフェース44と、バス45と、を有している。
サーバ3は、CPU41によって装置全体が制御されている。CPU41は、プログラムの実行によって、制御部41aとして機能する。CPU41には、バス45を介して、RAM42、HDD43、および通信インターフェース44が接続されている。
RAM42には、CPU41に実行させるOSのプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM42には、CPU41による処理に必要な各種データが一時的に格納される。
HDD43には、CPU41に実行させるOSのプログラムおよびアプリケーションプログラムなどが格納される。
通信インターフェース44は、ネットワークを介して、端末装置1およびサーバ2と通信を行う。
なお、サーバ3は、ユーザインターフェースを備えてもよい。ユーザインターフェースには、例えば、キーボード装置およびディスプレイ等が接続されてもよい。
以下、端末装置1のディスプレイに表示される画面例および文書作成システムのシーケンス図を用いて、文書作成システムの動作例について説明する。
文書作成システムの動作は、大きく2つに分けられる。第1の動作は、例えば、図4に示したATファイルを生成する動作である。第2の動作は、第1の動作で生成したATファイルに基づいて、所定のファイル(データ)を生成する動作であり、2つの動作に分けられる。
第2の動作の1つ目の動作(第2−1の動作)は、汎用アプリケーションで閲覧できるレポートを生成する動作である。2つ目の動作(第2−2の動作)は、ATファイルから一部範囲を抽出したATファイルを生成する動作である。抽出するATファイルの範囲は、ユーザが指定できる。
以下では、第2−1の動作をレポート生成動作と呼ぶことがある。第2−2の動作をエクスポート動作と呼ぶことがある。ATファイルから一部範囲を抽出したATファイルを、エクスポートファイルと呼ぶことがある。
<第1の動作:ATファイルの生成動作>
図9A、図9B、および図9Cは、ATファイルの生成動作における端末装置1の画面例を示した図である。なお、以下で説明する画面例は、ブラウザで表示されてもよい。また、以下で説明する画面例において表示される「戻る」ボタンは、各画面例で共通の機能を有し、クリックされると1つ前の画面に戻る。
図9Aに示す画面51aは、事件を検索する画面である。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、端末装置1のディスプレイに、画面51aを表示する。ユーザは、画面51aに表示されているテキストボックスに、ATファイルを生成したい事件の情報を入力する。
画面51aの例では、事件番号のテキストボックスに、ATファイルを生成したい事件の事件番号「NJ180425000011003」が入力されている。なお、ユーザは、例えば、ATファイルを生成したい事件の事件番号が分からなければ、事件が起きた日付、事件種別、警察官名、および分署名の少なくとも1つをテキストボックスに入力することによって、ATファイルを生成したい事件を検索できる。
図9Bに示す画面51bは、検索結果の画面例を示している。画面51bは、図9Aの画面51aのテキストボックスに検索情報が入力され、「検索」ボタンがクリックされると、端末装置1のディスプレイに表示される。
例えば、端末装置1の制御部21aは、図9Aに示す画面51aの「検索」ボタンがクリックされると、テキストボックスに入力された情報を、サーバ2に送信する。サーバ2の制御部31aは、端末装置1から送信されたテキストボックスに入力された情報に基づいて、事件を検索する。サーバ2の制御部31aは、事件を検索すると、端末装置1のディスプレイに、図9Bに示す画面51bを表示する。
画面51bには、検索された事件の事件番号「NJ180425000011003」が表示されている。また、画面51bには、検索された事件のフォルダに格納されているファイルの情報(種別一覧)が表示されている。
例えば、画面51bの「ICVビデオ」、「BWCビデオ」、「手書きメモ」、および「現場写真」は、検索された事件のフォルダに格納されているファイルの種別を示している。例えば、「ICVビデオ」は、警察車両に搭載されている車載カメラによって撮影されたビデオファイルを意味している。「BWCビデオ」は、ユーザに装着されたウェアラブルカメラによって撮影されたビデオファイルを意味している。
画面51bには、ラジオボタンが表示されている。ユーザは、ATファイルを生成したいファイルに対応するラジオボタンを選択する。例えば、ユーザは、「ICVビデオ」のビデオファイルのATファイルを生成したい場合、「ICVビデオ」に対応するラジオボタンを選択する。また、ユーザは、「BWCビデオ」のビデオファイルのATファイルを生成したい場合、「BWCビデオ」に対応するラジオボタンを選択する。
図9Cに示す画面51cは、ATファイルを生成したいファイルが選択された後の画面例を示している。画面51cでは、「BWCビデオ」が選択されている。
端末装置1の制御部21aは、画面51cに示す「音声テキスト化」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面51cの例では、「BWCビデオ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルのコピーを、サーバ3に送信する。画面51cの例では、「BWCビデオ」が選択されているので、サーバ2の制御部31aは、ウェアラブルカメラのビデオファイルのコピーを、サーバ3に送信する。
サーバ3の制御部41aは、サーバ2から送信されたビデオファイルを受信すると、音声データを抽出し、テキストデータに変換する。そして、サーバ3の制御部41aは、例えば、図4に示したようなATファイルを生成する。サーバ3の制御部41aは、ATファイルを生成すると、生成したATファイルをサーバ2に送信する。
サーバ2の制御部31aは、サーバ3からATファイルを受信すると、サーバ3に送信したビデオファイルが格納されていたフォルダに格納する。これにより、ビデオファイルと、そのビデオファイルのATファイルは紐付けられて(同じ事件のフォルダに格納されて)管理される。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、ATファイルを閲覧できる。
図10は、文書作成システムのATファイル生成動作例を示したシーケンス図である。端末装置1の制御部21aは、ユーザの操作に応じて、サーバ2にアクセスする。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、事件を検索する画面を、端末装置1のディスプレイに表示する(例えば、図9Aの画面51aを参照)。ユーザは、端末装置1のディスプレイの検索画面において、ATファイルを作成したい事件の検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS11)。
サーバ2の制御部31aは、HDD33を参照し、ステップS11にて受信した検索情報に基づいて、事件を検索する(ステップS12)。
サーバ2の制御部31aは、ステップS12にて検索した事件のフォルダに格納されているファイル(例えば、ビデオファイル、音声ファイル、およびメモの画像ファイル等)の種別情報(例えば、図9Bの画面51bを参照)を、端末装置1のディスプレイに表示する(ステップS13)。
なお、ユーザは、ステップS13の画面において、ATファイルを生成するファイルを選択する(例えば、図9Bの画面51bのラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択(指定)した、ATファイルを生成するファイルの情報(例えば、図9Cの画面51cのラジオボタンで選択されたBWCビデオの情報)を、サーバ2に送信する(ステップS14)。
サーバ2の制御部31aは、ステップS14にて送信されたファイルの情報に対応するファイル(ビデオファイル)をHDD33から取得し、取得したビデオファイルのコピーを、サーバ3に送信する(ステップS15)。
サーバ3の制御部41aは、ステップS15にて送信されたビデオファイルに含まれる音声をテキスト化する(ステップS16)。
サーバ3の制御部41aは、テキスト化されたデータを含むATファイルをサーバ2に送信する(ステップS17)。
サーバ2の制御部31aは、ステップS17にて送信されたATファイルを、ATファイルの生成元となったビデオファイル(ステップS15で送信されたビデオファイル)と紐付けてHDD33に記憶する(ステップS18)。例えば、サーバ2の制御部31aは、ATファイルの生成元となったビデオファイルが格納されているフォルダに、ATファイルを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、ATファイルを閲覧できる。
<第2−1の動作:レポート生成動作>
図11A、図11B、図11C、および図11Dは、レポート生成動作における端末装置1の画面例を示した図である。
図11Aに示す画面52aは、事件の検索後の画面例を示している。例えば、図9Aで説明したように、テキストボックスに検索情報を入力し、「検索」ボタンがクリックされると、画面52aが表示される。
画面52aには、検索された事件の事件番号「NJ180425000011003」が表示されている。また、画面52aには、検索された事件のフォルダに格納されているファイルの種別一覧が表示されている。
画面52aは、図9Bに示した検索結果の画面51bと異なり、「音声テキスト化データ」のファイル情報が追加されている。すなわち、事件番号「NJ180425000011003」の事件は、ATファイルが生成されたため、画面52aには「音声テキスト化データ」のファイル情報が追加されている。
画面52aには、ラジオボタンが表示されている。ユーザは、閲覧または視聴したいファイルに対応するラジオボタンを選択する。
例えば、ユーザは、「音声テキスト化データ」を閲覧したい場合(すなわち、サーバ3で生成されたATファイルを閲覧したい場合)、「音声テキスト化データ」に対応するラジオボタンを選択する。
図11Bに示す画面52bは、閲覧または視聴したいファイルが選択された後の画面例を示している。画面52bでは、「音声テキスト化データ」が選択されている。
端末装置1の制御部21aは、画面52bに示す「閲覧」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面52bの例では、「音声テキスト化データ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルのデータを、端末装置1に送信する。画面52bの例では、「音声テキスト化データ」が選択されているので、サーバ2の制御部31aは、検索した事件のフォルダに格納されているATファイルを取得し、端末装置1に送信する。端末装置1の制御部21aは、サーバ2から送信されたATファイルをディスプレイに表示する。
図11Cに示す画面52cは、ATファイルが表示された画面例を示している。画面52cには、例えば、図4で説明したATファイルの内容が表示される。
ユーザは、例えば、画面52cに表示されているATファイルの内容を確認し、確認したATファイルの内容に基づくレポートを作成したい場合、「レポート作成」ボタンをクリックする。
端末装置1の制御部21aは、「レポート作成」ボタンがクリックされた情報を、サーバ2に送信する。サーバ2の制御部31aは、端末装置1から、「レポート作成」ボタンのクリック情報を受信すると、生成するレポートの出力形式および出力内容をユーザに選択させるための画面を端末装置1に送信する。端末装置1の制御部21aは、サーバ2から送信された画面の情報をディスプレイに表示する。
図11Dに示す画面52dは、レポートの出力形式および出力内容を選択する画面例を示している。画面52dには、例えば、レポートの出力フォーマットを選択するプルダウンメニューが表示される。ユーザは、画面52dのプルダウンメニューから、レポートの出力フォーマットを選択できる。
また、画面52dには、レポートに含める情報(出力内容)を選択するためのチェックボックスが表示される。画面52dの例では、メタデータ、静止画、およびタイムスタンプリンクが含まれている。
メタデータが選択された場合、レポートには、メタデータのテキストが含まれる(例えば、図4のメタデータ14a,14bが含まれる)。静止画が選択された場合、レポートには、発話者が音声を発したときの静止画が含まれる(例えば、図4の画像15a,15bが含まれる)。タイムスタンプリンクが選択された場合、レポートには、タイムスタンプのリンクが含まれる(例えば、図4のタイムスタンプ11a,11bを参照)。
レポートに含める情報は、プルダウンメニューで選択するレポートの出力フォーマットに応じて、複数選択できる。例えば、ワードやエクセルの出力フォーマット(例えば、プルダウンメニューで「*.doc」や「*.xls」)を選択すると、メタデータ、静止画、およびタイムスタンプリンクを選択できる。レポートの出力フォーマットとして、テキスト(プルダウンメニューで「*.txt」)を選択すると、静止画およびタイムスタンプリンクを選択できない。
端末装置1の制御部21aは、画面52dの「スタート」ボタンがクリックされると、画面52dにおいて入力された情報を、サーバ2に送信する。サーバ2の制御部31aは、端末装置1から送信された情報に基づいて、レポートを生成する。
例えば、サーバ2の制御部31aは、レポートの出力内容として、静止画とタイムスタンプとが選択された場合、ATファイルのデータから、メタデータを削除し、レポートを生成する。また、サーバ2の制御部31aは、レポート出力形式として「*.doc」が選択された場合、「doc」ファイルとしてレポートを生成する。
図12は、文書作成システムのレポート生成動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、レポートを作成したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS21)。
サーバ2の制御部31aは、HDD33を参照し、ステップS21にて受信した検索情報に基づいて、事件を検索する(ステップS22)。
サーバ2の制御部31aは、ステップS22にて検索した事件のフォルダに格納されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびATファイル等)の種別情報(例えば、図11Aの画面52aを参照)を、端末装置1のディスプレイに表示する(ステップS23)。
なお、ユーザは、ステップS23の画面において、レポートを生成するファイルを選択する。ユーザは、レポートを生成するファイルとして、ATファイルを選択する(例えば、図11Bの画面52bの「音声テキスト化データ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(音声テキスト化データを選択した情報)を、サーバ2に送信する(ステップS24)。
サーバ2の制御部31aは、ステップS24にて送信された、ユーザが選択した情報のファイル(ATファイル)の画像(例えば、図11Cの画面52cを参照)を、端末装置1のディスプレイに表示する(ステップS25)。
なお、端末装置1のディスプレイには、ATファイルの表示とともに、レポート作成のボタンが表示される(例えば、図11Cの画面52cの「レポート作成」ボタンを参照)。サーバ2の制御部31aは、「レポート作成」ボタンがクリックされると、レポートの出力形式および出力内容を選択する画面を端末装置1のディスプレイに表示する(例えば、図11Dの画面52dを参照)。ユーザは、端末装置1のディスプレイの画面に従って、レポートの出力形式および出力内容を選択する。
端末装置1の制御部21aは、ユーザが選択したレポートの出力形式および出力内容を、サーバ2に送信する(ステップS26)。
サーバ2の制御部31aは、ステップS26にて送信されたレポートの出力形式および出力内容に基づいて、ATファイルのデータを編集し、レポートを生成する(ステップS27)。例えば、サーバ2の制御部31aは、レポートの出力内容として、静止画とタイムスタンプとが選択された場合、ATファイルのデータから、メタデータを削除し、レポートを生成する。また、サーバ2の制御部31aは、レポート出力形式として「*.doc」が選択された場合、「doc」ファイルとしてレポートを生成する。
サーバ2の制御部31aは、ステップS27にて生成されたレポートを、ATファイル(ステップS24で送信されたATファイル)と紐付けてHDD33に記憶する(ステップS28)。例えば、サーバ2の制御部31aは、レポート生成の元となったATファイルが格納されていたフォルダに、レポートを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、レポートを閲覧できる。また、ユーザは、生成されたレポートを編集できる。
<第2−2の動作:エクスポート動作>
図13A、図13B、図13C、および図13Dは、エクスポート動作における端末装置1の画面例を示した図である。
図13Aに示す画面53aは、閲覧または視聴したいファイルが選択された後の画面例を示している。画面53aは、例えば、図11Cで説明した画面52cに対応している。
例えば、画面53aは、サーバ2によって事件が検索された後、検索された事件のフォルダ内のファイルの情報が端末装置1のディスプレイに表示され、閲覧または視聴したいファイルがユーザによって選択された後の画面例を示している。画面53aには、例えば、図4で説明したATファイルの内容が表示される。
画面52aには、タイムスタンプ53aa,53abが表示されている。タイムスタンプ53aa,53abは、ATファイルの元となったビデオファイルにリンクされている。サーバ2の制御部31aは、画面52aのタイムスタンプ53aa,53abがクリックされると、ビデオ再生画面を端末装置1のディスプレイに表示する。サーバ2の制御部31aは、タイムスタンプ53aa,53abが示す時刻またはそれよりも少し前の時刻(この時刻は、ユーザによって設定されてもよい)から、ビデオ再生できるビデオ再生画面を表示する。
図13Bに示す画面53bは、画面53aのタイムスタンプ53aaがクリックされた場合の画面例を示している。端末装置1の制御部21aは、タイムスタンプ53aaがクリックされると、タイムスタンプ53aaに紐付けられたリンク情報をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1からリンク情報を受信すると、リンク情報に基づいて、ビデオ再生画面を端末装置1のディスプレイに表示する。ユーザは、端末装置1のディスプレイにおいて、ビデオの再生、一時停止、停止、早送り、および早戻し等の操作ができる。
ユーザは、例えば、1つまたは2以上のタイムスタンプをクリックし、ビデオを視聴する。ユーザは、ビデオを視聴した結果、ビデオファイルからエクスポートしたい映像の範囲を、端末装置1のディスプレイで指定する。
例えば、ユーザは、エクスポートしたいビデオの開始時間を、端末装置1のディスプレイで指定する。また、ユーザは、エクスポートしたいビデオの終了時間を、端末装置1のディスプレイで指定する。
図13Cに示す画面53cは、エクスポート範囲が入力された画面例を示している。画面53cの例では、エクスポートを開始する「開始時間」のテキストボックスに「12:25」が入力されている。また、画面53cの例では、エクスポートを終了する「終了時間」のテキストボックスに「12:32」が入力されている。
ユーザは、例えば、ビデオの閲覧中に、エクスポートを開始したい映像が表示されると、画面53cの「選択」ボタンをクリックしてもよい。端末装置1の制御部21aは、「選択」ボタンのクリックに応じて、再生しているビデオ内での時刻を、「開始時間」のテキストボックスに入力してもよい。また、端末装置1の制御部21aは、「選択」ボタンが次にクリックされると、再生しているビデオ内での時刻を、「終了時間」のテキストボックスに入力してもよい。
端末装置1の制御部21aは、ビデオファイルのエクスポート範囲が指定され、「エクスポート」ボタンがクリックされると、エクスポート内容を選択する画面を、ディスプレイに表示する。
図13Dに示す画面53dは、エクスポート内容(対象)を選択する画面例を示している。ユーザは、エクスポートする内容を、端末装置1のディスプレイにおいて指定する。エクスポートする内容には、例えば、メタデータ、静止画、およびタイムスタンプリンクがある。
エクスポートする内容は、全て選択されてもよいし、一部選択されてもよい。例えば、メタデータと静止画とをエクスポートし、タイムスタンプリンクをエクスポートしない場合、ユーザは、メタデータに対応するチェックボックスと、静止画に対応するチェックボックスとにチェックを入力する。
端末装置1の制御部21aは、ビデオファイルのエクスポート範囲が指定され、「スタート」ボタンがクリックされると、図13Cの画面53cで入力されたエクスポート範囲の情報と、図13Dの画面53dで選択されたエクスポート内容の情報とを、サーバ2に送信する。
サーバ2の制御部31aは、端末装置1から送信されたエクスポート範囲の情報と、エクスポート内容の情報とに基づいて、ATファイルを編集する。例えば、サーバ2の制御部31aは、エクスポート範囲外のビデオ内容を削除し、エクスポート内容で指示された情報以外の情報を削除したATファイルを生成する。
図14は、文書作成システムのエクスポート動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、エクスポートファイルを作成したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS31)。
サーバ2の制御部31aは、HDD33を参照し、ステップS31にて受信した検索情報に基づいて、事件を検索する(ステップS32)。
サーバ2の制御部31aは、ステップS32にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびATファイル等)の種別情報(例えば、図11Aの画面52aを参照)を、端末装置1のディスプレイに表示する(ステップS33)。
なお、ユーザは、ステップS33の画面において、エクスポートファイルを生成するATファイル(音声テキスト化データ)を選択する(例えば、図11Bの画面52bの「音声テキスト化データ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(ATファイルを選択した情報)を、サーバ2に送信する(ステップS34)。
サーバ2の制御部31aは、ステップS34にて送信された、ユーザが選択した情報のファイル(ATファイル)の内容(例えば、図13Aの画面53aを参照)を、端末装置1のディスプレイに表示する(ステップS35)。
なお、端末装置1のディスプレイに表示されるATファイルには、タイムスタンプが表示される(例えば、図13Aの画面53aのタイムスタンプ53aa,53ab)。
サーバ2の制御部31aは、タイムスタンプがクリックされると、クリックされたタイムスタンプの情報をサーバ2に送信する(ステップS36)。
サーバ2の制御部31aは、タイムスタンプの情報を受信すると、タイムスタンプの時刻に紐付けられた箇所から、ビデオファイルを再生し、端末装置1のディスプレイに表示(例えば、図13Bの画面53bを参照)する(ステップS37)。
なお、ユーザは、端末装置1のディスプレイに表示されるビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。例えば、ユーザは、映像内における時刻によって、エクスポートファイルを作成したい範囲を指定できる(例えば、図13Cの画面53cの開始時間および終了時間を参照)。ユーザは、ビデオを再生および早戻し等の操作を行って、繰り返しビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。また、ユーザは、別のタイムスタンプをクリックして、別の時刻の映像を再生し、視聴できる。
また、ユーザは、端末装置1のディスプレイにおいて、エクスポート内容を選択する。例えば、ユーザは、エクスポートファイルに含める内容として、メタデータ、静止画、およびタイムスタンプリンクを選択する(図13Dの画面53dのチェックボックスを参照)。
端末装置1の制御部21aは、ユーザが指定したエクスポート範囲およびエクスポート内容をサーバ2に送信する(ステップS38)。
サーバ2の制御部31aは、ステップS38にて送信されたエクスポート範囲およびエクスポート内容に基づいて、エクスポートファイルを生成する(ステップS39)。
サーバ2の制御部31aは、ステップS39にて生成したエクスポートファイルを、ATファイルと紐付けてHDD33に記憶する(ステップS40)。例えば、サーバ2の制御部31aは、エクスポートファイルの元となったATファイルが格納されているフォルダに、エクスポートファイルを格納する。
以上説明したように、情報処理装置を構成するサーバ2の制御部31aは、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像のビデオファイルを記憶したHDD33から、端末装置1において指定されたビデオファイルを取得する。情報処理装置を構成するサーバ3の制御部41aは、サーバ2によって取得されたビデオファイルに含まれる音声データを抽出し、抽出した音声データをテキストデータに変換する。情報処理装置を構成するサーバ2の通信インターフェース34は、サーバ3で変換されたテキストデータを含むATファイルを端末装置1に送信する。このように、情報処理装置は、警察官に装着されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像のビデオファイルから、テキストデータを生成するので、ユーザの事件に関連するレポートの作成が容易になる。
なお、上記では、サーバ3の制御部41aは、ビデオファイルの音声データをテキストデータに変換するとしたが、これに限られない。例えば、サーバ3の制御部41aは、音声ファイルの音声データをテキストデータに変換してもよい。例えば、サーバ2のHDD33には、ICレコーダ等で録音した音声ファイルが記憶されてもよい。サーバ2の制御部31aは、ユーザがATファイルを作成するデータとして、音声ファイルを指定した場合、指定された音声ファイルをサーバ3に送信する。サーバ3の制御部41aは、サーバ2から送信された音声データをテキストデータに変換し、変換したテキストデータを含むATファイルをサーバ2に送信してもよい。
また、上記では、ビデオファイルのビデオデータにメタデータが付加されるとしたが、これに限られない。メタデータは、ビデオファイルとは別のファイルで管理されてもよい。この場合、サーバ2の制御部31aは、ビデオファイル(メタデータが付加されていない)と、メタデータのファイルとをサーバ3に送信する。サーバ3の制御部41aは、サーバ2から送信されたビデオファイルと、メタデータのファイルとに基づいて、ATファイルを生成する。
また、上記では、サーバ2の制御部31aは、ATファイルからレポートを生成したが、エクスポートファイルからレポートを生成してもよい。例えば、エクスポートファイルが生成された場合、図11Aの画面52aには、エクスポートファイルを示すファイル種別と、エクスポートファイルを選択できるラジオボタンとが表示される。サーバ2の制御部31aは、エクスポートファイルのラジオボタンが選択された場合、エクスポートファイルからレポートを生成する。
また、サーバ2の制御部31aは、図11Cの画面52cにおいて、タイムスタンプがクリックされた場合、図13Cの画面53cと同様に、ビデオファイルの再生画面を、端末装置1のディスプレイに表示してもよい。
(第2の実施の形態)
第2の実施の形態では、カメラが撮影した映像のビデオファイルから、サマリビデオファイルを生成する。例えば、カメラが撮影した映像のうち、事件として重要となる部分(例えば、レポート対象となる部分)は、一部の場合がある。そこで、第2の実施の形態では、カメラが撮影した映像のうち、レポート対象として重要となる部分を抽出し、抽出した映像を含むサマリビデオファイルを生成する。
図15は、第2の実施の形態に係るサマリビデオ生成システムの一例を示した図である。図15において、図1と同じものには同じ符号が付してある。サマリビデオ生成システムは、端末装置1と、サーバ2,61,62と、を有している。
以下では、図1と異なる部分について説明する。図15には、図1に示した端末装置1と、サーバ2との他に、サーバ61,62が示してある。端末装置1、サーバ2、サーバ61、およびサーバ62は、例えば、LANまたはインターネット等のネットワークを介して互いに通信できる。
サーバ2,61,62の機能は、1台または2台のサーバで実現されてもよい。また、サーバ2,61,62の機能は、4台以上のサーバで実現されてもよい。サーバ2,61,62は、1つの情報処理装置と捉えてもよい。すなわち、情報処理装置は、サーバ2,61,62で構成されると捉えてもよい。情報処理装置は、1台以上のサーバで構成されてもよい。
サーバ61は、インテリジェントメタファイルを生成する。インテリメタファイルには、インテリジェントメタデータが含まれている。以下では、インテリジェントメタファイルをインテリメタファイルと呼ぶことがある。また、インテリジェントメタデータをインテリメタデータと呼ぶことがある。サーバ61は、AI(Artificial Intelligence)の機能を備えてもよい。
インテリメタデータは、図2で説明したメタデータと同様に、事件に関連して発生した出来事に関する情報である。ただし、メタデータは、カメラによって生成され、ビデオファイルに付加されるのに対し、インテリメタデータは、サーバ61によって生成される。
サーバ2は、インテリメタファイルの生成元となるビデオファイルをサーバ61に送信する。サーバ61は、サーバ2から送信されたビデオファイルの映像(音声を含む)を解析して、インテリメタデータを生成し、インテリメタファイルを生成する。
ウェアラブルカメラまたは車載カメラは、サーバに比べ処理能力が限られる。そのため、ビデオファイルに付加されるメタデータは、例えば、図2に示した情報等に限られる。そこで、サーバ61は、サーバ2から、カメラが撮影した映像のビデオファイルを受信し、映像を解析して、インテリメタデータ(例えば、図16を参照)を生成する。つまり、サーバ61は、カメラが生成できないメタデータ(インテリメタデータ)を生成する。サーバ61は、生成したインテリメタデータを含むインテリメタファイルをサーバ2に送信する。
サーバ2は、図1でも説明したように、例えば、事件ごとに分かれたフォルダを管理している。サーバ2は、サーバ61から送信されたインテリメタファイルを、事件ごとに分かれたフォルダに格納する。例えば、サーバ2は、インテリメタファイルの生成元となったビデオファイルと同じフォルダに、インテリメタファイルを格納する。
サーバ62は、ビデオファイルの映像を要約したサマリビデオファイルを生成する。例えば、サーバ62は、サマリビデオファイルの元となるビデオファイルのコピーと、そのビデオファイルのインテリメタファイルとをサーバ2から受信する。サーバ62は、サーバ2から受信したインテリメタファイルを参照し、サーバ2から受信したビデオファイルから、レポート対象となる映像を抽出し、サマリビデオファイルを生成する。
サーバ62は、生成したサマリビデオファイルを、サーバ2に送信する。サーバ2は、サーバ62から送信されたサマリビデオファイルを、サマリビデオファイルの元となったビデオファイルと同じフォルダに格納する。
図15のサマリビデオ生成システムの概略動作例について説明する。例えば、警察官であるユーザは、端末装置1を用いて、サマリビデオを生成したい事件を選択(検索)する。ここでは、ユーザは、サマリビデオを作成したい事件として、事件Aを選択したとする。端末装置1は、選択された事件Aの情報を、サーバ2に送信する(ステップS51)。
サーバ2は、端末装置1から送信された事件Aの情報を受信すると、事件Aに対応するフォルダから、ビデオファイルを取得する。サーバ2は、取得したビデオファイルのコピーを、サーバ61に送信する(ステップS52)。なお、ビデオファイルには、カメラによって付加されたメタデータ(例えば、図2を参照)が付加されている。
サーバ61は、サーバ2から送信されたビデオファイルの映像を解析してインテリメタデータを生成し、生成したインテリメタデータを含むインテリメタファイルを生成する。サーバ61は、生成したインテリメタファイルを、サーバ2に送信する(ステップS53)。
サーバ2は、サーバ61から送信された事件Aのインテリメタファイルを、事件Aのフォルダに格納する。これにより、事件Aのフォルダには、事件Aのビデオファイルと、インテリメタファイルとが格納(保存)される。
サーバ2は、サーバ61から送信されたインテリメタファイルと、インテリメタファイルの生成元となったビデオファイルのコピー(事件Aのビデオファイルのコピー)とをサーバ62に送信する(ステップS54)。
サーバ62は、サーバ2から送信されたインテリメタファイルを参照し、サーバ2から送信されたビデオファイルから、レポート対象となる部分の映像を抽出して、サマリビデオファイルを生成する。
サーバ62は、生成したサマリビデオファイルをサーバ2に送信する(ステップS55)。
サーバ2は、サーバ62から送信されたサマリビデオファイルを、事件Aのフォルダに格納する。これにより、サーバ2の事件Aのフォルダには、事件Aのビデオファイルと、インテリメタファイルと、サマリビデオファイルとが格納(保存)される。
サーバ2は、サーバ62から送信されたサマリビデオファイルの映像を、端末装置1のディスプレイに表示する(ステップS56)。これにより、ユーザは、レポート対象となる部分が抽出された映像を閲覧できる。
このように、サマリビデオ生成システムは、ビデオファイルの映像を解析し、インテリメタファイルを生成する。そして、サマリビデオ生成システムは、生成したインテリメタファイルに基づいて、ビデオファイルから、レポート対象となる部分の映像を抽出し、サマリビデオファイルを生成する。
これにより、ユーザは、容易にレポート対象となる部分の映像を閲覧できる。例えば、ユーザは、長時間の映像から、レポート対象となる部分の映像を探す手間が省け、容易にレポート対象となる部分の映像を閲覧できる。また、ユーザは、サマリビデオファイルから、第1の実施の形態で説明したレポートを作成できる。すなわち、ユーザは、容易に事件の重要な部分のレポートを作成できる。
図16は、インテリメタデータの一例を説明する図である。インテリメタデータには、例えば、図16に示すデータがある。インテリメタデータは、図15で説明したように、サーバ61によって生成される。
インテリメタデータの「人物検知/非検知」は、ビデオファイルの映像内において、サーバ61が人物を検知したときおよび人物を一定時間検知しなくなったときに生成される。
インテリメタデータの「車両検知/非検知」は、ビデオファイルの映像内において、サーバ61が車両を検知したときおよび車両を一定時間検知しなくなったときに生成される。
インテリメタデータの「異常行動検知/非検知」は、ビデオファイルの映像内において、サーバ61が人物の異常行動を検知したときおよび人物の異常行動を一定時間検知しなくなったときに生成される。
インテリメタデータの「群衆検知/非検知」は、ビデオファイルの映像内において、サーバ61が群衆を検知したときおよび群衆を一定時間検知しなくなったときに生成される。
インテリメタデータの「会話検知/非検知」は、ビデオファイルの映像内において、サーバ61が会話を検知したときおよび会話を一定時間検知しなくなったときに生成される。
インテリメタデータの「銃声検知/非検知」は、ビデオファイルの映像内において、サーバ61が銃声を検知したときおよび銃声を一定時間検知しなくなったときに生成される。
インテリメタデータの「爆発音検知/非検知」は、ビデオファイルの映像内において、サーバ61が爆発音を検知したときおよび爆発音を一定時間検知しなくなったときに生成される。
なお、上記の「一定時間検知しなくなったとき」の「一定時間」は、ユーザによって設定されてもよい。
図17は、インテリメタファイルの生成例を説明する図である。図17には、ウェアラブルカメラが撮影した映像の一部フレームが示してある。図17の横軸は、時間を示している。
サーバ61は、ビデオファイルの映像を解析し、インテリメタデータを生成する。サーバ61は、生成したインテリメタデータと、インテリメタデータの生成元となった映像の時刻とを関連付け、インテリメタファイルを生成する。
例えば、時刻t2において、サーバ61は、ビデオファイルの映像から人物がいなくなったことを検知したとする。この場合、サーバ61は、「人物非検知」のインテリメタデータ(タグ)を生成し、時刻t2と関連付ける。また、時刻t2において、サーバ61は、ビデオファイルの映像からな会話がなくなったことを検知したとする。この場合、サーバ61は、「会話非検知」のインテリメタデータを生成し、時刻t2と関連付ける。サーバ61は、ビデオファイルの映像内における時刻と関連付けたインテリメタデータを含むインテリメタファイルを生成する。
なお、図17に示すパトライトON、ダッシュ開始、および手動記録OFFは、ウェアラブルカメラが付加したメタデータである。
図18は、サマリビデオファイルの生成例を説明する図である。図18に示すビデオデータ、タグ、メタデータ、およびインテリメタデータは、図17に示したビデオデータ、タグ、メタデータ、およびインテリメタデータと同じである。図18には、図17に対し、サマリビデオデータが示してある。
サーバ62は、ビデオファイルに含まれるメタデータと、インテリメタファイルのインテリメタデータとに基づいて、ビデオファイルからレポート対象となる部分の映像を抽出し、サマリビデオファイルを生成する。
例えば、パトライトがONしたとき、事件が発生したと考えられる。一方、パトライトON後、映像に人物が一定時間含まれなかった場合および会話が一定時間含まれなかった場合、その後の映像には、事件のレポート対象として重要な映像が含まれていないと考えられる。また、ユーザ(ウェアラブルカメラを装着したユーザ)が走り出したとき、事件のレポート対象として重要な映像が含まれていると考えられる。
そこで、サーバ62は、例えば、図18の矢印A1〜A3に示すように、パトライトONのタグ(メタデータ)の後、人物非検知のタグおよび会話非検知のタグ(インテリメタデータ)までの映像データ(フレーム)をサマリビデオファイルのデータ(フレーム)とする。また、サーバ62は、例えば、図18の矢印A4〜A6に示すように、人物非検知のタグおよび会話非検知のタグの後の映像データを削除する。また、サーバ62は、例えば、図18の矢印A7,A8に示すように、ダッシュ開始のタグ(メタデータ)の後の映像データをサマリビデオファイルのデータとする。
図19は、サーバ61のブロック構成例を示した図である。図19に示すように、サーバ61は、CPU71と、RAM72と、HDD73と、通信インターフェース74と、バス75と、を有している。
サーバ61は、CPU71によって装置全体が制御されている。CPU71は、プログラムの実行によって、制御部71aとして機能する。CPU71には、バス75を介して、RAM72、HDD73、および通信インターフェース74が接続されている。
RAM72には、CPU71に実行させるOSのプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM72には、CPU71による処理に必要な各種データが一時的に格納される。
HDD73には、CPU71に実行させるOSのプログラムおよびアプリケーションプログラムなどが格納される。
通信インターフェース74は、ネットワークを介して、サーバ2と通信を行う。
なお、サーバ61は、ユーザインターフェースを備えてもよい。ユーザインターフェースには、例えば、キーボード装置およびディスプレイ等が接続されてもよい。
図20は、サーバ62のブロック構成例を示した図である。図20に示すように、サーバ62は、CPU81と、RAM82と、HDD83と、通信インターフェース84と、バス85と、を有している。
サーバ62は、CPU81によって装置全体が制御されている。CPU81は、プログラムの実行によって、制御部81aとして機能する。CPU81には、バス85を介して、RAM82、HDD83、および通信インターフェース84が接続されている。
RAM82には、CPU81に実行させるOSのプログラムおよびアプリケーションプログラムが一時的に格納される。また、RAM82には、CPU81による処理に必要な各種データが一時的に格納される。
HDD83には、CPU81に実行させるOSのプログラムおよびアプリケーションプログラムなどが格納される。
通信インターフェース84は、ネットワークを介して、サーバ2と通信を行う。
なお、サーバ62は、ユーザインターフェースを備えてもよい。ユーザインターフェースには、例えば、キーボード装置およびディスプレイ等が接続されてもよい。
以下、端末装置1のディスプレイに表示される画面例およびサマリビデオ生成システムのシーケンス図を用いて、サマリビデオ生成システムの動作例について説明する。
サマリビデオ生成システムの動作は、大きく2つに分けられる。第1の動作は、インテリメタデータを含むインテリメタファイルを生成し、図18に示したサマリビデオファイル(サマリビデオデータ)を生成する動作である。第2の動作は、第1の動作で生成したサマリビデオファイルを利用する動作であり、3つの動作に分けられる。
第2の動作の1つ目の動作(第2−1の動作)は、サマリビデオファイルを閲覧する動作である。2つ目の動作(第2−2の動作)は、サマリビデオファイルから一部範囲を抽出したサマリビデオファイルを生成する動作である。3つ目の動作(第2−3の動作)は、サマリビデオファイルからATファイルを生成する動作である。
以下では、第2−2の動作をエクスポート動作と呼ぶことがある。サマリビデオファイルから一部範囲を抽出したサマリビデオファイルを、エクスポートファイルと呼ぶことがある。
<第1の動作:サマリビデオファイルの生成動作>
図21A、図21B、図21C、および図21Dは、サマリビデオファイルの生成動作における端末装置1の画面例を示した図である
図21Aに示す画面91aは、例えば、端末装置1がサーバ2にアクセスすると表示される。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、端末装置1のディスプレイに、画面91aを表示する。
画面91aは、事件を検索する画面である。ユーザは、画面91aに表示されているテキストボックスに、サマリビデオファイルを生成したい事件の情報を入力することにより、サマリビデオファイルを生成したい事件を検索できる。
画面91aの例では、事件番号のテキストボックスに、サマリビデオファイルを生成したい事件の事件番号「NJ180425000011003」が入力されている。なお、ユーザは、例えば、サマリビデオファイルを生成したい事件の事件番号が分からなければ、事件が起きた日付、事件種別、警察官名、および分署名の少なくとも1つをテキストボックスに入力することによって、サマリビデオファイルを生成したい事件を検索できる。
図21Bに示す画面91bは、検索結果の画面例を示している。画面91bは、図21Aの画面91aのテキストボックスに検索情報が入力され、「検索」ボタンがクリックされると、端末装置1のディスプレイに表示される。
例えば、端末装置1の制御部21aは、図21Aに示す画面91aの「検索」ボタンがクリックされると、テキストボックスに入力された情報を、サーバ2に送信する。サーバ2の制御部31aは、端末装置1から送信されたテキストボックスに入力された情報に基づいて、ユーザがサマリビデオファイルを生成したい事件を検索する。サーバ2の制御部31aは、事件を検索すると、端末装置1のディスプレイに、図21Bに示す画面91bを表示する。
画面91bには、検索された事件の事件番号「NJ180425000011003」が表示されている。また、画面91bには、検索された事件のフォルダに格納されているファイルの種別一覧が表示されている。
例えば、画面91bの「ICVビデオ」、「BWCビデオ」、「手書きメモ」、および「現場写真」は、検索された事件のフォルダに格納されているファイルの種別を示している。例えば、「ICVビデオ」は、警察車両に搭載されている車載カメラによって撮影されたビデオファイルを意味する。「BWCビデオ」は、ユーザに装着されたウェアラブルカメラによって撮影されたビデオファイルを意味する。
画面91bには、ラジオボタンが表示されている。ユーザは、サマリビデオファイルを生成したいファイルに対応するラジオボタンを選択する。例えば、ユーザは、「ICVビデオ」のビデオファイルのサマリビデオファイルを生成したい場合、「ICVビデオ」に対応するラジオボタンを選択する。また、ユーザは、「BWCビデオ」のビデオファイルのサマリビデオファイルを生成したい場合、「BWCビデオ」に対応するラジオボタンを選択する。
図21Cに示す画面91cは、サマリビデオファイルを生成したいファイルが選択された後の画面例を示している。画面91cでは、「BWCビデオ」が選択されている。
端末装置1の制御部21aは、画面91cに示す「ビデオサマリ」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面91cの例では、「BWCビデオ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルのコピーを、サーバ61に送信する。画面91cの例では、「BWCビデオ」が選択されているので、サーバ2の制御部31aは、ウェアラブルカメラのビデオファイルのコピーを、サーバ61に送信する。
サーバ61の制御部71aは、サーバ2から送信されたビデオファイルを受信すると、受信したビデオファイルの映像を解析してインテリメタデータを生成し、インテリメタファイルを生成する。サーバ61の制御部71aは、インテリメタファイルを生成すると、生成したインテリメタファイルをサーバ2に送信する。
サーバ2は、サーバ61からインテリメタファイルを受信すると、サーバ61に送信したビデオファイルが格納されていたフォルダに格納する。これにより、ビデオファイルと、そのビデオファイルのインテリメタファイルは紐付けられて(同じ事件のフォルダに格納されて)管理される。サーバ2の制御部31aは、サーバ61から受信したインテリメタファイルをフォルダに格納すると、生成するサマリビデオファイルの映像に、メタデータおよびインテリメタデータを表示するか否かを問う画面を、端末装置1のディスプレイに表示する。
図21Dに示す画面91dは、インテリメタファイルがサーバ2のHDD33に格納された後の画面例を示している。画面91dに示すように、端末装置1のディスプレイには、生成するサマリビデオファイルの映像に、メタデータを表示させるか、またインテリメタデータを表示させるかを選択するチェックボックスが表示される。
ユーザは、例えば、生成されるサマリビデオファイルの映像に、メタデータのテキストを表示させたい場合、メタデータに対応するチェックボックスを選択する。また、ユーザは、例えば、生成されるサマリビデオファイルの映像に、インテリメタデータのテキストを表示させたい場合、インテリメタデータに対応するチェックボックスを選択する。ユーザは、メタデータおよびインテリメタデータの2つを選択でき、またいずれか一方を選択できる。また、ユーザは、メタデータおよびインテリメタデータの両方を選択しなくてもよい。
なお、メタデータが選択された場合、サマリビデオファイルの映像には、例えば、メタデータが付加された時刻に、メタデータがテキストで表示される。例えば、ある時刻において、パトライトがONされた場合、サマリビデオファイルの映像のある時刻において、「パトライトON」というテキストが表示される。
また、インテリメタデータが選択された場合、サマリビデオファイルの映像には、例えば、インテリメタデータが関連付けされた時刻に、インテリメタデータがテキストで表示される。例えば、ある時刻において、一定時間、映像に人物が含まれなかった場合、サマリビデオファイルの映像のある時刻において、「人物非検知」というテキストが表示される。
端末装置1の制御部21aは、画面91dの「スタート」ボタンがクリックされると、ユーザが選択したビデオ表示情報(サマリビデオファイルの映像に、メタデータおよびインテリメタデータのテキストを表示させるかの情報)を、サーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ビデオ表示情報を受信すると、フォルダに格納されているビデオファイルと、インテリメタファイルと、端末装置1から受信したビデオ表示情報とを、サーバ62に送信する
サーバ62の制御部81aは、サーバ2から受信した情報に基づいて、サマリビデオファイルを生成する。例えば、サーバ62の制御部81aは、インテリメタファイルのインテリメタデータと、ビデオファイルに付加されているメタデータとに基づいて、ビデオファイルの映像から、所定の映像を抽出し、サマリビデオファイルを生成する。サーバ62の制御部81aは、サマリビデオファイルを生成するとき、サーバ2から受信したビデオ表示情報に基づいて、メタデータまたはインテリメタデータのテキストを、サマリビデオファイルの映像に含める。
サーバ62の制御部81aは、生成したサマリビデオファイルをサーバ2に送信する。サーバ2の制御部31aは、サマリビデオファイルの元となったビデオファイルが格納されているフォルダに、サマリビデオファイルを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、サマリビデオファイルを閲覧できる。
図22は、サマリビデオ生成システムのサマリビデオファイル生成動作例を示したシーケンス図である。端末装置1の制御部21aは、ユーザの操作に応じて、サーバ2にアクセスする。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、事件の検索画面を、端末装置1のディスプレイに表示する(例えば、図21Aの画面91aを参照)。ユーザは、端末装置1のディスプレイの検索画面において、サマリビデオファイルを作成したい事件の検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した、サマリビデオファイルを生成する事件の検索情報を、サーバ2に送信する(ステップS61)。
サーバ2の制御部31aは、HDD33を参照し、ステップS61にて受信した検索情報に基づいて、事件を検索する(ステップS62)。
サーバ2の制御部31aは、ステップS62にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、およびメモの画像ファイル等)の種別情報(例えば、図21Bの画面91bを参照)を、端末装置1のディスプレイに表示する(ステップS63)。
なお、ユーザは、ステップS63の画面において、サマリビデオファイルを生成するファイルを選択する(例えば、図9Bの画面51bのラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択(指定)した、サマリビデオファイルを生成するファイルの情報(例えば、図21Cの画面91cのラジオボタンで選択されたBWCビデオの情報)を、サーバ2に送信する(ステップS64)。
サーバ2の制御部31aは、ステップS64にて受信したファイルの情報に対応するファイル(例えば、ウェアラブルカメラが撮影した映像のビデオファイル)をHDD33から取得し、取得したファイルのコピーを、サーバ61に送信する(ステップS65)。
サーバ61の制御部71aは、ステップS65にて送信されたビデオファイルの映像を解析し、インテリメタファイルを生成する(ステップS66)。
サーバ61の制御部71aは、生成したインテリメタファイルをサーバ2に送信する(ステップS67)。
サーバ2の制御部31aは、ステップS67にて送信されたインテリメタファイルを、インテリメタファイルの生成元となったビデオファイル(ステップS65で送信されたビデオファイル)と紐付けてHDD33に記憶する(ステップS68)。例えば、サーバ2の制御部31aは、インテリメタファイルの生成元となったビデオファイルが格納されているフォルダに、インテリメタファイルを格納する。
サーバ2の制御部31aは、インテリメタファイルをフォルダに格納すると、端末装置1のディスプレイに、メタデータおよびインテリメタデータの選択画面(例えば、図21Dの画面91d)を表示する(ステップS69)。
なお、ユーザは、例えば、生成されるサマリビデオファイルの映像に、メタデータのテキストを表示させたい場合、メタデータに対応するチェックボックスを選択する。また、ユーザは、例えば、生成されるサマリビデオファイルの映像に、インテリメタデータのテキストを表示させたい場合、インテリメタデータに対応するチェックボックスを選択する。
端末装置1の制御部21aは、ユーザが選択したメタデータおよびインテリメタデータの選択情報(ビデオ表示情報)を、サーバ2に送信する(ステップS70)。
サーバ2の制御部31aは、ステップS70にて受信したビデオ表示情報と、ステップS68にてフォルダに格納したインテリメタファイルと、インテリメタファイルの生成元となったビデオファイルとをサーバ62に送信する(ステップS71)。
サーバ62の制御部81aは、ステップS71にて送信されたビデオ表示情報と、インテリメタファイルと、ビデオファイルとから、サマリビデオファイルを生成する(ステップS72)。
サーバ62の制御部81aは、ステップS72にて生成したサマリビデオファイルをサーバ2に送信する(ステップS73)。
サーバ2の制御部31aは、ステップS72にて送信されたサマリビデオファイルを、サマリビデオファイルの元となったビデオファイルと紐付けてHDD33に記憶する(ステップS74)。例えば、サーバ2の制御部31aは、サマリビデオファイルの元となったビデオファイルが格納されているフォルダに、サマリビデオファイルを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、サマリビデオファイルを閲覧できる。
<第2−1の動作:サマリビデオファイルを閲覧する動作>
図23A、図23B、図23C、図23D、および図23Eは、サマリビデオファイルの閲覧動作における端末装置1の画面例を示した図である。
図23Aに示す画面92aは、例えば、端末装置1がサーバ2にアクセスすると表示される。サーバ2の制御部31aは、端末装置1からのアクセスに応じて、端末装置1のディスプレイに、画面92aを表示する。
画面92aは、事件を検索する画面である。ユーザは、画面92aに表示されているテキストボックスに、サマリビデオファイルを閲覧したい事件の情報を入力することにより、サマリビデオファイルを閲覧したい事件を検索できる。
画面92aの例では、事件番号のテキストボックスに、サマリビデオファイルを閲覧したい事件の事件番号「NJ180425000011003」が入力されている。なお、ユーザは、例えば、サマリビデオファイルを閲覧したい事件の事件番号が分からなければ、事件が起きた日付、事件種別、警察官名、および分署名の少なくとも1つをテキストボックスに入力することによって、サマリビデオファイルを閲覧したい事件を検索できる。
図23Bに示す画面92bは、事件の検索後の画面例を示している。画面92bは、例えば、図23Aの「検索」ボタンがクリックされると、端末装置1のディスプレイに表示される。
画面92bには、検索された事件の事件番号「NJ180425000011003」が表示されている。また、画面92bには、検索された事件のフォルダに格納されているファイルの種別一覧が表示されている。
画面92bは、図21Bに示した検索結果の画面91bと異なり、「サマリビデオ」のファイル情報が追加されている。すなわち、事件番号「NJ180425000011003」の事件は、サマリビデオファイルが生成されたため、画面92bには「サマリビデオ」のファイル情報が追加されている。
画面92bには、ラジオボタンが表示されている。ユーザは、閲覧または視聴したいファイルに対応するラジオボタンを選択する。
例えば、ユーザは、「サマリビデオ」を視聴したい場合(すなわち、サーバ62で生成されたサマリビデオファイルを視聴したい場合)、「サマリビデオ」に対応するラジオボタンを選択する。
図23Cに示す画面92cは、閲覧または視聴したいファイルが選択された後の画面例を示している。画面92cでは、「サマリビデオ」が選択されている。
端末装置1の制御部21aは、画面92cに示す「閲覧」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面92cの例では、「サマリビデオ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルの映像を、端末装置1に表示する。画面92cの例では、「サマリビデオ」が選択されているので、サーバ2の制御部31aは、検索した事件のフォルダに格納されているサマリビデオファイルを抽出し、サマリビデオファイルの映像を端末装置1のディスプレイに表示する。
図23Dに示す画面92dは、サマリビデオファイルの映像が表示された画面例を示している。ユーザは、端末装置1のディスプレイにおいて、ビデオの再生、一時停止、停止、早送り、および早戻し等の操作をし、サマリビデオファイルを視聴できる。
図24は、サマリビデオ生成システムのサマリビデオファイル再生動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、サマリビデオファイルを視聴したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS81)。
サーバ2の制御部31aは、HDD33を参照し、ステップS81にて受信した検索情報に基づいて、事件を検索する(ステップS82)。
サーバ2の制御部31aは、ステップS82にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびサマリビデオファイル等)の種別情報(例えば、図23Bの画面92bを参照)を、端末装置1のディスプレイに表示する(ステップS83)。
なお、ユーザは、ステップS83の画面において、サマリビデオファイルを選択する(例えば、図23Cの画面92cの「サマリビデオ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(サマリビデオファイルを選択した情報)を、サーバ2に送信する(ステップS84)。
サーバ2の制御部31aは、ステップS84にて送信された、ユーザが選択した情報のファイル(サマリビデオファイル)の映像(例えば、図23Dの画面92dを参照)を、端末装置1のディスプレイに表示する(ステップS85)。
なお、端末装置1のディスプレイには、再生、一時停止、停止、早送り、および早戻し等のボタンが表示されている(例えば、図23Dの画面92dを参照)。ユーザは、これらのボタンをクリックすることにより、ビデオの再生、一時停止、停止、早送り、および早戻し等の操作ができる。
<第2−2の動作:エクスポート動作>
図25は、エクスポート動作における端末装置1の画面例を示した図である。
図25に示す画面101は、閲覧または視聴したいファイルが選択された後の画面例を示している。画面101は、例えば、図23Dで説明した画面92dに対応している。例えば、画面101は、サーバ2によって事件が検索された後、検索された事件のフォルダ内のファイルの情報が端末装置1のディスプレイに表示され、視聴したいサマリビデオファイルがユーザによって選択された後の画面例を示している。画面101には、サマリビデオファイルの映像が表示される。
ユーザは、例えば、端末装置1のディスプレイに表示されている再生、一時停止、停止、早送り、および早戻し等のボタンをクリックし、サマリビデオファイルを閲覧する。ユーザは、サマリビデオを視聴した結果、サマリビデオファイルの映像からエクスポートしたい範囲を、端末装置1のディスプレイで指定する。
例えば、ユーザは、エクスポートしたいサマリビデオの開始時間を、端末装置1のディスプレイで指定する。また、ユーザは、エクスポートしたいサマリビデオの終了時間を、端末装置1のディスプレイで指定する。
画面101の例では、エクスポートを開始する「開始時間」のテキストボックスに「12:25」が入力されている。また、画面101の例では、エクスポートを終了する「終了時間」のテキストボックスに「12:32」が入力されている。
ユーザは、例えば、ビデオの閲覧中に、エクスポートを開始したい映像が表示されると、画面101の「選択」ボタンをクリックしてもよい。端末装置1の制御部21aは、「選択」ボタンのクリックに応じて、再生しているビデオ内での時刻を、「開始時間」のテキストボックスに入力してもよい。端末装置1の制御部21aは、「選択」ボタンが次にクリックされると、再生しているビデオ内での時刻を、「終了時間」のテキストボックスに入力してもよい。
端末装置1の制御部21aは、サマリビデオファイルのエクスポート範囲が指定され、「エクスポート」ボタンがクリックされると、画面101で入力されたエクスポート範囲の情報を、サーバ2に送信する。
サーバ2の制御部31aは、端末装置1から送信されたエクスポート範囲の情報に基づいて、サマリビデオファイルのコピーファイルを編集する。例えば、サーバ2の制御部31aは、コピーファイルのエクスポート範囲外の映像を削除してエクスポートファイルを生成する。これにより、ユーザは、サマリビデオファイルから、ユーザが範囲指定した映像のビデオファイルを取得できる。
図26は、文書作成システムのエクスポート動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、エクスポートファイルを作成したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS91)。
サーバ2の制御部31aは、HDD33を参照し、ステップS91にて受信した検索情報に基づいて、事件を検索する(ステップS92)。
サーバ2の制御部31aは、ステップS92にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびサマリビデオファイル等)の種別情報(例えば、図23Bの画面92bを参照)を、端末装置1のディスプレイに表示する(ステップS93)。
なお、ユーザは、ステップS93にて端末装置1のディスプレイに表示された画面において、サマリビデオファイルを選択する(例えば、図23Cの画面92cの「サマリビデオ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(サマリビデオファイルを選択した情報)を、サーバ2に送信する(ステップS94)。
サーバ2の制御部31aは、ステップS94にて送信された、ユーザが選択した情報のファイル(サマリビデオファイル)の映像(例えば、図25の画面101を参照)を、端末装置1のディスプレイに表示する(ステップS95)。
ユーザは、端末装置1のディスプレイに表示されるビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。例えば、ユーザは、映像内における時刻によって、エクスポートファイルを作成したい範囲を指定できる(例えば、図25の画面101の開始時間および終了時間を参照)。ユーザは、ビデオを再生および早戻し等の操作を行って、繰り返しビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。
端末装置1の制御部21aは、ユーザが指定したエクスポート範囲をサーバ2に送信する(ステップS96)。
サーバ2の制御部31aは、ステップS96にて送信されたエクスポート範囲に基づいて、サマリビデオファイルのコピーファイルの映像を編集し(例えば、エクスポート範囲外の映像を削除し)、エクスポートファイルを生成する(ステップS97)。
サーバ2の制御部31aは、ステップS97にて生成したエクスポートファイルを、サマリビデオファイルと紐付けてHDD33に記憶する(ステップS98)。例えば、サーバ2の制御部31aは、エクスポートファイルの元となったサマリビデオファイルが格納されているフォルダに、エクスポートファイルを格納する。これにより、ユーザは、サマリビデオファイルから、ユーザが範囲指定した映像のビデオファイルを取得できる。
<第2−3の動作:サマリビデオファイルからATファイルを生成する動作>
図27は、ATファイルの生成動作における端末装置1の画面例を示した図である。
図27に示す画面102は、ATファイルを生成したいファイルが選択された後の画面例を示している。画面102は、例えば、図23Cで説明した画面92cに対応している。画面102では、「サマリビデオ」が選択されている。
ユーザは、サマリビデオファイルの映像のATファイルを生成したい場合、画面101の「音声テキスト化」ボタンをクリックする。
端末装置1の制御部21aは、画面102に示す「音声テキスト化」ボタンがクリックされると、ユーザがラジオボタンで選択したファイルの情報(画面102の例では、「サマリビデオ」の情報)をサーバ2に送信する。
サーバ2の制御部31aは、端末装置1から、ユーザがラジオボタンで選択したファイルの情報を受信すると、受信した情報に対応するファイルのコピーを、第1の実施の形態で説明したサーバ3に送信する。画面101の例では、「サマリビデオ」が選択されているので、サーバ2の制御部31aは、サマリビデオファイルのコピーを、サーバ3に送信する。
サーバ3の制御部41aは、サーバ2から送信されたサマリビデオファイルを受信すると、音声データを抽出し、テキストデータに変換する。そして、サーバ3の制御部41aは、例えば、図4に示したようなATファイルを生成する。サーバ3の制御部41aは、ATファイルを生成すると、生成したATファイルをサーバ2に送信する。
サーバ2の制御部31aは、サーバ3からATファイルを受信すると、サーバ3に送信したサマリビデオファイルが格納されていたフォルダに格納する。これにより、サマリビデオファイルと、そのサマリビデオファイルのATファイルは紐付けられて(同じ事件のフォルダに格納されて)管理される。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、サマリビデオファイルのATファイルを閲覧できる。
図28は、サマリビデオ生成システムのATファイル生成動作例を示したシーケンス図である。ユーザは、端末装置1を用いて、ATファイルを作成したい事件を検索するため、検索情報を入力する。
端末装置1の制御部21aは、ユーザが入力した検索情報を、サーバ2に送信する(ステップS101)。
サーバ2の制御部31aは、HDD33を参照し、ステップS101にて送信された検索情報に基づいて、事件を検索する(ステップS102)。
サーバ2の制御部31aは、ステップS102にて検索した事件のフォルダに記憶されているファイル(例えば、ビデオファイル、音声ファイル、メモの画像ファイル、およびサマリビデオファイル等)の種別情報(例えば、図23Bの画面92bを参照)を、端末装置1のディスプレイに表示する(ステップS103)。
なお、ユーザは、ステップS103の画面において、サマリビデオファイルを選択する(例えば、図27の画面102の「サマリビデオ」に対応するラジオボタンを選択する)。
端末装置1の制御部21aは、ユーザが選択した情報(サマリビデオファイルを選択した情報)を、サーバ2に送信する(ステップS104)。
サーバ2の制御部31aは、ステップS104にて送信された、ユーザが選択した情報のファイル(サマリビデオファイル)の映像を、端末装置1のディスプレイに表示する(ステップS105)。
ユーザは、端末装置1のディスプレイに表示されるビデオを視聴し、ATファイルを作成したい範囲を指定できる。例えば、ユーザは、映像内における時刻によって、ATファイルを作成したい範囲を指定できる。ユーザは、ビデオを再生および早戻し等の操作を行って、繰り返しビデオを視聴し、エクスポートファイルを作成したい範囲を指定できる。
サーバ2の制御部31aは、ユーザが指定したATファイルの範囲と、ATファイルの生成指示とをサーバ2に送信する(ステップS106)。
サーバ2の制御部31aは、ステップS106にて送信されたATファイルの生成指示を受信すると、ステップS105にて再生したサマリビデオファイルをコピーし、サーバ3に送信する(ステップS107)。また、サーバ2の制御部31aは、ステップS106にて送信されたATファイルの範囲をサーバ3に送信する。
サーバ3の制御部41aは、ステップS107にて送信されたATファイルの範囲において、ステップS107にて送信されたサマリビデオファイルに含まれる音声をテキスト化する(ステップS108)。
サーバ3の制御部41aは、テキスト化されたデータを含むATファイルをサーバ2に送信する(ステップS109)。
サーバ2の制御部31aは、ステップS109にて送信されたATファイルを、テキスト化されたビデオファイル(ステップS107で送信されたサマリビデオファイル)と紐付けてHDD33に記憶する(ステップS110)。例えば、サーバ2の制御部31aは、テキスト化されたサマリビデオファイルが格納されているフォルダに、ATファイルを格納する。
これにより、ユーザは、例えば、サーバ2で管理されている事件のフォルダにアクセスすることにより、ATファイルを閲覧できる。
以上説明したように、情報処理装置を構成するサーバ2の制御部31aは、警察官に装着または所持されたウェアラブルカメラまたは警察車両に搭載された車載カメラが撮影した映像のビデオファイルを記憶したHDD33から、端末装置1において指定されたビデオファイルを取得する。情報処理装置を構成するサーバ61の制御部71aは、サーバ2によって取得されたビデオファイルの映像を解析して事件に関するインテリメタデータを生成する。情報処理装置を構成するサーバ62の制御部81aは、サーバ61が生成したインテリメタデータに基づいて、ビデオファイルから、事件のレポート対象となる映像部分を抽出したサマリビデオファイルを生成する。情報処理装置を構成するサーバ2の通信インターフェース34は、サーバ62によって生成されたサマリビデオファイルのデータを端末装置1に送信する。このように、情報処理装置は、カメラが撮影した映像のビデオファイルから、レポート対象となる部分の映像を含むサマリビデオファイルを生成するので、ユーザの事件に関するレポートの作成が容易になる。
なお、上記では、インテリメタデータは、ビデオファイルとは別のファイルで管理されるとしたが、これに限られない。インテリメタデータは、ビデオファイルのビデオデータに付加されてもよい。
上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
上記で説明したサーバ2の制御部31aは、カメラが撮影した事件に関する映像のビデオファイルを記憶したHDD33から、端末装置1において指定されたビデオファイルを取得する取得部として機能してもよい。また、サーバ3の制御部41aは、ビデオファイルに含まれる音声データを抽出し、抽出した音声データをテキストデータに変換する変換部として機能してもよい。また、サーバ2の通信インターフェース34は、テキストデータ(ATファイル)を端末装置1に送信する送信部として機能してもよい。また、サーバ3の制御部41aは、端末装置1から指定されたファイル形式において、ATファイルを生成する生成部として機能してもよい。
また、サーバ2の制御部31aは、カメラが撮影した事件に関する映像のビデオファイルを記憶したHDD33から、端末装置1において指定されたビデオファイルを取得する取得部として機能してもよい。また、サーバ61の制御部71aは、ビデオファイルの映像を解析してインテリメタデータを生成する生成部として機能してもよい。また、サーバ62の制御部81aは、サーバ61が生成したインテリメタデータに基づいて、ビデオファイルの映像の一部を削除したサマリビデオファイルを生成する生成部として機能してもよい。また、サーバ2の通信インターフェース34は、サーバ62によって生成されたサマリビデオファイルの映像データを端末装置1に送信する送信部として機能してもよい。