JP6930421B2 - 情報処理システム、情報処理方法、記録媒体、および、プログラム - Google Patents

情報処理システム、情報処理方法、記録媒体、および、プログラム Download PDF

Info

Publication number
JP6930421B2
JP6930421B2 JP2017532396A JP2017532396A JP6930421B2 JP 6930421 B2 JP6930421 B2 JP 6930421B2 JP 2017532396 A JP2017532396 A JP 2017532396A JP 2017532396 A JP2017532396 A JP 2017532396A JP 6930421 B2 JP6930421 B2 JP 6930421B2
Authority
JP
Japan
Prior art keywords
data
time
moving image
image data
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017532396A
Other languages
English (en)
Other versions
JPWO2017022286A1 (ja
Inventor
宏 岩波
宏 岩波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2017022286A1 publication Critical patent/JPWO2017022286A1/ja
Application granted granted Critical
Publication of JP6930421B2 publication Critical patent/JP6930421B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Description

本開示は、情報処理システム、情報処理方法、および記録媒体に関する。
一般的に、ビデオなどの映像データ(動画像)は、静止画像に比べて、その時の様子やその瞬間に至る前後の様子を連続的に記録することができるため、被写体や事象を長時間観察する際に有効である。
また、このような動画像の再生技術に関して、例えば下記特許文献1には、記録中の動画像の所定時間間隔毎にユーザ入力に基づくお気に入り度合いを設定し、また、設定したお気に入り度合いの変化を示すグラフを動画像と共に表示することで、お気に入り度合いが対応付けられている部分を抽出して再生することができる情報処理装置が記載されている。
特開2013−214985号公報
しかしながら、長時間の動画像から所望のポイント(シーン)を探す場合、動画像の最初のシーンから再生して全ての映像を注視して観察しなければならず、多くの時間と労力がかかっていた。また、従来技術では、ユーザ入力に基づいて設定されたお気に入り度合いや盛り上がりシーン検出等により所望するシーンを抽出して再生することが可能であるが、動画像の画像解析結果以外からのデータ(例えばセンサデータ)も対応付けて再生ポイントを検索することまでは何ら言及されていない。
そこで、本開示では、動画像に関連する画像解析以外のデータのグラフを用いて動画像の検索を支援することが可能な情報処理システム、情報処理方法、および記録媒体を提案する。
本開示によれば、動画像データを取得する動画像データ取得部と、前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、前記動画像データの画像解析を行い、画像解析結果データを生成する画像信号処理部と、前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成する制御部と、を備える、情報処理システムを提案する。
本開示によれば、プロセッサが、動画像データを取得することと、前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信することと、前記動画像データの画像解析を行い、画像解析結果データを生成することと、前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成すること、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、動画像データを取得する動画像データ取得部と、前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、前記動画像データの画像解析を行い、画像解析結果データを生成する画像信号処理部と、前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成する制御部と、として機能させるためのプログラムが記録された、コンピュータ読み取り可能な記録媒体を提案する。
以上説明したように本開示によれば、動画像に関連する画像解析以外のデータのグラフを用いて動画像の検索を支援することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による動画像検索システムの概要について説明する図である。 第1の実施形態による動画像検索システムの概要を説明する図である。 第1の実施形態による情報処理装置の構成例を示すブロック図である。 第1の実施形態による録画処理を示すフローチャートである。 第1の実施形態による再生処理を示すフローチャートである。 第1の実施形態による表示画面例を示す図である。 第1の実施形態によるマーキング処理を示すフローチャートである。 第1の実施形態による応用例について説明する図である。 第2の実施形態による動画像検索システムの概要を説明する図である。 第2の実施形態による情報処理装置の構成例を示すブロック図である。 第2の実施形態によるデータ選択画面の一例を示す図である。 第2の実施形態による表示画面の一例を示す図である。 第3の実施形態による動画像検索システムの概要を説明する図である。 第3の実施形態による録画処理を示すフローチャートである。 第3の実施形態による再生処理を示すフローチャートである。 第3の実施形態による表示画面例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による動画像検索システムの概要
2.各実施形態
2−1.第1の実施形態
(2−1−1.構成)
(2−1−2.動作処理)
(2−1−3.応用例)
2−2.第2の実施形態
2−3.第3の実施形態
3.まとめ
<<1.本開示の一実施形態による動画像検索システムの概要>>
図1は、本開示の一実施形態による動画像検索システムの概要について説明する図である。図1に示すように、本実施形態による動画像検索システムは、ユーザが情報処理装置10を用いて、例えば監視カメラ(図2に示すカメラ11a参照)により撮像された映像を確認する際における映像検索の支援を可能とする。
近年、防犯上の観点から、一般家庭においても監視カメラが普及し、自宅の玄関やベランダ等に設置されている。しかしながら監視カメラの映像は十数時間から数百時間に及ぶ場合があり、このような長い映像を最初から最後まで確認して異常を発見することは非常に困難である。
そこで、本実施形態では、例えばユーザが監視カメラの映像のような長時間の動画像から空き巣が家に侵入したシーン等の特定の再生ポイント(すなわち撮影時刻)を探す際に、撮像画像に関連するデータのグラフ(撮影時刻に対応する所定時間間隔毎のデータ変化を示す図表)を併せて表示し、ユーザの映像検索の負担を軽減させる。
より具体的には、例えば図1に示すように、情報処理装置10は、動画像データ211と共に、撮影時におけるドアセンサデータ、撮影時刻に対応する犯罪発生頻度データ、および動画像データ211の画像解析結果に基づく特定の不審な動作の回数を示す各グラフ212を表示する。動画像データ211は、例えばドア付近に設置された監視カメラの映像である。監視カメラ(カメラ11a)は、ドア付近やドアの前の通路等を撮影し、通路やドアを出入りする人物を長時間撮影することが可能である。また、ドアセンサデータは、ドアの開閉を検知するセンサにより検出されたデータである。また、撮影時刻に対応する犯罪発生頻度データとは、例えば撮影時刻(曜日、時刻、季節等のパターンであってもよい)に対応する、撮影場所付近(例えば地域単位)の空き巣発生頻度データである。かかる空き巣発生頻度データは、クラウド上の専用サーバから取得され得る。また、画像解析結果に基づく特定の不審な動作とは、例えば辺りを見回す動作である。
上記グラフの時間軸はいずれも動画像の撮影時刻(撮影開始から撮影終了)に対応し、ユーザはグラフ212を見るだけで直感的にどの時刻辺りで異常が発生しているかを容易に把握し、動画像の再生ポイントを指定することができる。
また、情報処理装置10は、図1に示すように、上記各グラフの時間軸方向の軸の長さに対応する、所望の時刻の画像を指定するためのシークバー215および各データに基づくマーキング結果を示すマーク結果バー214を併せて表示し得る。マーク結果バー21では、各データがいずれも所定の条件を満たす時刻にマーキングが行われている。例えば、ドアが開閉し、犯罪発生頻度が所定の閾値を上回り、かつ撮像画像に写る被写体の辺りを見回す動作の回数が所定の閾値を上回る時刻にマーキングが行われる。このような時刻の映像には、不審な人物が映っている可能性が高いため、ユーザはシークバー215を操作して当該時刻の映像を再生し、異常が発生しているか否かを容易に確認することができる。
以上説明した本開示の一実施形態による動画像検索システムの具体的な構成例および動作処理について、複数の実施形態を用いて以下具体的に説明する。
<<2.各実施形態>>
<2−1.第1の実施形態>
まず、図2〜図7を参照して本開示の第1の実施形態による動画像検索システムについて説明する。本実施形態による動画像検索システムは、情報処理装置10aにより実行される。
図2は、第1の実施形態による動画像検索システムの概要を説明する図である。図2に示すように、本実施形態による情報処理装置10aは、ドア付近を撮像するカメラ11aから撮像された動画像データを取得し、ドアの開閉を検知するセンサ12aから検知されたドア開閉センサデータを取得し、クラウド15aから犯罪統計DB(データベース)に格納された空き巣発生頻度データを取得する。
情報処理装置10aは、録画処理として、カメラ11aにより撮像された動画像データと、撮影時刻に対応する空き巣発生頻度データ、撮影時に取得したドア開閉センサデータ、および動画像データの画像解析結果とを記憶する。また、情報処理装置10aは、再生処理として、動画像データと共に、空き巣発生頻度データ、ドア開閉センサデータ、および画像解析結果に基づく各グラフを表示することで、ユーザの映像検索を支援することが可能となる。すなわち、例えば空き巣発生頻度が高く、かつドア開閉が検知され、さらに画像解析結果により被写体の不審な動きが検出されている時刻の映像には、侵入者が侵入している瞬間等が映っている可能性が高いため、ユーザは長時間の全ての映像を確認することなく、所望のシーンを検索することができる。特に画像解析以外のセンサデータや時系列データが動画像データの時間軸に対応するグラフで表示されることで、ユーザは所望のシーンの時間軸上のポイント(すなわち時刻)を直感的に把握することができる。
(2−1−1.構成)
続いて、上述した第1の実施形態による情報処理装置10aの構成について、図3を参照して説明する。図3は、第1の実施形態による情報処理装置10aの構成例を示すブロック図である。
図3に示すように、本実施形態による情報処理装置10aは、制御部101と、画像信号処理部102と、入力デバイス103と、入力信号処理部104と、カレンダー・タイマー部105と、記憶部106と、外部記憶部107と、表示処理部108と、表示デバイス109と、I/F(interface)110と、NW(network)I/F111とを含む。ここで、本実施形態による情報処理装置10aは、図2に示すようなPC(パーソナルコンピュータ)により実現されてもよいし、スマートフォン、携帯電話端末、タブレット端末、ウェアラブル装置、ゲーム機、音楽プレーヤー等により実現されてもよい。
制御部101は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10a内の動作全般を制御する。制御部101は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。
また、本実施形態による制御部101は、記憶制御部1011、マーキング部1012、インタフェース生成部1013としても機能する。記憶制御部1011は、カメラ11aにより撮像された動画像データと、撮影時刻に対応する空き巣発生頻度データ、撮影時に取得したドア開閉センサデータ、および動画像データの画像解析結果とを記憶部106または外部記憶部107に記憶するよう制御する。なおここでは、センサ12aから取得するセンサデータとしてドア開閉センサのセンサデータ、また、クラウド15aから取得する撮影時刻に対応する時系列データとして犯罪統計データ(例えば空き巣発生頻度データ)、画像解析結果データとして辺りを見回す動作回数データを一例として用いる。
また、マーキング部1012は、撮影場所の撮影時刻に対応する所定の事象の時系列データ(例えば自宅周辺地域における平日の空き巣発生頻度データ等)、撮影時に取得したセンサデータ(例えばドア開閉センサデータ)、および動画像データの画像解析結果データの少なくともいずれかを含む複数のデータに基づいて、所定時刻にマーキングを行う。マーキングは、対象となる複数のデータのいずれにも所定の条件を満たすことを示すフラグがセットされている時刻に行われ得る。フラグ処理については、図4のフローチャートを参照して後述する。また、マーキング部1012は、ユーザにより選択された複数のデータに基づいてマーキングを行ってもよい。
また、インタフェース生成部1013は、表示デバイス109に表示する各種インタフェース(すなわち表示画面)を生成する画面生成部として機能する。具体的には、例えばインタフェース生成部1013は、センサデータ、時系列データ、および画像解析結果データのうち少なくともいずれかをマーキング処理に用いるデータとして選択するためのユーザインタフェースも生成する。また、インタフェース生成部1013は、動画像データと、センサデータ、時系列データ、および画像解析結果データのうち少なくともいずれかを含む複数のデータのグラフとを含むインタフェースを生成する。当該インタフェースに表示されるグラフは、マーキング処理に用いるデータとして選択されたグラフのみであってもよいし、選択有無に関わらず全てのデータのグラフであってもよい。また、インタフェース生成部1013は、上記グラフの時間軸方向の軸の長さに対応する、所望の時刻の画像を指定するためのシークバーおよび、マーキングした時刻を示すためマーク結果バーをさらに含むインタフェースを生成し得る。
記憶部106は、制御部101の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
外部記憶部107は、例えばカメラ11aにより撮像された画像と、センサデータ、時系列データ、および画像解析結果等を格納するHDD(Hard Disc Drive)、またはSSD(Solid State Drive)等の記憶媒体である。
画像信号処理部102は、カメラ11により撮像された撮像画像の各種処理を行い、撮像画像を整える。例えば画像信号処理部102は、撮像画像の変換、調整、ノイズ除去、エッジ検出(画像の強調)等を行う。カメラ11aからの撮像画像データ(画像信号)は、有線/無線によりI/F110を介して入力される。また、画像信号処理部102は、整えた撮像画像に対して画像解析を行い、被写体の所定の動作を検出し、所定時間間隔毎の所定動作の回数等を画像解析結果データとして制御部101に出力する。
入力デバイス103は、キーボード、マウス、タッチパネル、スイッチ、またはボタン等により実現され、ユーザによる操作入力を検出し、検出した入力信号を入力信号処理部104に出力する。また、入力デバイス103は、マイクロホンにより実現されてもよい。
入力信号処理部104は、入力デバイス103から入力された入力信号や、I/F110を介して入力されたセンサ12aのセンサデータ、NW
I/F111を介して入力されたクラウド15aの時系列データに対する各種入力信号処理を行い、整えた入力情報を制御部101に出力する。例えば入力信号処理部104は、入力信号の変換(例えば復号、復元)、ノイズ除去、波形処理等を行う。
カレンダー・タイマー部105は、時間の計測を行い、計時情報を制御部101に出力する。
表示処理部108は、制御部101から出力された情報を表示デバイス109に出力するための各種処理を行う。例えば表示処理部108は、出力情報の変換、輝度調整等を行い得る。
表示デバイス109は、出力装置の一例であって、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置により実現される。本実施形態による表示デバイス109は、制御部101の制御にしたがって、インタフェース生成部1013により生成され、表示処理部108で調整されたインタフェースを画面に表示する。
I/F110は、カメラ11aおよびセンサ12aからのデータを、有線/無線により取得するデータ取得部として機能する。また、I/F110は、撮像画像が記録された記録媒体からデータを読み取ることでデータを取得してもよい。また、NW
I/F111は、ネットワーク(不図示)を介してクラウド15aからのデータを有線/無線により取得する受信部として機能する。また、NW I/F111は、カメラ11aおよびセンサ12aからのデータをネットワークを介して、若しくは近距離通信により受信してもよい。
以上、本実施形態による情報処理装置10aの構成について具体的に説明した。なお情報処理装置10aの構成は図3に示す例に限定されない。例えばマーキング部1012を有してなくともよく、その場合は再生時にマーク結果バーが表示されないが、センサデータや時系列データのグラフを提示することで映像検索を支援し得る。また、入力デバイス103、および表示デバイス109が別体であって、情報処理装置10aと有線/無線により接続される構成であってもよい。また、画像信号処理部102による画像解析機能を制御部101に持たせてもよいし、制御部101によるインタフェース生成機能を表示処理部108に持たせてもよい。
(2−1−2.動作処理)
続いて、上記構成を有する情報処理装置10aの動作処理について図4〜図7を参照して具体的に説明する。
図4は、本実施形態による録画処理を示すフローチャートである。図4に示すように、情報処理装置10aは、カメラ11aから継続的に撮像画像データを取得する(ステップS103)。
次に、情報処理装置10aは、クラウド15aから撮影時刻に対応する犯罪統計データ(例えば空き巣発生頻度データ)を取得する(ステップS106)。撮影時刻に対応する犯罪統計データとは、例えば撮影場所周辺地域における撮影当日の曜日、季節、撮影時刻に応じた統計データである。情報処理装置10aは、例えば7月の平日における所定時間間隔毎の犯罪統計データを予め取得して外部記憶部107に記憶し、必要なデータを適宜取り出すようにしてもよい。
次いで、情報処理装置10aの制御部101は、時間軸上の対象ポイントにおける犯罪統計データで示される値を、予め設定した所定の閾値C thと比較する(ステップS109)。ここで、時間軸上の対象ポイントとは、録画対象となる動画像の撮影時刻であって、例えば撮像画像データをリアルタイムに記憶(すなわち録画)する場合は、現在時刻となる。制御部101は、時間軸上の所定ポイント毎(すなわち所定時間間隔毎)にステップS109〜S139の処理を繰り返し、撮像画像データに関連する犯罪統計データやセンサデータ等のフラグ処理を行う。
次に、犯罪統計データで示される値が閾値C thを上回る場合(ステップS109/Yes)、制御部101は、対象ポイントにおいて犯罪統計データが条件を満たすことを示すフラグCをTrueにセットする(ステップS112)。
一方、犯罪統計データで示される値が閾値C thを上回らない場合(ステップS109/No)、制御部101は、対象ポイントにおいて犯罪統計データが条件を満たすことを示すフラグCをFalseにセットする(ステップS115)。
次いで、制御部101は、画像信号処理部102による撮像画像データの画像解析結果に基づき、被写体が辺りを見回す動作の頻度Gを算出し(ステップS118)、時間軸上の同対象ポイントにおける辺りを見回す動作の頻度Gを、予め設定した所定の閾値G thと比較する(ステップS121)。
次に、辺りを見回す動作の頻度Gが閾値G thを上回る場合(ステップS118/Yes)、制御部101は、同対象ポイントにおいて被写体が辺りを見回す動作(画像解析結果データの一例)が条件を満たすことを示すフラグGをTrueにセットする(ステップS124)。
一方、辺りを見回す動作の頻度Gが閾値G thを上回らない場合(ステップS121/No)、制御部101は、同対象ポイントにおいて被写体が辺りを見回す動作が条件を満たすことを示すフラグGをFalseにセットする(ステップS127)。
次いで、制御部101は、ドア開閉を検知するセンサ12aから開閉検知データを取得した場合(ステップS130/Yes)、同対象ポイントにおいてドア開閉センサデータが条件を満たすことを示すフラグSをTrueにセットする(ステップS133)。
一方、制御部101は、ドア開閉を検知するセンサ12aから開閉検知データを取得しなかった場合(ステップS130/No)、同対象ポイントにおいてドア開閉センサデータが条件を満たすことを示すフラグSをFalseにセットする(ステップS136)。
そして、制御部101は、記憶制御部1011により、カメラ11aから取得した撮像画像データと、クラウド15aから取得した時系列データの一例である犯罪統計データと、画像解析結果データと、ドア開閉センサデータとを外部記憶部107に記憶するよう制御する(ステップS139)。また、犯罪統計データ、画像解析結果データ、およびセンサデータに基づくフラグ処理の結果は、各データに紐付けられていてもよいし、フラグデータとして別途記憶されていてもよい。
以上説明したステップS106〜S139は、録画終了まで繰り返される(ステップS142)。本実施形態では、カメラ11aにより取得された撮影画像を記録する際に、記録対象の撮影画像の撮影時刻ポイントにおける関連データ(センサデータ、画像解析結果データ、および時系列データ)のフラグ処理(対象ポイントにおいて当該データが所定の条件を満たすか否か)を行っている。フラグ処理に用いるデータの種類は上記例に限定されず、さらに様々なセンサデータや時系列データを用いてもよい。また、多数のデータからユーザが予め選択したデータを記憶するようにしてもよい。
以上、第1の実施形態による録画処理について具体的に説明した。続いて、図5を参照して、録画した動画像データの再生時の処理について説明する。
図5は、本実施形態による再生処理を示すフローチャートである。図5に示すように、まず、情報処理装置10aの制御部101は、入力デバイス103からのユーザ操作に基づく再生指示に応じて、記憶された撮像画像データ(具体的には、例えば録画済みの監視カメラ映像)を取得する(ステップS153)。
次に、制御部101は、マーキング処理に用いるデータをユーザに選択させるためのデータ選択画面を表示デバイス109に表示させるよう制御する(ステップS156)。より具体的には、制御部101は、インタフェース生成部1013により生成された選択画面を表示処理部108に出力し、表示デバイス109に表示させる。かかる選択画面では、例えばセンサデータ、画像解析データ、および時系列データのうち少なくともいずれかを含む複数のデータを選択し得る。
次いで、制御部101は、マーキング部1012により、選択されたデータに基づくマーキング処理を行う(ステップS159)。マーキング処理については、図6を参照して後述する。
次に、制御部101は、撮像画像データ、選択されたデータのグラフ、およびマーク結果を含む画面をインタフェース生成部1013により生成し、表示デバイス109に表示させる(ステップS162)。ここで、表示画面の一例を図6に示す。
図6は、本実施形態による表示画面例を示す図である。図示された例では、画面210に、動画像データ211と、ドアセンサデータ、犯罪発生頻度データ、および辺りを見回す動作回数を示す各グラフ212と、マーキング結果を示すマーク結果バー214と、画像再生位置を指定するシークバー215とが表示されている。シークバー215およびマーク結果バー214は、各グラフ212の時間軸方向の軸の長さに対応するよう表示されている。また、画面210には、各データのグラフ212に対応する位置にデータ選択用のチェックボックス213(選択画面の一例)が表示されている。このように、制御部101は、全データのグラフ212と、チェックボックス213で選択されたデータを採用してマークした結果を示すマーク結果バー214とを表示することも可能である。
これによりユーザは、長時間に及ぶ監視カメラの映像を全て確認することなく、グラフ212や選択したデータを用いたマーク結果バー214を参照して、異常が発生した時刻(例えば侵入者が入る瞬間)を把握することができる。
そして、制御部101は、ユーザによるシークバー215の操作に応じて、指示された再生ポイントの撮像画像データを再生する(ステップS165)。すなわち、ユーザは、グラフ212や選択したデータを用いたマーク結果バー214を参照して、異常が発生した可能性の高い時刻を把握し、シークバー215を操作してその時刻前後を再生することができる。このように、本実施形態では、ユーザによる映像検索を支援することが可能となる。
次いで、上記S159に示すマーキング処理について図7を参照して具体的に説明する。図7は、本実施形態によるマーキング処理を示すフローチャートである。図7に示すように、まず、情報処理装置10aのマーキング部1012は、ユーザによりドアセンサデータが選択されているか否かを判断し(ステップS173)、選択されている場合はS_Enable = Trueにセットし(ステップS175)、選択されていない場合はS_Enable = Falseにセットする(ステップS178)。
次に、マーキング部1012は、ユーザにより犯罪統計データが選択されているか否かを判断し(ステップS181)、選択されている場合はC_Enable = Trueにセットし(ステップS184)、選択されていない場合はC_Enable = Falseにセットする(ステップS187)。
次いで、マーキング部1012は、ユーザにより辺りを見回す動作が選択されているか否かを判断し(ステップS190)、選択されている場合はG_Enable = Trueにセットし(ステップS193)、選択されていない場合はG_Enable = Falseにセットする(ステップS196)。
そして、マーキング部1012は、論理積{(S && S_Enable)&&(C && C_Enable)&&(G
&& G_Enable)}を求め、選択されたデータのフラグ全てがTrue にセットされている時刻をマーキングする(ステップS199)。
(2−1−3.応用例)
以上説明した第1の実施形態は、監視カメラの映像から空き巣侵入等の異常があった部分を検索する際の支援を想定しているため、ドア開閉センサデータ、犯罪統計データ、および被写体の辺りを見回す動作解析結果データを用いているが、本実施形態はこれに限定されない。例えば本実施形態による動画像検索システムは、他の状況においても、所定の動画像の検索支援を行うことが可能である。以下、図8を参照して説明する。
図8は、第1の実施形態による応用例について説明する図である。図8に示すように、例えば講演や講義等が行われている際に聴衆を据え置きカメラ等のカメラ11bで撮像した動画像データから所望の再生ポイントを検索する際にも、本実施形態による動画像検索システムを用いることが可能である。
この場合、動画像検索システムを実行する情報処理装置10bは、カメラ11bから聴衆を撮像した映像(動画像データ)を取得し、また、聴衆に装着されているIoT(Internet of Things)センサからセンサデータを受信する。センサデータは、クラウド15bを介して情報処理装置10bに取得されてもよい。かかるセンサデータは、例えば脈拍、体温、発汗量等の生体センサデータであってもよい。
また、情報処理装置10bは、カメラ11bから取得した動画像データの画像解析を行い、撮像画像から抽出した顔画像に基づいて聴衆の笑顔度や顔の下向き度を算出する。聴衆の顔が略下方向を向いている場合、居眠りをしたりスマートフォンを操作していて講義や講演に全く興味が無いことが明確に分かるため、講師の評価として有用に用い得る。
そして、情報処理装置10bは、図8に示すように、動画像データと、画像解析結果データ(ここでは一例として笑顔度、顔の下向き度)およびセンサデータの各グラフと、各グラフの時間軸方向の軸の長さに対応する、再生操作を行うためのシークバーとを含む画面220を生成し、表示する。これによりユーザは、笑顔度、顔の下向き度、聴衆の脈拍等のセンサデータを参照することで、長時間の動画像データから所望のシーンを容易に検索することが可能となる。
<2−2.第2の実施形態>
続いて、第2の実施形態について図9〜図12を参照して具体的に説明する。本実施形態では、オリンピックやサッカー、野球、テニス等のスポーツ中継のコンテンツを視聴する際に、長時間に及ぶ試合全てを見る時間は無いが、ニュース番組のダイジェストでは物足りないといった場合におけるコンテンツの再生シーンの検索支援を行う。
図9は、第2の実施形態による動画像検索システムの概要を説明する図である。図9に示すように、本実施形態による情報処理装置10cは、表示装置13からコンテンツデータ(映像および音声を含む)を取得し、センサ12cからコンテンツに関連するセンサデータを取得し、クラウド15cからコンテンツに関連する時系列データを取得する。
ここで、センサ12cは、例えば表示装置13でコンテンツを視聴する人が座るソファーに設けられる振動センサが想定される。また、センサ12cは、ユーザの家のソファーに設けられるセンサに限られず、例えば友人の家で同コンテンツが視聴される場合に友人が座るソファーに設けられたセンサであってもよい。情報処理装置10cは、ネットワークを介して友人の家のソファーに設けられたセンサからのセンサデータを取得し得る。一般的に、見所となるハイライトシーンでは、見ている人は何らかの身体的な反応をし、飛び跳ねたり、力を入れてガッツポーズを取ったりするため、ソファーに設けられた振動センサにより、視聴中に盛り上がった際の振動を検知することが可能となる。
クラウド15cから取得する時系列データとは、例えば同コンテンツ放送時にインターネット上の掲示板にリアルタイムで書き込まれた同コンテンツについてのコメントの数やSNS(Social Networking Service)に投稿された同コンテンツについてのコメント数の時系列データである。または、時系列データは、視聴率調査会社の提供する視聴率データや、動画サイトにおいて同コンテンツの各再生シーンに対応して書き込まれた動画コメントの数の時系列データであってもよい。若しくは、コンテンツがスポーツ中継の場合における各選手やチームのスタッツ等の時系列データであってもよい。
また、コンテンツの画像/音声解析結果データは、例えば画像/音声解析により得られる、盛り上がり度、歓声の大きさ、テロップの文字解析(「ゴール!」等)のデータ等である。
情報処理装置10bは、記憶処理として、スポーツ中継等のコンテンツと、コンテンツ放送時に対応するクラウド15cからの時系列データ(SNSのコメント数データ等)、コンテンツ放送時にセンサ12cにより検知されたセンサデータ(例えばソファーの振動データ等)、およびコンテンツの画像/音声解析結果(例えば歓声の大きさ等)とを記憶する。また、情報処理装置10cは、再生処理として、コンテンツと共に、時系列データ、センサデータ、および画像解析結果データに基づく各グラフを表示することで、ユーザの映像検索を支援することが可能となる。すなわち、例えば歓声が大きく、かつソファーの振動が検知され、さらにSNSでのコメント数も多い時刻の映像には、多くの視聴者が注目したプレーや出来事が映っている可能性が高いため、ユーザは長時間の全ての映像を確認することなく、所望のシーンを検索することができる。特に画像解析以外のセンサデータや時系列データが動画像データの時間軸に対応するグラフで表示されることで、ユーザは所望のシーンの時間軸上のポイント(すなわち時刻)を直感的に把握することができる。
続いて、上述した第2の実施形態による情報処理装置10cの構成について、図10を参照して説明する。図10は、本実施形態による情報処理装置10cの構成例を示すブロック図である。図10に示すように、本実施形態による情報処理装置10cは、制御部101と、画像信号処理部102と、入力デバイス103と、入力信号処理部104と、カレンダー・タイマー部105と、記憶部106と、外部記憶部107と、表示処理部108と、表示デバイス109と、I/F(interface)110と、NW(network)I/F111と、コンテンツ取得部112と、音声信号処理部113とを含む。
コンテンツ取得部112は、表示装置13で表示される放送番組やインターネット番組等のコンテンツ(映像音声データおよびメタデータを含む)を取得する。放送番組等のコンテンツは、表示装置13(テレビ受像機)から取得してもよいし、情報処理装置10cのコンテンツ取得部112がテレビ受像機として機能することで取得してもよい。コンテンツ取得部112により取得されたコンテンツは、音声信号処理部113において音声解析が行われ、画像信号処理部102で画像解析が行われる。音声信号処理部113では、例えばコンテンツに含まれる音声データの解析により歓声の大きさを抽出する。また、画像信号処理部102では、例えばコンテンツに含まれる動画像データ(すなわち映像データ)の解析により、盛り上がりが推定される被写体(ここでは選手)の動く量や、特定の動作(サッカーの際はシュート、コーナーキック等、テニスの場合はボレー、スマッシュ等)を抽出したり、テロップの文字解析を行う。
このように、第2の実施形態では、コンテンツ取得部112によりコンテンツを取得し、また、音声信号処理部113によりコンテンツの音声解析を行う点が第1の実施形態と異なる。
また、情報処理装置10cの制御部101は、インタフェース生成部1013により生成した選択画面を表示デバイス109に表示させる。かかる選択画面では、例えばセンサデータ、画像解析データ、および時系列データのうち少なくともいずれかを含む複数のデータを選択し得る。ここで、選択画面の一例を図11に示す。
図11は、第2の実施形態によるデータ選択画面の一例を示す図である。図示された例では、画面230に、画像解析結果データの選択画面231と、センサデータの選択画面232と、クラウドデータの選択画面233とが表示されている。いずれもプルダウン式の選択メニューであって、例えば画像解析結果データの選択画面231では、盛り上がり度、歓声の大きさ、およびテロップ解析のいずれかの画像解析結果データを選択できる。また、センサデータの選択画面232では、家(ユーザの自宅)のソファーに設けられた振動センサ、友人Aのソファーに設けられた振動センサ、および友人Bに装着された運動センサのいずれかのセンサデータを選択できる。また、クラウドデータの選択画面233では、SNSコメント数、視聴率データ、および動画サイトコメント数のいずれかのクラウドデータを選択できる。
そして、制御部101は、選択された各データのグラフと、コンテンツ再生画面(動画像データ)とを含む画面をインタフェース生成部1013により生成し、表示デバイス109に表示させる。また、制御部101は、選択された各データのグラフに基づいてマーキング部1012により行ったマーク結果を示すマーク結果バーをさらに含む画面をインタフェース生成部1013により生成し、表示デバイス109に表示させてもよい。ここで、表示画面の一例を図12に示す。
図12は、本実施形態による表示画面例を示す図である。図示された例では、画面240に、動画像データ241と、選択された画像解析データ、センサデータ、およびクラウドデータを示す各グラフ242と、マーキング結果を示すマーク結果バー244と、画像再生位置を指定するシークバー245とが表示されている。シークバー245およびマーク結果バー244は、各グラフ242の時間軸方向の軸の長さに対応するよう表示されている。また、画面240には、グラフ表示、およびマーキング処理に採用するデータの選択を行い得る選択画面243が表示されている。
これによりユーザは、長時間に及ぶスポーツ中継の録画画像を全て確認することなく、選択したデータのグラフ242や、マーク結果バー244を参照して、見所のシーンが位置する時間軸上のポイント(すなわち時刻)を把握することができる。
そして、制御部101は、ユーザによるシークバー245の操作に応じて、指示されたポイントの録画画像データを再生する。このように、本実施形態では、ユーザによる映像検索を支援することが可能となる。
以上、第2の実施形態について説明した。なおここではコンテンツ(映像音声データ)の一例としてスポーツ中継の場合について説明したが、本実施形態の映像検索の支援対象となるコンテンツの内容は当然これに限定されず、例えばオリンピックの開会式・閉会式等、他の放送番組であってもよい。
<2−3.第3の実施形態>
次に、第3の実施形態について図13〜図16を参照して具体的に説明する。本実施形態では、対象を長時間撮像して検証する際における映像検索の支援を行う。通常、対象を検証実験する際、対象を長時間撮像した映像を振り返って対象の状態変化を確認することが有効な方法になるが、長時間の映像を全て最初から見ることは大変な労力となる。このような場合にも、本実施形態による動画像検索システムにより、撮像画像の解析結果の他、撮像画像に関連するセンサデータや撮像時刻に対応する時系列データのグラフを表示することで、映像検索を支援することが可能となる。
図13は、第3の実施形態による動画像検索システムの概要を説明する図である。図示された例では、例えば、「猫が顔を洗うと雨が降る」という言い伝えを検証する場合を想定する。この場合、情報処理装置10dは、カメラ11dから猫を撮像した動画像データを取得する。また、情報処理装置10dは、各種センサデータとして、猫に装着されたセンサ12dから猫の動きを示すセンサデータを取得し、猫の近くに置かれた気圧センサ16から気圧データを取得し、実験場所の屋外に置かれた降雨センサ17から降雨データを取得する。また、情報処理装置10dは、クラウド15dから実験に関連する時系列データとして例えば気象予報データ(具体的には降水確率)を取得する。
情報処理装置10dは、上記取得した各種データに基づいて、撮像した動画像データ(すなわち検証用映像記録)を再生する際に、撮影時刻に対応するセンサデータや降水確率のグラフを表示し、ユーザによる検証映像の検索を支援する。これにより、ユーザは検証用映像記録を全て見ることなく、撮影時刻に対応するセンサデータ等のグラフを映像のセンサインデックスとして用いて、グラフにより示される値が条件を満たす時刻の映像を中心に検証を行うことで、検証に関する時間を短縮することが可能となる。
なおこのような第3の実施形態による情報処理装置10dの構成は、図3を参照して説明した第1の実施形態による情報処理装置10cの構成と同様であるため、ここでの具体的な説明は省略する。
続いて、本実施形態による動画像検索システムの動作処理について図14〜図15を参照して説明する。
図14は、本実施形態による録画処理を示すフローチャートである。図14に示すように、まず、情報処理装置10dは、カメラ11dから撮像画像データを取得する(ステップS203)。
次に、情報処理装置10dは、猫の動きを検知するセンサ12d(運動センサ)から運動データを取得する(ステップS206)。
次いで、情報処理装置10dは、気圧センサ16から気圧データを取得する(ステップS209)。
次に、情報処理装置10dは、降雨センサ17から降雨データを取得する(ステップS212)。
次いで、情報処理装置10dは、クラウド15dから降水確率データを取得する(ステップS215)。
そして、情報処理装置10dは、撮像画像データに、運動データ、気圧データ、降雨データ、および降水確率データを紐付けて記憶する(ステップS218)。
以上説明したステップS203〜S221は、録画終了まで繰り返される(ステップS221)。なお上記ステップS203〜S215の処理は図示した順序に限定されず、並行して行われてもよい。また、情報処理装置10dは、録画の開始や停止を操作するための操作画面を表示デバイス109に表示してもよい。また、かかる操作画面には、録画中の撮像画像と共に、取得した運動データ、気圧データ、降雨データ、および降水確率データのグラフを表示するようにしてもよい。
以上、第3の実施形態による録画処理について具体的に説明した。続いて、図15を参照して、録画した動画像データの再生時の処理について説明する。
図15は、本実施形態による再生処理を示すフローチャートである。図15に示すように、まず、情報処理装置10dは、入力デバイス103からのユーザ操作に基づく再生指示に応じて、記憶された撮像画像データ(具体的には、例えば録画済みの検証用映像)を取得する(ステップS233)。
次に、情報処理装置10dは、撮像画像データと、運動データ、気圧データ、降雨データ、および降水確率データの各グラフを含む画面を生成し、表示デバイス109に表示する(ステップS236)。
そして、情報処理装置10dは、ユーザによるシークバー操作に応じて、指示された再生ポイントの撮像画像データを再生する(ステップS239)。
ここで、表示画面の一例を図16に示す。図16は、本実施形態による表示画面例を示す図である。図示された例では、画面250に、動画像データ251と、運動センサ、気圧センサ、降雨センサの各種センサデータおよび降水確率のデータを示す各グラフ252と、画像再生位置を指定するシークバー255とが表示されている。シークバー255は、各グラフ252の時間軸方向の軸の長さに対応するよう表示されている。
これによりユーザは、長時間に及ぶ検証用映像を全て確認することなく、グラフ252を参照して、所定の再生ポイントで検証を行うことができる。具体的には、例えば「猫が顔を洗うと雨が降る」という言い伝えを検証する際、運動センサにより猫の動きが検知された時刻を再生するようシークバー255を操作して、猫が顔を拭いているシーンであるか否かを確認する。そして、猫が顔を拭いているシーンである場合、その時刻前後の気圧センサデータ、降雨センサデータ、および降水確率データを参照して言い伝えの検証を行う。また、ユーザは、気圧が低くなった時刻、降水確率が上がった時刻、または降雨センサにより降水が検知された時刻の前後における運動センサにより猫の動きが検知されたシーンを再生させることで、猫がどのような動きをしているかを確認する。このように、ユーザは長時間に及ぶ検証用映像を全て確認することなく、確実に検証を行うことができる。
なお上述した実施形態では、マーキング処理を行っていないため、図16に示す画面250にはマーキング結果を示すマーク結果バーが表示されていない。第3の実施形態においても複数のデータに基づくマーキング処理を行った場合は、画面250にマーク結果バーが表示され得る。
また、上述した実施形態では、動物の検証用映像を一例として用いたが、本実施形態は当然にこれに限定されず、例えば人間同士のコミュニケーションの様子や、人間の物や動物に対する行動、人間の消費行動、経済行動等、ヒト、モノ、コトの解析を長時間の映像記録に基づいて行う際に適用され得る。
<<3.まとめ>>
上述したように、本開示の実施形態による動画像検索システムでは、動画像に関連する画像解析以外のデータのグラフを用いて動画像の検索を支援することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置10に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置10の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、上述した各実施形態では、動画像検索システムが情報処理装置10で実行される場合について説明したが、本開示はこれに限定されず、情報処理装置10の機能のうち少なくとも一部がサーバ上で実行されてもよい。例えば、記憶制御部1011、マーキング部1012、およびインタフェース生成部1013が、情報処理装置10とネットワークを介して接続するサーバ上にあってもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
動画像データを取得する動画像データ取得部と、
前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、
前記動画像データの画像解析を行い、画像解析結果データを生成する画像信号処理部と、
前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成する制御部と、
を備える、情報処理システム。
(2)
前記制御部は、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくともいずれかを選択するためのユーザインタフェースを生成する、前記(1)に記載の情報処理システム。
(3)
前記制御部は、前記ユーザインタフェースにより選択された複数のデータに基づいて、所定時刻にマーキングを行う、前記(2)に記載の情報処理システム。
(4)
前記制御部は、前記選択された複数のデータのいずれにも所定の条件を満たすことを示すフラグがセットされている時刻に、マーキングを行う、前記(3)に記載の情報処理システム。
(5)
前記制御部は、前記マーキングした時刻を示すための、前記グラフの時間軸方向の軸の長さに対応するマーク結果バーを生成する、前記(3)または(4)に記載の情報処理システム。
(6)
前記制御部は、所望の時刻の画像を指定するための、前記グラフの時間軸方向の軸の長さに対応するシークバーを生成する、前記(1)〜(5)のいずれか1項に記載の情報処理システム。
(7)
前記制御部は、前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのグラフとを含むインタフェースを生成する、前記(1)〜(6)のいずれか1項に記載の情報処理システム。
(8)
前記センサデータは、前記動画像データの被写体に取り付けられたセンサにより検出される、前記(1)〜(7)のいずれか1項に記載の情報処理システム。
(9)
前記画像信号処理部は、前記動画像データの画像解析により被写体の特定の動きを検出し、
前記制御部は、前記特定の動きの頻度が所定の閾値を上回る時刻にマーキングを行う、前記(5)に記載の情報処理システム。
(10)
前記時系列データは、前記動画像データの撮影時刻に対応する所定の事象に関するデータであり、
前記制御部は、前記事象の値が所定の条件を満たす時刻にマーキングを行う、前記(1)〜(9)のいずれか1項に記載の情報処理システム。
(11)
前記センサデータは、動きセンサによって検出された、前記動画像データを視聴した被写体の動きを示す動きデータであり、
前記制御部は、前記動きデータの値が所定の条件を満たす時刻にマーキングを行う、前記(1)〜(7)のいずれか1項に記載の情報処理システム。
(12)
前記情報処理システムは、前記動画像データを音声解析し、音声解析結果データを生成する音声信号処理部をさらに備え、
前記制御部は、前記動画像データと、前記センサデータ、前記時系列データ、前記画像解析結果データ、および音声解析結果データのうち少なくとも一つのデータのグラフとを含むインタフェースを生成する、前記(1)〜(11)のいずれか1項に記載の情報処理システム。
(13)
プロセッサが、
動画像データを取得することと、
前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信することと、
前記動画像データの画像解析を行い、画像解析結果データを生成することと、
前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成すること、
を含む、情報処理方法。
(14)
コンピュータを、
動画像データを取得する動画像データ取得部と、
前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、
前記動画像データの画像解析を行い、画像解析結果データを生成する画像信号処理部と、
前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフとを含むインタフェースを生成する制御部と、
として機能させるためのプログラムが記録された、コンピュータ読み取り可能な記録媒体。
10(10a、10b、10c、10d) 情報処理装置
101 制御部
1011 記憶制御部
1012 マーキング部
1013 インタフェース生成部
102 画像信号処理部
103 入力デバイス
104 入力信号処理部
105 カレンダー・タイマー部
106 記憶部
107 外部記憶部
108 表示処理部
109 表示デバイス
110 I/F
111 NW I/F
112 コンテンツ取得部
113 音声信号処理部
11(11a、11b、11d) カメラ
12(12a、12b、12d) センサ
13 表示装置
15(15a、15b、15c、15d) クラウド
16 気圧センサ
17 降雨センサ
210、220、230、240、250 画面
211、241、251 動画像データ
212、242、252 グラフ
213 チェックボックス
214、244 マーク結果バー
215、245、255 シークバー
215 マーク結果バー
220 画面
231、232、233、243 選択画面

Claims (14)

  1. 動画像データを取得する動画像データ取得部と、
    前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、
    前記動画像データの画像解析を行い、前記動画像データの被写体の特定の動きを示す画像解析結果データを生成する画像信号処理部と、
    前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフと、所望の時刻の画像を指定するための、前記グラフの時間軸方向の軸の長さに対応するシークバーとを含むインタフェースを生成する制御部と、
    を備え
    前記制御部は、前記少なくとも2つのデータに基づいて、前記少なくとも2つのデータが所定の条件を満たす時刻にマーキングを行い、当該時刻が前記シークバーの操作により指定された場合に、指定された当該時刻の前記動画像データを再生する、情報処理システム。
  2. 前記制御部は、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくともいずれかを選択するためのユーザインタフェースを生成する、請求項1に記載の情報処理システム。
  3. 前記制御部は、前記ユーザインタフェースにより選択された複数のデータに基づいて、所定時刻にマーキングを行う、請求項2に記載の情報処理システム。
  4. 前記制御部は、前記選択された複数のデータのいずれにも所定の条件を満たすことを示すフラグがセットされている時刻に、マーキングを行う、請求項3に記載の情報処理システム。
  5. 前記制御部は、前記マーキングした時刻を示すための、前記グラフの時間軸方向の軸の長さに対応するマーク結果バーを生成する、請求項3または4に記載の情報処理システム。
  6. 前記制御部は、前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのグラフと、前記シークバーとを含むインタフェースを生成する、請求項1〜のいずれか1項に記載の情報処理システム。
  7. 前記センサデータは、前記動画像データの被写体に取り付けられたセンサにより検出される、請求項1〜のいずれか1項に記載の情報処理システム。
  8. 前記画像信号処理部は、前記動画像データの画像解析により被写体の特定の動きを検出し、
    前記制御部は、前記特定の動きの頻度が所定の閾値を上回る時刻にマーキングを行う、請求項5に記載の情報処理システム。
  9. 前記時系列データは、前記動画像データの撮影時刻に対応する所定の事象に関するデータであり、
    前記制御部は、前記事象の値が所定の条件を満たす時刻にマーキングを行う、請求項1〜のいずれか1項に記載の情報処理システム。
  10. 前記センサデータは、動きセンサによって検出された、前記動画像データを視聴した被写体の動きを示す動きデータであり、
    前記制御部は、前記動きデータの値が所定の条件を満たす時刻にマーキングを行う、請求項1〜のいずれか1項に記載の情報処理システム。
  11. 前記情報処理システムは、前記動画像データを音声解析し、音声解析結果データを生成する音声信号処理部をさらに備え、
    前記制御部は、前記動画像データと、前記センサデータ、前記時系列データ、前記画像解析結果データ、および音声解析結果データのうち少なくとも一つのデータのグラフと、前記シークバーとを含むインタフェースを生成する、請求項1〜1のいずれか1項に記載の情報処理システム。
  12. プロセッサが、
    動画像データを取得することと、
    前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信することと、
    前記動画像データの画像解析を行い、前記動画像データの被写体の特定の動きを示す画像解析結果データを生成することと、
    前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフと、所望の時刻の画像を指定するための、前記グラフの時間軸方向の軸の長さに対応するシークバーとを含むインタフェースを生成すること、
    を含
    前記プロセッサは、前記少なくとも2つのデータに基づいて、前記少なくとも2つのデータが所定の条件を満たす時刻にマーキングを行い、当該時刻が前記シークバーの操作により指定された場合に、指定された当該時刻の前記動画像データを再生する、情報処理方法。
  13. コンピュータを、
    動画像データを取得する動画像データ取得部と、
    前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、
    前記動画像データの画像解析を行い、前記動画像データの被写体の特定の動きを示す画像解析結果データを生成する画像信号処理部と、
    前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフと、所望の時刻の画像を指定するための、前記グラフの時間軸方向の軸の長さに対応するシークバーとを含むインタフェースを生成する制御部と、
    として機能させ
    前記制御部は、前記少なくとも2つのデータに基づいて、前記少なくとも2つのデータが所定の条件を満たす時刻にマーキングを行い、当該時刻が前記シークバーの操作により指定された場合に、指定された当該時刻の前記動画像データを再生する、ためのプログラムが記録された、コンピュータ読み取り可能な記録媒体。
  14. コンピュータを、
    動画像データを取得する動画像データ取得部と、
    前記動画像データに関連するセンサデータ、および前記動画像データの撮影時刻に対応する時系列データを受信する通信部と、
    前記動画像データの画像解析を行い、前記動画像データの被写体の特定の動きを示す画像解析結果データを生成する画像信号処理部と、
    前記動画像データと、前記センサデータ、前記時系列データ、および前記画像解析結果データのうち少なくとも2つのデータのグラフと、所望の時刻の画像を指定するための、前記グラフの時間軸方向の軸の長さに対応するシークバーとを含むインタフェースを生成する制御部と、
    として機能させ
    前記制御部は、前記少なくとも2つのデータに基づいて、前記少なくとも2つのデータが所定の条件を満たす時刻にマーキングを行い、当該時刻が前記シークバーの操作により指定された場合に、指定された当該時刻の前記動画像データを再生する、ための、プログラム。
JP2017532396A 2015-08-03 2016-04-28 情報処理システム、情報処理方法、記録媒体、および、プログラム Active JP6930421B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015153240 2015-08-03
JP2015153240 2015-08-03
PCT/JP2016/063466 WO2017022286A1 (ja) 2015-08-03 2016-04-28 情報処理システム、情報処理方法、および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2017022286A1 JPWO2017022286A1 (ja) 2018-05-24
JP6930421B2 true JP6930421B2 (ja) 2021-09-01

Family

ID=57942741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017532396A Active JP6930421B2 (ja) 2015-08-03 2016-04-28 情報処理システム、情報処理方法、記録媒体、および、プログラム

Country Status (3)

Country Link
US (3) US10535375B2 (ja)
JP (1) JP6930421B2 (ja)
WO (1) WO2017022286A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10607063B2 (en) * 2015-07-28 2020-03-31 Sony Corporation Information processing system, information processing method, and recording medium for evaluating a target based on observers
JP6897215B2 (ja) * 2017-03-24 2021-06-30 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US10769914B2 (en) * 2017-06-07 2020-09-08 Amazon Technologies, Inc. Informative image data generation using audio/video recording and communication devices
WO2020021785A1 (ja) * 2018-07-25 2020-01-30 コニカミノルタ株式会社 ガス検出装置、ガス検出方法、表示制御方法、およびプログラム
JP7246146B2 (ja) * 2018-08-28 2023-03-27 株式会社Nttドコモ 情報処理装置及び映像投影システム
JP2022120214A (ja) * 2019-06-27 2022-08-18 コニカミノルタ株式会社 ガス検出端末装置及びガス検出システム
CN112752016B (zh) * 2020-02-14 2023-06-16 腾讯科技(深圳)有限公司 一种拍摄方法、装置、计算机设备和存储介质
JP7247136B2 (ja) * 2020-03-19 2023-03-28 富士フイルム株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US20220130223A1 (en) * 2020-10-23 2022-04-28 Marc Garbey Wireless Presence Check System
CN113011310B (zh) * 2021-03-15 2022-03-11 中国地质大学(武汉) 采集投篮运动量的方法、装置、计算机设备及存储介质
WO2022259488A1 (ja) * 2021-06-10 2022-12-15 日本電信電話株式会社 対話再生方法、対話再生装置及びプログラム
JP7265072B1 (ja) 2022-06-01 2023-04-25 セーフィー株式会社 情報処理システム、情報処理方法及びプログラム
CN116204371B (zh) * 2022-12-13 2023-11-24 远峰科技股份有限公司 摄像头图像数据流的监控方法及装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3293131B2 (ja) 1999-06-21 2002-06-17 横河電機株式会社 プラント監視システム
JP3837316B2 (ja) * 2001-10-03 2006-10-25 株式会社クエストエンジニア 積雪監視装置および融氷雪システム
US20030133614A1 (en) * 2002-01-11 2003-07-17 Robins Mark N. Image capturing device for event monitoring
JP2004005639A (ja) * 2003-05-09 2004-01-08 Hitachi Ltd 監視装置
JP2005003563A (ja) 2003-06-13 2005-01-06 Niigata Denki Kk 積雪情報提供システム
JP4346998B2 (ja) 2003-09-03 2009-10-21 富士通株式会社 動画像の蓄積管理方法及び蓄積管理装置
US7787935B2 (en) * 2004-09-27 2010-08-31 General Electric Company System and method for correcting motion artifacts in imaging
JP4871550B2 (ja) * 2005-08-30 2012-02-08 株式会社日立製作所 録画再生装置
JP4704174B2 (ja) * 2005-09-30 2011-06-15 富士フイルム株式会社 状態識別装置、プログラムおよび方法
JP2008028756A (ja) * 2006-07-21 2008-02-07 Hitachi Ltd 遠隔監視システム
US8131465B2 (en) * 2007-12-14 2012-03-06 Qualcomm Incorporated Motion detection for tracking
US20110165129A1 (en) * 2008-05-06 2011-07-07 Arnold Kriegstein Ameliorating Nervous Systems Disorders
US8793282B2 (en) * 2009-04-14 2014-07-29 Disney Enterprises, Inc. Real-time media presentation using metadata clips
JP5574719B2 (ja) 2010-01-15 2014-08-20 キヤノン株式会社 表示装置、表示方法及びプログラム
US9699431B2 (en) * 2010-02-10 2017-07-04 Satarii, Inc. Automatic tracking, recording, and teleprompting device using multimedia stream with video and digital slide
US8594485B2 (en) * 2010-12-30 2013-11-26 Taser International, Inc. Systems and methods for presenting incident information
JP5927691B2 (ja) * 2011-12-22 2016-06-01 株式会社日立製作所 エリアモニタリングシステム
EP2810216B1 (en) * 2012-01-31 2017-11-15 Given Imaging Ltd. System and method for displaying motility events in an in vivo image stream
US10049158B1 (en) * 2012-02-24 2018-08-14 Amazon Technologies, Inc. Analyzing user behavior relative to media content
US20140328570A1 (en) * 2013-01-09 2014-11-06 Sri International Identifying, describing, and sharing salient events in images and videos
US9610043B2 (en) * 2012-06-13 2017-04-04 Seno Medical Instruments, Inc. System and method for producing parametric maps of optoacoustic data
US9460057B2 (en) * 2013-03-15 2016-10-04 Filmstrip, Inc. Theme-based media content generation system and method
JP6532106B2 (ja) * 2013-04-26 2019-06-19 日本電気株式会社 監視装置、監視方法および監視用プログラム
JP6117621B2 (ja) 2013-06-05 2017-04-19 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US9728055B2 (en) * 2014-04-11 2017-08-08 Vivint, Inc. Chronological activity monitoring and review
US9213903B1 (en) * 2014-07-07 2015-12-15 Google Inc. Method and system for cluster-based video monitoring and event categorization
US9420331B2 (en) * 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
US20160307142A1 (en) * 2015-04-15 2016-10-20 Xerox Corporation Methods and systems for creating log of one or more events through crowdsourcing

Also Published As

Publication number Publication date
WO2017022286A1 (ja) 2017-02-09
US20180211693A1 (en) 2018-07-26
US10535375B2 (en) 2020-01-14
US11158353B2 (en) 2021-10-26
JPWO2017022286A1 (ja) 2018-05-24
US20220028429A1 (en) 2022-01-27
US20200105306A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP6930421B2 (ja) 情報処理システム、情報処理方法、記録媒体、および、プログラム
US11527070B2 (en) Methods and apparatus to count people in images
CN112753226B (zh) 用于从视频流中提取元数据的方法、介质和系统
JP6984083B2 (ja) 視聴者エンゲージメントを評価するためのシステム
US9124783B2 (en) Method and system for automated labeling at scale of motion-detected events in video surveillance
US8990842B2 (en) Presenting content and augmenting a broadcast
US8726304B2 (en) Time varying evaluation of multimedia content
WO2017084308A1 (zh) 视频播放方法及装置
US20090249387A1 (en) Personalized Event Notification Using Real-Time Video Analysis
WO2015196582A1 (zh) 一种行为模式统计装置与方法
US20180295420A1 (en) Methods, systems and apparatus for media content control based on attention detection
JP2013054739A (ja) 画像中の人をカウントするための方法及び装置
KR20040082414A (ko) 비사용자 이벤트에 기초하는 미디어 재생기를 제어하는방법 및 장치
JP2012186621A (ja) 情報処理装置、情報処理方法およびプログラム
WO2017018012A1 (ja) 情報処理システム、情報処理方法、および記録媒体
US20140240455A1 (en) System and Method to Create Evidence of an Incident in Video Surveillance System
TW201709747A (zh) 標記視頻中物件的方法、裝置及電腦可讀取記錄媒體
US20200036909A1 (en) System and method allowing simultaneous viewing of live and recorded video content
US20190266800A1 (en) Methods and Systems for Displaying Augmented Reality Content Associated with a Media Content Instance
JP2001251607A (ja) 画像監視システム及び画像監視方法
KR102185700B1 (ko) 디스플레이 장치 및 이의 정보 제공 방법
CN112188221B (zh) 播放控制方法、装置、计算机设备及存储介质
KR101362630B1 (ko) 디지털 비디오 레코더에서의 피사체 이동 경로 추적 방법
JP7267341B2 (ja) 広告評価システム、広告評価方法及び広告評価プログラム
US11270338B2 (en) Optimizing a digital display

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190328

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210521

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210531

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R151 Written notification of patent or utility model registration

Ref document number: 6930421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151