JP7353015B2 - 方法、装置、およびカメラ - Google Patents

方法、装置、およびカメラ Download PDF

Info

Publication number
JP7353015B2
JP7353015B2 JP2017254815A JP2017254815A JP7353015B2 JP 7353015 B2 JP7353015 B2 JP 7353015B2 JP 2017254815 A JP2017254815 A JP 2017254815A JP 2017254815 A JP2017254815 A JP 2017254815A JP 7353015 B2 JP7353015 B2 JP 7353015B2
Authority
JP
Japan
Prior art keywords
point
video
operator
video stream
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017254815A
Other languages
English (en)
Other versions
JP2018110399A (ja
Inventor
アルド ビョルン
ピル フレードリク
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2018110399A publication Critical patent/JP2018110399A/ja
Application granted granted Critical
Publication of JP7353015B2 publication Critical patent/JP7353015B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、方法、装置、およびカメラに関する。
ビデオ監視システムは、1以上のカメラによって生成されたビデオストリームを配信するときに、大量のデータを生成する可能性がある。ビデオ監視システム内のコンポーネントは、ネットワークを介して相互接続されている可能性があるため、ビデオストリームの配信は、かなりの量のネットワークリソースを消費する可能性がある。1人のオペレータは、ディスプレイ上に多数のビデオストリームが提示された場合、一度に1つのビデオストリームにのみ注意を集中することができる。したがって、従来のビデオ監視システムでは、オペレータが見ていないビデオストリームの配信によって、かなりの量のネットワークリソースが消費される。
1つの実施形態では、注視検出に基づいてビデオデータを復号する方法が開示される。本方法は、カメラに関連付けられたエンコーダから受信された符号化されたビデオストリームを復号することと、復号されたビデオストリームを装置のディスプレイ上に提示することと、を含んでもよい。本方法は、ディスプレイを見ているオペレータの注視点を検出することと、注視点に基づいて、復号されたビデオストリームに関連付けられた位置をスキップブロック挿入点として指定することと、を含んでもよい。本方法は、エンコーダに位置を送信することと、を含み、エンコーダは、カメラによって生成されたビデオデータを符号化する際に、スキップブロック挿入点に対応するインターフレーム(フレーム間)符号化ブロックの更新レートを低減させてもよい。
注視検出に基づいて符号化中のブロックの更新レートを低減させることによって、オペレータの周辺視野内のビデオストリームのビットレートを、オペレータの完全な焦点(focus)を有するものから低減させることができ、こうしてネットワークの利用および効率を改善することができる。さらに、より低い更新レートを有するブロックを有するビデオストリームを復号することは、エンコーダおよびデコーダの両方における計算負荷を低減し、したがって、ビデオストリームを符号化するカメラおよびビデオストリームを復号する監視ステーションにおける電力消費を節約する。
1つの実施形態では、本方法は、装置のディスプレイ上にオペレータの主焦点を有するウィンドウ内の復号されたビデオストリームを提示することと、オペレータの注視点が、オペレータの主焦点を有するウィンドウの境界内にあることを判定することと、を含んでもよい。本方法は、オペレータの主焦点を有するウィンドウ内に中心窩視野エリアを決定することと、中心窩視野エリアの外側の復号されたビデオストリームに関連付けられた位置をスキップブロック挿入点として指定することと、を含んでもよい。本方法は、オペレータの注視に基づいて、オペレータの主焦点を有するウィンドウ内に提示されるビデオの品質を改善することができる。
1つの実施形態では、本方法は、少なくとも1つの追加の符号化されたビデオストリームを復号することと、復号されたビデオストリームおよび少なくとも1つの追加の復号されたビデオストリームを、装置のディスプレイ上または装置の別のディスプレイ上の複数のウィンドウから別々のウィンドウにそれぞれ提示することと、を含んでもよい。本方法は、注視点に基づいて、オペレータの主焦点を有する複数のウィンドウから1つのウィンドウを決定することと、オペレータの主焦点を有さない少なくとも1つのウィンドウに関連付けられた復号されたビデオストリーム内の位置をスキップブロック挿入点として指定することと、を含んでもよい。したがって、本方法は、ユーザの主焦点を有さないウィンドウ内のビデオの1以上の部分において計算リソース、電力リソース、およびネットワークリソースを浪費することを回避することができる。
1つの実施形態では、本方法は、注視点に基づいて、オペレータの主焦点を有するウィンドウ内に中心窩視野エリアを決定することと、中心窩視野エリアの外側の位置を、オペレータの主焦点を有するウィンドウに関連付けられた復号されたビデオストリーム内のスキップブロック挿入点として指定することと、を含んでもよい。したがって、本方法は、ユーザの主焦点を有するウィンドウ内のビデオの1以上の部分において計算リソース、電力リソース、およびネットワークリソースを浪費することを回避することができる。
1つの実施形態では、本方法は、オペレータの主焦点を有するウィンドウに関連付けられた復号されたビデオストリームに対するGOP(group of pictures)長より大きい、オペレータの主焦点を有さない少なくとも1つのウィンドウに関連付けられた二次的な復号されたビデオストリームに対するGOPの長さを決定することを含んでもよい。本方法は、オペレータの主焦点を有さない少なくとも1つのウィンドウに関連付けられたビデオを符号化するために、二次的な復号されたビデオストリームに関連付けられたエンコーダに決定されたGOP長を送信することを含んでもよい。GOP長さは、計算リソース、ネットワークリソース、および電力リソースを効率的に割り当てるために適切に決定することができる。
1つの実施形態では、本方法は、注視点からオペレータの主焦点を有さない少なくとも1つのウィンドウまでの距離を決定することを含んでもよい。本方法は、注視点とオペレータの主焦点を有さない少なくとも1つのウィンドウとの間の距離が増加するにつれて、決定されたGOP長を増加させることを含んでもよい。
1つの実施形態では、本方法は、注視点がオペレータの主焦点を有するウィンドウ内を移動するにつれて、ある時間間隔の間または所定の閾値を超える距離に対して注視点を追跡することと、注視点の動きと復号されたビデオ内の移動する物体とを相関させることと、を含んでもよい。本方法は、移動する物体を関心のある物体として指定することと、復号されたビデオストリーム内の関心のある物体に関連付けられた位置に対してスキップブロック挿入点としての位置の指定を防止することと、を含んでもよい。注視に基づいて物体を追跡することは、オペレータが関心のある物体を指定するための効率的かつ自然な方法を提供する。
1つの実施形態では、本方法は、指定された関心のある物体を表す識別子を生成することと、復号されたビデオストリームのメタデータを含むデータベースに識別子を保存することと、を含んでもよい。注視に基づいて識別子を生成することは、オペレータが関心のある物体を指定するための効率的かつ自然な方法を提供する。
1つの実施形態では、本方法は、注視点が所定の閾値を超える時間の間、ディスプレイ上で実質的に同じ位置に維持されていると判定することと、注視点の周囲の所定のエリア内の復号されたビデオストリームの倍率を増加させることと、を含んでもよい。注視に基づいて倍率を制御することは、オペレータがビデオ内の関心領域内の詳細を特定するのに効率的で自然な方法を提供する。
1つの実施形態では、本方法は、注視点が、オペレータの主焦点を有するウィンドウ上の所定の閾値を超える時間間隔の間、維持されていると判定することと、オペレータの主焦点を有するウィンドウの倍率を増加させることと、を含んでもよい。注視に基づいて倍率を制御することは、オペレータがビデオ内の関心領域内の詳細を特定するのに効率的で自然な方法を提供する。
1つの実施形態では、本方法は、ディスプレイ上で実質的に同じ位置を維持しながら、注視点が所定時間内に所定回数消えて再び現れることを、オペレータによるまばたきの結果として判定することと、注視点の周りのエリアの復号されたビデオストリームに関連付けられたコマンドを実行することと、を含んでもよい。注視およびまばたきに基づいてコマンドを入力することによって、オペレータがビデオ監視システムにコマンドを入力するための効率的かつ自然な方法が提供される。
1つの実施形態では、コマンドを実行することは、注視点の周りのエリア内の復号されたビデオストリームの倍率を変更すること、または注視点の周りのエリア内の復号されたビデオストリームをタグ付けするデータベース内の識別子を保存することを含んでもよい。注視点の周りのエリア内の倍率を制御することによって、オペレータがビデオ内の関心領域内の詳細を特定するのに効率的で自然な方法が提供される。
1つの実施形態では、本方法は、ある時間間隔にわたって注視点の位置を追跡することと、注視点の追跡された位置に基づいて注視点の次の位置を予測することと、を含んでもよい。注視点の将来の位置を予測することによって、注視制御に基づいてビデオストリームのビットレートを調整する際の待ち時間を短縮することができる。
1つの実施形態では、本方法は、スキップブロックを含むインターフレームを有する第1のコンポーネントビデオストリームと、第1のコンポーネントビデオストリームシーケンスよりも低いピクセル密度を有する第2のコンポーネントビデオストリームとを含む統合された符号化されたビデオストリームを受信することを含んでもよく、第2のコンポーネントビデオストリームは、第1のコンポーネントビデオストリームに時間的および空間的に関連付けられている。本方法は、第1のコンポーネントビデオストリームのインターフレーム内のスキップブロックを特定し、スキップブロックではないブロック内の第1のコンポーネントビデオストリームのインターフレームを復号することを含んでもよい。本方法は、第2のコンポーネントビデオストリームのインターフレームを復号し、復号された第2のコンポーネントビデオストリームのインターフレームをアップスケールして、復号された第1のコンポーネントビデオストリームのインターフレームのピクセル密度に一致させることを含んでもよい。本方法は、復号された第1のコンポーネントビデオストリーム内のスキップブロック位置に対応するアップスケールされた復号された第2のコンポーネントビデオストリーム内のピクセルを特定することを含んでもよい。本方法は、復号された第2のコンポーネントビデオストリーム内の特定されたピクセルを抽出することと、抽出されたピクセルを復号された第1の符号化されたビットストリーム内のスキップブロックの対応する位置に挿入することと、を含んでもよい。上述の方法は、スキップブロックの挿入を通してビデオデータ処理量を低減させる。
1つの実施形態では、注視検出に基づいてビデオデータを符号化する方法が開示される。本方法は、少なくとも1つのセンサアレイによって取り込まれたビデオデータを受信することと、受信されたビデオデータを符号化するためのスキップブロック挿入点を指定するために復号されたビデオストリームに関連付けられ、装置において決定された注視点に基づく位置を受信することと、を含んでもよい。本方法は、受信された位置に基づいて、受信されたビデオデータを符号化する前に、更新レートが低減されたインターフレーム内のブロックを指定するスキップブロック挿入点を特定することを含んでもよい。本方法は、特定されたスキップブロック挿入点に対して、低減された更新レートのための周波数を決定することと、決定された周波数に基づいて、特定されたスキップブロック挿入点に関連付けられたブロックを有するインターフレームを符号化することと、を含んでもよい。注視に基づいてスキップブロック挿入点を決定することによって、計算リソース、電力リソース、およびネットワークリソースを効率的に使用できる。
1つの実施形態では、本方法は、受信されたビデオデータから第1のビデオシーケンスを生成することと、第1のビデオシーケンスよりも低いピクセル密度を有する受信されたビデオデータから第2のビデオシーケンスを生成することを含んでもよい。第2のビデオシーケンスは、第1のビデオシーケンスと時間的にも空間的にも類似していてもよい。本方法は、第1のビデオシーケンス内の関連性のあるピクセルを示すことであって、特定されたスキップブロック挿入点は、関連性がないものとして指定されることと、第1の符号化されたビデオストリームを生成するために、第1のビデオシーケンス内の関連性を示されたピクセルを符号化することであって、関連性がないものとして指定されたピクセルはスキップブロックを用いて符号化されることと、を含んでもよい。本方法は、第2の符号化されたビデオストリームを生成するために第2のビデオシーケンスを符号化することと、第1の符号化されたビデオストリームと第2の符号化されたビデオストリームとを統合することと、を含んでもよい。本方法は、統合された符号化されたビデオストリームを装置へ送信することを含んでもよい。注視に基づいてスキップブロック挿入点を決定することによって、計算リソース、電力リソース、およびネットワークリソースを効率的に使用できる。
1つの実施形態では、第2のビデオシーケンスを生成することは、第1のビデオシーケンスを二次元でデジタルダウンサンプリングすることを含んでもよい。二次元のダウンサンプリングは、ビデオ符号化の処理速度を改善することができる。
1つの実施形態では、関連性のあるピクセルを示すことは、第1のビデオシーケンスに対してマスクを生成することをさらに含んでもよい。マスクを生成することは、ビデオの符号化の量を減らすことによって効率を改善することができる。
1つの実施形態では、注視検出に基づいてビデオデータを復号するように構成された装置が開示される。装置は、ディスプレイと、ネットワークを介してデータを交換するように構成された通信インターフェースと、ディスプレイおよび通信インターフェースに結合されたプロセッサと、プロセッサに結合され命令を格納するメモリとを含んでもよい。命令は、プロセッサに、カメラに関連付けられたエンコーダから受信された符号化されたビデオストリームを復号させ、復号されたビデオストリームを装置のディスプレイ上に提示させ、ディスプレイを見ているオペレータの注視点を検出させ、注視点に基づいて、復号されたビデオストリームに関連付けられた位置をスキップブロック挿入点として指定させ、エンコーダに位置を送信させる。エンコーダは、カメラによって生成されたビデオデータを符号化する際に、スキップブロック挿入点に対応するインターフレーム符号化ブロックの更新レートを低減させる。注視に基づいてスキップブロック挿入点を決定することによって、計算リソース、電力リソース、およびネットワークリソースを効率的に使用できる。
1つの実施形態では、メモリは、プロセッサにさらに、装置のディスプレイ上にオペレータの主焦点を有するウィンドウ内の復号されたビデオストリームを提示させ、オペレータの注視点が、オペレータの主焦点を有するウィンドウの境界内にあることを判定させ、オペレータの主焦点を有するウィンドウ内の中心窩視野エリアを決定させ、中心窩視野エリア外の復号されたビデオストリームに関連付けられた位置をスキップブロック挿入点として指定させる命令を含んでもよい。注視に基づいてスキップブロック挿入点を決定することによって、計算リソース、電力リソース、およびネットワークリソースを効率的に使用できる。
1つの実施形態では、メモリは、プロセッサに、少なくとも1つの追加の符号化されたビデオストリームを復号させ、復号されたビデオストリームおよび少なくとも1つの追加の復号されたビデオストリームを、ディスプレイ上の複数のウィンドウからそれぞれ別々のウィンドウ内に提示させ、注視点に基づいて、オペレータの主焦点を有する複数のウィンドウからの1つのウィンドウを決定させ、オペレータの主焦点を有さない少なくとも1つのウィンドウに関連付けられた復号されたビデオストリーム内にスキップブロック挿入点としての位置を指定させる命令を含んでもよい。注視に基づいてスキップブロック挿入点を決定することによって、計算リソース、電力リソース、およびネットワークリソースを効率的に使用できる。
1つの実施形態では、メモリは、プロセッサに、注視点に基づいて、オペレータの主焦点を有するウィンドウ内の中心窩視界エリアを決定させ、中心窩視野エリア外の位置をオペレータの主焦点を有するウィンドウに関連付けられた復号されたビデオストリーム内のスキップブロック挿入点として指定させる命令を含んでもよい。注視に基づいてスキップブロック挿入点を決定することによって、計算リソース、電力リソース、およびネットワークリソースを効率的に使用できる。
1つの実施形態では、注視検出に基づいてビデオデータを符号化するカメラが開示される。カメラは、センサアレイと、ネットワークを介してデータを交換するように構成された通信インターフェースと、センサアレイおよび通信インターフェースに結合された、コントローラ、画像プロセッサ、およびビデオエンコーダと、コントローラ、画像プロセッサ、およびビデオエンコーダに結合されたメモリとを含んでもよい。メモリは、コントローラ、画像プロセッサ、またはビデオエンコーダに、センサアレイによって取り込まれたビデオデータを受信させ、復号されたビデオストリームに関連付けられた位置を受信させて、受信したビデオデータを符号化するためのスキップブロック挿入点を指定させる命令を格納する。位置は、クライアント装置で決定された注視点に基づくことができ、受信した位置に基づいて、受信したビデオデータを符号化する前にスキップブロック挿入点を特定することができ、スキップブロック挿入点は、低減された更新レートを有するインターフレーム内のブロックを指定し、特定されたスキップブロック挿入点に対して、低減された更新レートに対する周波数を決定し、決定された周波数に基づいて、特定されたスキップブロック挿入点に関連付けられたブロックを有するインターフレームを符号化する。注視に基づいてスキップブロック挿入点を決定することによって、計算リソース、電力リソース、およびネットワークリソースを効率的に使用できる。
1つの実施形態では、メモリは、コントローラ、画像プロセッサ、またはビデオエンコーダの少なくとも1つに、さらに、受信したビデオデータから第1のビデオシーケンスを生成させ、受信したビデオデータから第1のビデオシーケンスよりも低いピクセル密度を有する第2のビデオシーケンスを生成させ、第2のビデオシーケンスは第1のビデオシーケンスと時間的かつ空間的に類似しており、第1のビデオシーケンスに関連性のあるピクセルを示させ、特定されたスキップブロック挿入点は関連性のないものとして指定され、特定されたスキップブロック挿入点は、第1のビデオシーケンス内の指定された関連性のあるピクセルを符号化して、第1の符号化されたビデオストリームを生成させ、関連性のないものとして指定されたピクセルは、スキップブロックを用いて符号化され、第2の符号化されたビデオストリームを生成するために第2のビデオシーケンスを符号化させ、第1の符号化されたビデオストリームと第2の符号化されたビデオストリームとを統合し、統合された符号化されたビデオストリームをクライアント装置へ送信させる命令を含んでもよい。注視に基づいてスキップブロック挿入点を決定することによって、計算リソース、電力リソース、およびネットワークリソースを効率的に使用できる。
1つの実施形態における注視追跡を含む例示的な環境を示すブロック図である。 1つの実施形態におけるカメラの例示的なコンポーネントを示すブロック図である。 1つの実施形態におけるコンピューティングモジュールの例示的なコンポーネントを示すブロック図である。 1つの実施形態においてオペレータがアイトラッカーを有するディスプレイを見ている環境を示す。 2つの実施形態におけるオペレータの視点からのディスプレイを示す。 2つの実施形態におけるオペレータの視点からのディスプレイを示す。 注視検出に基づいてビデオデータを復号するための例示的なプロセスを示すフローチャートである。 注視検出に基づいてビデオデータを符号化するための例示的なプロセスのフローチャートである。
以下の詳細な説明は、添付図面を参照する。異なる図面における同じ参照番号は、同一または類似の要素を特定する。
ビデオ監視システムが任意の時間間隔にわたって生成する大量のデータを考慮すると、収集されたデータの処理、配信、および取得は、(特に、処理および/またはネットワークリソースの利用に関して)リソースを集約的にすることができる。オペレータがネットワークを介して複数のビデオストリームを監視する場合、監視ステーションのディスプレイ上に提示されるデータの多くは、オペレータに注目されない可能性がある。
ビデオ監視システム内で処理および/またはネットワークリソースをより効率的に使用するために、以下で説明される実施形態は、アイトラッキングを使用してオペレータの焦点(focus)を決定し、オペレータが集中していないビデオストリーム内のブロックの更新レートを低くするプロセスおよびシステムに関する。したがって、オペレータの注視(gaze)を検出することによって、オペレータの周辺視野にある単一のビデオストリームの部分は、ブロックの更新レートを減少させることができる。追加的または代替的に、複数のストリームが別々のウィンドウでユーザに提示されているとき、オペレータの周辺視野にあるビデオストリームは、ビデオストリームが符号化されるときにブロックの更新レートを低減させることができる。
注視検出(gaze sensing)に基づいて符号化中にブロックの更新レートを低減させることによって、オペレータの周辺視野内のビデオストリームのビットレートは、オペレータの完全な焦点を有するものと比較して低減させることができる。さらに、より低い更新レートを有するブロックを有するビデオストリームを復号することは、エンコーダおよびデコーダの両方における計算負荷を低減し、したがって、ビデオストリームを符号化するカメラおよびビデオストリームを復号する監視ステーションにおける電力消費を節約する。
ブロックの更新レートを低減させることは、例えば、Axis ABに譲渡された2015年2月5日に公開された「統合されたデジタルビデオシーケンスを生成するための方法、装置およびシステム(Method, Device and System for Producing A Merged Digital Video Sequence)」という名称の米国特許出願公開第2015/0036736号に記載されている技術を使用して実行することができ、これは本明細書に参照によって援用される。
例えば、ブロックの更新レートを低減させることは、インターフレームを符号化するときにエンコーダにビデオのフレーム内のスキップ(SKIP)ブロックを送信させることによって達成することができる。ビデオの一部に対してスキップブロックが指示されると、たとえ入力画像がそのエリア内の前の画像から変化したとしても、ビデオのその部分に対して画像データは送信されない。
本明細書に提示された実施形態は、ビデオ符号化/復号規格(例えば、ISO/MPEGファミリー(MPEG-1、MPEG-2、MPEG-4)など)およびITU-H.26Xファミリー(H.261、H.263および拡張(extension)、H.264、およびH.265規格としても知られているHEVC)のビデオ勧告(recommendation)に適用することができる。本明細書に提示される実施形態はまた、他のタイプのビデオ符号化規格(例えば、WMVファミリーに属するMicrosoftコーデック、On2コーデック(例えば、VP6、VP6-E、VP6-S、VP7またはVP8)またはWebM)に適用することもできる。
ビットレートを低減させるためにビデオ符号化を実行する場合、符号化されるフレームは、圧縮および符号化されることができるより小さい符号化単位(ブロック、マクロブロックなど)に分割することができる。インターフレームの符号化では、ブロックの各々に1つまたはいくつかの動きベクトルを割り当てることができる。フレームの予測は、動きベクトルのセットに従って過去および/または未来のフレームからピクセルブロックを移動することによって構成することができる。その後、前のフレーム内の動きベクトルによって移動させられたブロックを現在のフレームと比較することができ、符号化される現在のフレームとその動き補償された予測との間の残差信号と呼ばれる差が、同様に変換符号化を使用することによってイントラ符号化されたフレームにエントロピー符号化される。
前述のインターフレーム符号化は、「スキップブロック」を使用することによって防止することができる。言い換えると、スキップブロックは、残差誤差または動きベクトルを送信することなく「符号化」することができる。その代わりに、エンコーダは、インターフレーム内の特定のブロック位置に対してスキップブロックが指定されたことだけを記録することができ、デコーダは、既に復号された他のブロックから画像情報を推定することができる。一実施形態では、スキップブロックの画像情報は、デジタルビデオデータの同じフレームのブロックまたは前のフレーム内のブロックから推定することができる。
本明細書で使用される場合、イントラフレームは、過去または将来のフレームへのいかなる参照もなしに符号化されることができ、Iフレームと呼ばれる。インターフレームは、Pフレームと呼ばれる単方向予測フレーム、またはBフレームと呼ばれる双方向予測フレームのいずれかを使用して符号化することができる。PフレームとBフレームの両方には、以前のフレームのどこにも見つからない新しいデータを符号化するブロックが含まれている可能性があるが、それらは稀であるかもしれない。Iフレームは、シーン変化に対応するフレームの新しいグループの先頭に配置され、時間的冗長性が利用できないシーン変化フレーム、または他の位置に配置され、時間的冗長性が利用可能なリフレッシュフレームのいずれかを含んでもよい。Iフレームは通常、新しいストリームエンコーダのためのリフレッシュ点を有するように、または伝送エラーのリカバリ点として、一定間隔または不規則間隔で挿入される。
Iフレームは、GOP(group of pictures)と呼ばれるものの中で、多数のPフレームおよびBフレーム、またはいくつかの実施形態では、多数のPフレームのみを境界付けることができる。GOPの長さは、毎秒30フレームでサンプリングされたビデオの30フレームを含むことができ、これは、1つのIフレームの後に29のPフレームが続くことを意味する。他の実施形態では、GOPは動的であり、シーンコンテンツ、ビデオ品質、および/またはアイトラッカー(アイトラッキングシステム)によって提供される注視情報(gaze information)に基づいて変化することができる。
図1は、一実施形態におけるアイトラッキングを含む例示的な環境100を示すブロック図である。環境100は、例えば、エリアを保守するため、または公共安全を提供するための監視システムとすることができる。図1に示すように、環境100は、カメラ110-1~110-M、ネットワーク120、ビデオ管理システム(VMS)150、監視ステーション125-1~125-N、アイトラッカー140-1~140-N、および/またはディスプレイ130-1~130-Nを含んでもよい。環境100はまた、様々な非画像検出器(例えば、動作検出器、温度検出器、煙検出器など(図示せず))などを含んでもよい。
カメラ110-1~110-M(「カメラ110」、複数で「カメラ110」、具体的に「カメラ110-x」と呼ぶ)は、監視エリア106の画像および/またはビデオを取り込む。監視エリア106は、1以上のカメラ110によって監視することができる。物体102は、任意の物体(例えば、ドア、人、動物、車両、車両上のナンバープレートなど)を含んでもよい。
カメラ110は、可視光、赤外光、および/または他の非可視電磁放射線(例えば、紫外光、遠赤外光、テラヘルツ放射線、マイクロ波放射線など)を使用して画像データを取り込むことができる。カメラ110は、レーダ撮像のための熱カメラおよび/またはレーダ装置を含んでもよい。取り込まれた画像データは、連続画像シーケンス(例えば、ビデオ)、限定された画像シーケンス、静止画像、および/またはそれらの組み合わせを含んでもよい。カメラ110は、画像を取り込みデジタル化するためのデジタルカメラおよび/または画像を取り込んでアナログ形式で画像データを格納するためのアナログカメラを含んでもよい。
カメラ110は、1以上の2次元アレイ(例えば、画像データまたはビデオデータ)に配列されたデータを生成するセンサを含んでもよい。本明細書で使用される場合、「ビデオデータ」および「ビデオ」は、より一般的にそれぞれ「画像データ」および「画像」と呼ぶことができる。したがって、「画像データ」または「画像」は、特に明記しない限り、「ビデオデータ」および「ビデオ」を含むことを意味する。同様に、「ビデオデータ」または「ビデオ」は、特に明記しない限り、静止画像を含み得る。
他の監視装置またはセンサは、監視エリア106からの情報を取り込むことができる。例えば、動作検出器(例えば、カメラ以外の何か)がエリア106-1の動きを検出することができる。動作検出器は、近接センサ、磁気センサ、侵入センサ、圧力センサ、赤外線センサ、レーダセンサ、および/または放射線センサを含んでもよい。別の一例として、煙検出器は、エリア106-1内の煙を検出することができる。煙検出器はまた、熱センサを含んでもよい。
監視ステーション125-1~125-Nは、ディスプレイ130-1~130-N(それぞれ個別に「監視ステーション125」および「ディスプレイ130」)に結合される。一実施形態では、監視ステーション125-1~125-Nはまた、アイトラッカー140-1~140-N(個別に「アイトラッカー140」)に結合される。監視ステーション125およびディスプレイ130は、オペレータ(図1には図示せず)がカメラ110によって生成された画像を見ることを可能にする。アイトラッカー140は、ディスプレイ130を見ているオペレータの注視を追跡する。監視ステーション125-x、ディスプレイ130-x、およびアイトラッカー140-xの各々は、オペレータが環境100内に示される監視システムとインタラクトするための「クライアント」とすることができる。
ディスプレイ130は、1以上のカメラ110からのビデオストリームを受信して表示する。1つのディスプレイ130は、単一のカメラ110または複数のカメラ110からの画像を(例えば、ディスプレイ130上の複数のフレームまたはウィンドウ内に)示すことができる。単一のディスプレイ130はまた、単一のカメラからの異なるフレームの画像を表示することもできる。すなわち、単一のカメラは、例えば、広角レンズまたは魚眼レンズを含んでもよく、複数のエリア106の画像を提供することができる。異なるエリア106からの画像は、異なるウィンドウおよび/またはフレームで別々にディスプレイ130上に分離して表示させることができる。ディスプレイ130は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機LED(OLED)ディスプレイ、陰極線管(CRT)ディスプレイ、プラズマディスプレイ、レーザビデオディスプレイ、電気泳動ディスプレイ、量子ドットディスプレイ、ビデオプロジェクタ、および/または任意の他のタイプのディスプレイ装置を含んでもよい。
アイトラッカー140は、VMS150(または環境100内の任意の装置)がオペレータの目がどこに集中しているかを判定することを可能にするセンサ(例えば、カメラ)を含む。例えば、一組の近赤外光ビームは、オペレータの目に向けられ、オペレータの角膜で反射を引き起こすことができる。反射は、アイトラッカー140に含まれるカメラによって追跡され、オペレータの注視エリアを決定することができる。注視エリアは、注視点および中心窩の焦点(focus)のエリアを含んでもよい。例えば、オペレータは、監視ステーション125のディスプレイ130の前に座ることができる。アイトラッカー140は、ディスプレイ130のどの部分にオペレータが焦点を合わせているかを決定する。各ディスプレイ130は、単一のアイトラッカー140に関連付けることができる。あるいはまた、アイトラッカー140は、複数のディスプレイ130に対応することができる。この場合、アイトラッカー140は、オペレータがどのディスプレイに、および/またはそのディスプレイ130のどの部分に焦点を合わせているかを判定することができる。
アイトラッカー140はまた、ユーザの存在、注意のレベル、焦点、眠気、意識、および/または他の状態を判定することもできる。アイトラッカー140はまた、ユーザの身元を判定することもできる。アイトラッカー140からの情報は、経時的なオペレータの行動内に洞察を得るために、またはオペレータの現在の状態を判定するために使用することができる。いくつかの実装では、ディスプレイ130およびアイトラッカー140は、オペレータが着用するバーチャルリアリティ(VR)ヘッドセット内に実装することができる。オペレータは、VRヘッドセットへの入力として1以上のカメラ110を使用してエリア106の仮想検査を実行することができる。
ネットワーク120は、1以上の回線交換ネットワークおよび/またはパケット交換ネットワークを含んでもよい。例えば、ネットワーク120は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、PSTN(Public Switched Telephone Network)、アドホックネットワーク、イントラネット、インターネット、光ファイバベースのネットワーク、無線ネットワーク、および/またはこれらのまたは他のタイプのネットワークの組み合わせを含んでもよい。
VMS150は、カメラ110、ディスプレイ130、および/またはアイトラッカー140の動作を統合する1以上のコンピュータ装置(例えば、サーバ装置など)を含んでもよい。VMS150は、カメラ110からの画像データを受信して格納することができる。VMS150はまた、VMS150に格納された画像データまたはカメラ110からストリーミングされた画像データを見るための、監視ステーション125のオペレータのためのユーザインターフェースを、提供することもできる。
いくつかの実施形態では、環境100は別個のVMS150を含まない。その代わりに、VMS150によって提供されるサービスは、監視ステーション125および/またはカメラ110自体によって、または環境100内の装置間で分散されて提供される。同様に、VMS150は、カメラ110によって実行されるように説明された動作を実行することができる。例えば、VMS150は、カメラ110ではなく動きを検出するために画像データを解析することができる。
図1は、環境100の例示的なコンポーネントを示しているが、他の実装では、環境100は、図1に示されたものよりも少ないコンポーネント、異なるコンポーネント、異なる配置のコンポーネント、または追加的なコンポーネントを含んでもよい。追加的または代替的に、任意の1つの装置(または装置の任意のグループ)は、1以上の他の装置によって実行されるように記載された機能を実行することができる。
図2は、1つの実施形態におけるカメラの例示的なコンポーネントを示すブロック図である。図2に示すように、カメラ110は、光学チェーン210、センサアレイ220、バス225、画像プロセッサ230、コントローラ240、メモリ245、ビデオエンコーダ250、および/または通信インターフェース260を含んでもよい。1つの実施形態では、カメラ110は、カメラ110をパン、チルト、ズームするための1以上のモータコントローラ270(例えば、3つ)と1以上のモータ272(例えば、3つ)とを含んでもよい。
光学チェーン210は、入射放射線(例えば、光、可視光、赤外線波、ミリ波など)をセンサアレイ220に導き、入射放射線に基づいて画像を取り込むエンクロージャを含む。光学チェーン210は、入射放射線を監視エリアからセンサアレイ220上に収集して集束させる1以上のレンズ212を含む。
センサアレイ220は、センサアレイ220上に入射するまたは降り注ぐ放射線(例えば、光)を検知、検出、および測定するためのセンサのアレイを含んでもよい。放射線は、可視光波長範囲、赤外線波長範囲、または他の波長範囲とすることができる。
センサアレイ220は、例えば、電荷結合素子(CCD)アレイおよび/またはアクティブピクセルアレイ(例えば、相補型金属酸化物半導体(CMOS)センサアレイ)を含んでもよい。センサアレイ220はまた、(例えば、カメラ110が熱カメラまたは検出器を含む場合)マイクロボロメータを含むこともできる。
センサアレイ220は、センサアレイ220に入射する放射線(例えば、光)を示す(例えば、特性または特徴を記述する)データを出力する。例えば、センサアレイ220から出力されるデータは、センサアレイ220内の1以上のピクセルに入射する情報(例えば、光の強度(例えば、照度)、色など)を含んでもよい。センサアレイ220に入射する光は、光学チェーン210内のレンズの結果として光が集束させられ得る「画像」であり得る。
センサアレイ220は、センサアレイ220上に降り注ぐ画像を検出するので、「画像センサ」と考えることができる。この用語が本明細書で使用される場合、「画像」は、センサアレイ220上に入射する(例えば、光の特性または特徴を記述する)放射線を示すデータを含む。したがって、「画像」という用語はまた、「画像センサデータ」または画像を記述する任意のデータまたはデータセットを意味するために使用することもできる。さらに、「ピクセル」は、放射線の測定(例えば、センサアレイ220上に入射する光を示す測定)が行われるセンサアレイ220の任意の領域またはエリアを意味することができる。ピクセルは、センサアレイ220内の1以上(1未満)のセンサに対応することができる。代替の一実施形態では、センサアレイ220は、走査ハードウェア(例えば、回転ミラー)を使用して画像を形成することができるリニアアレイ、または画像プロセッサ230および/またはコントローラ240に依存して画像センサデータを生成する非アレイセンサとすることができる。ビデオエンコーダ250は、環境100内の他の装置(例えば、ステーション125および/またはVMS150)への伝送のために画像センサデータを符号化することができる。ビデオエンコーダ250は、ビデオ符号化技術(例えば、ISO/MPEGまたはITU-H.26Xファミリーのビデオ符号化規格)を使用することができる。
バス225は、カメラ110内のコンポーネントが互いに通信することを可能にする通信経路である。コントローラ240は、カメラ110の動作を制御および統合することができる。コントローラ240および/または画像プロセッサ230は、センサアレイ220によって取り込まれた画像データ上で信号処理動作を実行する。コントローラ240および/または画像プロセッサ230は、命令を解釈して実行する任意のタイプのシングルコアまたはマルチコアプロセッサ、マイクロプロセッサ、ラッチベースのプロセッサ、および/または処理ロジック(またはプロセッサ、マイクロプロセッサ、および/または処理ロジックのファミリ)を含んでもよい。コントローラ240および/または画像プロセッサ230は、ハードウェアアクセラレータ(例えば、グラフィックス処理ユニット(GPU)、汎用グラフィックス処理ユニット(GPGPU)、セル(Cell)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、および/または別のタイプの集積回路または処理ロジック)を含むか、またはそれに結合することができる。
コントローラ240はまた、カメラ110の所望の焦点および位置(例えば、チルトおよびズーム)を決定および制御することができる。そうするために、コントローラ240は、1以上のモータコントローラ270にコマンドを送信して、カメラ110をチルトおよび/またはパンするための1以上のモータ272または光学式ズームレンズ212を駆動する。
メモリ245は、情報および/または命令を格納する任意のタイプの揮発性および/または不揮発性の記憶装置を含んでもよい。メモリ245は、ランダムアクセスメモリ(RAM)または任意のタイプの動的記憶装置、リードオンリーメモリ(ROM)デバイス、または任意のタイプの静的記憶装置、磁気または光記録メモリデバイスおよびその対応するドライブ、またはリムーバブルメモリデバイスを含んでもよい。メモリ245は、カメラ110によって使用される情報および命令(例えば、アプリケーションおよび/またはオペレーティングシステム)およびデータ(例えば、アプリケーションデータ)を格納することができる。
メモリ245は、コントローラ240および/または画像プロセッサ230による実行のための命令を格納することができる。ソフトウェア命令は、別のコンピュータ可読媒体または別の装置からメモリ245に読み込むことができる。ソフトウェア命令は、コントローラ240、ビデオエンコーダ250、および/または画像プロセッサ230に、本明細書に記載のプロセスを実行させることができる。例えば、カメラ110は、メモリ245内に格納されたソフトウェア命令を実行する、コントローラ240、ビデオエンコーダ250、および/または画像プロセッサ230に応答して、画像処理(例えば、符号化、トランスコード、物体の検出など)に関する動作を実行することができる。あるいはまた、配線結合された回路(例えば、ロジック)をソフトウェア命令の代わりに、またはソフトウェア命令と組み合わせて使用して、本明細書に記載のプロセスを実施することができる。
通信インターフェース260は、入力および/または出力ポート、入力および/または出力システム、および/または他の装置へのデータの送信を促進する他の入力および出力コンポーネントを含む回路および論理回路を含む。例えば、通信インターフェース260は、有線通信のためのネットワークインターフェースカード(例えば、イーサネット(登録商標)カード)または無線通信のための無線ネットワークインターフェース(例えば、WiFi)カードを含んでもよい。
図2は、カメラ110の例示的なコンポーネントを示しているが、他の実施形態では、カメラ110は、図2に示されているものよりも少ないコンポーネント、異なるコンポーネント、異なる配置のコンポーネント、または追加のコンポーネントを含んでもよい。追加的または代替的に、カメラ110の1以上のコンポーネントは、カメラ110の1以上の他のコンポーネントによって実行されるように説明された機能を実行することができる。例えば、コントローラ240は、画像プロセッサ230によって実行されるように説明された機能を実行することができ、その逆も可能である。代替的または追加的に、カメラ110は、図3に関して以下に説明されるようなコンピューティングモジュールを含んでもよい。
図3は、一実施形態におけるコンピューティングモジュールの例示的なコンポーネントを示すブロック図である。装置(例えば、VMS150、アイトラッカー140、および/またはディスプレイ装置130)は、1以上のコンピューティングモジュール300を含んでもよい。図3に示すように、コンピューティングモジュール300は、バス310、プロセッサ320、メモリ330、および/または通信インターフェース360を含んでもよい。いくつかの実施形態では、コンピューティングモジュール300はまた、入力装置340および/または出力装置350をも含み得る。
バス310は、コンピューティングモジュール300のコンポーネントまたは他の装置の間の通信を可能にする経路を含む。プロセッサ320は、命令を解釈して実行する任意のタイプのシングルコアプロセッサ、マルチコアプロセッサ、マイクロプロセッサ、ラッチベースのプロセッサ、および/または処理ロジック(またはプロセッサ、マイクロプロセッサ、および/または処理ロジックのファミリ)を含んでもよい。プロセッサ320は、特定用途向け集積回路(ASIC)、FPGA、および/または別のタイプの集積回路または処理ロジックを含んでもよい。プロセッサ320は、ハードウェアアクセラレータ(例えば、GPU、GPGPU、Cell、FPGA、ASIC、および/または別のタイプの集積回路または処理ロジック)を含むか、またはそれに結合することができる。
メモリ330は、情報および/または命令を格納する任意のタイプの揮発性および/または不揮発性記憶装置を含んでもよい。メモリ330は、RAMまたは任意のタイプの動的記憶装置、ROMまたは任意のタイプの静的記憶装置、磁気または光記録メモリデバイスおよびその対応するドライブ、またはリムーバブルメモリデバイスを含んでもよい。メモリ330は、プロセッサ320によって使用される情報および命令(例えば、アプリケーションおよびオペレーティングシステム)およびデータ(例えば、アプリケーションデータ)を格納することができる。
メモリ330は、プロセッサ320によって実行するための命令を格納することができる。ソフトウェア命令は、別のコンピュータ可読媒体または別の装置からメモリ330に読み込むことができる。ソフトウェア命令は、プロセッサ320に、本明細書に記載のプロセスを実行させることができる。あるいはまた、配線接続された回路(例えば、ロジック)をソフトウェア命令の代わりに、またはソフトウェア命令と組み合わせて使用して、本明細書に記載のプロセスを実行することができる。
オペレーティングシステムは、コンピューティングモジュール300のハードウェアおよびソフトウェアリソースを管理するためのソフトウェア命令を含む。例えば、オペレーティングシステムは、Linux(登録商標)、Windows、OS X、Android、組み込みオペレーティングシステムなどを含んでもよい。アプリケーションおよびアプリケーションデータは、特定のコンピューティングモジュール300が内部に見つかる装置に応じて、ネットワークサービスを提供する、またはアプリケーションを含んでもよい。
通信インターフェース360は、コンピューティングモジュール300が他のコンポーネント、装置、および/またはシステムと通信することを可能にする送信機および/または受信機(例えば、トランシーバ)を含んでもよい。通信インターフェース360は、無線通信(例えば、高周波、赤外線など)、有線通信、またはそれらの組み合わせを介して通信することができる。通信インターフェース360は、ベースバンド信号を高周波(RF)信号に変換する、またはその逆を行うトランシーバを含むことができ、アンテナに結合することができる。
通信インターフェース360は、入力および/または出力ポート、入力および/または出力システム、および/または他の装置へのデータの送信を促進する他の入力および出力コンポーネントを含む論理コンポーネントを含んでもよい。例えば、通信インターフェース360は、有線通信のためのネットワークインターフェースカード(例えば、イーサネットカード)または無線通信のための無線ネットワークインターフェース(例えば、WiFi)カードを含んでもよい。
いくつかの装置はまた、入力装置340および出力装置350を含んでもよい。入力装置340は、ユーザが情報をコンピューティングモジュール300に入力することを可能にすることができる。入力装置340は、キーボード、マウス、ペン、マイクロフォン、カメラ、タッチスクリーンディスプレイなどを含んでもよい。
出力装置350は、情報をユーザへ出力することができる。出力装置350は、ディスプレイ、プリンタ、スピーカなどを含んでもよい。入力装置340および出力装置350は、ユーザがコンピューティングモジュール300によって実行されるアプリケーションとインタラクトすることを可能にすることができる。「ヘッドレス」装置(例えば、配備されたリモートカメラ)の場合、入力および出力は、主として入力装置340および出力装置350ではなく通信インターフェース360を介して行われる。
コンピューティングモジュール300は、データの受信、送信、および/または処理を支援する他のコンポーネント(図示せず)を含んでもよい。さらに、コンピューティングモジュール300内のコンポーネントの他の構成も可能である。他の実装では、コンピューティングモジュール300は、図3で示されたものよりも少ないコンポーネント、異なるコンポーネント、追加のコンポーネント、または異なる配置のコンポーネントを含んでもよい。追加的または代替的に、コンピューティングモジュール300の1以上のコンポーネントは、コンピューティングモジュール300の1以上の他のコンポーネントによって実行されるものとして説明された1以上のタスクを実行することができる。
図4は、アイトラッカー140を有するディスプレイ130を見ているオペレータ402の例示的な環境400を示す。ディスプレイ130は、オペレータ402に情報を表示するための任意のタイプのディスプレイを含んでもよい。オペレータ402は、ディスプレイ130を見て、監視ステーション125上で動作しているアプリケーションを介してVMS150とインタラクトすることができる。例えば、オペレータ402はエリア106のビデオを見ることができる。監視ステーション125は、ルールに従って、エリア106に動きがあるときにアラームを鳴らすことができる。その後、オペレータ402は、監視ステーション125上で動作しているアプリケーションとインタラクトするキーボードを介して警報を静めることによって応答することができる。
アイトラッカー140は、オペレータ402の目が集中している位置を監視ステーション125が決定することを可能にするセンサ(例えば、カメラ)を含む。図4では、例えば、オペレータ402は、ディスプレイ130の前に座っており、アイトラッカー140内のセンサがオペレータ402の目を検出する。例えば、アイトラッカー140は、ディスプレイ130上の位置(例えば、ピクセル値)として表すことができる注視点410を決定することができる。オペレータとディスプレイ130の相対的な位置に基づいて、オペレータ402の中心窩視野に対応する中心窩視野エリア420(または「エリア420」)を見積もることができる。中心窩視野は、目の詳細な視覚知覚に対応し、およそ1~2球面度に対応する。したがって、ディスプレイ130上のエリア420は計算され、完全な視力を有するオペレータ402の視野の一部に対応すると理解することができる。別の一実施形態では、エリア420は、特定のオペレータ402の設定手順中に実験的に決定することができる。エリア420は、オペレータ402の周辺視野に対応する、中心窩視野エリア420の外側の周辺視野エリア430とは対照的である。注視点410は概ね、エリア420の中心にあり、注視点410からオペレータ402の目までの視線に対応する。1つの実施形態では、注視点410を特定する情報をビデオ管理システム150へ送信することができる。
図5Aは、オペレータ402の始点からのディスプレイ130を示している。図5Aに示されるように、ディスプレイ130は、注視点410、中心窩視野エリア420、および周辺視野エリア430を含む。ディスプレイ130はまた、ビデオフレーム520を含み、ビデオフレーム520内においてビデオストリームがオペレータ402に提示される。この例では、フレーム520は、エリア106-1のカメラ110-1からのビデオストリームを示し、これは、ドアと、移動しているように見える個人とをたまたま含んでいる。オペレータ402の中心窩視野エリア420は、個人を包含し、注視点410は個人の顔面上に直接存在する。他方、フレーム520に表示されるドアは、オペレータ402の周辺視野エリア430に現れる。以下でより詳細に説明する1つの例では、エリア106-1で動きが検出されると、ステーション125-1は、ディスプレイ130のウィンドウ522Aに以下の警告を表示する:「エリア106-1内で動作警告」。
注視点410の位置および/またはエリア420に基づいて、アイトラッカー140によって生成された情報が(場合によってはビデオ管理システム150を介して)カメラ110へのユーザ入力として解釈されるように、ビデオストリームを符号化するときに、インターフレーム内のブロックに対して異なる更新レートを指定することができる。例えば、アイトラッカー140-1は、オペレータ402が図5Aに示すように人の上部を見ていると判断した場合、図5Aに示すように、エリア420内にあるビデオデータ(例えば、ブロック)は、符号化中にインターフレームを生成するときに動きおよび/または空間の詳細を保存するように更新することができる。他方、エリア420の外側に位置するビデオデータは、インターフレームのすべてまたは一部を生成するときに使用されるスキップブロックを有するように指定することができ、したがって、ビットレートを低減させるためにブロックは頻繁に更新されない。
図5Bはまた、オペレータ402の視点からのディスプレイ130を示している。しかしながら、図5Aのディスプレイ130とは対照的に、図5Bのディスプレイ130は、多数のフレーム520-1~520-N(個別に「フレーム520-x」、複数で「フレーム520」)を示す。各フレーム520-1~520-Nは、異なるビデオストリームを提示することができ、オペレータ402は複数のエリアを監視することができる。異なるストリームは、異なるカメラ110-1~110-Mによって生成することができる。代替的または追加的に、フレーム520-1~520-Nの各々は、共通のカメラ110-xによって生成された異なるストリームを表示してもよい。例えば、カメラ110-xは、「魚眼」レンズを使用し、拡張された角度エリアからビデオを取り込むことができる。ビデオは、魚眼レンズによって導入された歪みを低減し、フレーム520-1から520-Nに別々に提示することができる異なるエリアに対応する別々のビデオストリームに拡張された角度エリアを分離するように処理することができる。図5Aと同様に、図5B内のディスプレイ130は、注視点410、中心窩視野エリア420、および周辺視野エリア430を含む。
この例では、フレーム520-1は、エリア106-1のカメラ110-1からのビデオストリームを示すことができ、ビデオフレーム520-2は、エリア106-2(図示せず)のカメラ110-2(図示せず)からのビデオストリームを示すことができる。図5B内のオペレータ402の中心窩視野エリア420は、フレーム520-1の大部分を包含し、注視点410は個人の顔に近い。フレーム520内に表示されるドアはまた、中心窩視野エリア420内にある。他方、他のフレーム520-2~520-Nは、オペレータ402の周辺視野エリア430内にある。
注視点410および/または中心窩視野エリア420の位置は、他のフレーム520とは異なる可能性のある後続の処理のために特定のフレーム520-xを選択および/または指定するために使用することができる。例えば、図5Bに示すように、注視点410を使用して、フレーム520-1がオペレータにとって関心のあるフレームであることを示すことができる。したがって、ビデオ監視システムは、フレーム520-1内のビデオストリームの提示を改善するために、フレーム520-1により多くのリソース(例えば、帯域幅および/または処理リソース)を割り当て、オペレータが集中していない(例えば、周辺視野にある)フレームに対応する他のストリームに割り当てられたリソースを低減させることができる。具体的には、アイトラッカー140-1は、オペレータ402が図5Bに示すようにフレーム520-1を見ていると判断した場合、エリア420内にあるビデオデータは、符号化中にインターフレームを生成するときに動きおよび/または空間の詳細を保存するように更新することができる。他方、エリア420の外側にある他のフレーム520-2~520-Nに対するビデオデータは、インターフレームを生成するために使用されるスキップブロックを有するように指定することができ、こうしてフレーム520-2~520-Nのビットレートを低減させるために、ブロックは頻繁には更新されない。
図6は、注視検出に基づいてビデオデータを復号するための例示的なプロセス600を示すフローチャートである。一実施形態では、プロセス600は、プロセッサ320が命令を実行することによって、クライアント装置(例えば、監視ステーション125-x、アイトラッカー140-x、およびディスプレイ130-x)によって実行され得る。命令は、メモリ330内に格納されてもよい。別の一実施形態では、プロセス600は、VMS150によって実行されてもよい。
一実施形態では、プロセス600は、最初に、カメラ110に関連付けられたエンコーダ(例えば、ビデオエンコーダ250)から受信された符号化されたビデオストリームを復号することを含んでもよい(ブロック610)。ネットワーク120を介して監視ステーション125で受信することができる符号化されたビデオストリームは、監視エリア106-x内の物体102-xを映すカメラ110-xによって生成することができる。プロセス600は、監視ステーション125のディスプレイ130上に復号されたビデオストリームを提示することをさらに含んでもよく(ブロック615)、ディスプレイ130を見ているオペレータ402の注視点410を検出することを含む(ブロック620)。プロセス600は、注視点410に基づいて、復号されたビデオストリームに関連付けられた位置をスキップブロック挿入点として指定すること(ブロック625)と、その位置をビデオエンコーダ250へ送信することであって、ビデオエンコーダ250は、カメラ110によって生成されたビデオデータを符号化するときに、スキップブロック挿入点に対応するインターフレーム符号化ブロックの更新レートを低減させることができること(ブロック630)と、を含んでもよい。
プロセス600は、監視ステーション125のディスプレイ130上のオペレータ402の主焦点を有するウィンドウ520内に復号されたビデオストリームを提示することと、オペレータ402の注視点410がオペレータ402の主焦点を有するウィンドウ520の境界内にあると判定することと、をさらに含んでもよい。プロセス600は、オペレータ402の主焦点を有するウィンドウ内に中心窩視野エリア420を決定することをさらに含んでもよい。ディスプレイ130上のエリア420は、オペレータ402とディスプレイ130との間の距離に基づいて計算することができる。プロセス600は、中心窩視野エリア420の外側の復号されたビデオストリームに関連付けられた位置をスキップブロック挿入点として指定することをさらに含んでもよい。
別の一実施形態では、監視ステーション125は、ディスプレイ130上に提示するために、1以上のカメラ110から複数のビデオストリームを受信することができる。1つの例では、複数のストリームは、魚眼レンズを有する同一のカメラ110-xから来てもよく、魚眼レンズは、広い視野(例えば、360度)からビデオを収集し、その後、視野の異なる部分の歪みを取り除き、
複数の別々の歪みのないビデオストリームを生成する。追加的または代替的に、複数のビデオストリームは、監視エリア106の異なる部分を収集することができる複数のカメラ110によって生成することができる。したがって、プロセス600は、1以上の追加の符号化されたビデオストリームを復号することと、監視ステーション125のディスプレイ130上の複数のウィンドウ520とは別個のウィンドウ内にそれぞれ復号されたビデオストリームおよび追加の復号されたビデオストリームを提示することと、をさらに含んでもよい。あるいはまた、追加のビデオストリームを監視ステーション125の追加のディスプレイ上に提示することができる。プロセス600は、注視点410に基づいて、オペレータ402の主焦点を有する複数のウィンドウ520からウィンドウ520-1を決定することと、オペレータ402の主焦点を有さない少なくとも1つのウィンドウ520-2~520-Nに関連付けられた復号されたビデオストリーム内の位置をスキップブロック挿入点として指定することと、を含んでもよい。プロセス600は、注視点410に基づいて、オペレータ402の主焦点を有するウィンドウ520-1内の中心窩視野エリア420を決定することと、オペレータ402の主焦点を有するウィンドウ520-1に関連付けられた復号されたビデオストリーム内のスキップブロック挿入点として中心窩視野エリア420の外側の位置を指定することと、をさらに含んでもよい。
プロセス600は、オペレータ402の主焦点を有さない少なくとも1つのウィンドウ(520-2~520-N)に関連付けられた二次的な復号されたビデオストリームに対するGOP(group of pictures)の長さを決定することであって、このGOPの長さは、オペレータの主焦点を有するウィンドウ520-1に関連付けられた復号されたビデオストリームに対するGOPの長さよりも大きいことと、決定されたGOPの長さをオペレータの主焦点を有さないウィンドウ520-2~520-Nに関連付けられたビデオを符号化するための二次的な復号されたビデオストリームに関連付けられたビデオエンコーダ250へ送信することと、をさらに含んでもよい。プロセス600は、注視点410から、オペレータの主焦点を有さない少なくとも1つのウィンドウ(例えば、520-2から520-N)までの距離を決定することと、注視点410と、オペレータ402の主焦点を有さない少なくとも1つのウィンドウ(例えば、520-2から520-N)との間の距離が増加するにつれて、決定されたGOPの長さを増加させることと、をさらに含んでもよい。
GOPの長さに関して、典型的なビデオ収集シナリオは、30フレーム/秒で30画像のGOPの長さを有するIフレームおよびPフレームのみを使用することができる。これは、1つのIフレームの後に29のPフレームが続くことを意味する。そのような場合、オペレータ402によって見られないエリアのマクロブロックは、毎秒1回の更新に下げられ、一方、見られているマクロブロックは、毎秒30回の完全な更新とすることができる。より低い更新レートはまた、安定した更新レートを維持しながら、1秒当たり2、3、または5回の更新に設定することもできる。更新レートが完全に安定している必要がない場合は、更新は1秒間に1~30の間のいずれかとすることができる。一実施形態では、GOP長さは、アイトラッカー140によって決定されるときのオペレータ402の焦点に基づいて動的であってもよい。
プロセス600は、注視点410がオペレータ402の主焦点を有するウィンドウ520-1内を移動しながら、所定の閾値を超える時間間隔または距離の間、注視点410を追跡することと、注視点410の動きと復号されたビデオ内で移動する物体とを相関させること(correlating)と、移動する物体を関心のある物体として指定することと、復号されたビデオストリーム内の関心のある物体に関連付けられた位置に対してスキップブロック挿入点としての位置を指定するのを防止することと、をさらに含んでもよい。プロセス600はまた、指定された関心のある物体を表す識別子を生成することと、復号されたビデオストリームのメタデータを含むデータベースに識別子を保存することと、を含んでもよい。
プロセス600は、所定の閾値を超える時間間隔の間、注視点410が、ディスプレイ130上の実質的に同じ位置に維持されていることを判定することと、次いで、注視点410の周囲の所定のエリア内の復号されたビデオストリームの倍率を増加させることと、をさらに含んでもよい。あるいはまた、プロセス600は、注視点410が、オペレータ402の主焦点を有するウィンドウ520-1上の所定の閾値を超える時間間隔の間、維持されていることを判定することと、次いで、オペレータ402の主焦点を有さない他のウィンドウ(520-2~520-N)と関連して、オペレータの主焦点を有するウィンドウ520-1の倍率を増加させることと、を含んでもよい。
プロセス600はまた、ディスプレイ130上の実質的に同じ位置を維持しながら、注視点410が、所定の時間内に所定の回数、消えて再び現れることを、オペレータ402によるまばたきの結果として判定することを含んでもよい。プロセス600は、注視点410の周囲のエリア内で復号されたビデオストリームに関連付けられたコマンドを実行することをさらに含んでもよい。プロセス600はまた、注視点の周囲のエリア内の復号されたビデオストリームの倍率を変更すること、または、注視点の周りのエリア内の復号されたビデオストリームにタグ付けする識別子をデータベース内に保存することを含んでもよい。
プロセス600は、ある時間間隔にわたって注視点410の位置を追跡することと、注視点の追跡された位置に基づいて注視点の次の位置を予測することと、をさらに含んでもよい。予測は、既知の追跡技術および/または統計的推定技術を用いて行うことができる。したがって、プロセス600は、注視点410がシフトされるときと、その位置に関連付けられたインターフレームの完全な更新レートが達成されるときとの間の遅延を最小限にするか、または少なくとも低減することができる。例えば、カジノで使用されるカメラ110は、非常に低い待ち時間を有することが要求される可能性がある。そのような場合、注視点410が移動されるたびに完全な更新レートを待たなければならないことによって、オペレータ402が影響を受けないように遅延を非常に遅くすることができる。カメラ110が十分迅速に反応しない場合、前述の注視点410の予測が使用され得る。
スキップブロック挿入点を有するビデオストリームを復号するために、プロセス600は、スキップブロックを含むインターフレームを有する第1のコンポーネントビデオストリームと、第1のコンポーネントビデオストリームシーケンスよりも低いピクセル密度を有する第2のコンポーネントビデオストリームとを含む統合された符号化されたビデオストリームを受信することをさらに含んでもよく、第2のコンポーネントビデオストリームは、第1のコンポーネントビデオストリームに時間的および空間的に関連付けられている。プロセス600は、第1のコンポーネントビデオストリームのインターフレーム内のスキップブロックを特定することと、スキップブロックではないブロック内の第1のコンポーネントビデオストリームのインターフレームを復号することと、をさらに含んでもよい。プロセス600は、第2のコンポーネントビデオストリームのインターフレームを復号することと、復号された第2のコンポーネントビデオストリーム内のインターフレームをアップスケールして、復号された第1のコンポーネントビデオストリーム内のインターフレームのピクセル密度を一致させることと、復号された第1のコンポーネントビデオストリーム内のスキップブロック位置に対応するアップスケールされた復号された第2のコンポーネントビデオストリーム内のピクセルを特定することと、復号された第2のコンポーネントビデオストリーム内の特定されたピクセルを抽出することと、復号された第1の符号化されたビットストリーム内のスキップブロックの対応する位置に抽出されたピクセルを挿入することと、をさらに含んでもよい。
図7は、注視検出に基づいてビデオデータを符号化するための例示的なプロセス700を示すフローチャートである。一実施形態では、プロセス700は、コントローラ240、画像プロセッサ230、またはビデオエンコーダ250、またはそれらの任意の組み合わせ上で命令を実行することによって、カメラ110内で実行することができる。命令は、共通のメモリ245に格納される、および/またはコントローラ240、画像プロセッサ230、およびビデオエンコーダ250に専用の個々のメモリに少なくとも部分的に格納され得る。
プロセス700は、少なくとも1つのセンサアレイ220によって取り込まれたビデオデータを受信すること(ブロック710)を含んでもよい。取り込まれたビデオデータは、カメラ110に関連付けられた監視エリア106に対応する。プロセス700は、受信されたビデオデータを符号化するためのスキップブロック挿入点を指定するために、復号されたビデオストリームに関連付けられた位置を受信すること(ブロック715)をさらに含んでもよく、位置は、アイトラッカー140によって決定された注視点410に基づいている。プロセス700は、受信した位置に基づいて、受信したビデオデータを符号化する前にスキップブロック挿入点を特定すること(ブロック720)をさらに含む。スキップブロック挿入点は、更新レートが低減されたインターフレーム内のブロックを指定することができる。プロセス700は、特定されたスキップブロック挿入点に対して、低減された更新レートのための周波数を決定すること(ブロック725)を含んでもよい。周波数は、特定のブロックがGOP内のインターフレーム内で1秒間に何回更新されるかを表すことができる。プロセス700は、決定された周波数に基づいて、特定されたスキップブロック挿入点に関連付けられたブロックを有するインターフレームを符号化すること(ブロック730)をさらに含んでもよい。
スキップブロック挿入点を有するビデオストリームを符号化するために、プロセス700は、受信されたビデオデータから第1のビデオシーケンスを生成することと、第1のビデオシーケンスよりも低いピクセル密度を有する受信されたビデオデータから第2のビデオシーケンスを生成することと、を含んでもよい。第2のビデオシーケンスは、時間的および空間的に第1のビデオシーケンスと同様とすることができる。プロセス700は、第1のビデオシーケンスに関連性のあるピクセルを示すことであって、特定されたスキップブロック挿入点は関連性がないものとして指定されることと、第1のビデオシーケンス内で関連性のある示されたピクセルを符号化して、第1の符号化されたビデオストリームを生成することと、をさらに含んでもよい。関連性がないと指定されたピクセルは、スキップブロックを使用して符号化することができる。プロセス700は、第2のビデオシーケンスを符号化して、第2の符号化されたビデオストリームを生成することと、第1の符号化されたビデオストリームと第2の符号化されたビデオストリームとを統合することと、次いで統合された符号化されたビデオストリームを監視ステーション125へ送信することと、をさらに含んでもよい。
一実施形態では、第2のビデオシーケンスを生成することは、第1のビデオシーケンスを二次元でデジタルダウンサンプリングすることを含んでもよい。別の一実施形態では、関連性のあるピクセルを示すことは、第1のビデオシーケンスに対してマスクを生成することを含んでもよい。
以上、様々な実施形態について、添付図面を参照して説明してきた。しかしながら、特許請求の範囲に記載された本発明のより広い範囲から逸脱することなく、様々な修正および変更を行うことができ、追加の実施形態が実施可能であることは明らかであろう。したがって、本明細書および図面は、限定的ではなく例示的な意味で考慮されるべきである。
例えば、信号および/またはロジックのある順序が、図6および図7に関して説明されているが、ブロック、論理フロー、および/または信号フローの順序は、他の実装において変更することができる。さらに、非依存のブロックおよび/または信号フローを並行して実行することができる。
本出願は、本特許出願と同日に出願された以下の特許出願を参照として本明細書に援用する。2016年12月30日に出願された「注視ヒートマップ(Gaze Heat Map)」と題された米国特許出願第15/395,893号(代理人整理番号P160085(0090-0018)、2016年12月30日に出願された「注視制御されたビットレート(Gaze Controlled Bitrate)」と題された米国特許出願第15/395,856号(代理人整理番号P160069(0090-0022)、2016年12月30日に出願された「ビデオ管理システムにおける注視に基づく警報マスキング(Alarm Masking Based on Gaze in Video Management System)」と題された米国特許出願第15/395,403号(代理人整理番号P160191(0090-0023))。
上述したようなシステムおよび/またはプロセスは、図に示されている実装において、ソフトウェア、ファームウェア、およびハードウェアの多くの異なる形態で実施することができることは明らかであろう。これらのシステムおよびプロセスを実施するために使用される実際のソフトウェアコードまたは特殊化された制御ハードウェアは、本実施形態を限定するものではない。したがって、システムおよびプロセスの動作および挙動は、特定のソフトウェアコードを参照することなく説明された。すなわち、ソフトウェアおよび制御ハードウェアは、本明細書の記載に基づいてシステムおよびプロセスを実施するように設計可能であることが理解される。
さらに、上述の特定の部分は、1以上の機能を実行するコンポーネントとして実装されてもよい。本明細書で使用されるコンポーネントは、ハードウェア(例えば、プロセッサ、ASIC、またはFPGA)またはハードウェアとソフトウェアの組み合わせ(例えば、ソフトウェアを実行するプロセッサ)を含んでもよい。本明細書で使用される「例示的」という用語は、「例示のための一例として」を意味する。
本明細書中で使用される場合、用語「含む(comprises)」および「含む(comprising)」は、記載された構成、整数、工程、またはコンポーネントの存在を特定するが、1以上の他の構成、整数、工程、コンポーネント、またはそれらの群の存在または追加を除外しない。「例示的」という語は、複数の例のうちの「一例、事例、または図解としての役割を果たすこと」を意味するために使用される。本明細書で「例示的」と記載されている実施形態は、他の実施形態よりも好ましいまたは有利であることを必ずしも意味しない。

本出願で使用されている要素、動作、または命令は、本実施形態にとって重大であるまたは必須であるとは、そのように明示的に記載されていない限り、解釈されるべきではない。また、本明細書で使用する場合、冠詞「a」は、1以上の項目を含むことを意図している。さらに、「に基づいて」というフレーズは、特に断りのない限り、「少なくとも部分的に基づいて」を意味することを意図している。
110 カメラ
130 ディスプレイ
240 コントローラ
250 ビデオエンコーダ
320 プロセッサ
330 メモリ
360 通信インターフェース
402 オペレータ

Claims (15)

  1. 注視検出に基づいてビデオデータを復号する方法であって、
    カメラに関連付けられたエンコーダから受信された符号化されたビデオストリームであって、監視エリアと移動する物体とを表す前記カメラにより取り込まれたビデオデータを含むビデオストリームを、復号することと、
    前記復号されたビデオストリームを装置のディスプレイ上に提示することと、
    前記ディスプレイを見ているオペレータの注視点を検出し、前記注視点の移動を追跡することと、
    前記注視点の前記移動と前記ビデオデータ内の前記移動する物体の移動との間に相関があると決定されたときに、前記ビデオデータ内の前記移動する物体を、関心のある物体として指定することと、
    前記注視点に基づいて、前記ビデオデータのフレーム内の位置をスキップブロック挿入点として指定することであって、前記関心のある物体に関連付けられた前記フレーム内の位置に対してスキップブロック挿入点の前記指定を防止することを含む、指定することと、
    前記エンコーダに前記スキップブロック挿入点を送信することと、を含み、
    前記エンコーダは、前記カメラによって生成されたビデオデータを符号化する際に、前記スキップブロック挿入点に対応するインターフレーム符号化ブロックの更新レートを低減させる、方法。
  2. 前記装置の前記ディスプレイ上の前記オペレータの主焦点を有するウィンドウ内に、前記復号されたビデオストリームを提示することと、
    前記オペレータの前記注視点が、前記オペレータの前記主焦点を有する前記ウィンドウの境界内にあることを判定することと、
    前記オペレータの前記主焦点を有する前記ウィンドウ内に中心窩視野エリアを決定することと、
    前記中心窩視野エリアの外側の前記復号されたビデオストリームに関連付けられた位置をスキップブロック挿入点として指定することと、をさらに含む請求項1に記載の方法。
  3. 少なくとも1つの追加の符号化されたビデオストリームを復号することと、
    前記復号されたビデオストリームおよび前記少なくとも1つの追加の復号されたビデオストリームを、前記装置の前記ディスプレイ上または前記装置の別のディスプレイ上の複数のウィンドウからの別々のウィンドウにそれぞれ提示することと、
    前記注視点に基づいて、前記オペレータの主焦点を有する前記複数のウィンドウからの1つのウィンドウを決定することと、
    前記オペレータの前記主焦点を有さない少なくとも1つのウィンドウに関連付けられたビデオデータのフレーム内の位置を、スキップブロック挿入点として指定することと、
    をさらに含む請求項1に記載の方法。
  4. 前記注視点に基づいて、前記オペレータの前記主焦点を有する前記ウィンドウ内に中心窩視野エリアを決定することと、
    前記中心窩視野エリアの外側の、前記オペレータの前記主焦点を有する前記ウィンドウに関連付けられた前記ビデオデータの前記フレーム内の位置を、スキップブロック挿入点として指定することと、をさらに含む請求項3に記載の方法。
  5. 前記オペレータの前記主焦点を有さない前記少なくとも1つのウィンドウに関連付けられた二次的な復号されたビデオストリームに対するGOP(group of pictures)の長さを決定することと、
    前記オペレータの前記主焦点を有さない前記少なくとも1つのウィンドウに関連付けられたビデオを符号化するために、前記二次的な復号されたビデオストリームに関連付けられたエンコーダに前記決定されたGOPの長さを送信することと、をさらに含み、
    前記決定されたGOPの長さは、前記オペレータの前記主焦点を有する前記ウィンドウに関連付けられた前記復号されたビデオストリームに対するGOPの長さよりも大きい、請求項3に記載の方法。
  6. 前記注視点から前記オペレータの前記主焦点を有さない前記少なくとも1つのウィンドウまでの距離を決定することと、
    前記注視点と前記オペレータの前記主焦点を有さない前記少なくとも1つのウィンドウとの間の前記距離が増加するにつれて、前記決定されたGOPの長さを増加させることと、をさらに含む請求項5に記載の方法。
  7. 前記注視点の移動を追跡することは、前記注視点が前記オペレータの前記主焦点を有する前記ウィンドウ内を移動するにつれて、ある時間間隔の間または所定の閾値を超える距離に対して前記注視点を追跡することを含み、
    前記方法は、前記ビデオデータ内の前記物体を検出することをさらに含む、請求項2に記載の方法。
  8. 前記指定された関心のある物体を表す識別子を生成することと、
    前記復号されたビデオストリームのメタデータを含むデータベースに前記識別子を保存することと、をさらに含む請求項7に記載の方法。
  9. ある時間間隔にわたって前記注視点の位置を追跡することと、
    前記注視点の前記追跡された位置に基づいて前記注視点の次の位置を予測することと、
    をさらに含む請求項1に記載の方法。
  10. 注視検出に基づいてビデオデータを符号化する方法であって、
    少なくとも1つのセンサアレイによって取り込まれたビデオデータであって、移動する物体を含む監視エリアを表すビデオデータを、受信することと、
    前記ビデオデータのビデオストリームを表示装置のディスプレイ上に提示することと、
    前記ディスプレイを見ているオペレータの注視点を検出し、前記注視点の移動を追跡することと、
    前記注視点の前記移動と前記ビデオデータ内の前記移動する物体の移動との間に相関があると決定されたときに、前記ビデオデータ内の前記移動する物体を、関心のある物体として指定することと、
    信された前記ビデオデータのフレーム内において、前記関心のある物体に関連付けられた位置を避けて、前記ビデオデータを符号化するためのスキップブロック挿入点を特定することであって、前記スキップブロック挿入点は、更新レートが低減されたインターフレーム内のブロックを指定するものである、特定することと、
    前記特定されたスキップブロック挿入点に対して、前記低減された更新レートのための周波数を決定することと、
    前記決定された周波数に基づいて、前記特定されたスキップブロック挿入点に関連付けられたブロックを有するインターフレームを符号化することと、
    を含む方法。
  11. 前記受信されたビデオデータから第1のビデオシーケンスを生成することと、
    前記第1のビデオシーケンスよりも低いピクセル密度を有する第2のビデオシーケンスを前記受信されたビデオデータから生成することであって、前記第2のビデオシーケンスは、前記第1のビデオシーケンスと時間的にも空間的にも類似していることと、
    前記第1のビデオシーケンス内の関連性のあるピクセルを示すことであって、前記特定されたスキップブロック挿入点は、関連性がないものとして指定されることと、
    第1の符号化されたビデオストリームを生成するために、前記第1のビデオシーケンス内の前記関連性を示されたピクセルを符号化することであって、関連性がないものとして指定されたピクセルはスキップブロックを用いて符号化されることと、
    第2の符号化されたビデオストリームを生成するために前記第2のビデオシーケンスを符号化することと、
    前記第1の符号化されたビデオストリームと前記第2の符号化されたビデオストリームとを結合することと、
    前記結合された符号化されたビデオストリームを前記表示装置へ送信することと、をさらに含む請求項10に記載の方法。
  12. 前記第2のビデオシーケンスを生成することは、
    前記第1のビデオシーケンスを二次元でデジタルダウンサンプリングすることをさらに含む請求項11に記載の方法。
  13. 前記関連性のあるピクセルを示すことは、
    前記第1のビデオシーケンスに対してマスクを生成することをさらに含む請求項11に記載の方法。
  14. 注視検出に基づいてビデオデータを復号するように構成された装置であって、
    ディスプレイと、
    ネットワークを介してデータを交換するように構成された通信インターフェースと、
    前記ディスプレイおよび前記通信インターフェースに結合されたプロセッサと、
    前記プロセッサに結合され、請求項1~9のいずれか1項に記載の方法を、前記プロセッサに実行させる命令を格納するメモリと、を備える装置。
  15. 注視検出に基づいてビデオデータを符号化するように構成されたカメラであって、
    センサアレイと、
    ネットワークを介してデータを交換するように構成された通信インターフェースと、
    前記センサアレイおよび前記通信インターフェースに結合された、コントローラ、画像プロセッサ、およびビデオエンコーダと、
    前記コントローラ、前記画像プロセッサ、および前記ビデオエンコーダに結合され、請求項10~13のいずれか1項に記載の方法を、前記コントローラ、前記画像プロセッサ、または前記ビデオエンコーダのうちの少なくとも1つに実行させる命令を格納するメモリと、を備えたカメラ。
JP2017254815A 2016-12-30 2017-12-28 方法、装置、およびカメラ Active JP7353015B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/395,790 US10123020B2 (en) 2016-12-30 2016-12-30 Block level update rate control based on gaze sensing
US15/395,790 2016-12-30
EP17154579.1 2017-02-03
EP17154579.1A EP3343916A1 (en) 2016-12-30 2017-02-03 Block level update rate control based on gaze sensing

Publications (2)

Publication Number Publication Date
JP2018110399A JP2018110399A (ja) 2018-07-12
JP7353015B2 true JP7353015B2 (ja) 2023-09-29

Family

ID=57995041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254815A Active JP7353015B2 (ja) 2016-12-30 2017-12-28 方法、装置、およびカメラ

Country Status (6)

Country Link
US (1) US10123020B2 (ja)
EP (1) EP3343916A1 (ja)
JP (1) JP7353015B2 (ja)
KR (1) KR102505462B1 (ja)
CN (1) CN108271021B (ja)
TW (1) TWI767972B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102305633B1 (ko) * 2017-03-17 2021-09-28 엘지전자 주식회사 퀄리티 기반 360도 비디오를 송수신하는 방법 및 그 장치
US10528794B2 (en) * 2017-06-05 2020-01-07 Motorola Solutions, Inc. System and method for tailoring an electronic digital assistant inquiry response as a function of previously detected user ingestion of related video information
US10186124B1 (en) 2017-10-26 2019-01-22 Scott Charles Mullins Behavioral intrusion detection system
CN111263192A (zh) * 2018-11-30 2020-06-09 华为技术有限公司 视频处理方法及相关设备
CN111294601A (zh) * 2018-12-07 2020-06-16 华为技术有限公司 视频图像解码、编码方法及装置
US20200195944A1 (en) * 2018-12-14 2020-06-18 Advanced Micro Devices, Inc. Slice size map control of foveated coding
KR20210153089A (ko) 2019-04-10 2021-12-16 스캇 찰스 멀린스 모니터링 시스템
US11055976B2 (en) 2019-09-19 2021-07-06 Axis Ab Using a skip block mask to reduce bitrate from a monitoring camera
JPWO2021070428A1 (ja) * 2019-10-09 2021-04-15
US11630508B1 (en) * 2020-06-12 2023-04-18 Wells Fargo Bank, N.A. Apparatuses and methods for securely presenting digital objects
US11343531B2 (en) * 2020-06-17 2022-05-24 Western Digital Technologies, Inc. Storage system and method for object monitoring
AU2021414136A1 (en) * 2020-12-30 2023-07-13 Raptor Vision, Llc Monitoring systems
US20230164387A1 (en) * 2021-11-24 2023-05-25 Phenix Real Time Solutions, Inc. Eye gaze as a proxy of attention for video streaming services
CN114827663B (zh) * 2022-04-12 2023-11-21 咪咕文化科技有限公司 分布式直播插帧系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054830A (ja) 2004-08-16 2006-02-23 Sony Corp 画像圧縮通信方法及び装置
JP2008532427A (ja) 2005-03-01 2008-08-14 クゥアルコム・インコーポレイテッド テレビ電話のための背景のスキッピングを用いた関心領域の符号化
JP2009118072A (ja) 2007-11-05 2009-05-28 Ihi Corp 遠隔操作装置及び遠隔操作方法
JP2012249116A (ja) 2011-05-30 2012-12-13 Canon Inc 画像符号化装置
JP2014508311A (ja) 2010-12-08 2014-04-03 株式会社ソニー・コンピュータエンタテインメント 視線追跡を用いた適応的ディスプレー
WO2014103732A1 (ja) 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2016111695A (ja) 2014-11-14 2016-06-20 アクシス アーベー デジタル画像の関連領域を特定する方法、デジタル画像の符号化方法、及び符号化システム
JP2016178356A (ja) 2015-03-18 2016-10-06 株式会社リコー 通信装置、通信システム、受信制御方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4513317A (en) 1982-09-28 1985-04-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Retinally stabilized differential resolution television display
JPH01141479A (ja) * 1987-11-28 1989-06-02 A T R Tsushin Syst Kenkyusho:Kk 視線検出を利用した画像通信装置
JPH07135623A (ja) 1993-10-27 1995-05-23 Kinseki Ltd 網膜直接表示装置
JP4602632B2 (ja) 2000-04-28 2010-12-22 スイスコム モービル アーゲー ビデオ会議の方法とシステム
US20050018911A1 (en) 2003-07-24 2005-01-27 Eastman Kodak Company Foveated video coding system and method
US8879635B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
US9282333B2 (en) * 2011-03-18 2016-03-08 Texas Instruments Incorporated Methods and systems for masking multimedia data
CN103458238B (zh) * 2012-11-14 2016-06-15 深圳信息职业技术学院 一种结合视觉感知的可伸缩视频码率控制方法、装置
EP2838268B1 (en) 2013-07-31 2019-02-20 Axis AB Method, device and system for producing a merged digital video sequence
US9900602B2 (en) * 2015-08-20 2018-02-20 Citrix Systems, Inc. Optimizing remote graphics delivery and presentation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054830A (ja) 2004-08-16 2006-02-23 Sony Corp 画像圧縮通信方法及び装置
JP2008532427A (ja) 2005-03-01 2008-08-14 クゥアルコム・インコーポレイテッド テレビ電話のための背景のスキッピングを用いた関心領域の符号化
JP2009118072A (ja) 2007-11-05 2009-05-28 Ihi Corp 遠隔操作装置及び遠隔操作方法
JP2014508311A (ja) 2010-12-08 2014-04-03 株式会社ソニー・コンピュータエンタテインメント 視線追跡を用いた適応的ディスプレー
JP2012249116A (ja) 2011-05-30 2012-12-13 Canon Inc 画像符号化装置
WO2014103732A1 (ja) 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2016111695A (ja) 2014-11-14 2016-06-20 アクシス アーベー デジタル画像の関連領域を特定する方法、デジタル画像の符号化方法、及び符号化システム
JP2016178356A (ja) 2015-03-18 2016-10-06 株式会社リコー 通信装置、通信システム、受信制御方法およびプログラム

Also Published As

Publication number Publication date
JP2018110399A (ja) 2018-07-12
TW201830973A (zh) 2018-08-16
CN108271021A (zh) 2018-07-10
KR20180079188A (ko) 2018-07-10
US20180192057A1 (en) 2018-07-05
TWI767972B (zh) 2022-06-21
EP3343916A1 (en) 2018-07-04
CN108271021B (zh) 2024-03-19
KR102505462B1 (ko) 2023-03-02
US10123020B2 (en) 2018-11-06

Similar Documents

Publication Publication Date Title
JP7353015B2 (ja) 方法、装置、およびカメラ
JP6708622B2 (ja) 方法、およびコンピュータ装置
EP3343937B1 (en) Method and computer system for video encoding using a historical gaze heat map
US10582196B2 (en) Generating heat maps using dynamic vision sensor events
CN108737837B (zh) 形成视频流的方法及图像处理单元
EP3343524B1 (en) Alarm masking based on gaze in video management system
JP2022066158A (ja) プライバシーマスクを含む画像をエンコードする方法
JP7463268B2 (ja) ビデオのモニタリングにおけるリアルタイム偏差
KR102080456B1 (ko) 압축영상에 대한 신택스 기반의 ptz 카메라의 객체 추적 제어 방법
US20220129680A1 (en) Alert generation based on event detection in a video feed
CN116614630A (zh) 对包括叠层的视频流进行编码

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190416

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230919

R150 Certificate of patent or registration of utility model

Ref document number: 7353015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150