JP2019075156A - 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード - Google Patents

多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード Download PDF

Info

Publication number
JP2019075156A
JP2019075156A JP2018243231A JP2018243231A JP2019075156A JP 2019075156 A JP2019075156 A JP 2019075156A JP 2018243231 A JP2018243231 A JP 2018243231A JP 2018243231 A JP2018243231 A JP 2018243231A JP 2019075156 A JP2019075156 A JP 2019075156A
Authority
JP
Japan
Prior art keywords
scene
video image
dynamic
static
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018243231A
Other languages
English (en)
Other versions
JP6622894B2 (ja
Inventor
ドール ギボン,
Givon Dor
ドール ギボン,
ヨラム エリハイ,
Elichai Yoram
ヨラム エリハイ,
ギル デイヴィッドマン,
Davidman Gil
ギル デイヴィッドマン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Getalert Ltd
Original Assignee
Getalert Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Getalert Ltd filed Critical Getalert Ltd
Publication of JP2019075156A publication Critical patent/JP2019075156A/ja
Application granted granted Critical
Publication of JP6622894B2 publication Critical patent/JP6622894B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】画像やビデオ解析、シーンのキャプチャや登録などにおいて、ビデオ画像内の静的及び動的パラメータを含む多因子の画像の特徴を利用可能とする。【解決手段】ビデオ画像処理システムは、シーンビデオ画像内に表れる、動いている要素を追尾して特徴付けし、静的要素又は被写体を識別して特徴付けし、シーンビデオ画像内の3D座標を定義し、ビデオ画像のソース(例えば、カメラ)の座標と向きを抽出し、静的要素に関連付けられた特徴情報を、新たに抽出された特徴情報と既に存在する特徴情報の改訂との何れか応じて更新し、シーンビデオ画像内の動的要素の中から一人以上の人を検出し、検出された人に関連付けられたイベントを特徴づけて記録する。また、ビデオ画像処理システムは、ビデオ画像のソースの近くに設けられた、一つ以上の音響発生器と一つ以上の音響検出器を含む音響測距部を更に備える。【選択図】図1A

Description

本発明は一般に、コンピュータ映像、画像、ビデオの解析や、シーンのキャプチャ及び登録に関する。より具体的には、いくつかの実施形態は、多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連する実行可能なコードに関する。
ビデオ内容分析(または、ビデオ内容分析方法、VCA)は、時間的及び空間的イベントを検知及び判定するため、ビデオを自動で解析する機能である。これは、人体の視覚野をコンピュータ化したものと同等であると捉えることができる。
この技術的機能は、エンターテインメント、ヘルスケア、小売業、自動車、物流、ホームオートメーション、セーフティ、セキュリティを含む広い範囲で使用される。このアルゴリズムは、汎用マシーンや、ビデオ処理に特化したハードウェア上で実行可能である。
多くの様々な機能がVCAにおいて実行される。ビデオモーション検出は、固定された背景シーンに対する動きが検出される、より単純な形態の一つである。更に進んだ機能は、ビデオの追尾や自身の動きの推測を含む。
マシーン内でVCAが生成した内部画像に基づいて、識別、動作解析、又は状況を検知する他の形態のような、他の機能を実現可能である。
VCAは、高品質の入力ビデオに依存しているため、しばしば、映像のノイズ除去、画像安定、アンシャープマスク、及び超解像などの映像強調技術と組み合わせられる。
現在、このコンピュータ映像分野では、ビデオ画像内の静的と動的の両方のパラメータと、更には音響的に取得されたシーン情報を含む多因子画像特徴登録及び追尾を利用する技術のため、画像やビデオ解析、シーンのキャプチャや登録などが必要である。
本発明は、多因子画像特徴登録及び追尾のための方法、回路、機器、システム、及び、関連する実行可能なコードを含み、ここで使用される因子は、ビデオ画像内の静的と動的の両方のパラメータを含む。いくつかの実施形態によれば、評価される因子は、ビデオとオーディオの両方のセンサを含む異なるセンサのセットから得られるものであってもよい。更に他の実施形態によれば、音響的に取得されたシーン情報は、光学的に取得された情報を補助してもよい。
本発明の実施形態によれば、「ビデオ画像」は、ライブ又はリアルタイムのビデオストリーミング、予め録画されたビデオ画像、及び/又は、連続した静止画像のセットに関連してもよい。
本発明のいくつかの実施形態によれば、多因子画像特徴登録及び追尾のためのシステムは、(1)受け取ったビデオ画像のソースが、固定された又は動いているカメラの何れであるかを識別するためのカメラタイプ識別モジュール、(2)ビデオ画像の画像歪みをデジタル補正するためのレンズ歪み補償モジュール、(3)シーン内におけるカメラの位置及び向きを識別するためのカメラ位置モジュール、(4)シーン及び/又はシーンカメラにおける動的要素に方向ベクトルを割り当てるための3次元(以下、「3D」と記す)軌跡追尾モジュール、(5)シーン内における動的要素の識別と追尾を行うための動的要素解析モジュール、(6)追尾された動的要素の動きに基づき、及び/又は、シーン内の動的要素と静的要素の間の相互作用に基づきシーン内の静的要素を登録するための、及び/又は、シーン内の画像の登録に基づく相対的な奥行きを確立するための静的シーン特徴登録モジュール、(7)検出/測定/抽出されたシーン内の動的要素の動きを特徴的な動きに対応させるための、及び/又は、その人の動きの特性のデータ/特徴/記録に基づき特定の個人を認識するための動作対応付けモジュール、を含む。
いくつかの実施形態によれば、このシステムは、更に(8)シーンを描くために散乱した反射音を利用するための音響シーンマッピングモジュールを含んでもよい。
本発明とみなされる主題は、本明細書の結びの部分において具体的に規定され、明確にクレームされている。しかしながら、本発明は、構成および動作方法の両方に関して、その目的、特徴および利点と共に、添付の図面と以下の詳細な説明を参照して最も理解することができる。
図1Aは、本発明のいくつかの実施形態における、シーンキャプチャ及び特徴づけシステムの一例の上位図を示している。 図1Bは、本発明のいくつかの実施形態における、シーンキャプチャ及び特徴づけシステムの一例において実行される主要なステップのフローチャートを示している。 図2Aは、本発明のいくつかの実施形態における、ビデオ画像/ストリームの特徴付け、更にはメタタグ付けを行うビデオ画像又はビデオストリームの処理エンジンの一例の機能ブロック図を示している。 図2B〜2Gは、本発明の実施形態における、ビデオ画像/ストリームの特徴付け、更にはメタタグ付けを行うよう構成された処理エンジンによって実行されるビデオ画像又はビデオストリームの一例について、主要なステップを説明する図を示している。 図2B〜2Gは、本発明の実施形態における、ビデオ画像/ストリームの特徴付け、更にはメタタグ付けを行うよう構成された処理エンジンによって実行されるビデオ画像又はビデオストリームの一例について、主要なステップを説明する図を示している。 図2B〜2Gは、本発明の実施形態における、ビデオ画像/ストリームの特徴付け、更にはメタタグ付けを行うよう構成された処理エンジンによって実行されるビデオ画像又はビデオストリームの一例について、主要なステップを説明する図を示している。 図2B〜2Gは、本発明の実施形態における、ビデオ画像/ストリームの特徴付け、更にはメタタグ付けを行うよう構成された処理エンジンによって実行されるビデオ画像又はビデオストリームの一例について、主要なステップを説明する図を示している。 図2B〜2Gは、本発明の実施形態における、ビデオ画像/ストリームの特徴付け、更にはメタタグ付けを行うよう構成された処理エンジンによって実行されるビデオ画像又はビデオストリームの一例について、主要なステップを説明する図を示している。 図2B〜2Gは、本発明の実施形態における、ビデオ画像/ストリームの特徴付け、更にはメタタグ付けを行うよう構成された処理エンジンによって実行されるビデオ画像又はビデオストリームの一例について、主要なステップを説明する図を示している。 図3Aは、本発明の実施形態における、画像パス(レンズ又は他の光学要素)の歪み補償方法の一例について、主要なステップのフローチャートを示している。 図3Bは、本発明の実施形態における、歪み補償方法の効果の一例を示しており、この図は、RAW画像、異なる各領域について歪曲方向ベクトルを示すラインが表示された画像、歪みを補償する計算された逆歪曲ベクトル、及び、正しく補償された画像を含む。 図4は、本発明の実施形態における、静的シーン要素の登録方法の一例について、主要なステップのフローチャートを示しており、このフローチャートは、直線に沿って進み、動的要素の相互作用をチェックし、異なる視点から見た複数の画像から3Dマップを繰り返し作成することを含む。 図5は、本発明の実施形態における、シーンのビデオ画像内の動的要素の検知と追尾、及び、動的要素が属する物体タイプと個体の識別の一例について、主要なステップのフローチャートを示している。 図6は、本発明の実施形態における動きの特徴付け方法の一例について、主要なステップのフローチャートを示しており、このフローチャートは、物体固有の動き−動作テーブルを選ぶ/選択することを含む。 図7Aは、本発明の実施形態における反射音処理の一例について、主要なステップのフローチャートを示している。 図7Bは、本発明の実施形態における、反射音処理の一例の一部として実行される主要なステップを説明する図を示しており、この図は、音が出力されるシーン、音が反射しているシーン、検出された反射音、推定された距離がタグ付けされたシーンを含む。 図8は、本発明の実施形態におけるイベント距離の検知方法の一例について、主要なステップのフローチャートを示しており、このフローチャートは、音の発生の検出、対応するビデオの確認、再生、見たイベントと聞いたイベントの間の差分のカウントを含む。
図面を簡素かつ明瞭にするために、図中に示される部材は必ずしも縮尺通りではないことを理解されたい。例えば、図面を明瞭にするために、いくつかの部材の寸法は他の部材よりも誇張して描かれていてもよい。さらに、適切と判断される場合には、対応の又は類似の要素を示す図の間では、参照番号は繰り返し使用されてもよい。
以下の詳細な説明では、いくつかの実施形態に対する理解を深めるために、詳細を具体的に多数示している。しかしながら、いくつのかの実施形態はこれらの具体的な詳細が無くても当該技術分野における当業者によって実施されうることを理解されたい。一方、既知の方法、手順、構成要素、及び/又は、回路については、説明を不明瞭にしないために、その詳細は記載していない。
特に述べられていない限り、以下の説明から明らかなように、本明細書を通じて、「処理する(processing)」、「コンピュータで計算する(computing)」、「計算する(calculating)」、「決定する(determining)」などの用語を用いた説明は、コンピュータシステムのレジスタやメモリ内の物理量、たとえば電子的な量として表されたデータを操作し、かつ/あるいは、前記コンピュータシステムのメモリ、レジスタ、あるいは他の情報記憶装置、送信機器または表示機器内における物理量として同様に表される他のデータに変換するコンピュータまたはコンピュータシステム、または、同様の電子コンピュータ装置の動作やプロセスを参照している。
加えて、本明細書を通じて用いられている用語「記録する(storing)」、「ホスティングする(hosting)」、「キャッシュする(caching)」、「保存する(saving)」などの用語を用いた説明は、コンピュータまたはコンピュータシステム、または、同様の電子コンピュータ装置におけるデジタル情報の「書き込む(writing)」と「保持する(keeping)」という動作やプロセスを参照しており、交換可能に使用される。本明細書を通じて使用される「複数の(plurality)」という用語は、2つ以上の部品、装置、要素、パラメータなどを表すために使用される。
本発明のいくつの実施形態は、例えば、ハードウェアの実施形態全体、ソフトウェアの実施形態全体、または、ハードウェアとソフトウェアの両方を含む実施形態という形を取ってもよい。いくつかの実施形態は、ソフトウェアに組み込まれ、ファームウェア、常駐ソフトウェア、マイクロコードなどを含むが、これらに限定されない。
更に、本発明のいくつかの実施形態は、コンピュータで読み取り可能なコンピュータプログラム、或いは、コンピュータや他の指示実行システムによって使用される、又は関連するプログラムコードを提供するコンピュータで読み取り可能なメディアの形を取ってもよい。例えば、コンピュータで使用可能または読み取り可能なメディアは、指示実行システム、装置、又は機器によって使用される、又は、関連するプログラムを、含み、記録し、通信し、伝え、或いは、運ぶことが可能なあらゆる装置を含んでもよい。
いくつかの実施形態において、メディアは、電気的、磁気的、光学的、電磁的、赤外の、又は、半導体のシステム(または装置、機器)、或いは、通信メディアであってもよい。コンピュータで読み取り可能なメディアのいくつかの例は、半導体又は固体メモリ、磁気テープ、着脱可能なコンピュータディスケット、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、剛体磁気ディスク、及び、光学ディスクを含んでもよい。光学ディスクのいくつかの例は、読み取り専用のコンパクトディスク(CD−ROM)、読み書き可能なコンパクトディスク(CD−R/W)、及び、DVDを含む。
いくつかの実施形態において、プログラムコードの記録及び/又は実行に適したデータ処理システムは、メモリ要素と直接的または間接的に接続された少なくとも一つのプロセッサを含んでもよい。このメモリ要素は、実行中にバルクストレージからコードを読み出す回数を減らすために、例えば、プログラムコードの実行中に使用されるローカルメモリ、バルクストレージ、及び、少なくともいくつかの一時的なストレージを提供するプログラムのキャッシュメモリを含んでもよい。
いくつかの実施形態において、入力/出力、又は、I/Oデバイス(キーボード、ディスプレイ、ポインティングデバイスなどを含むが、これらに限定されない)は、システムに対し、直接的又はIOコントローラを介して接続されていてもよい。いくつかの実施形態において、データ処理システムが他のデータ処理システムやリモートプリンタ、ストレージと、例えば、プライベート又は公共ネットワークを介して接続できるように、ネットワークアダプタがシステムに接続されていてもよい。いくつかの実施形態において、モデム、ケーブルモデム及びイーサネットカードが、ネットワークアダプタの種類の例である。他の適切なコンポーネントが使用されてもよい。
ここで1つ又は複数の実施形態を参照して記載されている機能、操作、コンポーネント及び/又は特徴は、1つ又は複数の他の実施形態を参照して記載されている1つ又は複数の他の機能、操作、コンポーネント及び/又は特徴と組み合わせられ、又は組み合わせて使用されてもよく、その逆も可能である。
本発明は、多因子画像特徴登録及び追尾のための方法、回路、機器、システム、及び、関連する実行可能なプログラムを含み、ここで使用される因子は、ビデオ画像内の静的と動的の両方のパラメータを含む。いくつかの実施形態によれば、評価される因子は、ビデオとオーディオの両方のセンサを含む異なるセンサのセットから得られるものであってもよい。更に他の実施形態によれば、音響的に取得されたシーン情報は、光学的に取得された情報を補助してもよい。
本発明の実施形態によれば、「ビデオ画像」は、ライブ又はリアルタイムのビデオストリーミング、予め録画されたビデオ画像、及び/又は、連続した静止画像のセットに関連してもよい。
本発明のいくつかの実施形態によれば、多因子画像特徴登録及び追尾のためのシステムは、(1)受け取ったビデオ画像のソースが、固定された又は動いているカメラの何れであるかを識別するカメラタイプ識別モジュールと;(2)ビデオ画像の画像歪みをデジタル的に補償するレンズ歪み補償モジュールと;(3)シーン内におけるカメラの位置及び向きを識別するためのカメラ位置モジュールと;(4)シーン内の動的要素、及び/又は、シーンカメラに対し、方向ベクトルを割り当てる3次元(以下、「3D」と記す)軌跡追尾モジュールと;(5)シーン内における動的要素の識別及び追尾を行う動的要素解析モジュールと;(6)追尾された動的要素の動きに基づいて及び/又はシーン内の動的要素と静的要素の間の相互作用に基づいてシーン内の静的要素を登録する、及び/又は、シーン内の画像の登録に基づいて相対的な奥行きを確立する静的シーン特徴登録モジュールと;(7)検出/測定/抽出されたシーン内の動的要素の動きを特徴的な動きに対応づける、及び/又は、その人の動きの特徴のデータ/特徴/記録に基づいて特定の個人を認識する動作対応付けモジュールと、を含んでもよい。いくつかの実施形態によれば、このシステムは、(8)シーンのマッピングのために散乱した反射音を利用する音響シーンマッピングモジュールを更に含んでもよい。
本発明のいくつかの実施形態によれば、カメラタイプ識別モジュールは、(1)ビデオ画像の2つ以上のフレームに沿って動画及び静止画のエッジを抽出し;(2)いくつかの連続するフレームにおいて繰り返し識別された(生き残った)シーンにおける静止したエッジのグループを登録し、静止したエッジの相対的な位置は、いくつかの時間/フレームの期間において変化せず;及び/又は(3)抽出されたエッジのグループが実質的に連続するフレームに亘って配置されている場合にカメラが静止していると判定する、又は、抽出されたエッジが、実質的に連続するフレームに亘った配置と整合していないことを示している場合にカメラが動いていると判定してもよい。
本発明のいくつかの実施形態によれば、レンズ歪み補償モジュールは、レンズ歪みパラメータが既知である場合、(1)カメラのレンズ及び/又は光路上の他の光学的特徴(例えば、鏡)の、既知の又は見積もられた歪み特性/モデル/機能を参照し、且つ/又は、(2)その歪みを補償するために、画像ピクセル又はピクセルグループ毎に逆歪みの関数/変換をデジタル的に導入してもよい。
いくつかの実施形態によれば、レンズ歪み補償モジュールは、レンズ歪みパラメータが不明である場合に、画像に沿った既知の背景エッジを、歪みを計算するため利用してもよい。静止カメラの場合、レンズ歪み補償モジュールは、(1)フレームを横切る動的要素の変形を利用し;且つ/又は、(2)推定歪み特性を生成するために、シーン背景の形状を識別し、それらを画像内における位置(中心部/周辺部)に基づいて推定された形状と比較してもよい。動的カメラの場合、レンズ歪み補償モジュールは、推定歪み特性を生成するために、カメラの3次元的な移動によって変形するシーン内のエッジを使用してもよい。
本発明のいくつかの実施形態によれば、カメラ位置モジュールは、既知の背景の形状の外観及び/又は向きを、推定された「シーンのフロア」及び/又は他の背景面の3D映像に対応付けることによって、カメラの位置/向きを識別してもよい。いくつかの実施形態によれば、動的な被写体及び/又は要素のために、カメラ位置モジュールは、移動(例えば、所定の方向への動き)の関数として現れる見かけ(例えば、大きさ及び位置)上の変化を、ビデオ画像の複数のフレーム間で比較することにより、動的な被写体/要素の軌跡を計算して追尾してもよい。
静的なカメラのいくつかの実施形態によれば、想定されるシーンのフロアが、真っ直ぐな背景シーンのエッジに基づいて登録され、動的な被写体/要素の計算された移動軌跡に沿って配置されてもよい。静的なカメラのいくつかの実施形態によれば、シーン内の画像の登録に基づいて、シーンの相対的な奥行き、又は相対的なカメラの視野(FOV)の3Dモデルを確立することは:(1)背景シーンの真っ直ぐなエッジに基づいて、シーンのフロア、及び/又は平面を登録すること;(2)既知の形状及び/又は向きを有する物体の外観を、既知の形状の2次元(2D)映像に対応付けること;(3)FOVフレーム内の相対的なサイズを、シーン内の既知の形状の被写体、動的な要素/被写体/物体と、例えば、それらの移動(例えば、フロア上の所定の向きにおける動き/移動)の関数として比較すること;及び/又は、(4)少なくともいくつかの続くフレームに対して上記1〜3を繰り返すこと、及び/又は、例えば、先行するフレームに対する結果と比較し、それに応じて調整(例えば、平均化)すること、を含んでもよい。
動的/動いているカメラのいくつかの実施形態によれば、カメラ位置モジュールは、フロアの3次元的な方向を識別するために、X、Y及びZにおいて見つかったシーン背景内の真っ直ぐなエッジの2D映像を計算してもよい。動的/動いているカメラのいくつかの実施形態によれば、シーン内の画像の登録に基づくシーンの相対的な奥行き、又は相対的なカメラ視野(FOV)の3Dシーンモデルを確立することは:(1)シーン背景の真っ直ぐなエッジに基づき、シーンのフロア及び/又は他の平面を登録すること;(2)既知の形状の外観及び/又は向きを有する物体の外観を、既知の形状の2次元(2D)映像へ対応付けること;(3)FOVフレーム内の相対的なサイズを、シーン内の既知の形状の被写体、動的な要素/被写体/物体と、例えば、それらの移動(例えば、フロア上の所定の向きにおける動き/移動)の関数として比較すること;及び/又は、(4)少なくともいくつかの続くフレームに対して上記1〜3を繰り返して、先行するフレームの位置及び動的カメラの現在の既知の位置及び/向きに基づいて、静的/背景シーンの要素/特徴或いは領域の位置を推定/判定するために、複数の続く/連続するビデオ画像のフレームの間で三角測量を実行すること、及び/又は、おそらくは先行するフレームに対する結果と比較し、それに応じて調整(例えば、平均化)すること、を含んでもよい。
いくつかの実施形態によれば、シーン背景の3Dエッジの変形は、所定数の連続するフレームを含む各フレームセットの中のシングルフレームに対して計算されてもよい。より少数のフレーム(例えば、10フレームよりも5フレーム)を含むセット、又は、各シングルフレームに対するシーン背景の3Dエッジの変形の計算は、変形結果を向上するために利用されてもよい。
本発明のいくつかの実施形態によれば、3D軌跡追尾モジュールは、ビデオ画像内の動的要素の3次元的な軌跡を利用し、それらを方向ベクトルに割り当ててもよい。いくつかの実施形態によれば、割り当てられた方向ベクトルは、動的要素の識別の一部として後で行う動的要素の解析を補助してもよい。3Dシーンにおける所定の動的要素の配置は、各フレームにおけるその動的要素の3次元的な位置及び移動方向を示すものであってもよい。
いくつかの実施形態によれば、動的要素の移動/前進の方向に基づき、動的要素の一部及び/又はそれが「所有している」物(例えば、人や犬)が、フレーム内に表れる(例えば、カメラに向かう)ことが予測されてもよく、これにより、動的要素及び/又は「所有している」物の追尾処理と識別処理が向上されてもよい(例えば、人体の顔が予測されると、これに応じて、顔方向認識アルゴリズム/システムが開始/実行されてもよく、或いは、通常の処理及び/又は他の人を解析/認証するアルゴリズム/機能の処理が変更されてもよい。)。
本発明のいくつかの実施形態によれば、動的要素解析モジュールは:(1)シーン内の識別された背景エッジに関連付けられていない動的エッジを検出し;(2)動的エッジベクトル(例えば、一緒に移動する複数のエッジベクトル)をグループ化し;(3)動的エッジベクトルの(リンクされた)グループ間で、エッジベクトルの相対的な動きを測定し;(4)動的エッジベクトルの(リンクされた)グループの動的エッジベクトルを、ユニット及び/又は連なりとして、動的要素参照テーブルと比較し;(5)動的エッジベクトルの(リンクされた)グループの動的要素を識別し(例えば、人の腕、人の足、犬の足);(6)物体参照テーブル(例えば、人、犬、車、馬)を参照して、動的要素が属する物体を識別し、且つ/又は、もし物体が、人または他の認識可能な物体タイプと識別された場合に、個体参照テーブルを参照し、その動的要素が属する特定の個体/見本を認識し;(7)ビデオ画像フレーム内における物体/個体の向きを識別し;且つ/又は、(8)識別された物体の識別された向きに基づいて、追尾最適化パラメータを生成してもよい。
本発明のいくつかの実施形態によれば、静的シーン特徴登録モジュールは、静的シーン要素のパラメータの特徴付けの一部として、(1)シーン内の動的要素の動きを追尾し;(2)シーン内の追尾された動的要素のそれぞれの動きに関連付けられた、幾何学的な形状/形態/経路が再現していることを識別し;(3)シーン内の静的要素の一般的な形状及び位置を推測してもよい。いくつかの実施形態によれば、静的要素の推測された形状と位置は、静的シーンの3Dモデルに登録されてもよく、動的シーンマップの一部として登録されてもよい。
いくつかの実施形態によれば、静的シーン特徴登録モジュールは、静的シーンの要素の境界識別の一部として、(1)シーン内の動的要素の動きを追尾し;(2)シーン内で追尾されている動的要素と、(例えば、既知の形/位置の、或いは、静的シーン要素のパラメータの特徴付けの一部として推測された)静的要素との相互作用や交差が再現していることを識別し;(3)シーン内の静的要素の境界/境目を推測してもよい。いくつかの実施形態によれば、静的要素の推測された境界/境目は、静的シーンの3Dモデルに登録されてもよく、及び/又は、動的シーンのマップの一部として登録されてもよい。
いくつかの実施形態によれば、静的シーン特徴登録モジュールは、静的シーン要素の大きさの推測の一部として、(1)シーン内の動的要素の動きを追尾し;(2)(例えば、既知の形/位置/境界の、或いは、静的シーンのパラメータの特徴付け及び/又は静的シーン要素の境界識別の一部として推測された)静的要素との関連で、追尾された動的要素の相対的な位置を識別し;(3)追尾された動的要素の大きさ/サイズとの関連で、シーン内の静的要素の大きさ/サイズを推測する。いくつかの実施形態によれば、(例えば、後述するように、動的要素が属する動的物体の個体識別に基づいて得られた)シーン内の一つ以上の動的要素のうち、一つ以上の既知の/計算された/見積もられた実際の大きさは、少なくとも一部については推測された大きさ/サイズの比に基づき、シーン内の静的要素の大きさを計算/推測するために用いられてもよい。また、その逆も可能である(既知の静的要素の大きさが、動的要素のサイズを見積もるために使用される)。いくつかの実施形態によれば、静的要素の推測された大きさ/サイズは、静的シーンの3Dモデルへ登録、及び/又は、動的シーンのマップの一部として登録されてもよい。
いくつかの実施形態によれば、シーン内で追尾された動的な要素の、静的な要素との相互作用及び/又は交差は、シーン内の動的要素と静的な要素と考えられるものとの間における、視認可能/識別可能な接触又は接触したように見えるもの、複数回の視認可能な接触又は接触したように見えるもの、及び/又は、遅延した又は長時間の接触又は接触したように見えるものなど、様々なタイプを含んでもよい。
例えば、動的要素のエッジ及び/又は一部のエッジのうち、同じ直線上の二箇所以上において停止/静止している箇所は、静的要素のエッジ又は境界を示している。また、動的要素のエッジ及び/又は一部のエッジのうち、同じ平面上における三箇所以上において停止/静止している箇所は、静的要素の境界面を示している。また、動的要素のエッジ及び/又は一部のエッジのうち、同じ平面上における複数の停止/静止している箇所は、静的要素(例えば、シーン内の被写体)の平面を、動的要素の「接触」箇所によって「特徴付け」してもよく、これによりその形状(例えば、接触箇所によってカバーされるエリア)及びエッジ(例えば、接触箇所がカバーするエリアと、関連付けられた平面の静止箇所との間の境界)を定義する。
いくつかの実施形態によれば、静的シーン特徴登録モジュールは、「既知の形状の被写体」のテーブル又はデータベースを参照し、形状データを抽出してもよい。この形状データは、シーン内で部分的に識別された(例えば、参照可能な)静的要素のパラメータの特徴付け、境界の識別、及び/又は、大きさの推測に関連付けられていてもよい。
本発明のいくつかの実施形態によれば、動作対応付けモジュールは、識別された物体タイプの認識の一部として、(1)追尾された要素の物体のタイプ/個別の動きと、その生体的な特徴(例えば、サイズ、大きさ)との統合に基づき、少なくともいくつかの動的要素に対するプロファイルを確立してもよく;且つ/又は、(2)追尾されたエッジベクトルの動きのプロファイル、及びその生体的な特徴を、システムデータベースに予め定義された個体参照テーブル(他のプロファイル)と比較してもよく、或いは、新たな識別参照テーブル(新しいプロファイル)を割り当ててもよい。
いくつかの実施形態によれば、動作対応付けモジュールは、特定の動作の認識の一部として、識別された物体タイプ(例えば、犬、人)に基づき、(1)測定された動きを、特徴づけられた動き(例えば、人の歩き、人の落下、犬のジャンプ)に対応付けるためのテーブルを選択し;(2)追尾された動的要素の測定された動きを、選択されたテーブル内の項目に対応付けてもよい。この選択されたテーブルは、測定された動きを、識別された物体の特徴付けられた動きに対応付けている。
本発明のいくつかの実施形態によれば、音響シーンマッピングモジュールは、静的シーンのマッピング/特徴付け、及びシーン内の静的要素へ3次元的な奥行きの値を割り当ての一部として、シーンのそれぞれの3Dマップに実際の奥行きを割り当てながら、取得したシーン内の散乱要素の推定距離及び大きさを割り当てるために、カメラのスピーカによって生成され、マイクによって検知された反射音を利用してもよい。いくつかの実施形態によれば、反射音に基づくシーン要素のカメラからの距離は、ビデオ画像のシーン画像内の視認可能な要素に割り当てられてもよい。
いくつかの実施形態によれば、音響シーンマッピング処理は、特定のカメラについて事前にキャリブレーションを行う段階で、スピーカとマイクとの間で音を通しておくことを要求してもよい。いくつかの実施形態によれば、ステレオスピーカが、シーン内の要素の位置を十分に割り出すことが可能な三角測量に使用されてもよい。
いくつかの実施形態によれば、シーンを通り過ぎる動的被写体/要素/物体が、シーンの再マッピングのトリガーとなってもよい。ここで、再マップされたシーンから静的シーンの奥行きマップが差し引かれることで、動的被写体/要素/物体の奥行き値が抽出され、画像平面上の動的被写体に割り当てられる。
いくつかの実施形態によれば、音響シーンマッピングモジュールは、受動イベントの検知処理の一部として、(1)イベントを示すシーンの音の発生をモニターし;(2)イベントの発生源を視覚的に示すために、ビデオ画像の対応する箇所を解析し;且つ/又は、(3)視覚的なイベントの表示とマイクによるイベントの検知との間の時間差を計算してもよい。この時間差は、シーン内のイベント位置からカメラのマイクまでの、音が伝搬する距離を示す。
本発明のいくつかの実施形態によれば、ビデオ画像(例えば、色、テクスチャ、既知の形状、ロゴ、既知のシーン)の連続するフレームに沿って抽出されたデータセットを有する既知の3Dシーンの特徴は、シーンの状況の推測や、システムの状態やビデオ画像からの特徴の抽出機能の最適化に使用されてもよい。例えば、静的及び動的なデータセットの相関に基づいて、シーンの状況が推測されてもよい。このような相関の例には、水の動き+砂=砂浜;芝生+木々=公園;自由の女神=ニューヨーク;などがあるが、これらに限定されない。
図1Aには、本発明のいくつかの実施形態における、シーンキャプチャの例及び特徴付けシステムの上位図が示されている。シーンからのビデオカメラの映像は、レンズ歪み特性(例えば、歪みマトリクス)の参照、及び/又は、複数のビデオ画像/フレームを通して歪みが生じた形状が既知の被写体の識別に基づき、レンズや光学要素の歪みが補償される。ビデオ画像は、動的要素の識別及び追尾のために解析される。識別された動的要素は、既知の動的な要素、物体、個体、動きを参照することで特徴付けられる。動的要素の識別は、静的なシーンの特徴、例えば既知の被写体の形状、によって補助され、シーン内の動的要素と登録されている静的要素との相互作用に基づく動的要素の追尾をアシストする。補償されたデータ、解析データ、補助された「静的な」データは、動的シーンのマップを形成するために使用される。
図1Bには、本発明のいくつかの実施形態における、シーンキャプチャの例及び特徴付けシステムによって実行される主要なステップのフローチャートが示されている。
図2Aには、本発明のいくつかの実施形態における、ビデオ画像/ストリームの特徴付け、更にはメタタグ付けを行うビデオ画像又はビデオストリームの処理エンジンの一例について、機能ブロック図が示されている。ライブ又は事前に記録されたビデオ画像/ストリームは、処理エンジンによって受信される。動的エッジ検出器は、ビデオ画像内の動的エッジの識別と追尾を行う。エッジベクトルグループ化ロジックは、識別されたエッジベクトルをグループ化する。ベクトルグループの向き及び軌跡の識別子は、シーン内のエッジベクトルグループの軌跡と向きを識別する。内部ベクトルグループの相対移動アナライザは、エッジベクトルグループの動的データを抽出する。動的要素の比較及び識別ロジックは、シーン内で識別された動的要素の種類を見つけるため、動的要素参照テーブルを参照する。動的要素物体識別ロジックは、シーン内で識別された動的物体の種類を見つけるため、動的物体参照テーブルを参照する。動的要素の固有個体識別ロジックは、シーン内で識別された類似する複数の物体の各個体の詳細を見つけるため、固有個体参照テーブルを参照する。識別された物体の外観特徴割り当てロジックは、シーン内で生じた動きの種類を見つけるために、動きと動作の対応テーブルを参照する。そして、識別された物体と動作の特徴付けロジックは、動きと動作の対応テーブルを参照し、シーン内で発生した動作のタイプを識別する。
図2B〜2Gには、本発明の実施形態における、ビデオ画像/ストリームの特徴付けを行い、更にメタタグ付けを行うことも可能な処理エンジンによって実行されるビデオ画像又はビデオストリームの一例の、主要なステップを説明する図が示されている。例示されたステップは、静的/動的カメラタイプ決定処理(2B);レンズ歪み補償処理(2C);シーン内におけるカメラ位置決め処理(2D);動的物体の3次元的な方向及び軌跡ベクトル推定処理(2E);動的要素の識別及び追尾処理(2F);及び、動的要素の認識及び動作解析処理(2G)を含む。
図3Aには、本発明の実施形態における画像パス(レンズ又は他の光学要素)の歪み補償方法の一例について、主要なステップのフローチャートが示されている。
図3Bには、本発明の実施形態における歪み補償方法の効果の一例が示されており、この概略図は、RAW画像;異なる各領域について歪曲方向ベクトルを示すラインが表示された画像;歪みを補償する計算された逆歪曲ベクトルのセット;クリーン且つ補償された画像を含む。
図4には、本発明の実施形態における静的シーン要素の登録方法の一例について、主要なステップのフローチャートが示されており、このフローチャートは、直線に沿って進み、動的要素の交差をチェックし、異なる視点から見た複数の画像から3Dマップを繰り返し作成することを含む。
図5には、本発明の実施形態における、シーンのビデオ画像内の動的要素の検知と追尾、及び、動的要素が属する物体タイプと個体の識別の一例について、主要なステップのフローチャートが示されている。
図6には、本発明の実施形態における動きの特徴付け方法の一例について、主要なステップのフローチャートが示されており、このフローチャートは、物体固有の動き−動作テーブルを選択することを含む。
図7Aには、本発明の実施形態における音の反射方法の一例について、主要なステップのフローチャートが示されている。
図7Bには、本発明の実施形態における、音の反射方法の一例の一部として実行される主要なステップを説明する図が示されており、この図は、音が出力されるシーン;音が反射しているシーン;検出された反射音;及び、推定された距離によって項目がタグ付けされたシーンを含む。
図8には、本発明の実施形態におけるイベント距離の検知方法の一例について、主要なステップのフローチャートが示されおり、このフローチャートは、音の発生の検出、対応するビデオの確認、再生、見たイベントと聞いたイベントの間の差分のカウントを含む。
本発明のいくつかの実施形態によれば、ビデオ画像の画像フレーム内の一つ以上の特徴の登録方法は、連続する一連の画像フレームに亘る一つ以上の動的エッジを検出するため、連続する一連の画像フレームの実質的にそれぞれについてエッジ検知アルゴリズムを実行し;動的パラメータのセットを生成するため、連続する一連の画像フレームに亘って検出されたエッジの動きを追尾してパラメータ化し;動的パラメータを被写体タイプに関連付けて、被写体タイプを有する一つ以上の動的エッジ近傍の画素グループを指定する、ことを含んでもよい。
本発明のいくつかの実施形態によれば、この方法は:被写体タイプに固有の動作データストアにアクセスし、動的パラメータをデータストアの記録に関連付け、この記録が固有の動作タイプを示し;個体を認識する特定の個体データストアにアクセスして動的パラメータをデータストアの記録に関連付け、この記録が特定の個体を示し;ビデオストレームの画像フレーム内の背景要素を識別し;ビデオ画像を取得する撮像装置の動きに起因する光学的な歪みをデジタル的に補正し、既知のレンズ歪みを有する撮像レンズに起因する光学的な歪みをデジタル的に補正し;未知のレンズ歪みを有する撮像レンズに起因する光学的な歪みをデジタル的に補正し;連続する一連の画像フレームに亘る一つ以上の静的エッジを検出するために、連続する一連の画像フレームの実質的にそれぞれについてエッジ検出アルゴリズムを実行し、ビデオ画像のソースが静的カメラである場合に、静的要素のうち特定の静的要素を有する一つ以上の静的エッジ近傍の一つ以上の静的画素グループを指定し;及び/又は、連続する一連の画像フレームに亘る一つ以上の静的エッジを検出するために、連続する一連の画像フレームの実質的にそれぞれについてエッジ検出アルゴリズムを実行し、ビデオ画像のソースが動的カメラである場合に、静的要素のうち特定の静的要素を有する一つ以上の静的エッジ近傍の一つ以上の登録された静的画素グループを指定する、ことを更に含んでもよい。
本発明のいくつかの実施形態によれば、ライブビデオ画像の画像フレーム内の一つ以上の特徴の距離の推定方法は:画像フレーム内の2つ以上の被写体を識別し;識別された被写体の並びの相対距離を推定し;ビデオ画像のソース又はその近傍から音を発し;反射音のパターンを検出して音の伝搬時間に基づき各パターンの距離を見積り;且つ、距離が見積もられた少なくとも一つの反射音のパターンを画像フレーム内の識別された被写体に関連付ける、ことを含んでもよい。
本発明のいくつかの実施形態によれば、オーディオ−ビデオ画像の画像フレーム内の一つ以上の特徴の距離の推定方法は:オーディオ−ビデオ画像のオーディオチャンネルで音の発生源を検出し、音の発生の立ち上がりエッジが、オーディオ−ビデオ画像の第1タイムスタンプであり;オーディオ−ビデオ画像内において、第1タイムスタンプの前に取得された、音の発生源の被写体−動作を含むビデオフレームを識別し、「被写体−動作」が、音と映像の特徴を有する一つ以上の固有シーンの被写体に関連付けられた動作であり;被写体−動作を有するフレームと第1タイムスタンプの間の時間的距離を計算し;計算された時間的距離を推定された音速に乗算することにより、オーディオ−ビデオ画像のソースから被写体−動作までの物理的な距離を見積もる、ことを含んでもよい。
本発明のいくつかの実施形態によれば、ビデオストリームの画像フレーム内の一つ以上の特徴を登録するシステムは:連続する一連の画像フレームに亘る一つ以上の動的エッジを検出するため、連続する一連の画像フレームの実質的にそれぞれについてエッジ検知アルゴリズムを実行する動的エッジ検出器;動的パラメータのセットを生成するため、連続する一連の画像フレームに亘る検出されたエッジの動きを追尾してパラメータ化する動的エッジベクトルの動きアナライザ;動的パラメータを被写体タイプに関連付ける動的物体識別ロジック;及び、被写体タイプを有する一つ以上の動的エッジ近傍の画素グループを指定する動的物体の特徴割り当てロジック、を備えてもよい。
本発明のいくつかの実施形態によれば、システムは:被写体タイプに固有の動作データストアにアクセスし、動的パラメータをデータストアの記録に関連付ける動作特徴づけロジックであって、この記録が固有の動作タイプを示すもの;個体を認識する特定の個体データストアにアクセスし、動作パラメータをデータストアの記録に関連付ける個体認証の特定個体ロジックであって、この記録が特定の個体を示すもの;ビデオストリームの画像フレーム内の背景要素を識別する静的特徴登録モジュール;撮像装置の動きに起因する光学的な歪みをデジタル的に補正するカメラタイプ及びレンズ歪み補償モジュール;既知のレンズ歪みを有する撮像レンズに起因する光学的な歪みをデジタル的に補正するカメラタイプ及びレンズ歪み補償モジュール;未知のレンズ歪みを有する撮像レンズに起因する光学的な歪みをデジタル的に補正するカメラタイプ及びレンズ歪み補償モジュール;連続する一連の画像フレームに亘る一つ以上の静的エッジを検出するために、連続する一連の画像フレームの実質的にそれぞれについてエッジ検出アルゴリズムを実行する静的エッジ検出器、及び、ビデオ画像のソースが静的なカメラである場合に、静的要素のうち特定の静的要素を有する一つ以上の静的エッジ近傍の一つ以上の静的画素グループを指定する静的要素特徴割り当てロジック;及び/又は、連続する一連の画像フレームに亘る一つ以上の静的エッジを検出するために、連続する一連の画像フレームの実質的にそれぞれについてエッジ検出アルゴリズムを実行する静的エッジ検出器、及び、ビデオ画像のソースが動的なカメラである場合に、静的要素のうち特定の静的要素を有する一つ以上の静的エッジ近傍の一つ以上の登録された静的画素グループを指定する静的要素特徴割り当てロジック、を含んでもよい。
本発明のいくつかの実施形態によれば、ビデオ画像処理システムは、1つ以上の2次元的(2D)ビデオ画像を受け取るインタフェース回路と、処理回路とを備えてもよく、処理回路は:シーンのビデオ画像内に表れる、動いている要素を追尾して特徴付け;シーンのビデオ画像内に表れる、静的要素又は被写体を識別して特徴付け;シーンのビデオ画像の境界内で、シーンの3次元的な(3D)座標を定義し、ここで3次元的な(3D)座標の定義が、シーンのX 、Y又は Z軸を示す一つ以上の実質的に線状のエッジの識別と、識別され特徴づけられた静的要素又は被写体の位置を、識別された線状のエッジに関連付けてマッピングすることを含み;シーンビデオ画像の座標フレーム内において、ビデオ画像のソースの座標と向きを抽出し;識別された静的要素に関連付いた特徴情報を有する静的要素の一覧を更新し、この更新が、新たに抽出された特徴情報と既に存在する特徴情報の改訂との何れか応じて実行され;シーンビデオ画像内の追尾及び識別された動的要素の中から一人以上の人を検出し、且つ/又は、検出された人に関連付けられたイベントを特徴づけて記録する、命令を実行する。
いくつかの実施形態によれば、静的要素の特徴情報は:(a)推定された要素の大きさ;(b)要素のカテゴリ;(c)静的要素上の一つ以上のポイントの推定された座標;(d)シーン内の他の要素との関係;(e)シーンを表すパラメータ、のうち一つ以上を含んでもよい。いくつかの実施形態によれば、所定の静的要素の特徴は、少なくとも一部が、与えられた静的要素と追尾された動的要素の間の検知された相互作用から抽出されてもよい。いくつかの実施形態によれば、シーンの境界の座標は、少なくともの一部が、表面と動いている要素との間の検知された相互作用から抽出されてもよい。いくつかの実施形態によれば、検出された動的要素を人と特徴づけることは:(a)人のカテゴリ;(b)人の認識された身元;(c)所属する又は会員である人のグループ;(d)シーン内で識別された他人との人間関係、うち一つ以上を含んでもよい。
いくつかの実施形態によれば、処理回路は更に:シーンのビデオ画像内の追尾及び特徴づけられた動的要素の中から、一つ以上の人以外の物体を検出し、ここで、人以外の物体が、動物、機械的に動く機器、環境から影響を受ける静的被写体又は植物、影、及び、表示又は投射された画像を構成するグループから選択され;及び、検出された人以外の物体に関連付けられたイベントを特徴づけて記録するよう構成されていてもよい。
いくつかの実施形態によれば、システムは、ビデオ画像のソースの近くに設けられた、一つ以上の音響発生器と一つ以上の音響検出器を含む音響測距部を更に備えてもよい。いくつかの実施形態によれば、音響測距部は、少なくとも、1つの前記発生器と2つの前記検出器、又は、1つの前記検出器と2つの前記発生器の組み合わせを含んでもよい。この組み合わせが、処理回路がステレオ音響による三角測量を実行し、少なくとも一つの前記検出器によって検出された反射音源に関する方向情報を抽出するために利用されてもよい。いくつかの実施形態によれば、音響発生器及び/又は音響検出器は、複数の方向性を有してもよく、処理回路は、検出された反射音のセットの夫々の往復時間に関連付けられた距離を、識別された静的要素のセットの夫々、又は、追尾された動的被写体のセットの夫々に対応付けてもよい。いくつかの実施形態によれば、処理回路は、シーン内で動的被写体が検出されなかった場合に、参照反射音マップを生成してもよい。いくつかの実施形態によれば、処理回路は、シーン内で一つ以上の動的被写体が検出された場合に参照反射音マップを生成してもよい。いくつかの実施形態によれば、ビデオ画像のソースの座標や向きを抽出することは、ビデオ画像内の所定の識別された静的要素の外観を、識別された被写体に対応する参照データと比較することを含んでもよい。本発明のいくつかの実施形態によれば、上記のビデオストリームの画像フレーム内における一つ以上の特徴を登録するためのシステムの、いくつか又は全ての実施形態及び/又は特徴が、現在の既知の又は今後考案される様々な3Dカメラから、ビデオ画像を一つ以上の3次元的な(3D)ビデオ画像として受信するインタフェース回路を有していてもよい。
本発明のいくつかの特徴がここで記載および記述されたことによって、当該技術分野における当業者によって多くの変更例、代替例、変形例、均等物の実施が可能になると考えられる。そのため、添付の請求項は本発明の精神を逸脱しない範囲で、そのような全ての変更例、変形例をカバーすることを目的としていることを理解されたい。

いくつかの実施形態において、入力/出力、又は、I/Oデバイス(キーボード、ディスプレイ、ポインティングデバイスなどを含むが、これらに限定されない)は、システムに対し、直接的又はIOコントローラを介して接続されていてもよい。いくつかの実施形態において、データ処理システムが他のデータ処理システムやリモートプリンタ、ストレージと、例えば、プライベート又は公共ネットワークを介して接続できるように、ネットワークアダプタがシステムに接続されていてもよい。いくつかの実施形態において、モデム、ケーブルモデム及びイーサネット(登録商標)カードが、ネットワークアダプタの種類の例である。他の適切なコンポーネントが使用されてもよい。

Claims (1)

  1. 1つ以上の2次元的(2D)ビデオ画像を受け取るインタフェース回路と、
    処理回路と、を備え、
    前記処理回路は、
    シーンビデオ画像内に表れる、動いている要素を追尾して特徴付け、
    前記シーンビデオ画像内に表れる、静的要素又は被写体を識別して特徴付け、
    前記シーンビデオ画像の境界内で、前記シーンの3次元的な(3D)座標を定義し、該3次元的な(3D)座標を定義することが、前記シーンのX、Y、又はZ軸を示す一つ以上の実質的に線状のエッジを識別し、前記識別され特徴づけられた静的要素又は被写体の位置を、前記識別された線状のエッジに関連付けてマッピングすることを含み、
    前記シーンビデオ画像の座標フレーム内において、前記ビデオ画像のソースの座標と向きを抽出し、
    識別された静的要素に関連付いた特徴情報を有する静的要素の一覧を更新し、該更新が、新たに抽出された特徴情報と既に存在する特徴情報の改訂との何れか応じて実行され、
    前記シーンビデオ画像内の前記追尾及び識別された動的要素の中から、一人以上の人を検出し、及び、
    検出された人に関連付けられたイベントを特徴づけて記録する命令を実行し、
    更に、前記ビデオ画像のソースの近くに設けられた、一つ以上の音響発生器と一つ以上の音響検出器を含む音響測距部を更に備える、
    ビデオ画像処理システム。

JP2018243231A 2015-06-26 2018-12-26 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード Active JP6622894B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/751,196 2015-06-26
US14/751,196 US9721350B2 (en) 2015-06-26 2015-06-26 Methods circuits devices systems and associated computer executable code for video feed processing

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017568473A Division JP6471387B2 (ja) 2015-06-26 2016-06-21 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード

Publications (2)

Publication Number Publication Date
JP2019075156A true JP2019075156A (ja) 2019-05-16
JP6622894B2 JP6622894B2 (ja) 2019-12-18

Family

ID=57585042

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017568473A Active JP6471387B2 (ja) 2015-06-26 2016-06-21 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
JP2018243231A Active JP6622894B2 (ja) 2015-06-26 2018-12-26 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017568473A Active JP6471387B2 (ja) 2015-06-26 2016-06-21 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード

Country Status (8)

Country Link
US (3) US9721350B2 (ja)
EP (1) EP3314528A4 (ja)
JP (2) JP6471387B2 (ja)
CN (2) CN107924461B (ja)
AU (3) AU2016284943A1 (ja)
CA (1) CA2990758C (ja)
HK (1) HK1249952A1 (ja)
WO (1) WO2016207786A2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9961261B2 (en) * 2016-06-20 2018-05-01 Gopro, Inc. Image alignment using a virtual gyroscope model
US10366122B2 (en) * 2016-09-14 2019-07-30 Ants Technology (Hk) Limited. Methods circuits devices systems and functionally associated machine executable code for generating a searchable real-scene database
US10373297B2 (en) * 2016-10-26 2019-08-06 Valve Corporation Using pupil location to correct optical lens distortion
US10515117B2 (en) * 2017-02-14 2019-12-24 Cisco Technology, Inc. Generating and reviewing motion metadata
US10666923B2 (en) * 2017-02-24 2020-05-26 Immervision, Inc. Wide-angle stereoscopic vision with cameras having different parameters
US10229322B2 (en) * 2017-04-06 2019-03-12 Ants Technology (Hk) Limited Apparatus, methods and computer products for video analytics
US11538184B2 (en) * 2018-06-01 2022-12-27 Hewlett-Packard Development Company, L.P. Substantially real-time correction of perspective distortion
US10831923B2 (en) 2018-06-08 2020-11-10 The Toronto-Dominion Bank System, device and method for enforcing privacy during a communication session with a voice assistant
US10839811B2 (en) 2018-06-08 2020-11-17 The Toronto-Dominion Bank System, device and method for enforcing privacy during a communication session with a voice assistant
US10978063B2 (en) 2018-09-27 2021-04-13 The Toronto-Dominion Bank Systems, devices and methods for delivering audible alerts
US11188765B2 (en) * 2018-12-04 2021-11-30 Here Global B.V. Method and apparatus for providing real time feature triangulation
CN112150503B (zh) * 2020-09-21 2023-05-02 浙江吉利控股集团有限公司 一种环境动态模型的确定方法、装置、电子设备及存储介质
CN114360090B (zh) * 2021-12-28 2024-06-14 易思维(杭州)科技有限公司 一种具有实时显示功能的巡检仪
CN116612390B (zh) * 2023-07-21 2023-10-03 山东鑫邦建设集团有限公司 一种建筑工程用的信息管理系统
CN117255179B (zh) * 2023-11-14 2024-02-02 北京灵赋生物科技有限公司 基于图像标签识别导向的轨迹监测系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07298247A (ja) * 1994-04-22 1995-11-10 Oki Electric Ind Co Ltd Tvカメラを用いた監視方法及び監視システム
JPH09182086A (ja) * 1995-10-25 1997-07-11 Philips Electron Nv 像間動きの評価方法および評価装置並びに分割像符号化方式
JP2004123648A (ja) * 2002-10-04 2004-04-22 Taiyo Kagaku Co Ltd 錠剤、打錠用改質剤
JP2004213648A (ja) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc 物体追尾方法及び物体追尾装置
JP2004310595A (ja) * 2003-04-09 2004-11-04 Ntt Data Corp 動物体検出装置および動物体検出方法
US20080037869A1 (en) * 2006-07-13 2008-02-14 Hui Zhou Method and Apparatus for Determining Motion in Images
JP2011077617A (ja) * 2009-09-29 2011-04-14 Saxa Inc 移動体撮像装置
US20130278727A1 (en) * 2010-11-24 2013-10-24 Stergen High-Tech Ltd. Method and system for creating three-dimensional viewable video from a single video stream

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152810A (ja) * 1993-11-26 1995-06-16 Toshiba Corp 環境モデル作成装置
US5929940A (en) * 1995-10-25 1999-07-27 U.S. Philips Corporation Method and device for estimating motion between images, system for encoding segmented images
US6041132A (en) * 1997-07-29 2000-03-21 General Electric Company Computed tomography inspection of composite ply structure
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US20050063608A1 (en) * 2003-09-24 2005-03-24 Ian Clarke System and method for creating a panorama image from a plurality of source images
US7728871B2 (en) 2004-09-30 2010-06-01 Smartvue Corporation Wireless video surveillance system & method with input capture and data transmission prioritization and adjustment
WO2006096755A2 (en) 2005-03-07 2006-09-14 The Brigham And Women's Hospital, Inc. Adaptive ultrasound delivery system
DE102005037841B4 (de) * 2005-08-04 2010-08-12 Gesellschaft zur Förderung angewandter Informatik e.V. Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
KR101456652B1 (ko) * 2007-02-01 2014-11-04 이섬 리서치 디벨러프먼트 컴파니 오브 더 히브루 유니버시티 오브 예루살렘 엘티디. 비디오 인덱싱 및 비디오 시놉시스 방법 및 시스템
GB2455971B (en) 2007-12-11 2010-04-28 Motorola Inc Method and apparatus for providing an audiovisual stream
TWI395483B (zh) * 2009-05-25 2013-05-01 Visionatics Inc 使用適應性背景模型之移動物體偵測方法及其電腦程式產品
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US20130163879A1 (en) * 2010-08-30 2013-06-27 Bk-Imaging Ltd. Method and system for extracting three-dimensional information
US20140347479A1 (en) 2011-11-13 2014-11-27 Dor Givon Methods, Systems, Apparatuses, Circuits and Associated Computer Executable Code for Video Based Subject Characterization, Categorization, Identification, Tracking, Monitoring and/or Presence Response
US8813824B2 (en) * 2011-12-06 2014-08-26 Mikro Systems, Inc. Systems, devices, and/or methods for producing holes
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US9247211B2 (en) * 2012-01-17 2016-01-26 Avigilon Fortress Corporation System and method for video content analysis using depth sensing
WO2013154764A1 (en) 2012-04-11 2013-10-17 Eastern Virginia Medical School Automated intelligent mentoring system (aims)
GB201208088D0 (en) 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07298247A (ja) * 1994-04-22 1995-11-10 Oki Electric Ind Co Ltd Tvカメラを用いた監視方法及び監視システム
JPH09182086A (ja) * 1995-10-25 1997-07-11 Philips Electron Nv 像間動きの評価方法および評価装置並びに分割像符号化方式
JP2004123648A (ja) * 2002-10-04 2004-04-22 Taiyo Kagaku Co Ltd 錠剤、打錠用改質剤
JP2004213648A (ja) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc 物体追尾方法及び物体追尾装置
JP2004310595A (ja) * 2003-04-09 2004-11-04 Ntt Data Corp 動物体検出装置および動物体検出方法
US20080037869A1 (en) * 2006-07-13 2008-02-14 Hui Zhou Method and Apparatus for Determining Motion in Images
JP2011077617A (ja) * 2009-09-29 2011-04-14 Saxa Inc 移動体撮像装置
US20130278727A1 (en) * 2010-11-24 2013-10-24 Stergen High-Tech Ltd. Method and system for creating three-dimensional viewable video from a single video stream

Also Published As

Publication number Publication date
CN107924461B (zh) 2019-05-21
AU2019201269A1 (en) 2019-03-14
AU2016284943A1 (en) 2018-01-25
CN110263614A (zh) 2019-09-20
WO2016207786A2 (en) 2016-12-29
JP6622894B2 (ja) 2019-12-18
US11004210B2 (en) 2021-05-11
US20180012366A1 (en) 2018-01-11
HK1249952A1 (zh) 2018-11-16
AU2021202451A1 (en) 2021-06-10
CA2990758C (en) 2018-09-11
US10115203B2 (en) 2018-10-30
CN107924461A (zh) 2018-04-17
JP2018520595A (ja) 2018-07-26
EP3314528A2 (en) 2018-05-02
US9721350B2 (en) 2017-08-01
US20160379373A1 (en) 2016-12-29
US20190130581A1 (en) 2019-05-02
WO2016207786A3 (en) 2017-02-09
JP6471387B2 (ja) 2019-02-20
CA2990758A1 (en) 2016-12-29
EP3314528A4 (en) 2019-02-27

Similar Documents

Publication Publication Date Title
JP6622894B2 (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
US11189078B2 (en) Automated understanding of three dimensional (3D) scenes for augmented reality applications
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
KR20180100180A (ko) 맞춤화/개인별화된 머리 전달 함수 생성 방법
JP4774818B2 (ja) 画像処理装置及び画像処理方法
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
CN109934873B (zh) 标注图像获取方法、装置及设备
JP5667846B2 (ja) 対象物画像判定装置
JP2018195241A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5687035B2 (ja) 人物追跡装置
US8948461B1 (en) Method and system for estimating the three dimensional position of an object in a three dimensional physical space
JP6077425B2 (ja) 映像管理装置及びプログラム
JP2004046464A (ja) 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
JP2012155595A (ja) 対象物画像判定装置
JPWO2019016879A1 (ja) 物体検出装置、及び、物体検出手法
KR20160072477A (ko) 주변 환경 모델링 방법 및 이를 수행하는 장치
CN111489384A (zh) 基于互视角的遮挡评估方法及装置、设备、系统和介质
JP2009251990A (ja) 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体
Byeon et al. Matching heads of multiple people in multiple camera networks
Jaureguizar et al. Extraction of 3D structure from video sequences
Yang A Stereo Matching System
JP2009282742A (ja) 人物検出装置及び人物検出方法並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190117

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20190910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191122

R150 Certificate of patent or registration of utility model

Ref document number: 6622894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250