JP2008198189A - 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するための方法、システム、およびプログラム - Google Patents

有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するための方法、システム、およびプログラム Download PDF

Info

Publication number
JP2008198189A
JP2008198189A JP2008003174A JP2008003174A JP2008198189A JP 2008198189 A JP2008198189 A JP 2008198189A JP 2008003174 A JP2008003174 A JP 2008003174A JP 2008003174 A JP2008003174 A JP 2008003174A JP 2008198189 A JP2008198189 A JP 2008198189A
Authority
JP
Japan
Prior art keywords
user
motion
monitored
action
harmful
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008003174A
Other languages
English (en)
Other versions
JP5305665B2 (ja
Inventor
Anthony J Sessa
アンソニー・ジェイムズ・セッサ
Steven Goldman
スティーヴン・ゴールドマン
Jacob Albertson
ジェイコブ・アルバートソン
C Arnold Kenneth
ケネス・チャールズ・アーノルド
Michael A Paolini
マイケル・エイ・パオリーニ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2008198189A publication Critical patent/JP2008198189A/ja
Application granted granted Critical
Publication of JP5305665B2 publication Critical patent/JP5305665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • G01V5/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • G08B13/19615Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion wherein said pattern is defined by the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/902Application using ai with detail of the ai system
    • Y10S706/933Law, law enforcement, or government

Abstract

【課題】有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するための方法、システム、およびプログラムを提供する。
【解決手段】監視ユーザによってモニターされた特定の環境内のモニター対象ユーザの3次元運動を取り込むための動作処理システムを含み、モニター対象ユーザに向けられた少なくとも1つの画像取り込み装置を使用することによって3次元運動が決定される。動作処理システムは、取り込まれた運動を使用して3次元オブジェクト・プロパティ・ストリームを識別し、複数の有害動作定義と比較することにより、モニター対象ユーザの特定の定義済み有害動作を識別する。複数の有害動作定義の中から特定の定義済み有害動作を識別したことに応答して、動作処理システムは、監視ユーザのみによって検出可能な出力インターフェースによりモニター対象ユーザの特定の定義済み有害動作について監視ユーザに通知する。
【選択図】図1

Description

本発明は、一般に、改良された動作識別に関する。特に、本発明は、1つまたは複数の画像取り込み装置(image capture device)によって取り込まれた3次元画像ストリーム(three-dimensional imagestream)から他人の動作を検出し、他人の有害動作(adverse behavior)をユーザに通知することに関する。
通行止め(traffic stop)、尋問(interrogation)、セキュリティ・チェックポイント、ストア・セキュリティ、およびその他の日常法執行活動中に、法執行部員(lawenforcement agent)はその瞬間にボディ・ランゲージおよび動作に対する自分自身の知覚に制限される。特定の出来事を分析する際に後で使用するために法執行職員(lawenforcement personnel)がビデオ・テープ活動を行うことは一般的であるが、法執行部員がその瞬間にボディ・ランゲージおよび動作を誤解する可能性がある。一例では、法執行部員は、同時に複数の異なる問題を査定する可能性があり、隠匿凶器を所持する人を示す動作を見落とす可能性がある。
法執行部員に加えて、その他のタイプの仕事および役割では、その他の人または動物が相互に作用する環境を1人または複数の人がモニターし監視する必要があり、このような監視人もその瞬間にモニター中の人または動物のボディ・ランゲージおよびその他の動作に対する自分自身の知覚に制限される。
したがって、上記を考慮すると、有害動作が発生する可能性のある環境をモニターし、その環境内の人または動物の動作を同時に認識し、どの動作が有害動作を表しているかを判断し、法執行職員などの監視ユーザ(supervising user)が依然として環境をモニターしている間に潜在的に有害な動作をその監視ユーザに伝達するための方法、システム、およびプログラムが必要である。
したがって、本発明は、3次元取り込み画像(three-dimensional captured image)からの改良された動作識別を提供する。特に、本発明は、1つまたは複数の画像取り込み装置によって取り込まれた3次元画像ストリームから、他人の動作を検出し、他人の有害動作を監視ユーザに通知することを可能にする。
一実施形態では、コンピュータによって実行される方法、システム、およびプログラムは、監視ユーザによってモニターされた特定の環境内のモニター対象ユーザ(monitored user)の3次元運動(three-dimensional movement)を取り込むための動作処理システム(behaviorprocessing system)を含み、モニター対象ユーザに向けられた少なくとも1つの画像取り込み装置を使用することによって3次元運動が決定される。動作処理システムは、取り込まれた運動を使用して3次元オブジェクト・プロパティ・ストリーム(three-dimensionalobject properties stream)を識別する。動作処理システムは、識別された3次元オブジェクト・プロパティ・ストリームを複数の有害動作定義と比較することにより、3次元オブジェクト・プロパティ・ストリームによって表されたモニター対象ユーザの特定の定義済み有害動作を識別する。複数の有害動作定義の中から特定の定義済み有害動作を識別したことに応答して、動作処理システムは、監視ユーザのみによって検出可能な出力インターフェースによりモニター対象ユーザの特定の定義済み有害動作について監視ユーザに通知するための警告システムを起動する。
モニター対象ユーザの3次元運動を取り込む際に、動作処理システムは、特定の3次元運動を識別し追跡するための立体画像装置(stereoscopic image device)を使用して3次元運動を取り込む。さらに、他の実施形態では、動作処理システムは、3次元運動内で検出されたオブジェクトの1つまたは複数の追加特性を検出するために少なくとも1つの立体画像装置と少なくとも1つのセンサ対応装置(sensorenabled device)を使用してモニター対象ユーザの3次元運動を取り込む。
3次元オブジェクト・プロパティ・ストリームを表す特定の定義済み有害動作を識別する際に、動作処理システムは、取り込まれた3次元運動が特定の有害動作定義に定義された特定の動作を表す確率百分率(percentage probability)を計算し、取り込まれた3次元運動が有害である確率百分率を計算する。さらに、3次元オブジェクト・プロパティ・ストリームを表す特定の定義済み有害動作を識別する際に、動作処理システムは、有害動作定義の少なくとも1つと一致する3次元オブジェクト・プロパティ・ストリーム内のモニター対象ユーザの顔の表情、眼球運動、筋収縮、皮膚表面特性の変化などの微細細分性運動(finegranularity movement)を含む、モニター対象ユーザの身体運動(body movement)の少なくとも1つを識別する。さらに、特定の定義済み有害動作を識別する際に、動作処理システムは、3次元オブジェクト・プロパティから、モニター対象ユーザによる不審な活動、モニター対象ユーザの障害状態、モニター対象者が所持する隠匿凶器、モニター対象者による積極的態度、モニター対象者の怒った顔の表情、およびモニター対象者の神経質な状態のうちの1つを識別する。
一実施形態では、監視ユーザが通行止め、セキュリティ・チェックポイント、および尋問のうちの少なくとも1つを実行している法執行環境を含む特定の環境内で監視ユーザが法執行活動を実行していることを検出したことに応答して、動作処理システムは、特定の環境内のモニター対象ユーザの3次元運動の取り込みを起動する。他の実施形態では、モニター対象ユーザの心理状態をモニターする心理学の専門家を含む特定の環境内で監視ユーザが心理学的評価を実行していることを検出したことに応答して、動作処理システムは、特定の環境内のモニター対象ユーザの3次元運動の取り込みを起動する。
モニター対象ユーザの特定の定義済み有害動作について特定の環境に関する監視ユーザに通知する際に、動作処理システムは、監視ユーザに出力される警告信号を制御するために警告システムに特定の定義済み有害動作を送信する。警告システムは、モニター対象ユーザによって検出不能な監視ユーザへの警告出力を制御するために、特定の定義済み有害動作を出力装置の出力コントローラに出力するための出力信号に変換する。
一実施形態では、動作処理システムは、特定の環境内の監視ユーザの動作をモニターする。監視ユーザの動作が有害であるかまたは特定の環境に関する許容動作(acceptable behavior)のパラメータの範囲外であるかという判断が行われ、第1の監視ユーザを管理する管理監視ユーザは、第1の監視ユーザの動作が許容動作のパラメータの範囲外である動作を示すかまたはその他の警告パラメータに基づいて管理監視ユーザに警報する必要がある場合に警告される。
本発明に特有と思われる新規の特徴は特許請求の範囲に規定されている。しかし、本発明そのもの、ならびにその好ましい使用態様、その他の目的および利点は、添付図面に併せて読んだときに例示的な一実施形態に関する以下の詳細な説明を参照することにより最も良く理解されるであろう。
次に図1に関して説明すると、このブロック図は、動作処理方法、システム、およびプログラムにおける情報の流れを例示している。図1は、監視ユーザによってモニターされた環境内の画像ストリームを取り込み、これらの画像ストリームを処理して、環境内のモニター対象ユーザの動作を予測し、その動作が有害動作であるかどうかを予測するための情報の流れの一実施形態を提供するが、取り込みデータを処理し、動作のタイプならびにその動作が有害であるかどうかを予測するためにその他の情報の流れも実現可能であることが理解されるであろう。
本明細書全体を通して使用する「動作(behavior)」という用語は、ジェスチャおよび顔の表情などの動作またはボディ・ランゲージとして典型的に表示されるユーザ・アクションを含むことができ、任意の検出可能な身体運動、検出可能な身体の姿勢、検出可能な眼球運動、色、温度、トーン、および発汗レベルなどの皮膚表面特性の変化、筋収縮の変化、ならびにその他のタイプの非言語的コミュニケーションも含むことができることは留意すべき重要なことである。本明細書全体を通して使用する「有害動作(adversebehavior)」という用語は、任意の動作を含むことができるが、何らかの点で潜在的に不審な動作、不規則な動作、障害のある動作、危険な動作、またはその他の有害動作として予測された動作に関して本明細書全体を通して使用される。
加えて、本明細書全体を通して使用する「監視ユーザ(supervising user)」または「スーパバイザ(supervisor)」という用語は、特定の環境をモニターまたは監視する任意の人またはシステムを指すことができることは留意すべき重要なことである。監視ユーザは、特定の環境内に物理的に位置する場合もあれば、外部位置から特定の環境をモニターする場合もある。特定の環境内でモニターされる1人または複数のモニター対象ユーザの動作は、監視ユーザの視線の範囲内または範囲外である可能性がある。監視ユーザまたはスーパバイザの例としては、法執行職員、セキュリティ職員、心理学者、商店主、および教師を含むことができるが、これらに限定されない。さらに、監視ユーザの動作をモニターし、監視ユーザのマネージャに報告することもでき、その場合、監視ユーザはモニター対象ユーザと見なされる。本明細書全体を通して使用する「モニター対象ユーザ(monitoreduser)」という用語は、モニター対象環境内の任意の人または動物を含むことができる。
この例では、動作処理システム100は3次元(3D)オブジェクト検出器104を含む。3Dオブジェクト検出器104は、移動オブジェクトおよび静止オブジェクトに関する画像およびその他のデータを取り込み、取り込みデータを簡素化(streamline)し、取り込み運動内の特定のオブジェクトを追跡し、特定のオブジェクトのプロパティをストリーム化(stream)し、3Dオブジェクト・プロパティ110によって例示されている通り、ストリーム化プロパティを取り込みオブジェクトの3D特性の3次元表現に結合するための複数のシステムを表している。3Dオブジェクト・プロパティ110としては、たとえば、モニター対象ユーザによる運動、監視ユーザによる運動、環境内のオブジェクト、ならびに環境の属性を識別する背景を表す位置、色、サイズ、および向きを含むことができるが、これらに限定されない。
この例では、3Dオブジェクト検出器104は、検出可能動作運動102として表される焦点領域(focus area)内の画像を取り込む。加えて、3Dオブジェクト検出器104は、焦点領域内のその他のタイプのデータを検出することができる。特に、3Dオブジェクト検出器104は、ビデオ画像の取り込み、身体部分運動の検出、皮膚テクスチャの検出、眼球運動の検出、皮膚表面特性の検出、熱画像の取り込みを含むが、これらに限定されない複数のタイプの画像およびデータ検出により検出可能動作運動102を検出する。複数のタイプの画像およびデータ検出をサポートするために、3Dオブジェクト検出器104は、立体鏡ビデオ画像取り込み用に配置された1つまたは複数のビデオ・カメラを含む、複数のタイプの画像取り込み装置と、熱身体画像センサ、皮膚テクスチャ・センサ、レーザ感知装置、サウンド・ナビゲーションおよびレンジング(SONAR)装置、または合成レーザまたはソナー・システムなど、1つまたは複数のオブジェクトの少なくとも1つの他の特性を取り込むためのその他のタイプのセンサとを含むことができる。特に、センサは、個別のセンサ・ユニットを使用して実現される場合もあれば、取り込み画像ストリームについて操作する論理装置により実現される場合もある。たとえば、論理装置は、取り込み画像ストリームを処理して、焦点領域内の滑らかな壁またはざらざらした葉などの皮膚以外のテクスチャから区別可能な顔面皮膚テクスチャを検出することができる。
検出可能動作運動102のいくつかの部分は、実際の動作を表す画像およびその他のデータを含むことができ、検出可能動作運動102のその他の部分は、動作を表さない画像およびデータを含むことができる。加えて、検出可能動作運動102は、移動および静止モニター対象ユーザと、移動および静止監視ユーザと、その他のオブジェクトのうちの1つまたは複数を含むことができる。
3Dオブジェクト検出器104は、検出可能動作運動102を検出されたオブジェクトの3Dプロパティのストリームに変換し、3Dオブジェクト・プロパティ110のストリームを動作インタープリタ106に渡す。動作インタープリタ106は、ストリーム化3Dオブジェクト・プロパティ110を各モニター対象ユーザに関する1つまたは複数の動作にマッピングし、モニター対象ユーザの各予測動作ごとに、検出可能動作運動102内の実際の動作が動作インタープリタ106によって正しく予測される確率を見積もる。加えて、動作インタープリタ106は、特定の予測動作も潜在的に有害な動作であるかどうかを予測する。さらに、動作インタープリタ106は、3Dオブジェクト・プロパティ110から監視ユーザによる動作を予測することができる。
動作インタープリタ106は、各予測動作、確率百分率、ならびにその予測動作が潜在的に有害であるかどうかを予測動作出力108として出力する。動作インタープリタ106は、1つまたは複数のシステムの1つまたは複数の動作対応アプリケーションに予測動作出力108を渡すことができる。
特に、検出可能動作運動102を処理し、予測動作出力108を生成する際に、3Dオブジェクト検出器104および動作インタープリタ106は、事前に蓄積し保管した動作定義の動作データベース112にアクセスして、3Dオブジェクト・プロパティ110内で動作を表すこれらのモニター対象オブジェクトをより適切に追跡して検出し、検出可能動作運動102内のその他のオブジェクトから分離したモニター対象ユーザをより適切に認識し、3Dオブジェクト・プロパティ110から潜在的に有害な動作をより適切に追跡、認識、予測することができる。
加えて、動作運動102を処理し、予測動作出力108を生成する際に、3Dオブジェクト検出器104および動作インタープリタ106は、予測動作出力108が出力される動作対応アプリケーションのタイプについて指定された動作定義を含む動作データベース112にアクセスすることができる。たとえば、この実施形態では、特定の警告システムに送信された場合に有害動作を表す可能性がより高いと判断されたタイプの動作にそっくりである検出オブジェクト運動から動作インタープリタ106があるタイプの動作を予測しようと試みるように、警告システムが警告信号に変換するために、予測動作出力108を警告システムに出力することができる。
一例では、法執行職員は、多種多様なタイプの環境をモニターすることができる。通行止め中の環境をモニターする法執行官(law enforcement officer)は、モニター対象ユーザが隠匿凶器を所持していないと思われる尋問中の環境をモニターする法執行官より潜在的に隠匿された凶器に関連する有害動作の警告の恩恵を受ける可能性がある。他の例では、セキュリティ・チェックポイントをモニターする法執行職員は、多量の発汗、不安の徴候、隠匿凶器を潜在的に示す不規則な衣服のドレープまたは不規則な衣服のかさばり、セキュリティ・チェックポイントにおいてセキュリティ・チェックポイントを通過するための有害目的の隠蔽を示す可能性のあるその他の動作など、モニター対象ユーザが実際にセキュリティ・チェックポイントに到達する前に、不審な動作の警告の恩恵を受ける可能性がある。
さらに、動作運動102を処理し、予測動作出力108を生成する際に、3Dオブジェクト検出器104および動作インタープリタ106は、モニター対象ユーザの動作を表すオブジェクトを識別し、その動作が行われた相互作用全体を考慮して動作のタイプを予測しようと試みる。したがって、3Dオブジェクト検出器104および動作インタープリタ106は、動作だけでなく、動作の意味をもたらすと思われる動作に含まれる重要性のレベル、動作の意味をもたらすと思われる動作を行うモニター対象ユーザの背景、動作の意味をもたらすと思われるモニター対象ユーザが動作を行う環境、各動作の意味をもたらす同時に行われた複数動作の組み合わせ、ならびに動作の意味をもたらすその他の検出可能な要因をも判断しようと試みる。したがって、動作データベース112は、動作の意味に影響を及ぼす可能性のある種々のタイプの人、環境、およびその他の要因に対応する動作定義を含む。加えて、動作データベース112は、対応する顔の表情またはその他の対応する動作に応じて調整された動作定義を含む。さらに、動作データベース112は、特定の監視ユーザが最も一般的に相互に作用する特定の人、動物、場所、または物事を表すオブジェクトをより正確に識別し、特定のスーパバイザに対して有害動作を表す動作内で移動するオブジェクトをより正確に識別するように調整することができ、したがって、より多くの指定の動作定義を提供する。
加えて、動作運動102を処理する際に、画像取り込み装置およびその他のセンサからなる複数の個別システムはそれぞれ、異なる角度から分離した焦点領域または重なっている焦点領域について画像およびデータを取り込むことができる。画像取り込み装置およびその他のセンサからなる複数の個別システムは、無線接続または有線接続を介して通信可能に接続することができ、データの組み合わせにより動作インタープリタ106がより正確に動作を解釈できるように、3D動作検出器間または動作インタープリタ間で取り込み画像およびデータを相互に共用することができる。
次に図2を参照すると、この例示的な図は、3Dオブジェクト検出器が取り込み、取り込まれた動作運動を表す3Dオブジェクト・プロパティを生成する環境の一例を描写している。検出可能運動環境200は、図1の動作処理システム100に関して記載した通り、3Dオブジェクト検出器104が検出可能動作運動102を表す画像およびデータを検出する環境の一例であることが理解されるであろう。動作運動が検出され処理されるその他の環境も実現可能である。たとえば、図10は、モニター対象ユーザと監視ユーザの両方が検出される環境を例示している。他の実施形態では、監視ユーザの動作運動が検出され、モニターされる。
この例では、検出可能運動環境200は、結合された3D焦点領域220内でモニター対象ユーザを含む1つまたは複数のオブジェクトの運動を検出するようにそれぞれが位置決めされた画像取り込み装置202と画像取り込み装置204とを含む立体画像装置を含む。描写されている実施形態では、3D焦点領域220によって表される領域が絶えず焦点が合った状態に保持されるように、画像取り込み装置202および画像取り込み装置204はそれぞれ、1つの固定軸または別々の固定軸上に位置決めすることができる。加えて、描写されている実施形態では、画像取り込み装置202および画像取り込み装置204ならびに任意のその他のセンサは、3D焦点領域220内の画像の範囲を制御し、画像を取り込むために、平行に、接線上に、または任意のその他の角度に位置決めすることができる。
他の実施形態では、3D焦点領域220によって表される領域を再位置決めできるように、画像取り込み装置202および画像取り込み装置204がそれぞれ位置調整可能軸(position adjustable axis)上に位置決めされる場合もあれば、画像取り込み装置202および画像取り込み装置204の実際の焦点が調整可能である場合もある。一例では、画像取り込み装置202および画像取り込み装置204のそれぞれは、広い領域内の熱画像ベースの運動を検出する1つまたは複数の熱画像装置(thermalimaging device)と結合することができ、各カメラの焦点領域内の熱運動(thermal movement)を追跡するように画像取り込み装置202および画像取り込み装置204のそれぞれの焦点領域の再位置決めを誘導する。
さらに、この実施形態では、画像取り込み装置202および画像取り込み装置204は、モニター対象ユーザまたは監視ユーザによって所持または装着される装置に固定することができる。たとえば、ユーザが動くにつれて3D焦点領域220が変化するように、画像取り込み装置202および画像取り込み装置204をモニター対象ユーザまたは監視ユーザ用のメガネまたはその他のヘッドウェアに固定することができる。他の例では、車両が移動するにつれて3D焦点領域220が変化するように、画像取り込み装置202および画像取り込み装置204を車両などの移動機械に固定することができる。
描写されていないが、他の実施形態では、画像取り込み装置202などの単一ビデオ・カメラのみを立体画像装置として実現することができる。この単一ビデオ・カメラは軌道またはその他の調整可能軸上に置かれ、コントローラが軌道に沿って単一ビデオ・カメラの位置を調整し、その場合、単一ビデオ・カメラは軌道に沿って種々の位置決め点で焦点領域内のビデオ画像ストリームを取り込み、3D動作検出器104はその画像ストリームを検出可能オブジェクトのプロパティの3Dオブジェクト・プロパティ・ストリームに結合する。一例では、カメラの位置が変化するにつれて、輝度の変化を比較し、フレーム全域でシャドーイングを行うことにより、3Dオブジェクト・プロパティ・ストリームを生成することができる。代わって、奥行きを検出するセンサに結合された単一固定カメラを使用して、立体画像装置を実現することができる。さらに代わって、画像を処理し、定位置から奥行きを検出できるようになっている単一カメラも立体画像装置として機能することができる。たとえば、この単一カメラは、光源の移動を検出し、輝度の変化を比較し、取り込み画像フレーム全域でシャドーイングを行うことにより、画像を処理し、奥行きを検出することができる。特に、この単一カメラ・システムは、まず目、口、および鼻に焦点を合わせてモニター対象ユーザの顔面モデルをマッピングし、次に輝度の変化を検出し、画像フレーム全域でシャドーイングを行って、顔面奥行き特性を検出することができる。その他の例では、センサが取り込まれたビデオ画像ストリームを処理して、画像ストリームのその他の特性から奥行きを抽出することができる。
例のために、3D焦点領域220は、画像取り込み装置202によって取り込まれた第1の取り込み面(capture plane)206と、画像取り込み装置204によって取り込まれた第2の取り込み面208とを含む。第1の取り込み面206は参照番号214によって例示された平面内の運動を検出し、第2の取り込み面208は参照番号216によって例示された平面内の運動を検出する。したがって、たとえば、画像取り込み装置202はあるオブジェクトの左右または上下の運動を検出し、画像取り込み装置204は3D焦点領域220内のあるオブジェクトの前後の運動を検出する。オブジェクトの運動が微細細分性で追跡されると、モニター対象ユーザの上がった眉毛、前に突き出されたあご、またはかすかな足取りなどの身体運動の小さい調整さえ追跡され、監視ユーザに対して警告しなければならない有害動作を示すものとして解釈できることは留意すべき重要なことである。
この例では、3D焦点領域220内の手210は移動オブジェクトを表し、ボックス212は静止オブジェクトを表している。この例では、手210は3D焦点領域220内の人の手の一部分である。モニター対象ユーザは、手210を動かすことにより、任意の数の運動を行うことができ、そのうちのいくつかは有害動作を表すものである。
人が3D焦点領域220内で手210を動かすにつれて、画像取り込み装置202および画像取り込み装置204のそれぞれは、取り込み面206および取り込み面208内で手210の運動のビデオ・ストリームを取り込む。このビデオ・ストリームから3Dオブジェクト検出器104は、手210を3D焦点領域220内の移動オブジェクトとして検出し、ある期間中の手210について3Dオブジェクト・プロパティ110を表す3Dプロパティ・ストリームを生成する。
加えて、人は、ボックス212または他のオブジェクトに対して手210を動かすことができる。たとえば、ユーザは、ボックス212を指すかまたはボックス212に向けられた他のタイプの動作を行うことができる。人が3D焦点領域220内で手210を動かすにつれて、画像取り込み装置202および画像取り込み装置204によって取り込まれたビデオ・ストリームは、手210およびボックス212の運動を含む。このビデオ・ストリームから3Dオブジェクト検出器104は、手210を移動オブジェクトとして検出し、ボックス212を3D焦点領域220内の静止オブジェクトとして検出し、ある期間中のボックス212の3Dプロパティならびにボックス212に対する手210の3Dプロパティを示す3Dオブジェクト・プロパティ・ストリームを生成する。
複数のカメラを使用して3D焦点領域220内の異なる運動面(plane of movement)を取り込むことにより、典型的な静止単一カメラによって行われると思われるものより多くの運動点(pointof movement)が取り込まれることは留意すべき重要なことである。2つ以上の角度からより多くの運動点を取り込むことにより、3Dオブジェクト検出器104は、3D焦点領域220内の動作を含む、静止オブジェクトおよび移動オブジェクトの3D表現をより正確に検出して定義することができる。加えて、3Dオブジェクト検出器104が移動オブジェクトの3D表現をより正確に定義するほど、動作インタープリタ106はその3Dモデルからより正確に動作を予測することができる。たとえば、ある動作は、ユーザが2次元フレーム内で取り込むことができないと思われるモーションをビデオ・カメラ202およびビデオ・カメラ204のうちの一方に向かってまたはそれから離れて行うことから構成される可能性があり、3D動作検出器104はその動作の3D表現を移動オブジェクトとして検出して定義し、動作インタープリタ106はその運動の3Dモデルからビデオ・カメラに向かうかまたはそれから離れる運動によって行われた動作を予測する。
たとえば、モニター対象ユーザは、手210の位置を固く結んだ握りこぶしまで変化させることができる。握りこぶしの堅さと握りこぶしの中の親指の位置は、握りこぶしを固く結ぶという動作を有害動作として解釈しなければならないかどうかをもたらす可能性がある。微細細分性で固く結んだ握りこぶしの3D画像を取り込み、マッピングし、追跡することにより、握りこぶしの堅さと握りこぶしの中の親指の位置が検出され、その結果、動作インタープリタ106はより正確にマッピングし、検出された動作が固く結んだ握りこぶしであることと、特定の固く結んだ握りこぶしが有害動作を表すかどうかを予測することができる。たとえば、親指の位置が3D画像から直接取り込まれない場合、依然として他の指の3D位置決めが検出され、動作インタープリタ106は、他の指の3D位置決めから、他の指が親指に巻き付けられているかどうかまたは親指が外側から他の指を押さえつけているかどうかを判断する。
加えて、図2はジェスチャ中の手210と静止ボックス212を例示しているが、代替諸実施形態では、画像取り込み装置202および画像取り込み装置204が複数の人の動作の画像を取り込み、3Dオブジェクト検出器104がそれぞれの人のそれぞれの動作を個別オブジェクトとして検出するように、3D焦点領域220が複数の個別モニター対象ユーザおよび監視ユーザを含むことができることは留意すべき重要なことである。特に、3Dオブジェクト検出器104は、画像取り込み装置202および画像取り込み装置204から取り込まれたビデオ画像から、手によって行われた動作などのモーションの多い動作と、顔の表情などのモーションの少ない動作を検出し、ある人と他の人との非言語的コミュニケーションならびに相互作用の3Dオブジェクト・プロパティをより正確に生成することができる。
この例では、検出可能運動環境200内で焦点領域220内の画像を取り込むことに加えて、他のセンサが焦点領域220外の環境に関する情報を検出することができる。たとえば、センサ240は、センサ領域242内の情報を検出することができる。センサ領域242は、焦点領域220の上に部分的に重なるか、焦点領域220内に組み込まれるか、焦点領域220を組み込むか、または焦点領域220から分離している可能性がある。3Dオブジェクト検出器104は、感知情報を取り込み画像と結合し、3Dオブジェクト・プロパティ110をより正確に生成し、環境に関する追加情報を警告システムに提供する。
一例では、センサ240は、取り込み画像ストリームから顔面認識またはその他の識別認識を実行することができる。一例では、センサ240は、モニター対象ユーザおよび監視ユーザに関する顔面マッピングのデータベースにアクセスし、そのデータベースから特定の顔面マッピングと一致する特定のユーザ顔面マッピングを識別することができる。他の例では、センサ240は、モニター対象ユーザを識別可能なテキストについて取り込み画像ストリームを分析することができる。たとえば、センサ240は、モニター対象ユーザまたは監視ユーザが装着しているバッジの取り込み画像ストリームからバッジ番号を検出することができる。センサ240がユーザIDを検出することにより、オブジェクト検出器104は3Dオブジェクト・プロパティをより正確に生成することができ、動作インタープリタ106は動作データベース112内に識別されたユーザについて指定された定義からユーザ動作のタイプをより正確に予測することができる。
さらに、他の例では、センサ240は、センサ領域242内の項目上に置かれたRFIDチップから同報された情報を検出することにより、ユーザ認識を補足することができ、その場合、あるオブジェクトのRFIDは、そのオブジェクトに関連するオブジェクト・タイプ、オブジェクト位置、および任意の警告条件を同報する。特定のオブジェクトの位置に関する感知情報をそこから画像が識別される取り込み画像と結合することにより、オブジェクト検出器104は3Dオブジェクト・プロパティ110をより正確に生成することができ、動作インタープリタ106は3Dオブジェクト・プロパティ110内で検出された3Dオブジェクトのタイプおよび潜在的に有害な動作をより正確に予測することができる。加えて、センサ240が位置情報にアクセスすることにより、動作インタープリタ106は、動作対応警告システムが特定のモニター対象ユーザに対してならびに特定のモニター対象環境内で動作をマッピングできるようにする動作レコードとともに位置識別データを含むことができる。
他の例では、センサ240はセンサ領域242内の追跡オブジェクトの相対位置を追跡することができる。描写されていないが、センサ領域242は、センサ領域242内の第1の焦点領域220から第2の焦点領域まで、モニター対象ユーザまたは監視ユーザを含む移動オブジェクトを追跡することができる。複数の焦点領域全域で運動を追跡することにより、センサ240は、3Dオブジェクト・プロパティ110を生成するときに種々の焦点領域で収集されたデータを共用できるように、モニター対象ユーザまたは監視ユーザの位置に関する追加の追跡情報を提供する。さらに、センサ領域242は、センサ領域242内でモーションが検出された場合にセンサ240が焦点領域220の調整を起動してモーションの原因となるエンティティを取り込む特定のセキュリティ領域を表すことができる。その上、特定のGPS位置に関連するマップまたはその他の情報にアクセスし、3Dオブジェクト・プロパティ110を生成し、動作が潜在的に有害であるかどうかを判断し、GPSマッピング領域内で検出された潜在的に有害な動作についてGPSマッピング領域内のスーパバイザに警告する際にそれを使用できるように、センサ240はセンサ領域242の変化するGPS位置を検出することができる。
さらに他の例では、センサ240は、あるオブジェクトの奥行き、表面積、色温度、またはその他の特性に関する追加情報を検出して、そのオブジェクトが特定の動作を表すかどうかならびにその動作が潜在的に有害であるかどうかをより正確に予測することができる。特に、あるオブジェクトの奥行き、表面積、またはその他の特性に関する追加情報を検出することにより、センサ240によって収集されたデータが画像取り込み装置202および画像取り込み装置204によって取り込まれた画像と結合され、検出された3Dオブジェクト内で追加の詳細度および粒度がもたらされる。
次に図3に関して説明すると、このブロック図は、動作インタープリタが3Dオブジェクト・プロパティからモニター対象ユーザの動作ならびにこれらの動作が潜在的に有害であるかどうかを解釈できるようにするために3Dオブジェクト・プロパティを生成するための3Dオブジェクト検出器システムの一実施形態を例示している。3Dオブジェクト検出器104内に描写されている複数のコンポーネントは、単一システム内に組み込まれるか、あるいはネットワーク、その他の通信媒体、またはその他の転送媒体を介して複数のシステム全域に分散される可能性があることは留意すべき重要なことである。加えて、画像およびデータを取り込み、3Dオブジェクト・プロパティ110のストリームを生成するために、例示されているものとは異なる追加または代替コンポーネントを3Dオブジェクト検出器104内で実現可能であることは留意すべき重要なことである。
初めに、画像取り込み装置202、画像取り込み装置204、およびセンサ240などの複数の画像取り込み装置は、3D焦点領域220およびセンサ領域242などの3D焦点領域およびセンサ領域内の検出可能運動102を表すデータを取得するための立体画像取り込み装置を表す。前に記載した通り、画像取り込み装置202および画像取り込み装置204は、ビデオ画像を取り込むためのビデオ・カメラを表すことができる。加えて、画像取り込み装置202および画像取り込み装置204は、カメラまたはその他の静止画像取り込み装置を表すことができる。加えて、画像取り込み装置202および画像取り込み装置204は、検出可能動作運動102を表すデータを取り込むことができるその他のタイプの装置を表すことができる。画像取り込み装置202および画像取り込み装置204は、同じタイプの画像取り込みシステムまたは異なるタイプの画像取り込みシステムを使用して実現することができる。加えて、画像取り込み装置202および画像取り込み装置204のそれぞれによって取り込まれた取り込み領域および取り込み面の範囲、サイズ、および位置は様々になる可能性がある。
センサ240は、RFID読み取り装置、熱身体画像センサ、皮膚テクスチャ・センサ、レーザ感知装置、サウンド・ナビゲーションおよびレンジング(SONAR)装置、または合成レーザまたはソナー・システムを含むがこれらに限定されない1つまたは複数の異なるタイプのセンサを表すことができる。加えて、センサ240は、特定のタイプの身体部分、特定のタイプの身体運動、または皮膚ベース以外のテクスチャから分離した皮膚を示すテクスチャを検出するセンサを含むことができる。センサ240は、あるオブジェクトに関する独立データを収集する場合もあれば、画像取り込み装置202および画像取り込み装置204によって取り込まれた画像を処理する場合もある。
特に、センサ240は、3Dオブジェクト・プロパティ110を作成するための3Dオブジェクト検出器104の能力を強化する、特定のセンタ領域内のオブジェクトに関する情報を検出する。たとえば、SONAR装置によりセンサ240を実現することにより、センサ240は、あるオブジェクトの奥行きおよびSONAR装置からそのオブジェクトまでの距離に関する追加情報を収集し、その場合、奥行き測定値は、3Dオブジェクト・プロパティ110を生成するために、ビデオ・プロセッサ316、ビデオ・プロセッサ308、または形状プロセッサ(geometry processor)320のうちの1つまたは複数によって使用される。センサ240が移動オブジェクトに取り付けられている場合、合成SONAR装置を実現することができる。
画像取り込み装置202、画像取り込み装置204、およびセンサ240のそれぞれは、初めに取り込み画像およびデータを受信してバッファに入れることができるようになっている1つまたは複数のコンピューティング・システムに取り込み画像およびデータを送信する。この例では、画像取り込み装置202は画像取り込みサーバ308に取り込み画像を送信し、画像取り込み装置204は画像取り込みサーバ310に取り込み画像を送信し、センサ240はセンサ・サーバ312に取り込みデータを送信する。画像取り込みサーバ308、画像取り込みサーバ310、およびセンサ・サーバ312は、1つまたは複数のサーバ・システム内に実現することができる。
画像取り込みサーバ308、画像取り込みサーバ310、およびセンサ・サーバ312のそれぞれは、バッファに入れた画像およびデータを、画像取り込み装置202、画像取り込み装置204、およびセンサ装置240から1つまたは複数のプロセッサにストリーム化する。この例では、画像取り込みサーバ308はビデオ・プロセッサ316に画像をストリーム化し、画像取り込みサーバ310はビデオ・プロセッサ318に画像をストリーム化し、センサ・サーバ312はセンサ・プロセッサ319に感知データをストリーム化する。ビデオ・プロセッサ316、ビデオ・プロセッサ318、およびセンサ・プロセッサ319は1つまたは複数のコンピュータ・システム内の1つまたは複数のプロセッサ内に実現できることは留意すべき重要なことである。
一例では、画像取り込みサーバ308および画像取り込みサーバ310はそれぞれビデオ・プロセッサ316およびビデオ・プロセッサ318に画像をストリーム化し、その場合、画像はフレーム単位でストリーム化される。各フレームは、画像取り込み装置のカメラID、フレーム番号、タイム・スタンプ、および画素数を含むことができるが、これらに限定されない。
ビデオ・プロセッサ316、ビデオ・プロセッサ318、およびセンサ・プロセッサ319は、画像フレーム内のオブジェクトを検出して追跡するようにプログラミングされる。特に、ビデオ・プロセッサ316、ビデオ・プロセッサ318、およびセンサ・プロセッサ319は複合データのストリームを受信し、そのデータを処理し、モニター対象ユーザおよび監視ユーザを表すオブジェクトを含む3次元オブジェクトならびにその3次元オブジェクトの特性を識別するので、ビデオ・プロセッサ316、ビデオ・プロセッサ318、およびセンサ・プロセッサ319は、セル・ブロードバンド・エンジン(Cell BE:Cell Broadband Engine)アーキテクチャを実現することができる(セル・ブロードバンド・エンジンはソニー・コンピュータ・エンタテインメント社の登録商標である)。Cell BEアーキテクチャは、共同処理エレメント(SPE:SynergeticProcessing Element)とも呼ばれ、プロセッサ・エレメント間の効率的な通信のための1組のDMAコマンドを実現する複数の追加プロセッサ・エレメントに接続されたパワー・アーキテクチャベースの制御プロセッサ(PPE:PowerArchitecture-based control processor)などの基本プロセッサ・エレメントを含むプロセッサ・アーキテクチャを指す。特に、SPEは、特定のタイプの処理タスクを他のものより効率的に処理するように設計することができる。たとえば、SPEは、フレーム・ストリーム内の移動オブジェクトの点を識別してマッピングするためにビデオ・ストリームの処理をより効率的に処理するように設計することができる。加えて、ビデオ・プロセッサ316、ビデオ・プロセッサ318、およびセンサ・プロセッサ319は、ビデオ画像の効率的な処理により、そこからモニター対象ユーザの動作ならびにその動作が有害である可能性を予測できるビデオ画像内の移動オブジェクトおよび静止オブジェクトを3次元で識別できるようにする、他のタイプのプロセッサ・アーキテクチャを実現することができる。
この例では、ビデオ・プロセッサ316、ビデオ・プロセッサ318、およびセンサ・プロセッサ319はそれぞれ、検出されたオブジェクトの位置、色、サイズ、形状、および向きを含むプロパティを作成し、それを形状プロセッサ320にストリーム化する。一例では、形状プロセッサ320にストリーム化された各処理済みフレームは、カメラID、フレーム番号、タイム・スタンプ、ならびに、X軸座標(x_loc)、Y軸座標(y_loc)、およびZ軸座標(z_loc)のうちの2つまたはそれ以上の組み合わせを含むことができるが、これらに限定されない。x_loc、y_loc、およびz_locはそれぞれ、あるオブジェクトのすべてのプロパティを識別する複数組の点およびその他のデータを含むことができることは留意すべき重要なことである。単一フレーム内で複数のオブジェクトが検出され追跡された場合、各オブジェクトに関するX軸座標およびY軸座標は、単一ストリーム化オブジェクト・プロパティ・レコードに、または複数の個別ストリーム化オブジェクト・プロパティ・レコードに含めることができる。加えて、SONAR検出位置に関するセンサ・プロセッサ319からのフレームなどのストリーム化プロパティ・フレームは、たとえば、z_locとしてリストされるZ軸位置座標を含むことができる。
形状プロセッサ320は、ビデオ・プロセッサ316およびビデオ・プロセッサ318から2Dストリーム化オブジェクト・プロパティを受信し、センサ・プロセッサ319からその他のオブジェクト・データを受信する。形状プロセッサ320は、ストリーム化2Dオブジェクト・プロパティとその他のデータを組み合わせ、ストリーム化2Dオブジェクト・プロパティとその他のデータから3Dオブジェクト・プロパティ110を構築する。特に、形状プロセッサ320は、あるオブジェクトの奥行きを含む3Dオブジェクト・プロパティ110を構築する。一例では、形状プロセッサ320によって構築された各3Dオブジェクト・プロパティ・レコードは、タイム・スタンプ、オブジェクトまたはユーザ運動ラベル、X軸座標(x_loc)、Y軸座標(y_loc)、およびZ軸座標(z_loc)、ならびにセンサから収集された追加情報を含むことができる。たとえば、センサから収集された追加情報としては、RFIDから受信した位置IDまたはGPS検出位置座標を含むことができる。
ビデオ・プロセッサ316、ビデオ・プロセッサ318、センサ・プロセッサ319、および形状プロセッサ320のいずれでも、プロパティ・レコードは、オブジェクトを追跡する際の永続性を可能にするために少なくとも1つのIDを含むことができる。たとえば、このIDは、オブジェクトそのものに関する固有のIDと、ユーザ運動として識別されたオブジェクトを含む、オブジェクトのクラスまたはタイプのIDとを含むことができる。
特に、ビデオ・プロセッサ316、ビデオ・プロセッサ318、およびセンサ・プロセッサ319がオブジェクト・プロパティを識別して分類することにより、それぞれのプロセッサは、前に処理された入力および動作マッピングにアクセスするために動作データベース112にアクセスし、より正確に2Dオブジェクト・プロパティを識別して分類し、ストリーム化2Dオブジェクト・プロパティを検出して、それをオブジェクトと一致させることができる。加えて、形状プロセッサ320は、動作データベース112からアクセスされたオブジェクトについて前に一致させ構築された3Dプロパティに基づいて、ストリーム化2Dオブジェクト・プロパティに基づくオブジェクトの3Dプロパティをより正確に構築することができる。さらに、オブジェクト・データベース122は、今後の参照のためにストリーム化2Dオブジェクト・プロパティおよび3Dオブジェクト・プロパティを保管することができる。
加えて、ビデオ・プロセッサ316、ビデオ・プロセッサ318、およびセンサ・プロセッサ319がオブジェクト・プロパティを識別して分類し、形状プロセッサが3Dオブジェクト・プロパティ110を構築することにより、それぞれのプロセッサは、モニター対象ユーザの動作を含む、検出オブジェクトを識別することができる。たとえば、ビデオ・プロセッサ316、ビデオ・プロセッサ318、センサ・プロセッサ319、および形状プロセッサ320は、顔の表情およびその他の身体運動をマッピングし、顔面その他の身体運動認識を実行し、動作を表すオブジェクトを識別するための追加処理を実行する際に使用するための指定を含む動作データベース112にアクセスすることができる。加えて、ビデオ・プロセッサ316、ビデオ・プロセッサ318、センサ・プロセッサ319、および形状プロセッサ320は、検出オブジェクトおよび背景に基づいてユーザが位置する特定の環境を識別する際に使用するための種々のタイプの環境に関する指定を含む動作データベース112にアクセスすることができる。さらに、3Dオブジェクト・プロパティ110を構築する際に、ビデオ・プロセッサ316、ビデオ・プロセッサ318、センサ・プロセッサ319、および形状プロセッサ320は、その環境内の複数の検出オブジェクトを識別することができ、したがって、単一モニター対象ユーザの複数の動作あるいは複数ユーザ間の1つまたは複数の相互作用を識別することができる。オブジェクトが位置する環境内で検出されたオブジェクト間の相互作用をモニターして識別することにより、ある動作が行われたコンテキストにおいてその動作のより正確な予測を実行することができる。
次に図4を参照すると、このブロック図は、動作インタープリタ・システムの一実施形態を例示している。動作インタープリタ106内に描写されている複数のコンポーネントは、単一システム内に組み込まれるか、あるいはネットワークを介して複数のシステム全域に分散される可能性があることは留意すべき重要なことである。この例では、3Dプロパティ・レコード402は、「タイム・スタンプ」、「x_loc」、「y_loc」、および「z_loc」データ・エレメントを含む。3Dプロパティ・レコード402は、図3の形状プロセッサ320によって決定される追加または代替データ・エレメントを含むことができることが理解されるであろう。たとえば、3Dプロパティ・レコード402は、焦点領域内だけでなくセンサ領域内のユーザの特定の位置または相対位置を識別する追加情報、色、ならびに画像取り込み装置およびセンサによって収集され、3Dオブジェクト検出器104内で処理されたその他のデータを含むことができる。
動作インタープリタ106は動作インタープリタ・コントローラ404を含み、動作インタープリタ・コントローラ404は、動作解釈を実行するようにプログラミングされた1つまたは複数のプロセッサを含むことができる。たとえば、動作インタープリタ・コントローラ404は、Cell BEアーキテクチャを備え、3Dオブジェクト・プロパティ・データ・ストリームを効率的に処理し、3Dオブジェクト・プロパティ・ストリームからモニター対象ユーザの動作を予測し、その動作が潜在的に有害であるかどうかを予測するようにプログラミングされたプロセッサを含むことができる。加えて、動作インタープリタ・コントローラ404は、そこでソフトウェアが実行されるプロセッサを含むことができ、そのソフトウェアは、3Dオブジェクト・プロパティ・ストリームの処理を指示し、3Dオブジェクト・プロパティ・ストリームからモニター対象ユーザの動作を予測し、その動作が潜在的に有害であるかどうかを予測する。
3Dオブジェクト・プロパティ・ストリームを処理し、動作を予測し、潜在的に有害な動作を予測する際に、動作インタープリタ・コントローラ404は、ストリーム化3Dオブジェクト・プロパティがマッピングされた動作アクションを表す確率百分率ならびに予測動作が有害動作を表す確率百分率で、3Dオブジェクト・プロパティを1つまたは複数の動作アクションにマッピングする。特に、動作インタープリタ・コントローラ404は、1つまたは複数の動作に関する1つまたは複数の動作定義にアクセスし、3Dオブジェクト・プロパティが動作定義のうちの1つまたは複数に定義された1つまたは複数の動作の1つまたは複数の特性と一致するかどうかを判断する。動作定義は、1つまたは複数のタイプの動作についてマッピングされた3Dモデルを含むことができる。加えて、動作定義は、検出された身体部分、運動のタイプ、表面特性、形状、運動速度、頻度、運動範囲、運動の奥行き、温度、および色を含むがこれらに限定されない動作の特性を識別するパラメータを定義することができる。
加えて、動作が潜在的に有害であることを動作の特性が示すかどうかを動作インタープリタ・コントローラ404が判断できるように動作定義が指定される。たとえば、1つまたは複数の動作定義から、あるオブジェクト・ストリームが「握りこぶしを作る」という動作を表していると動作インタープリタ・コントローラ404が判断すると、動作インタープリタ・コントローラ404は、握りこぶしの堅さなど、握りこぶしの追加特性を堅さについて動作定義に定義されている特性と比較する。たとえば、動作定義は、掌までの指の曲がりの量によって決定される堅さの範囲を指定することができる。この動作定義では、握りこぶしが固いほど、動作が有害である可能性が高い。他の例では、動作定義は、握りこぶしの堅さと、モニター対象ユーザの身体に対する握りこぶしの位置が相俟って、その動作が潜在的に有害であるかどうかを決定すると指定することもできる。
他の例では、1つまたは複数の動作定義から、あるオブジェクト・ストリームが「手からオブジェクトを落とす」という動作を表していると動作インタープリタ・コントローラ404が判断すると、動作インタープリタ・コントローラ404は、落とされたオブジェクトの追加特性と、そのオブジェクトが落とされた位置を決定し、オブジェクトの特性および位置を、潜在的に有害な落下オブジェクトに関する動作定義に定義された追加要因と比較する。ゴミ入れに紙片を落とすことは潜在的に有害な動作を示さない可能性があるが、座席の下にバッグを落とすことは潜在的に有害な動作を示す可能性がある。
さらに他の例では、1つまたは複数の動作定義から、あるオブジェクト・ストリームが「衣服の下に所持するオブジェクト」という動作を表していると動作インタープリタ・コントローラ404が判断すると、動作インタープリタ・コントローラ404は、オブジェクト領域のかさばりに関する追加特性を判断し、そのかさばり特性を潜在的に有害な所持オブジェクトについて動作定義に定義された追加要因と比較する。
3Dオブジェクト・プロパティ・ストリームを解釈する際に、動作インタープリタ・コントローラ404は1つまたは複数の動作処理システムによって特定の焦点領域について識別された1つまたは複数の3Dオブジェクト・プロパティ・ストリーム内のすべての追跡オブジェクトの集合分析を実行することは留意すべき重要なことである。一例では、動作インタープリタ・コントローラ404は、特定の焦点領域および特定のセンサ領域について3Dオブジェクト・プロパティ・ストリームを集合させる。他の例では、動作インタープリタ・コントローラ404は、焦点領域およびセンサ領域に重なる領域から複数の3Dオブジェクト・プロパティ・ストリームを受信し、類似性、位置標識、および向き標識について3Dオブジェクト・プロパティ・ストリームを分析し、ある領域の3D集合表現内に3Dオブジェクト・プロパティ・ストリームを構築することができる。
一実施形態では、動作インタープリタ・コントローラ404は、追跡オブジェクトの集合を単一動作定義に直接マッピングすることができる。他の実施形態では、動作インタープリタ・コントローラ404は、複数の集合追跡オブジェクトを複数の動作定義にマッピングする。たとえば、ある人は、顔の動作および手の動作により同時に伝達する可能性があり、顔の動作および手の動作の追跡運動により伝達される実際の動作を予測する際に、動作インタープリタ・コントローラ404は、手の動作の3Dオブジェクト・プロパティと相関関係にある顔の動作の3Dオブジェクト・プロパティを分析し、それぞれの動作の予測を可能にし、複数の動作が組み合わせた状態で潜在的に有害な動作を表すかどうかの予測を可能にするために動作定義にアクセスする。さらに、動作インタープリタ・コントローラ404は、ある環境内の複数のモニター対象ユーザによる動作を表す追跡オブジェクトを集合させることができる。その場合、動作インタープリタ・コントローラ404は、複数のモニター対象ユーザによる動作の組み合わせが潜在的に有害な動作を表すかどうかを予測する。
この例では、動作インタープリタ・コントローラ404は、一般動作定義412、環境固有動作定義414、アプリケーション固有動作定義416、およびユーザ固有動作定義418を含む動作データベース112からの動作定義にアクセスする。動作データベース112が追加または代替タイプの動作定義を含むことができることが理解されるであろう。加えて、この例に例示されている動作定義のグループ化のそれぞれが単一データベース内に存在する場合もあれば、ネットワークを介して複数のデータベースおよびデータ記憶システムからアクセスされる場合もあることは留意すべき重要なことである。
一般動作定義412は、ある一般動作が有害であるかどうかを判断するための一般的な動作および要因に関する動作定義を含む。たとえば、一般動作定義412は、指さす人、手を振る人、「はい」とうなずくかまたは「いいえ」と首を横に振る人などの一般的な動作、あるいは一般に有害動作とは関連しないが、コンテキスト次第で有害動作を表す可能性のあるその他のタイプの一般的な動作に関する動作定義を含むことができる。たとえば、「いいえ」と首を横に振る人を識別する際に、その人が首を振る速度ならびにその人の眉毛が上がっているかどうかなどの追加要因も検出され、その追加要因はその人の首振りが潜在的に有害な動作であるかどうかという検出効果のレベルに影響を及ぼす。他の例では、一般動作定義412は、歯を食いしばっている人またはあごを前に突き出している人などの有害動作を一般に表す動作を含むことができる。
環境固有動作定義414は、その動作が有害であるかどうかを判断するための動作定義および要因であって、その動作が検出されるコンテキストに固有のものを含む。コンテキストの例としては、モニター対象ユーザの現在位置、時刻、コンテキスト内でジェスチャおよびその他の動作の背後にある文化的意味、コンテキスト内で話される言語、ならびにその動作が解釈される可能性のあるコンテキストに影響を及ぼすその他の要因を含むことができるが、これらに限定されない。モニター対象ユーザの現在位置は、そのユーザが位置する国または地域を含むことができ、たとえば、通行止め、密閉された部屋、またはセキュリティ・チェックポイントなどの実際の物理的環境を含むことができる。動作インタープリタ・コントローラ404は、モニター対象ユーザまたは監視ユーザの位置を示すGPS標識にアクセスすること、モニター対象ユーザの音声について音声分析を実行して言語および方言の変化を検出すること、特定のタイプの位置を示す画像データ内のオブジェクトを検出すること、あるいはモニター対象ユーザがモニターされているコンテキストをモニターしている他のシステムからの追加データを受信することにより、現行コンテキストを検出することができる。
アプリケーション固有動作定義416は、予測動作出力108が送信される動作対応アプリケーションに固有の動作定義を含む。たとえば、この実施形態では、予測動作出力108は、警察官が装着するヘッドセットに音声ナビゲーションおよび警告出力を提供するナビゲーション・システム内に組み込まれた警告システムである動作対応アプリケーションに出力することができ、選択された動作定義は、ナビゲーション・ベースの警告システムに関連すると思われる動作のタイプに焦点を合わせる。他の例では、予測動作出力108は、モニターされたビデオ・フィードからそのビデオ・フィード内で潜在的に有害な動作の強調を行う監視システム内に組み込まれた警告システムである動作対応アプリケーションに出力することができ、選択された動作定義は、監視ベースの警告システムによって警告される動作に焦点を合わせる。
ユーザ固有動作定義418は、モニター対象ユーザまたは監視ユーザに固有の動作定義を含む。一例では、動作インタープリタ・コントローラ404は、セキュリティ・チェックポイントまたは通行止めなどでユーザが走査可能な識別情報を提示することにより、モニター対象ユーザに関するIDにアクセスし、その走査によりモニター対象ユーザに関するIDが動作インタープリタ・コントローラ404に提供される。他の例では、動作インタープリタ・コントローラ404は、3Dオブジェクト検出器104によって検出されたユーザの属性をユーザ属性のデータベースと比較することにより、モニター対象ユーザに関するIDにアクセスする。たとえば、動作インタープリタ・コントローラ404は、3Dオブジェクト検出器104によってまだ実行されていない場合に顔面または音声認識を実行することができる。動作インタープリタ・コントローラ404がモニター対象ユーザまたは監視ユーザについてその他のタイプのIDアクセスおよび認証を実行できることは理解されるであろう。
加えて、動作データベース112は、特定の環境について監視ユーザまたは監視ユーザ・グループに固有の動作定義およびその他の要因を含むことができる。特に、動作定義およびその他の要因は、監視ユーザの動作が有害である場合を指定することができる。たとえば、特定の環境においてまたはモニター対象ユーザの特定の有害動作に応答して監視ユーザの動作が許容動作または力のパラメータの範囲外である場合に、監視ユーザの動作が有害と見なされる可能性がある。加えて、たとえば、経験不足を示す動作を含む監視ユーザの動作が、何らかの点で監視ユーザに障害があることを示す場合に、監視ユーザの動作が有害と見なされる可能性がある。
また、動作データベース112は、特定の環境内におけるモニター対象ユーザまたは監視ユーザの経験レベルに応じて指定された動作定義およびその他の要因を含むこともできる。たとえば、特定の位置をモニターする際の監視ユーザの経験レベルは、監視ユーザの動作が潜在的に有害であると見なされるかどうかに影響を及ぼす可能性がある。他の例では、モニター対象ユーザの経験レベルまたは特定の場所に入る頻度は、モニター対象ユーザの動作または確立された基準からの動作の変化が潜在的に有害であると見なされるかどうかに影響を及ぼす可能性がある。
さらに、使用可能な動作定義内で、ある動作定義を特定の運動領域または3D焦点領域内の特定の運動の奥行きに関連付けることができる。特に、運動が検出される3次元焦点領域を複数の3次元部分に分割することができ、それぞれの部分で行われる運動は、種々の動作定義選択に基づいて解釈することができる。たとえば、焦点領域の1つの3次元部分は「アクティブ領域」と見なされる可能性があり、その領域内で検出された運動は、セキュリティ・ポイントから特定の距離内の領域など、その特定のアクティブ領域に関連する動作定義選択と比較される。
さらに、動作データベース112は、個別の定義データベース内にまたは定義データベースに統合された個別の定義データベース内に、動物全般、特定のタイプの動物、特定の環境内の動物、および特定の動物について指定された動作定義を含むことができる。加えて、動物に関する動作定義は、潜在的に有害な動作が報告される監視ユーザに基づくかまたは動物が相互に作用する監視ユーザに基づいて、様々になる可能性がある。
動作データベース112内に含まれる動作定義は、モニター対象ユーザまたは監視ユーザのユーザ・フィードバックに追加するか、それに基づいて調整することができる。たとえば、動作データベース112は、動作全般、異なるコンテキスト内の動作、アプリケーションに固有の動作、特定のモニター対象ユーザおよび監視ユーザに固有の動作をより正確にマッピングして予測するために、音声認識システムを訓練するのと同じように、予測が正しいかどうかを示すために潜在的に有害な動作に関する警告指示に監視ユーザが応答することにより、追加の動作定義を学習し、すでに学習した動作定義のパラメータを調整することができる。
動作インタープリタ・コントローラ404がモニター対象ユーザの進路を示すデータを受信する場合、動作インタープリタ・コントローラ404が動作を識別すると、動作インタープリタ・コントローラ404は、モニター対象ユーザの動作が保護当事者または保護領域と交差するかどうかを予測することができる。たとえば、モニター対象ユーザが警備員付きビルへの入口の外側の歩道上を特定の方向に歩いていること、ならびにモニター対象ユーザが歯を食いしばり、きびきびと歩いており、それによりユーザが怒っていることが潜在的に示されることを動作インタープリタ・コントローラ404が検出すると、動作インタープリタ・コントローラ404は、モニター対象ユーザの進路が監視中の警備員の1人によってモニターされている領域に向かって曲がるかどうかを予測し、警告信号を監視中の警備員に提供する警告システムによる使用のための動作レコードを生成することができる。
動作インタープリタ・コントローラ404は、動作レコード420などの1つまたは複数の動作レコードの形で予測有害動作出力108を出力することができる。動作レコード420は、「動作タイプ」、「動作としての確率%」、および「有害動作としての確率%」を示す。加えて、動作レコード420は、「start_x_pos」、「end_x_pos」、「start_y_pos」、「end_y_pos」、「start_z_pos」、「end_z_pos」としてリストされ、動作の位置、運動方向、および運動速度を示す、検出動作の開始XYZ軸プロパティおよび終了XYZ軸プロパティを含む。描写されていないが、動作レコード420は、モニター対象ユーザまたは監視ユーザの位置、運動方向、および運動速度を示す、モニター対象ユーザの運動のXYZ軸の開始および終了プロパティも示すことができる。さらに、RFIDデータ、GPS座標、皮膚表面特性、およびその他の感知データなど、センサから取得された追加情報は、特定の動作レコードに関連付けるかまたは個別オブジェクト・レコードに含めることができる。
動作レコード420を渡す際に、動作インタープリタ・コントローラ404は、特定のタイプの動作レコードをフィルタで除去することができる。たとえば、動作インタープリタ・コントローラ404は、ある動作が有害動作として予測される可能性が特定の百分率より低いレコードを渡さない可能性がある。
代替一実施形態では、動作インタープリタ・コントローラ404が、動作タイプと、検出画像が予測動作を表す確率百分率のみを予測し、すべての検出動作に関するレコードも動作対応アプリケーションに渡す可能性があることは留意すべき重要なことである。その場合、動作対応アプリケーションは、どの動作が有害である可能性があるかを予測し、スーパバイザに対してどのように潜在的に有害な動作を通知するかを制御する。
次に図5に関して説明すると、このブロック図は、本発明を実現可能なコンピューティング・システムの一実施形態を描写している。本発明のコントローラおよびシステムは、ネットワーク502などのネットワークに通信可能に接続された、コンピュータ・システム500などの様々なコンピューティング・システムを含む、様々なシステムで実行することができる。
コンピュータ・システム500は、コンピュータ・システム500内で情報を伝達するためのバス522またはその他の通信装置と、情報を処理するためにバス522に結合されたプロセッサ512などの少なくとも1つの処理装置とを含む。バス522は好ましくは、ブリッジおよびアダプタによって接続され、複数のバス・コントローラによりコンピュータ・システム500内で制御される低待ち時間および高待ち時間パスを含む。サーバとして実現される場合、コンピュータ・システム500は、ネットワーク・サービス能力を改善するように設計された複数のプロセッサを含むことができる。複数のプロセッサがバス522を共用する場合、バス・アクセスおよびロックを管理するための追加コントローラ(描写されていない)を実現することができる。
プロセッサ512は、通常動作中に、オペレーティング・システム560、アプリケーション・ソフトウェア570、ミドルウェア(描写されていない)、ならびに、ランダム・アクセス・メモリ(RAM)514などの動的記憶装置、読み取り専用メモリ(ROM)516などの静的記憶装置、大容量記憶装置518などのデータ記憶装置、またはその他のデータ記憶媒体からアクセス可能なその他のコードの制御下でデータを処理するIBMのPowerPC(R)プロセッサなどの汎用プロセッサにすることができる。一例では、プロセッサ512は、3Dの複合データ・ストリームをより効率的に処理するようにCell BEアーキテクチャをさらに実現することができる。プロセッサ512が他のタイプのプロセッサ・アーキテクチャを実現可能であることは理解されるであろう。加えて、プロセッサ512は、ローカルにまたはネットワークを介して接続され、効率的に処理タスクを分散できるようになっている複数のプロセッサ・チップを表すことができることは留意すべき重要なことである。
一実施形態では、プロセッサ512によって実行される動作は、スーパバイザによる環境のモニター、検出動作からの有害動作予測、図11〜図14の流れ図の動作に描写されている予測有害動作の標識のスーパバイザへの出力、ならびに本明細書に記載されているその他の動作と同時に行われる、ある環境に関する取り込み画像およびデータからの3D動作検出を制御することができる。プロセッサ512によって実行される動作は、オペレーティング・システム560、アプリケーション・ソフトウェア570、ミドルウェア、またはその他のコードによって要求される場合もあれば、本発明の諸ステップは、その諸ステップを実行するためのハードワイヤード・ロジックを収容する特定のハードウェア・コンポーネントによるかまたはプログラム式コンピュータ・コンポーネントとカスタム・ハードウェア・コンポーネントの任意の組み合わせによって実行される可能性もある。
本発明は、コンピュータ・システム500上で実行されたときに本発明によるプロセスをコンピュータ・システム500に実行させるコンピュータ可読プログラムの実行可能命令がそこに保管されているコンピュータ可読媒体または機械可読媒体上に含まれるコンピュータ・プログラムとして提供することができる。本明細書で使用する「コンピュータ可読媒体」または「機械可読媒体」という用語は、実行のためにプロセッサ512またはコンピュータ・システム500のその他のコンポーネントへの命令の提供に関与する任意の媒体を含む。このような媒体は、不揮発性媒体および揮発性媒体などの記憶タイプの媒体ならびに伝送媒体を含むがこれらに限定されない多くの形を取ることができる。不揮発性媒体の一般的な形としては、たとえば、フロッピー(登録商標)・ディスク、フレキシブル・ディスク、ハード・ディスク、磁気テープまたは任意のその他の磁気媒体、コンパクト・ディスクROM(CD−ROM)または任意のその他の光学媒体、パンチ・カードまたは穿孔パターンを有する任意のその他の物理的媒体、プログラマブルROM(PROM)、消去可能PROM(EPROM)、電気的EPROM(EEPROM)、フラッシュ・メモリ、任意のその他のメモリ・チップまたはカートリッジ、あるいはそこからコンピュータ・システム500が読み取ることができ、命令を保管するのに適した任意のその他の媒体を含む。この実施形態では、不揮発性媒体の一例は、描写されている通り、コンピュータ・システム500の内部コンポーネントである大容量記憶装置518であるが、外部装置でも提供されるものであることが理解されるであろう。揮発性媒体としては、RAM514などのダイナミック・メモリを含む。伝送媒体としては、バス522を有するワイヤを含む、同軸ケーブル、銅線、または光ファイバを含む。また、伝送媒体は、電波通信または赤外線データ通信中に発生するものなどの音波または光波の形を取ることもできる。
その上、本発明はコンピュータ・プログラムとしてダウンロードまたは配布することができ、その場合、コンピュータ可読プログラム命令は、ネットワーク502を介してネットワーク・リンク534(たとえば、モデムまたはネットワーク接続)ならびにバス522に結合された通信インターフェース532への搬送波またはその他の伝送媒体に実施されたデータ信号によりサーバ540などのリモート・コンピュータから要求側コンピュータ・システム500に伝送することができる。プロセッサ512が複数のプロセッサ・エレメントを含む一例では、プロセッサ・エレメント間で分散される処理タスクは、ローカルであるかネットワークを介するかにかかわらず、コンピュータ・プログラムを表すことができ、その処理タスクは、プロセスを実行するためのプログラム命令またはJava(Javaはサン・マイクロシステムズ社の登録商標である)オブジェクトにアクセスするためのプログラム命令あるいはプロセスを実行するためのその他の実行可能プログラムを含む。通信インターフェース532は、たとえば、ローカル・エリア・ネットワーク(LAN)、広域ネットワーク(WAN)、またはインターネット・サービス・プロバイダ(ISP)に直接接続可能なネットワーク・リンク534に結合する双方向データ通信を可能にする。特に、ネットワーク・リンク534は、ネットワーク502などの1つまたは複数のネットワークへの有線または無線あるいはその両方のネットワーク通信を可能にすることができる。さらに、描写されていないが、通信インターフェース532は、デバイス・ドライバなどのソフトウェア、アダプタなどのハードウェア、ならびに通信を可能にするその他のコントローラを含むことができる。サーバとして実現された場合、コンピュータ・システム500は、たとえば、入出力コントローラに接続された複数の周辺装置相互接続(PCI)バス・ブリッジを介してアクセス可能な複数の通信インターフェースを含むことができる。このように、コンピュータ・システム500は複数の個別ポートを介して複数のクライアントへの通信を可能にし、各ポートは複数のクライアントへの複数の接続もサポートすることができる。
ネットワーク・リンク534およびネットワーク502はいずれも、デジタル・データ・ストリームを運搬する電気信号、電磁信号、または光学信号を使用する。様々なネットワークを通る信号と、ネットワーク・リンク534上ならびに通信インターフェース532を通る信号であって、コンピュータ・システム500との間でデジタル・データを運搬する信号は、情報を転送する搬送波の形にすることができる。
加えて、コンピュータ・システム500は、入力および出力を容易にする複数の周辺装置を含むことができる。これらの周辺装置は、バス522の複数レベルの1つに結合された、入出力(I/O)インターフェース526などの複数のコントローラ、アダプタ、および拡張スロットに接続されている。たとえば、入力装置524は、入力を制御する入出力インターフェース526を介してバス522上で通信可能に使用可能になっているマイクロホン、ビデオ・キャプチャ装置、身体走査システム、キーボード、マウス、またはその他の入力周辺装置を含むことができる。加えて、たとえば、出力を制御するために入出力インターフェース526を介してバス522上で通信可能に使用可能になっている出力装置520は、1つまたは複数の図形表示装置、オーディオ・スピーカ、および触覚検出可能出力インターフェースを含むことができるが、その他の出力インターフェースも含むことができる。本発明の代替諸実施形態では、追加または代替入出力周辺装置を追加することができる。
当業者であれば、図5に描写されているハードウェアが様々になる可能性があることが分かるであろう。さらに、当業者であれば、描写されている例が本発明に関するアーキテクチャ上の制限を示すためのものではないことが分かるであろう。
次に図6を参照すると、このブロック図は、動作対応警告方法、システム、およびプログラムを実現可能な分散ネットワーク環境の一例を描写している。分散ネットワーク環境600は、動作対応警告方法、システム、およびプログラムを実現可能な、あるタイプのネットワーク環境の例証となるものであるが、動作対応警告方法、システム、およびプログラムは他のネットワーク環境でも実現可能であることは留意すべき重要なことである。加えて、分散ネットワーク環境600内のシステム分散はシステム分散の例証となるものであるが、ネット枠環境内の他のシステム分散も実現可能であることは留意すべき重要なことである。さらに、この例で描写されているシステムは、動作処理システムおよび動作対応警告システムを実現する際にアクセスされるかまたはアクセスを要求する可能性のあるタイプのシステムおよびサービスを表していることは留意すべき重要なことである。あるネットワーク環境内のその他のタイプのシステムおよびサービスならびにシステムおよびサービスのその他のグループ化も動作処理システムおよび動作対応警告システムを実現可能であることが理解されるであろう。
例示されている通り、分散ネットワーク環境600内の複数のシステムはネットワーク502を介して通信可能に接続することができ、そのネットワークは、通信可能に接続された様々な装置とコンピュータとの間の通信リンクを提供するために使用される媒体である。ネットワーク502は、たとえば、ワイヤまたは光ファイバ・ケーブルなどの永続接続ならびに電話接続および無線伝送接続によって行われる一時接続を含むことができる。ネットワーク502は、パケット交換ベースと電話ベースの両方のネットワーク、ローカル・エリア・ネットワークおよび広域ネットワーク、公衆網および私設網を表すことができる。図6は、動作処理システムおよび動作対応警告システムをサポートするための分散通信ネットワークの一例を表すものであるが、その他のネットワーク構成およびネットワーク・コンポーネントも実現可能であることが理解されるであろう。
図6に描写されているネットワーク環境は、複数タイプのネットワーク・アーキテクチャを実現することができる。一例では、このネットワーク環境は、クライアント/サーバ・アーキテクチャを使用して実現することができ、データまたはプロセスを要求するコンピューティング・システムはクライアントと呼ばれ、データ要求およびプロセスを処理するコンピューティング・システムはサーバと呼ばれる。クライアント/サーバ・アーキテクチャ内では、クライアント・システムはクライアントとサーバの両方として実行することができ、サーバ・システムはクライアントとサーバの両方として実行できることが理解されるであろう。加えて、その他のタイプのネットワーク・アーキテクチャおよびネットワーク・アーキテクチャの組み合わせも実現可能であることが理解されるであろう。
この例では、分散ネットワーク環境600は、画像取り込みシステム604を有するクライアント・システム602と、画像取り込みシステム608を有するクライアント・システム606とを含む。一例では、画像取り込みシステム604および608は、画像取り込み装置202および204などの1つまたは複数の画像取り込み装置を実現する立体画像装置を含み、センサ240などの1つまたは複数のセンサを含むことができる。画像取り込みシステム604および608は、画像およびその他のデータを取り込み、処理のためにネットワーク502を介して画像およびその他のデータを他のシステムにストリーム化する。加えて、画像取り込みシステム604および608は、図3に関して記載したビデオ・プロセッサ316およびビデオ・プロセッサ318などのオブジェクト・プロパティを追跡するためのビデオ・プロセッサと、図3に関して記載した形状プロセッサ320などの3Dオブジェクト・プロパティのストリームを生成するための形状プロセッサとを含むことができる。
一例では、クライアント・システム602およびクライアント・システム606のそれぞれは、取り込み画像フレームを1つまたは複数の動作検出サービスにストリーム化することができる。一例では、動作処理サービス・プロバイダ・サーバ620は、ストリーム化画像およびその他のデータを処理するための3Dオブジェクト検出器104などのオブジェクト検出器サービスと、あるタイプの動作を予測し、取り込み画像が予測タイプの動作を表す確率を予測し、その動作が有害である確率を予測し、ネットワーク502を介してアクセス可能な1つまたは複数の他のシステムへの予測動作レコードの出力を制御するための動作インタープリタ106などの動作インタープリタ・サービスの両方を含むサービスを提供する。
動作処理サービス・プロバイダ・サーバ620については、種々のエンティティが動作処理サービスを実現することができ、種々のエンティティが動作処理サービスにアクセスすることができる。一例では、クライアント・システム602またはクライアント・システム606の一方にログインしたユーザは、動作処理サービスに加入することができる。他の例では、画像取り込みシステムまたは動作処理を要求する特定のアプリケーションは、取り込み画像およびデータを自動的に動作処理サービスにストリーム化することができる。さらに他の例では、企業またはその他のエンティティは、通信ネットワーク内で動作処理サービスを実現することができる。
他の例では、クライアント・システム602およびクライアント・システム606のそれぞれは、取り込みフレームを3Dオブジェクト検出器サーバ624にストリーム化することができる。3Dオブジェクト検出器サーバ624は、画像取り込みシステム604または画像取り込みシステム608などの画像取り込みシステムから取り込み画像およびその他のデータを受信し、その画像およびその他のデータを処理し、動作インタープリタ・サーバ622または動作処理サービス・プロバイダ・サーバ620などの動作インタープリタ・システムに出力するために検出動作の3Dオブジェクト・プロパティを生成する。追加または代替諸実施形態では、オブジェクト検出器サービスは1つまたは複数の他のシステム内で実現することができ、1つまたは複数の他のサービスはこれらのシステム内で実行される。特に、追加または代替諸実施形態では、オブジェクト検出器サービスは、画像およびその他のデータが取り込まれるクライアント・システム内で実現することができる。
特に、動作インタープリタ・サーバ622および3Dオブジェクト検出器サーバ624については、これらのサーバのそれぞれを1つまたは複数のシステム全域で分散させることができる。特に、動作インタープリタ・サーバ622および3Dオブジェクト検出器サーバ624のそれぞれは、効率的な3Dデータ処理を実行するようにプログラミングされたCell BEアーキテクチャを有するプロセッサを含む、3D画像処理能力を有するシステム全域で分散させる。一例では、企業またはサービス・プロバイダなどのエンティティは、オブジェクト検出および動作解釈のために個別のサーバ・システムを実現することができ、種々のタイプの3Dオブジェクト・プロパティを処理する各動作インタープリタ・サーバによって複数の動作インタープリタ・サーバが実現される。
動作処理サービス・プロバイダ・サーバ620、動作インタープリタ・サーバ622、および3Dオブジェクト検出器サーバ624は、生画像、3D動作プロパティ、および動作定義について、動作データベース112などの動作データベースをローカルに保管することができる。加えて、動作処理サービス・プロバイダ・サーバ620、動作インタープリタ・サーバ622、および3Dオブジェクト検出器サーバ624は、動作データベース112を容易にする動作データベース・サービス・サーバ626にアクセスすることができる。前に記載した通り、動作データベース112は、生画像およびデータ、3D動作プロパティ、動作定義、ならびにオブジェクト予測を含むことができるが、これらに限定されない。
加えて、動作データベース・サービス・サーバ626は動作学習コントローラ630を含む。動作学習コントローラ630は、特定のタイプの動作のサンプルを提供するよう、モニター対象ユーザまたは監視ユーザにかかわらず、ユーザにプロンプトを出し、予測タイプの動作が実際の動作と一致するかどうかならびに予測有害動作が実際に有害であるかどうかを示すよう、ユーザにプロンプトを出す。加えて、動作学習コントローラ630は、動作オブジェクト検出器サービスおよび動作インタープリタ・サービスによってアクセスされたときに、これらのサービスによる3Dオブジェクト・プロパティ生成の正確さと、これらのサービスによる3Dオブジェクト・プロパティからの動作ならびに動作の潜在的な有害性の予測の正確さを増すような、動作データベース112内の動作情報を動作学習コントローラ630が学習し維持できるようにするその他の情報を収集する。
さらに、動作処理サービス・プロバイダ・サーバ620、動作インタープリタ・サーバ622、3Dオブジェクト検出器サーバ624、または動作データベース・サービス・サーバ626は、有害と見なされる動作のタイプならびにクライアント・プロファイル・サービス・サーバ640からユーザが検出可能な警告のタイプを指定し、モニター対象ユーザまたは監視ユーザを含むユーザに関する追加のコンテキスト情報にアクセスすることができる。加えて、クライアント・プロファイル・サービス・サーバ640は、ユーザの現在位置、ユーザが位置する現在の物理的環境、ユーザについて現在スケジューリングされているイベントなどのモニター対象情報からユーザの位置に関する追加情報をモニターし提供することができる。一例では、クライアント・プロファイル・サービス・サーバ640は、たとえば、ユーザの個人用携帯電話装置からユーザの電子カレンダまたはユーザの現行GPS位置をモニターする。
動作処理サービス・プロバイダ・サーバ620および動作インタープリタ・サーバ622は、動作レコード420などの予測動作レコードをネットワーク502を介して動作対応アプリケーションにストリーム化する。この実施形態例では、クライアント・システム606は、クライアント・システム606が動作レコードおよびその他のデータに基づいて警告信号を判断し、その警告信号を監視ユーザに出力できるようにする、動作対応アプリケーションである警告システム610を含む。クライアント・システム606の警告システム610は、画像取り込みシステム608によって取り込まれたようにクライアント・システム606から予測動作レコードを受信する場合もあれば、画像取り込みシステム608あるいはその他の画像取り込み装置または画像取り込みシステムによって検出された画像およびデータに基づく予測動作レコードを受信する場合もある。
加えて、この実施形態例では、クライアント・サービス・プロバイダ・サーバ612は、クライアント・サービス・プロバイダ・サーバ612が動作レコードおよびその他のデータに基づいて警告信号を判断して出力できるようにするための動作対応サービスである警告システム614を含む。クライアント・サービス・プロバイダ・サーバ612は、1つまたは複数の加入クライアント・システムに警告サービスを提供するサーバを表している。警告システム614は、1つまたは複数のシステムから特定の環境に関する動作レコードを受信し、警告信号を判断し、その警告信号を1つまたは複数のクライアント・システムに出力することができる。
次に図7に関して説明すると、このブロック図は、動作対応警告システムと通信する動作インタープリタ・システムの実現の一例を例示している。警告システム700は、スーパバイザがモニターしている実際の環境について取り込まれたリアルタイムの3D画像およびその他のデータに基づいて警告システム700が警告出力を提供できるようにする動作処理システム100から予測動作レコードを受信する。ある利点によれば、警告システム700は、監視ユーザのみが警告信号を検出し、警告信号がモニター対象ユーザにとって検出不能になるように警告信号の出力を制御する出力装置への警告信号を制御することができる。
特に、警告システム700の警告コントローラ708は、警告命令を動作レコード702などの動作レコードに基づくものにすることができる。加えて、警告コントローラ708は、動作レコード702に含まれるデータと結合されたその他のデータに基づいて警告命令を強化または生成することができる。たとえば、警告コントローラ708は、モニター対象環境に関する構造マップ、写真、ビデオ・ストリーム、RFID情報、およびその他のデータにアクセスすることにより、モニター中の環境に関する静的または動的情報にアクセスすることができる。加えて、警告コントローラ708は、その他の画像装置により、ある環境内のモニター対象ユーザに関する情報にアクセスすることができる。次に、警告コントローラ708は、モニター対象環境内の位置で予測動作レコードのマッピングを生成することができる。
特に、この例では、警告システム700は動作レコード702を受信し、警告コントローラ708は動作レコード702を、環境のモデリングおよび監視ユーザへの警告命令の生成を容易にする入力に変換する。描写されている実施形態では、動作レコード702を変換する際に、警告コントローラ708は動作変換データベース710にアクセスして、動作のタイプ、そのタイプの動作の確率百分率、その動作が有害である確率百分率を、警告命令が出力される装置のタイプに基づいて警告命令に変換する。その他の諸実施形態では、警告システムを実現するために警告コントローラ708によって使用可能なその他のタイプのデータに動作レコードを変換することができる。ユーザ・プリファレンス・データベース706は、警告命令が出力される装置のタイプに関するプリファレンスと、有害動作変換データベース710をフィルタリングする際に使用するための追加のフィルタリング・プリファレンスとを指定することができる。加えて、有害動作変換データベース710は、特定の監視ユーザに関連付けるか、または警告システム700にとって使用可能な複数の有害動作変換データベースの選択の中から他の基準に応じて選択することができる。
この例では、有害動作変換データベース710は、各項目ごとに、複数のカテゴリで指定されたデータを含む。特に、この例では、各項目は、ジェスチャ・タイプと最小(min)有害動作百分率を含み、さらに適用可能であれば、赤外線コントローラ、触覚フィードバック装置、オーディオ・フィードバック装置、および画像オーバーレイ・コントローラに対する警告信号を生成するための命令を含む。加えて、描写されていないが、各項目は、その動作タイプが正しく予測される最小しきい確率百分率と、追加または代替タイプの警告システム出力装置に関する警告信号を生成するための命令を含むことができる。
特に、この例では、動作レコード702に含まれるモニター対象動作は、モニター対象ユーザが不規則な足取りで歩いていることを示しており、そのモニター対象動作が左側の不規則な足取りである確率は90%の確実性であり、その不規則な足取りが有害動作を表す確率は70%の確実性である。加えて、動作レコード702は、一般モニター対象環境を「ビルB」として示している。予測動作レコード702に含まれるデータの例は、動作処理システム100によって出力され、警告システム700によって受信される動作レコードに含まれる可能性のあるデータのタイプおよびデータの詳細の例証となるものであるが、これらを制限するものではないことは留意すべき重要なことである。たとえば、動作レコードは、モニター対象ユーザが歩いている速度、モニター対象ユーザが歩いている方向、ならびにモニター対象環境が2人以上のモニター対象ユーザを含む場合に、シャツの色または髪の色など、モニター対象ユーザを識別すると思われる情報も示すことができるであろう。
この例では、警告コントローラ708は、例示されている装置のうちの1つまたは複数への警告命令を制御することができる。たとえば、警告コントローラ708は、動作レコード702を有害動作変換データベース720の項目722と比較し、動作レコード702およびその他の収集データを項目722と比較したことにより生成される命令に基づいて、赤外線コントローラ730、画像オーバーレイ・コントローラ740、触覚フィードバック・コントローラ750、およびオーディオ・フィードバック・コントローラ760のうちの1つまたは複数への警告信号を制御することができる。警告コントローラ708が追加または代替タイプの出力装置ならびに複数の同じタイプの出力装置に警告信号を出力できることは理解されるであろう。
動作レコード702に基づいて警告命令を制御する際に、一例では、警告コントローラ708は、「ビルB」という環境内で赤外線コントローラ730をオンにするための信号を送信する必要があると判断することができる。警告コントローラ708は、赤外線コントローラ730が「ビルB」をモニターするために赤外線装置を制御すると判断する。警告コントローラは、警告信号を生成し、参照番号732に例示されている通り、その警告信号を赤外線コントローラ730に送信して、赤外線システムをオンにする。赤外線システムをオンにするように赤外線コントローラ730に指示することに加えて、警告コントローラ708は、赤外線コントローラ730がモニター対象ユーザに焦点を合わせることができるようにするための追加命令を提供することができる。
他の例では、動作レコード702に基づいて警告命令を制御する際に、警告コントローラ708は、「ビルB」内で取り込まれた画像について画像オーバーレイ・コントローラ740に信号を送信する必要があると判断することができる。この例では、画像オーバーレイ・コントローラ740は、取り込み画像ストリーム上に画像層をオーバーレイすることを制御する。画像層は、テキスト画像、図形画像、およびビデオ画像を含むことができるが、これらに限定されない。一例では、「ビルB」内の取り込みビデオ画像の上の画像層として透明な着色オーバーレイを配置して、モニター対象ユーザの一部分が潜在的に有害な動作の標識を起動したことを示すことができる。たとえば、警告コントローラ708は、参照番号742に例示されている警告信号を送信し、左側の不規則な足取りに画像層の焦点を合わせるよう画像オーバーレイ・コントローラ740に指示する。加えて、画像オーバーレイ・コントローラ740が不規則な足取りを示す画像層を前に取り込んだかまたは現在取り込んでいる画像ストリームの1つにマッピングできるように、警告コントローラ708は検出動作の座標の標識を含む動作レコード702を送信することができる。
さらに他の例では、動作レコード702に基づいて警告命令を制御する際に、警告コントローラ708は、触覚フィードバック・コントローラ750に信号を送信する必要があると判断することができる。触覚フィードバック・コントローラ750は1つまたは複数の触覚フィードバック装置への出力を制御する。触覚フィードバック特性としては、パルスの強さ、強度、パターン、持続時間、および位置を含むことができるが、これらに限定されない。加えて、監視ユーザは1つまたは複数の触覚フィードバック装置からの触覚フィードバックを検出することができ、警告コントローラ708は複数の触覚フィードバック装置について1つの同じ信号または複数の異なる信号を生成することができる。この例では、警告コントローラ708は、参照番号752に例示されている警告信号を送信し、70%の強さで左の触覚フィードバック装置にパルス出力するよう触覚フィードバック・コントローラ750に指示する。
さらに、他の例では、動作レコード702に基づいて警告命令を制御する際に、警告コントローラ708は、オーディオ・フィードバック・コントローラ760に信号を送信する必要があると判断することができる。オーディオ・フィードバック・コントローラ760は1つまたは複数のオーディオ・フィードバック装置への出力を制御する。警告コントローラ708は、音声フィードバックに変換される警告信号音パターンおよびテキストを生成する音を含むがこれに限定されない種々のタイプのオーディオ・フィードバックを制御することができる。この例では、警告コントローラ708は、参照番号762に例示されている警告信号を送信し、「不規則な足取り、左側」というオーディオ信号を出力するようオーディオ・フィードバック・コントローラ760に指示する。
項目722に加えて、有害動作変換データベース710の項目720および724はさらに、有害動作変換データベース710に含めることができる項目のタイプの例証となるものである。たとえば、項目720は、「目をそらすこと(eye aversion)」として示されているジェスチャの場合、最小有害性が75%であり、いかなる赤外線コントローラも起動する必要がないと指定しているが、その強度百分率で両方の触覚リングに1回パルス出力するための触覚フィードバック・コントローラへの警告信号、「目をそらすこと」というオーディオ・フィードバックを提供するためのオーディオ・フィードバック・コントローラへの警告信号、あるいはその有害百分率の透明度で目の領域を赤で強調表示するための画像オーバーレイ・コントローラへの警告信号をフォーマットするための命令が指定されている。他の例では、項目724は、「多量の発汗(heavyperspiration)」として示されているジェスチャの場合、最小有害性が80%であり、ユーザ・プリファレンス・データベース706に指定されている場合に赤外線コントローラを起動する必要があると指定しており、両方の触覚リングに高速で2回パルス出力するための触覚フィードバック・コントローラへの警告信号、「多量の発汗」というオーディオ・フィードバックを提供するためのオーディオ・フィードバック・コントローラへの警告信号、あるいはその有害百分率の透明度で発汗領域を緑で強調表示するための画像オーバーレイ・コントローラへの警告信号をフォーマットするための命令が指定されている。
この例では、警告コントローラ708は、赤外線コントローラ730によりモニター装置をオンにする警告信号、画像オーバーレイ・コントローラ740によりモニター対象ビデオ画像を調整する警告信号、ならびに触覚フィードバック・コントローラ750およびオーディオ・フィードバック・コントローラ760により個々の監視ユーザに警告する警告信号を制御する。したがって、有利なことに、警告コントローラ708は、警告信号の出力がモニター対象ユーザにとって検出不能である装置への警告信号の出力を制御する。モニター対象ユーザが画像オーバーレイ・コントローラ740によって制御された画像を見ることができる環境では、ユーザ・プリファレンス・データベース706は画像オーバーレイ・コントローラ740への出力を除外することができる。
次に図8に関して説明すると、このブロック図は、オブジェクト検出インターフェースおよびナビゲーション出力インターフェースの一例を例示している。この例では、図8は、装着型装置であるヘッドピース800を含む。一例では、監視ユーザは、メガネとして例示されているヘッドピース800を装着する。追加または代替一実施形態では、ヘッドピース800は他のタイプの装着型装置を表すことができる。加えて、ヘッドピース800は、ヘッドピース800を装着している監視ユーザに関して記載されているが、代替諸実施形態では、モニター対象ユーザがヘッドピース800を装着することもできる。
この例では、画像取り込み装置202および画像取り込み装置204はそれぞれ、ヘッドピース800に固定されている。画像取り込み装置202および画像取り込み装置204のそれぞれは、ビデオ画像ストリームおよびその他のタイプの感知データを取り込む。画像取り込み装置202および画像取り込み装置204のそれぞれは、有線接続によるかまたはヘッドピース800に固定された無線送信機810による送信により、動作処理システム100を実現するコンピュータ・システム812に画像およびデータを送信することができる。
一例では、コンピュータ・システム812は、ヘッドピース800を装着している監視ユーザによって所持または装着されているコンピュータ・システム500などのローカル・モバイル・コンピューティング・システムである。たとえば、ローカル・モバイル・コンピューティング・システムとしてのコンピュータ・システム812は、ヒップベルトで取り付けたコンピューティング・システム、無線電話装置、またはラップトップ・コンピューティング・システムで実現することができる。他の例では、コンピュータ・システム812は、定位置に存続するかまたは1人の監視ユーザによって装着されるが、コンピュータ・システム812に関連する受信機の放送受信範囲内の無線送信機810またはその他の無線送信機からの無線伝送を受信する。
動作処理システム100は、コンピュータ・システム812内で実行される場合もあれば、動作処理サービスを提供する他のコンピューティング・システムと相互作用して、図6に例示されている通り、取り込み画像およびデータを処理し、取り込み画像およびデータから予測ジェスチャを返す場合もある。特に、コンピュータ・システム812は、それによりコンピュータ・システム812がネットワーク502を介して他のコンピューティング・システムと相互作用する有線または無線ネットワーク・インターフェースを含むことができる。
一例では、画像取り込み装置202および画像取り込み装置204は、監視ユーザの正面数ヤード(数メートル)など、ユーザの真正面から監視ユーザの正面に伸びる距離までの焦点領域を取り込むために、ヘッドピース800上に位置決めされる。焦点領域がユーザの真正面の領域を含むことにより、画像取り込み装置202および画像取り込み装置204は、ヘッドピース800を装着している監視ユーザによって行われる動作の画像を取り込むことができる。加えて、焦点領域が監視ユーザの正面に伸びる領域を含むことにより、画像取り込み装置202および画像取り込み装置204は、監視ユーザの進路内のモニター対象ユーザの動作の画像を取り込むことができる。さらに、画像取り込み装置202および画像取り込み装置204は、監視ユーザがその中に存在する環境次第で、側面、監視ユーザの上および後ろの領域を取り込むために、ヘッドピース800上に位置決めすることができる。動作処理システム100は、画像取り込み装置202および画像取り込み装置204によって取り込まれた画像およびデータを処理し、監視ユーザにとって最も有用な動作認識のタイプの学習に基づいて、監視ユーザに出力するために予測障害レコードを警告システム700に渡す。
警告システム700が監視ユーザへの出力を制御する際に、この例では、警告システム700はオーディオ・フィードバックをヘッドピース800に送信することができ、ヘッドピース800は、ヘッドピース800に固定され、ユーザの耳にオーディオを出力するためのイヤホンとして位置決めされたオーディオ出力装置806およびオーディオ出力装置808を含む。オーディオ出力装置806およびオーディオ出力装置808のそれぞれは、警告システム700によって指示された通り、有線接続を介してコンピュータ・システム812からまたは無線送信機810からの出力のためのオーディオ伝送を受信することができる。
一例では、画像取り込み装置202および画像取り込み装置204は監視ユーザに接近するモニター対象ユーザの画像を取り込み、動作処理システム100は、取り込み画像を受信し、モニター対象ユーザの動作ならびにその動作が潜在的に有害な動作であるかどうかを予測する。動作処理システム100は、動作タイプならびにその動作が有害動作として予測されたかどうかを予測動作レコードに入れて警告システム700に渡す。図7に関して前に記載した通り、警告システム700は、予測動作レコードをオーディオ出力に変換し、オーディオ出力装置806およびオーディオ出力装置808に対する変換されたオーディオの出力を制御する。有利なことに、監視ユーザによって装着されたオーディオ出力装置806およびオーディオ出力装置808への警告信号の出力を制御することにより、モニター対象ユーザではなく、監視ユーザのみがオーディオ出力警告信号を受信する。
この例では、画像取り込み装置202、画像取り込み装置204、オーディオ出力装置806、およびオーディオ出力装置808は同じヘッドピース800に固定されているが、代替諸実施形態では、画像取り込み装置はオーディオ出力装置とは別のヘッドピースに固定できることは留意すべき重要なことである。加えて、この例では、コンピュータ・システム812は動作処理システム100と警告システム700の両方を含むが、代替一実施形態では、動作処理システム100と警告システム700のそれぞれを異なるコンピューティング・システムで実現できることは留意すべき重要なことである。
加えて、複数の監視ユーザおよびモニター対象ユーザのそれぞれが個別のヘッドピースを装着することができ、それぞれのヘッドピース上の画像取り込み装置によって取り込まれた画像は無線または有線ネットワーク接続を介してコンピュータ・システム812などの同じコンピュータ・システムに送信されることは留意すべき重要なことである。複数の人から協調画像およびデータを収集することにより、動作処理システム100は、動作を表すオブジェクトをより正確に検出し、動作のタイプならびにその動作が潜在的に有害であるかどうかをより正確に予測することができる。さらに、複数のローカル・モバイル・コンピュータ・システムのそれぞれが、ヘッドピースに固定された画像取り込み装置およびセンサから画像およびデータを収集し、無線または有線ネットワーク接続を介して相互に通信し、収集画像、データ、検出オブジェクト、予測動作、ならびに予測動作が潜在的に有害であるかどうかを共用できることは留意すべき重要なことである。監視ユーザは、保護されたネットワーク内で収集画像および予測動作レコードを共用することに同意することができる。
協調画像およびデータが単一システムで収集されるかまたは複数のシステム間で共用される場合、他のセットの取り込み画像およびデータに対する種々のセットの取り込み画像およびデータの配置を容易にするために、画像およびデータに追加情報を追加するかまたはそこから追加情報を抽出することができる。たとえば、各セットの画像およびデータを他のセットの画像およびデータに対して位置合わせし方向付けることができるように、協調のために送信された画像およびデータは位置標識および向き標識を含むことができる。
次に図9を参照すると、この例示的な図は、警告システムから触覚フィードバックを受信する触覚検出可能フィードバック装置の一例を例示している。例示されている通り、人はリストバンド904および908を装着することができ、そのそれぞれは、触覚検出可能出力を制御するためのコントローラと、触覚検出可能出力を作成するように制御可能なハードウェアとを含む。触覚検出可能出力の例としては、検出可能圧力パルス、リストバンドの表面の検出可能変化、ならびにリストバンド904および908を装着しているユーザによって感知可能なその他の調整を含むことができる。加えて、触覚検出可能出力は、頻度、強度、持続時間、ならびにリストバンド904および908を装着している監視ユーザによって感知可能なその他の特性について調整することができる。
この例では、リストバンド904は無線送信機902を含み、リストバンド908は無線送信機906を含む。無線送信機902および無線送信機906のそれぞれは、触覚フィードバック・コントローラ750への無線ネットワーク伝送を介して通信する。触覚フィードバック・コントローラ750は、警告システム700から触覚信号を受信し、それぞれの無線送信機902および906に信号を送信して、リストバンド904およびリストバンド908からの触覚出力を指示する。有利なことに、監視ユーザによって装着されたリストバンド904およびリストバンド908への警告信号の出力を制御することにより、モニター対象ユーザではなく、監視ユーザのみが触覚出力警告信号を検出する。
特に、警告システム700は、各リストバンドの周辺で出力のパルス・パターン、位置、力、持続時間、頻度、およびタイミングを制御するために無線送信機902および906のそれぞれに触覚警告信号を送信する。参照番号910に例示されている一例では、警告システム700はバンド912を制御するための触覚信号を送信し、各触覚信号はxy座標と力を含む。パルスのパターンおよび位置は、y位置からx位置へのなどの幅ならびにリストバンドの周りを時計回りに回転するパルスなどの方向の点で変動する可能性がある。
無線送信機902および906のそれぞれは、重力と比較したリストバンド904および908のそれぞれの相対位置をモニターするためのセンサを含むことができる。参照番号910に例示されている例を参照すると、バンド912を装着しているユーザが自分の腕を回転するにつれて、ユーザの腕の現在位置に基づいて描写されている軸の周りに触覚信号が再位置決めされるように、触覚出力を制御するためのy位置は重力に対して常に上に保持され、−y位置も下に保持されると思われる。
一例では、警告システム700は、予測動作ならびにその予測動作が潜在的に有害である確率百分率を、項目例720、722、および724に例示されている通り、動作タイプならびにその動作が潜在的に有害である確率百分率を監視ユーザに対して明確に示す触覚出力に変換する。しかし、他の例では、警告システム700は、予測動作ならびにその予測動作が潜在的に有害である確率百分率を、予測動作ならびにその動作が有害である確率に関連するモニター対象ユーザの領域に監視ユーザを向ける触覚出力に変換することができる。さらに他の例では、警告システム700は、予測動作ならびに確率百分率を、腕を上げること、防御装置に手を伸ばすこと、あるいは監視ユーザが触覚出力から検出可能なその他の応答など、何らかの方法で物理的に応答するよう監視ユーザに指示する触覚出力に変換することができる。
リストバンド904および908が2つの定位置に位置するあるタイプの触覚フィードバック装置の例であり、代替諸実施形態では、他のタイプの触覚フィードバック装置を実現することができ、1つまたは複数の触覚装置を実現することができ、触覚装置を1つまたは複数の位置で検出可能なものにすることができることは留意すべき重要なことである。たとえば、多くの電話装置はすでに、予測動作ならびにその予測動作が潜在的に有害である確率百分率を表すバイブレーションを制御するための信号を送信することにより警告システム700が制御可能なバイブレーション機能を含む。他の例では、監視ユーザは、グローブの指先に触覚調整可能インターフェースとともに点字(Braille)装置または3D「感触(feel)」装置として機能する触覚検出可能グローブを装着することができる。
ユーザはヘッドピース800と触覚検出可能リストバンド904および908の両方を装着できることは留意すべき重要なことである。この例では、警告システム700は、触覚フィードバック・コントローラ750および無線送信機810の一方または両方への出力を制御するであろう。さらに、ヘッドピース800は、ユーザの周りの音声を検出するマイクロホン(描写されていない)を含むことができ、警告システム700は、ノイズが特定のレベル以下であるときにオーディオ・フィードバックを出力することを選択し、ノイズが特定のレベル以上であるときに触覚検出可能出力を出力することを選択することができる。
次に図10に関して説明すると、この例示的な図は、モニター対象ユーザの潜在的に有害な動作が検出され、警告システムによって監視ユーザに伝達される環境の一例を描写している。この例では、環境1010は、法執行官などの監視ユーザ1012と、モニター対象ユーザ1014とを含む。この例では、監視ユーザ1012は車両1006から外に出ている。車両1006は、環境1010内の動作運動を表す画像を取り込むために、画像取り込み装置202、画像取り込み装置204、およびセンサ240のうちの1つまたは複数などの画像取り込みシステム1004を含む。画像取り込みシステム1004はコンピュータ・システム812の動作処理システム100に取り込みデータを渡し、コンピュータ・システム812は、車両1006内に位置するかあるいはネットワーク502を介してアクセス可能な1つまたは複数のコンピュータ・システムを表すことができる。
動作処理システム100は、画像取り込みシステム1004によって取り込まれた画像を処理する。この例では、動作処理システム100は、役人によって実行される巡回のタイプおよび役人のIDの表示とともに、車両1006から画像を受信する。通行止めを実行する役人ならびに「役人A」という役人IDを考慮して、動作処理システム100は通行止め動作定義1020および役人A動作定義1022にアクセスし、通行止め中に一般的な動作をより正確に予測し、定義1020および1022に定義されている通行止めに関連する動作ならびに「役人A」に関連する動作をより正確に予測する。
動作処理システム100は、出力コントローラ1008を介して監視ユーザ1012に出力するための警告命令を決定する際に警告システム700によって使用するための予測動作レコードを生成する。監視ユーザ1012に出力するための警告命令を決定する際に、警告システム700は、「役人A」に関するユーザ・プリファレンス、通行止めについて設定されたプリファレンス、ならびに「役人A」または役人全般に関する有害動作変換データベースにアクセスすることができる。
警告システム700によって生成された警告命令に基づいて、警告システム700は、車両1006の外部の監視ユーザ1012にとってアクセス可能な出力装置および車両1006から制御される出力装置への出力を制御するために出力コントローラ1008への出力信号を制御する。たとえば、監視ユーザ1012は、それに対するオーディオ信号の出力を出力コントローラ1008が制御するヘッドホンを装着する場合もあれば、それに対する触覚信号の出力を出力コントローラ1008が制御する触覚検出可能装置を装着する場合もある。他の例では、車両1006は、赤外線装置がオンになるかどうかならびに赤外線装置の取り込み領域の位置決めを制御するための信号を出力コントローラ1008がそれに対して出力する赤外線装置を装備することもできる。出力コントローラ1008は車両1006内または監視ユーザ1012にとってアクセス可能な他のタイプの出力装置への出力信号を制御できることが理解されるであろう。加えて、出力コントローラ1008は、複数の監視ユーザにとってまたは出力コントローラ1008から特定の距離の範囲内にあるすべての監視ユーザにとってアクセス可能な出力装置への出力信号を制御することができる。さらに、警告システム1008は、それに対して警告システム1008が伝達する、他の車両または他の位置にある他の出力コントローラへの信号を制御することができる。
車両1006などの任意のタイプの移動ユニットは監視ユーザに警告信号を提供するための動作処理システムおよび警告システムを実現可能であることは留意すべき重要なことである。加えて、車両1006は移動ユニットであるが、その他の例では、セキュリティ・チェックポイントまたは公共輸送機関の入口点にあるユニットなどのユニットは、監視ユーザに警告信号を提供するための動作処理システムおよび警告システムを実現することができる。
加えて、図10の例は通行止め中にある人と相互作用している監視ユーザを例示しているが、他の例では、動物またはその他の移動エンティティと相互作用する監視ユーザをモニターするために、車両1006などの移動ユニットを実現できることは留意すべき重要なことである。
次に図11を参照すると、この高レベル論理流れ図は、動作処理システムが所定の確率百分率でオブジェクト・タイプおよび進路を予測するためのプロセスおよびプログラムを描写している。この例では、プロセスはブロック1100から始まり、その後、ブロック1102に移行する。ブロック1102は、焦点領域内で立体画像装置を介して複数の画像ストリームを取り込み、センサを介してセンサ・データを取り込むことを描写している。次に、ブロック1104は、画像およびセンサ・データ内のオブジェクトを追跡することを例示している。その後、ブロック1106は、追跡オブジェクトについて3Dオブジェクト・プロパティのストリームを生成することを描写している。その後、ブロック1108は、それぞれの追跡オブジェクトについて3Dオブジェクト・プロパティを集合させることを描写している。特に、集合3Dオブジェクト・プロパティは、少なくとも1人のモニター対象ユーザに関連して追跡され、少なくとも1人のモニター対象ユーザの動作を表す1つまたは複数のオブジェクトを表している。加えて、集合3Dオブジェクト・プロパティは、1人または複数の監視ユーザに関連して追跡され、1人または複数の監視ユーザの動作を表す1つまたは複数のオブジェクトを表すことができる。次に、ブロック1110は、ある確率百分率で3Dオブジェクト・プロパティの集合ストリームと一致する1つまたは複数の動作定義からの3Dオブジェクト・プロパティの集合ストリームから少なくとも1つのタイプの動作を予測することを例示している。加えて、次に、ブロック1112は、動作定義からある確率百分率でその動作が潜在的に有害であるかどうかを予測することを描写している。特に、ある動作が潜在的に有害であるかどうかを予測する際に、動作の潜在的有害性は、その動作が実行される環境のタイプ、特定の環境内の人の数、監視ユーザとモニター対象ユーザとの近接性、ならびに動作定義に定義可能なその他の要因に基づいて変化する可能性がある。その後、ブロック1114は、各予測動作タイプならびにその動作が潜在的に有害であるかどうかを動作レコードに入れて警告システムなどの動作対応アプリケーションに送信することを描写し、プロセスは終了する。
次に図12に関して説明すると、この高レベル論理流れ図は、画像ストリームおよびその他の感知データ内のオブジェクトを追跡し、動作を表す追跡オブジェクトに関する3Dオブジェクト・プロパティを生成することによる動作検出のためのプロセスおよびプログラムを描写している。例示されている通り、プロセスはブロック1200から始まり、その後、ブロック1202に移行する。ブロック1202は、オブジェクト検出器システムが1つまたは複数の画像取り込み装置を介して複数の画像ストリームを受信し、1つまたは複数のセンサを介して感知データを受信することを描写している。次に、ブロック1204は、オブジェクト検出器システムがメタデータを画像フレームおよび感知データに付加することを例示し、プロセスはブロック1206に移行する。一例では、メタデータは、カメラID、フレーム番号、タイム・スタンプ、および画素数などのデータを含むが、これらに限定されない。
ブロック1206は、オブジェクト検出器システムが各画像ストリームおよび感知データを処理し、オブジェクトを検出し追跡することを描写し、オブジェクトとしては、物理的オブジェクトならびに動作を示すユーザ運動を含むことができる。次に、ブロック1208は、各画像ストリームからのメタデータとともに追跡オブジェクト・プロパティのストリームを生成することを例示している。その後、ブロック1210は、3Dオブジェクト・プロパティを生成するための追跡オブジェクト・プロパティをメタデータと結合することを描写している。次に、ブロック1212は、3D追跡オブジェクト・プロパティを動作インタープリタ・システムに送信することを例示し、プロセスは終了する。
次に図13を参照すると、この高レベル論理流れ図は、追跡3Dオブジェクト・プロパティからの動作予測のためのプロセスおよびプログラムを描写している。この例では、プロセスはブロック1300から始まり、その後、ブロック1302に移行する。ブロック1302は、動作インタープリタ・システムが3Dオブジェクト・プロパティを受信するかどうかの判断を描写している。動作インタープリタ・システムが3Dオブジェクト・プロパティを受信すると、プロセスはブロック1304に移行する。ブロック1304は、ある範囲の適用可能動作定義にアクセスすることを描写し、プロセスはブロック1306に移行する。
ブロック1306は、動作インタープリタ・システムが追跡オブジェクトに関する3Dオブジェクト・プロパティを適用可能動作定義と比較することを例示している。次に、ブロック1308は、動作インタープリタ・システムが1つまたは複数セットの3Dオブジェクト・プロパティに最も一致している少なくとも1つの動作定義を検出することを描写している。その後、ブロック1310は、3Dオブジェクト・プロパティが動作定義と一致する確率百分率を計算することを例示している。次に、ブロック1312は、動作定義に設定された有害性特性に基づいて予測動作が潜在的に有害であるかどうかを予測することを描写している。その後、ブロック1314は、任意の予測動作、その予測動作が正しい確率百分率、その予測動作が潜在的に有害である確率百分率、およびその他の感知データを含む少なくとも1つの予想動作レコードを生成することを例示している。次に、ブロック1316は、メタデータを含む予測動作レコードを特定の動作対応アプリケーションに送信することを描写し、プロセスは終了する。
次に図14に関して説明すると、この高レベル論理流れ図は、動作対応ナビゲーション・システム内で予測動作レコードを適用するためのプロセスおよびプログラムを描写している。例示されている通り、プロセスはブロック1400から始まり、その後、ブロック1402に移行する。ブロック1402は、動作対応警告システムが予測動作レコードを受信するかどうかの判断を描写している。警告システムが予測動作レコードを受信すると、プロセスはブロック1404に移行する。ブロック1404は、他の監視ユーザの位置、環境内の他の予測動作レコード、および警告システムにとってアクセス可能なその他のデータを含むがこれらに限定されない、特定の環境に関連するその他のデータを収集することを例示している。その後、ブロック1406は、予測動作およびその他の収集データを監視環境内の1つまたは複数の位置にマッピングすることを描写している。次に、ブロック1408は、予測動作レコードおよびその他の収集データを、環境内の有害動作の位置を示す警告信号を含む、監視ユーザに出力するための1つまたは複数の警告信号に変換することを例示している。その後、ブロック1410は、選択された出力インターフェース・コントローラへの信号の出力を制御することを例示し、プロセスは終了する。
好ましい一実施形態に関して本発明を詳しく示し記載してきたが、当業者であれば、本発明の精神および範囲を逸脱せずに、形式および詳細について様々な変更が可能であることが理解されるであろう。
動作処理方法、システム、およびプログラムにおける情報の流れを例示するブロック図である。 3Dオブジェクト検出器が取り込み、取り込まれた動作運動を表す3Dオブジェクト・プロパティを生成する環境の一例を描写する例示的なブロック図である。 動作インタープリタが3Dオブジェクト・プロパティからモニター対象ユーザの動作ならびにこれらの動作が潜在的に有害であるかどうかを解釈できるようにするために3Dオブジェクト・プロパティを生成するための3Dオブジェクト検出器システムの一実施形態を例示するブロック図である。 動作インタープリタ・システムの一実施形態を描写するブロック図である。 本発明を実現可能なコンピューティング・システムの一実施形態を例示するブロック図である。 動作対応警告方法、システム、およびプログラムを実現可能な分散ネットワーク環境の一例を描写するブロック図である。 動作対応警告システムと通信する動作インタープリタ・システムの実現の一例を例示するブロック図である。 オブジェクト検出インターフェースおよびナビゲーション出力インターフェースの一例を描写するブロック図である。 警告システムから触覚フィードバックを受信する触覚検出可能フィードバック装置の一例を例示する例示的な図である。 モニター対象ユーザの潜在的に有害な動作が検出され、警告システムによって監視ユーザに伝達される環境の一例を描写する例示的な図である。 動作処理システムが所定の確率百分率でオブジェクト・タイプおよび進路を予測するためのプロセスおよびプログラムを例示する高レベル論理流れ図である。 画像ストリームおよびその他の感知データ内のオブジェクトを追跡し、動作を表す追跡オブジェクトに関する3Dオブジェクト・プロパティを生成することによる動作検出のためのプロセスおよびプログラムを描写する高レベル論理流れ図である。 追跡3Dオブジェクト・プロパティからの動作予測のためのプロセスおよびプログラムを例示する高レベル論理流れ図である。 動作対応ナビゲーション・システム内で予測動作レコードを適用するためのプロセスおよびプログラムを描写する高レベル論理流れ図である。
符号の説明
100:動作処理システム
102:検出可能動作運動
104:3Dオブジェクト検出器
106:動作インタープリタ
108:予測動作出力
110:3Dオブジェクト・プロパティ
112:動作データベース

Claims (20)

  1. 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するためのコンピュータによって実行される方法において、
    前記監視ユーザによってモニターされた特定の環境内のモニター対象ユーザの3次元運動を取り込むステップであって、前記モニター対象ユーザに向けられた少なくとも1つの画像取り込み装置を使用して前記3次元運動が決定されるステップと、
    取り込まれた前記運動を使用して3次元オブジェクト・プロパティ・ストリームを識別するステップと、
    識別された前記3次元オブジェクト・プロパティ・ストリームを複数の有害動作定義と比較することにより、前記3次元オブジェクト・プロパティ・ストリームによって表された前記モニター対象ユーザの特定の定義済み有害動作を識別するステップと、
    前記複数の有害動作定義の中から前記モニター対象ユーザの前記特定の定義済み有害動作を識別したことに応答して、前記監視ユーザのみによって検出可能なインターフェースにより前記モニター対象ユーザの前記特定の定義済み有害動作について前記特定の環境に関する前記監視ユーザに通知するステップと、
    を含む方法。
  2. 前記モニター対象ユーザの3次元運動を取り込む前記ステップが、前記モニター対象ユーザの特定の3次元運動を識別し追跡するための立体画像装置を使用して前記3次元運動を取り込むステップをさらに含む、請求項1に記載の方法。
  3. 前記モニター対象ユーザの3次元運動を取り込む前記ステップが、前記3次元運動内で検出されたオブジェクトの少なくとも1つの追加特性を検出するために少なくとも1つの立体画像装置と少なくとも1つのセンサ対応装置を使用して前記3次元運動を取り込むステップをさらに含む、請求項1に記載の方法。
  4. 前記3次元オブジェクト・プロパティ・ストリームを表す特定の定義済み有害動作を識別する前記ステップが、取り込まれた前記3次元運動が前記特定の有害動作定義に定義された特定の動作を表す確率百分率を計算するステップと、取り込まれた前記3次元運動が有害である確率百分率を計算するステップとをさらに含む、請求項1に記載の方法。
  5. 前記3次元オブジェクト・プロパティ・ストリームを表す特定の定義済み有害動作を識別する前記ステップが、前記複数の有害動作定義の少なくとも1つと一致する前記3次元オブジェクト・プロパティ・ストリーム内の前記モニター対象ユーザの顔の表情、眼球運動、筋収縮、皮膚表面特性の変化のうちの少なくとも1つの微細細分性運動を含む、前記モニター対象ユーザの身体運動の少なくとも1つを識別するステップをさらに含む、請求項1に記載の方法。
  6. 前記監視ユーザが通行止め、セキュリティ・チェックポイント、および尋問のうちの少なくとも1つを実行している法執行環境を含む前記特定の環境内で前記監視ユーザが法執行活動を実行していることを検出したことに応答して、前記特定の環境内の前記モニター対象ユーザの前記3次元運動を取り込むステップ
    をさらに含む、請求項1に記載の方法。
  7. 前記モニター対象ユーザの心理状態をモニターする心理学の専門家を含む前記特定の環境内で前記監視ユーザが心理学的評価を実行していることを検出したことに応答して、前記特定の環境内の前記モニター対象ユーザの前記3次元運動を取り込むステップ
    をさらに含む、請求項1に記載の方法。
  8. 識別された前記3次元オブジェクト・プロパティ・ストリームを複数の有害動作定義と比較することにより、前記3次元オブジェクト・プロパティ・ストリームを表す特定の定義済み有害動作を識別する前記ステップが、前記3次元オブジェクト・プロパティから、前記モニター対象ユーザによる不審な活動、前記モニター対象ユーザの障害状態、前記モニター対象者が所持する隠匿凶器、前記モニター対象者による積極的態度、前記モニター対象者の怒った顔の表情、および前記モニター対象者の神経質な状態のうちの1つを識別するステップをさらに含む、請求項1に記載の方法。
  9. 前記モニター対象ユーザの前記特定の定義済み有害動作について前記特定の環境に関する前記監視ユーザに通知する前記ステップが、
    前記監視ユーザに出力される警告信号を制御するために警告システムに前記特定の定義済み有害動作を送信するステップと、
    前記警告システムにおいて、前記モニター対象ユーザによって検出不能な監視ユーザへの前記警告信号の出力を制御するために、前記特定の定義済み有害動作を出力装置の出力コントローラに出力するための出力信号に変換するステップと、
    をさらに含む、請求項1に記載の方法。
  10. 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するためのシステムにおいて、
    ネットワークに通信可能に接続された動作処理システムであって、
    前記監視ユーザによってモニターされた特定の環境内のモニター対象ユーザの3次元運動を取り込むための手段であって、前記モニター対象ユーザに向けられた少なくとも1つの画像取り込み装置を使用して前記3次元運動が決定される手段と、
    取り込まれた前記運動を使用して3次元オブジェクト・プロパティ・ストリームを識別するための手段と、
    識別された前記3次元オブジェクト・プロパティ・ストリームを複数の有害動作定義と比較することにより、前記3次元オブジェクト・プロパティ・ストリームによって表された前記モニター対象ユーザの特定の定義済み有害動作を識別するための手段と、
    をさらに有する動作処理システムと、
    前記監視ユーザのみによって検出可能なインターフェースにより前記モニター対象ユーザの前記特定の定義済み有害動作について前記特定の環境に関する前記監視ユーザに通知するための少なくとも1つの警告信号を送信するために前記ネットワークを介して前記動作処理システムに通信可能に接続された警告システムと、
    を有するシステム。
  11. 前記モニター対象ユーザの3次元運動を取り込むための前記手段が、前記モニター対象ユーザの特定の3次元運動を識別し追跡するための立体画像装置を使用して前記3次元運動を取り込むための手段をさらに有する、請求項10に記載のシステム。
  12. 前記3次元オブジェクト・プロパティ・ストリームを表す特定の定義済み有害動作を識別するための前記手段が、取り込まれた前記3次元運動が前記特定の有害動作定義に定義された特定の動作を表す確率百分率を計算し、取り込まれた前記3次元運動が有害である確率百分率を計算するための手段をさらに有する、請求項10に記載のシステム。
  13. 前記3次元オブジェクト・プロパティ・ストリームを表す特定の定義済み有害動作を識別するための前記手段が、前記複数の有害動作定義の少なくとも1つと一致する前記3次元オブジェクト・プロパティ・ストリーム内の前記モニター対象ユーザの顔の表情、眼球運動、筋収縮、皮膚表面特性の変化のうちの少なくとも1つの微細細分性運動を含む、前記モニター対象ユーザの身体運動の少なくとも1つを識別するための手段をさらに有する、請求項10に記載のシステム。
  14. 前記監視ユーザが通行止め、セキュリティ・チェックポイント、および尋問のうちの少なくとも1つを実行している法執行環境を含む前記特定の環境内で前記監視ユーザが法執行活動を実行していることを検出したことに応答して、前記特定の環境内の前記モニター対象ユーザの前記3次元運動を取り込むための手段を前記動作処理システムがさらに有する、請求項10に記載のシステム。
  15. 前記モニター対象ユーザの心理状態をモニターする心理学の専門家を含む前記特定の環境内で前記監視ユーザが心理学的評価を実行していることを検出したことに応答して、前記特定の環境内の前記モニター対象ユーザの前記3次元運動を取り込むための手段を前記動作処理システムがさらに有する、請求項10に記載のシステム。
  16. 識別された前記3次元オブジェクト・プロパティ・ストリームを複数の有害動作定義と比較することにより、前記3次元オブジェクト・プロパティ・ストリームを表す特定の定義済み有害動作を識別するための前記手段が、前記3次元オブジェクト・プロパティから、前記モニター対象ユーザによる不審な活動、前記モニター対象ユーザの障害状態、前記モニター対象者が所持する隠匿凶器、前記モニター対象者による積極的態度、前記モニター対象者の怒った顔の表情、および前記モニター対象者の神経質な状態のうちの1つを識別するための手段をさらに有する、請求項10に記載のシステム。
  17. 前記警告システムが、
    前記モニター対象ユーザによって検出不能な監視ユーザへの前記警告信号の出力を制御するために、前記特定の定義済み有害動作を出力装置の出力コントローラに出力するための出力信号に変換するための手段
    をさらに有する、請求項10に記載のシステム。
  18. 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するためのコンピュータ可読プログラムを含む記憶装置タイプのコンピュータで使用可能な媒体を有するプログラムにおいて、コンピュータ上で実行されたときに、前記コンピュータ可読プログラムが、
    前記監視ユーザによってモニターされた特定の環境内のモニター対象ユーザの3次元運動を取り込むステップであって、前記モニター対象ユーザに向けられた少なくとも1つの画像取り込み装置を使用して前記3次元運動が決定されるステップと、
    取り込まれた前記運動を使用して3次元オブジェクト・プロパティ・ストリームを識別するステップと、
    識別された前記3次元オブジェクト・プロパティ・ストリームを複数の有害動作定義と比較することにより、前記3次元オブジェクト・プロパティ・ストリームによって表された前記モニター対象ユーザの特定の定義済み有害動作を識別するステップと、
    前記監視ユーザのみによって検出可能なインターフェースにより前記モニター対象ユーザの前記特定の定義済み有害動作について前記特定の環境に関する前記監視ユーザに通知するステップと、
    を前記コンピュータに実行させるプログラム。
  19. 前記コンピュータ可読プログラムがネットワークにより伝送される、請求項18に記載のプログラム。
  20. コンピュータ上で実行されたときに、前記コンピュータ可読プログラムが、前記モニター対象ユーザの特定の3次元運動を識別し追跡するための立体画像装置を使用して前記3次元運動を取り込むステップを前記コンピュータにさらに実行させる、請求項18に記載のプログラム。
JP2008003174A 2007-01-12 2008-01-10 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するための方法、システム、およびプログラム Active JP5305665B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/622,676 US8269834B2 (en) 2007-01-12 2007-01-12 Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US11/622676 2007-01-12

Publications (2)

Publication Number Publication Date
JP2008198189A true JP2008198189A (ja) 2008-08-28
JP5305665B2 JP5305665B2 (ja) 2013-10-02

Family

ID=39617333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008003174A Active JP5305665B2 (ja) 2007-01-12 2008-01-10 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するための方法、システム、およびプログラム

Country Status (4)

Country Link
US (4) US8269834B2 (ja)
JP (1) JP5305665B2 (ja)
CN (1) CN101221621B (ja)
TW (1) TW200844912A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016122300A (ja) * 2014-12-24 2016-07-07 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、およびプログラム
JP2016122447A (ja) * 2014-12-24 2016-07-07 イマージョン コーポレーションImmersion Corporation 触覚的に動作可能な警報器のためのシステム及び方法
JP2018125007A (ja) * 2010-03-31 2018-08-09 イマージョン コーポレーションImmersion Corporation 位置に基づいて触覚刺激を提供するシステム及び方法
JP2020098606A (ja) * 2014-06-27 2020-06-25 日本電気株式会社 異常検知装置及び異常検知方法

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8299905B2 (en) * 2005-02-10 2012-10-30 Quentin King System for applying tactile stimulation to the controller of unmanned vehicles
US8520069B2 (en) 2005-09-16 2013-08-27 Digital Ally, Inc. Vehicle-mounted video system with distributed processing
US8269834B2 (en) 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8736420B2 (en) 2007-01-29 2014-05-27 At&T Intellectual Property I, L.P. Methods, systems, and products for controlling devices
JP5121258B2 (ja) * 2007-03-06 2013-01-16 株式会社東芝 不審行動検知システム及び方法
US7756602B2 (en) * 2007-06-14 2010-07-13 Panasonic Automotive Systems Company Of America Division Of Panasonic Corporation Of North America Vehicle entertainment and gaming system
GB0715494D0 (en) * 2007-08-10 2007-09-19 Cell Ltd G Monitoring system and method
US8482613B2 (en) * 2007-09-10 2013-07-09 John Kempf Apparatus and method for photographing birds
US9582805B2 (en) 2007-10-24 2017-02-28 Invention Science Fund I, Llc Returning a personalized advertisement
US20090113297A1 (en) * 2007-10-24 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Requesting a second content based on a user's reaction to a first content
US9513699B2 (en) 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US8601526B2 (en) 2008-06-13 2013-12-03 United Video Properties, Inc. Systems and methods for displaying media content and media guidance information
US8503972B2 (en) 2008-10-30 2013-08-06 Digital Ally, Inc. Multi-functional remote monitoring system
US20100157051A1 (en) * 2008-12-23 2010-06-24 International Business Machines Corporation System and method for detecting and deterring rfid tag related fraud
US11004093B1 (en) * 2009-06-29 2021-05-11 Videomining Corporation Method and system for detecting shopping groups based on trajectory dynamics
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
TWI423144B (zh) * 2009-11-10 2014-01-11 Inst Information Industry Combined with the audio and video behavior identification system, identification methods and computer program products
US9201627B2 (en) 2010-01-05 2015-12-01 Rovi Guides, Inc. Systems and methods for transferring content between user equipment and a wireless communications device
US8638236B2 (en) * 2010-02-25 2014-01-28 Qualcomm Incorporated Methods and apparatus for applying tactile pressure sensors
US20150153715A1 (en) * 2010-09-29 2015-06-04 Google Inc. Rapidly programmable locations in space
US9477302B2 (en) * 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
DE102010053293B4 (de) * 2010-12-02 2023-12-07 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein Kraftfahrzeug, insbesondere ein Sicherheitsfahrzeug, Kraftfahrzeug und Verfahren zum Betreiben eines Fahrerassistenzsystems in einem Kraftfahrzeug
US9072461B2 (en) * 2011-02-25 2015-07-07 Embraer S.A. Posture observer for ergonomic observation, posture analysis and reconstruction
CN103430125B (zh) * 2011-03-04 2016-10-05 株式会社尼康 电子设备及处理系统
US8718672B2 (en) 2011-04-18 2014-05-06 Microsoft Corporation Identifying status based on heterogeneous sensors
US8752200B2 (en) 2011-07-12 2014-06-10 At&T Intellectual Property I, L.P. Devices, systems and methods for security using magnetic field based identification
WO2013058978A1 (en) 2011-10-17 2013-04-25 Kimmel Zebadiah M Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics
WO2013058985A1 (en) 2011-10-17 2013-04-25 Kimmel Zebadiah M Method and apparatus for detecting deterioration of health status
WO2013066601A1 (en) * 2011-10-17 2013-05-10 Kimmel Zebadiah M Method and apparatus for monitoring individuals while protecting their privacy
EP2826020A4 (en) * 2012-03-15 2016-06-15 Behavioral Recognition Sys Inc STANDARDIZING AN ALERT VOLUME IN A VIDEO SURVEILLANCE SYSTEM
US9182233B2 (en) * 2012-05-17 2015-11-10 Robert Bosch Gmbh System and method for autocompletion and alignment of user gestures
CN102739449A (zh) * 2012-06-29 2012-10-17 浪潮电子信息产业股份有限公司 一种基于红外监测服务器授权的自我保护系统
US9251421B2 (en) * 2012-09-13 2016-02-02 General Electric Company System and method for generating semantic annotations
WO2014051584A1 (en) * 2012-09-27 2014-04-03 Empire Technology Development, Llc Character model animation using stored recordings of player movement interface data
US10272848B2 (en) 2012-09-28 2019-04-30 Digital Ally, Inc. Mobile video and imaging system
WO2014052898A1 (en) 2012-09-28 2014-04-03 Digital Ally, Inc. Portable video and imaging system
US9226706B2 (en) * 2012-12-19 2016-01-05 Alert Core, Inc. System, apparatus, and method for promoting usage of core muscles and other applications
US9953304B2 (en) * 2012-12-30 2018-04-24 Buzd, Llc Situational and global context aware calendar, communications, and relationship management
US8874471B2 (en) * 2013-01-29 2014-10-28 Wal-Mart Stores, Inc. Retail loss prevention using biometric data
US20140214631A1 (en) * 2013-01-31 2014-07-31 Intermec Technologies Corporation Inventory assistance device and method
US9804576B2 (en) * 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9393695B2 (en) * 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US20140250447A1 (en) * 2013-03-04 2014-09-04 United Video Properties, Inc. Systems and methods for providing a private viewing experience
US9500865B2 (en) * 2013-03-04 2016-11-22 Alex C. Chen Method and apparatus for recognizing behavior and providing information
WO2014138422A2 (en) * 2013-03-06 2014-09-12 Haier America Trading, Llc Appliance monitoring system and method with connectivity and communication protocols
RU2614015C1 (ru) 2013-03-29 2017-03-22 Нек Корпорейшн Система мониторинга объектов, способ мониторинга объектов и программа выделения цели мониторинга
EP2981935A4 (en) * 2013-04-03 2016-12-07 Nokia Technologies Oy APPARATUS AND ASSOCIATED METHODS
CN104217205B (zh) * 2013-05-29 2018-05-18 华为技术有限公司 一种识别用户活动类型的方法及系统
EP2824913A1 (en) * 2013-07-09 2015-01-14 Alcatel Lucent A method for generating an immersive video of a plurality of persons
US10402661B2 (en) * 2013-07-22 2019-09-03 Opengate Development, Llc Shape/object recognition using still/scan/moving image optical digital media processing
US10075681B2 (en) 2013-08-14 2018-09-11 Digital Ally, Inc. Dual lens camera unit
US9159371B2 (en) 2013-08-14 2015-10-13 Digital Ally, Inc. Forensic video recording with presence detection
US10390732B2 (en) 2013-08-14 2019-08-27 Digital Ally, Inc. Breath analyzer, system, and computer program for authenticating, preserving, and presenting breath analysis data
US9253452B2 (en) 2013-08-14 2016-02-02 Digital Ally, Inc. Computer program, method, and system for managing multiple data recording devices
WO2015058219A1 (en) * 2013-09-18 2015-04-23 Coetzer Barend Hendrik System for identification and tracking of humans
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
CN104731820A (zh) * 2013-12-24 2015-06-24 中国银联股份有限公司 基于立体图像的信息数据查询和选择方法
US9600993B2 (en) 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
US9392412B2 (en) 2014-02-28 2016-07-12 Life360, Inc. Apparatus and method of determining a life change of a user of a mobile device based on behavioral abnormality
IL231789A0 (en) * 2014-03-27 2014-08-31 Fst21 Ltd System and method for detecting fraud attempts of an access control system
US20150288928A1 (en) * 2014-04-08 2015-10-08 Sony Corporation Security camera system use of object location tracking data
US9712761B2 (en) * 2014-05-28 2017-07-18 Qualcomm Incorporated Method for embedding product information in video using radio frequencey information
US9501915B1 (en) * 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
JP2016045874A (ja) * 2014-08-26 2016-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6645438B2 (ja) * 2014-10-27 2020-02-14 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US9269374B1 (en) 2014-10-27 2016-02-23 Mattersight Corporation Predictive video analytics system and methods
CN104463174A (zh) * 2014-12-16 2015-03-25 广州南方电力集团科技发展有限公司 一种多角度动态人物识别及行为预测系统
US10438277B1 (en) * 2014-12-23 2019-10-08 Amazon Technologies, Inc. Determining an item involved in an event
CA2975124C (en) * 2015-01-31 2024-02-13 Brian Lee Moffat Control of a computer via distortions of facial geometry
CN105912975B (zh) * 2015-02-20 2021-10-26 空中客车集团印度私人有限公司 使用视频分析来管理在过站期间出现的飞行器舱内行为
US10909877B2 (en) * 2015-03-02 2021-02-02 Sony Corporation Information processing system and control method
CN106033601B (zh) * 2015-03-09 2019-01-18 株式会社理光 检测异常情形的方法和装置
US10013756B2 (en) 2015-03-13 2018-07-03 Atlas5D, Inc. Methods and systems for measuring use of an assistive device for ambulation
US9841259B2 (en) 2015-05-26 2017-12-12 Digital Ally, Inc. Wirelessly conducted electronic weapon
US10013883B2 (en) 2015-06-22 2018-07-03 Digital Ally, Inc. Tracking and analysis of drivers within a fleet of vehicles
US9721350B2 (en) * 2015-06-26 2017-08-01 Getalert Ltd. Methods circuits devices systems and associated computer executable code for video feed processing
US10043065B2 (en) * 2015-07-30 2018-08-07 Rovi Guides, Inc. Systems and methods for determining meaning of cultural gestures based on voice detection
WO2017033186A1 (en) * 2015-08-24 2017-03-02 Fst21 Ltd System and method for in motion identification
US10169557B2 (en) * 2015-09-23 2019-01-01 International Business Machines Corporation Picture/gesture password protection
US10713670B1 (en) * 2015-12-31 2020-07-14 Videomining Corporation Method and system for finding correspondence between point-of-sale data and customer behavior data
US9818031B2 (en) * 2016-01-06 2017-11-14 Orcam Technologies Ltd. Crowd-sourced vision-based information collection
KR102512828B1 (ko) * 2016-01-22 2023-03-22 삼성전자주식회사 이벤트 신호 처리 방법 및 장치
WO2017136646A1 (en) 2016-02-05 2017-08-10 Digital Ally, Inc. Comprehensive video collection and storage
SE541141C2 (en) * 2016-04-18 2019-04-16 Moonlightning Ind Ab Focus pulling with a stereo vision camera system
US20170316258A1 (en) * 2016-04-29 2017-11-02 International Business Machines Corporation Augmenting gesture based security technology for improved differentiation
US10628682B2 (en) * 2016-04-29 2020-04-21 International Business Machines Corporation Augmenting gesture based security technology using mobile devices
CN105975956A (zh) * 2016-05-30 2016-09-28 重庆大学 一种基于红外全景摄像头的独居老人异常行为识别方法
DE102016211049A1 (de) * 2016-06-21 2017-12-21 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum eine Vorrichtung und ein Verfahren zur Ausgabe wenigstens eines Alarmsignals
US9908411B2 (en) 2016-06-23 2018-03-06 International Business Machines Corporation Avoiding vehicle collision using signals from mobile devices
US10015635B2 (en) 2016-06-23 2018-07-03 International Business Machines Corporation Collision avoidance signaling from mobile devices
CN113903455A (zh) 2016-08-02 2022-01-07 阿特拉斯5D公司 在保护隐私的同时识别人及/或识别并量化疼痛、疲劳、情绪及意图的系统及方法
DE102016214860B4 (de) * 2016-08-10 2022-06-02 Audi Ag Verfahren zur Überwachung zumindest eines Fahrzeugs mit mindestens einer Überwachungskamera, Überwachungskamera sowie Fahrzeug
US10419558B2 (en) 2016-08-24 2019-09-17 The Directv Group, Inc. Methods and systems for provisioning a user profile on a media processor
US10521675B2 (en) 2016-09-19 2019-12-31 Digital Ally, Inc. Systems and methods of legibly capturing vehicle markings
EP3321628B1 (de) * 2016-11-10 2020-01-01 Klingelnberg AG Koordinaten-messvorrichtung mit optischem sensor und entsprechendes verfahren
US10911725B2 (en) 2017-03-09 2021-02-02 Digital Ally, Inc. System for automatically triggering a recording
CN107103310B (zh) * 2017-06-01 2020-12-18 鄂尔多斯市普渡科技有限公司 一种无人驾驶出租车的乘客行为监督方法
WO2018226882A1 (en) 2017-06-07 2018-12-13 Amazon Technologies, Inc. Behavior-aware security systems and associated methods
CN107292271B (zh) * 2017-06-23 2020-02-14 北京易真学思教育科技有限公司 学习监控方法、装置及电子设备
CN109144052B (zh) * 2017-07-07 2021-12-28 奥特埃克斯股份有限公司 用于自动驾驶车辆的导航系统及其方法
CN107437075A (zh) * 2017-07-29 2017-12-05 安徽博威康信息技术有限公司 一种基于日常行为轨迹的危险警报系统
US10528950B2 (en) * 2017-08-02 2020-01-07 Cognizant Technology Solutions India Pvt. Ltd. System and a method for detecting fraudulent transactions at a transaction site
CN107609474B (zh) * 2017-08-07 2020-05-01 深圳市科迈爱康科技有限公司 肢体动作识别方法、装置、机器人及存储介质
US10691931B2 (en) * 2017-10-04 2020-06-23 Toshiba Global Commerce Solutions Sensor-based environment for providing image analysis to determine behavior
CN110059526B (zh) * 2017-11-07 2023-11-28 开利公司 使用身体语言对遇险状况的机器解译
US11024137B2 (en) 2018-08-08 2021-06-01 Digital Ally, Inc. Remote video triggering and tagging
US11138415B2 (en) * 2018-09-20 2021-10-05 Shepherd AI, LLC Smart vision sensor system and method
US11258987B2 (en) * 2018-09-21 2022-02-22 Microsoft Technology Licensing, Llc Anti-collision and motion control systems and methods
CN109359755A (zh) * 2018-09-29 2019-02-19 百度在线网络技术(北京)有限公司 事件监测方法、装置、设备和存储介质
CN109460707A (zh) * 2018-10-08 2019-03-12 华南理工大学 一种基于深度神经网络的多模态动作识别方法
CN109147274B (zh) * 2018-10-11 2020-12-15 广东小天才科技有限公司 一种智能穿戴设备及其控制方法
US10809760B1 (en) * 2018-10-29 2020-10-20 Facebook, Inc. Headset clock synchronization
CN109408697A (zh) * 2018-10-29 2019-03-01 武汉虹旭信息技术有限责任公司 基于大数据信息下互联网行为预警系统及其方法
WO2020131037A1 (en) * 2018-12-18 2020-06-25 Rovi Guides, Inc. Systems and methods for automated tracking on a handheld device using a remote camera
US11099266B2 (en) 2019-01-11 2021-08-24 International Business Machines Corporation Trajectory based threat alerting with friendly device augmentation
CN109709546B (zh) * 2019-01-14 2021-11-16 珠海格力电器股份有限公司 宠物状态监测方法和装置
US10964187B2 (en) * 2019-01-29 2021-03-30 Pool Knight, Llc Smart surveillance system for swimming pools
WO2020181225A1 (en) * 2019-03-06 2020-09-10 ATMO Auto Power LLC System and method for the universal control of uniform initial judgment
US11941823B2 (en) * 2019-03-14 2024-03-26 Servicenow Canada Inc. Articles for disrupting automated visual object tracking processes
US10776243B1 (en) 2019-03-19 2020-09-15 Bank Of America Corporation Prediction tool
US10963841B2 (en) * 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
CN110097724B (zh) * 2019-04-24 2021-06-29 苏州浪潮智能科技有限公司 一种基于fpga的物品自动看护方法及系统
US11024143B2 (en) * 2019-07-30 2021-06-01 Ppip, Llc Audio events tracking systems and methods
CN110456831B (zh) * 2019-08-16 2022-06-14 南开大学 一种基于主动视觉的小鼠接触行为追踪平台
CN111105132A (zh) * 2019-11-08 2020-05-05 国网浙江省电力有限公司温州供电公司 目标行为的协同监督方法及装置
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
CN111144252B (zh) * 2019-12-17 2023-09-05 北京深测科技有限公司 一种用于人流分析的监控预警方法
WO2021152053A1 (en) * 2020-01-30 2021-08-05 Outsight A surveillance sensor system
CN113452954B (zh) * 2020-03-26 2023-02-28 浙江宇视科技有限公司 行为分析方法、装置、设备和介质
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
CN111507264A (zh) * 2020-04-17 2020-08-07 浙江大学 基于视频的行为分析方法、装置、设备
US11715326B2 (en) * 2020-06-17 2023-08-01 Microsoft Technology Licensing, Llc Skin tone correction for body temperature estimation
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
TWI815046B (zh) * 2020-10-14 2023-09-11 友達光電股份有限公司 行車輔助方法及車載裝置
CN112562260B (zh) * 2020-12-16 2022-08-09 浙江大华技术股份有限公司 防走失方法及装置
CN112775983A (zh) * 2020-12-25 2021-05-11 张月崧 智能防卫保护方法及智能保镖机器人
US20220365200A1 (en) * 2021-05-12 2022-11-17 California State University Fresno Foundation System and method for human and animal detection in low visibility
CN113536997B (zh) * 2021-07-01 2022-11-22 深圳中智明科智能科技有限公司 基于图像识别和行为分析的智能安防系统及方法
US11328582B1 (en) 2021-07-07 2022-05-10 T-Mobile Usa, Inc. Enhanced hazard detection device configured with security and communications capabilities
US20230106540A1 (en) * 2021-10-04 2023-04-06 International Business Machines Corporation Virtual-presence guidelines solutions
CN114202865A (zh) * 2021-11-16 2022-03-18 杭州华橙软件技术有限公司 一种监控警告方法、装置及电子设备
US11950017B2 (en) 2022-05-17 2024-04-02 Digital Ally, Inc. Redundant mobile video recording

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04165498A (ja) * 1990-10-29 1992-06-11 Toshiba Corp 携帯端末装置
JP2004328622A (ja) * 2003-04-28 2004-11-18 Matsushita Electric Ind Co Ltd 行動パターン識別装置
WO2005027023A1 (en) * 2003-09-12 2005-03-24 Stratech Systems Limited A method and system for monitoring the movement of people
JP2005309965A (ja) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd 宅内セキュリティ装置
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
JP2006127240A (ja) * 2004-10-29 2006-05-18 Secom Co Ltd 不審者検出システム及び不審者検出プログラム
JP2006165729A (ja) * 2004-12-03 2006-06-22 Canon Inc 撮影プログラム、撮影方法及び撮影システム
JP2008083933A (ja) * 2006-09-27 2008-04-10 Sogo Keibi Hosho Co Ltd 不審者判定装置、不審者判定方法および不審者判定プログラム

Family Cites Families (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2183878B (en) * 1985-10-11 1989-09-20 Matsushita Electric Works Ltd Abnormality supervising system
US5109425A (en) 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
JP2953712B2 (ja) 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
US5019780A (en) 1989-10-23 1991-05-28 Hughes Aircraft Company Method and apparatus for monitoring optical fibers during payout
US5091780A (en) * 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
JPH0816958B2 (ja) * 1991-12-11 1996-02-21 茨城警備保障株式会社 防犯監視システム
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5502803A (en) 1993-01-18 1996-03-26 Sharp Kabushiki Kaisha Information processing apparatus having a gesture editing function
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5406491A (en) 1993-03-26 1995-04-11 Trimble Navigation Limited Navigational system for trip routing
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
JP3630712B2 (ja) 1994-02-03 2005-03-23 キヤノン株式会社 ジェスチャー入力方法及びその装置
US6115053A (en) 1994-08-02 2000-09-05 New York University Computer animation method and system for synthesizing human-like gestures and actions
US5691693A (en) 1995-09-28 1997-11-25 Advanced Safety Concepts, Inc. Impaired transportation vehicle operator system
US6028626A (en) * 1995-01-03 2000-02-22 Arc Incorporated Abnormality detection and surveillance system
US5666157A (en) * 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
GB2306826A (en) 1995-10-18 1997-05-07 Sharp Kk Display, method of calibrating an observer tracking display and observer tracking autostereoscopic 3D display
US5880731A (en) 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US5774591A (en) 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
JPH09212648A (ja) 1996-01-31 1997-08-15 Toshiba Corp 動画像処理方法
US5907293A (en) 1996-05-30 1999-05-25 Sun Microsystems, Inc. System for displaying the characteristics, position, velocity and acceleration of nearby vehicles on a moving-map
JPH10960A (ja) 1996-06-12 1998-01-06 Yazaki Corp 運転者監視装置
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
JP3843502B2 (ja) 1996-09-30 2006-11-08 マツダ株式会社 車両用動体認識装置
US5747719A (en) * 1997-01-21 1998-05-05 Bottesch; H. Werner Armed terrorist immobilization (ATI) system
US6167381A (en) 1997-02-07 2000-12-26 Ncr Corporation Self-service checkout terminal
US6256046B1 (en) 1997-04-18 2001-07-03 Compaq Computer Corporation Method and apparatus for visual sensing of humans for active public interfaces
US6295367B1 (en) 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6080938A (en) 1997-08-13 2000-06-27 Ncr Corporation Method and apparatus for resetting a product scale of a retail checkout terminal
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6212510B1 (en) * 1998-01-30 2001-04-03 Mitsubishi Electric Research Laboratories, Inc. Method for minimizing entropy in hidden Markov models of physical signals
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6154558A (en) 1998-04-22 2000-11-28 Hsieh; Kuan-Hong Intention identification method
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
FR2784887B1 (fr) 1998-10-22 2001-01-19 Renault Systeme pour surveiller des yeux afin de detecter et de prevenir des baisses de vigilance d'un conducteur de vehicule
US6161071A (en) 1999-03-12 2000-12-12 Navigation Technologies Corporation Method and system for an in-vehicle computing architecture
US6633315B1 (en) * 1999-05-20 2003-10-14 Microsoft Corporation Context-based dynamic user interface elements
US6766036B1 (en) 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
TW484105B (en) 1999-10-14 2002-04-21 Ind Tech Res Inst Door security system of face recognition
US6189790B1 (en) 1999-12-22 2001-02-20 Ncr Corporation Method and apparatus for displaying instructional messages during operation of a self-service checkout terminal
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6784901B1 (en) 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
JP4693329B2 (ja) 2000-05-16 2011-06-01 スイスコム・アクチエンゲゼルシヤフト 命令を入力する方法と端末装置
JP2001338069A (ja) 2000-05-29 2001-12-07 Pioneer Electronic Corp ライフサポート装置
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
JP4118674B2 (ja) * 2000-09-06 2008-07-16 株式会社日立製作所 異常行動検出装置
US20050206610A1 (en) 2000-09-29 2005-09-22 Gary Gerard Cordelli Computer-"reflected" (avatar) mirror
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6731307B1 (en) * 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
US6728679B1 (en) * 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
US6795808B1 (en) * 2000-10-30 2004-09-21 Koninklijke Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and charges external database with relevant data
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US20020085033A1 (en) * 2000-12-27 2002-07-04 G.E. Information Services, Inc. Process for generating a user interface in a data processing system
US6540674B2 (en) * 2000-12-29 2003-04-01 Ibm Corporation System and method for supervising people with mental disorders
GB0101794D0 (en) 2001-01-24 2001-03-07 Central Research Lab Ltd Monitoring responses to visual stimuli
US20020107741A1 (en) 2001-02-08 2002-08-08 Stern Edith H. Method and apparatus for determining a price based on satisfaction
GB0107689D0 (en) 2001-03-28 2001-05-16 Ncr Int Inc Self service terminal
US20020178440A1 (en) 2001-03-28 2002-11-28 Philips Electronics North America Corp. Method and apparatus for automatically selecting an alternate item based on user behavior
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
US6498970B2 (en) 2001-04-17 2002-12-24 Koninklijke Phillips Electronics N.V. Automatic access to an automobile via biometrics
US6584375B2 (en) 2001-05-04 2003-06-24 Intellibot, Llc System for a retail environment
US7274800B2 (en) 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
GB2378301A (en) 2001-07-31 2003-02-05 Hewlett Packard Co Personal object recognition system for visually impaired persons
WO2003025859A1 (fr) 2001-09-17 2003-03-27 National Institute Of Advanced Industrial Science And Technology Dispositif d'interface
US7284201B2 (en) 2001-09-20 2007-10-16 Koninklijke Philips Electronics N.V. User attention-based adaptation of quality level to improve the management of real-time multi-media content delivery and distribution
US20030058111A1 (en) * 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Computer vision based elderly care monitoring system
US7110569B2 (en) * 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events
US6559769B2 (en) * 2001-10-01 2003-05-06 Eric Anthony Early warning real-time security system
US20030081834A1 (en) 2001-10-31 2003-05-01 Vasanth Philomin Intelligent TV room
US6873261B2 (en) * 2001-12-07 2005-03-29 Eric Anthony Early warning near-real-time security system
DE10161261C2 (de) * 2001-12-13 2003-10-16 Daimler Chrysler Ag Dialogsystem für Warn- und Informationssysteme
US6571064B1 (en) * 2001-12-17 2003-05-27 Concord Camera Corp. LED reflector device
US7409373B2 (en) * 2001-12-28 2008-08-05 Concepta Ab Pattern analysis system and method
US20030126013A1 (en) 2001-12-28 2003-07-03 Shand Mark Alexander Viewer-targeted display system and method
US20050128304A1 (en) * 2002-02-06 2005-06-16 Manasseh Frederick M. System and method for traveler interactions management
AU2002361483A1 (en) * 2002-02-06 2003-09-02 Nice Systems Ltd. System and method for video content analysis-based detection, surveillance and alarm management
US7436887B2 (en) * 2002-02-06 2008-10-14 Playtex Products, Inc. Method and apparatus for video frame sequence-based object tracking
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
DE10210130B4 (de) 2002-03-08 2014-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerwarnung
JP4006577B2 (ja) * 2002-03-13 2007-11-14 オムロン株式会社 監視装置
TW554293B (en) 2002-03-29 2003-09-21 Ind Tech Res Inst Method for extracting and matching hand gesture features of image
US20030227453A1 (en) 2002-04-09 2003-12-11 Klaus-Peter Beier Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
US7324663B2 (en) 2002-06-06 2008-01-29 Wintriss Engineering Corporation Flight parameter measurement system
US7598976B2 (en) 2002-06-13 2009-10-06 I See Tech Ltd. Method and apparatus for a multisensor imaging and scene interpretation system to aid the visually impaired
US20040001616A1 (en) * 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
US7296236B2 (en) * 2002-07-02 2007-11-13 Whirlpool Corporation Appliance control identification system employing user interface scan matrix
SE0202948D0 (sv) * 2002-10-04 2002-10-04 Bergfalk & Knagenhjelm Ab Sätt att påvisa aktivitetsmönster som indikerar psykisk sjukdom, och motsvarande arrangemang
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
WO2004057460A2 (en) 2002-12-20 2004-07-08 Koninklijke Philips Electronics N.V. Segment-based motion estimation
US20040193313A1 (en) 2003-01-14 2004-09-30 Benoit Cornet Kiosk system
US7224830B2 (en) * 2003-02-04 2007-05-29 Intel Corporation Gesture detection from digital video images
US6859144B2 (en) 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
US7292723B2 (en) * 2003-02-26 2007-11-06 Walker Digital, Llc System for image analysis in a network that is structured with multiple layers and differentially weighted neurons
AU2003901528A0 (en) * 2003-03-31 2003-05-01 Seeing Machines Pty Ltd Eye tracking system and method
US6975246B1 (en) 2003-05-13 2005-12-13 Itt Manufacturing Enterprises, Inc. Collision avoidance using limited range gated video
US7330566B2 (en) 2003-05-15 2008-02-12 Microsoft Corporation Video-based gait recognition
WO2004108466A1 (en) 2003-06-06 2004-12-16 Volvo Technology Corporation Method and arrangement for controlling vehicular subsystems based on interpreted driver activity
US7607097B2 (en) * 2003-09-25 2009-10-20 International Business Machines Corporation Translating emotion to braille, emoticons and other special symbols
US7519970B2 (en) * 2003-09-29 2009-04-14 International Business Machines Corporation Methods, systems and computer program products for creating user interface to applications using generic user interface templates
ATE407416T1 (de) * 2003-11-30 2008-09-15 Volvo Technology Corp Verfahren und system zum erkennen einer fahrerbeeinträchtigung
US7171024B2 (en) 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
TW200523728A (en) 2004-01-15 2005-07-16 Mitac Int Corp Information monitoring and resource management system for distributed common apparatus
JP4481663B2 (ja) 2004-01-15 2010-06-16 キヤノン株式会社 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
GB2410359A (en) 2004-01-23 2005-07-27 Sony Uk Ltd Display
US7755608B2 (en) 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
FI117308B (fi) 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4369326B2 (ja) 2004-08-19 2009-11-18 株式会社日立製作所 施設内情報提供システム及び施設内情報提供方法
US20060045310A1 (en) 2004-08-27 2006-03-02 General Electric Company System and method for tracking articulated body motion
EP1794703A4 (en) 2004-09-17 2012-02-29 Cyberextruder Com Inc SYSTEM, METHOD AND APPARATUS FOR GENERATING THREE-DIMENSIONAL REPRESENTATION FROM ONE OR MORE TWO-DIMENSIONAL IMAGES
US20080166015A1 (en) * 2004-09-24 2008-07-10 Object Video, Inc. Method for finding paths in video
US7126496B2 (en) * 2004-09-30 2006-10-24 Safe Flight Instrument Corporation Tactile cueing system and method for aiding a helicopter pilot in making landings
US7386151B1 (en) * 2004-10-15 2008-06-10 The United States Of America As Represented By The Secretary Of The Navy System and method for assessing suspicious behaviors
JP2006119840A (ja) 2004-10-20 2006-05-11 Hitachi Ltd 車両用警告装置
US20060203090A1 (en) * 2004-12-04 2006-09-14 Proximex, Corporation Video surveillance using stationary-dynamic camera assemblies for wide-area video surveillance and allow for selective focus-of-attention
US7408461B2 (en) * 2005-01-11 2008-08-05 Controlled Capture Systems, Llc Metal detection system and method
US7441202B2 (en) 2005-02-14 2008-10-21 Mitsubishi Electric Research Laboratories, Inc. Spatial multiplexing to mediate direct-touch input on large displays
US20060181519A1 (en) * 2005-02-14 2006-08-17 Vernier Frederic D Method and system for manipulating graphical objects displayed on a touch-sensitive display surface using displaced pop-ups
US8005675B2 (en) * 2005-03-17 2011-08-23 Nice Systems, Ltd. Apparatus and method for audio analysis
US8704668B1 (en) * 2005-04-20 2014-04-22 Trevor Darrell System for monitoring and alerting based on animal behavior in designated environments
US20060259206A1 (en) 2005-05-16 2006-11-16 Smith Matthew R Vehicle operator monitoring system and method
JP2006350705A (ja) 2005-06-16 2006-12-28 Fujifilm Holdings Corp 情報提供装置および方法並びにプログラム
US7809214B2 (en) 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Device and a method for identifying movement patterns
JP4720386B2 (ja) 2005-09-07 2011-07-13 株式会社日立製作所 運転支援装置
US7378658B2 (en) * 2005-09-20 2008-05-27 Coherent, Inc. Security portal with THz trans-receiver
US20070067203A1 (en) 2005-09-21 2007-03-22 Sukenik Gil System for data collection from a point of sale
US20070235652A1 (en) * 2006-04-10 2007-10-11 Smith Steven W Weapon detection processing
US7671728B2 (en) * 2006-06-02 2010-03-02 Sensormatic Electronics, LLC Systems and methods for distributed monitoring of remote sites
US8009193B2 (en) * 2006-06-05 2011-08-30 Fuji Xerox Co., Ltd. Unusual event detection via collaborative video mining
US8103601B2 (en) * 2006-06-12 2012-01-24 Projectioneering, LLC Complexity systems management method
JP2008003174A (ja) 2006-06-20 2008-01-10 Sharp Corp カラー画像形成方法およびカラー画像形成装置
US8725567B2 (en) 2006-06-29 2014-05-13 Microsoft Corporation Targeted advertising in brick-and-mortar establishments
US20080040692A1 (en) 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US20080084345A1 (en) * 2006-07-19 2008-04-10 Sensis Corporation Broadband multi-channel detector with signal and jamming discrimination
KR100780210B1 (ko) 2006-07-20 2007-11-27 삼성전기주식회사 휴대형 보안 송신 장치 및 보안 인증 시스템
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
BRPI0716106A2 (pt) 2006-09-07 2014-07-01 Procter & Gamble Métodos de medição da resposta emocional e da preferência de escolha
US7692551B2 (en) 2006-09-12 2010-04-06 Deere & Company Method and system for detecting operator alertness
US20080103425A1 (en) 2006-10-27 2008-05-01 Berlet Gregory C Scope sock
US8248462B2 (en) 2006-12-15 2012-08-21 The Board Of Trustees Of The University Of Illinois Dynamic parallax barrier autosteroscopic display system and method
US7792328B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US8269834B2 (en) 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
WO2009012289A1 (en) * 2007-07-16 2009-01-22 Cernium Corporation Apparatus and methods for video alarm verification
US7970176B2 (en) * 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
JP5055153B2 (ja) * 2008-02-01 2012-10-24 株式会社日立製作所 解析システムおよび解析サーバ
US8587662B1 (en) * 2008-11-06 2013-11-19 Target Brands, Inc. Theft trend analysis and response
US20100169792A1 (en) 2008-12-29 2010-07-01 Seif Ascar Web and visual content interaction analytics
US7996793B2 (en) * 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8333659B2 (en) * 2009-09-30 2012-12-18 Zynga Inc. Apparatuses, methods and systems for a live online game tester
US8926335B2 (en) * 2010-05-12 2015-01-06 Verificient Technologies, Inc. System and method for remote test administration and monitoring
US20120143649A1 (en) * 2010-12-01 2012-06-07 9133 1280 Quebec Inc. Method and system for dynamically detecting illegal activity
US8847781B2 (en) * 2012-03-28 2014-09-30 Sony Corporation Building management system with privacy-guarded assistance mechanism and method of operation thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04165498A (ja) * 1990-10-29 1992-06-11 Toshiba Corp 携帯端末装置
JP2004328622A (ja) * 2003-04-28 2004-11-18 Matsushita Electric Ind Co Ltd 行動パターン識別装置
WO2005027023A1 (en) * 2003-09-12 2005-03-24 Stratech Systems Limited A method and system for monitoring the movement of people
JP2005309965A (ja) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd 宅内セキュリティ装置
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
JP2006127240A (ja) * 2004-10-29 2006-05-18 Secom Co Ltd 不審者検出システム及び不審者検出プログラム
JP2006165729A (ja) * 2004-12-03 2006-06-22 Canon Inc 撮影プログラム、撮影方法及び撮影システム
JP2008083933A (ja) * 2006-09-27 2008-04-10 Sogo Keibi Hosho Co Ltd 不審者判定装置、不審者判定方法および不審者判定プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018125007A (ja) * 2010-03-31 2018-08-09 イマージョン コーポレーションImmersion Corporation 位置に基づいて触覚刺激を提供するシステム及び方法
JP2020098606A (ja) * 2014-06-27 2020-06-25 日本電気株式会社 異常検知装置及び異常検知方法
JP2021106019A (ja) * 2014-06-27 2021-07-26 日本電気株式会社 画像処理装置、異常検知方法、及びプログラム
US11106918B2 (en) 2014-06-27 2021-08-31 Nec Corporation Abnormality detection device and abnormality detection method
US11250268B2 (en) 2014-06-27 2022-02-15 Nec Corporation Abnormality detection device and abnormality detection method
JP7173196B2 (ja) 2014-06-27 2022-11-16 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
JP7396436B2 (ja) 2014-06-27 2023-12-12 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
JP2016122300A (ja) * 2014-12-24 2016-07-07 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、およびプログラム
JP2016122447A (ja) * 2014-12-24 2016-07-07 イマージョン コーポレーションImmersion Corporation 触覚的に動作可能な警報器のためのシステム及び方法

Also Published As

Publication number Publication date
US10354127B2 (en) 2019-07-16
CN101221621B (zh) 2013-06-05
US20080169929A1 (en) 2008-07-17
JP5305665B2 (ja) 2013-10-02
US9208678B2 (en) 2015-12-08
US20160321498A1 (en) 2016-11-03
US20120140042A1 (en) 2012-06-07
US20160092725A1 (en) 2016-03-31
TW200844912A (en) 2008-11-16
US8269834B2 (en) 2012-09-18
CN101221621A (zh) 2008-07-16
US9412011B2 (en) 2016-08-09

Similar Documents

Publication Publication Date Title
JP5305665B2 (ja) 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するための方法、システム、およびプログラム
US7801332B2 (en) Controlling a system based on user behavioral signals detected from a 3D captured image stream
US11030917B2 (en) Wearable apparatus and method for monitoring posture
CN101238981B (zh) 根据三维捕获的图像流来跟踪身体运动范围的方法和系统
US7792328B2 (en) Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
US8295542B2 (en) Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US11514207B2 (en) Tracking safety conditions of an area
US7971156B2 (en) Controlling resource access based on user gesturing in a 3D captured image stream of the user
CN109658435A (zh) 用于视频捕获和创建的无人机云
US20160026257A1 (en) Wearable unit for selectively withholding actions based on recognized gestures
CN109840586A (zh) 自主机器中对有问题的传感器的基于深度学习的实时检测和校正
JP2018523424A (ja) モニタリング
Poppe et al. AMAB: Automated measurement and analysis of body motion
CN104427960A (zh) 自适应视觉辅助装置
US11526590B2 (en) Automatic low radiation mode for a wearable device
Mansoor et al. A machine learning approach for non-invasive fall detection using Kinect
WO2020116233A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Iwasaki et al. Recognition of pointing and calling for industrial safety management
Noor et al. Context-aware perception for cyber-physical systems
US20200341556A1 (en) Pattern embeddable recognition engine and method
Ryndin et al. Analysis of Multimodal Information for Multi-robot System
Brown et al. Yawning Detection using Earphone Inertial Measurement Units
Evstafev et al. Tracking of Driver Behaviour and Drowsiness in ADAS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130625

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5305665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250