JP2018526945A - Video identification and analysis recognition system - Google Patents

Video identification and analysis recognition system Download PDF

Info

Publication number
JP2018526945A
JP2018526945A JP2018526490A JP2018526490A JP2018526945A JP 2018526945 A JP2018526945 A JP 2018526945A JP 2018526490 A JP2018526490 A JP 2018526490A JP 2018526490 A JP2018526490 A JP 2018526490A JP 2018526945 A JP2018526945 A JP 2018526945A
Authority
JP
Japan
Prior art keywords
data
mobile communication
video
communication device
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018526490A
Other languages
Japanese (ja)
Other versions
JP6807925B2 (en
Inventor
ジェイムズ キャリー,
ジェイムズ キャリー,
Original Assignee
ジェイムズ キャリー,
ジェイムズ キャリー,
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/817,871 external-priority patent/US9762865B2/en
Application filed by ジェイムズ キャリー,, ジェイムズ キャリー, filed Critical ジェイムズ キャリー,
Publication of JP2018526945A publication Critical patent/JP2018526945A/en
Application granted granted Critical
Publication of JP6807925B2 publication Critical patent/JP6807925B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

分析認識システムが、ビデオカメラと、アンテナと、データ分析モジュールとを含む。ビデオカメラは、ビデオデータを捕捉するように構成される。アンテナは、モバイル通信デバイスデータを捕捉するように構成される。データ分析モジュールは、ビデオデータおよびモバイル通信デバイスデータを相関させ、ビデオデータおよびモバイル通信デバイスデータと関連付けられる人物のプロファイルを生成するように構成される。プロファイルは、捕捉されたビデオデータおよび捕捉されたモバイル通信データのうちのいずれか1つまたはそれらの組み合わせを含む、プロファイルデータを有する。The analysis recognition system includes a video camera, an antenna, and a data analysis module. The video camera is configured to capture video data. The antenna is configured to capture mobile communication device data. The data analysis module is configured to correlate the video data and the mobile communication device data and generate a person profile associated with the video data and the mobile communication device data. The profile has profile data that includes any one or combination of captured video data and captured mobile communication data.

Description

(関連出願の相互参照)
本願は、2015年8月4日に出願された米国特許出願第14/817,871号に対する優先権およびその利益を主張するものである。また、本願は、2014年4月18日に出願された米国特許出願第14/256,385号に関連しており、これは、2013年4月19日に出願された米国仮出願第61/813,942号、2014年3月14日に出願された米国特許出願第14/213,548号に対する優先権およびその利益を主張するものであり、これは、2013年3月15日に出願された米国仮出願第61/798,740号に対する優先権およびその利益を主張するものである。これらの先行する出願の各々の開示は、本明細書中に完全に開示されているのと同然に参照により本明細書中に援用される。
(Cross-reference of related applications)
This application claims priority to and benefit from US patent application Ser. No. 14 / 817,871, filed Aug. 4, 2015. This application is also related to US patent application Ser. No. 14 / 256,385, filed Apr. 18, 2014, which includes US Provisional Application No. 61 / filed on Apr. 19, 2013. No. 813,942, U.S. Patent Application No. 14 / 213,548 filed March 14, 2014, and claims its benefit, which was filed on March 15, 2013. Claiming priority and benefit to US Provisional Application No. 61 / 798,740. The disclosure of each of these prior applications is hereby incorporated by reference as if fully set forth herein.

以下は、ビデオ観察、監視、および照合システム、および使用方法に関する。具体的アプリケーションは、監視システム、路上カメラ、パーソナルビデオ、店舗内カメラシステム、駐車場カメラシステム等と協働し得、1つまたはそれを上回るビデオストリームのリアルタイムおよび/またはポストタイムデータ分析を提供するように構成される。   The following relates to video viewing, monitoring and verification systems and methods of use. Specific applications may work with surveillance systems, street cameras, personal videos, in-store camera systems, parking camera systems, etc., providing real-time and / or post-time data analysis of one or more video streams. Configured as follows.

企業は、企業のスループットおよび効率を向上させるために、具体的ユーザ挙動を識別しようとし続けている。例えば、小売産業の状況におけるユーザ挙動を理解することによって、企業は、製品売上の向上および製品シュリンケージの低減の両方を行うことができる。後者に焦点を当てると、従業員による窃盗が、小売在庫縮小の最大要因のうちの1つである。したがって、企業は、在庫シュリンケージを低減させ、最終的に排除するために、ユーザ挙動を理解しようとしている。   Companies continue to try to identify specific user behaviors in order to improve their throughput and efficiency. For example, by understanding user behavior in the retail industry context, companies can both improve product sales and reduce product shrinkage. Focusing on the latter, employee theft is one of the biggest causes of retail inventory reduction. Thus, companies are trying to understand user behavior to reduce and ultimately eliminate inventory shrinkage.

企業は、従業員のシュリンケージを防止するために、種々の方法を利用している。小売店舗において窃盗されやすいアイテムに取り付けられる受動的電子機器デバイスが、アラームをトリガするために使用されるが、顧客および/または従業員は、店舗からアイテムを持ち去る前にこれらのデバイスを無効化し得る。いくつかの小売業者は、顧客および従業員の両方に対してバッグおよび/またはカート検査を実行する一方、他の小売業者は、POSトランザクションのビデオ監視を組み込む損失防止システムを実装し、実装されたプロシージャに違反して実行された可能性があるトランザクションを識別している。殆どのプロシージャおよび技術は、これらの事象中に起こる潜在的なユーザ挙動を理解する代わりに、個々の出来事を識別することに焦点を当てている。したがって、企業は、個人が窃盗を犯すことを可能にする潜在的条件に対処することが不可能である。   Companies use a variety of methods to prevent employee shrinkage. Passive electronics devices attached to items that are prone to theft in retail stores are used to trigger alarms, but customers and / or employees may disable these devices before taking items away from the store . Some retailers perform bag and / or cart inspections for both customers and employees, while other retailers have implemented and implemented loss prevention systems that incorporate video surveillance of POS transactions. Identifies transactions that may have been executed in violation of the procedure. Most procedures and techniques focus on identifying individual events instead of understanding the potential user behavior that occurs during these events. Thus, companies are unable to deal with potential conditions that allow individuals to commit theft.

監視システム、路上カメラシステム、店舗カメラシステム、駐車場カメラシステム、および同等物が、広く使用されている。ある事例では、カメラビデオは、連続的にストリーミングし、例えば、8、12、24、48時間のバッファ期間が、使用され、次いで、上書きが、ビデオに対して起こる必要はないはずである。他のシステムでは、より長い時間期間が、利用され得る、またはバッファは、特定の目的のために記憶および保存される数週間または数ヶ月のデータである。理解され得るように、ある事象が起こると、ビデオは、ビデオデータの精査および分析のために利用可能である。いくつかの事例では、ビデオストリームは、データを捕捉し、特定の目的に応じて、自動、ユーザ入力、またはプログラミングに基づいて、種々の事前判定されたシナリオを分析する。例えば、ビデオは、在庫制御および/または顧客のビデオ監視のために、入口から店舗の中に、および店舗全体を通して移動する物体を追尾するようにプログラムされ得る。   Surveillance systems, street camera systems, store camera systems, parking lot camera systems, and the like are widely used. In some cases, the camera video is continuously streamed, for example, a buffer period of 8, 12, 24, 48 hours is used, and then overwriting should not have to occur for the video. In other systems, longer time periods may be utilized, or a buffer is weeks or months of data stored and stored for a particular purpose. As can be appreciated, when an event occurs, the video is available for review and analysis of the video data. In some instances, the video stream captures data and analyzes various pre-determined scenarios based on automatic, user input, or programming, depending on the particular purpose. For example, the video can be programmed to track objects moving from the entrance into the store and throughout the store for inventory control and / or customer video surveillance.

他の事例では、警察、FBI、また救助隊員は、調査目的のために、例えば、容疑者を追跡するため、自動車事故精査のため、またはその調査に必要な他のビデオ証拠のために、特定のエリアまたは活動領域内の種々のカメラシステムを精査する必要がある。大抵の場合、エリア全体を通した種々のカメラシステムからのビデオの断片は、当該事象の視覚マップをともにつなぎ合わせる際に重要であり得る。他のシナリオでは、個人の習慣または挙動が、疑わしくなり、リアルタイムの分析およびアラートおよび/またはポストタイムの調査分析のために監視または追跡が必要になり得る。   In other cases, police, FBI, and rescue workers are identified for investigation purposes, for example, to track suspects, for car accident investigations, or for other video evidence required for the investigation. It is necessary to scrutinize the various camera systems in the area or active area. In most cases, video fragments from various camera systems throughout the area can be important in splicing the visual maps of the event together. In other scenarios, an individual's habits or behavior may become suspicious and may require monitoring or tracking for real-time analysis and alert and / or post-time research analysis.

セキュリティおよび調査目的およびマーケティング目的のために、本分析技術をさらに発展させ、ビデオストリームのリアルタイムおよびポストタイム分析を提供する必要性が存在する。   There is a need to further develop this analysis technique and provide real-time and post-time analysis of video streams for security and research and marketing purposes.

本開示のある側面によると、分析認識システムが、提供される。分析認識システムは、ビデオカメラと、アンテナと、データ分析モジュールとを含む。ビデオカメラは、ビデオデータを捕捉するように構成される。アンテナは、モバイル通信デバイスデータを捕捉するように構成される。データ分析モジュールは、ビデオデータおよびモバイル通信デバイスデータを相関させ、ビデオデータおよびモバイル通信デバイスデータと関連付けられる人物のプロファイルを生成するように構成される。プロファイルは、捕捉されたビデオデータおよび捕捉されたモバイル通信データのうちのいずれか1つまたはそれらの組み合わせを含む、プロファイルデータを有する。   According to one aspect of the present disclosure, an analysis recognition system is provided. The analysis recognition system includes a video camera, an antenna, and a data analysis module. The video camera is configured to capture video data. The antenna is configured to capture mobile communication device data. The data analysis module is configured to correlate the video data and the mobile communication device data and generate a person profile associated with the video data and the mobile communication device data. The profile has profile data that includes any one or combination of captured video data and captured mobile communication data.

前述の側面のうちのいずれか1つでは、データ分析モジュールは、ビデオデータおよびモバイル通信デバイスデータのうちのいずれか1つまたはそれらの組み合わせに基づいて、ある場所における人物の到着時間およびその場所における人物の出発時間のうちのいずれか1つまたはそれらの組み合わせを判定し、到着時間および出発時間のうちのいずれか1つまたはそれらの組み合わせに基づいて、ビデオデータおよびモバイル通信デバイスデータを相関させるように構成される。   In any one of the foregoing aspects, the data analysis module is configured to determine the arrival time of the person at the location and the location based on any one or a combination of the video data and the mobile communication device data. Determining any one or combination of person departure times and correlating video data and mobile communication device data based on any one or combination of arrival time and departure time Consists of.

前述の側面のうちのいずれか1つでは、ビデオカメラは、本システム内に含まれ、複数のビデオデータを捕捉するように構成される、複数のビデオカメラのうちの1つであり、アンテナは、本システム内に含まれ、複数のモバイル通信デバイスデータを捕捉するように構成される、複数のアンテナのうちの1つである。データ分析モジュールはさらに、複数のビデオデータおよび複数のモバイル通信デバイスデータを相関させ、複数のビデオデータおよび複数のモバイル通信デバイスデータとそれぞれ関連付けられる、複数の人物の複数のプロファイルを生成するように構成されることができる。   In any one of the aforementioned aspects, the video camera is one of a plurality of video cameras included in the system and configured to capture a plurality of video data, wherein the antenna is , One of a plurality of antennas included in the system and configured to capture a plurality of mobile communication device data. The data analysis module is further configured to correlate the plurality of video data and the plurality of mobile communication device data to generate a plurality of profiles of the plurality of persons that are respectively associated with the plurality of video data and the plurality of mobile communication device data. Can be done.

本開示の別の側面によると、複数のビデオカメラおよび複数のアンテナは、複数の施設に位置する。   According to another aspect of the present disclosure, the plurality of video cameras and the plurality of antennas are located at a plurality of facilities.

本明細書の別の例示的側面では、分析認識システムはさらに、ユーザ入力された基準に基づいて、複数のプロファイルがマイニングされることを可能にするように構成される、ユーザインターフェースを含む。   In another exemplary aspect of the specification, the analysis and recognition system further includes a user interface configured to allow a plurality of profiles to be mined based on user input criteria.

本明細書のまたさらなる側面によると、複数のアンテナのうちの少なくとも1つは、複数のビデオカメラのうちの少なくとも1つに添着され、複数のアンテナのうちの少なくとも1つは、複数のカメラから遠隔に位置する。   According to still further aspects of the specification, at least one of the plurality of antennas is attached to at least one of the plurality of video cameras, and at least one of the plurality of antennas is from the plurality of cameras. Located remotely.

前述の側面のうちのいずれか1つでは、プロファイルは、捕捉されたビデオデータ、捕捉されたモバイル通信デバイスデータ、捕捉されたビデオデータまたは捕捉されたモバイル通信デバイスデータと関連付けられる時間データ、および捕捉されたビデオデータまたは捕捉されたモバイル通信デバイスデータと関連付けられる場所データのうちのいずれか1つまたはそれらの組み合わせを含むことができる。捕捉されたビデオデータは、捕捉された静止画像およびビデオ映像のうちのいずれか1つまたはそれらの組み合わせを含むことができる。モバイル通信デバイスデータは、アンテナと通信するモバイル通信デバイスと関連付けられる、WiFi識別子、媒体アクセス制御(MAC)識別子、Bluetooth(登録商標)識別子、セルラー識別子、近距離無線通信識別子、および無線周波数識別子のうちのいずれか1つまたはそれらの組み合わせを含むことができる。時間データは、ビデオデータが捕捉される時間およびモバイル通信デバイスデータが捕捉される時間のうちのいずれか1つまたはそれらの組み合わせを含むことができる。場所データは、ビデオデータが捕捉される場所およびモバイル通信デバイスデータが捕捉される場所のうちのいずれか1つまたはそれらの組み合わせを含むことができる。   In any one of the foregoing aspects, the profile includes captured video data, captured mobile communication device data, captured video data or temporal data associated with captured mobile communication device data, and capture. Or any combination of location data associated with captured video data or captured mobile communication device data. The captured video data can include any one or combination of captured still images and video images. The mobile communication device data includes a WiFi identifier, a medium access control (MAC) identifier, a Bluetooth (registered trademark) identifier, a cellular identifier, a short-range wireless communication identifier, and a radio frequency identifier associated with the mobile communication device that communicates with the antenna. Any one of or a combination thereof. The temporal data can include any one or a combination of the time at which video data is captured and the time at which mobile communication device data is captured. The location data may include any one or a combination of where video data is captured and where mobile communication device data is captured.

前述の側面のうちのいずれか1つでは、データ分析モジュールはさらに、相関されたビデオデータおよびモバイル通信デバイスデータに基づいて、プロファイルに、ある施設への人物の訪問回数およびその施設への人物の訪問頻度のうちのいずれか1つまたはそれらの組み合わせを追加するように構成される。   In any one of the foregoing aspects, the data analysis module further includes, based on the correlated video data and mobile communication device data, a profile that indicates the number of visits to the facility and the person's visit to the facility. It is configured to add any one or a combination of visit frequencies.

前述の側面のうちのいずれか1つでは、データ分析モジュールはさらに、第1のソースからのデータと、捕捉されたビデオデータ、捕捉されたモバイル通信デバイスデータ、相関されたビデオデータおよびモバイル通信デバイスデータ、およびプロファイルのうちのいずれか1つまたはそれらの組み合わせとの間の比較に基づいて、人物を識別するように構成され、第1のソースは、非政府データベース、政府データベース、および1つまたはそれを上回る以前に生成されたプロファイルのうちのいずれか1つまたはそれらの組み合わせを含む。   In any one of the aforementioned aspects, the data analysis module further includes data from the first source, captured video data, captured mobile communication device data, correlated video data, and mobile communication device. Configured to identify the person based on the comparison between the data and any one or combination of profiles, the first source being a non-government database, a government database, and one or Any one or a combination of previously generated profiles above that is included.

前述の側面のうちのいずれか1つでは、分析認識システムはさらに、調査基準を受信し、基準に基づいて、ビデオデータ、モバイル通信デバイスデータ、およびプロファイルデータのうちのいずれか1つまたはそれらの組み合わせをマイニングするように構成される、調査モジュールを含む。   In any one of the aforementioned aspects, the analysis and recognition system further receives survey criteria, and based on the criteria, any one of video data, mobile communication device data, and profile data or their Includes a survey module configured to mine the combination.

本明細書のさらなる側面では、調査基準は、時間フレームを含み、調査モジュールはさらに、その存在が時間フレーム中にある施設で検出された人物のリストを生成するように構成される。   In a further aspect of the specification, the survey criteria includes a time frame, and the survey module is further configured to generate a list of persons whose presence was detected at a facility that is in the time frame.

本開示の別の側面によると、調査モジュールはさらに、第1の場所において取得されたモバイル通信デバイスデータと合致する信号を検出することによって、人物の現在の場所を判定するように構成される。   According to another aspect of the present disclosure, the survey module is further configured to determine the current location of the person by detecting a signal that matches the mobile communication device data obtained at the first location.

前述の側面のうちのいずれか1つでは、アンテナは、WiFiアンテナ、媒体アクセス制御(MAC)アンテナ、Bluetooth(登録商標)アンテナ、セルラーアンテナ、近距離無線通信アンテナ、および無線周波数識別アンテナのうちのいずれか1つまたはそれらの組み合わせを含む。   In any one of the aforementioned aspects, the antenna is a WiFi antenna, a medium access control (MAC) antenna, a Bluetooth antenna, a cellular antenna, a near field communication antenna, and a radio frequency identification antenna. Including any one or a combination thereof.

前述の側面のうちのいずれか1つでは、データ分析モジュールはさらに、ビデオデータ、モバイル通信デバイスデータ、プロファイルデータ、およびユーザ入力された基準のうちのいずれか1つまたはそれらの組み合わせに基づいて、人物をポジティブリスト、未判定リスト、またはネガティブリストに割り当てるように構成される。   In any one of the aforementioned aspects, the data analysis module is further based on any one or combination of video data, mobile communication device data, profile data, and user entered criteria, The person is configured to be assigned to a positive list, an undecided list, or a negative list.

本開示の別の側面によると、データ分析モジュールはさらに、ビデオデータ、モバイル通信デバイスデータ、およびプロファイルのうちのいずれか1つまたはそれらの組み合わせが、従業員または事前判定された人物のリスト上の人物に対応するという判定に基づいて、人物をポジティブリストに割り当てるように構成される。   According to another aspect of the present disclosure, the data analysis module further includes any one or combination of video data, mobile communication device data, and profiles on the list of employees or pre-determined persons. A person is configured to be assigned to a positive list based on a determination that it corresponds to a person.

前述の側面のうちのいずれか1つでは、アンテナは、アンテナの範囲内に位置するモバイル通信デバイスからデータを無線で受信することによって、モバイル通信デバイスデータを捕捉するように構成される。   In any one of the aforementioned aspects, the antenna is configured to capture mobile communication device data by receiving data wirelessly from mobile communication devices located within the antenna.

前述の側面のうちのいずれか1つでは、データ分析モジュールはさらに、人物の挙動を検出し、挙動に対応する挙動データをプロファイル内に記憶するように構成される。   In any one of the aforementioned aspects, the data analysis module is further configured to detect the behavior of the person and store behavior data corresponding to the behavior in the profile.

本開示の別の側面によると、データ分析モジュールは、ビデオデータおよびモバイル通信デバイスデータのうちのいずれか1つまたはそれらの組み合わせから挙動情報を抽出することによって、人物の挙動を検出するように構成される。挙動は、ある方向を見ること、商品アイテムに手を伸ばすこと、商品アイテムを購入すること、施設において経路に沿って進行すること、施設における通路または場所を訪問すること、施設においてある時間量を費やすこと、施設における場所においてある時間量を費やすこと、およびいくつかの別個の事例にわたって施設を訪問することのうちのいずれか1つまたはそれらの組み合わせを含む。   According to another aspect of the present disclosure, the data analysis module is configured to detect a person's behavior by extracting behavior information from any one or combination of video data and mobile communication device data. Is done. Behaviors include looking at a direction, reaching for a product item, purchasing a product item, traveling along a route at a facility, visiting a passage or place at a facility, and a certain amount of time at a facility. Any one or a combination of spending, spending an amount of time at a location at the facility, and visiting the facility over several separate cases.

本明細書のさらなる側面では、データ分析モジュールは、プロファイル内に記憶された施設訪問データに基づいて、人物を施設における新規顧客またはリピート顧客として分類し、人物が施設における新規顧客であるか、またはリピート顧客であるかのインジケータをプロファイルに追加する、またはプロファイル内で更新するように構成される。   In a further aspect of the specification, the data analysis module classifies the person as a new customer or repeat customer at the facility based on the facility visit data stored in the profile, and the person is a new customer at the facility, or An indicator for being a repeat customer is configured to be added to or updated in the profile.

本明細書の別の側面によると、データ分析モジュールは、ビデオデータ、モバイル通信デバイスデータ、およびプロファイルデータのうちのいずれか1つまたはそれらの組み合わせを、施設における通路場所のマッピング、施設における商品場所のマッピング、および施設における棚場所のマッピングのうちのいずれか1つまたはそれらの組み合わせと相関させることによって、人物の挙動を検出するように構成される。   According to another aspect of the present specification, the data analysis module may be configured to map any one or a combination of video data, mobile communication device data, and profile data to a passage location in a facility, a merchandise location in the facility. And the person's behavior by correlating with any one or a combination of the mapping of the shelves and the shelf location at the facility.

本明細書のさらなる側面では、分析認識システムはさらに、報告基準に基づいて、ビデオデータ、モバイル通信デバイスデータ、プロファイルデータ、および売上データのうちのいずれか1つまたはそれらの組み合わせをマイニングするように構成される、調査モジュールを含む。調査モジュールはさらに、ビデオデータ、モバイル通信デバイスデータ、およびプロファイルデータのうちのいずれか1つまたはそれらの組み合わせのマイニングに基づいて、報告を生成するように構成される。報告は、商品アイテム、商品カテゴリ、施設における通路、施設における棚、または施設における事前判定された場所のうちのいずれか1つまたはそれらの組み合わせに対応する販売成約率を含む。   In a further aspect of the specification, the analysis recognition system is further configured to mine any one or combination of video data, mobile communication device data, profile data, and sales data based on the reporting criteria. Consists of a survey module. The survey module is further configured to generate a report based on the mining of any one or combination of video data, mobile communication device data, and profile data. The report includes a sales close rate corresponding to any one or combination of merchandise items, merchandise categories, aisles at the facility, shelves at the facility, or pre-determined locations at the facility.

本明細書の別の側面によると、データ分析モジュールはさらに、ビデオデータおよびモバイル通信デバイスデータのうちのいずれか1つまたはそれらの組み合わせに基づいて、挙動に対応する場所データを生成し、挙動データと関連してプロファイル内に場所データを記憶するように構成される。   According to another aspect of the specification, the data analysis module further generates location data corresponding to the behavior based on any one or a combination of the video data and the mobile communication device data, and the behavior data Configured to store location data in the profile.

図1は、本開示による、ビデオ観察、監視、および照合システムの実施形態のシステムブロック図である。FIG. 1 is a system block diagram of an embodiment of a video viewing, monitoring and verification system according to this disclosure.

図2は、本開示のある実施形態による、データ/ビデオ/画像シーケンサである。FIG. 2 is a data / video / image sequencer according to an embodiment of the present disclosure.

図3は、図2のシーケンサによって生成される画像マップおよび関連付けられるタイムラインの図示である。FIG. 3 is an illustration of an image map and associated timeline generated by the sequencer of FIG.

図4は、本開示の別の実施形態による、物体識別および追跡のために使用される分析認識システムの概略図示である。FIG. 4 is a schematic illustration of an analysis recognition system used for object identification and tracking according to another embodiment of the present disclosure.

図5は、本開示の別の実施形態による、集合追跡のために使用される分析認識システムの概略図示である。FIG. 5 is a schematic illustration of an analysis recognition system used for collective tracking according to another embodiment of the present disclosure.

図6は、本開示の別の実施形態による、人物特性認識のために使用される分析認識システムの概略図示である。FIG. 6 is a schematic illustration of an analysis recognition system used for person characteristic recognition according to another embodiment of the present disclosure.

図7は、本開示の別の実施形態による、コミュニティ監視ネットワークのために使用される分析認識システムの概略図示である。FIG. 7 is a schematic illustration of an analysis recognition system used for a community monitoring network according to another embodiment of the present disclosure.

図8は、本開示による、調査を表示する調査モジュールの実施形態のスクリーンショットである。FIG. 8 is a screenshot of an embodiment of a survey module displaying a survey according to the present disclosure.

図9は、本開示の例示的実施形態による、分析認識方法のフローチャートである。FIG. 9 is a flowchart of an analysis recognition method according to an exemplary embodiment of the present disclosure.

(定義)
以下の定義は、(上記を含む)本開示全体を通して適用可能である。
(Definition)
The following definitions are applicable throughout this disclosure (including above).

「ビデオカメラ」は、視覚記録のための装置を指し得る。ビデオカメラの実施例は、ビデオイメージャおよびレンズ装置、ビデオカメラ、デジタルビデオカメラ、カラーカメラ、モノクロームカメラ、カメラ、カムコーダ、PCカメラ、ウェブカメラ、赤外線(IR)ビデオカメラ、低光度ビデオカメラ、サーマルビデオカメラ、閉回路テレビ(CCTV)カメラ、パン/チルト/ズーム(PTZ)カメラ、およびビデオ感知デバイスのうちの1つまたはそれを上回るものを含み得る。ビデオカメラは、着目エリアの観察を実施するように位置付けられ得る。   A “video camera” may refer to a device for visual recording. Examples of video cameras include video imagers and lens devices, video cameras, digital video cameras, color cameras, monochrome cameras, cameras, camcorders, PC cameras, webcams, infrared (IR) video cameras, low intensity video cameras, thermal video It may include one or more of cameras, closed circuit television (CCTV) cameras, pan / tilt / zoom (PTZ) cameras, and video sensing devices. The video camera may be positioned to perform observation of the area of interest.

「ビデオ」は、アナログおよび/またはデジタル形態において表される、ビデオカメラから取得されるモーションピクチャを指し得る。ビデオの実施例は、テレビ、動画、ビデオカメラまたは他の観測器からの画像シーケンス、ライブフィードからの画像シーケンス、コンピュータ生成画像シーケンス、コンピュータグラフィックスエンジンからの画像シーケンス、コンピュータ可読媒体、デジタルビデオディスク(DVD)、または高解像度ディスク(HDD)等の記憶デバイスからの画像シーケンス、IEEE 1394ベースのインターフェースからの画像シーケンス、ビデオデジタイザからの画像シーケンス、またはネットワークからの画像シーケンスを含み得る。   “Video” may refer to a motion picture obtained from a video camera, represented in analog and / or digital form. Examples of videos include television, video, image sequence from a video camera or other observer, image sequence from a live feed, computer generated image sequence, image sequence from a computer graphics engine, computer readable medium, digital video disc (DVD) or an image sequence from a storage device such as a high resolution disk (HDD), an image sequence from an IEEE 1394 based interface, an image sequence from a video digitizer, or an image sequence from a network.

「ビデオデータ」は、ビデオの視覚部分である。   “Video data” is the visual portion of the video.

「非ビデオデータ」は、ビデオデータから抽出される非視覚情報である。   “Non-video data” is non-visual information extracted from video data.

「ビデオシーケンス」は、ビデオデータおよび/または非ビデオデータの選択された部分を指し得る。   A “video sequence” may refer to a selected portion of video data and / or non-video data.

「ビデオ処理」は、例えば、圧縮、編集、およびビデオから非ビデオデータを生成するアルゴリズムの実施を含む、ビデオデータの任意の操作および/または分析を指し得る。   “Video processing” may refer to any manipulation and / or analysis of video data, including, for example, compression, editing, and implementation of algorithms that generate non-video data from video.

「フレーム」は、ビデオ内の特定の画像または他の離散単位を指し得る。   A “frame” may refer to a particular image or other discrete unit within a video.

「コンピュータ」は、構造化された入力を受け取り、規定されたルールに従って構造化された入力を処理し、処理の結果を出力として生産することが可能である、1つまたはそれを上回る装置および/または1つまたはそれを上回るシステムを指し得る。コンピュータの実施例は、コンピュータ、定常および/またはポータブルコンピュータ、並列および/または非並列に動作し得る、単一のプロセッサ、複数のプロセッサ、またはマルチコアプロセッサを有するコンピュータ、汎用コンピュータ、スーパーコンピュータ、メインフレーム、スーパーミニコンピュータ、ミニコンピュータ、ワークステーション、マイクロコンピュータ、サーバ、クライアント、双方向テレビ、ウェブアプライアンス、インターネットアクセスを伴う遠隔通信デバイス、コンピュータおよび双方向テレビのハイブリッド組み合わせ、ポータブルコンピュータ、タブレットパーソナルコンピュータ(PC)、携帯情報端末123(PDA)、ポータブル電話、例えば、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け命令セットプロセッサ(ASIP)、チップ、複数のチップ、またはチップセット等のコンピュータおよび/またはソフトウェアをエミュレートするための特定用途向けハードウェア、システムオンチップ(SoC)またはマルチプロセッサシステムオンチップ(MPSoC)、光学コンピュータ、量子コンピュータ、バイオコンピュータ、および、データを受け取り得、1つまたはそれを上回る記憶されたソフトウェアプログラムに従ってデータを処理し得、結果を生成し得、典型的には、入力、出力、記憶、演算、論理、および制御ユニットを含み得る装置を含み得る。   A “computer” receives one or more structured inputs and processes one or more devices and / or devices that can process the structured inputs according to defined rules and produce the results of the processing as outputs. Or it may refer to one or more systems. Computer embodiments include computers, stationary and / or portable computers, computers having a single processor, multiple processors, or multi-core processors that can operate in parallel and / or non-parallel, general purpose computers, supercomputers, mainframes , Super minicomputer, minicomputer, workstation, microcomputer, server, client, interactive television, web appliance, telecommunications device with internet access, hybrid combination of computer and interactive television, portable computer, tablet personal computer (PC) ), Personal digital assistant 123 (PDA), portable telephone, eg digital signal processor (DSP), field Application specific to emulate a computer and / or software such as a programmable gate array (FPGA), application specific integrated circuit (ASIC), application specific instruction set processor (ASIP), chip, multiple chips, or chipset Hardware, system-on-chip (SoC) or multiprocessor system-on-chip (MPSoC), optical computer, quantum computer, biocomputer, and data can be received according to one or more stored software programs It can process and produce results, and can typically include devices that can include input, output, storage, arithmetic, logic, and control units.

「ソフトウェア」は、コンピュータを動作させるために規定されたルールを指し得る。ソフトウェアの実施例は、ソフトウェア、コードセグメント、命令、アプレット、事前コンパイルされたコード、コンパイルされたコード、解釈されたコード、コンピュータプログラム、およびプログラムされた論理を含み得る。本説明では、用語「ソフトウェア」および「コード」は、ソフトウェア、ファームウェア、またはソフトウェアおよびハードウェアの組み合わせに適用可能であり得る。   “Software” may refer to rules defined for operating a computer. Examples of software may include software, code segments, instructions, applets, precompiled code, compiled code, interpreted code, computer programs, and programmed logic. In this description, the terms “software” and “code” may be applicable to software, firmware, or a combination of software and hardware.

「コンピュータ可読媒体」は、コンピュータによってアクセス可能なデータを記憶するために使用される任意の記憶デバイスを指し得る。コンピュータ可読媒体の実施例は、磁気ハードディスク、フロッピディスク、CD−ROMおよびDVD等の光学ディスク、磁気テープ、フラッシュ可撤性メモリ、メモリチップ、および/またはその上に機械可読命令を記憶し得る他のタイプの媒体を含み得る。「非一時的」コンピュータ可読媒体は、あらゆるコンピュータ可読媒体を含み、唯一の例外は、一時的伝搬信号である。   “Computer-readable medium” may refer to any storage device used to store data accessible by a computer. Examples of computer readable media include magnetic hard disks, floppy disks, optical disks such as CD-ROMs and DVDs, magnetic tape, flash removable memory, memory chips, and / or others that can store machine readable instructions thereon. Types of media may be included. “Non-transitory” computer-readable media includes any computer-readable media, the only exception being temporarily propagated signals.

「コンピュータシステム」は、1つまたはそれを上回るコンピュータを有するシステムを指し得、各コンピュータは、コンピュータを動作させるためのソフトウェアを具現化するコンピュータ可読媒体を含み得る。コンピュータシステムの実施例は、ネットワークによってリンクされるコンピュータシステムを介して情報を処理するための分散コンピュータシステム、コンピュータシステム間で情報を伝送および/または受信するためにネットワークを介してともに接続される2つまたはそれを上回るコンピュータシステム、および、データを受け取り得、1つまたはそれを上回る記憶されたソフトウェアプログラムに従ってデータを処理し得、結果を生成し得、典型的には、入力、出力、記憶、演算、論理、および制御ユニットを含み得る、1つまたはそれを上回る装置および/または1つまたはそれを上回るシステムを含み得る。   A “computer system” can refer to a system having one or more computers, and each computer can include a computer-readable medium embodying software for operating the computer. Embodiments of a computer system are connected together via a network to transmit and / or receive information between computer systems, a distributed computer system for processing information via a computer system linked by a network 2 One or more computer systems, and can receive data, process data according to one or more stored software programs, generate results, typically input, output, storage, It may include one or more devices and / or one or more systems that may include arithmetic, logic, and control units.

「ネットワーク」は、通信設備によって接続され得る、いくつかのコンピュータおよび関連付けられるデバイスを指し得る。ネットワークは、ケーブル等の永久的接続または電話または他の通信リンクを通して成されるもの等の一時的接続を伴い得る。ネットワークはさらに、有線接続(例えば、同軸ケーブル、ツイストペア、光ファイバ、導波管等)および/または無線接続(例えば、無線周波数波形、自由空間光波形、音響波形等)を含み得る。ネットワークの実施例は、Internet等のインターネット、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、およびインターネットおよびイントラネット等のネットワークの組み合わせを含み得る。例示的ネットワークは、インターネットプロトコル(IP)、非同期転送モード(ATM)、および/または同期光ネットワーク(SONET)、ユーザデータグラムプロトコル(UDP)、IEEE 802.x等のいくつかのプロトコルのいずれかを用いて動作し得る。   A “network” can refer to a number of computers and associated devices that can be connected by a communication facility. The network may involve permanent connections such as cables or temporary connections such as those made over telephones or other communication links. The network may further include wired connections (eg, coaxial cables, twisted pairs, optical fibers, waveguides, etc.) and / or wireless connections (eg, radio frequency waveforms, free space optical waveforms, acoustic waveforms, etc.). Examples of networks may include the Internet, such as the Internet, an intranet, a local area network (LAN), a wide area network (WAN), and a combination of networks such as the Internet and an intranet. Exemplary networks include Internet Protocol (IP), Asynchronous Transfer Mode (ATM), and / or Synchronous Optical Network (SONET), User Datagram Protocol (UDP), IEEE 802. It can operate using any of several protocols such as x.

「リアルタイム」分析または分析論は、概して、リアルタイムまたは「ライブ」ビデオを処理し、1つまたは複数のビデオストリームにおける要素(顧客、常連客、群衆等)の挙動に基づいて、異常な条件(事前プログラムされた条件)、異常なシナリオ(徘徊、集中、衣類またはバックパックの分離、ブリーフケース、異常な時間の食料品等)、または他のシナリオの準瞬間的報告または警告を提供することを指す。   “Real-time” analysis or analytics generally processes real-time or “live” video and is based on the behavior of elements (customers, patrons, crowds, etc.) in one or more video streams. Programmed conditions), anomalous scenarios (such as trapping, concentration, clothing or backpack separation, briefcases, unusual time groceries, etc.), or providing near-instantaneous reports or warnings of other scenarios .

「ポストタイム」分析または分析論は、概して、カメラソースから(特定のカメラシステム(例えば、店舗、駐車場、路上)または他のビデオデータ(携帯電話、ホームムービー等)から)記憶または保存されたビデオを処理し、1つまたはそれを上回る記憶されたビデオストリームにおける要素(顧客、常連客、群衆等)の挙動に基づいて、異常な条件(事前プログラムされた条件)、異常なシナリオ(徘徊、集中、衣類またはバックパックの分離、ブリーフケース、異常な時間の食料品等)、または他のシナリオの報告または警告を提供することを指す。   “Post-time” analysis or analytics is generally stored or stored from a camera source (from a specific camera system (eg, store, parking, on the street) or other video data (cell phone, home movie, etc.)) Based on the behavior of elements (customers, patrons, crowds, etc.) in one or more stored video streams that process the video, abnormal conditions (pre-programmed conditions), abnormal scenarios (徘徊, Concentration, clothing or backpack separation, briefcase, unusual time groceries, etc.), or other scenario reporting or warning.

「モバイル通信デバイスデータ」は、概して、無線または有線通信プロトコルを用いてモバイル通信デバイスによって伝送される、および/またはそれから取得されるデータを指す。
(詳細な説明)
“Mobile communication device data” generally refers to data transmitted and / or obtained from a mobile communication device using a wireless or wired communication protocol.
(Detailed explanation)

本開示の特定の実施形態が、付随の図面を参照して本明細書の以下に説明されるが、しかしながら、開示される実施形態は、種々の形態で具現化され得る、本開示の実施例にすぎないことを理解されたい。周知の機能または構造は、不必要な詳細で本開示を不明瞭にすることを回避するために、詳細に説明されない。したがって、本明細書で開示される具体的構造および機能的詳細は、限定的として解釈されるものではなく、単に、請求項の根拠として、および当業者が事実上任意の適切に詳述された構造において本開示を様々に採用するように教示するための代表的な根拠として解釈されたい。本説明、および図面では、同様の参照番号は、同一、類似、または同等の機能を実施し得る要素を表す。   Particular embodiments of the present disclosure are described hereinbelow with reference to the accompanying drawings, however, the disclosed embodiments may be embodied in various forms. I want you to understand that it is only. Well-known functions or constructions are not described in detail to avoid obscuring the present disclosure in unnecessary detail. Accordingly, the specific structural and functional details disclosed herein are not to be construed as limiting, but merely as the basis for a claim and virtually appropriately detailed by those skilled in the art. It should be construed as a representative basis for teaching various uses of the present disclosure in construction. In this description and in the drawings, like reference numbers indicate elements that can perform the same, similar, or equivalent functions.

加えて、本開示は、機能ブロックコンポーネント、コード列挙、随意の選択、ページ表示、および種々の処理ステップの観点から本明細書に説明され得る。そのような機能ブロックは、規定された機能を実施するように構成される、任意の数のハードウェアおよび/またはソフトウェアコンポーネントによって実現され得ることを理解されたい。例えば、本開示は、1つまたはそれを上回るマイクロプロセッサまたは他の制御デバイスの制御下で種々の機能を実行し得る、種々の集積回路コンポーネント、例えば、メモリ要素、処理要素、論理要素、ルックアップテーブル、および同等物を採用し得る。   In addition, the present disclosure may be described herein in terms of functional block components, code enumeration, optional selection, page display, and various processing steps. It should be understood that such functional blocks may be implemented by any number of hardware and / or software components that are configured to perform the defined functions. For example, the present disclosure describes various integrated circuit components, such as memory elements, processing elements, logic elements, lookups, that may perform various functions under the control of one or more microprocessors or other control devices. Tables and the like may be employed.

同様に、本開示のソフトウェア要素は、C、C++、C#、Java(登録商標)、COBOL、アセンブラ、PERL、Python、PHPまたは同等物等の任意のプログラミングまたはスクリプト言語を用いて実装され、種々のアルゴリズムは、データ構造、オブジェクト、プロセス、ルーチン、または他のプログラミング要素の任意の組み合わせを用いて実装され得る。作成されるオブジェクトコードは、限定ではないが、Windows(登録商標)、Macintosh OSX(R)、iOS(R)、 Linux(登録商標)、および/またはAndroid(R)を含む、種々のオペレーティングシステム上で実行され得る。   Similarly, the software elements of the present disclosure can be implemented using any programming or scripting language such as C, C ++, C #, Java, COBOL, assembler, PERL, Python, PHP, or the like, The algorithms may be implemented using any combination of data structures, objects, processes, routines, or other programming elements. The object code created may be on various operating systems including, but not limited to Windows®, Macintosh OSX®, iOS®, Linux®, and / or Android®. Can be executed in

さらに、本開示は、データ伝送、信号伝達、データ処理、ネットワーク制御、および同等物のための任意の数の従来の技法を採用し得ることに留意されたい。本明細書で示され、説明される特定の実装は、本開示およびその最良の様態を例証し、本開示の範囲をいかようにも別様に限定することは意図されないことを理解されたい。実施例として意図され、限定的として解釈されるべきではない、サンプルデータ項目(例えば、名前、日付等)を含み得る実施例が、本明細書に提示される。実際には、簡潔にするために、本システム(および本システムの個々の動作コンポーネントのコンポーネント)の従来のデータネットワーキング、アプリケーション開発、および他の機能的側面が、本明細に詳細に説明されない場合がある。さらに、本明細書に含有される種々の図に示される接続線は、種々の要素間の例示的な機能的関係、および/または物理的または仮想結合を表すことが意図される。多くの代替的または付加的な機能的関係、または、物理的または仮想的な接続が、実践的な電子データ通信システム内に存在し得ることに留意されたい。   Furthermore, it should be noted that this disclosure may employ any number of conventional techniques for data transmission, signaling, data processing, network control, and the like. It is to be understood that the specific implementations shown and described herein are illustrative of the present disclosure and its best mode and are not intended to limit the scope of the present disclosure in any other way. Examples are presented herein that may include sample data items (eg, names, dates, etc.) that are intended as examples and should not be construed as limiting. Indeed, for the sake of brevity, conventional data networking, application development, and other functional aspects of the system (and components of the individual operational components of the system) may not be described in detail herein. is there. Further, the connecting lines shown in the various figures contained herein are intended to represent exemplary functional relationships and / or physical or virtual connections between various elements. It should be noted that many alternative or additional functional relationships, or physical or virtual connections, may exist within a practical electronic data communication system.

当業者によって理解されるであろうように、本開示は、方法、データ処理システム、データ処理のためのデバイス、および/またはコンピュータプログラム製品として具現化され得る。故に、本開示は、完全にソフトウェアの実施形態、完全にハードウェアの実施形態、またはソフトウェアおよびハードウェアの両方の側面を組み合わせる実施形態の形態をとり得る。さらに、本開示は、記憶媒体内で具現化されたコンピュータ可読プログラムコード手段を有する、コンピュータ可読媒体上のコンピュータプログラム製品の形態をとり得る。ハードディスク、CD−ROM、DVD−ROM、光学記憶デバイス、磁気記憶デバイス、半導体記憶デバイス(例えば、USBサムドライブ)、および/または同等物を含む、任意の好適なコンピュータ可読媒体が、利用され得る。   As will be appreciated by one skilled in the art, the present disclosure may be embodied as a method, data processing system, device for data processing, and / or a computer program product. Thus, the present disclosure may take the form of an entirely software embodiment, an entirely hardware embodiment or an embodiment combining both software and hardware aspects. Further, the present disclosure may take the form of a computer program product on a computer readable medium having computer readable program code means embodied in the storage medium. Any suitable computer readable medium may be utilized including hard disks, CD-ROMs, DVD-ROMs, optical storage devices, magnetic storage devices, semiconductor storage devices (eg, USB thumb drives), and / or the like.

本明細書に含有される議論では、用語「ユーザインターフェース要素」および/または「ボタン」は、非限定的であるように理解され、限定ではないが、ハイパーリンク、クリック可能画像、および同等物等の他のユーザインターフェース要素を含む。   In the discussion contained herein, the terms “user interface element” and / or “button” are understood to be non-limiting, including but not limited to hyperlinks, clickable images, and the like. Including other user interface elements.

本開示は、本開示の種々の側面による、方法、装置(例えば、システム)、およびコンピュータプログラム製品のブロック図およびフローチャート図示を参照して以下に説明される。それぞれ、ブロック図およびフローチャート図示の各機能ブロックおよびブロック図およびフローチャート図示内の機能ブロックの組み合わせは、コンピュータプログラム命令によって実装され得ることを理解されたい。これらのコンピュータプログラム命令は、コンピュータまたは他のプログラム可能データ処理装置上で実行される命令が、フローチャートブロックまたは複数のブロックにおいて規定される機能を実装するための手段を生成するように、マシンを生成するために汎用コンピュータ、専用コンピュータ、モバイルデバイス、または他のプログラム可能データ処理装置上にロードされ得る。   The present disclosure is described below with reference to block diagrams and flowchart illustrations of methods, apparatus (eg, systems), and computer program products according to various aspects of the disclosure. It should be understood that each functional block in the block diagrams and flowchart illustrations, and combinations of functional blocks in the block diagrams and flowchart illustrations, respectively, can be implemented by computer program instructions. These computer program instructions generate machines such that instructions executed on a computer or other programmable data processing device generate means for implementing the functions specified in the flowchart block or blocks. To be loaded onto a general purpose computer, special purpose computer, mobile device, or other programmable data processing device.

これらのコンピュータプログラム命令はまた、コンピュータ可読メモリ内に記憶される命令が、フローチャートブロックまたは複数のブロックにおいて規定される機能を実装する命令手段を含む、製造品を生産するように、コンピュータまたは他のプログラム可能データ処理装置に、特定の様式で機能するように命令し得る、コンピュータ可読メモリ内に記憶され得る。コンピュータプログラム命令はまた、コンピュータまたは他のプログラム可能装置上で実行される命令が、フローチャートブロックまたは複数のブロックにおいて規定される機能を実装するためのステップを提供するように、一連の動作ステップをコンピュータまたは他のプログラム可能装置上で実施させ、コンピュータ実装プロセスを生産するために、コンピュータまたは他のプログラム可能データ処理装置上にロードされ得る。   These computer program instructions may also be computer or other such that the instructions stored in the computer readable memory include an instruction means that implements the functions defined in the flowchart block or blocks. It can be stored in a computer readable memory that can instruct the programmable data processing device to function in a particular manner. A computer program instruction also includes a series of operational steps such that instructions executed on a computer or other programmable device provide steps for implementing the functions defined in the flowchart block or blocks. Or it can be loaded on a computer or other programmable data processing device for execution on another programmable device to produce a computer-implemented process.

故に、ブロック図およびフローチャート図示の機能ブロックは、規定された機能を実施するための手段の組み合わせ、規定された機能を実施するためのステップの組み合わせ、および規定された機能を実施するためのプログラム命令手段をサポートする。また、ブロック図およびフローチャート図示の各機能ブロック、およびブロック図およびフローチャート図示における機能ブロックの組み合わせは、規定された機能またはステップを実施する専用ハードウェアベースのコンピュータシステムまたは専用ハードウェアおよびコンピュータ命令の好適な組み合わせのいずれかによって実装され得ることを理解されたい。   Therefore, the functional blocks shown in the block diagrams and flowcharts are composed of a combination of means for performing a specified function, a combination of steps for performing the specified function, and a program instruction for performing the specified function. Support means. In addition, each functional block in the block diagram and the flowchart illustration, and a combination of the functional blocks in the block diagram and the flowchart illustration are suitable for a dedicated hardware-based computer system or a dedicated hardware and computer instruction for performing a specified function or step. It should be understood that it can be implemented by any combination.

当業者はまた、セキュリティの理由から、本開示の任意のデータベース、システム、またはコンポーネントが、単一の場所または複数の場所で、データベースまたはコンポーネントの任意の組み合わせから成り得、各データベースまたはシステムは、ファイアウォール、アクセスコード、暗号化、解読、圧縮、解凍、および/または同等物等の種々の好適なセキュリティ特徴のいずれかを含むことを理解するであろう。   One of ordinary skill in the art may also note that for security reasons, any database, system, or component of the present disclosure may consist of any combination of databases or components in a single location or multiple locations, It will be understood to include any of a variety of suitable security features such as firewalls, access codes, encryption, decryption, compression, decompression, and / or the like.

本開示の範囲は、本明細書に与えられる実施例によってではなく、添付される請求項およびそれらの法的均等物によって判定されるべきである。例えば、任意の方法請求項に列挙されるステップは、任意の順序で実行され得、請求項に提示される順序に限定されない。さらに、「重要」または「不可欠」と本明細書に具体的に説明されない限り、いかなる要素も、本開示の実践に不可欠ではない。   The scope of the present disclosure should be determined by the appended claims and their legal equivalents, rather than by the examples given herein. For example, the steps recited in any method claim may be performed in any order and is not limited to the order presented in the claims. Further, unless specifically stated herein as “important” or “essential”, no element is essential to the practice of this disclosure.

図1を参照すると、本開示の実施形態による、ビデオ観察、監視、および照合を含む分析認識システムが、100として示される。システム100は、1つまたはそれを上回るカメラ110(例えば、アナログおよび/またはIPカメラ)からのビデオおよび1つまたはそれを上回るアンテナ150を用いて取得される他のデータを記録する能力を含む、ネットワークビデオおよびデータレコーダである。ビデオカメラ110は、接続130を横断してコンピュータ120に接続する。接続130は、ビデオをコンピュータ120に提供するアナログ接続であり得る、ビデオカメラ110とコンピュータ120との間にネットワーク接続を提供するデジタル接続であり得る、または接続130は、アナログ接続およびデジタル接続を含み得る。   With reference to FIG. 1, an analysis recognition system including video viewing, monitoring and verification is shown as 100 according to an embodiment of the present disclosure. The system 100 includes the ability to record video from one or more cameras 110 (eg, analog and / or IP cameras) and other data obtained using one or more antennas 150. Network video and data recorder. Video camera 110 connects to computer 120 across connection 130. Connection 130 may be an analog connection that provides video to computer 120, may be a digital connection that provides a network connection between video camera 110 and computer 120, or connection 130 includes an analog connection and a digital connection. obtain.

各ビデオカメラ110は、コンピュータ120およびユーザインターフェース122に接続し、ユーザ接続をコンピュータ120に提供する。1つまたはそれを上回るビデオカメラ110は、それぞれ、個々の接続を介して接続し得、共通ネットワーク接続を通して、またはそれらの任意の組み合わせを通して接続し得る。   Each video camera 110 connects to a computer 120 and a user interface 122 and provides a user connection to the computer 120. One or more video cameras 110 may each connect through individual connections, may connect through a common network connection, or any combination thereof.

1つまたはそれを上回るアンテナ150は、1つまたはそれを上回るビデオカメラ110またはコンピュータ120に添着される、またはその中に含まれ得る、および/または1つまたはそれを上回るビデオカメラ110およびコンピュータ120から遠隔に位置し得る。1つまたはそれを上回るアンテナ150は、接続130を用いてコンピュータ120に通信可能に結合され得る、またはコンピュータ120のアンテナを用いてコンピュータ120と無線で通信し得る。   One or more antennas 150 may be attached to or included in one or more video cameras 110 or computers 120 and / or one or more video cameras 110 and computers 120. Can be located remotely. One or more antennas 150 may be communicatively coupled to computer 120 using connection 130 or may communicate wirelessly with computer 120 using the antenna of computer 120.

1つまたはそれを上回るアンテナ150は、種々のタイプのアンテナのうちのいずれか1つまたはそれらの組み合わせであり得る。1つまたはそれを上回るアンテナ150の例示的タイプは、WiFiアンテナ、媒体アクセス制御(MAC)アンテナ、Bluetooth(登録商標)アンテナ、セルラーアンテナ、近距離無線通信アンテナ、無線周波数識別(RFID)アンテナ、および全地球測位システム(GPS)アンテナを含む。図1に示されるアンテナ150の例示的配列は、例証のみを目的として提供され、他の構成のアンテナ150も、想定されることを理解されたい。例えば、単一のカメラ110が、複数の異なるタイプのアンテナを含み得る。   One or more antennas 150 may be any one of various types of antennas or a combination thereof. Exemplary types of one or more antennas 150 are WiFi antennas, medium access control (MAC) antennas, Bluetooth antennas, cellular antennas, near field communication antennas, radio frequency identification (RFID) antennas, and Includes a Global Positioning System (GPS) antenna. It should be understood that the exemplary arrangement of antennas 150 shown in FIG. 1 is provided for purposes of illustration only, and other configurations of antennas 150 are envisioned. For example, a single camera 110 may include multiple different types of antennas.

本明細書により詳細に議論されるように、1つまたはそれを上回るアンテナ150は、本明細書の種々の例示的実施形態に従って、1つまたはそれを上回るアンテナ150の範囲内に位置する1つまたはそれを上回るモバイル通信デバイス(例えば、スマートフォン)からモバイル通信デバイスデータを捕捉し、捕捉されたモバイル通信デバイスデータを処理のためにデータ分析モジュール140に伝送するように構成される。アンテナ150は、アンテナの範囲内に位置するモバイル通信デバイスによって伝送されるデータを無線で受信することによって、モバイル通信デバイスデータを捕捉するように構成され得る。アンテナ150は、モバイル通信デバイスに周期的または連続的にpingすることによって、および/またはpingを使用することなく近傍モバイル通信デバイスによって伝送されるデータを周期的または連続的にリッスンおよび捕捉するように構成されることによって、近傍モバイル通信デバイスからデータを無線で受信するように構成され得る。   As will be discussed in more detail herein, one or more antennas 150 are positioned within the range of one or more antennas 150 according to various exemplary embodiments herein. It is configured to capture mobile communication device data from or above a mobile communication device (eg, a smartphone) and transmit the captured mobile communication device data to the data analysis module 140 for processing. The antenna 150 may be configured to capture mobile communication device data by wirelessly receiving data transmitted by mobile communication devices located within the range of the antenna. The antenna 150 listens and captures data transmitted by neighboring mobile communication devices periodically or continuously by pinging the mobile communication device and / or without using ping. By being configured, it can be configured to receive data wirelessly from nearby mobile communication devices.

システム100は、少なくとも1つのデータ分析モジュール140を含む。データ分析モジュール140は、コンピュータ120内および/またはビデオカメラ110のうちの1つまたはそれを上回るものの中に常駐し得る。データ分析モジュール140は、ビデオおよび/またはモバイル通信デバイスデータの処理を実施する。例えば、データ分析モジュール140は、ビデオから、および/またはモバイル通信データから非ビデオデータを生成するために、1つまたはそれを上回るアルゴリズムを実施する。非ビデオデータは、例えば、フレーム内に識別される物体、フレーム内に識別される物体の1つまたはそれを上回るプロパティ、およびフレームの事前定義された部分に関連する1つまたはそれを上回るプロパティ等、個々のフレームのコンテンツを記述する非ビデオフレームデータを含む。非ビデオデータはまた、2つまたはそれを上回るフレーム間の時間コンテンツを記述する、非ビデオ時間データを含み得る。非ビデオ時間データは、ビデオおよび/または非ビデオフレームデータから生成され得る。非ビデオ時間データは、2つまたはそれを上回るフレーム内に識別される物体の時間プロパティおよび2つまたはそれを上回るフレームの1つまたはそれを上回る事前定義された部分の時間プロパティ等の時間データを含む。非ビデオフレームデータは、識別される物体のカウント(例えば、物体は、人物および/またはその任意の部分、無生物物体、動物、車両、またはユーザ定義および/または開発された物体を含み得る)および1つまたはそれを上回る物体プロパティ(例えば、物体の位置、物体の任意の部分の位置、物体の寸法プロパティ、物体の一部および/または識別された特徴の寸法プロパティ)および関係プロパティ(例えば、第2の物体に対する第1の物体の位置)、またはフレーム内に識別され得る任意の他の物体を含み得る。物体は、ビデオに出現する物体またはビデオから除去された物体として識別され得る。物体は、ビデオに実際には出現しないが、調査目的、訓練目的、または他の目的のために追加され得る仮想物体として識別され得る。   The system 100 includes at least one data analysis module 140. Data analysis module 140 may reside within computer 120 and / or within one or more of video cameras 110. The data analysis module 140 performs processing of video and / or mobile communication device data. For example, the data analysis module 140 implements one or more algorithms to generate non-video data from video and / or from mobile communication data. Non-video data includes, for example, an object identified in the frame, one or more properties of the object identified in the frame, and one or more properties associated with a predefined portion of the frame, etc. , Including non-video frame data describing the content of individual frames. Non-video data may also include non-video temporal data that describes temporal content between two or more frames. Non-video time data may be generated from video and / or non-video frame data. Non-video time data includes time data such as the time properties of objects identified in two or more frames and the time properties of one or more predefined portions of two or more frames. Including. Non-video frame data includes a count of identified objects (eg, an object may include a person and / or any portion thereof, an inanimate object, an animal, a vehicle, or a user-defined and / or developed object) and 1 One or more object properties (eg, the position of the object, the position of any part of the object, the dimensional property of the object, the dimensional property of the part of the object and / or the identified feature) and the related properties (eg, the second Position of the first object relative to the other object), or any other object that can be identified within the frame. An object may be identified as an object appearing in the video or removed from the video. An object can be identified as a virtual object that does not actually appear in the video, but can be added for research purposes, training purposes, or other purposes.

本明細書の種々の例示的実施形態では、データ分析モジュール140は、それぞれ、ビデオカメラおよびアンテナによって捕捉されたビデオデータおよびモバイル通信デバイスデータを相関させ、ビデオデータおよびモバイル通信デバイスデータと関連付けられる人物のプロファイルを生成するように構成される。プロファイルは、捕捉されたビデオデータ、捕捉されたモバイル通信データ、および/または人物と関連付けられる他のタイプのデータ(例えば、名前、生年月日、住宅住所、および/または同等物)等のプロファイルデータを含み得る。   In various exemplary embodiments herein, data analysis module 140 correlates video data and mobile communication device data captured by a video camera and antenna, respectively, and is associated with the video data and mobile communication device data. Configured to generate a profile. Profiles are profile data such as captured video data, captured mobile communication data, and / or other types of data associated with a person (eg, name, date of birth, residential address, and / or the like). Can be included.

プロファイルは、捕捉されたビデオデータ、捕捉されたモバイル通信デバイスデータ、捕捉されたビデオまたはモバイル通信デバイスデータと関連付けられる時間データ、および/または捕捉されたビデオまたはモバイル通信デバイスデータと関連付けられる場所データを含み得る。捕捉されたビデオデータは、捕捉された静止画像および/または捕捉されたビデオ映像を含み得る。モバイル通信デバイスデータは、アンテナと通信するモバイル通信デバイスと関連付けられる、WiFi識別子、媒体アクセス制御(MAC)識別子、Bluetooth(登録商標)識別子、セルラー識別子、近距離無線通信識別子、および無線周波数識別子、および/または任意の他の識別子またはデータを含み得る。時間データは、対応するビデオデータが捕捉される時間および/または対応するモバイル通信デバイスデータが捕捉される時間を含み得る。場所データは、ビデオデータが捕捉される場所および/またはモバイル通信デバイスデータが捕捉される場所を含み得る。   Profiles include captured video data, captured mobile communication device data, time data associated with captured video or mobile communication device data, and / or location data associated with captured video or mobile communication device data. May be included. The captured video data may include captured still images and / or captured video images. Mobile communication device data includes a WiFi identifier, a medium access control (MAC) identifier, a Bluetooth identifier, a cellular identifier, a near field communication identifier, and a radio frequency identifier associated with the mobile communication device that communicates with the antenna, and / Or any other identifier or data may be included. The time data may include a time at which corresponding video data is captured and / or a time at which corresponding mobile communication device data is captured. The location data may include a location where video data is captured and / or a location where mobile communication device data is captured.

データ分析モジュール140は、相関されたビデオデータおよびモバイル通信デバイスデータに基づいて、プロファイルに、ある施設への人物の訪問回数および/またはその施設への人物の訪問頻度を追加するように構成され得る。データ分析モジュール140はまた、第1のソース(例えば、非政府データベース、政府データベース、および1つまたはそれを上回る以前に生成されたプロファイル)から取得されたデータを、捕捉されたビデオデータ、捕捉されたモバイル通信デバイスデータ、相関されたビデオおよびモバイル通信デバイスデータ、および/またはプロファイルと比較し、比較に基づいて人物を識別するように構成され得る。   The data analysis module 140 may be configured to add to the profile the number of person visits and / or the frequency of person visits to the facility based on the correlated video data and mobile communication device data. . The data analysis module 140 also captures captured video data, data captured from a first source (eg, non-government databases, government databases, and one or more previously generated profiles). Mobile communication device data, correlated video and mobile communication device data, and / or profiles may be configured and configured to identify a person based on the comparison.

データ分析モジュール140はまた、捕捉されたビデオおよび/またはモバイル通信デバイスデータに基づいて、特定の施設または場所における人物の到着時間および/または出発時間を判定するように構成され得る。データ分析モジュール140は、到着時間および/または出発時間に基づいて、ビデオデータおよびモバイル通信デバイスデータを相関させ得る。本時間ベースの相関は、例えば、データ分析モジュール140が、モバイル通信デバイスデータの特定のアイテム(例えば、WiFi識別子)をビデオ上に捕捉された特定の人物と関連付けることを可能にし得る。   Data analysis module 140 may also be configured to determine the arrival time and / or departure time of a person at a particular facility or location based on the captured video and / or mobile communication device data. Data analysis module 140 may correlate video data and mobile communication device data based on arrival time and / or departure time. This time-based correlation may, for example, allow the data analysis module 140 to associate a particular item of mobile communication device data (eg, a WiFi identifier) with a particular person captured on the video.

一実施例では、ビデオカメラ110は、システム100内に含まれる複数のビデオカメラ110のうちの1つであり得、ビデオカメラ110は、それぞれ、ビデオデータの複数のセットを捕捉するように構成され得る。同様に、アンテナ150は、本システム内に含まれる複数のアンテナ150のうちの1つであり得、複数のアンテナ150は、それぞれ、モバイル通信デバイスデータの複数のセットを捕捉するように構成され得る。データ分析モジュール140はまた、ビデオデータおよびモバイル通信デバイスデータの複数のセットを相関させ、個別のビデオデータおよびモバイル通信デバイスデータと関連付けられる複数の人物に関する個別のプロファイルを生成するように構成され得る。ビデオカメラおよびアンテナは、複数の異なる場所および/または施設に位置し得る。   In one example, video camera 110 may be one of a plurality of video cameras 110 included in system 100, each video camera 110 being configured to capture multiple sets of video data. obtain. Similarly, antenna 150 may be one of multiple antennas 150 included in the system, and multiple antennas 150 may each be configured to capture multiple sets of mobile communication device data. . The data analysis module 140 may also be configured to correlate multiple sets of video data and mobile communication device data and generate separate profiles for multiple persons associated with the individual video data and mobile communication device data. Video cameras and antennas may be located at a number of different locations and / or facilities.

別の実施例では、データ分析モジュール140は、ビデオデータ、モバイル通信デバイスデータ、プロファイルデータ、および/またはユーザ入力された基準(例えば、以下に説明される調査モジュール800を介して入力される)に基づいて、人物をポジティブリスト、未判定リスト、またはネガティブリストに割り当てるように構成され得る。データ分析モジュール140はまた、ビデオデータ、モバイル通信デバイスデータ、および/またはプロファイルが、従業員または事前判定された人物のリスト上の人物に対応することを判定するように構成され得、その判定に基づいて、人物をポジティブリストに割り当て得る。   In another example, the data analysis module 140 is responsive to video data, mobile communication device data, profile data, and / or user input criteria (eg, input via the survey module 800 described below). Based on, the person may be configured to be assigned to a positive list, an undecided list, or a negative list. The data analysis module 140 may also be configured to determine that the video data, mobile communication device data, and / or profile correspond to an employee or a person on a list of predetermined persons. Based on this, people can be assigned to a positive list.

本明細書のいくつかの例示的実施形態では、データ分析モジュール140は、人物の挙動を検出し、挙動に対応する挙動データをプロファイル内に記憶するように構成され得る。データ分析モジュール140は、例えば、ビデオデータおよび/またはモバイル通信デバイスデータから挙動情報を抽出することによって、人物の挙動を検出するように構成され得る。挙動は、特定の方向を見る、商品アイテムに手を伸ばす、商品アイテムを購入する、施設において経路に沿って進行する、施設における通路または場所を訪問する、施設においてある時間量を費やす、施設における場所においてある時間量を費やす、および/またはいくつかの別個の事例にわたって施設を訪問する人物を含み得る。データ分析モジュール140はさらに、プロファイル内に記憶された施設訪問データに基づいて、人物を施設における新規顧客またはリピート顧客として分類するように構成され得る。データ分析モジュール140は、人物が施設における新規顧客であるか、またはリピート顧客であるかのインジケータをプロファイルに追加する、またはプロファイル内で更新し得る。データ分析モジュール140は、いくつかの場合では、ビデオデータ、モバイル通信デバイスデータ、および/またはプロファイルデータを、施設における通路場所のマッピング、施設における商品場所のマッピング、および/または施設における棚場所のマッピングと相関させることによって、人物の挙動を検出するように構成され得る。   In some exemplary embodiments herein, the data analysis module 140 may be configured to detect a person's behavior and store behavior data corresponding to the behavior in a profile. The data analysis module 140 may be configured to detect a person's behavior, for example, by extracting behavior information from video data and / or mobile communication device data. Behaviors look at a specific direction, reach for an item, purchase an item, proceed along a route at a facility, visit a passage or place at a facility, spend a certain amount of time at a facility, It may include a person who spends a certain amount of time at the location and / or who visits the facility over several separate cases. The data analysis module 140 may be further configured to classify the person as a new customer or repeat customer at the facility based on the facility visit data stored in the profile. Data analysis module 140 may add or update in the profile an indicator of whether the person is a new customer or a repeat customer at the facility. The data analysis module 140 may, in some cases, convert video data, mobile communication device data, and / or profile data to aisle location mapping, facility location mapping, and / or shelf location mapping at the facility. Can be configured to detect the behavior of the person.

本明細書のいくつかの例示的側面では、データ分析モジュール140は、捕捉されたビデオおよび/またはモバイル通信デバイスデータに基づいて、特定の挙動に対応する場所データを生成し、対応する挙動データと関連してプロファイル内に場所データを記憶するように構成され得る。   In some exemplary aspects herein, the data analysis module 140 generates location data corresponding to a particular behavior based on the captured video and / or mobile communication device data, and the corresponding behavior data and Relatedly, it may be configured to store location data in the profile.

データ分析モジュール140は、カメラ110内に位置付けられ、ビデオツービデオデータおよび非ビデオデータを変換し、ビデオデータおよび非ビデオデータをネットワークを経由してコンピュータ120に提供し得る。したがって、システム100は、ビデオ処理をネットワークのエッジに分散し、それによって、コンピュータ120によって実施されるように要求される処理量を最小限にする。   The data analysis module 140 may be located in the camera 110, convert video to video data and non-video data, and provide the video data and non-video data to the computer 120 via a network. Thus, the system 100 distributes video processing at the edge of the network, thereby minimizing the amount of processing required to be performed by the computer 120.

コンピュータ120は、ユーザ挙動を監視するためのソフトウェアを備えるコンピュータ可読媒体を含み、そのソフトウェアは、コンピュータ120によって実行されると、コンピュータ120に動作を実施させる。ユーザインターフェース122は、コンピュータ120にインターフェースを提供する。ユーザインターフェース122は、コンピュータ120に直接接続する、またはユーザネットワークを通してコンピュータ120に間接的に接続し得る。システムユーザインターフェース122はまた、ユーザから1つまたはそれを上回る基準を受信するように構成され得、プロファイルが基準に基づいてマイニングされることを可能にし得る。本明細書のいくつかの例示的実施形態では、ユーザインターフェース122は、以下にさらに詳細に説明されるように、調査モジュール800をホストし得る。   Computer 120 includes a computer readable medium comprising software for monitoring user behavior, which when executed by computer 120 causes computer 120 to perform operations. User interface 122 provides an interface to computer 120. User interface 122 may connect directly to computer 120 or indirectly to computer 120 through a user network. The system user interface 122 may also be configured to receive one or more criteria from the user and may allow the profile to be mined based on the criteria. In some exemplary embodiments herein, the user interface 122 may host a survey module 800, as described in further detail below.

ユーザ挙動は、活動、不活動、移動、複数の事象発生、時間的事象、外部から生成された事象、またはそれらの任意の組み合わせによって定義される。特定のユーザ挙動が、定義され、コンピュータ120に提供される。   User behavior is defined by activity, inactivity, movement, multiple event occurrences, temporal events, externally generated events, or any combination thereof. Specific user behavior is defined and provided to the computer 120.

活動は、物体を手に取ることを含み得、物体は、特定の場所に配置または放置されている。活動は、扉、引き出し、またはコンパートメントの開放等、特定の物体を移動させることを含み得る。活動は、手をポケット内に配置すること、または特定の場所において繰り返し自身に触れること(武器が隠されている可能性があるインジケーション)等、身体部分を位置付けること(または再位置付けすること)を含み得る。活動は、特定の位置に移動すること、第1の個人が第2の個人と関わること、および/または手、腕、脚、および/または足を特定の運動において移動させることを含み得る。活動はまた、例えば、セキュリティ人員またはセキュリティカメラ110を直接見ること等、頭部を特定の方向に位置付けることを含み得る。種々の他の実施例が、本明細書の上記に議論されている。   An activity can include picking up an object, which is placed or left in a particular location. Activities may include moving certain objects, such as opening doors, drawers, or compartments. Activities include positioning (or repositioning) a body part, such as placing a hand in a pocket or touching itself repeatedly in a specific location (an indication that a weapon may be hidden) Can be included. The activity may include moving to a specific location, a first individual engaging with a second individual, and / or moving hands, arms, legs, and / or feet in a specific movement. Activities may also include positioning the head in a particular direction, such as looking directly at security personnel or security camera 110, for example. Various other embodiments are discussed above in this specification.

不活動は、物体に手を伸ばすことに失敗することを含み得、物体は、落下する、または位置付けられ、個人(例えば、物体)は、落下した物体を回収しない。不活動はまた、特定の場所へ歩行することの失敗または特定のタスクを実施することの失敗を含み得る。例えば、防犯扉がロックされていることを確認することは、これが開放されないであろうことを確実にするために、扉に接近する活動および扉を叩く活動を要求するであろう。したがって、ユーザ挙動は、扉が開放されないであろうことを確認するための、扉に接近することの不活動および/または扉を叩くことの不活動として定義され得る。不活動の種々の他の実施例が、本明細書の上記に議論されている。   Inactivity can include failing to reach the object, the object falls or is positioned, and the individual (eg, the object) does not collect the dropped object. Inactivity may also include failure to walk to a specific location or failure to perform a specific task. For example, confirming that the security door is locked will require activity to approach the door and to tap the door to ensure that it will not be opened. Thus, user behavior can be defined as inactivity of approaching the door and / or inactivity of hitting the door to confirm that the door will not be opened. Various other examples of inactivity are discussed above in this specification.

時間的事象は、唐突に店舗を出る顧客、店舗入口または出口に滞在する個人、ある閾値を超える時間期間にわたって特定の場所に留まる個人の識別を含み得る。時間的事象の種々の他の実施例が、本明細書の上記に議論されている。   Temporal events may include the identification of customers who suddenly leave the store, individuals who stay at the store entrance or exit, and individuals who stay at a particular location for a time period that exceeds a certain threshold. Various other examples of temporal events are discussed above in this specification.

ユーザは、特定のユーザ挙動を識別し、コンピュータ120内に特定のユーザ挙動の特性を提供および/または定義し得る。コンピュータ120は、カメラ110から非ビデオデータを受信し、非ビデオデータは、挙動情報データを含む。特定のユーザ挙動は、挙動のモデル143によって定義され得、モデル143は、サイズ、形状、長さ、幅、縦横比、または任意の他の好適な識別または識別可能属性(例えば、タトゥーまたは本明細書に議論される他の種々の実施例)等の1つまたはそれを上回る属性を含む。コンピュータ120は、特定のユーザ挙動の定義された特性および/またはモデル143を定義された非ビデオデータ内のユーザ挙動と比較する、コンパレータ等の合致アルゴリズムまたは合致モジュール141を含む。合致アルゴリズムまたはモジュール141による合致のインジケーションは、調査を生成し、調査は、合致アルゴリズム141によって識別されたビデオデータおよび/または非ビデオデータを含む。調査は、識別された事象に関連するデータの集合であり、概して、着目挙動を記録する。したがって、調査は、特定の挙動を理解するために、さらなる精査および調査を要求する。   A user may identify specific user behavior and provide and / or define specific user behavior characteristics within the computer 120. The computer 120 receives non-video data from the camera 110, and the non-video data includes behavior information data. The specific user behavior may be defined by a behavior model 143, which may be size, shape, length, width, aspect ratio, or any other suitable identifiable or identifiable attribute (eg, tattoo or Including one or more attributes, such as various other embodiments discussed in the book. The computer 120 includes a matching algorithm or matching module 141, such as a comparator, that compares the defined characteristics and / or model 143 of a particular user behavior with the user behavior in the defined non-video data. Matching indications by the matching algorithm or module 141 generate a survey, which includes video data and / or non-video data identified by the matching algorithm 141. A survey is a collection of data related to an identified event and generally records the behavior of interest. Surveys therefore require further scrutiny and survey to understand the specific behavior.

調査は、合致または識別を細かく調べ、アラートするために、所与のネットワーク上で他のカメラまたはシステムに送信される、またはネットワークのコミュニティにわたって提供され得る。合致アルゴリズム141は、独立したモジュールとして構成される、またはコンピュータ120または任意のカメラ110内のデータ分析モジュール140の中に組み込まれ得る。データ分析モジュール140はまた、特定のユーザ挙動のモデル143および非ビデオデータを比較するように構成される、コンパレータモジュール142を含み得る。   The survey may be sent to other cameras or systems on a given network or provided across the network community to probe and alert for matches or identification. The matching algorithm 141 can be configured as a separate module or incorporated into the data analysis module 140 in the computer 120 or any camera 110. The data analysis module 140 may also include a comparator module 142 configured to compare the model 143 of specific user behavior and non-video data.

特定のユーザ挙動は、観察カメラ110に向かって頭部を位置付けることが、事前設定された期間を超える、またはマネージャのオフィスに向かって直接頭部を位置付けることが、事前設定された期間を超えるとして定義され得る。本特定のユーザ挙動は、顧客が、窃盗中に検出されることを防止しようとして、店舗内の観察カメラ110を識別しようとすること、または従業員が、マネージャが自身の挙動を観察しているかどうかを判定しようとしていることを示す。データ分析モジュール140は、物体の頭部位置を識別する非ビデオデータを生成するためのアルゴリズムを実施する。ビデオ分析モジュール140はまた、顔および/または眼の方向を示すベクトルを提供し得る。合致アルゴリズム141は、頭部位置および/または顔の方向を示すベクトルが事前設定された期間を超えているかどうかを判定するために、非ビデオデータを検索する。合致は、調査の生成をもたらす。   Specific user behavior is that positioning the head towards the observation camera 110 exceeds a preset period, or positioning the head directly toward the manager's office exceeds a preset period. Can be defined. This particular user behavior may be that the customer is trying to prevent being detected during theft, trying to identify the observation camera 110 in the store, or whether the employee is observing his behavior Indicates that it is going to be judged. The data analysis module 140 implements an algorithm for generating non-video data that identifies the head position of the object. The video analysis module 140 may also provide a vector indicating the face and / or eye direction. The match algorithm 141 searches the non-video data to determine whether a vector indicating head position and / or face orientation exceeds a preset time period. A match results in the generation of a survey.

図2を参照すると、本開示の実施形態による、データ/ビデオ/画像シーケンサが、200として示される。シーケンサ200は、ビデオの種々のソース(例えば、1つまたはそれを上回るビデオカメラ110の種々のもの)から、および/または1つまたはそれを上回るアンテナ150の種々のものから、ビデオ、ビデオデータ、非ビデオデータ、ビデオシーケンス、静止画像、および/またはモバイル通信デバイスデータを受信するように構成される。例えば、連続的ビデオが、場所1および2から提供され得る一方、運動のみのデータが、場所7から提供され得る。短い持続時間のビデオクリップが、場所3および6から提供され得、静止画像が、場所4および5から提供され得る。モバイル通信デバイスデータが、場所1−7から提供され得る。本データは、任意の好適な通信媒体(例えば、LAN、WAN、イントラネット、インターネット、有線、モデム接続、無線等)によってシーケンサ200に通信され得る。図2に示されるように、各場所からのデータは、例えば、連続的に、事前判定されたレートにおいて周期的に、非同期的に、トリガの受信に応答して、および同等物等、任意の好適な様式で通信され得る。   Referring to FIG. 2, a data / video / image sequencer according to an embodiment of the present disclosure is shown as 200. The sequencer 200 can receive video, video data, from various sources of video (e.g., one of one or more video cameras 110) and / or from one or more of one or more antennas 150, It is configured to receive non-video data, video sequences, still images, and / or mobile communication device data. For example, continuous video may be provided from locations 1 and 2 while motion only data may be provided from location 7. Short duration video clips can be provided from locations 3 and 6, and still images can be provided from locations 4 and 5. Mobile communication device data may be provided from locations 1-7. This data may be communicated to the sequencer 200 via any suitable communication medium (eg, LAN, WAN, intranet, Internet, wired, modem connection, wireless, etc.). As shown in FIG. 2, the data from each location can be arbitrary, eg, continuously, periodically at a predetermined rate, asynchronously, in response to receiving a trigger, and the like. It can be communicated in any suitable manner.

シーケンサ200は、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータを提供されるデータからタイムスタンプを生成する。タイムスタンプは、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータの中に内蔵される、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータの一部として提供され得る、またはタイムスタンプは、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータを含有するファイルを提供され得る。代替として、シーケンサ200は、ユーザ入力されたデータを受信するように構成され、含まれるタイムスタンプ情報が、各入力と関連付けられ得る。   The sequencer 200 generates a time stamp from data provided with video data, image data, and / or mobile communication device data. The time stamp may be provided as part of the video data, image data, and / or mobile communication device data embedded in the video data, image data, and / or mobile communication device data, or the time stamp is Files containing video data, image data, and / or mobile communication device data may be provided. Alternatively, the sequencer 200 is configured to receive user input data, and the included timestamp information can be associated with each input.

シーケンサ200は、加えて、または代替として、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータを提供されるデータから地理的場所を生成し得る。地理的場所情報は、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータに内蔵される、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータの一部として提供される、またはビデオデータ、画像データ、および/またはモバイル通信デバイスデータを含有するファイルを提供され得る。例えば、ビデオ、画像、および/またはモバイル通信デバイスデータは、画像が撮られた場所を識別するために使用され得る、ランドマーキング特徴を含有し得る。   The sequencer 200 may additionally or alternatively generate a geographical location from data provided with video data, image data, and / or mobile communication device data. Geographic location information is provided as part of video data, image data, and / or mobile communication device data, embedded in video data, image data, and / or mobile communication device data, or video data, images Files containing data and / or mobile communication device data may be provided. For example, video, images, and / or mobile communication device data may contain landmark features that can be used to identify where the images were taken.

シーケンサ200は、加えて、または代替として、ビデオデータおよび/または画像データに関する視野データ(以降では、「FOVデータ」)を生成し得る。FOVデータは、カメラ場所情報から取得される、ビデオ内に含有される情報(例えば、ランドマーク識別)から取得される、および/またはユーザによって入力され得る。シーケンサ200は、加えて、または代替として、モバイル通信デバイスデータに関するアンテナ範囲データを生成し得る。アンテナ範囲データは、アンテナ150の場所情報から取得される、モバイル通信デバイスデータ内に含有される情報から取得される、および/またはユーザによって入力され得る。   The sequencer 200 may additionally or alternatively generate field-of-view data (hereinafter “FOV data”) for video data and / or image data. FOV data may be obtained from camera location information, obtained from information contained within the video (eg, landmark identification), and / or input by a user. The sequencer 200 may additionally or alternatively generate antenna range data for mobile communication device data. Antenna range data may be obtained from location information of antenna 150, obtained from information contained within mobile communication device data, and / or input by a user.

図3は、シーケンサ200によって生成される画像マップ300および関連付けられるタイムライン310の図示である。シーケンサ200は、タイムスタンプデータ、地理的場所データ、FOVデータ、および/またはアンテナ範囲データを利用し、シーケンサ200に提供される全てのビデオデータ、画像データ、および/またはモバイル通信デバイスデータ(またはそれらの任意の部分)から画像マップ300およびタイムライン310を組み立てるように構成され得る。   FIG. 3 is an illustration of an image map 300 generated by the sequencer 200 and an associated timeline 310. The sequencer 200 utilizes time stamp data, geographical location data, FOV data, and / or antenna range data to provide all video data, image data, and / or mobile communication device data (or those) provided to the sequencer 200. Can be configured to assemble the image map 300 and the timeline 310.

ユーザは、シーケンサ200に特定の時間および/または時間フレームを提供し得、シーケンサ200は、特定の時間に関連する全てのビデオ、画像、および/またはモバイル通信デバイスデータを提供する。時間および/または時間フレームは、タイムライン310上で選択され得、画像マップ300は、選択された時間および/または時間フレームに関連する全てのビデオデータ、画像データ、および/またはモバイル通信デバイスデータを含むように更新され得る。   A user may provide a specific time and / or time frame to the sequencer 200, which provides all video, images, and / or mobile communication device data associated with the specific time. The time and / or time frame may be selected on the timeline 310, and the image map 300 displays all video data, image data, and / or mobile communication device data associated with the selected time and / or time frame. Can be updated to include.

ユーザは、加えて、または代替として、シーケンサ200に選択された場所を提供し得、シーケンサは、その特定の場所に関連する全てのビデオデータ、画像データ、および/またはモバイル通信デバイスデータを提供する。選択された場所は、画像マップ300上で選択される、または地理的場所データとしてシーケンサ200に提供され得る。   A user may additionally or alternatively provide the selected location to the sequencer 200, which provides all video data, image data, and / or mobile communications device data associated with that particular location. . The selected location may be selected on the image map 300 or provided to the sequencer 200 as geographic location data.

ユーザは、加えて、または代替として、シーケンサ200に、地理的場所に加えて、特定の時間および/または時間フレームを提供し、その特定の場所に関連する全てのビデオデータ、画像データ、および/またはモバイル通信デバイスデータをさらに絞り、分離し得る。   The user additionally or alternatively provides sequencer 200 with a specific time and / or time frame in addition to the geographical location, and all video data, image data, and / or associated with that specific location. Or mobile communication device data may be further refined and separated.

特定の時間後、時間フレームおよび/または地理的場所は、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータを識別するために使用され、ユーザは、本明細書に説明される検索アルゴリズム、方法、およびシステムを利用し、ビデオデータ、画像データ、および/またはモバイル通信デバイスデータ内に含有される特定の着目アイテム、パターン、および/または個人を識別し得る。   After a certain time, the time frame and / or geographic location is used to identify video data, image data, and / or mobile communication device data, and the user can search algorithms, methods described herein. And the system may be utilized to identify particular items of interest, patterns, and / or individuals contained within video data, image data, and / or mobile communication device data.

本開示は、(これと併用され得る)顔認識ソフトウェアの範囲を超えて、以下に説明されるように、追跡および/または調査目的のための付加的アルゴリズムおよび分析を提供する。加えて、ある事例では、顔認識が、誰かまたは何かをフラグ化または追跡するために利用される必要はなく、本説明されるシステムは、ある道徳、連邦法、または現地法に対して配慮がないと分かり得る顔認識ソフトウェアまたはアルゴリズムを伴わずに採用され得る。   The present disclosure provides additional algorithms and analysis for tracking and / or research purposes, as described below, beyond the scope of face recognition software (which can be used in conjunction therewith). In addition, in some cases, face recognition does not need to be used to flag or track someone or something, and the described system is sensitive to certain moral, federal, or local laws. It can be employed without any facial recognition software or algorithms that can be understood.

本開示はまた、事前プログラムされたパラメータに基づくリアルタイム/ポストタイム物体追跡、例えば、人物上のある物体の形状、色、サイズ、数、特定の状況に対する奇異性(例えば、華氏80度の暑いときの冬物コート)、一連の特定の時間フレームにわたる特定の物体の類似性(特定のエリア内の類似するアイテム、例えば、バックパック)、事前設定された時間期間にわたる人物からの注意が必要な物体の分離、特定のエリア内の奇妙な物体、注意が必要な物体に近接して配置される物体、類似するエリア内に配置され、人物から分離されている類似する物体、特定の色の対比および組み合わせ(例えば、黒いシャツの下に暴露される赤いシャツ、または黒い髪の上の白い帽子)に基づく、種々の事前プログラムされた(または事後プログラムされた)既知の物体または手動でプログラムされた物体のリアルタイムおよびポストタイム分析、認識、追跡のための分析認識システムに関連する。   The present disclosure also provides real-time / post-time object tracking based on pre-programmed parameters, such as the shape, color, size, number of certain objects on a person, oddities for a particular situation (eg, when hot at 80 degrees Fahrenheit) Winter coats), similarity of specific objects over a series of specific time frames (similar items in specific areas, eg backpacks), objects that require attention from a person over a preset time period Separation, strange objects in specific areas, objects placed close to objects that need attention, similar objects placed in similar areas and separated from people, contrasts and combinations of specific colors Various pre-programmed (or things based on, for example, a red shirt exposed under a black shirt, or a white hat over black hair) Programmed) real-time and post-time analysis of the known object or manually programmed object recognition, associated with analyzing recognition system for tracking.

プログラムされる物体は、(携行する人物の数、携行する人物の歩き方、物体が携行される方法等によって判定されるような)または物体のルックアップライブラリおよびマッピングアルゴリズムに基づく、特定の既知の形状、サイズ、色、または重量を伴う物体を含み得る。これらの物体は、分析ソフトウェアに事前プログラムされ、分析のためにリアルタイムおよび/またはポストタイムで追跡され得る。手動でプログラムされる物体は、色、サイズ、形状、重量等によってソフトウェアに入力され、異常な条件を判定するために、または他の目的のために、リアルタイムおよび/またはポストタイムで分析および追跡され得る。手動でプログラムされる物体、例えば、顔認識画像、タトゥー、ピアス、ロゴ、または以下により詳細に説明されるような他の印が、分析のためにリアルタイムでアップロードされ得る。加えて、ユーザ生成されたアイテムおよび/または画像が、ビデオデータ(例えば、フレームデータ)および/または静止画像から生成され、分析のために提供され得る。例えば、図4の分析認識システム400に示されるように、静止画像および/またはビデオフレーム内に識別される(または本明細書に説明される異常な条件のうちの1つの結果として識別される)物体410(例えば、帽子、バックパック、衣服、または任意の識別可能な特徴)が、事前設定された時間量(時間的事象)にわたって個人405から分離され、ライブビデオ420において識別のためにユーザ生成されたアイテム410’として提供される、または記憶されたビデオ425、例えば、ビデオフレームおよび/または静止画像において検索および識別され得る。   The object to be programmed is either a specific known based on the number of people carried, how the person walks, how the person is carried, etc., or an object lookup library and mapping algorithm It may include objects with shape, size, color, or weight. These objects can be pre-programmed into analysis software and tracked in real time and / or post time for analysis. Manually programmed objects are entered into the software by color, size, shape, weight, etc. and analyzed and tracked in real time and / or post time to determine abnormal conditions or for other purposes. obtain. Manually programmed objects such as face recognition images, tattoos, piercings, logos, or other indicia as described in more detail below may be uploaded in real time for analysis. In addition, user-generated items and / or images can be generated from video data (eg, frame data) and / or still images and provided for analysis. For example, as shown in the analysis and recognition system 400 of FIG. 4, identified within a still image and / or video frame (or identified as a result of one of the abnormal conditions described herein). Object 410 (eg, hat, backpack, clothes, or any identifiable feature) is separated from individual 405 for a pre-set amount of time (temporal event) and user generated for identification in live video 420 Can be retrieved and identified in a video 425, such as a video frame and / or a still image, provided or stored as a selected item 410 '.

人物405は、それによって1つまたはそれを上回る信号(例えば、モバイル通信デバイスデータ)が無線で伝送される、1つまたはそれを上回るアンテナ(図4に図示せず)を具備するモバイル通信デバイス440(例えば、スマートフォン)を保有し得る。そのようなモバイル通信デバイスデータの実施例は、モバイル通信デバイス440が、WiFi通信プロトコル、媒体アクセス制御(MAC)ベースの通信プロトコル、Bluetooth(登録商標)プロトコル、セルラープロトコル、近距離無線通信プロトコル、および無線周波数識別プロトコル等の1つまたはそれを上回る無線通信プロトコルに従って伝送する信号(例えば、ハンドシェイク信号)を含む。上記に議論されるように、1つまたはそれを上回るアンテナ150は、本明細書の種々の例示的実施形態に従って、これが1つまたはそれを上回るアンテナ150の範囲内に位置するとき、モバイル通信デバイスによって伝送されるモバイル通信デバイスデータを捕捉し、捕捉されたモバイル通信デバイスデータを処理のためにデータ分析モジュール140に伝送するように構成される。   Person 405 may include a mobile communication device 440 that includes one or more antennas (not shown in FIG. 4) through which one or more signals (eg, mobile communication device data) are transmitted wirelessly. (For example, a smartphone). Examples of such mobile communication device data include when the mobile communication device 440 is a WiFi communication protocol, a medium access control (MAC) based communication protocol, a Bluetooth protocol, a cellular protocol, a near field communication protocol, and Includes a signal (eg, a handshake signal) that is transmitted according to one or more wireless communication protocols, such as a radio frequency identification protocol. As discussed above, one or more antennas 150 are mobile communication devices when they are located within the range of one or more antennas 150 in accordance with various exemplary embodiments herein. Is configured to capture the mobile communication device data transmitted by and transmit the captured mobile communication device data to the data analysis module 140 for processing.

システム400は、ビデオおよび非ビデオデータ(例えば、モバイル通信デバイスデータ)のリアルタイムおよび/またはポストタイム分析および特定のエリア内または特定のカメラビュー内のバックパック410を伴う全ての人物の追跡を実施するように構成される、データ分析モジュール140を含み得る。1人またはそれを上回る人物の疑わしい挙動および/または着目挙動が、追跡および記録され、リアルタイムまたはポストタイムのいずれかで分析され得る。例えば、図4に識別されるように、バックパック410が、人物405から分離され、事前判定された時間期間にわたって放置される場合、本ビデオは、リアルタイムアラートおよび/またはポストタイム分析のためにフラグ化され得る。物体、例えば、バックパック410は、フラグ化され、後の分析のためにタイムスタンピングされる、および/または個々のビデオストリームに分離され得る。ユーザは、リアルタイムまたはポストタイム分析において、高解像度追跡のために、または本明細書に議論されるようなデータ/ビデオ/画像シーケンサ200への組み込みのためにズームインすることができる。事前プログラムされた疑わしい物体、例えば、バックパック410(または画像のライブラリ430、(入力デバイスを介して)ユーザ生成された画像/オブジェクト435、またはあるマッピングアルゴリズムまたはモジュール140によって認識される任意の他の物体)を落とした人物405は、リアルタイムアラートおよび/またはポストタイム分析のために追跡および分析され得る。システム400は、1つまたはそれを上回るカメラ110、カメラ110、110a、110bのネットワーク、1つまたはそれを上回るアンテナ150、および/またはアンテナ150のネットワーク等を通して、リアルタイムまたはポストタイム分析のために、物体410の追跡および人物405のフラグ化および追跡の両方を行い得る。   System 400 performs real-time and / or post-time analysis of video and non-video data (eg, mobile communication device data) and tracking all persons with backpack 410 in a specific area or a specific camera view. A data analysis module 140 may be included configured. The suspicious and / or attentional behavior of one or more persons can be tracked and recorded and analyzed either in real time or post time. For example, as identified in FIG. 4, if the backpack 410 is separated from the person 405 and left for a predetermined time period, the video may be flagged for real-time alerts and / or post-time analysis. Can be Objects, such as backpack 410, may be flagged, time stamped for later analysis, and / or separated into individual video streams. The user can zoom in for real-time or post-time analysis, for high resolution tracking, or for incorporation into the data / video / image sequencer 200 as discussed herein. Pre-programmed suspicious objects, eg, backpack 410 (or image library 430, user-generated image / object 435 (via input device), or any other mapping algorithm or module 140 recognized The person 405 who dropped the object may be tracked and analyzed for real-time alerts and / or post-time analysis. System 400 can be used for real-time or post-time analysis through one or more cameras 110, a network of cameras 110, 110a, 110b, one or more antennas 150, and / or a network of antennas 150, etc. Both tracking object 410 and flagging and tracking person 405 may be performed.

別の実施例では、システム400は、夏に冬物コート、晴れたときに長いレインコートを着用する人物等を、アラート目的またはポストタイム分析のためにリアルタイムでフラグ化および追跡し得る。これもまた、アラートまたは異常な条件として分類されるであろう。   In another example, the system 400 may flag and track a person who wears a winter coat in summer, a long raincoat when clear, etc. in real time for alerting purposes or post-time analysis. This will also be classified as an alert or an abnormal condition.

システム400は、1つまたはそれを上回る異常なシナリオ(またはその組み合わせ)に関してアラートするために、事前プログラムされた分析を組み合わせることが可能であり得る。例えば、セミオートマチックまたはオートマチックライフルを携行することが可能なケースを携行する人物および事前判定された時間期間にわたって注意が必要な建物の外側を徘徊するその人物は、自動的にフラグ化され、追跡され、アラートが、セキュリティに送信され得る。   System 400 may be able to combine pre-programmed analysis to alert on one or more abnormal scenarios (or combinations thereof). For example, a person carrying a case that can carry a semi-automatic or automatic rifle, and a person who sits outside a building that needs attention for a pre-determined time period, is automatically flagged and tracked. An alert can be sent to the security.

システム400は、特定の物体を追跡および分析することが可能であり得、ソフトウェアまたはデータ分析モジュール140は、後で取得されるビデオストリームおよび/または静止画像内で同一の物体を識別するように事前プログラムされ得る。例えば、特定の重要な人物が、記者会見を行うようにスケジューリングされる、または具体的時間に特定の場所に到着するようにスケジューリングされる。スケジューリングされた事象は、(意図的にまたは意図せず)延期される。ソフトウェアまたはデータ分析モジュール140は、リスケジューリングされた事象のために新しく生成されたビデオ内に出現するある物体(または物体410を伴う人物またはユーザ生成されたオブジェクト435)を認識するように事前プログラムされ得る。ある事例では、スケジューリングされた事象の元々の時間からのオリジナルビデオが、精査され得、ユーザは、現在のリスケジューリングされた事象のリアルタイムビデオ映像内のある「リピート」物体410(バックパック、コート、帽子、衣類、ブリーフケース、人物等)を探すようにソフトウェアまたはデータ分析モジュール140を事前プログラムし得る。人物はまた、徘徊者として分類され、後のスケジューリングされた事象における精査のためにフラグ化され得る。それが着目人物であった場合、警告が、テープを精査するセキュリティチームにリアルタイムで送信されることができる。   The system 400 may be able to track and analyze specific objects, and the software or data analysis module 140 may pre-identify the same object in a video stream and / or still image that is acquired later. Can be programmed. For example, a particular important person is scheduled to have a press conference or scheduled to arrive at a particular location at a specific time. Scheduled events are postponed (intentionally or unintentionally). The software or data analysis module 140 is pre-programmed to recognize certain objects (or persons with objects 410 or user-generated objects 435) that appear in newly generated videos due to rescheduled events. obtain. In one instance, the original video from the original time of the scheduled event can be reviewed and the user can select a “repeat” object 410 (backpack, court, Software or data analysis module 140 may be pre-programmed to look for hats, clothing, briefcases, persons, etc.). A person can also be classified as a deaf and flagged for review at a later scheduled event. If it is the person of interest, a warning can be sent in real time to the security team reviewing the tape.

データ分析モジュール140は、異常なパターンの挙動または予期せぬパターンの挙動を認識し、セキュリティまたは調査者に潜在的に異常なシナリオ、事象、または条件をアラートするように構成され得る。ビデオおよび/またはデータは、リアルタイム分析または事象後分析のために構成され得る。例えば、データ分析モジュール140は、特定の地理的エリアに向かう集中パターンおよび/または特定の地理的エリアから離れる拡散パターンを認識するようにプログラムされることができる。全地球測位ソフトウェアおよびベクトル化が、本目的を遂行するために利用され得る。集中パターンおよび/または拡散パターンの認識は、潜在的なフラッシュモブ、集団強盗、または他の異常な事象を自動的に認識する際に有用であり得る。例えば、図5に示されるように、分析認識システム500は、特定の時間522またはその付近で特定の場所520に到着する異常な数の常連客504a−504lを追跡するように構成され得る、データ分析モジュール140を含む。データ分析モジュール140はまた、特定の場所520に到着する、またはそれから出発する常連客504a−504lおよび/または個人の異常な速度を追跡するように構成され得る。典型的な到着および/または出発速度が、事前設定される、または、事前設定された時間または可変量の時間にわたって特定の場所に到着した、またはそれから出発した可能性のある以前の個人のアルゴリズムから取得され得る。到着および/または出発速度からの逸脱は、異常な条件をトリガし得る。   The data analysis module 140 may be configured to recognize abnormal or unexpected pattern behavior and alert security or investigators to potentially abnormal scenarios, events, or conditions. The video and / or data can be configured for real-time analysis or post-event analysis. For example, the data analysis module 140 can be programmed to recognize a concentration pattern towards a specific geographic area and / or a diffusion pattern away from a particular geographic area. Global positioning software and vectorization can be utilized to accomplish this purpose. Recognition of concentration patterns and / or diffusion patterns can be useful in automatically recognizing potential flashmobs, mass robberies, or other unusual events. For example, as shown in FIG. 5, the analysis recognition system 500 may be configured to track an unusual number of regular customers 504a-504l arriving at a specific location 520 at or near a specific time 522. An analysis module 140 is included. The data analysis module 140 may also be configured to track the abnormal speed of regular customers 504a-504l and / or individuals arriving at or departing from a particular location 520. Typical arrival and / or departure speeds are preset or from previous individual algorithms that may have arrived at or departed from a specific location over a preset time or variable amount of time Can be acquired. Deviations from arrival and / or departure speeds can trigger abnormal conditions.

図5に明示的に示されないが、人物504のうちの1人またはそれを上回る人は、それによって1つまたはそれを上回る信号(例えば、モバイル通信デバイスデータ)が無線で伝送される1つまたはそれを上回るアンテナを具備する、1つまたはそれを上回る対応するモバイル通信デバイス440(例えば、スマートフォン)を保有し得る。上記に議論されたように、本明細書の種々の例示的実施形態に従うと、1つまたはそれを上回るアンテナ150は、それらが1つまたはそれを上回るアンテナ150の個別の範囲内に位置するとき、モバイル通信デバイス440によって伝送されるモバイル通信デバイスデータを捕捉し、捕捉されたモバイル通信デバイスデータを処理のためにデータ分析モジュール140に伝送するように構成される。   Although not explicitly shown in FIG. 5, one or more of persons 504 may use one or more signals over which one or more signals (eg, mobile communication device data) are transmitted wirelessly. One or more corresponding mobile communication devices 440 (eg, smartphones) with more antennas may be owned. As discussed above, according to various exemplary embodiments herein, one or more antennas 150 are when they are located within individual ranges of one or more antennas 150. The mobile communication device data transmitted by the mobile communication device 440 is captured and configured to transmit the captured mobile communication device data to the data analysis module 140 for processing.

データ分析モジュール140および1つまたはそれを上回るカメラアレイまたはシステム510a−510gを伴うセキュリティシステム500は、事前設定された時間にわたって特定の地理的エリア520に向かって集中する異常な数の人物を認識するように構成され得る。データ分析モジュール140は、1つまたはそれを上回る集中パターンを評価するために、ベクトル分析および/または画像およびデータベクトル分析アルゴリズムおよび/または機械学習アルゴリズムを利用するように構成され得る。さらに、システム500は、衣類、年齢、携行されている物品(例えば、ブリーフケース、バックパック、他の類似するアイテム)における類似性を認識し、セキュリティまたは調査者に可能性として考えられる異常な条件をアラートするように構成され得る。これは、いわゆる「フラッシュモブ」またはパレード、マラソン、政治スピーチ等の間の他の非常に注意が必要な状況を認識する際に有用であり得る。   The security system 500 with the data analysis module 140 and one or more camera arrays or systems 510a-510g recognizes an anomalous number of people concentrating towards a particular geographic area 520 over a preset time. Can be configured as follows. Data analysis module 140 may be configured to utilize vector analysis and / or image and data vector analysis algorithms and / or machine learning algorithms to evaluate one or more concentration patterns. Furthermore, the system 500 recognizes similarities in clothing, age, and items being carried (eg, briefcases, backpacks, and other similar items), and is an abnormal condition that could potentially be a security or investigator possibility. May be configured to alert. This can be useful in recognizing so-called “flash mobs” or other very sensitive situations during parades, marathons, political speeches, etc.

拡散パターンおよび/または速度は、特定のエリア520から出発する個人の通常ではないパターン識別するために使用され得る。例えば、パニックのような状況の場合では、個人の拡散速度は、事前設定または計算された平均拡散速度を上回ることが予期される。したがって、平均速度またはパニックのような速度を下回る速度において特定のエリアおよび/または状況から離れる1人またはそれを上回る個人の識別は、場合によっては人物が特定のパニックのような状況をもたらした、またはそれを認知していたという事実に起因して、個人がパニックのような状態になかったことを示し得る。さらに、平均速度よりも速くエリアを離れる人物は、「ある事象から逃れている」、例えば、強盗から逃れている、または次の爆発から逃れている場合がある。   The diffusion pattern and / or velocity can be used to identify an unusual pattern for an individual starting from a particular area 520. For example, in the case of a panic situation, the individual's diffusion rate is expected to exceed the preset or calculated average diffusion rate. Thus, the identification of one or more individuals leaving a specific area and / or situation at a speed below average speed or speed, such as panic, in some cases caused the person to have a specific panic situation, Or it may indicate that the individual was not in a panic-like state due to the fact that he was aware of it. Furthermore, a person who leaves the area faster than the average speed may “escape from an event”, eg, escape from a robber or escape from the next explosion.

データ分析モジュール140はまた、特定の場所および/または事象に関連するウェブトラフィックおよび/またはソーシャルメディアサイト(Facebook(R)、MySpace(R)、LinkedIn(R))を監視し、その性質のアラートをセキュリティに提供する、または事象または地理的エリアに関連するウェブトラフィックを集中パターンを認識するビデオ分析と組み合わせ、潜在的なフラッシュモブまたはギャング強盗をアラートするように構成され得る。データ分析モジュール140はまた、集中パターンが認識されると、逆に機能し、ウェブトラフィックまたは種々のソーシャルメディアサイトにアクセスし、これらのサイトのうちの1つまたはそれを上回るものにpingし、場合によってはより多くのパターンアクティビティを明らかにするために、または特定の場所におけるフラッシュモブ事象を明らかにするために、付加的情報を収集し得る。   The data analysis module 140 also monitors web traffic and / or social media sites (Facebook (R), MySpace (R), LinkedIn (R)) related to specific locations and / or events and alerts on their nature. It can be configured to provide security or to combine web traffic associated with an event or geographic area with video analysis that recognizes a centralized pattern to alert potential flash mobs or gang robberies. The data analysis module 140 also works in reverse when a concentration pattern is recognized, accessing web traffic or various social media sites, pinging one or more of these sites, Some may collect additional information to reveal more pattern activity, or to reveal a flash mob event at a particular location.

データ分析モジュール140はまた、特定のタイムスタンプに先行するアクティビティに関してウェブトラフィックまたはソーシャルメディアサイトを監視するように構成され得る。例えば、特定の事象と同時に起こる、またはそれに先行する特定の事象に関する哀悼を伝えるソーシャルメディア投稿は、その事象の予示を示し、来る事象の事前知識を示し得る。   The data analysis module 140 may also be configured to monitor web traffic or social media sites for activity that precedes a particular time stamp. For example, a social media post that accompanies or precedes a specific event and conveys sorrow about the specific event may indicate a prognosis of that event and indicate prior knowledge of the upcoming event.

システム500およびデータ分析モジュール140は、事前プログラムされた異常な条件または手動でプログラムされた条件をリアルタイムで判定するために、1つまたはそれを上回る路上カメラ、駐車場カメラ、店舗/モールカメラ、または他のカメラシステム510a−510gからのビデオおよび/またはモバイル通信デバイスデータを分析するように構成され得る。システム500は、異常な数の自動車が特定のスポット(例えば、ショッピングモール)に集中している場合、アラートを提供し、何人の人物が特定の店舗または場所に集中しているかを確認するためにその情報を駐車場監視カメラからの映像と結合し、特定の時間またはデルタ時間における特定のスポットにおける徘徊を判定するためにその分析を店舗内カメラと結合するように構成され得る。これは、フラッシュモブまたはギャング強盗の典型的な挙動である。再び、システム500は、付加的情報および/または確認のために、1つまたはそれを上回るソーシャルメディアサイトに接続し得る。   The system 500 and the data analysis module 140 may use one or more street cameras, parking cameras, store / mall cameras, or to determine pre-programmed abnormal or manually programmed conditions in real time It may be configured to analyze video and / or mobile communication device data from other camera systems 510a-510g. The system 500 provides an alert when an unusual number of cars are concentrated at a particular spot (eg, a shopping mall) to determine how many people are concentrated at a particular store or location. The information can be combined with the video from the parking surveillance camera and the analysis can be configured to be combined with the in-store camera to determine wrinkles at a particular spot at a particular time or delta time. This is the typical behavior of a flash mob or gang robber. Again, the system 500 may connect to one or more social media sites for additional information and / or verification.

同様に、ビデオおよび/またはモバイル通信デバイスデータから取得される、接近する自動車の速度パターンおよび/または個人がそれらの自動車から出発する速度もまた、異常な条件を示し得る。   Similarly, the speed patterns of approaching cars and / or the speed at which individuals depart from those cars, obtained from video and / or mobile communication device data, may also indicate abnormal conditions.

データ分析モジュール140がリアルタイムおよび/またはポストタイムで実施し得る分析の他の実施例は、ギャングタイプ認識に関連し得る。例えば、図6の分析認識システム600は、ギャングの色および/または色の組み合わせおよび/またはパターンを認識し、特定の色または色の組み合わせおよび/またはパターンを伴う異常な数の個人(または異常な割合の個人)が、特定の地理的エリア上に集合している、またはそこにおいて徘徊している場合、ビデオ618をフラグ化する、および/またはセキュリティにアラートするように構成され得る。データ分析モジュール140は、個人または複数の個人605aの特定の特性または特質615、例えば、衣類、帽子類、パンツスタイル、シャツ/コートの色、これが着用される様式、シンボル、コートのロゴ、タトゥー、ピアス、髪型、ハンドジェスチャ、自動車、モータバイク等を認識し、セキュリティに異常な条件またはコンピュータ620内に以前の画像625として記憶される以前の調査をアラートするように事前プログラムされ得る。代替として、および/または加えて、データ分析モジュール140は、個人605aのモバイル通信デバイス440aのモバイル通信デバイスデータ(例えば、セルラー識別子)を認識し、セキュリティに既知の着目人物であり得る個人605aの存在をアラートするように事前プログラムされ得る。これらの個人605aは、事前設定された時間期間にわたって、または人物がエリアを離れるまでフラグ化および追跡され得る。群衆における特定の常連客のグループの全体的画像および特性615(色、ユニホーム、帽子類、衣類スタイル、髪型、ロゴ、ピアス、タトゥー、シンボル、他のギャング関連の印、自動車、モータバイク、または衣類等)が、認識され、アラートをトリガし得る。データ分析モジュール140は、特定の群衆におけるx%の個人が、特定の特質615を有していること、例えば、同一のタトゥー、赤いシャツ、同一のロゴを有していること、髪型に具体的物体が付いていること等のアラートを提供し得る。データ分析モジュール140は、特定の群衆における事前判定された数の個人が特定の特質615を有しているという評価に基づいて、アラートを提供するように構成され得る。   Other examples of analyzes that the data analysis module 140 may perform in real time and / or post time may relate to gang type recognition. For example, the analysis and recognition system 600 of FIG. 6 recognizes gang colors and / or color combinations and / or patterns, and an unusual number of individuals (or unusual) with a particular color or color combination and / or pattern. % Of individuals) may be configured to flag video 618 and / or alert security if they are aggregated or hesitated over a particular geographic area. The data analysis module 140 may be used to identify certain characteristics or attributes 615 of the individual or individuals 605a, such as clothing, hats, pants style, shirt / coat color, style in which it is worn, symbol, coat logo, tattoo, It can be preprogrammed to recognize piercings, hairstyles, hand gestures, cars, motorbikes, etc. and alert to abnormal conditions in security or previous investigations stored as previous images 625 in computer 620. Alternatively and / or additionally, the data analysis module 140 recognizes the mobile communication device data (eg, cellular identifier) of the mobile communication device 440a of the individual 605a and the presence of the individual 605a that may be a known person known to security. Can be preprogrammed to alert. These individuals 605a can be flagged and tracked over a pre-set time period or until the person leaves the area. Overall image and characteristics 615 (color, uniform, hats, clothing style, hairstyle, logo, piercing, tattoo, symbol, other gang related signs, car, motorbike, or clothing in a crowd Etc.) may be recognized and trigger an alert. The data analysis module 140 is specific to x% individuals in a particular crowd having specific attributes 615, such as having the same tattoo, red shirt, same logo, and hairstyle. An alert such as an object attached may be provided. Data analysis module 140 may be configured to provide alerts based on an assessment that a predetermined number of individuals in a particular crowd have a particular characteristic 615.

データ分析モジュール140は、多数の異常な条件のグラフ表現を提供し、1つまたはそれを上回る異常な条件のパターンまたは非常に高いレベル(および/または事前判定されたレベル)の認識をより良好に促進するように構成され得る。これは、より多くの数のパターンが、1つまたはそれを上回る個人によって追跡および分析されることを可能にし得る。データ分析モジュール140はまた、個人間の接触を認識し得、接触は、物理的接触(例えば、握手、抱擁、または物体の交換)であり得る、または接触は、非接触(例えば、会話への従事、長期のアイコンタクト、またはそれらの間の認知を示すであろう他の非物理的接触への従事)であり得る。   The data analysis module 140 provides a graphical representation of a number of abnormal conditions to better recognize one or more abnormal condition patterns or very high levels (and / or pre-determined levels). Can be configured to facilitate. This may allow a greater number of patterns to be tracked and analyzed by one or more individuals. The data analysis module 140 can also recognize contact between individuals, the contact can be a physical contact (eg, a handshake, a hug, or an object exchange), or the contact can be a non-contact (eg, to a conversation) Engagement, long-term eye contact, or other non-physical contact that would show cognition between them).

他のアラートタイプの条件は、異常なシナリオに関連し得、データ分析モジュール140は、特定のエリアに関して通常ではない、個人605bによって携行されている物体を認識する。例えば、図6に示されるように、モール623内でピッチフォークまたはシャベル(図示せず)を携行する人物またはモール623内でバット616を携行し、特定のエリア上に集中するグループ(605bおよび605c)である。再び、ビデオのリアルタイム分析は、最も有用であり、セキュリティに異常な条件のアラートを提供するであろう。事後分析は、ある事象が起こる場合、支援のために当局が呼ばれるとき、犯罪者を判定するために有用であり得る。   Other alert type conditions may be associated with abnormal scenarios, and the data analysis module 140 recognizes objects carried by an individual 605b that are unusual for a particular area. For example, as shown in FIG. 6, a person carrying a pitch fork or shovel (not shown) in the mall 623 or a group carrying the bat 616 in the mall 623 and concentrating on a specific area (605b and 605c). ). Again, real-time analysis of the video is most useful and will provide alerts for unusual conditions in security. Post-mortem analysis can be useful for determining criminals when an event occurs, when authorities are called for assistance.

本明細書に留意される前述のシナリオまたはアラートのいずれかを用いて、データ分析モジュール140は、画像またはアルゴリズムのビデオライブラリ650と協働する、および/または集約されたモバイル通信デバイスデータの1つまたはそれを上回るデータベースと協働し、アラートをトリガする、またはクエリに応答し得る。ライブラリ画像および/またはユーザ生成された画像650等の付加的画像が、データ分析モジュール140に入力として提供され、データ分析モジュール140の認識側面を通してビデオを分析するために使用され得る。これは全て、リアルタイムで、またはポストタイム分析中に起こり得る。再び、クエリが、特定の目的に応じて入力され得、システム100、200、300、400、500、および/または600は、リアルタイムまたはポストタイムで、クエリが行われた条件に関してビデオを分析することができる。   Using any of the aforementioned scenarios or alerts noted herein, the data analysis module 140 cooperates with a video library 650 of images or algorithms and / or one of the aggregated mobile communication device data. Or it can collaborate with more databases to trigger alerts or respond to queries. Additional images, such as library images and / or user-generated images 650 can be provided as input to the data analysis module 140 and used to analyze the video through the recognition aspect of the data analysis module 140. This can all occur in real time or during post time analysis. Again, a query can be entered depending on the particular purpose, and the system 100, 200, 300, 400, 500, and / or 600 can analyze the video for the condition under which the query was made, in real time or post time. Can do.

システム100、200、300、400、500、および/または600は、3次元顔認識を実施するように構成され得る。システム100、200、300、400、500、および/または600は、衣類タイプ、ピアス、タトゥー、髪型等に基づいて、調査における個人または注意人物605a(または前科者)を認識するように手動でプログラムされ得る(組織の権限(FBI対地方のモールセキュリティ)に応じて利用されることもあり得る顔認識以外)。注意人物705aの画像が、データ分析モジュール140に走査され得、ピアス、タトゥー、髪型、ロゴ、および帽子類等のアイテムが、リアルタイムまたはポストタイム分析において後で分析するために、フラグ化され、画像データベースにアップロードされ得る。例えば、窃盗犯605aがコンビニエンスストアを略奪し、その人物の顔画像が1つまたはそれを上回るカメラ610上に捕捉される場合、その人物の画像だけではなく、他の識別情報または特性または特質615、例えば、髪型、タトゥー、ピアス、宝石、衣類ロゴ等も同様に、全ての店舗カメラ610にアップロードされ得る。窃盗犯605aが再び店舗に進入する場合、アラートが、セキュリティに自動的に送信されるであろう。本システムが異なる人物上の類似するタトゥーまたはピアスパターンまたはロゴ615を認識する場合であっても、その人物は、当局による尋問のために注意人物と見なされ得る。再び、これは、単なる顔認識の範囲を超え、そのいわゆる異なる人物は、必ずしも、フラグ化および追跡されないであろう。   The systems 100, 200, 300, 400, 500, and / or 600 may be configured to perform 3D face recognition. The system 100, 200, 300, 400, 500, and / or 600 is manually programmed to recognize an individual or attention person 605a (or practitioner) in a survey based on clothing type, piercing, tattoo, hairstyle, etc. (Other than face recognition, which may be used depending on the authority of the organization (FBI vs. local mall security)). An image of the attention person 705a can be scanned into the data analysis module 140 and items such as piercings, tattoos, hairstyles, logos, and hats can be flagged and imaged for later analysis in real-time or post-time analysis. Can be uploaded to the database. For example, if a thief 605a plunders a convenience store and a person's face image is captured on one or more cameras 610, not only the person's image, but also other identifying information or characteristics or attributes 615 For example, hairstyles, tattoos, earrings, jewelry, clothing logos, etc. may be uploaded to all store cameras 610 as well. If the thief 605a enters the store again, an alert will be automatically sent to the security. Even if the system recognizes a similar tattoo or piercing pattern or logo 615 on a different person, that person can be considered a watched person for questioning by the authorities. Again, this goes beyond the mere face recognition, and so-called different people will not necessarily be flagged and tracked.

システム100、200、300、400、500、および/または600はまた、特定の場所に定期的に来る、または訪問する個人および/または常連客のライブラリを生成し、それによって、これらの特定の個人を追跡する必要性を排除し、システム100、200、300、400、500、および/または600が、以前に識別されておらず、ライブラリ内に保存されていない個人の識別および追跡に焦点を当てることを可能にし得る。常連客のライブラリ(図示せず)はまた、販売時点(POS)システムにリンクし、それによって、識別され、ライブラリ内に記憶された個人が通常の常連客であることを検証し得る。   The systems 100, 200, 300, 400, 500, and / or 600 also generate a library of individuals and / or patrons who regularly visit or visit certain locations, thereby enabling these specific individuals. System 100, 200, 300, 400, 500, and / or 600 focus on identifying and tracking individuals who have not been previously identified and stored in the library Can make it possible. A library of regular customers (not shown) may also link to a point of sale (POS) system, thereby verifying that the individual identified and stored in the library is a regular regular customer.

図7に最良に示されるように、別の分析認識システム700が、店舗チェーン、モール、またはある町またはコミュニティ内の一連の店舗750と併用されるデータ分析モジュール140とともに示される。店舗のコミュニティまたは店舗チェーン750a−750eは、同一のデータ分析モジュール140を利用して(または画像724をアップロードし、個々の店舗分析システム740a−740e上で情報を識別して)カメラ710a−710eのネットワークを横断して、ビデオ画像724、モバイル通信デバイスデータ、および/または既知の犯罪者705の特性または特質の他の識別情報を共有することが可能である。これらの地方の店舗所有者または店舗チェーン750a−750eは、いったん人物705が店舗、例えば、店舗750aに進入すると、(上記に説明されるような事前の特性または特質および/または画像および/または情報データベースに入力された識別情報に基づいて)既知の特定の着目個人705をフラグ化および追跡することによって、付加的損失を防止することが可能であり得る。アラートが、これらの個人(または個人のグループ)の地方当局に送信され得、それらの人物は、コミュニティネットワークに沿った駐車場カメラ、路上カメラ等を含む、カメラ710a−710eのネットワーク全体を通して追跡され得る。いったん個人705がフラグ化され、アラートが存在すると、自動車、自動車タイプ、自動車ルート、共犯者等に関連する他の情報も、捕捉され得る。さらに、システム700内の全てのカメラ710a−710eおよび/またはアンテナ150a−150eは、リアルタイムで、および/またはポストタイム分析のために、個人705および共犯者をフラグ化および追跡するようにアラートされ得る。   As best shown in FIG. 7, another analysis and recognition system 700 is shown with a data analysis module 140 used in conjunction with a chain of stores, a mall, or a series of stores 750 in a town or community. The store community or store chain 750a-750e utilizes the same data analysis module 140 (or uploads images 724 and identifies information on individual store analysis systems 740a-740e) of the cameras 710a-710e. It is possible to share video images 724, mobile communication device data, and / or other identification information of known criminal 705 characteristics or characteristics across the network. These local store owners or store chains 750a-750e may have (prior characteristics or characteristics and / or images and / or information as described above) once a person 705 enters a store, eg, store 750a. It may be possible to prevent additional loss by flagging and tracking a specific known individual of interest 705 (based on identification information entered into the database). Alerts can be sent to the local authorities of these individuals (or groups of individuals), who are tracked throughout the network of cameras 710a-710e, including parking cameras, street cameras, etc. along the community network. obtain. Once the person 705 is flagged and there is an alert, other information related to cars, car types, car routes, accomplices, etc. can also be captured. Further, all cameras 710a-710e and / or antennas 150a-150e in system 700 may be alerted to flag and track individuals 705 and accomplices in real time and / or for post-time analysis. .

種々の説明されるシステム100、200、300、400、500、600、700、および800はまた、「非接触」条件を伴う個人を識別するために利用され得る。例えば、建物の住人が、特定の個人がある近接範囲内に入ることを防止する、裁判所によって発行された接近禁止命令を有し得る。画像、例えば、724は、本システム、例えば、システム700に入力され得、データ分析モジュール140は、個人705を識別し、通知および/または証拠書類を建物の住人および/または当局に提供し得る。同様に、政府生成データベース720が、システム700に提供され得、データベース720は、特定の法的に義務付けられた登録プログラムにおいて識別される個人705の画像のライブラリ724を含む。   The various described systems 100, 200, 300, 400, 500, 600, 700, and 800 can also be utilized to identify individuals with “contactless” conditions. For example, a building occupant may have an access prohibition order issued by a court that prevents certain individuals from entering a certain proximity range. An image, eg, 724, can be input to the system, eg, system 700, and the data analysis module 140 can identify the individual 705 and provide notifications and / or evidence to the building dwellers and / or authorities. Similarly, a government generated database 720 may be provided to the system 700, which includes a library 724 of images of individuals 705 identified in a particular legally required registration program.

コミュニティは、本目的のために、カメラ710a−710eのコミュニティネットワークを設定するように選定し得る。地方企業の新しい所有者は、1回毎のサブスクリプション(例えば、金額)で分析のために(すなわち、地方でのアラートのために)特定の犯罪者の画像724、例えば、特に暴力的な犯罪者の画像724をアップロードすることを選び得、付加的識別情報が、全てのネットワーク化されたカメラ710a−710e(またはさらにはスタンドアロンシステム)上にアップロードするためにコミュニティ全体に特に着目され得る一方、短時間の万引き犯は、着目されない場合がある。   The community may choose to set up a community network for cameras 710a-710e for this purpose. A new owner of a local company may have a specific criminal image 724 for analysis (ie, for local alerts) with a single subscription (eg, amount), for example, a particularly violent crime While uploading a person's image 724, while additional identifying information may be particularly focused on the entire community for uploading on all networked cameras 710a-710e (or even a standalone system), Short-time shoplifters may not be noticed.

データ分析モジュール140はまた、個人または注意人物のインジケータとして、ひきずり足、すり足、頭部の角度、歩幅、手の振り、ハンドジェスチャ等の歩き方を利用し得る。人物の歩き方は、指紋と同程度に個性的であり、変装した犯罪者を識別するために使用され得る。多くの変数が、個人の歩き方に寄与し、本情報は、データ分析モジュール140にアップロードされることができる(例えば、歩行速度、歩数頻度、脚間の角度、手/腕の位置、手/腕の振り、ひきずり足、すり足等)。   The data analysis module 140 may also use walking methods such as a drag foot, a skate, a head angle, a stride, a hand swing, a hand gesture, etc. as an indicator of an individual or attention person. A person's way of walking is as individual as a fingerprint and can be used to identify disguised criminals. Many variables contribute to an individual's way of walking and this information can be uploaded to the data analysis module 140 (eg, walking speed, frequency of steps, angle between legs, hand / arm position, hand / arm). Arm swings, dragged feet, slippers, etc.).

データ分析モジュール140はまた、ある回数の既知の画像または事象または習慣が、特定の時間期間以内に起こる(例えば、事前設定された時間期間以内にX回数自身の特定のエリアに触れること、武器を携行する、または隠すために既知のエリアを触れる、または握ること、X回数緊張して痙攣する、または急速に頭部を方向転換させること、横目でちらっと見ること、事前設定された時間期間以内にX回数ビデオカメラを見ること等)場合、セキュリティにアラートするように構成され得る。データ分析モジュール140は、事前設定された時間制限以内に異常または過剰な習慣または事象が起こること、または事前設定された時間期間以内に事象のいずれかの組み合わせが起こることに基づいて、セキュリティにアラートする、またはユーザに情報を提供するように構成され得る。例えば、手でズボンの上を握り、急速に頭部を方向転換させながら店舗を通って歩行する人物は、アラートまたは異常な状況をトリガし得る。別の実施例では、セキュリティが、フラグ化または強調され(またはシステム100、200、300、400、500、600、700、および/または800によってあるエリア内で別様に識別され)、その方向を繰り返し横目で見る、または自身の頭部をその方向に繰り返し方向転換させる注意人物が、アラートまたは異常な状況をトリガし得る。別の実施例では、典型的には、短い滞在時間を伴うエリア(例えば、化粧品エリアにおいて、女性の滞在時間は、典型的には、必ずしもではないが、長い一方、男性の滞在時間は、典型的には、短い)である店舗のエリア内で買い物をする、および/または長居する個人である。   The data analysis module 140 also allows a certain number of known images or events or habits to occur within a certain time period (eg, touching its particular area X times within a preset time period, Touch or hold a known area to carry or hide, tense and convulsions, or rapidly turn head, glance with side eyes, within preset time period (Such as watching a video camera X times) may be configured to alert security. The data analysis module 140 alerts the security based on the occurrence of abnormal or excessive habits or events within a preset time limit, or any combination of events within a preset time period. Or may be configured to provide information to the user. For example, a person who walks through a store holding his hand over trousers and rapidly turning his head can trigger an alert or an abnormal situation. In another embodiment, security is flagged or emphasized (or otherwise identified within an area by systems 100, 200, 300, 400, 500, 600, 700, and / or 800) An attention person who repeatedly looks at the side or turns his head repeatedly in that direction can trigger an alert or an abnormal situation. In another example, typically an area with a short residence time (e.g. in a cosmetic area, the female residence time is typically, but not necessarily, long, while the male residence time is typically In particular, they are individuals who shop and / or stay in a store area that is short).

上記に言及されるように、本開示の分析認識システム100、200、300、400、500、600、700、および/または800は、データ分析モジュール140にある習慣的挙動を事前プログラムし、同一物を(リアルタイムおよび/またはポストタイムで)分析することによって、銃または武器検出を判定するために利用され得る。例えば、武器を格納するための既知のあるエリアを繰り返し掴み、ある歩き方で歩行する(例えば、ひきずり足での歩行は、ショットガンの携行を示し得る)人物は、武器を携行する人物のインジケーションであり得る。本情報は、アラートまたは異常な状況をトリガするために、他の識別情報または印(例えば、タトゥー、ギャングの色、ギャングのシンボル、ロゴ等)とともに分析され得る。別の実施例では、個人が、雨が降っていないとき、または夏の晴れた日にトレンチコートを着用し、横目で見ている、または頭部を方向転換させている。本事例では、データ分析モジュール140は、雨または温度または日照(日光)に関する何らかの感覚入力および/またはそのようなデータを提供するシステムへの接続を必要とするであろう。時刻もまた、例えば、より多くの強盗が起こる傾向がある夜のかなり遅く、または深夜過ぎにアラートをトリガするときにデータ分析モジュール140の「認識度」を高めるために、データ分析モジュール140の分析に事前プログラムされるトリガまたは付加的事象となり得る。   As mentioned above, the analysis recognition system 100, 200, 300, 400, 500, 600, 700, and / or 800 of the present disclosure pre-programs habitual behaviors in the data analysis module 140 to Can be utilized to determine gun or weapon detection by analyzing (in real time and / or post time). For example, a person who repeatedly grabs a known area for storing weapons and walks in a certain way of walking (for example, walking with a dragged foot may indicate carrying a shotgun) is an indicator of the person carrying the weapon. Can be This information can be analyzed along with other identifying information or indicia (eg, tattoos, gang colors, gang symbols, logos, etc.) to trigger alerts or unusual situations. In another embodiment, the individual wears a trench coat and is looking sideways or turning his head when it is not raining or on a sunny summer day. In this case, the data analysis module 140 would require some sensory input regarding rain or temperature or sunlight (sunlight) and / or a connection to a system that provides such data. The time is also analyzed by the data analysis module 140, for example, to increase the “recognition” of the data analysis module 140 when triggering an alert much later in the night when more robberies tend to occur or after midnight. Can be preprogrammed triggers or additional events.

他の実施例では、データ分析モジュール140は、セキュリティ人員が、リアルタイムまたはポストタイムで分析認識システム100、200、300、400、500、600、700、および/または800にクエリを行うことを可能にし得る。「何人の赤い野球帽を冠った人物が5〜10分のデルタ以内に店舗またはエリアに進入したか?」、「何人の人物が本時刻に、または本デルタ時間にわたって中央噴水に集中しているか?」、「何人の人物がデルタ分にわたって噴水において長居しているか?」他のクエリは、以下の命令を含み得る。「(華氏90度の夏の日に)長ズボンまたは冬物コートを着用している人物を走査および認識/フラグ化/追尾/追跡する」、「赤い帽子を着用している人物を走査および認識/フラグ化/追尾/追跡する」、「複数のバックパックを携行している人物を走査および認識/フラグ化/追尾/追跡する」、「物体(例えば、持ち主不在のバックパック)を放置した人物を走査および認識/フラグ化/追尾/追跡する。システム、複数のシステム、物体のフラグ場所等にわたって人物を追跡する」、「注意が必要なエリアに近接して徘徊し、注意が必要なエリアに近接して物体を放置した人物を走査および認識/フラグ化/追尾/追跡する。システム、複数のシステム、フラグ場所にわたって人物を追跡する」、および/または「デルタ数の持ち主不在の物体が事前設定された時間に、または事前設定された時間にわたって放置されている場合、アラートする」。   In other embodiments, the data analysis module 140 allows security personnel to query the analysis recognition system 100, 200, 300, 400, 500, 600, 700, and / or 800 in real time or post time. obtain. “How many people wearing red baseball caps entered the store or area within 5-10 minutes of the delta?”, “How many people concentrated at the central fountain at this time or over this delta time?” Other queries may include the following instructions: “How many people are staying in the fountain for Delta minutes?” “Scanning and recognizing / flagging / tracking / tracking a person wearing long trousers or a winter coat (on a summer day at 90 degrees Fahrenheit)”, “Scanning and recognizing a person wearing a red hat / Flagging / tracking / tracking ”,“ scanning and recognizing / flagging / tracking / tracking a person carrying multiple backpacks ”,“ persons leaving objects (eg, backpacks without owners) Scan and recognize / flagging / tracking / tracking. Track people across systems, multiple systems, object flag locations, etc. "," Turn close to areas that need attention, close to areas that need attention And scan / recognize / flagging / tracking / tracking a person who has left an object, tracking a person across systems, multiple systems, flag locations, and / or To the time the absence of the object is pre-set, or if it is left for a preset time, the alert ".

別の実施例では、データ分析モジュール140は、リアルタイムビデオ処理および分析を実施し、物理的空間のビデオシーケンスの自動化処理によって、群衆パラメータ(例えば、リアルタイム群衆カウントまたはリアルタイム群衆密度推定)を判定するように構成され得る。ビデオ分析モジュール140は、群衆パラメータにおける変化率を判定するように構成される、1つまたはそれを上回るアルゴリズムを含み得る。群衆パラメータにおける変化率は、群衆集中または群衆拡散を示し得る。   In another embodiment, the data analysis module 140 performs real-time video processing and analysis to determine crowd parameters (eg, real-time crowd count or real-time crowd density estimation) through automated processing of a physical space video sequence. Can be configured. Video analysis module 140 may include one or more algorithms configured to determine a rate of change in crowd parameters. The rate of change in crowd parameters can indicate crowd concentration or crowd spread.

群衆パラメータにおける変化率が事前判定された閾値を超えると、データ分析モジュール140は、アラートを自動的に発行する。例えば、群衆パラメータにおける変化率が群衆集中を示すと、データ分析モジュール140は、セキュリティに潜在的なフラッシュモブまたはギャング強盗をアラートし得る。データ分析モジュール140は、1つまたはそれを上回る集中パターンを評価するために、ベクトル分析および/または画像およびデータベクトル分析アルゴリズムおよび/または機械学習アルゴリズムを利用するように構成され得る。   Data analysis module 140 automatically issues an alert when the rate of change in the crowd parameter exceeds a pre-determined threshold. For example, if the rate of change in crowd parameters indicates crowd concentration, the data analysis module 140 may alert a security potential flash mob or gang robber. Data analysis module 140 may be configured to utilize vector analysis and / or image and data vector analysis algorithms and / or machine learning algorithms to evaluate one or more concentration patterns.

データ分析モジュール140は、ネットワークにおいて編成されたカメラ510a−510gのアレイに接続され得、アラートの発行に応じて、ネットワーク内の各カメラは、1つまたはそれを上回る物体または個人(例えば、図5に示される常連客504a−504l)を追跡するために利用され得る。群衆パラメータにおける変化率が群衆拡散を示すと、データ分析モジュール140は、セキュリティに潜在的に危険な状況または犯罪行為をアラートし得る。   Data analysis module 140 may be connected to an array of cameras 510a-510g organized in the network, and each camera in the network may respond to one or more objects or individuals (eg, FIG. Can be used to track regular customers 504a-504l) shown in FIG. If the rate of change in the crowd parameter indicates crowd spread, the data analysis module 140 may alert a potentially dangerous situation or criminal activity to security.

図8は、本開示のある実施形態による、生成された調査を表示する調査モジュール800のスクリーンショットである。調査モジュール800は、特定のユーザ挙動を記録するために要求される情報を生成および記憶するように構成される。   FIG. 8 is a screenshot of a survey module 800 displaying a generated survey, according to an embodiment of the present disclosure. Survey module 800 is configured to generate and store information required to record specific user behavior.

加えて、調査モジュール800は、ユーザまたは機械によって入力される調査基準を受信し、基準に基づいて、ビデオデータ、モバイル通信デバイスデータ、および/またはプロファイルデータをマイニングするように構成され得る。一実施例では、調査基準は、時間フレームを含み得、調査モジュール800は、その存在がその時間フレーム中にある施設で検出された人物のリストを生成するように構成され得る。調査モジュール800はまた、別の場所において以前に取得されたモバイル通信デバイスデータと合致する信号を検出することによって、人物の現在の場所を判定するように構成され得る。   In addition, survey module 800 may be configured to receive survey criteria entered by a user or machine and mine video data, mobile communication device data, and / or profile data based on the criteria. In one example, the survey criteria may include a time frame, and the survey module 800 may be configured to generate a list of people whose presence was detected at a facility that is in the time frame. The survey module 800 may also be configured to determine the current location of the person by detecting a signal that matches the previously acquired mobile communication device data at another location.

本明細書のいくつかの例示的実施形態では、調査モジュール800は、特定のタイプの報告を要求するユーザによって入力された報告基準を受信し、ビデオカメラ110および/またはアンテナ150から取得されるビデオデータ、モバイル通信デバイスデータ、および/またはプロファイルデータ、および/または(例えば、売上データベースから取得される)売上データをマイニングし、データのマイニングに基づいて、報告を生成するように構成される。報告は、例えば、商品アイテム、商品カテゴリ、施設における通路、施設における棚、および/または施設における事前判定された場所に対応する、算出された販売成約率を含み得る。   In some exemplary embodiments herein, the survey module 800 receives report criteria entered by a user requesting a particular type of report and is obtained from the video camera 110 and / or antenna 150. Data, mobile communication device data, and / or profile data, and / or sales data (eg, obtained from a sales database) are configured to generate a report based on the data mining. The report may include, for example, a calculated sales close rate corresponding to a merchandise item, merchandise category, a passageway at the facility, a shelf at the facility, and / or a predetermined location at the facility.

調査モジュール800は、上側および下側閲覧制御バー812a、812bを伴う閲覧ウィンドウ810と、テキスト入力ウィンドウ814と、タイムラインウィンドウ820と、カメラウィンドウ830と、検索ウィンドウ840と、再生選択肢ウィンドウ850と、クリップ選択肢ウィンドウ860と、ファイルメンテナンスウィンドウ870とを含む。   The survey module 800 includes a browsing window 810 with upper and lower browsing control bars 812a, 812b, a text input window 814, a timeline window 820, a camera window 830, a search window 840, a playback options window 850, A clip option window 860 and a file maintenance window 870 are included.

システム100によって自動的に生成された調査は、本明細書の上記に議論されるような特定のユーザ挙動に関連する情報を投入される。例えば、図8に図示される調査は、第1のビデオシーケンス820aと、第2のビデオシーケンス820bとを含み、第1のビデオシーケンス820aは、階段カメラからであり、第2のビデオシーケンス820bは、エレベータに位置するカメラからである。一実施形態では、第1のビデオシーケンス820aは、自動的に生成された調査を通して提供され、自動的に生成された調査は、損失防止担当者に提供された。   The survey automatically generated by the system 100 is populated with information related to specific user behavior as discussed herein above. For example, the study illustrated in FIG. 8 includes a first video sequence 820a and a second video sequence 820b, where the first video sequence 820a is from a staircase camera and the second video sequence 820b is From the camera located in the elevator. In one embodiment, the first video sequence 820a was provided through an automatically generated survey, and the automatically generated survey was provided to loss prevention personnel.

第1のビデオシーケンス820aは、タイムラインウィンドウ820において選択され、閲覧ウィンドウ810において再生される。本説明を進めるために、例えば、損失防止担当者が、PDA上での第1のビデオシーケンス820aの閲覧に応じて、階段エリアから会社のラップトップコンピュータを持ち去る個人を観察すると仮定する。調査を生成する際に、本システムは、本ユーザ挙動を特定のユーザ挙動として識別し、精査に応じて、損失防止担当者は、自動的に生成された調査がメリットを有することに同意し、自動的に生成された調査を窃盗調査に拡大させた。   The first video sequence 820a is selected in the timeline window 820 and played in the viewing window 810. To proceed with this description, for example, assume that a loss prevention officer observes an individual who takes away a company laptop computer from the stair area in response to viewing the first video sequence 820a on the PDA. In generating the survey, the system identifies this user behavior as a specific user behavior, and in response to a scrutiny, the loss prevention officer agrees that the automatically generated survey has the benefits, The automatically generated investigation has been expanded to theft investigation.

自動的に生成された調査は、ほぼリアルタイムで損失防止担当者に提供され、したがって、会社のラップトップをこの時点で保有している個人は、ラップトップが持ち去れた場所からわずか数歩しか進んでいなかった。   The automatically generated survey is provided to loss prevention personnel in near real time, so individuals who have a company laptop at this point will only take a few steps from where the laptop was taken away. It was n’t.

PDAを使用して、損失防止担当者は、PDA上で調査モジュール800を通して利用可能な時間的に関連するビデオおよびビデオデータを観察することによって、自動的に生成された調査(ここでは窃盗調査)を進める。   Using a PDA, a loss prevention officer can automatically generate a survey (here a theft survey) by observing the temporally relevant video and video data available through the survey module 800 on the PDA. To proceed.

検索ウィンドウ840は、調査に関連する時間フレームを自動的に選択し得る。タイムラインは、PDAを通して手動で制御され得る。   Search window 840 may automatically select a time frame associated with the survey. The timeline can be manually controlled through the PDA.

カメラウィンドウ830内に列挙される1つまたはそれを上回るカメラからのビデオおよび/またはビデオデータが、閲覧ウィンドウ810において閲覧するために選択され得る。個々のカメラ(図1参照)からの複数のビデオストリームが、上側閲覧制御バー812aから代替閲覧スクリーンを選択することによって、同時に閲覧され得る。   Video and / or video data from one or more cameras listed in camera window 830 may be selected for viewing in viewing window 810. Multiple video streams from individual cameras (see FIG. 1) may be viewed simultaneously by selecting an alternate viewing screen from the upper viewing control bar 812a.

下側閲覧制御バー812bは、リアルタイムまたは他の選択された速度で、閲覧ウィンドウ810においてビデオを閲覧することを可能にする。調査モジュール800は、調査再生速度を提供し、再生速度は、損失防止担当者がビデオシーケンスの全フレームを閲覧することを要求する再生速度においてビデオを再生するように自動的に計算される。ビデオは、わずかな移動を検出するために、人間の眼の能力を超える速度で記録および保存される。加えて、再生デバイスはまた、再生デバイスがビデオの全フレームを表示することを防止するハードウェアおよび/またはソフトウェア限界を有し得る。したがって、「リアルタイム」におけるビデオの再生は、人間の閲覧限界および/またはコンピュータ表示限界に起因して、ビデオの個々のフレームの欠落をもたらす。調査再生速度は、人間の閲覧限界および調査モジュール800を閲覧するために使用されている特定のデバイスの表示限界に基づいて計算される。   Lower viewing control bar 812b allows viewing video in viewing window 810 at real time or other selected speed. The survey module 800 provides a survey playback speed, which is automatically calculated to play the video at a playback speed that requires the loss prevention personnel to view all frames of the video sequence. The video is recorded and stored at a speed that exceeds the capabilities of the human eye to detect slight movements. In addition, the playback device may also have hardware and / or software limitations that prevent the playback device from displaying all frames of the video. Thus, video playback in “real time” results in the loss of individual frames of the video due to human viewing limits and / or computer display limits. The survey playback speed is calculated based on the human viewing limit and the display limit of the particular device being used to browse the survey module 800.

再生選択肢ウィンドウ850は、各カメラからのビデオシーケンスおよび/またはビデオが、種々のモードで再生されることを可能にする。全フレーム表示モードは、計算された調査再生速度においてビデオを再生し、全フレームが、再生中に表示され、閲覧可能である。運動のみ表示モードは、運動を含むビデオのビデオシーケンスを提供する。トリガのみ表示モードは、トリガに時間的に関連するビデオシーケンスを含む。   The playback options window 850 allows the video sequence and / or video from each camera to be played in various modes. The full frame display mode plays the video at the calculated survey playback speed, and all the frames are displayed during playback and can be viewed. The motion only display mode provides a video sequence of video that includes motion. The trigger only display mode includes a video sequence that is temporally related to the trigger.

トリガは、内部トリガおよび/または外部トリガを含む。内部トリガは、ユーザによって定義され、データ分析モジュール140によって判定される運動トリガ、POSモジュール141によって生成されるPOSトリガ、およびトリップラインおよび/または区域(例えば、ある区域に進入すること、および/またはそれから退出すること)によって定義され、データ分析モジュール140によって判定される分析事象を含む。外部トリガは、コンピュータ120に直接または間接的に接続される外部ハードウェアデバイスによって生成される。   The trigger includes an internal trigger and / or an external trigger. Internal triggers can be defined by the user and determined by the data analysis module 140, movement triggers, POS triggers generated by the POS module 141, and trip lines and / or areas (eg, entering an area and / or Analysis events that are defined by and then determined by the data analysis module 140. The external trigger is generated by an external hardware device that is directly or indirectly connected to the computer 120.

調査の任意の時点で、損失防止担当者は、ビデオシーケンスをタイムラインに割り当て得る。例えば、図8では、損失防止担当者は、第2のビデオシーケンス820bを調査に追加した。第2のビデオシーケンス820bは、エレベータおよび階段に位置付けられるカメラから提供されるビデオを含む。本明細書の上記に説明されるシナリオを進めるために、損失防止担当者は、第2のビデオシーケンス820bにおいて表示される、ラップトップを携行し、エレベータに接近する注意人物を識別したと仮定する。窃盗調査を促進するために、損失防止担当者は、第2のビデオシーケンス820bを調査のタイムライン内に含めた。   At any point in the survey, loss prevention personnel can assign video sequences to the timeline. For example, in FIG. 8, the loss prevention officer has added a second video sequence 820b to the survey. The second video sequence 820b includes video provided from an elevator and a camera located on the stairs. To proceed with the scenario described hereinabove, assume that the loss prevention officer has identified a person of attention carrying the laptop and approaching the elevator displayed in the second video sequence 820b. . To facilitate a theft investigation, the loss prevention officer included a second video sequence 820b in the investigation timeline.

損失防止担当者は、ビデオクリップウィンドウ860から種々の選択肢を選択し得る。タイムラインウィンドウ820は、1つまたはそれを上回るビデオシーケンス、ビデオから生成された静止画像、またはテキスト入力ウィンドウ814を通して入力されたテキストを含むビデオクリップを投入され得る。ビデオクリップは、連続ビデオシーケンスを含み得る。代替として、(再生選択肢ウィンドウ850において選択される)運動のみの再生選択肢を使用するビデオクリップは、運動を含む複数のビデオシーケンスを含む(例えば、ビデオの非運動部分は、ビデオクリップから除外される)。最後に、損失防止担当者は、フレームの静止画像を捕捉し、顔画像、特定のツール、または窃盗中に使用される物体等の個人の特徴、または調査を進めるために要求され得る任意の他の有意な画像を捕捉し得る。   The loss prevention officer may select various options from the video clip window 860. The timeline window 820 may be populated with one or more video sequences, still images generated from the video, or video clips containing text entered through the text input window 814. A video clip may include a continuous video sequence. Alternatively, a video clip that uses motion-only playback options (selected in the playback options window 850) includes multiple video sequences that include motion (eg, non-motion parts of the video are excluded from the video clip). ). Finally, loss prevention personnel capture a still image of the frame and personal features such as facial images, specific tools, or objects used during theft, or any other that may be required to proceed with the investigation. Of significant images can be captured.

最後に、調査は、ほぼリアルタイムで生成されるため、損失防止担当者は、現在進行中の窃盗の確認に応じて、窃盗犯が施設から離れることが可能である前に、セキュリティに通知し、窃盗犯を逮捕することが可能である。   Finally, because investigations are generated in near real time, loss prevention personnel can notify security before the thief can leave the facility in response to confirmation of an ongoing theft, It is possible to arrest a thief.

ここで、本開示の例示的実施形態による、分析認識方法900のフローチャートを示す、図9を参照する。本明細書の例示的実施形態によると、方法900は、少なくとも部分的に、それぞれ、1つまたはそれを上回るビデオカメラ110および/または1つまたはそれを上回るアンテナ150によって捕捉されたビデオデータおよび/またはモバイル通信デバイスデータに基づいて、データベースに、セキュリティ目的、調査目的、マーケティング目的、および/または同等物のために有用であり得るデータを投入するために採用され得る。   Reference is now made to FIG. 9, which shows a flowchart of an analysis recognition method 900, according to an exemplary embodiment of the present disclosure. According to exemplary embodiments herein, method 900 can be performed, at least in part, with video data captured by one or more video cameras 110 and / or one or more antennas 150 and / or respectively. Or, based on mobile communication device data, may be employed to populate a database with data that may be useful for security purposes, research purposes, marketing purposes, and / or the like.

ブロック902において、図1に関してさらに詳細に上記に説明されるように、ビデオデータが、1つまたはそれを上回るビデオカメラ110によって捕捉され、モバイル通信デバイスデータが、1つまたはそれを上回るアンテナ150によって捕捉される。ビデオデータは、一実施例では、ある時間に1つまたはそれを上回るカメラ110の視野内に位置していた1人またはそれを上回る人物の画像を含み、モバイル通信デバイスデータは、ある時間に1つまたはそれを上回るアンテナ150の無線通信範囲内に位置していた、1つまたはそれを上回るモバイル通信デバイス440から捕捉されたデータを含む。モバイル通信デバイスデータの各アイテムは、その1つまたはそれを上回る画像が捕捉された人物のうちの個別の1人によって携行されていた個別のモバイル通信デバイスと関連付けられ得る。   At block 902, video data is captured by one or more video cameras 110 and mobile communication device data is transmitted by one or more antennas 150, as described above in more detail with respect to FIG. Be captured. The video data, in one embodiment, includes images of one or more persons who were located in the field of view of one or more cameras 110 at a time, and the mobile communication device data is one at a time. It includes data captured from one or more mobile communication devices 440 that were located within the wireless communication range of one or more antennas 150. Each item of mobile communication device data may be associated with an individual mobile communication device that was carried by an individual one of the persons whose one or more images were captured.

ブロック904において、ブロック902において捕捉されたビデオデータのアイテムが、捕捉されたビデオデータおよびモバイル通信デバイスデータ内に含まれる1つまたはそれを上回るキーに基づいて、ブロック902において捕捉されたモバイル通信デバイスデータの個別のアイテムと相関される。一実施例では、ブロック904における相関に基づいて、ビデオデータおよび/またはモバイル通信デバイスデータの1つまたはそれを上回る個別のアイテムと関連付けられる人物の個別のプロファイルが、生成される。各プロファイルは、捕捉されたビデオデータ、捕捉されたモバイル通信データ、および/または付加的データのうちのいずれか1つまたはそれらの組み合わせを含む、プロファイルデータを有し得る。   In block 904, the item of video data captured in block 902 is captured in block 902 based on the captured video data and one or more keys included in the mobile communication device data. Correlated with individual items of data. In one example, based on the correlation at block 904, individual profiles of persons associated with one or more individual items of video data and / or mobile communication device data are generated. Each profile may have profile data that includes any one or a combination of captured video data, captured mobile communication data, and / or additional data.

ブロック904において利用される1つまたはそれを上回るキーは、ビデオデータまたはモバイル通信デバイスデータのアイテム内に含まれる属性のうちのいずれか1つまたはそれらの組み合わせを含むことができ、これは、ビデオデータまたはモバイル通信デバイスデータのアイテムを識別するために、および/またはビデオデータおよび/またはモバイル通信デバイスデータの複数のアイテムを相互に関連するものとして相関させるために使用されることができる。例えば、第1の日付および時間に捕捉されたビデオデータのアイテム内に含まれる人物の顔画像が、キーとして使用され得、それによって、ビデオデータのそのアイテムは、第2の日付および時間に捕捉されたビデオデータの別のアイテムと相関されることができる。別の実施例として、第1の場所で(例えば、第1のビデオカメラ110またはアンテナ150によって)捕捉されたモバイル通信データのアイテム内に含まれるIPアドレスが、キーとして使用され得、それによって、モバイル通信データのそのアイテムは、第2の場所で(例えば、第2のビデオカメラ110またはアンテナ150によって)捕捉されたモバイル通信データの別のアイテムと相関されることができる。キーの例示的タイプは、限定ではないが、コレクタ/ビーコンの識別子(例えば、ビデオデータまたはモバイル通信デバイスデータのアイテムを捕捉した特定のビデオカメラ110またはアンテナ150の一意の識別子)、モバイルデバイス440から捕捉されたモバイル通信デバイスデータ内に含まれるモバイル通信デバイスアドレス(例えば、Wi−Fiアドレス、Bluetooth(登録商標)アドレス、NFCアドレス、RFIDアドレス、セルラーアドレス、GPSデバイスアドレス、MACアドレス、移動加入者識別番号(IMSI)識別子、および/または任意の他の好適なアドレスまたは識別子)、モバイルデバイス440から捕捉されたモバイル通信デバイスデータの信号強度、ビデオデータまたはモバイル通信デバイスデータのアイテムが捕捉される日付、ビデオデータまたはモバイル通信デバイスデータのアイテムが捕捉される時間、ビデオデータまたはモバイル通信デバイスデータのアイテムが捕捉される場所、それによってモバイル通信デバイスデータのアイテムが捕捉される媒体(例えば、特定の無線通信プロトコル)、および/または同等物を含む。ブロック904において利用されるキーおよび方法900のステップから捕捉、生成、または別様にもたらされる任意の他のデータは、既知の様式で1つまたはそれを上回る好適な暗号化アルゴリズムを使用して暗号化されることができる。   The one or more keys utilized in block 904 may include any one or combination of attributes included in the item of video data or mobile communication device data, which is video It can be used to identify items of data or mobile communication device data and / or to correlate multiple items of video data and / or mobile communication device data as interrelated. For example, a human face image contained within an item of video data captured on a first date and time may be used as a key so that that item of video data is captured on a second date and time Can be correlated with another item of video data. As another example, an IP address included in an item of mobile communication data captured at a first location (eg, by the first video camera 110 or antenna 150) may be used as a key, thereby That item of mobile communication data can be correlated with another item of mobile communication data captured at a second location (eg, by the second video camera 110 or antenna 150). Exemplary types of keys include, but are not limited to, a collector / beacon identifier (eg, a unique identifier for a particular video camera 110 or antenna 150 that captured an item of video data or mobile communication device data), from a mobile device 440 Mobile communication device address (eg, Wi-Fi address, Bluetooth (registered trademark) address, NFC address, RFID address, cellular address, GPS device address, MAC address, mobile subscriber identification included in the captured mobile communication device data Number (IMSI) identifier, and / or any other suitable address or identifier), signal strength of mobile communication device data captured from mobile device 440, video data or mobile communication device The date when the item of data is captured, the time when the item of video data or mobile communication device data is captured, the location where the item of video data or mobile communication device data is captured, thereby capturing the item of mobile communication device data Media (e.g., certain wireless communication protocols) and / or the like. The key utilized in block 904 and any other data that is captured, generated, or otherwise derived from the steps of method 900 is encrypted using one or more suitable encryption algorithms in a known manner. Can be

ブロック906において、ブロック904において生成されたプロファイルデータは、1つまたはそれを上回る正規化基準に基づいて正規化される。例えば、プロファイルデータは、(1)人物が特定の場所(例えば、それによってビデオデータおよび/またはモバイル通信データがブロック902において捕捉された、1つまたはそれを上回るカメラ110およびアンテナ150を有する店舗の場所)を訪問した回数、(2)人物が特定の場所に留まった時間の持続時間、および/または(3)人物が特定の場所を訪問した頻度またはその繰り返し率に基づいて正規化されることができる。これは、リピート顧客、強盗を犯す前に店舗を下見する犯罪者、および/または同等物を識別するために有用であり得る。   At block 906, the profile data generated at block 904 is normalized based on one or more normalization criteria. For example, the profile data may include (1) a store where one person has one or more cameras 110 and antennas 150 where a particular location (eg, video data and / or mobile communication data was captured in block 902). Normalized) based on the number of visits to (location), (2) the duration of time that a person stayed at a particular location, and / or (3) the frequency at which the person visited a particular location or its repetition rate Can do. This can be useful for identifying repeat customers, criminals who pretend to be a store before committing a burglary, and / or the like.

ブロック908において、ブロック904において生成され、ブロック906において正規化されたプロファイルデータが、経時的にプロファイル/人物毎に集約されたデータに基づいて、個別のプロファイルに関して生成された1つまたはそれを上回る属性を含むように更新される。そのような属性の実施例は、人物が、再来店した買い物客、初めての買い物客、従業員、(例えば、ある場所における非常に短い滞在持続時間によって、例えば、人物が、単に、店舗を通り過ぎるが、店舗に位置するカメラ110および/またはアンテナ150の範囲内を通り過ぎる場合に判定されるような)通行人であるか、人物が、その人物のビデオデータおよび/またはモバイル通信データが捕捉された特定の小売業者の他の場所で買い物をするかどうか、人物が、店舗に位置する間に従業員に関与したかどうか、および/または同等物を含み得る。ブロック908後、方法900は、上記に説明されるようにビデオデータおよび/またはモバイル通信デバイスデータを連続的に保続するように、ブロック902に戻ることができる。   At block 908, the profile data generated at block 904 and normalized at block 906 is one or more generated for individual profiles based on data aggregated per profile / person over time. Updated to include attributes. Examples of such attributes are that a person may have returned to the store, a first-time shopper, an employee (eg, with a very short duration of stay in a location, for example, the person may simply pass the store Is a passerby (as determined when passing within the camera 110 and / or antenna 150 located at the store), or the person's video data and / or mobile communication data has been captured May include whether to shop elsewhere in a particular retailer, whether a person was involved with an employee while located in a store, and / or the equivalent. After block 908, the method 900 may return to block 902 to continuously maintain video data and / or mobile communication device data as described above.

上記に説明されるように、方法900の種々のステップから捕捉、生成、または別様にもたらされるデータは、セキュリティおよび/または調査目的(例えば、店舗における強盗後)のために、マーケティング目的のために、および/または多くの他の目的のために利用されることができる。例えば、データは、1つまたはそれを上回る前向きな、または内密の用途において(例えば、犯罪調査目的のために仮想ラインナップを生成するために、祝日買い物シーズン等、事前判定された事象と関連した売上またはマーケティングデータの分析を可能にするために、遭遇した売上の真の顧客転換率を算出するために、顧客滞在統計を分析するために、店舗内の区画における実際の売上履歴に基づいて、ヒートマップを生成するために、複数のカメラ110および/またはアンテナ150から捕捉されたデータに基づいて、ユーザが通る経路を生成するために、店舗の閉店時間後にその店舗内に留まる人物を識別するために、および/または同等物のために)利用されることができる。   As described above, data captured, generated, or otherwise resulting from the various steps of method 900 may be used for security and / or research purposes (eg, after a burglary in a store), for marketing purposes. And / or for many other purposes. For example, the data may include sales associated with a pre-determined event, such as a holiday shopping season, for example, to generate a virtual lineup for criminal investigation purposes in one or more positive or confidential applications. Or, based on the actual sales history in the parcels in the store, to analyze customer stay statistics, to calculate the true customer conversion rate of sales encountered, to enable analysis of marketing data Based on data captured from multiple cameras 110 and / or antennas 150 to generate a map, to identify a person who stays in the store after the store's closing time to generate a route through which the user passes And / or for the equivalent).

種々の変更が、本開示の範囲から逸脱することなく、上記の構造において成され得るため、上記の説明内に含有される全ての事項は、限定的意味ではなく、例証として解釈されるものとするように意図される。以下の請求項の範囲によって定義されるように、本開示のいくつかの目的が、達成され、他の有利な結果が、成し遂げられることが分かるであろう。   Since various changes may be made in the above structure without departing from the scope of the present disclosure, all matters contained within the above description are to be construed as illustrative rather than limiting. Is intended to be. It will be appreciated that certain objects of the disclosure are achieved and other advantageous results are achieved, as defined by the scope of the following claims.

Claims (22)

分析認識システムであって、
ビデオデータを捕捉するように構成される、ビデオカメラと、
モバイル通信デバイスデータを捕捉するように構成される、アンテナと、
前記ビデオデータおよび前記モバイル通信デバイスデータを相関させ、前記ビデオデータおよび前記モバイル通信デバイスデータと関連付けられる人物のプロファイルを生成するように構成されたデータ分析モジュールであって、前記プロファイルは、前記捕捉されたビデオデータおよび前記捕捉されたモバイル通信データのうちのいずれか1つまたはそれらの組み合わせを含む、プロファイルデータを含む、データ分析モジュールと
を備える、システム。
An analysis recognition system,
A video camera configured to capture video data;
An antenna configured to capture mobile communication device data;
A data analysis module configured to correlate the video data and the mobile communication device data to generate a profile of a person associated with the video data and the mobile communication device data, wherein the profile is captured And a data analysis module comprising profile data comprising any one or a combination of said captured video data and said captured mobile communication data.
前記データ分析モジュールは、
前記ビデオデータおよび前記モバイル通信デバイスデータのうちのいずれか1つまたはそれらの組み合わせに基づいて、ある場所における前記人物の到着時間および前記場所における前記人物の出発時間のうちのいずれか1つまたはそれらの組み合わせを判定することと、
前記到着時間および前記出発時間のうちのいずれか1つまたはそれらの組み合わせに基づいて、前記ビデオデータおよび前記モバイル通信デバイスデータを相関させることと
を行うように構成される、請求項1に記載のシステム。
The data analysis module includes:
One or more of the person's arrival time at a location and the person's departure time at the location based on any one or combination of the video data and the mobile communication device data Determining the combination of
The correlation of the video data and the mobile communication device data based on any one of or a combination of the arrival time and the departure time. system.
前記ビデオカメラは、前記システム内に含まれ、複数のビデオデータを捕捉するように構成される、複数のビデオカメラのうちの1つであり、前記アンテナは、前記システム内に含まれ、複数のモバイル通信デバイスデータを捕捉するように構成される、複数のアンテナのうちの1つであり、
前記データ分析モジュールはさらに、
前記複数のビデオデータおよび前記複数のモバイル通信デバイスデータを相関させ、前記複数のビデオデータおよび前記複数のモバイル通信デバイスデータとそれぞれ関連付けられる、複数の人物の複数のプロファイルを生成すること
を行うように構成される、請求項1に記載のシステム。
The video camera is one of a plurality of video cameras included in the system and configured to capture a plurality of video data, and the antenna is included in the system and includes a plurality of One of a plurality of antennas configured to capture mobile communication device data;
The data analysis module further includes:
Correlating the plurality of video data and the plurality of mobile communication device data to generate a plurality of profiles of a plurality of persons associated with the plurality of video data and the plurality of mobile communication device data, respectively. The system of claim 1, configured.
前記複数のビデオカメラおよび前記複数のアンテナは、複数の施設に位置する、請求項3に記載のシステム。   The system of claim 3, wherein the plurality of video cameras and the plurality of antennas are located at a plurality of facilities. ユーザ入力された基準に基づいて、前記複数のプロファイルがマイニングされることを可能にするように構成される、ユーザインターフェースをさらに備える、請求項4に記載のシステム。   The system of claim 4, further comprising a user interface configured to allow the plurality of profiles to be mined based on user input criteria. 前記複数のアンテナのうちの少なくとも1つは、前記複数のビデオカメラのうちの少なくとも1つに添着され、前記複数のアンテナのうちの少なくとも1つは、前記複数のカメラから遠隔に位置する、請求項3に記載のシステム。   At least one of the plurality of antennas is attached to at least one of the plurality of video cameras, and at least one of the plurality of antennas is remotely located from the plurality of cameras. Item 4. The system according to Item 3. 前記プロファイルは、前記捕捉されたビデオデータ、前記捕捉されたモバイル通信デバイスデータ、前記捕捉されたビデオデータまたは前記捕捉されたモバイル通信デバイスデータと関連付けられる時間データ、および前記捕捉されたビデオデータまたは前記捕捉されたモバイル通信デバイスデータと関連付けられる場所データのうちのいずれか1つまたはそれらの組み合わせを含み、
前記捕捉されたビデオデータは、捕捉された静止画像およびビデオ映像のうちのいずれか1つまたはそれらの組み合わせを含み、
前記モバイル通信デバイスデータは、前記アンテナと通信するモバイル通信デバイスと関連付けられる、WiFi識別子、媒体アクセス制御(MAC)識別子、Bluetooth識別子、セルラー識別子、近距離無線通信識別子、および無線周波数識別子のうちのいずれか1つまたはそれらの組み合わせを含み、
前記時間データは、前記ビデオデータが捕捉される時間および前記モバイル通信デバイスデータが捕捉される時間のうちのいずれか1つまたはそれらの組み合わせを含み、
前記場所データは、前記ビデオデータが捕捉される場所および前記モバイル通信デバイスデータが捕捉される場所のうちのいずれか1つまたはそれらの組み合わせを含む、
請求項1に記載のシステム。
The profile includes the captured video data, the captured mobile communication device data, the captured video data or time data associated with the captured mobile communication device data, and the captured video data or the Including any one or a combination of location data associated with captured mobile communication device data;
The captured video data includes any one or combination of captured still images and video images,
The mobile communication device data is any of a WiFi identifier, a medium access control (MAC) identifier, a Bluetooth identifier, a cellular identifier, a near field communication identifier, and a radio frequency identifier associated with a mobile communication device that communicates with the antenna. Including one or a combination thereof,
The temporal data includes any one or a combination of the time at which the video data is captured and the time at which the mobile communication device data is captured;
The location data includes any one or a combination of where the video data is captured and where the mobile communication device data is captured.
The system of claim 1.
前記データ分析モジュールはさらに、前記相関されたビデオデータおよびモバイル通信デバイスデータに基づいて、前記プロファイルに、ある施設への前記人物の訪問回数および前記施設への前記人物の訪問頻度のうちのいずれか1つまたはそれらの組み合わせを追加するように構成される、請求項1に記載のシステム。   The data analysis module may further include, based on the correlated video data and mobile communication device data, in the profile, the person's visit frequency to a facility and the person's visit frequency to the facility. The system of claim 1, configured to add one or a combination thereof. 前記データ分析モジュールはさらに、第1のソースからのデータと、前記捕捉されたビデオデータ、前記捕捉されたモバイル通信デバイスデータ、前記相関されたビデオデータおよびモバイル通信デバイスデータ、および前記プロファイルのうちのいずれか1つまたはそれらの組み合わせとの間の比較に基づいて、前記人物を識別するように構成され、前記第1のソースは、非政府データベース、政府データベース、および1つまたはそれを上回る以前に生成されたプロファイルのうちのいずれか1つまたはそれらの組み合わせを含む、請求項1に記載のシステム。   The data analysis module further includes: data from a first source and the captured video data, the captured mobile communication device data, the correlated video data and mobile communication device data, and the profile Configured to identify the person based on a comparison between any one or combination thereof, wherein the first source is a non-government database, a government database, and one or more previous The system of claim 1, comprising any one of the generated profiles or a combination thereof. 調査基準を受信し、前記基準に基づいて、前記ビデオデータ、前記モバイル通信デバイスデータ、および前記プロファイルデータのうちのいずれか1つまたはそれらの組み合わせをマイニングするように構成される、調査モジュールをさらに備える、請求項1に記載のシステム。   A survey module configured to receive survey criteria and to mine any one or combination of the video data, the mobile communication device data, and the profile data based on the criteria The system of claim 1, comprising: 前記調査基準は、時間フレームを含み、前記調査モジュールはさらに、その存在が前記時間フレーム中にある施設で検出された人物のリストを生成するように構成される、請求項10に記載のシステム。   11. The system of claim 10, wherein the survey criteria includes a time frame, and the survey module is further configured to generate a list of persons whose presence was detected at a facility that is in the time frame. 前記調査モジュールはさらに、第1の場所において取得された前記モバイル通信デバイスデータと合致する信号を検出することによって、前記人物の現在の場所を判定するように構成される、請求項10に記載のシステム。   The survey module of claim 10, wherein the survey module is further configured to determine a current location of the person by detecting a signal that matches the mobile communication device data obtained at a first location. system. 前記アンテナは、WiFiアンテナ、媒体アクセス制御(MAC)アンテナ、Bluetoothアンテナ、セルラーアンテナ、近距離無線通信アンテナ、および無線周波数識別アンテナのうちのいずれか1つまたはそれらの組み合わせを含む、請求項1に記載のシステム。   2. The antenna of claim 1, wherein the antenna includes any one or combination of a WiFi antenna, a medium access control (MAC) antenna, a Bluetooth antenna, a cellular antenna, a near field communication antenna, and a radio frequency identification antenna. The described system. 前記データ分析モジュールはさらに、前記ビデオデータ、前記モバイル通信デバイスデータ、前記プロファイルデータ、およびユーザ入力された基準のうちのいずれか1つまたはそれらの組み合わせに基づいて、前記人物をポジティブリスト、未判定リスト、またはネガティブリストに割り当てるように構成される、請求項1に記載のシステム。   The data analysis module is further configured to positively identify the person based on any one or combination of the video data, the mobile communication device data, the profile data, and user-entered criteria, The system of claim 1, configured to assign to a list, or negative list. 前記データ分析モジュールはさらに、前記ビデオデータ、前記モバイル通信デバイスデータ、および前記プロファイルのうちのいずれか1つまたはそれらの組み合わせが、従業員または事前判定された人物のリスト上の人物に対応するという判定に基づいて、前記人物を前記ポジティブリストに割り当てるように構成される、請求項14に記載のシステム。   The data analysis module further states that any one or combination of the video data, the mobile communication device data, and the profile corresponds to an employee or a person on a list of pre-determined persons. The system of claim 14, wherein the system is configured to assign the person to the positive list based on a determination. 前記アンテナは、前記アンテナの範囲内に位置するモバイル通信デバイスからデータを無線で受信することによって、前記モバイル通信デバイスデータを捕捉するように構成される、請求項1に記載のシステム。   The system of claim 1, wherein the antenna is configured to capture the mobile communication device data by receiving data wirelessly from mobile communication devices located within the antenna. 前記データ分析モジュールはさらに、前記人物の挙動を検出し、前記挙動に対応する挙動データを前記プロファイル内に記憶するように構成される、請求項1に記載のシステム。   The system of claim 1, wherein the data analysis module is further configured to detect a behavior of the person and store behavior data corresponding to the behavior in the profile. 前記データ分析モジュールは、前記ビデオデータおよび前記モバイル通信デバイスデータのうちのいずれか1つまたはそれらの組み合わせから挙動情報を抽出することによって、前記人物の挙動を検出するように構成され、
前記挙動は、ある方向を見ること、商品アイテムに手を伸ばすこと、前記商品アイテムを購入すること、前記施設において経路に沿って進行すること、前記施設における通路または場所を訪問すること、前記施設においてある時間量を費やすこと、前記施設における前記場所においてある時間量を費やすこと、およびいくつかの別個の事例にわたって前記施設を訪問することのうちのいずれか1つまたはそれらの組み合わせを含む、
請求項17に記載のシステム。
The data analysis module is configured to detect the person's behavior by extracting behavior information from any one or combination of the video data and the mobile communication device data;
The behavior includes looking at a direction, reaching for a product item, purchasing the product item, traveling along a route at the facility, visiting a passage or place at the facility, the facility Any one or a combination of spending a certain amount of time at the facility, spending a certain amount of time at the location at the facility, and visiting the facility over several separate cases,
The system of claim 17.
前記データ分析モジュールは、前記プロファイル内に記憶された施設訪問データに基づいて、前記人物を前記施設における新規顧客またはリピート顧客として分類し、前記人物が前記施設における新規顧客であるか、またはリピート顧客であるかのインジケータを前記プロファイルに追加する、または前記プロファイル内で更新するように構成される、請求項18に記載のシステム。   The data analysis module classifies the person as a new customer or repeat customer at the facility based on facility visit data stored in the profile, and the person is a new customer at the facility or a repeat customer. The system of claim 18, wherein the system is configured to add to or update in the profile. 前記データ分析モジュールは、前記ビデオデータ、前記モバイル通信デバイスデータ、および前記プロファイルデータのうちのいずれか1つまたはそれらの組み合わせを、施設における通路場所のマッピング、前記施設における商品場所のマッピング、および前記施設における棚場所のマッピングのうちのいずれか1つまたはそれらの組み合わせと相関させることによって、前記人物の挙動を検出するように構成される、請求項17に記載のシステム。   The data analysis module is configured to convert any one or a combination of the video data, the mobile communication device data, and the profile data, a passage location mapping in a facility, a product location mapping in the facility, and the The system of claim 17, configured to detect the person's behavior by correlating with any one or a combination of shelf location mappings at a facility. 調査モジュールであって、
報告基準に基づいて、前記ビデオデータ、前記モバイル通信デバイスデータ、前記プロファイルデータ、および売上データのうちのいずれか1つまたはそれらの組み合わせをマイニングすることと、
前記ビデオデータ、前記モバイル通信デバイスデータ、および前記プロファイルデータのうちのいずれか1つまたはそれらの組み合わせのマイニングに基づいて、報告を生成することと
を行うように構成されており、
前記報告は、商品アイテム、商品カテゴリ、前記施設における通路、前記施設における棚、または前記施設における事前判定された場所のうちのいずれか1つまたはそれらの組み合わせに対応する販売成約率を含む、調査モジュール
をさらに備える、請求項20に記載のシステム。
A survey module,
Mining any one or combination of the video data, the mobile communication device data, the profile data, and sales data based on reporting criteria;
Generating a report based on the mining of any one or a combination of the video data, the mobile communication device data, and the profile data, and
The report includes a sale close rate corresponding to any one or combination of product items, product categories, aisles at the facility, shelves at the facility, or pre-determined locations at the facility. The system of claim 20, further comprising a module.
前記データ分析モジュールはさらに、
前記ビデオデータおよび前記モバイル通信デバイスデータのうちのいずれか1つまたはそれらの組み合わせに基づいて、前記挙動に対応する場所データを生成することと、
前記挙動データと関連して前記プロファイル内に前記場所データを記憶することと
を行うように構成される、請求項17に記載のシステム。
The data analysis module further includes:
Generating location data corresponding to the behavior based on any one or a combination of the video data and the mobile communication device data;
The system of claim 17, wherein the system is configured to: store the location data in the profile in association with the behavior data.
JP2018526490A 2015-08-04 2016-08-03 Video identification and analysis recognition system Active JP6807925B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/817,871 2015-08-04
US14/817,871 US9762865B2 (en) 2013-03-15 2015-08-04 Video identification and analytical recognition system
PCT/US2016/045371 WO2017024045A1 (en) 2015-08-04 2016-08-03 Video identification and analytical recognition system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020175258A Division JP2021010187A (en) 2015-08-04 2020-10-19 Video identification and analytical recognition system

Publications (2)

Publication Number Publication Date
JP2018526945A true JP2018526945A (en) 2018-09-13
JP6807925B2 JP6807925B2 (en) 2021-01-06

Family

ID=57944114

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018526490A Active JP6807925B2 (en) 2015-08-04 2016-08-03 Video identification and analysis recognition system
JP2020175258A Withdrawn JP2021010187A (en) 2015-08-04 2020-10-19 Video identification and analytical recognition system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020175258A Withdrawn JP2021010187A (en) 2015-08-04 2020-10-19 Video identification and analytical recognition system

Country Status (5)

Country Link
EP (1) EP3332549A4 (en)
JP (2) JP6807925B2 (en)
CA (1) CA2994712A1 (en)
RU (1) RU2720947C2 (en)
WO (1) WO2017024045A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195992A (en) * 2017-05-18 2018-12-06 パナソニック株式会社 Person group tracking device and person group tracking method
JP2022519150A (en) * 2019-12-31 2022-03-22 北京市商▲湯▼科技▲開▼▲發▼有限公司 State recognition methods, devices, electronic devices, and recording media

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3489842A1 (en) * 2017-11-23 2019-05-29 PKE Holding AG Forensic database
JP7210163B2 (en) * 2018-06-07 2023-01-23 キヤノン株式会社 Image processing device, image processing method and program
CN111191669A (en) * 2018-11-15 2020-05-22 中国移动通信集团黑龙江有限公司 Data processing method, device and storage medium
CN111294728A (en) * 2018-12-06 2020-06-16 西安光启未来技术研究院 Method and device for analyzing same lines
CN111507140B (en) * 2019-01-31 2023-08-08 金联汇通信息技术有限公司 Portrait contrast method, system, electronic device and readable storage medium
CN111126167B (en) * 2019-12-02 2023-08-04 武汉虹信技术服务有限责任公司 Method and system for quickly identifying serial activities of multiple specific personnel

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005511A (en) * 2002-03-26 2004-01-08 Toshiba Corp Monitoring system, monitoring method and monitoring program
JP2008204079A (en) * 2007-02-19 2008-09-04 Matsushita Electric Ind Co Ltd Action history search apparatus and action history search method
US20120127314A1 (en) * 2010-11-19 2012-05-24 Sensormatic Electronics, LLC Item identification using video recognition to supplement bar code or rfid information
JP2013513336A (en) * 2009-12-08 2013-04-18 トゥルーポジション・インコーポレーテッド Multi-sensor localization and identification

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8047022B2 (en) * 2007-05-16 2011-11-01 Owens-Brockway Glass Container Inc. Apparatus for opening and closing molds in a glassware forming machine
RU2382408C2 (en) * 2007-09-13 2010-02-20 Институт прикладной физики РАН Method and system for identifying person from facial image
TWI506565B (en) * 2008-03-03 2015-11-01 Avo Usa Holding 2 Corp Dynamic object classification
US20090268030A1 (en) * 2008-04-29 2009-10-29 Honeywell International Inc. Integrated video surveillance and cell phone tracking system
WO2011001180A1 (en) * 2009-07-01 2011-01-06 E-Plate Limited Video acquisition and compilation system and method of assembling and distributing a composite video
US8819172B2 (en) * 2010-11-04 2014-08-26 Digimarc Corporation Smartphone-based methods and systems
AU2009243442B2 (en) * 2009-11-30 2013-06-13 Canon Kabushiki Kaisha Detection of abnormal behaviour in video objects
US8615254B2 (en) * 2010-08-18 2013-12-24 Nearbuy Systems, Inc. Target localization utilizing wireless and camera sensor fusion
JP2012069023A (en) * 2010-09-27 2012-04-05 Hitachi Ltd Abnormality detection device
US9317860B2 (en) * 2011-03-08 2016-04-19 Bank Of America Corporation Collective network of augmented reality users
US9854208B2 (en) * 2013-12-29 2017-12-26 Qognify Ltd. System and method for detecting an object of interest

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005511A (en) * 2002-03-26 2004-01-08 Toshiba Corp Monitoring system, monitoring method and monitoring program
JP2008204079A (en) * 2007-02-19 2008-09-04 Matsushita Electric Ind Co Ltd Action history search apparatus and action history search method
JP2013513336A (en) * 2009-12-08 2013-04-18 トゥルーポジション・インコーポレーテッド Multi-sensor localization and identification
US20120127314A1 (en) * 2010-11-19 2012-05-24 Sensormatic Electronics, LLC Item identification using video recognition to supplement bar code or rfid information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195992A (en) * 2017-05-18 2018-12-06 パナソニック株式会社 Person group tracking device and person group tracking method
JP2022519150A (en) * 2019-12-31 2022-03-22 北京市商▲湯▼科技▲開▼▲發▼有限公司 State recognition methods, devices, electronic devices, and recording media

Also Published As

Publication number Publication date
JP2021010187A (en) 2021-01-28
WO2017024045A1 (en) 2017-02-09
JP6807925B2 (en) 2021-01-06
RU2018104654A (en) 2019-09-05
CA2994712A1 (en) 2017-02-09
EP3332549A1 (en) 2018-06-13
RU2720947C2 (en) 2020-05-15
EP3332549A4 (en) 2018-08-08
RU2018104654A3 (en) 2019-10-14

Similar Documents

Publication Publication Date Title
US11869325B2 (en) Video identification and analytical recognition system
US11587326B2 (en) Video identification and analytical recognition system
US10432897B2 (en) Video identification and analytical recognition system
US11743431B2 (en) Video identification and analytical recognition system
JP6807925B2 (en) Video identification and analysis recognition system
US11881090B2 (en) Investigation generation in an observation and surveillance system
EP3683757A1 (en) Investigation generation in an observation and surveillance system
US20240144799A1 (en) Video identification and analytical recognition system
Bouma et al. Integrated roadmap for the rapid finding and tracking of people at large airports
US20220269890A1 (en) Method and system for visual analysis and assessment of customer interaction at a scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201208

R150 Certificate of patent or registration of utility model

Ref document number: 6807925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250