JP2018510537A - サーベイランス - Google Patents
サーベイランス Download PDFInfo
- Publication number
- JP2018510537A JP2018510537A JP2017540151A JP2017540151A JP2018510537A JP 2018510537 A JP2018510537 A JP 2018510537A JP 2017540151 A JP2017540151 A JP 2017540151A JP 2017540151 A JP2017540151 A JP 2017540151A JP 2018510537 A JP2018510537 A JP 2018510537A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- message
- presentation
- user
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 54
- 230000004044 response Effects 0.000 claims abstract description 27
- 230000009471 action Effects 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 40
- 230000000694 effects Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 15
- 230000008672 reprogramming Effects 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 description 30
- 238000004590 computer program Methods 0.000 description 25
- 238000012544 monitoring process Methods 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000002730 additional effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000012732 spatial analysis Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000036962 time dependent Effects 0.000 description 3
- 206010000117 Abnormal behaviour Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004851 dishwashing Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005461 lubrication Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/814—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Social Psychology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Emergency Management (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Marketing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Burglar Alarm Systems (AREA)
Abstract
Description
コンピュータ・プログラム・コードを含む少なくとも1つのメモリ、
を含む装置において、少なくとも1つのメモリおよびコンピュータ・プログラム・コードが、少なくとも1つのプロセッサを用いて、装置に、少なくとも請求項1ないし14のいずれか1項に記載の方法を行なわせるように構成されている、装置が提供されている。ただし、それらに限られるものではない。
以下のものの1つ以上を行なうためにマシン(コンピュータ)ビジョンを使用する。
(移動するまたは静止した)オブジェクトまたは人を検出すること、
(移動するまたは静止した)オブジェクトまたは人を分類すること、
(移動するまたは静止した)オブジェクトまたは人を追跡すること、
以下のものの1つ以上を行なうために空間解析を使用する。
深度決定を用いてシーン空間内に(移動するまたは静止した)オブジェクトを位置付けること、および/または、
シーン空間のマップを作成すること、および/または
潜在的に意味のあるシンボルとしてシーン140内に発生する事象を描写するために挙動解析を使用する。
(a)ハードウェア専用回路実装(例えばアナログおよび/またはデジタル回路のみでの実装)および
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(該当する場合)、(i)プロセッサの組合せ、または(ii)モバイル・フォンまたはサーバーなどの装置にさまざまな機能を行なわせるために協働するプロセッサ/ソフトウェア(デジタル信号プロセッサを含む)ソフトウェアの一部分、ソフトウェアおよびメモリ、および
(c)たとえソフトウェアまたはファームウェアが物理的に存在しなくても、動作のためにソフトウェアまたはファームウェアを必要とするマイクロプロセッサまたはマイクロプロセッサの一部分などの回路。
図5Aおよび5Bは、前述の状態マシン200がユーザーによって、および詳細にはシーン140内でのユーザー・アクションによっていかにプログラミングされ得るかを例示している。図5Aは、状態マシン200のための新しい応答状態230(提示状態232)を作成するために新しいユーザー制御状態220(メッセージング状態222)を使用するプロセスを例示している。図5Bは、監視状態210から新しい提示状態232へと移行し213、結び付けられた提示アクションを行なうプロセスを例示している。
再び図5Aを参照すると、監視状態210において、センサー110は、センサー・データ112を提供し、処理サブモジュール124は、潜在的意味を有するシーン・データを作成するためにセンサー・データ112(映像および/または音響および/または深度データ)を自動的に処理する。認識サブモジュール126はシーン・データを自動的に処理する。
メッセージング状態222において、ユーザーは、シーン140内でアクションを行なうことにより、新しい「応答事象」(提示事象)および対応する新たな応答シンボル(提示シンボル)を定義し、図5Bに例示されているように、状態マシン200内で新しい応答状態(提示状態232)を作成することができる。
シーン140内のオブジェクトまたは人の存在、
シーン140内のオブジェクトまたは人の特定の分類または識別、
シーン140内のオブジェクトまたは人の特定の追跡、
シーン140内のオブジェクトまたは人の特定の位置付け、
シーン空間の特定の深さマップ、および/または
シーン140内で発生する事象を描写する特定の決定されたシンボル、
のうちの1つ以上を含むことができる。
メッセージング・状態222において、ユーザーは、シーン140内で追加のアクションを行なうことによって、新しい提示状態232と結び付けられた応答アクション(提示アクション)を定義する能力を有することができる。
再び図5Aを参照すると、メッセージング状態222から監視状態210に戻る移行212は、多くの方法で発生することができる。いくつかの実施例において、それは、ユーザーが新しい提示状態232の作成およびその新しい状態232へと移行するための提示事象を制御した後に自動的に発生することができ、または可聴事象などのユーザー・アクションに応答して発生することができる。他の実施例においては、それは、提示状態232と結び付けられた提示アクション(メッセージ170および/または物理ロケーション180)をユーザーが付加的にプログラミングした後に、自動的に発生することができる。
図5Bを参照すると、前述のように、監視状態210において、センサー110は、センサー・データ112を提供し、処理サブモジュール124は、潜在的意味を有するシーン・データを作成するためにセンサー・データ112(映像および/または音響および/または深度データ)を自動的に処理する。認識サブモジュール126は、シーン・データ内の実際の意味のある事象を識別するため、シーン・データを自動的に処理する。意味のある事象が、例えば「提示」事象である場合には、状態マシン200は提示状態232へと移行213し、制御サブモジュール128は、該提示状態232と結び付けられた提示アクションを行なう。
Claims (15)
- 1つ以上の提示基準およびシーン内の物理ロケーションとメッセージを結び付けるステップと、
前記1つ以上の提示基準の充足を自動的に認識するために前記シーンからの記録された第1のセンサー・データを自動的に処理するステップと、
前記1つ以上の提示基準の充足の認識に応答して、
前記物理ロケーションにおける前記シーン内への前記メッセージの自動的提示、
を可能にするために、提示状態を入力するステップと、
を含む方法。 - 前記1つ以上の提示基準は少なくとも1つの人特定的提示基準を含み、前記1つ以上の提示基準の充足を自動的に認識するために前記シーンからの記録された第1のセンサー・データを処理するステップは、前記シーン内の特定の人を自動的に認識するために前記シーンからの記録された第1のセンサー・データを処理するステップを含む、請求項1に記載の方法。
- 前記1つ以上の提示基準は少なくとも1つの挙動特定的提示基準を含み、前記1つ以上の提示基準の充足を自動的に認識するために前記シーンからの記録された第1のセンサー・データを処理するステップは、前記シーン内の特定の挙動を自動的に認識するために、前記シーンから記録された第1のセンサー・データを処理するステップを含む、請求項1ないし2のいずれか1項に記載の方法。
- 前記1つ以上の提示基準は、
前記シーン内のオブジェクトまたは人の存在、
前記シーン内のオブジェクトまたは人の特定の分類または識別、
前記シーン内のオブジェクトまたは人の特定の追跡、
前記シーン内のオブジェクトまたは人の特定の位置付け、
前記シーン空間の特定の深さマップ、および/または
前記シーン内で発生する事象を描写する特定の決定されたシンボル、
のうちの1つ以上を含む、請求項1ないし3のいずれか1項に記載の方法。 - 前記1つ以上の提示基準は、日付、時刻、遅延、持続時間のうちの1つ以上を特定する時間基準を含む、請求項1ないし4のいずれか1項に記載の方法。
- 1つ以上の提示基準、
物理ロケーション、
メッセージ構成、
のうちの1つ以上をユーザー・プログラミングがプログラミングできるようにするために、前記シーン内のユーザー・アクションに関する前記シーンからの記録されたセンサー・データを自動的に処理するステップ、
を含む、請求項1ないし5のいずれか1項に記載の方法。 - 前記ユーザー・アクションは発話を含み、前記記録されたセンサー・データの処理ステップは発話認識処理を含む、請求項6に記載の方法。
- 前記ユーザー・アクション中の前記ユーザーのロケーション、前記メッセージのコンテンツ、
のうちの1つ以上に基づいて前記シーン内の前記物理ロケーションを決定するステップを含む、請求項6または7に記載の方法。 - 前記少なくとも1つの提示基準の充足を自動的に認識するために前記シーンからの前記記録された第1のセンサー・データを自動的に処理するときに使用される、
前記1つ以上の提示基準のいくつかまたは全てとして選択するための1つ以上の提示基準をユーザーに対して提案するステップを含む、請求項1ないし8のいずれか1項に記載の方法。 - 提案される提示基準は、
前記ユーザーの物理ロケーション、
一般に前記シーン内、または前記シーン内でユーザー・アクションを行なうユーザーのロケーションにいる、1人または複数の人、および
前記メッセージのコンテンツ、
のうちの1つ以上に基づいて決定される、請求項1ないし9のいずれか1項に記載の方法。 - 前記メッセージの構成を可能にするために前記シーンからの記録されたセンサー・データを処理するステップを含む、請求項1ないし10のいずれか1項に記載の方法。
- 1つ以上の提示基準、
前記物理ロケーション、
前記メッセージ構成、
のうちの1つ以上の定義を可能にすることを目的としてメッセージング状態の自動入力を可能にするため、前記シーンからの記録されたセンサー・データを自動的に処理するステップ、
を含む、請求項1ないし11のいずれか1項に記載の方法。 - 前記物理ロケーションにおける前記シーン内への前記メッセージの提示は、前記物理ロケーションにおいてディスプレイからの前記メッセージを表示するステップおよび/または前記物理ロケーションにおいて表面上に前記メッセージを投影するステップを含む、請求項1ないし12のいずれか1項に記載の方法。
- 1つ以上の提示基準、
前記物理ロケーション、
前記メッセージ構成、
のうちの1つ以上の前記シーン内におけるアクティビティの結果としての再プログラミングを可能にするステップを含む、請求項1ないし13のいずれか1項に記載の方法。 - 請求項1ないし14のいずれか1項に記載の方法を行なうための手段を備えた装置またはシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15153375.9 | 2015-01-30 | ||
EP15153375.9A EP3051810B1 (en) | 2015-01-30 | 2015-01-30 | Surveillance |
PCT/FI2016/050025 WO2016120520A1 (en) | 2015-01-30 | 2016-01-20 | Surveillance |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018510537A true JP2018510537A (ja) | 2018-04-12 |
JP6568224B2 JP6568224B2 (ja) | 2019-08-28 |
Family
ID=52464175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017540151A Active JP6568224B2 (ja) | 2015-01-30 | 2016-01-20 | サーベイランス |
Country Status (7)
Country | Link |
---|---|
US (1) | US10936880B2 (ja) |
EP (1) | EP3051810B1 (ja) |
JP (1) | JP6568224B2 (ja) |
CN (1) | CN107211113B (ja) |
MX (1) | MX2017009797A (ja) |
WO (1) | WO2016120520A1 (ja) |
ZA (1) | ZA201705736B (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3051810B1 (en) | 2015-01-30 | 2021-06-30 | Nokia Technologies Oy | Surveillance |
US10547658B2 (en) * | 2017-03-23 | 2020-01-28 | Cognant Llc | System and method for managing content presentation on client devices |
US11004567B2 (en) | 2017-08-15 | 2021-05-11 | Koko Home, Inc. | System and method for processing wireless backscattered signal using artificial intelligence processing for activities of daily life |
US12094614B2 (en) | 2017-08-15 | 2024-09-17 | Koko Home, Inc. | Radar apparatus with natural convection |
CN107846578A (zh) * | 2017-10-30 | 2018-03-27 | 北京小米移动软件有限公司 | 信息订阅方法及装置 |
EP3830802B1 (en) | 2018-07-30 | 2024-08-28 | Carrier Corporation | Method for activating an alert when an object is left proximate a room entryway |
KR102706386B1 (ko) * | 2018-08-16 | 2024-09-12 | 한화비전 주식회사 | 시각화된 객체에서 특정영역의 소리를 추출하는 감시 카메라 시스템 및 그 동작 방법 |
US11997455B2 (en) | 2019-02-11 | 2024-05-28 | Koko Home, Inc. | System and method for processing multi-directional signals and feedback to a user to improve sleep |
US10810850B2 (en) | 2019-02-19 | 2020-10-20 | Koko Home, Inc. | System and method for state identity of a user and initiating feedback using multiple sources |
US11971503B2 (en) | 2019-02-19 | 2024-04-30 | Koko Home, Inc. | System and method for determining user activities using multiple sources |
CN110097725A (zh) * | 2019-05-07 | 2019-08-06 | 上海墨工文化传播有限公司 | 一种场景信息自动识别系统 |
US11240635B1 (en) * | 2020-04-03 | 2022-02-01 | Koko Home, Inc. | System and method for processing using multi-core processors, signals, and AI processors from multiple sources to create a spatial map of selected region |
US11184738B1 (en) | 2020-04-10 | 2021-11-23 | Koko Home, Inc. | System and method for processing using multi core processors, signals, and AI processors from multiple sources to create a spatial heat map of selected region |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11197116A (ja) * | 1998-01-08 | 1999-07-27 | Mitsubishi Electric Corp | 健康管理装置 |
JP2005056213A (ja) * | 2003-08-06 | 2005-03-03 | Matsushita Electric Ind Co Ltd | 情報提供システム、情報提供サーバ、情報提供方法 |
JP2005275842A (ja) * | 2004-03-25 | 2005-10-06 | Advanced Telecommunication Research Institute International | 情報提示システム |
JP2005303832A (ja) * | 2004-04-14 | 2005-10-27 | Nec Corp | 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置 |
JP2009177554A (ja) * | 2008-01-25 | 2009-08-06 | Bee:Kk | 被写体情報編集システム |
JP2011253375A (ja) * | 2010-06-02 | 2011-12-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
JP2013088906A (ja) * | 2011-10-14 | 2013-05-13 | Cyber Ai Entertainment Inc | 画像認識システムを備えた知識情報処理サーバシステム |
JP2014089524A (ja) * | 2012-10-29 | 2014-05-15 | Sharp Corp | メッセージ管理装置、メッセージ提示装置、メッセージ提示システム、メッセージ管理装置およびメッセージ提示装置の制御方法、制御プログラム、および記録媒体 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061659A (en) * | 1997-06-03 | 2000-05-09 | Digital Marketing Communications, Inc. | System and method for integrating a message into a graphical environment |
US8725567B2 (en) * | 2006-06-29 | 2014-05-13 | Microsoft Corporation | Targeted advertising in brick-and-mortar establishments |
EP2147514A4 (en) * | 2007-05-15 | 2012-12-12 | Intel Corp | METHOD AND SYSTEM FOR PUBLIC MEASUREMENT AND TARGETED MEDIA |
US20100328419A1 (en) * | 2009-06-30 | 2010-12-30 | Walter Etter | Method and apparatus for improved matching of auditory space to visual space in video viewing applications |
US8799037B2 (en) * | 2010-10-14 | 2014-08-05 | Palto Alto Research Center Incorporated | Computer-implemented system and method for managing motor vehicle parking reservations |
US9432631B2 (en) * | 2011-04-04 | 2016-08-30 | Polaris Wireless, Inc. | Surveillance system |
CN102196251B (zh) * | 2011-05-24 | 2014-05-21 | 中国科学院深圳先进技术研究院 | 智慧城市智能监控方法和系统 |
EP2817787A4 (en) * | 2013-04-15 | 2015-10-21 | Flextronics Ap Llc | RECORDING AND DISPLAYING A VEHICLE IMMERSION ALARM |
JP5506989B1 (ja) * | 2013-07-11 | 2014-05-28 | パナソニック株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
CN104065928B (zh) * | 2014-06-26 | 2018-08-21 | 北京小鱼在家科技有限公司 | 一种行为模式统计装置与方法 |
EP3051810B1 (en) | 2015-01-30 | 2021-06-30 | Nokia Technologies Oy | Surveillance |
-
2015
- 2015-01-30 EP EP15153375.9A patent/EP3051810B1/en active Active
-
2016
- 2016-01-20 CN CN201680007662.9A patent/CN107211113B/zh active Active
- 2016-01-20 US US15/547,275 patent/US10936880B2/en active Active
- 2016-01-20 JP JP2017540151A patent/JP6568224B2/ja active Active
- 2016-01-20 WO PCT/FI2016/050025 patent/WO2016120520A1/en active Application Filing
- 2016-01-20 MX MX2017009797A patent/MX2017009797A/es active IP Right Grant
-
2017
- 2017-08-23 ZA ZA2017/05736A patent/ZA201705736B/en unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11197116A (ja) * | 1998-01-08 | 1999-07-27 | Mitsubishi Electric Corp | 健康管理装置 |
JP2005056213A (ja) * | 2003-08-06 | 2005-03-03 | Matsushita Electric Ind Co Ltd | 情報提供システム、情報提供サーバ、情報提供方法 |
JP2005275842A (ja) * | 2004-03-25 | 2005-10-06 | Advanced Telecommunication Research Institute International | 情報提示システム |
JP2005303832A (ja) * | 2004-04-14 | 2005-10-27 | Nec Corp | 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置 |
JP2009177554A (ja) * | 2008-01-25 | 2009-08-06 | Bee:Kk | 被写体情報編集システム |
JP2011253375A (ja) * | 2010-06-02 | 2011-12-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
JP2013088906A (ja) * | 2011-10-14 | 2013-05-13 | Cyber Ai Entertainment Inc | 画像認識システムを備えた知識情報処理サーバシステム |
JP2014089524A (ja) * | 2012-10-29 | 2014-05-15 | Sharp Corp | メッセージ管理装置、メッセージ提示装置、メッセージ提示システム、メッセージ管理装置およびメッセージ提示装置の制御方法、制御プログラム、および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
MX2017009797A (es) | 2018-06-07 |
EP3051810B1 (en) | 2021-06-30 |
JP6568224B2 (ja) | 2019-08-28 |
US10936880B2 (en) | 2021-03-02 |
WO2016120520A1 (en) | 2016-08-04 |
CN107211113B (zh) | 2021-09-03 |
EP3051810A1 (en) | 2016-08-03 |
CN107211113A (zh) | 2017-09-26 |
US20180025232A1 (en) | 2018-01-25 |
ZA201705736B (en) | 2019-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6568224B2 (ja) | サーベイランス | |
JP6592183B2 (ja) | モニタリング | |
US11429189B2 (en) | Monitoring | |
KR102032662B1 (ko) | 장면 공간 모니터링을 통한 사람-컴퓨터 상호 작용 | |
US10144135B2 (en) | System, method and computer program product for handling humanoid robot interaction with human | |
US11188145B2 (en) | Gesture control systems | |
JP6600359B2 (ja) | モニタリング | |
US10444852B2 (en) | Method and apparatus for monitoring in a monitoring space | |
JP2019198077A (ja) | 監視 | |
JP2018523231A5 (ja) | ||
CN111919250B (zh) | 传达非语言提示的智能助理设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170927 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6568224 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |