JP2018508851A - モニタリング - Google Patents
モニタリング Download PDFInfo
- Publication number
- JP2018508851A JP2018508851A JP2017533373A JP2017533373A JP2018508851A JP 2018508851 A JP2018508851 A JP 2018508851A JP 2017533373 A JP2017533373 A JP 2017533373A JP 2017533373 A JP2017533373 A JP 2017533373A JP 2018508851 A JP2018508851 A JP 2018508851A
- Authority
- JP
- Japan
- Prior art keywords
- virtual boundary
- gesture
- space
- user
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19663—Surveillance related processing done local to the camera
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Abstract
Description
シーン140からセンサデータ112を記録するように構成される一つ又は複数のセンサ110と;
シーン140から記録されたセンサデータ112を処理し、シーン140で起こったイベントを自動的に認識すると共に、前記認識の結果として自動的に判断を行うように構成される処理モジュール120と;
前記処理モジュール120によって、通信するという判断がなされた場合、通信を行うように構成される通信モジュール130と;
を備える。
・ (移動しているまたは静的な)オブジェクトまたは人物を検出すること、
・ (移動しているまたは静的な)オブジェクトまたは人物を分類すること、
・ (移動しているまたは静的な)オブジェクトまたは人物を追跡すること、
の1つ以上を実行する。
・ 奥行き検出を使ってシーン空間中の(移動しているまたは静的な)オブジェクトの位置決めをすること、
・ シーン空間のマップを生成すること、
の1つ以上を実行する。
(必ずしも全ての例においてではないが)いくつかの例において、実行されるアクションはユーザによってプログラムすることができる。(必ずしも全ての例においてではないが)いくつかの例において、このプログラミングは、シーン内のユーザの動きを介して行うことができる。実行されるアクションの例には、警告または通知の生成があってもよい。
警告または通知は、通信モジュール130を介して提示ができる。通信モジュール130は、電波を使って無線で、または有線接続で、ローカルまたはリモートの装置に通信することができる。かかる装置の例は、以下に限らないが、ディスプレイ、テレビジョン、オーディオ出力装置、携帯電話もしくはパーソナルコンピュータなどの個人用デバイス、プロジェクタ、その他のユーザ出力装置を含む。
例えばユーザは、参照シンボルのデータベースに加えられる有意味な応答をプログラムしたり教えたりすることができてもよい。(必ずしも全ての例においてではないが)いくつかの例において、このプログラミングは、シーン140内のユーザの動きを介して行うことができる。
例えばユーザは、推定シンボルが応答シンボルに一致する場合に実行されるアクションをプログラムしたり教えたりすることができてもよい。実行されるアクションの例には、警告または通知の生成があってもよい。
少なくとも1つのプロセッサ310と;
コンピュータプログラムコード322を含む少なくとも一つのメモリ320とを備える。コンピュータプログラムコード322は、プロセッサ310に実行されると、装置120に、図1のブロック124,126,128の一つ又は複数や、図8や9の一つ又は複数のブロックの少なくともいずれかを遂行させるように構成される。
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路のみの実装等);
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(適用可能である場合):(i)一つまたは複数のプロセッサ、または(ii)一つまたは複数のプロセッサ/ソフトウェア(デジタルシグナルプロセッサを含む),ソフトウェア,一つまたは複数のメモリの一部(これらは協働して、携帯電話やサーバなどの装置に様々な機能を実行させる);
(c)一つまたは複数のマイクロプロセッサやその一部等の回路であって、動作するためにソフトウェアやファームウェアを必要とする回路(ソフトウェアやファームウェアは物理的に存在しなくてもよい)。
Claims (15)
- 監視空間内に、コンピュータにより設定される少なくとも一つの仮想境界を定めるべく、少なくとも一つのジェスチャを認識すること、但し前記ジェスチャは経路に沿った動きであって、被監視シーン空間内の位置における動きを有し、前記監視空間と前記被監視シーン空間との間には対応関係が存在する、前記認識することと;
前記被監視シーン空間に対応する前記監視空間の中に、コンピュータにより設定される少なくとも一つの仮想境界が作成されることを生じさせること、但し前記仮想境界の少なくとも一部分は前記被監視シーン空間内の前記経路によって定められ、前記仮想境界の前記少なくとも一部分は、前記経路の位置に相当する、前記監視空間の対応する位置に位置する、前記生じさせることと;
前記少なくとも一つの仮想境界に関連して前記被監視シーン空間の一部に変化があったとき、受け取ったデータを処理して応答イベントを生成することと;
を含む、方法。 - 前記少なくとも一つのジェスチャは認識することは、受け取ったデータを処理すること及び/又は受け取った奥行きデータを処理することを含む、請求項1に記載の方法。
- 前記少なくとも一つのジェスチャの認識が可能となるように、少なくとも一つの最初のジェスチャを認識することを更に含む、請求項1又は2に記載の方法。
- 前記被監視シーン空間の少なくとも一つの物理的な境界に対応する、前記監視空間の少なくとも一つの境界の方へ、前記仮想境界を拡大することを更に含む、請求項1から3のいずれかに記載の方法。
- 前記仮想境界を拡大することは、該仮想境界を、第1の壁から第2の壁まで延ばすこと、及び/又は、床から天井まで延ばすことを含む、請求項4に記載の方法。
- 前記少なくとも一つのジェスチャを認識することは、オブジェクトの動きを追跡することを含む、請求項1から5のいずれかに記載の方法。
- 前記少なくとも一つのジェスチャを認識することは、前記被監視シーン空間の中の人物の体の少なくとも一部分の動作を追跡することを含む、請求項6に記載の方法。
- 人物の体の前記動作は、前記被監視シーン空間内の経路に沿って前記人物が歩くことを含む、請求項7に記載の方法。
- 少なくとも一つのオブジェクトを指し示す少なくとも一つの更なるジェスチャを認識することと、該認識することに応じて、前記少なくとも一つの仮想境界に関係して前記少なくとも一つのオブジェクトを監視すべく、データを処理することとを更に含む、請求項1から8のいずれかに記載の方法。
- 受け取ったデータを処理して応答イベントを生成することは、前記少なくとも一つの仮想境界を監視して、該少なくとも一つの仮想境界を横切るアクティビティを検出するため、及び/又は、前記少なくとも一つの仮想境界から所定の閾値以内の距離で生じたアクティビティを検出するために、画像データを処理することを含む、請求項1から9のいずれかに記載の方法。
- 前記応答イベントは、前記少なくとも一つの仮想境界を横切るアクティビティ及び/又は前記少なくとも一つの仮想境界から所定の閾値以内の距離で生じたアクティビティに応じて、フィードバックが提供されるようにすることを含む、請求項10に記載の方法。
- 少なくとも一つの更なるジェスチャを認識することと、該認識することに応じて前記少なくとも一つの仮想境界を変化させることと、を更に含む、請求項1から11のいずれかに記載の方法。
- 受け取ったデータを処理して応答イベントを生成することは、少なくとも一つの条件が満たされたときに行われるが、前記少なくとも一つの条件が満たされないときは行われない、請求項1から12のいずれかに記載の方法。
- 請求項1から13のいずれかに記載の方法を実行する手段を備える、装置。
- 装置の処理手段に実行されると、前記装置に、請求項1から13のいずれかに記載の方法を遂行させるように構成されるプログラムコードを備える、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14200312.8A EP3037917B1 (en) | 2014-12-24 | 2014-12-24 | Monitoring |
EP14200312.8 | 2014-12-24 | ||
PCT/FI2015/050920 WO2016102768A1 (en) | 2014-12-24 | 2015-12-21 | Monitoring |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018508851A true JP2018508851A (ja) | 2018-03-29 |
Family
ID=52292698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017533373A Pending JP2018508851A (ja) | 2014-12-24 | 2015-12-21 | モニタリング |
Country Status (5)
Country | Link |
---|---|
US (1) | US11429189B2 (ja) |
EP (2) | EP3800532B1 (ja) |
JP (1) | JP2018508851A (ja) |
CN (1) | CN107408146A (ja) |
WO (1) | WO2016102768A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022509483A (ja) * | 2018-10-31 | 2022-01-20 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11455691B2 (en) * | 2012-08-16 | 2022-09-27 | Allstate Insurance Company | Processing insured items holistically with mobile damage assessment and claims processing |
US8510196B1 (en) | 2012-08-16 | 2013-08-13 | Allstate Insurance Company | Feedback loop in mobile damage assessment and claims processing |
US10430885B1 (en) | 2012-08-16 | 2019-10-01 | Allstate Insurance Company | Processing insured items holistically with mobile damage assessment and claims processing |
US8712893B1 (en) | 2012-08-16 | 2014-04-29 | Allstate Insurance Company | Enhanced claims damage estimation using aggregate display |
US10783585B1 (en) | 2012-08-16 | 2020-09-22 | Allstate Insurance Company | Agent-facilitated claims damage estimation |
US10580075B1 (en) | 2012-08-16 | 2020-03-03 | Allstate Insurance Company | Application facilitated claims damage estimation |
US11532048B2 (en) | 2012-08-16 | 2022-12-20 | Allstate Insurance Company | User interactions in mobile damage assessment and claims processing |
EP3096303B1 (en) | 2015-05-18 | 2020-04-08 | Nokia Technologies Oy | Sensor data conveyance |
EP3101629B1 (en) | 2015-06-04 | 2021-03-17 | Nokia Technologies Oy | Mediated reality |
EP3115978B1 (en) | 2015-07-09 | 2018-03-07 | Nokia Technologies Oy | Monitoring |
EP3131311B1 (en) | 2015-08-14 | 2019-06-19 | Nokia Technologies Oy | Monitoring |
EP3422145B1 (en) | 2017-06-28 | 2020-01-29 | Nokia Technologies Oy | Provision of virtual reality content |
US10623385B2 (en) | 2018-03-16 | 2020-04-14 | At&T Mobility Ii Llc | Latency sensitive tactile network security interfaces |
US10909747B2 (en) * | 2018-03-28 | 2021-02-02 | Facebook Technologies, Llc | Systems and methods for providing immersive graphical interfaces |
US11126850B1 (en) * | 2020-04-09 | 2021-09-21 | Facebook Technologies, Llc | Systems and methods for detecting objects within the boundary of a defined space while in artificial reality |
US11232644B1 (en) | 2020-12-31 | 2022-01-25 | Facebook Technologies, Llc | Systems and methods for providing spatial awareness in virtual reality |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013025789A (ja) * | 2011-07-18 | 2013-02-04 | Fuji Xerox Co Ltd | 現実世界環境におけるジェスチャベースの対話型ホットスポット生成のシステム、方法及びプログラム |
JP2013031897A (ja) * | 2011-08-02 | 2013-02-14 | Sony Corp | 制御装置、制御方法、プログラム、及びロボット制御システム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6185152B1 (en) * | 1998-12-23 | 2001-02-06 | Intel Corporation | Spatial sound steering system |
US7634334B2 (en) | 2002-11-22 | 2009-12-15 | Monroe David A | Record and playback system for aircraft |
US7519530B2 (en) * | 2003-01-09 | 2009-04-14 | Nokia Corporation | Audio signal processing |
US20080099549A1 (en) * | 2005-09-15 | 2008-05-01 | Roland Bryan | Organizational arrangements for self-coordinated machine networks |
US9866797B2 (en) * | 2012-09-28 | 2018-01-09 | Careview Communications, Inc. | System and method for monitoring a fall state of a patient while minimizing false alarms |
CN103155642A (zh) | 2010-08-16 | 2013-06-12 | 诺基亚公司 | 用于检测或监控集小区的基于蜂窝的频间测量事件 |
CA2851259C (en) * | 2011-10-07 | 2018-06-12 | Flir Systems, Inc. | Smart surveillance camera systems and methods |
WO2013095671A1 (en) * | 2011-12-23 | 2013-06-27 | Intel Corporation | Transition mechanism for computing system utilizing user sensing |
US8704070B2 (en) * | 2012-03-04 | 2014-04-22 | John Beaty | System and method for mapping and displaying audio source locations |
US9292085B2 (en) * | 2012-06-29 | 2016-03-22 | Microsoft Technology Licensing, Llc | Configuring an interaction zone within an augmented reality environment |
DE102013201359A1 (de) * | 2013-01-29 | 2014-07-31 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts |
US20140354820A1 (en) * | 2013-05-03 | 2014-12-04 | Daniel Danialian | System and method for live surveillance property monitoring |
US9324227B2 (en) * | 2013-07-16 | 2016-04-26 | Leeo, Inc. | Electronic device with environmental monitoring |
US9679465B2 (en) * | 2013-07-18 | 2017-06-13 | Google Inc. | Systems and methods for processing ultrasonic inputs |
US20150077737A1 (en) * | 2013-08-09 | 2015-03-19 | Cnry Inc. | System and methods for monitoring an environment |
US9740296B2 (en) * | 2013-12-16 | 2017-08-22 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual cameras in the interaction space |
US9392212B1 (en) * | 2014-04-17 | 2016-07-12 | Visionary Vr, Inc. | System and method for presenting virtual reality content to a user |
JP6242535B2 (ja) * | 2014-07-17 | 2017-12-06 | フィリップス ライティング ホールディング ビー ヴィ | ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法 |
US20160125318A1 (en) * | 2014-11-03 | 2016-05-05 | Canary Connect, Inc. | User-Assisted Learning in Security/Safety Monitoring System |
-
2014
- 2014-12-24 EP EP20210125.9A patent/EP3800532B1/en active Active
- 2014-12-24 EP EP14200312.8A patent/EP3037917B1/en active Active
-
2015
- 2015-12-21 JP JP2017533373A patent/JP2018508851A/ja active Pending
- 2015-12-21 CN CN201580076804.2A patent/CN107408146A/zh active Pending
- 2015-12-21 US US15/538,739 patent/US11429189B2/en active Active
- 2015-12-21 WO PCT/FI2015/050920 patent/WO2016102768A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013025789A (ja) * | 2011-07-18 | 2013-02-04 | Fuji Xerox Co Ltd | 現実世界環境におけるジェスチャベースの対話型ホットスポット生成のシステム、方法及びプログラム |
JP2013031897A (ja) * | 2011-08-02 | 2013-02-14 | Sony Corp | 制御装置、制御方法、プログラム、及びロボット制御システム |
Non-Patent Citations (1)
Title |
---|
中洲 俊信、外4名: ""自然な手振りによる直感的なハンドジェスチャUI"", ヒューマンインタフェース学会 論文誌, vol. 15, no. 1, JPN6018029058, 31 December 2013 (2013-12-31), JP, pages 25 - 37, ISSN: 0003846371 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022509483A (ja) * | 2018-10-31 | 2022-01-20 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 |
JP7279176B2 (ja) | 2018-10-31 | 2023-05-22 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | 仮想現実システムのための安全境界を修正するためのシステムおよび方法 |
US11741649B2 (en) | 2018-10-31 | 2023-08-29 | Meta Platforms Technologies, Llc | Systems and methods for modifying a safety boundary for virtual reality systems |
Also Published As
Publication number | Publication date |
---|---|
US11429189B2 (en) | 2022-08-30 |
EP3037917B1 (en) | 2021-05-19 |
EP3800532B1 (en) | 2024-06-19 |
WO2016102768A1 (en) | 2016-06-30 |
CN107408146A (zh) | 2017-11-28 |
US20170364159A1 (en) | 2017-12-21 |
EP3800532A1 (en) | 2021-04-07 |
EP3037917A1 (en) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018508851A (ja) | モニタリング | |
JP6592183B2 (ja) | モニタリング | |
US20230125265A1 (en) | Safety for wearable virtual reality devices via object detection and tracking | |
US10540543B2 (en) | Human-computer-interaction through scene space monitoring | |
JP6568224B2 (ja) | サーベイランス | |
EP3115870B1 (en) | Monitoring | |
US10444852B2 (en) | Method and apparatus for monitoring in a monitoring space | |
JP6665276B2 (ja) | トリガ領域 | |
JP2019198077A (ja) | 監視 | |
JP6600359B2 (ja) | モニタリング | |
JP2018523231A5 (ja) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190415 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190423 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20190517 |