JP2018538586A - トリガ領域 - Google Patents
トリガ領域 Download PDFInfo
- Publication number
- JP2018538586A JP2018538586A JP2018507547A JP2018507547A JP2018538586A JP 2018538586 A JP2018538586 A JP 2018538586A JP 2018507547 A JP2018507547 A JP 2018507547A JP 2018507547 A JP2018507547 A JP 2018507547A JP 2018538586 A JP2018538586 A JP 2018538586A
- Authority
- JP
- Japan
- Prior art keywords
- physical
- region
- virtual
- sensor
- trigger condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 59
- 230000008859 change Effects 0.000 claims abstract description 45
- 230000004044 response Effects 0.000 claims abstract description 16
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 238000013459 approach Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000013500 data storage Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2016年7月19日に出願され「Trigger Regions(トリガ領域)」と題された米国特許出願番号第15/213,843号に基づく優先権を主張し、上記出願の内容全体を本明細書に引用により援用する。そして、米国特許出願番号第15/213,843号は、2015年11月25日に出願され「Trigger Regions(トリガ領域)」と題された米国仮特許出願連続番号第62/259,971号に基づく優先権を主張し、上記出願の内容全体を本明細書に引用により援用する。
物理空間は、特に、小売、製造、組立、物流、およびオフィス空間のために用いられ得る。徐々に、これらの物理空間が設計および操作される態様は、より知的に、より効率的に、かつより直観的になりつつある。現在の生活の多数の局面においてテクノロジーがますます普及するにつれて、これらの物理空間を向上させるテクノロジーの使用が明らかになる。したがって、そのようなシステムに対する需要が、センシング技術、データ処理、ならびにソフトウェアおよびユーザインターフェース設計の革新の分野の開拓を促進している。
例示的な実現は、サブスクライバデバイスから要求を受信可能なコンピューティングシステムに関し得る。この要求は、物理空間内の物理領域に対応する仮想領域を定義し得、物理領域内の特定の物理的変化に対応するトリガ条件も定義し得る。コンピューティングシステムは物理空間内のセンサからセンサデータを受信し得、物理領域内の特定の物理的変化に対応するイベントを検出する根拠として当該センサデータを用い得る。コンピューティングシステムは、このイベントの検出をトリガ条件が満たされているものと解釈し得、次いでトリガ条件が満たされたとサブスクライバデバイスに通知し得る。
例示的な方法およびシステムが本明細書に記載される。「例」、「例示的な」および「例証的な」という用語は本明細書において「例、場合、または例証となる」ことを意味するために用いられていることを理解すべきである。「例」である、「例示的」である、または「例証的」であると本明細書に記載されている任意の実現例または特徴は、他の実現例または特徴よりも好ましいまたは有利であると必ずしも解釈すべきではない。本明細書に記載される例示的な実現は限定的であることが意図されていない。本明細書に一般的に記載されており図面に示されているような本開示の局面は、多種多様な異なる構成で配置、置換、組合せ、分離、および設計可能であることが容易に理解されるであろう。それらのすべては本明細書において明示的に検討されている。
さまざまな実現例によると、本明細書に記載されるのは、物理空間の物理領域内でトリガ条件が満たされたことを検出するための方法およびシステムである。特に、開示されるシステムは、サブスクライバデバイス(たとえば家庭用電子機器)が、当該システムに対して、物理空間の指定領域内で特定の物理的変化が起こるとサブスクライバデバイスに通知するよう要求することを可能にし得る。本開示に従うと、サブスクライバデバイスは、物理空間内の物理領域に対応する仮想領域を指定する要求をシステムに送信することができる。この要求はさらに、仮想領域に関連したトリガ条件を、指定された物理領域内の特定の物理的変化に当該トリガ条件が対応するように指定し得る。たとえば、トリガ条件は、アクター(たとえばロボット)が指定された物理領域に入ることを含み得る。したがって、この要求は本質的に、開示されるシステムが提供するサービスをサブスクライバデバイスにサブスクライブさせ得る。
次に図面を参照して、図1は1つ以上のセンサ102を有する物理空間100を含む例示的な構成を示す。物理空間は、人物、物体、および/または機械が位置し得る環境の一部を定義し得る。物理空間は二次元または三次元(3D)の形態を取り得、さまざまな目的に用いられ得る。たとえば、物理空間は、商品および/またはサービスの販売が個人(または企業)と消費者との間で行なわれる小売空間として用いられ得る。他の例として、数ある例の中でも特に、製造施設、物流施設、オフィス空間、ショッピングセンター、フェスティバル会場、および/または空港などの物理空間があり得る。また、図1には1つの物理空間100が示されているが、例示的な実現は複数の物理空間のコンテキストで実行されてもよい。さらなる局面において、1つ以上のアクターが物理空間100内に位置決めされ得る。特に、アクターは、物理空間100内に位置するさまざまな物理エンティティのうちの1つを定義し得る。たとえば、アクターは、数ある可能性の中でも特に、人物、動物、機械、ロボットシステム、および/または物体を含み得る。
図2は、例示的な実現に係る方法200を示すフローチャートである。特に、方法200は、トリガ条件を満たすイベントを物理領域内で検出するように実現され得る。
さらなる局面において、上述の実現例は複数の領域のコンテキストで実行されてもよい。たとえば、要求は2つ以上の仮想領域を指定し得る。この場合、領域毎のトリガ条件は同一であってもよい。さらに、またはあるいは、領域毎のトリガ条件は異なっていてもよい。この構成では、コンピューティングシステム104は、さまざまな指定領域についてのすべてのトリガ条件が満たされるとサブスクライバデバイス114に通知し得る。別の場合では、コンピューティングシステム104は、少なくとも1つの領域についての少なくとも1つのトリガ条件が満たされるとサブスクライバデバイス114に通知し得る。いくつかの場合、要求はトリガ条件が満たされるべき順序を指定し得る。たとえば、要求は、領域Aについてのトリガ条件Aが満たされた後に領域Bについてのトリガ条件Bが満たされるべきであると指定し得る。ゆえに、コンピューティングシステム104がこの順序で起こるイベントを検出すると、コンピューティングシステム104はサブスクライバデバイス114に通知し得る。他の場合も可能である。
本開示は、さまざまな局面の例証として意図されている本出願に記載の特定の実現例に関して限定されない。当業者に明らかになるように、その精神および範囲から逸脱することなく多くの変更および変形が可能である。本明細書に列挙されたものに加えて、本開示の範囲内の機能的に同等の方法および装置が上記の説明から当業者に明らかになるであろう。そのような変更および変形は添付の請求項の範囲内に収まることが意図されている。
Claims (15)
- 方法であって、
物理空間の仮想表現内の少なくとも1つの仮想領域の指示を、少なくとも1つのサブスクライバデバイスからコンピューティングシステムによって受信することを備え、前記少なくとも1つの仮想領域は前記物理空間内の少なくとも1つの物理領域に対応し、前記方法はさらに、
前記少なくとも1つの仮想領域と関連付けられている少なくとも1つのトリガ条件を、前記少なくとも1つのサブスクライバデバイスから前記コンピューティングシステムによって受信することを備え、前記少なくとも1つのトリガ条件は前記少なくとも1つの物理領域内の少なくとも1つの特定の物理的変化に対応し、前記方法はさらに、
前記物理空間内に位置決めされた複数のセンサからセンサデータを前記コンピューティングシステムによって受信することを備え、前記センサデータの少なくとも一部は前記物理空間内の前記少なくとも1つの物理領域と関連付けられており、前記方法はさらに、
前記センサデータに基づいて、前記コンピューティングシステムが、前記少なくとも1つの物理領域内の前記少なくとも1つの特定の物理的変化に対応する前記少なくとも1つのトリガ条件を満たす前記少なくとも1つの物理領域内のイベントを検出することと、
前記イベントを検出したことに応答して、前記少なくとも1つのトリガ条件が満たされたことを示す通知を、前記コンピューティングシステムによって前記少なくとも1つのサブスクライバデバイスに提供することとを備える、方法。 - 前記物理空間内の前記少なくとも1つの物理領域に対応する前記少なくとも1つの仮想領域は、前記物理空間の三次元(3D)サブボリュームに対応する前記少なくとも1つの仮想領域を含む、請求項1に記載の方法。
- 前記少なくとも1つの仮想領域の前記指示を受信することは、前記少なくとも1つの仮想領域の特性を受信することを含み、前記特性は、(i)前記少なくとも1つの仮想領域のサイズ、(ii)前記少なくとも1つの仮想領域の形状、(iii)前記物理空間の前記仮想表現内の前記少なくとも1つの仮想領域の相対的位置、(iv)前記物理空間の前記仮想表現内の前記少なくとも1つの仮想領域の相対的方位、および(v)前記少なくとも1つの仮想領域が少なくとも1つの静的な仮想領域であるか少なくとも1つの動的な仮想領域であるかの選択、の1つ以上を含む、請求項1に記載の方法。
- 前記少なくとも1つの物理領域は、前記物理空間の少なくとも第1の点から前記物理空間の少なくとも第2の点への少なくとも1つのアクターの移動と関連付けられている少なくとも1つの動的な物理領域を含み、前記少なくとも1つの仮想領域は、前記少なくとも1つの動的な物理領域に対応する少なくとも1つの動的な仮想領域を含む、請求項1に記載の方法。
- 前記少なくとも1つの動的な物理領域は、(i)前記少なくとも1つのアクターが前記第1の点にいる間は第1の形状を、かつ(ii)前記少なくとも1つのアクターが前記第2の点にいる間は第2の形状を有し、前記少なくとも1つの動的な仮想領域は、前記少なくとも1つのアクターが前記第1および第2の点にいる間は前記第1および第2の形状をそれぞれ取る、請求項4に記載の方法。
- 前記第1および第2の形状は、前記少なくとも1つのアクターが前記第1および第2の点にいる間は前記少なくとも1つのアクターの特定の形状にそれぞれ対応する、請求項5に記載の方法。
- 前記少なくとも1つの仮想領域の前記指示および前記少なくとも1つのトリガ条件を受信したことに応答して、前記少なくとも1つのトリガ条件を満たす前記少なくとも1つの物理領域内の前記イベントを検出するための少なくとも1つのセンサ解釈規則を決定することをさらに備え、前記イベントを検出することは、前記少なくとも1つのセンサ解釈規則に少なくとも部分的に基づいて前記イベントを検出することを含む、請求項1に記載の方法。
- 前記少なくとも1つのセンサ解釈規則を決定することは、前記物理空間内に位置決めされた前記複数のセンサの1つ以上の特性に少なくとも部分的に基づいて前記少なくとも1つのセンサ解釈規則を決定することを含む、請求項7に記載の方法。
- 前記特性は、(i)センサタイプ、(ii)センサモデル、(iii)センサ位置、(iv)センサ方位、(v)前記少なくとも1つの物理領域とのセンサ関連付け、および(vi)前記少なくとも1つのサブスクライバデバイスとのセンサ関連付け、の1つ以上を含む、請求項8に記載の方法。
- 前記少なくとも1つのセンサ解釈規則を決定することは、前記イベントを検出する際に用いるべき1つ以上の特定のセンサを前記複数のセンサの中から選択することを含む、請求項7に記載の方法。
- 1つ以上の特定のセンサを選択することは、少なくとも(i)第1のセンサデータを生成するように構成された第1のセンサおよび(ii)第2のセンサデータを生成するように構成された第2のセンサを選択することを含み、前記少なくとも1つのセンサ解釈規則を決定することは、前記イベントを検出するために少なくとも前記第1および第2のセンサデータを用いる決定を下すことをさらに含み、前記少なくとも1つのセンサ解釈規則に少なくとも部分的に基づいて前記イベントを検出することは、少なくとも前記第1および第2のセンサデータの評価に基づいて前記少なくとも1つの物理領域内の前記少なくとも1つの特定の物理的変化を検出することを含む、請求項10に記載の方法。
- 少なくとも1つのセンサ解釈規則を決定することは、前記物理空間内の前記少なくとも1つの物理領域と関連付けられている前記センサデータの前記一部を求めることを含み、前記少なくとも1つのセンサ解釈規則に少なくとも部分的に基づいて前記イベントを検出することは、前記センサデータの前記一部の評価に基づいて前記少なくとも1つの物理領域内の前記少なくとも1つの特定の物理的変化を検出することを含む、請求項7に記載の方法。
- 前記少なくとも1つの特定の物理的変化は、
(i) 少なくとも1つのアクターが前記少なくとも1つの物理領域に入ること、
(ii) 前記少なくとも1つのアクターが前記少なくとも1つの物理領域から出ること、
(iii) 前記少なくとも1つの物理領域内の前記少なくとも1つのアクターの存在、
(iv) 前記少なくとも1つの物理領域の占有、ここで、前記占有は、前記少なくとも1つの物理領域内の少なくとも閾値数のアクターの存在に対応する、
(v) 前記少なくとも1つの物理領域内の特定の音、および
(vi) 前記少なくとも1つの物理領域内の特定の語句
の1つ以上を含む、請求項1に記載の方法。 - コンピューティングシステムであって、
1つ以上のプロセッサと、
非一時的なコンピュータ読取可能な媒体と、
前記非一時的なコンピュータ読取可能な媒体上に格納されており、前記1つ以上のプロセッサによって実行可能なプログラム命令とを備え、前記プログラム命令は、
物理空間の仮想表現内の少なくとも1つの仮想領域の指示を少なくとも1つのサブスクライバデバイスから受信するよう指示し、前記少なくとも1つの仮想領域は前記物理空間内の少なくとも1つの物理領域に対応し、前記プログラム命令はさらに、
前記少なくとも1つの仮想領域と関連付けられている少なくとも1つのトリガ条件を前記少なくとも1つのサブスクライバデバイスから受信するよう指示し、前記少なくとも1つのトリガ条件は前記少なくとも1つの物理領域内の少なくとも1つの特定の物理的変化に対応し、前記プログラム命令はさらに、
前記物理空間内に位置決めされた複数のセンサからセンサデータを受信するよう指示し、前記センサデータの少なくとも一部は前記物理空間内の前記少なくとも1つの物理領域と関連付けられており、前記プログラム命令はさらに、
前記センサデータに基づいて、前記少なくとも1つの物理領域内の前記少なくとも1つの特定の物理的変化に対応する前記少なくとも1つのトリガ条件を満たす前記少なくとも1つの物理領域内のイベントを検出するよう、かつ
前記イベントを検出したことに応答して、前記少なくとも1つのトリガ条件が満たされたことを示す通知を前記少なくとも1つのサブスクライバデバイスに提供するよう指示する、コンピューティングシステム。 - 1つ以上のプロセッサによって実行可能な命令を格納している非一時的なコンピュータ読取可能な媒体であって、前記命令はコンピューティングシステムに機能を実行させ、前記機能は、
物理空間の仮想表現内の少なくとも1つの仮想領域の指示を、少なくとも1つのサブスクライバデバイスから受信することを備え、前記少なくとも1つの仮想領域は前記物理空間内の少なくとも1つの物理領域に対応し、前記機能はさらに、
前記少なくとも1つの仮想領域と関連付けられている少なくとも1つのトリガ条件を、前記少なくとも1つのサブスクライバデバイスから受信することを備え、前記少なくとも1つのトリガ条件は前記少なくとも1つの物理領域内の少なくとも1つの特定の物理的変化に対応し、前記機能はさらに、
前記物理空間内に位置決めされた複数のセンサからセンサデータを受信することを備え、前記センサデータの少なくとも一部は前記物理空間内の前記少なくとも1つの物理領域と関連付けられており、前記機能はさらに、
前記センサデータに基づいて、前記少なくとも1つの物理領域内の前記少なくとも1つの特定の物理的変化に対応する前記少なくとも1つのトリガ条件を満たす前記少なくとも1つの物理領域内のイベントを検出することと、
前記イベントを検出したことに応答して、前記少なくとも1つのトリガ条件が満たされたことを示す通知を前記少なくとも1つのサブスクライバデバイスに提供することとを備える、非一時的なコンピュータ読取可能な媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562259971P | 2015-11-25 | 2015-11-25 | |
US62/259,971 | 2015-11-25 | ||
US15/213,843 US10347047B2 (en) | 2015-11-25 | 2016-07-19 | Trigger regions |
US15/213,843 | 2016-07-19 | ||
PCT/US2016/063364 WO2017091590A1 (en) | 2015-11-25 | 2016-11-22 | Trigger regions |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020026321A Division JP2020098638A (ja) | 2015-11-25 | 2020-02-19 | トリガ領域 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018538586A true JP2018538586A (ja) | 2018-12-27 |
JP6665276B2 JP6665276B2 (ja) | 2020-03-13 |
Family
ID=58720276
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018507547A Active JP6665276B2 (ja) | 2015-11-25 | 2016-11-22 | トリガ領域 |
JP2020026321A Pending JP2020098638A (ja) | 2015-11-25 | 2020-02-19 | トリガ領域 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020026321A Pending JP2020098638A (ja) | 2015-11-25 | 2020-02-19 | トリガ領域 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10347047B2 (ja) |
EP (2) | EP4057235A1 (ja) |
JP (2) | JP6665276B2 (ja) |
KR (3) | KR102687580B1 (ja) |
CN (2) | CN113178016A (ja) |
WO (1) | WO2017091590A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10347047B2 (en) * | 2015-11-25 | 2019-07-09 | Google Llc | Trigger regions |
US11351682B2 (en) * | 2019-06-19 | 2022-06-07 | International Business Machines Corporation | Environment monitoring and associated monitoring device |
US11200752B1 (en) * | 2019-08-23 | 2021-12-14 | Lucasfilm Entertainment Company Ltd. | Color correction for immersive content production systems |
US11887251B2 (en) | 2021-04-23 | 2024-01-30 | Lucasfilm Entertainment Company Ltd. | System and techniques for patch color correction for an immersive content production system |
US11978154B2 (en) | 2021-04-23 | 2024-05-07 | Lucasfilm Entertainment Company Ltd. | System and techniques for lighting adjustment for an immersive content production system |
WO2024117841A1 (ko) | 2022-12-01 | 2024-06-06 | 주식회사 엘지에너지솔루션 | 배터리 팩 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020114626A1 (en) * | 2001-02-09 | 2002-08-22 | Seiko Epson Corporation | Service providing system, management terminal, mobile member, service providing program, and service providing method |
JP2013538472A (ja) * | 2010-06-10 | 2013-10-10 | クアルコム,インコーポレイテッド | ジェスチャーおよび/または位置に基づく情報のプリフェッチ |
US8803917B2 (en) * | 2009-09-02 | 2014-08-12 | Groundspeak, Inc. | Computer-implemented system and method for a virtual object rendering based on real world locations and tags |
US20150310712A1 (en) * | 2014-04-29 | 2015-10-29 | Vivint, Inc. | Systems and methods for operating remote presence security |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6940405B2 (en) * | 1996-05-30 | 2005-09-06 | Guardit Technologies Llc | Portable motion detector and alarm system and method |
US6567787B1 (en) | 1998-08-17 | 2003-05-20 | Walker Digital, Llc | Method and apparatus for determining whether a verbal message was spoken during a transaction at a point-of-sale terminal |
KR100938518B1 (ko) * | 2000-03-16 | 2010-01-25 | 마이크로소프트 코포레이션 | 통지 플랫폼 아키텍처 |
JP5243679B2 (ja) | 2000-03-16 | 2013-07-24 | マイクロソフト コーポレーション | 通知プラットフォームアーキテクチャ |
JP3543737B2 (ja) | 2000-06-27 | 2004-07-21 | 松下電工株式会社 | 板状部品用メッキシステム |
US7619512B2 (en) * | 2006-10-02 | 2009-11-17 | Alarm.Com | System and method for alarm signaling during alarm system destruction |
US10339791B2 (en) * | 2007-06-12 | 2019-07-02 | Icontrol Networks, Inc. | Security network integrated with premise security system |
JP2006085390A (ja) * | 2004-09-15 | 2006-03-30 | Nippon Telegr & Teleph Corp <Ntt> | 固定型通信端末、携帯型通信端末、情報集約・蓄積サーバおよび見守り専用端末 |
US20060180647A1 (en) * | 2005-02-11 | 2006-08-17 | Hansen Scott R | RFID applications |
US8279168B2 (en) | 2005-12-09 | 2012-10-02 | Edge 3 Technologies Llc | Three-dimensional virtual-touch human-machine interface system and method therefor |
US7987111B1 (en) | 2006-10-30 | 2011-07-26 | Videomining Corporation | Method and system for characterizing physical retail spaces by determining the demographic composition of people in the physical retail spaces utilizing video image analysis |
US8189926B2 (en) | 2006-12-30 | 2012-05-29 | Videomining Corporation | Method and system for automatically analyzing categories in a physical space based on the visual characterization of people |
US8965042B2 (en) | 2007-03-20 | 2015-02-24 | International Business Machines Corporation | System and method for the measurement of retail display effectiveness |
US20090033622A1 (en) | 2007-05-30 | 2009-02-05 | 24/8 Llc | Smartscope/smartshelf |
US9727139B2 (en) * | 2008-12-12 | 2017-08-08 | Immersion Corporation | Method and apparatus for providing a haptic monitoring system using multiple sensors |
US8217790B2 (en) * | 2009-05-26 | 2012-07-10 | Script Michael H | Portable motion detector and alarm system and method |
US20110022662A1 (en) * | 2009-07-23 | 2011-01-27 | International Business Machines Corporation | Event triggered notifications for collaborative processes |
US8994645B1 (en) * | 2009-08-07 | 2015-03-31 | Groundspeak, Inc. | System and method for providing a virtual object based on physical location and tagging |
US20110060652A1 (en) * | 2009-09-10 | 2011-03-10 | Morton Timothy B | System and method for the service of advertising content to a consumer based on the detection of zone events in a retail environment |
US8232990B2 (en) * | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
US8493202B1 (en) * | 2010-03-22 | 2013-07-23 | Alarm.Com | Alarm signaling technology |
CN103221967A (zh) * | 2010-09-11 | 2013-07-24 | 社会传播公司 | 虚拟区域上下文中的基于关系的在场指示 |
US20120092492A1 (en) * | 2010-10-19 | 2012-04-19 | International Business Machines Corporation | Monitoring traffic flow within a customer service area to improve customer experience |
JP2012226650A (ja) * | 2011-04-21 | 2012-11-15 | Nippon Telegr & Teleph Corp <Ntt> | 物理現象表現装置及び物理現象表現システム |
US20120312956A1 (en) | 2011-06-11 | 2012-12-13 | Tom Chang | Light sensor system for object detection and gesture recognition, and object detection method |
US8786425B1 (en) | 2011-09-09 | 2014-07-22 | Alarm.Com Incorporated | Aberration engine |
US8694507B2 (en) * | 2011-11-02 | 2014-04-08 | Microsoft Corporation | Tenantization of search result ranking |
US8942729B2 (en) * | 2012-02-02 | 2015-01-27 | Apple Inc. | Location based methods, systems, and program products for performing an action at a user device |
KR102058947B1 (ko) * | 2012-05-24 | 2019-12-24 | 엘지전자 주식회사 | 이동 단말기 및 그의 gps엔진 제어방법 |
US9703378B2 (en) * | 2012-06-13 | 2017-07-11 | Immersion Corporation | Method and apparatus for representing user interface metaphors as physical changes on a shape-changing device |
US9978238B2 (en) * | 2012-09-21 | 2018-05-22 | Google Llc | Visitor options at an entryway to a smart-home |
US9046414B2 (en) | 2012-09-21 | 2015-06-02 | Google Inc. | Selectable lens button for a hazard detector and method therefor |
KR101990789B1 (ko) | 2012-10-29 | 2019-06-19 | 에스케이 텔레콤주식회사 | 관심객체의 선택에 의한 영상 탐색장치 및 방법 |
US20140128994A1 (en) * | 2012-11-07 | 2014-05-08 | Microsoft Corporation | Logical sensor server for logical sensor platforms |
US20140157206A1 (en) * | 2012-11-30 | 2014-06-05 | Samsung Electronics Co., Ltd. | Mobile device providing 3d interface and gesture controlling method thereof |
US9274608B2 (en) | 2012-12-13 | 2016-03-01 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
JP2014164537A (ja) | 2013-02-26 | 2014-09-08 | Yasuaki Iwai | 仮想現実サービス提供システム、仮想現実サービス提供方法 |
RU2760211C2 (ru) * | 2013-04-19 | 2021-11-22 | Джеймс КАРЕЙ | Аналитическая система распознавания |
US20160128104A1 (en) * | 2014-11-05 | 2016-05-05 | Google Inc. | In-field smart device updates |
US10347047B2 (en) * | 2015-11-25 | 2019-07-09 | Google Llc | Trigger regions |
JP6932674B2 (ja) | 2018-08-09 | 2021-09-08 | 株式会社日立ビルシステム | 携帯端末、およびエレベーター点検システム |
-
2016
- 2016-07-19 US US15/213,843 patent/US10347047B2/en active Active
- 2016-11-22 CN CN202110440617.5A patent/CN113178016A/zh active Pending
- 2016-11-22 EP EP22155010.6A patent/EP4057235A1/en active Pending
- 2016-11-22 WO PCT/US2016/063364 patent/WO2017091590A1/en active Application Filing
- 2016-11-22 KR KR1020227042146A patent/KR102687580B1/ko active IP Right Grant
- 2016-11-22 KR KR1020197038106A patent/KR102474134B1/ko active IP Right Grant
- 2016-11-22 JP JP2018507547A patent/JP6665276B2/ja active Active
- 2016-11-22 CN CN201680048307.6A patent/CN107924588B/zh active Active
- 2016-11-22 KR KR1020187004520A patent/KR102061225B1/ko active IP Right Grant
- 2016-11-22 EP EP16869179.8A patent/EP3381018B1/en active Active
-
2019
- 2019-05-21 US US16/418,143 patent/US11600048B2/en active Active
-
2020
- 2020-02-19 JP JP2020026321A patent/JP2020098638A/ja active Pending
-
2021
- 2021-01-29 US US17/163,321 patent/US11748992B2/en active Active
-
2023
- 2023-02-28 US US18/176,042 patent/US20230215181A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020114626A1 (en) * | 2001-02-09 | 2002-08-22 | Seiko Epson Corporation | Service providing system, management terminal, mobile member, service providing program, and service providing method |
JP2002334097A (ja) * | 2001-02-09 | 2002-11-22 | Seiko Epson Corp | サービス提供システム、管理端末、移動体、サービス提供プログラム及びサービス提供方法 |
US8803917B2 (en) * | 2009-09-02 | 2014-08-12 | Groundspeak, Inc. | Computer-implemented system and method for a virtual object rendering based on real world locations and tags |
JP2013538472A (ja) * | 2010-06-10 | 2013-10-10 | クアルコム,インコーポレイテッド | ジェスチャーおよび/または位置に基づく情報のプリフェッチ |
US20150310712A1 (en) * | 2014-04-29 | 2015-10-29 | Vivint, Inc. | Systems and methods for operating remote presence security |
Non-Patent Citations (1)
Title |
---|
ダンプの運行管理にも!位置情報とリマインダーが連動する「GEOALERTS」, JPN6019043068, 17 December 2013 (2013-12-17), ISSN: 0004195633 * |
Also Published As
Publication number | Publication date |
---|---|
KR102061225B1 (ko) | 2019-12-31 |
US11748992B2 (en) | 2023-09-05 |
US20170148217A1 (en) | 2017-05-25 |
CN107924588A (zh) | 2018-04-17 |
CN107924588B (zh) | 2021-05-11 |
JP2020098638A (ja) | 2020-06-25 |
KR20180019776A (ko) | 2018-02-26 |
US20210150819A1 (en) | 2021-05-20 |
US20230215181A1 (en) | 2023-07-06 |
US10347047B2 (en) | 2019-07-09 |
EP3381018A1 (en) | 2018-10-03 |
EP3381018B1 (en) | 2022-03-16 |
JP6665276B2 (ja) | 2020-03-13 |
EP3381018A4 (en) | 2019-06-26 |
EP4057235A1 (en) | 2022-09-14 |
US11600048B2 (en) | 2023-03-07 |
CN113178016A (zh) | 2021-07-27 |
US20190272678A1 (en) | 2019-09-05 |
KR102687580B1 (ko) | 2024-07-22 |
KR102474134B1 (ko) | 2022-12-02 |
KR20220165822A (ko) | 2022-12-15 |
WO2017091590A1 (en) | 2017-06-01 |
KR20200001604A (ko) | 2020-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6665276B2 (ja) | トリガ領域 | |
KR102606601B1 (ko) | 표면 인식 렌즈 | |
KR102677485B1 (ko) | 미디어 항목들의 관여를 추적하는 시스템 | |
KR102670848B1 (ko) | 증강 현실 의인화 시스템 | |
US10419429B2 (en) | Information providing method and device for sharing user information | |
CN104699646B (zh) | 通知数据的预测性转发 | |
KR102576654B1 (ko) | 전자 장치 및 그의 제어 방법 | |
US9934754B2 (en) | Dynamic sensor array for augmented reality system | |
WO2017176739A1 (en) | Mutable geo-fencing system | |
US20230011686A1 (en) | Crowd sourced mapping system | |
JP2016126789A (ja) | 位置共有サービス提供装置、その方法及びそのコンピュータプログラム | |
KR102632889B1 (ko) | 태그 분포 시각화 시스템 | |
KR102548919B1 (ko) | 위치 기반 증강-현실 시스템 | |
US20220277162A1 (en) | Optical person recognition techniques for social distancing | |
US10929007B2 (en) | Method of displaying object on device, device for performing the same, and recording medium for performing the method | |
US20180205688A1 (en) | Communication routing based on physical status | |
US20180204096A1 (en) | Taking action upon physical condition | |
US20180203881A1 (en) | Taking action based on physical graph | |
KR20150129370A (ko) | 캐드 어플리케이션에서 객체를 제어하기 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180525 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6665276 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |