JP2021527882A - スマート家電のステータスの要約伝達 - Google Patents
スマート家電のステータスの要約伝達 Download PDFInfo
- Publication number
- JP2021527882A JP2021527882A JP2020569826A JP2020569826A JP2021527882A JP 2021527882 A JP2021527882 A JP 2021527882A JP 2020569826 A JP2020569826 A JP 2020569826A JP 2020569826 A JP2020569826 A JP 2020569826A JP 2021527882 A JP2021527882 A JP 2021527882A
- Authority
- JP
- Japan
- Prior art keywords
- user
- current
- status
- text
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 title description 14
- 238000000034 method Methods 0.000 claims abstract description 62
- 238000001914 filtration Methods 0.000 claims abstract description 29
- 230000008859 change Effects 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000003993 interaction Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 5
- 238000010438 heat treatment Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 208000002193 Pain Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 239000002699 waste material Substances 0.000 description 3
- 238000013475 authorization Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y10/00—Economic sectors
- G16Y10/80—Homes; Buildings
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/20—Information sensed or collected by the things relating to the thing itself
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/40—Information sensed or collected by the things relating to personal data, e.g. biometric data, records or preferences
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/10—Detection; Monitoring
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/30—Control
- G16Y40/35—Management of things, i.e. controlling in accordance with a policy or in order to achieve specified objectives
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/40—Network security protocols
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/26—Pc applications
- G05B2219/2642—Domotique, domestic, home control, automation, smart house
Landscapes
- Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Architecture (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Economics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Selective Calling Equipment (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
105 クライアントデバイス
106 自動化されたアシスタント
107 インターフェース
110 リモートコンピュータ
115 コンテキストエンジン
117 ステータスエンジン
120 フィルタリングエンジン
125 テキストジェネレータ
130 要約生成エンジン
135 デバイスグループ分けエンジン
140 ユーザコンテキストデータベース
150 スマート家電
150A スマート家電
150B スマート家電
150C スマート家電
160 スマート家電コントローラ
205 対話のやりとり
210 対話のやりとり
215 オーディオ
220 応答
300 インターフェース
301 テキスト要約
302 制御インターフェース
710 コンピューティングデバイス
712 バスサブシステム
714 プロセッサ
716 ネットワークインターフェースサブシステム
720 ユーザインターフェース出力デバイス
722 ユーザインターフェース入力デバイス
724 ストレージサブシステム
725 メモリサブシステム
726 ファイルストレージサブシステム
730 ランダムアクセスメモリ(RAM)
732 読み出し専用メモリ(ROM)
Claims (20)
- コンピュータによって実施される方法であって、
ユーザによって制御される複数のスマート家電の現在のステータスのリストを決定するステップと、
前記ユーザによって制御される1つまたは複数のコンピューティングデバイスによって生成された1つまたは複数のコンテキスト信号に基づいて現在のユーザコンテキストを決定するステップと、
前記現在のユーザコンテキストと比較可能である1つまたは複数の比較可能な過去のユーザコンテキストを複数の過去のユーザコンテキストから特定するステップと、
前記1つまたは複数の比較可能な過去のユーザコンテキストの各々に関して、前記複数のスマート家電の対応する過去のステータスのリストを取得するステップと、
前記現在のステータスのリストをフィルタリングして、前記現在のステータスのうちの1つまたは複数を削除し、現在のステータスのフィルタリングされたリストを生成するステップであって、前記フィルタリングが、1つまたは複数の前記過去のステータスのリストとの前記現在のステータスのリストの比較に基づく、ステップと、
前記フィルタリングされた現在のステータスのリストに基づいて1つまたは複数のテキストスニペットを生成するステップと、
前記1つまたは複数のテキストスニペットのテキスト要約を生成するステップと、
前記ユーザによって制御される前記コンピューティングデバイスのうちの1つまたは複数の出力デバイスに前記テキスト要約を提供するステップと
を含む、方法。 - 前記フィルタリングが、前記過去のステータスのリストからの対応する過去のステータスに一致する前記現在のステータスのうちの1つまたは複数を前記現在のステータスのリストから削除することを含む、請求項1に記載の方法。
- 前記フィルタリングされた現在のステータスのリストが、前記過去のステータスのリストから外れる前記現在のステータスのリストからの現在のステータスを含む、請求項1または請求項2に記載の方法。
- 前記フィルタリングされたリストの前記ステータスのうちの1つまたは複数をグループにまとめるステップであって、前記グループの前記スマート家電の現在のステータスの間の類似性に基づく、ステップをさらに含み、
前記テキスト要約を生成するステップが、前記グループに関するテキスト節を生成することを含む、請求項1に記載の方法。 - 前記出力デバイスが、オーディオによって前記テキスト要約を前記ユーザに提供する、請求項1から4のいずれか一項に記載の方法。
- 前記スマート家電のうちの1つまたは複数を示すオーディオプロンプト、および前記示したスマート家電のステータスを変更するオファーを提供するステップをさらに含む、請求項5に記載の方法。
- 前記出力デバイスが、視覚的な表示を含む、請求項1から6のいずれか一項に記載の方法。
- 前記ユーザが前記スマート家電のうちの少なくとも1つの前記現在のステータスを調整することを可能にするために前記ユーザに制御インターフェースを提供するステップをさらに含む、請求項1に記載の方法。
- 前記制御インターフェースを提供することに応じて、前記スマート家電のうちの少なくとも1つの前記現在のステータスを調整する前記ユーザからのインジケーションを受け取るステップと、
前記少なくとも1つのスマート家電に前記インジケーションを示すデータを提供するステップとをさらに含む、請求項8に記載の方法。 - 前記コンピューティングデバイスのうちの前記1つまたは複数の入力デバイスを介して前記ユーザから要求を受け取るステップであって、前記入力デバイスが、位置に関連付けられる、ステップをさらに含み、
前記現在のユーザコンテキストが、前記位置に少なくとも部分的に基づいて決定される、請求項1から9のいずれか一項に記載の方法。 - 前記現在のステータスのリストをフィルタリングすることが、前記位置に関連付けられる1つまたは複数のステータスをフィルタリングによって取り除くことを含む、請求項10に記載の方法。
- 前記現在のユーザコンテキストが、現在時刻に少なくとも部分的に基づいて決定される、請求項1から11のいずれか一項に記載の方法。
- 前記コンピューティングデバイスのうちの1つまたは複数の1つまたは複数のマイクロフォンにおいて前記ユーザからのオーディオ入力を受け取るステップと、
複数のユーザのオーディオプロファイルを特定するステップと、
前記オーディオ入力および前記オーディオプロファイルに基づいて前記ユーザのアイデンティティを決定するステップであって、前記1つまたは複数の過去のユーザコンテキストが、前記決定されたアイデンティティに関連付けられる、ステップとをさらに含む、請求項1から12のいずれか一項に記載の方法。 - 前記現在のユーザコンテキストを前記複数の過去のユーザコンテキストとともに記憶するステップをさらに含む、請求項1から13のいずれか一項に記載の方法。
- ユーザによって制御される複数のスマート家電の現在のステータスのリストを決定するステップと、
前記複数のスマート家電の前記現在のステータスのリストを、前記スマート家電のデバイスの種類によってスマート家電のグループにまとめるステップと、
スマート家電の前記グループのうちの1つまたは複数に関するデバイスの種類のテキストスニペットを生成するステップと、
前記1つまたは複数のデバイスの種類のテキストスニペットのテキスト要約を生成するステップと、
前記ユーザによって制御される1つまたは複数のコンピューティングデバイスの出力デバイスに前記テキスト要約を提供するステップとを含む、コンピュータによって実施される方法。 - スマート家電の前記グループのうちの1つが、複数の照明ユニットを含み、前記方法が、
特定のステータスを有する前記複数の照明ユニットのうちの照明ユニットのカウントを決定するステップをさらに含み、
デバイスの種類のテキストスニペットを生成するステップが、複数のトークンを含む照明ユニットのテキストスニペットを生成することを含み、前記複数のトークンのうちの少なくとも1つが、前記カウントである、請求項15に記載のコンピュータによって実施される方法。 - コンピュータによって実施される方法であって、
ユーザによって制御される複数のスマート家電の現在のステータスのリストを決定するステップと、
前記ユーザによって制御される1つまたは複数のコンピューティングデバイスによって生成された1つまたは複数のコンテキスト信号に基づいて現在のユーザコンテキストを決定するステップと、
前記現在のユーザコンテキストと比較可能である1つまたは複数の過去のユーザコンテキストを特定するステップと、
前記複数のスマート家電のうちの1つまたは複数を制御することに関連して前記ユーザによって発せられた1つまたは複数の要求またはコマンドを特定するステップであって、前記1つまたは複数の要求またはコマンドが、前記ユーザが前記1つまたは複数の過去のユーザコンテキストにあった間に前記ユーザによって発せられた、ステップと、
前記現在のステータスのリストをフィルタリングして、前記現在のステータスのうちの1つまたは複数を削除し、現在のステータスのフィルタリングされたリストを生成するステップであって、前記フィルタリングが、前記特定された1つまたは複数の要求またはコマンドに少なくとも部分的に基づく、ステップと、
前記フィルタリングされた現在のステータスのリストに基づいて1つまたは複数のテキストスニペットを生成するステップと、
前記1つまたは複数のテキストスニペットのテキスト要約を生成するステップと、
前記ユーザによって制御される前記コンピューティングデバイスのうちの1つまたは複数の出力デバイスに前記テキスト要約を提供するステップとを含む、方法。 - 前記フィルタリングされたリストの前記ステータスのうちの1つまたは複数をグループにまとめるステップであって、グループの前記スマート家電の現在のステータスの間の類似性に基づく、ステップをさらに含み、
前記テキスト要約を生成するステップが、前記グループに関するテキスト節を生成することを含む、請求項17に記載の方法。 - 前記出力デバイスが、オーディオによって前記テキスト要約を前記ユーザに提供する、請求項17または請求項18に記載の方法。
- 前記スマート家電のうちの1つまたは複数を示すオーディオプロンプト、および前記示したスマート家電のステータスを変更する要請を提供するステップをさらに含む、請求項19に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862742585P | 2018-10-08 | 2018-10-08 | |
US62/742,585 | 2018-10-08 | ||
PCT/US2019/055149 WO2020076795A2 (en) | 2018-10-08 | 2019-10-08 | Summarily conveying smart appliance statuses |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021527882A true JP2021527882A (ja) | 2021-10-14 |
JP6963697B2 JP6963697B2 (ja) | 2021-11-10 |
Family
ID=68345047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020569826A Active JP6963697B2 (ja) | 2018-10-08 | 2019-10-08 | スマート家電のステータスの要約伝達 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11177044B2 (ja) |
EP (2) | EP3732538B1 (ja) |
JP (1) | JP6963697B2 (ja) |
KR (2) | KR102543676B1 (ja) |
CN (1) | CN112352204A (ja) |
WO (1) | WO2020076795A2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020076795A2 (en) | 2018-10-08 | 2020-04-16 | Google Llc | Summarily conveying smart appliance statuses |
CA3153778A1 (en) * | 2019-09-11 | 2021-03-18 | Savant Systems, Inc. | Redundant control for wireless devices in a home automation system |
KR20230000739A (ko) * | 2021-06-25 | 2023-01-03 | 삼성전자주식회사 | 전자 장치 및 전자 장치와 타겟 장치 간의 거리에 기초하여 생성되는 객체를 출력하는 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150082225A1 (en) * | 2013-09-18 | 2015-03-19 | Vivint, Inc. | Systems and methods for home automation scene control |
US20150348554A1 (en) * | 2014-05-30 | 2015-12-03 | Apple Inc. | Intelligent assistant for home automation |
US20160357163A1 (en) * | 2015-06-05 | 2016-12-08 | Apple Inc. | Data-Driven Context Determination |
JP2019507973A (ja) * | 2015-12-23 | 2019-03-22 | サムスン エレクトロニクス カンパニー リミテッド | 電子機器を制御する方法及び装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6513006B2 (en) * | 1999-08-26 | 2003-01-28 | Matsushita Electronic Industrial Co., Ltd. | Automatic control of household activity using speech recognition and natural language |
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8370288B2 (en) | 2009-07-20 | 2013-02-05 | Sony Computer Entertainment America Llc | Summarizing a body of media by assembling selected summaries |
US8434001B2 (en) | 2010-06-03 | 2013-04-30 | Rhonda Enterprises, Llc | Systems and methods for presenting a content summary of a media item to a user based on a position within the media item |
EP2738478A3 (en) * | 2012-11-28 | 2014-08-13 | Lennox Industries Inc. | Intelligent comfort management using natural language processing to interface with a comfort system controller |
US20140244001A1 (en) | 2013-02-25 | 2014-08-28 | Qualcomm Incorporated | Controlling many different devices from a smart controller |
US9853826B2 (en) | 2013-02-25 | 2017-12-26 | Qualcomm Incorporated | Establishing groups of internet of things (IOT) devices and enabling communication among the groups of IOT devices |
JP6478242B2 (ja) * | 2013-05-16 | 2019-03-06 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報提供方法 |
US10944586B2 (en) * | 2013-09-10 | 2021-03-09 | Vivint, Inc. | Systems and methods for home automation monitoring |
US9712491B2 (en) | 2014-03-03 | 2017-07-18 | Qualcomm Connected Experiences, Inc. | Access control lists for private networks of system agnostic connected devices |
US9857195B2 (en) * | 2014-05-30 | 2018-01-02 | Google Inc. | Selection and presentation of geographic content in an automotive environment |
US10042336B2 (en) * | 2014-09-09 | 2018-08-07 | Savant Systems, Llc | User-defined scenes for home automation |
US20160225372A1 (en) * | 2015-02-03 | 2016-08-04 | Samsung Electronics Company, Ltd. | Smart home connected device contextual learning using audio commands |
US10274911B2 (en) * | 2015-06-25 | 2019-04-30 | Intel Corporation | Conversational interface for matching text of spoken input based on context model |
WO2017007723A1 (en) * | 2015-07-03 | 2017-01-12 | Afero, Inc. | Embedded internet of things (iot) hub slot for an appliance and associated systems and methods |
US10409551B1 (en) * | 2016-06-21 | 2019-09-10 | Amazon Technologies, Inc. | Voice-driven monitoring of resources in a service provider network |
US10452695B2 (en) * | 2017-09-22 | 2019-10-22 | Oracle International Corporation | Context-based virtual assistant implementation |
US10490195B1 (en) * | 2017-09-26 | 2019-11-26 | Amazon Technologies, Inc. | Using system command utterances to generate a speaker profile |
US10885091B1 (en) * | 2017-12-12 | 2021-01-05 | Amazon Technologies, Inc. | System and method for content playback |
WO2020076795A2 (en) | 2018-10-08 | 2020-04-16 | Google Llc | Summarily conveying smart appliance statuses |
-
2019
- 2019-10-08 WO PCT/US2019/055149 patent/WO2020076795A2/en unknown
- 2019-10-08 EP EP19794805.2A patent/EP3732538B1/en active Active
- 2019-10-08 KR KR1020237004787A patent/KR102543676B1/ko active IP Right Grant
- 2019-10-08 US US16/971,542 patent/US11177044B2/en active Active
- 2019-10-08 JP JP2020569826A patent/JP6963697B2/ja active Active
- 2019-10-08 CN CN201980043441.0A patent/CN112352204A/zh active Pending
- 2019-10-08 EP EP22162450.5A patent/EP4033311A1/en active Pending
- 2019-10-08 KR KR1020207035935A patent/KR102499734B1/ko active IP Right Grant
-
2021
- 2021-09-24 US US17/484,202 patent/US20220014413A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150082225A1 (en) * | 2013-09-18 | 2015-03-19 | Vivint, Inc. | Systems and methods for home automation scene control |
US20150348554A1 (en) * | 2014-05-30 | 2015-12-03 | Apple Inc. | Intelligent assistant for home automation |
US20160357163A1 (en) * | 2015-06-05 | 2016-12-08 | Apple Inc. | Data-Driven Context Determination |
JP2019507973A (ja) * | 2015-12-23 | 2019-03-22 | サムスン エレクトロニクス カンパニー リミテッド | 電子機器を制御する方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2020076795A2 (en) | 2020-04-16 |
US11177044B2 (en) | 2021-11-16 |
EP3732538B1 (en) | 2022-04-20 |
KR20230026528A (ko) | 2023-02-24 |
KR20210010528A (ko) | 2021-01-27 |
CN112352204A (zh) | 2021-02-09 |
EP4033311A1 (en) | 2022-07-27 |
US20220014413A1 (en) | 2022-01-13 |
JP6963697B2 (ja) | 2021-11-10 |
WO2020076795A3 (en) | 2020-05-22 |
KR102543676B1 (ko) | 2023-06-14 |
KR102499734B1 (ko) | 2023-02-15 |
EP3732538A2 (en) | 2020-11-04 |
US20210057113A1 (en) | 2021-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2020200103B2 (en) | Intelligent assistant for home automation | |
JP6963697B2 (ja) | スマート家電のステータスの要約伝達 | |
CN112313924A (zh) | 提供用于控制各种连接设备的复合图形助理界面 | |
US11749278B2 (en) | Recommending automated assistant action for inclusion in automated assistant routine | |
KR102581347B1 (ko) | 스마트 장치의 효율적이고 낮은 대기시간 자동 어시스턴트 제어 | |
JP2018098767A (ja) | 自動学習ユニバーサルゲートウェイ | |
US20240104140A1 (en) | Inferring semantic label(s) for assistant device(s) based on device-specific signal(s) | |
Santo et al. | Open up the building-Architectural relevance of building-users and their participations | |
Brune | An IoT System that Combines Externally Sourced and Public Sensor Data with Internal Enterprise Sensor Data for Action Determination | |
WO2015034511A1 (en) | Managing a sensory factor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210212 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211015 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6963697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |