JP6745419B1 - 検出されたイベントに関する情報を提供するための方法、システム、および媒体 - Google Patents

検出されたイベントに関する情報を提供するための方法、システム、および媒体 Download PDF

Info

Publication number
JP6745419B1
JP6745419B1 JP2019567235A JP2019567235A JP6745419B1 JP 6745419 B1 JP6745419 B1 JP 6745419B1 JP 2019567235 A JP2019567235 A JP 2019567235A JP 2019567235 A JP2019567235 A JP 2019567235A JP 6745419 B1 JP6745419 B1 JP 6745419B1
Authority
JP
Japan
Prior art keywords
user
recording device
implementations
query
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019567235A
Other languages
English (en)
Other versions
JP2020528158A (ja
Inventor
チャンピー,アダム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Application granted granted Critical
Publication of JP6745419B1 publication Critical patent/JP6745419B1/ja
Publication of JP2020528158A publication Critical patent/JP2020528158A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2455Query execution
    • G06F16/24564Applying rules; Deductive queries
    • G06F16/24565Triggers; Constraints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0208Combination with audio or video communication, e.g. combination with "baby phone" function
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Library & Information Science (AREA)
  • Otolaryngology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

情報を提供するための方法、システム、および媒体を提供する。いくつかの実装形態では、情報を提供するための方法を提供する。この方法は、ユーザの環境に置かれた記録装置群のうちの第1の記録装置をトリガータームと対応付けるステップと、前記トリガータームを含んだクエリをユーザデバイスから受信するステップと、前記クエリを受信することに応答して、前記ユーザの環境にある前記記録装置群のうちの少なくとも1つの記録装置から音声データを送信すると判断するステップと、前記受信したクエリが前記トリガータームを含んでいることに基づいて、前記第1の記録装置を特定するステップと、前記第1の記録装置から前記音声データを受信するステップと、前記受信した音声データに基づいて、前記ユーザの環境に存在する生き物の特徴を特定するステップと、前記生き物の特徴を示す情報を前記ユーザデバイス上に提示するステップとを含む。

Description

開示の主題は、検出されたイベントに関する情報を提供するための方法、システム、および媒体に関する。
背景
多くの人々が複数のユーザデバイスを所有しており、それらは、すべて、自宅内で音声データおよび/または映像データを記録可能であるであろう。たとえば、人は、自宅内に、複数のモバイル機器、バーチャルアシスタントデバイス、1つ以上のスマートテレビ、および/またはその他のこのようなデバイスを所有している可能性があり、これらのデバイスは、それぞれ異なる部屋に置かれている可能性がある。ほとんどの場合、デバイスは、子供が泣いているなど、その人の関心の対象であると思われるイベントを示す音声データまたは映像データを記録可能であるであろう。しかしながら、デバイスを用いて関心のあるイベントを検出し、当該イベントの情報を人々に提供することは難しいであろう。
したがって、検出されたイベントに関する情報を提供するための新規な方法、システム、および媒体を提供することが望ましい。
概要
開示の主題の様々な実装形態によると、情報を提供するための方法、システム、および媒体を提供する。
開示の主題のいくつかの実装形態に応じて、情報を提供するための方法を提供する。この方法は、ユーザの環境に置かれた記録装置群のうちの第1の記録装置をトリガーターム(trigger term)と対応付けるステップと、トリガータームを含んだクエリをユーザデバイスから受信するステップと、クエリを受信することに応答して、ユーザの環境にある記録装置群のうちの少なくとも1つの記録装置から音声データを送信すると判断するステップと、受信したクエリがトリガータームを含んでいることに基づいて、第1の記録装置を特定するステップと、第1の記録装置から音声データを受信するステップと、受信した音声データに基づいて、ユーザの環境に存在する生き物の特徴を特定するステップと、生き物の特徴を示す情報をユーザデバイス上に提示するステップとを含む。
開示の主題いくつかの実装形態に応じて、情報を提供するためのシステムを提供する。このシステムは、ハードウェアプロセッサを含み、当該ハードウェアプロセッサは、ユーザの環境に置かれた記録装置群のうちの第1の記録装置をトリガータームと対応付け、トリガータームを含んだクエリをユーザデバイスから受信し、クエリを受信することに応答して、ユーザの環境にある記録装置群のうちの少なくとも1つの記録装置から音声データを送信すると判断し、受信したクエリがトリガータームを含んでいることに基づいて、第1の記録装置を特定し、第1の記録装置から音声データを受信し、受信した音声データに基づいて、ユーザの環境に存在する生き物の特徴を特定し、生き物の特徴を示す情報をユーザデバイス上に提示するようにプログラムされる。
開示の主題いくつかの実装形態によると、非一時的なコンピュータ−読み取り可能な媒体は、コンピュータにより実行可能な命令を含んでおり、この命令は、プロセッサによって実行されると、プロセッサに、情報を提供するための方法を実行させ、当該方法は、ユーザの環境に置かれた記録装置群のうちの第1の記録装置をトリガータームと対応付けるステップと、トリガータームを含んだクエリをユーザデバイスから受信するステップと、クエリを受信することに応答して、ユーザの環境にある記録装置群のうちの少なくとも1つの記録装置から音声データを送信すると判断するステップと、受信したクエリがトリガータームを含んでいることに基づいて、第1の記録装置を特定するステップと、第1の記録装置から音声データを受信するステップと、受信した音声データに基づいて、ユーザの環境に存在する生き物の特徴を特定するステップと、生き物の特徴を示す情報をユーザデバイス上に提示するステップとを含む。
開示の主題いくつかの実装形態に応じて、情報を提供するためのシステムを提供する。このシステムは、ユーザの環境に置かれた記録装置群のうちの第1の記録装置をトリガータームと対応付けるための手段と、トリガータームを含んだクエリをユーザデバイスから受信するための手段と、クエリを受信することに応答して、ユーザの環境にある記録装置群のうちの少なくとも1つの記録装置から音声データを送信すると判断するための手段と、受信したクエリがトリガータームを含んでいることに基づいて、第1の記録装置を特定するための手段と、第1の記録装置から音声データを受信するための手段と、受信した音声データに基づいて、ユーザの環境に存在する生き物の特徴を特定するための手段と、生き物の特徴を示す情報をユーザデバイス上に提示するための手段とを含む。
いくつかの実装形態では、第1の記録装置をトリガータームと対応付けることは、第1の記録装置によって以前に記録された音声データに基づく。
いくつかの実装形態では、第1の記録装置をトリガータームと対応付けることは、ユーザの環境内の第1の記録装置の既知の場所に基づく。
いくつかの実装形態では、第1の記録装置をトリガータームと対応付けることは、第1の記録装置の推察される場所に基づき、当該推察される場所は、ユーザデバイスから以前に受信したクエリに基づいて判断される。
いくつかの実装形態では、情報は、受信した音声データをユーザデバイスによって提示させる選択可能な入力を含んだユーザインタフェース内に提示される。
いくつかの実装形態では、情報は、第1の記録装置にさらなる音声データを記録させる選択可能な入力を含んだユーザインタフェース内に提示される。
いくつかの実装形態では、システムは、記録装置群のうちの第2の記録装置から第2の音声データを受信するための手段と、受信した第2の音声データに基づいて生き物に関するイベントを検出するための手段と、検出されたイベントがユーザデバイスのユーザの関心の対象である可能性があるかどうかを判断するための手段と、検出されたイベントがユーザの関心の対象である可能性があると判断することに応答して、検出されたイベントの表示をユーザデバイス上に提示させるための手段とをさらに含む。
開示の主題の様々な目的、特徴、および利点は、下記の図面を踏まえて考慮した以下の開示の主題の詳細な説明を参照して、全面的に理解することができる。図面では、同じ参照番号が同じ要素を識別している。
開示の主題のいくつかの実装形態に係る、ユーザの自宅におけるユーザデバイスの例示的な配置例を示す図である。 開示の主題のいくつかの実装形態に係る、検出されたイベントに関する情報を提供するための本明細書に記載のメカニズムを実装するのに適した例示的なシステムの概略図である。 開示の主題のいくつかの実装形態に係る、図2のサーバおよび/またはユーザデバイスにおいて用いられ得るハードウェアの詳細な例を示す図である。 開示の主題のいくつかの実装形態に係る、ユーザクエリに応答して情報を提供するための処理例を示す図である。 開示の主題のいくつかの実装形態に係る、検出されたイベントに応答して情報を提供するための処理例を示す図である。
詳細な説明
様々な実装形態に応じて、検出されたイベントに関する情報を提供するためのメカニズム(方法、システム、および媒体を含み得る)を提供する。
いくつかの実装形態では、本明細書に記載のこれらのメカニズムは、ユーザの自宅または他の環境の全域にわたって置かれている1つ以上のデバイスから音声データおよび/または映像データを収集し得、収集されたデータを用いて、たとえば、ユーザの自宅に存在する生き物または人についての情報をユーザに提供し得る。たとえば、いくつかの実装形態では、メカニズムは、ユーザの子供、ペット、高齢者の親族、および/またはその他の適当な人または生き物の現在の状態または行動についての情報を提供し得る。より特定的な例として、いくつかの実装形態では、メカニズムは、ユーザの赤ちゃんが起きて泣いていること、ユーザの犬がユーザの自宅の特定の部屋で家具を引っ掻いていること、および/またはその他の適当な情報を示すアラートまたはメッセージをユーザに提供し得る。いくつかの実装形態では、メカニズムは、ユーザからクエリを受信することに応答して情報を提供し得る。たとえば、いくつかの実装形態では、「私の犬は、何をしていますか」などのクエリを受信することに応答して、メカニズムは、1つ以上のデバイスを起動し、(たとえば、犬の存在を示す音声データに基づいて、犬の存在を示す画像または映像データ、および/またはその他の適当な情報に基づいて)ユーザの犬を検出し得、次に、デバイスからの当該データに基づく応答をユーザに提供し得る。これに加えて、または、これに代えて、いくつかの実装形態では、メカニズムは、1つ以上のデバイスを用いて、ユーザの関心の対象であると思われるイベント(たとえば、「あなたの赤ちゃんが泣いています」、「あなたの猫のエサ皿は、空です」、および/またはその他の適当なイベント)を検出し得、検出されたイベントを示すアラートまたはメッセージをユーザに提供し得る。
これに加えて、または、これに代えて、いくつかの実装形態では、メカニズムは、デバイスの各々の機能に基づいて、ユーザの自宅または環境の全域にわたって置かれている1つ以上のデバイスのうち、どのデバイスがユーザから受信したクエリに応答して情報を提供できるかを特定し得る。たとえば、いくつかの実装形態では、「赤ちゃん部屋用ライブマイクの電源を入れて」などのクエリを受信することに応答して、メカニズムは、ある場所または当該場所の近くにある、ユーザの自宅にあるデバイスのうち、「赤ちゃん部屋」に対応付けられているデバイスを特定し得、「赤ちゃん」部屋の場所に対応付けられているデバイスのうち、電源入力できるマイクロフォン機能を有しているデバイスを特定し得る。これに応答して、メカニズムは、特定されたデバイスのマイクロフォンを起動し、当該起動されたマイクロフォンによってキャプチャされた音声信号を、スピーカ、またはクエリを提供したユーザに関連する他のオーディオ出力装置(たとえば、モバイル機器上のスピーカ、モバイル機器の位置または当該位置の近くの場所にある表示装置上のスピーカ、ローカルエリアネットワークなどを通じてモバイル機器に接続されたメディア受信機)上で再生し得る。
いくつかの実装形態では、音声データおよび/または映像データを収集するために用いられる当該1つ以上のデバイスは、バーチャルアシスタントデバイス、音声制御スピーカ、ウェブカメラ、モバイル機器(たとえば、携帯電話、タブレットコンピュータ、および/またはその他の適当な種類のモバイル機器)、スマートサーモスタット、スマートテレビ、および/またはその他の適当な種類(複数可)のデバイスなど、任意の適当な種類のデバイスであり得る。なお、いくつかの実装形態では、当該1つ以上のデバイスは、任意の適切な方法で通信可能に連結され得る。たとえば、いくつかの実装形態では、1つ以上のデバイスは、各々、環境内の通信ネットワーク(たとえば、WiFiネットワーク、ローカルエリアネットワーク、BLUETOOTH(登録商標)ネットワーク、および/またはその他の適当なネットワーク)に接続され得る。
いくつかの実装形態では、本明細書に記載のこれらのメカニズムは、任意の適当な情報を用いて、データを収集するために用いる1つ以上のデバイスを選択し得る。たとえば、いくつかの実装形態では、メカニズムは、特定のデバイスを特定のクエリタームと対応付け得る。より特定的な例として、いくつかの実装形態では、メカニズムは、単語「赤ちゃん」を、ユーザの自宅の特定の部屋に置かれたデバイス(たとえば、ベビーモニター)と対応付け得る。いくつかのこのような実装形態では、メカニズムは、(たとえば、設定インタフェースを介して、および/またはその他の方法で提供される)ユーザが提供する明示的な表示など、任意の適当な情報に基づいて、および/または(たとえば、特定のデバイスによっておよび/またはその他の適切な方法で収集される音声データから、赤ちゃんに通常関連付けられる音声が頻繁に検出されているとの判断に基づいた)暗黙的な推察によって、特定のデバイスを特定の場所に対応付け得る。
いくつかの実装形態では、音声データおよび/または映像データを収集するデバイスは、特定の単語またはフレーズ、たとえば、ユーザのクエリに含まれている単語またはフレーズを検出することに応答して起動され得る。より特定的な例として、いくつかの実装形態では、デバイスは、単語「赤ちゃん」、「犬」、および/またはその他の適当な単語が発せられたと判断することに応答して、データの記録を開始し得る。これに加えて、または、これに代えて、いくつかの実装形態では、デバイスは、音声データおよび/または映像データを連続して記録し得、当該記録データを分析し、ユーザにとって関心の対象であると思われるイベントが記録データにおいて示されているかどうかを判断し得る。いくつかの実装形態では、デバイスは、記録データを任意の適切な方法で格納し得る。たとえば、いくつかの実装形態では、データは、任意の適切な大きさのサーキュラーバッファに格納され得、収集されたデータは、ユーザにとって関心の対象であると思われる音声信号または映像信号をデータが含んでいないと判断されると、削除され得る。
いくつかの実装形態では、メカニズムは、検出されたイベントを示すクエリまたは情報に応答して、ユーザに追加情報を要求させるユーザインタフェース内に情報を提示し得る。たとえば、いくつかの実装形態では、メカニズムは、特定のイベント(たとえば、「あなたの赤ちゃんが泣いています」、「あなたの犬がカウチを引っ掻いています」、および/またはその他の適当なイベント)が検出されたと示し得、ユーザインタフェースは、記録された音声および/または映像を特定のユーザデバイス上(たとえば、ユーザインタフェースを提示しているユーザデバイス上、ユーザの自宅内の異なるユーザデバイス上、および/またはその他の適当なユーザデバイス)に提示させるようユーザに要求させ得る。別の例として、いくつかの実装形態では、ユーザインタフェースは、特定のマイクロフォンまたはカメラ(たとえば、イベントの検出に関連するデータを記録したデバイスに対応付けられたマイクロフォンまたはカメラ、および/またはその他の適当なデバイス)をユーザに起動させて、さらなる音声データまたは映像データを記録させ、当該さらなる音声データまたは映像データを特定のユーザデバイス上(たとえば、ユーザインタフェースを提示しているユーザデバイス上、ユーザの自宅内の異なるユーザデバイス上、および/またはその他の適当なユーザデバイス上)に提示させ得る。
図1は、ユーザの自宅におけるユーザデバイスの例示的な配置例を示す図である。いくつかの実装形態では、ユーザの自宅は、寝室102、リビング104、台所106、および浴室108など、複数の部屋を備え得る。図示しないが、図1において、いくつかの実装形態では、これに加えて、または、これに代えて、ユーザデバイスは、ユーザの車、ユーザのオフィス、および/またはその他の適当な場所など、自宅の外に置かれ得る。ユーザの自宅は、テレビ110、モバイル機器112、および/またはバーチャルアシスタントデバイス116など、任意の適当な数のユーザデバイスを収容し得る。いくつかの実装形態では、ユーザの自宅は、スマートサーモスタット、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ウェアラブルコンピュータ、音声制御スピーカ、プロジェクタ、ウェブカメラ、および/またはその他の適当なデバイスなど、その他の適当なデバイスを収容し得る。
いくつかの実装形態では、ユーザの自宅にあるテレビ110、モバイル機器112、バーチャルアシスタントデバイス116、およびその他のデバイスは、任意の適切な方法で接続および/または通信可能に連結され得る。たとえば、いくつかのデバイスでは、デバイスは、各々、ユーザの自宅内の任意の適当な場所に載置され得るルータ114を介して通信ネットワークに接続され得る。なお、1台のテレビ、1つの携帯電話、および1台のバーチャルアシスタントデバイスが図1に示されているが、いくつかの実装形態では、各種の任意の適当な数のデバイスが収容され得る。
図1に示すように、いくつかの実装形態では、ユーザの自宅にある第1デバイスは、赤ちゃんが泣いている、または犬が吠えているなど、イベントの検出を含んだデータを記録し得る。図4および図5に関して後述するように、次に、記録データに関する情報および/または検出されたイベントは、ユーザの自宅の第2デバイス上に提示され得る。たとえば、図1に示すように、寝室102のバーチャルアシスタントデバイス116からのユーザの犬の記録に対応する映像データまたは音声データを、リビング104のテレビ110上に提示することができる。いくつかのこのような実装形態では、図4および図5に関してより詳細を後述するように、映像データまたは音声データは、モバイル機器112など、第3デバイスからの要求を受信することに応答して、テレビ110上に提示され得る。
図2を参照すると、開示の主題のいくつかの実装形態に従って使用され得る検出イベントに関する情報を提供するためのハードウェア例200が示されている。図示するように、ハードウェア200は、1つ以上のサーバ202、通信ネットワーク204、および/または、ユーザデバイス208および210など、1つ以上のユーザデバイス206を含み得る。
サーバ(複数可)202は、プロセッサ、コンピュータ、データ処理装置、またはこのようなデバイスの任意の適当な組合せなど、情報を提示するための本明細書に記載のメカニズムへのアクセスを提供するための任意の適当なサーバ(複数可)であり得る。たとえば、いくつかの実装形態では、サーバ(複数可)202は、ユーザデバイスの種類および/またはユーザの自宅内でのユーザデバイスの場所を示す情報を格納し得る。別の例として、いくつかの実装形態では、サーバ(複数可)202は、ユーザの自宅内の1つ以上のユーザデバイスを、特定のユーザアカウントに対して認証し得る。さらに別の例として、いくつかの実装形態では、サーバ(複数可)202は、ユーザデバイスからの音声データおよび/または映像データ(たとえば、デバイスに対応付けられたマイクロフォンから記録された音声データ、デバイスに対応付けられたマイクロフォンから記録された映像データ、および/またはその他の適切な音声データおよび/または映像データ)を受信し得、音声データおよび/または映像データを処理して当該データの特徴(たとえば、音声データが生き物の1つ以上の特徴、たとえば、赤ちゃんに関連する物音を含んでいるかどうか、音声データおよび/または映像データが犬または他のペットの物音または画像、および/またはその他の適当な特定される特徴を含んでいるかどうか)を判断し得る。
通信ネットワーク204は、いくつかの実装形態において、1つ以上の有線および/またはワイヤレスネットワークの任意の適当な組合せであり得る。たとえば、通信ネットワーク210は、インターネット、イントラネット、WAN(Wide−Area Network)、LAN(Local−Area Network)、ワイヤレスネットワーク、DSL(Digital Subscriber Line)ネットワーク、フレームリレーネットワーク、ATM(Asynchronous Transfer Mode)ネットワーク、VPN(Virtual Private Network)、および/またはその他の適当な通信ネットワークのうちの任意の1つ以上を含み得る。ユーザデバイス206は、1つ以上の通信リンクによって通信ネットワーク204に接続され得る。通信ネットワーク204は、1つ以上の通信リンクを介してサーバ(複数可)202にリンク接続され得る。通信リンクは、ネットワークリンク、ダイヤルアップリンク、ワイヤレスリンク、固定リンク、その他の適当な通信リンク、またはこのようなリンクの任意の適当な組合せなど、ユーザデバイス206とサーバ(複数可)202との間でデータ通信を行うことに適した任意の通信リンクであり得る。
ユーザデバイス206は、音声データおよび/または映像データを受信すること、音声データおよび/または映像データを処理すること、音声データおよび/または映像データに基づいて情報をユーザデバイスのユーザに提示することに適した任意の1つ以上のユーザデバイス、および/またはその他の適切な機能を備え得る。たとえば、いくつかの実装形態では、ユーザデバイス206は、携帯電話、タブレットコンピュータ、ウェアラブルコンピュータ、ラップトップコンピュータ、車載(たとえば、車、ボート、飛行機、またはその他の適当な乗り物)エンターテインメントシステム、および/またはその他の適当なモバイル機器など、モバイル機器を含み得る。別の例として、いくつかの実装形態では、ユーザデバイス206は、テレビ、プロジェクタ装置、ゲーム機、デスクトップコンピュータ、および/またはその他の適当な非モバイル機器など、メディア再生装置を含み得る。さらに別の例として、いくつかの実装形態では、ユーザデバイス206は、バーチャルアシスタントデバイス、音声制御スピーカ、および/またはその他の適当な種類のデバイスを含み得る。
より特定的な例では、ユーザデバイス206は、メディアコンテンツの1つ以上のソースから受信したメディアを提示するためのハードウェアおよび/またはソフトウェアを備えた表示装置であり得る。たとえば、ユーザデバイス206は、テレビ、スマートテレビ、モニタ、セットトップボックス、AV(Audio Video)受信機、その他の適当なメディア再生装置および/またはそれらの任意の適当な組合せを含み得る。より特定的には、ユーザデバイス206は、ディスプレイ、スピーカ、アナログ映像データおよび/もしくはデジタル映像データならびに/または音声データなど、メディアコンテンツを描画するためのハードウェアおよび/またはソフトウェア、電源などを含み得る。ユーザデバイス206は、いくつかの実装形態では、様々なソースからの映像データおよび/または音声データを受信するための様々な入力ポートを含み得る。このような入力ポートは、1つ以上のHDMI(登録商標)ポート、1つ以上のコンポーネントビデオポート、1つ以上のコンポジットビデオポート、1つ以上のUSBポート、1つ以上のS−Videoポート、1つ以上のTOSLINKポート、1つ以上の同軸ポート、1つ以上のEthernet(登録商標)ポート(有線であってもワイヤレスであってもよい)などを含み得る。
別のより特定的な例では、ユーザデバイス206は、音声信号を受信し、当該音声信号を(場合によっては、1つ以上の中間デバイスを通して)1つ以上のスピーカに出力し得る任意の適当なデバイスであり得る。たとえば、ユーザデバイス206は、AV(Audio Video)受信機、スピーカ、アンプ、オーディオスイッチ、HDMIスイッチ、その他の適当なオーディオシステムおよび/またはそれらの任意の適当な組合せであり得る。より特定的には、ユーザデバイス206は、スピーカ、アナログ音声データおよび/またはデジタル音声データおよび/または映像データなどのメディアコンテンツを描画するためのハードウェアおよび/またはソフトウェア、電源などを備え得る。ユーザデバイス206は、様々なソースから音声データおよび/または映像データを受信するための様々な入力ポートを含み得る。このような入力ポートは、1つ以上のHDMIポート、1つ以上のコンポーネントビデオポート、1つ以上のコンポジットビデオポート、1つ以上のUSBポート、1つ以上のS−Videoポート、1つ以上のTOSLINKポート、1つ以上の同軸ポート、1つ以上のEthernetポート(有線であってもワイヤレスであってもよい)などを含み得る。これに加えて、または、これに代えて、いくつかの実装形態では、ユーザデバイス206は、(たとえば、IEEE802.11xのプロトコルファミリー(Wi−Fi接続と称される場合もある)のうちの1つに準拠した接続を介した)ローカルエリアネットワークへの接続を通じてなど、またはアドホックワイヤレスネットワーク接続、近距離無線通信プロトコル(たとえば、Bluetooth(登録商標)、Bluetooth Low Energy、ワイヤレスUSBなど)など、外部音響システム106とコンピューティングデバイス102とのワイヤレス接続など、任意の適当なワイヤレス接続を通じて音声信号を受信するように構成され得る。
サーバ(複数可)202は、1つのデバイスとして図示されているが、いくつかの実装形態において、サーバ(複数可)202によって実行される機能は、任意の適当な数のデバイスによって実行することができる。たとえば、いくつかの実装形態では、サーバ(複数可)202によって実行される機能を、複数のデバイスを用いて実装することができる。
図を余計に複雑にしないために、2つのユーザデバイス208および210を図2に示しているが、いくつかの実装形態では、任意の適当な数のユーザデバイス、および/または任意の適当な種類のユーザデバイスを使用することができる。
サーバ(複数可)202およびユーザデバイス206は、いくつかの実装形態において、任意の適当なハードウェアを用いて実装できる。たとえば、いくつかの実装形態では、デバイス202および206は、任意の適当な汎用コンピュータまたは専用のコンピュータを用いて実装され得る。たとえば、携帯電話は、専用のコンピュータを用いて実装され得る。そのような汎用コンピュータまたは専用のコンピュータは、任意の適当なハードウェアを含み得る。たとえば、図3のハードウェア300の例に示すように、このようなハードウェアは、ハードウェアプロセッサ302と、メモリおよび/またはストレージ304と、入力装置制御部306と、入力装置308と、ディスプレイ/オーディオドライバ310と、ディスプレイ/オーディオ出力回路部312と、通信インタフェース(複数可)314と、アンテナ316と、バス318とを含み得る。
ハードウェアプロセッサ302は、いくつかの実装形態において、マイクロプロセッサ、マイクロコントローラ、デジタル信号処理装置(複数可)、専用論理回路、および/または汎用コンピュータまたは専用コンピュータの機能を制御するためのその他の適当な回路部など、任意の適当なハードウェアプロセッサを含み得る。いくつかの実装形態では、ハードウェアプロセッサ302は、サーバ(たとえば、サーバ(複数可)202のうちの1つ)のメモリおよび/またはストレージ304に格納されたサーバプログラムによって制御され得る。たとえば、いくつかの実装形態では、サーバプログラムは、ハードウェアプロセッサ302に、任意の適当な技術(複数可)を用いて受信した音声データおよび/または映像データを分析させ、特定のデバイスと特定の種類のクエリとの対応付けを格納させ、および/またはその他の動作を実行させる。いくつかの実装形態では、ハードウェアプロセッサ302は、ユーザデバイス206のメモリおよび/またはストレージ304に格納されたコンピュータプログラムによって制御され得る。たとえば、コンピュータプログラムは、ハードウェアプロセッサ302に、音声データおよび/または映像データを記録させ、記録された音声データおよび/または映像データに基づいてイベントを検出させ、記録データに関する情報を提示させ、および/またはその他の適当な動作を実行させることができる。
メモリおよび/またはストレージ304は、いくつかの実装形態において、プログラム、データ、メディアコンテンツ、および/またはその他の適当な情報を格納するための任意の適当なメモリおよび/またはストレージであり得る。たとえば、メモリおよび/またはストレージ304は、RAM、読出し専用メモリ、フラッシュメモリ、ハードディスクストレージ、光学媒体、および/またはその他の適当なメモリを含み得る。
入力装置制御部306は、いくつかの実装形態において、1つ以上の入力装置308からの入力を制御および受信するための任意の適当な回路部であり得る。たとえば、入力装置制御部306は、タッチスクリーンから、キーボードから、マウスから、1つ以上のボタンから、音声認識回路から、マイクロフォンから、カメラから、光センサから、加速度計から、温度センサから、近距離センサから、および/またはその他の種類の入力装置から入力を受け付けるための回路部であり得る。
ディスプレイ/オーディオドライバ310は、いくつかの実装形態において、1つ以上のディスプレイ/オーディオ出力装置312への出力を制御および駆動するための任意の適当な回路部であり得る。たとえば、ディスプレイ/オーディオドライバ310は、タッチスクリーン、フラットパネルディスプレイ、ブラウン管ディスプレイ、プロジェクタ、1つまたは複数のスピーカ、および/またはその他の適当なディスプレイおよび/または提示装置を駆動するための回路部であり得る。
通信インタフェース(複数可)314は、図2に示すようなネットワーク210など、1つ以上の通信ネットワークとインタフェース接続するための任意の適当な回路部であり得る。たとえば、インタフェース(複数可)314は、ネットワークインタフェースカード回路部、ワイヤレス通信回路部、および/またはその他の適当な種類の通信ネットワーク回路部を含み得る。
アンテナ316は、いくつかの実装形態において通信ネットワーク(たとえば、通信ネットワーク206)とワイヤレス通信を行うための任意の適当な1つ以上のアンテナであり得る。いくつかの実装形態では、アンテナ316を省略してもよい。
バス318は、いくつかの実装形態において、2つ以上のコンポーネント302、304、306、310、および314間で通信するための任意の適当なメカニズムであり得る。
いくつかの実装形態に従って、その他の適当なコンポーネントがハードウェア300に含まれ得る。
図4を参照すると、開示の主題のいくつかの実装形態に係る、ユーザのクエリに応答して情報を提供するための処理例400が示されている。
処理400は、402において、ユーザデバイスからクエリを受信することから開始し得る。いくつかの実装形態では、クエリは、たとえば、ユーザの自宅にいる1つ以上の生き物に関する任意の適当な種類の情報を要求し得る。クエリの例として、「寝室にいる私の赤ちゃんの様子を確認して」、「私の犬は何をしていますか?」、および/またはその他の適当なクエリなどを挙げることができる。いくつかの実装形態では、クエリは、特定の生き物(たとえば、子供、ペット、および/またはその他の適当な生き物または人)、場所(たとえば、寝室、地下室、上の階、下の階、裏庭、および/またはその他の適当な場所)、行動(たとえば、寝ている、泣いている、吠えている、および/またはその他の適当な行動)、および/またはその他の適当な情報など、任意の適当な情報を示し得る。いくつかの実装形態では、クエリは、たとえば、ユーザデバイスに対応付けられたマイクロフォンを介してユーザデバイスによって受信された音声クエリとして、ユーザデバイス上のキーボードを介して入力されたテキストクエリとして、および/またはその他の適切な方法でなど、任意の適切な方法で受信され得る。いくつかの実装形態では、クエリは、部屋および/または起動される特定のデバイスを示し得る。たとえば、いくつかの実装形態では、クエリは、ベビーモニターが起動されること、特定の部屋のバーチャルアシスタントデバイスが起動されること、および/またはその他の適当なデバイスを指定し得る。より特定的な例として、いくつかの実装形態では、クエリは、特定のデバイスから音声が記録されてユーザデバイスを介して(たとえば、リアルタイムで、および/または任意の適当な遅延をもって)提示されることを示し得る。
404において、処理400は、ユーザの自宅の1つ以上のデバイスを特定し、受信したクエリに関する情報を受信および/または記録し得る。いくつかの実装形態では、1つ以上のデバイスは、モバイル機器(たとえば、携帯電話、タブレットコンピュータ、および/またはその他の適当な種類のモバイル機器)、バーチャルアシスタントデバイス、ウェブカメラ、および/またはその他の適当な種類のデバイスなど、任意の適当な種類のデバイスであり得る。
いくつかの実装形態では、処理400は、任意の適当な情報に基づいて、1つ以上のデバイスを特定し得る。たとえば、いくつかの実装形態では、処理400は、クエリに含まれる情報に基づいて、1つ以上のデバイスを特定し得る。より特定的な例として、クエリが場所情報(たとえば、寝室、外、裏庭、下の階、および/またはその他の適当な場所情報)を含んでいる場合、処理400は、示された場所および/または当該示された場所の近くに位置する1つ以上のデバイスを特定し得る。具体的な例として、ユーザの自宅の台所から情報が記録されることをクエリが示す場合、処理400は、台所または台所の近くに置かれている1つ以上のデバイスを特定し得る。別のさらに特定の例として、クエリが特定の生き物または人(たとえば、ユーザの子供またはペット、および/またはその他の適当な生き物または人)を示す場合、処理400は、生き物または人が通常居る通常の場所(たとえば、子供の寝室、リビング、および/またはその他の適当な場所)の近くにある1つ以上のデバイスを特定し得る。いくつかのこのような実装形態では、処理400は、明示的に提供される情報(たとえば、ベビーモニターと表示されたデバイス、特定の部屋に置かれていると表示されたデバイス)など、任意の適当な情報に基づいて、および/または、暗黙的に推察される情報に基づいて、生き物または人が通常居る通常の場所の近くにある1つ以上のデバイスを特定し得る。たとえば、処理400が暗黙的に推察される情報に基づいて1つ以上のデバイスを識別する場合、デバイスは、特定の部屋内にあると知られているデバイスの場所を特定することに基づいて、または、当該デバイスから以前記録されたことがある音声または画像に基づいて識別されてもよい。より特定的な例として、処理400は、通常赤ちゃんに関連付けられる音が特定のデバイスを用いて以前記録されたことがあるという判断に基づいて、当該特定のデバイスが赤ちゃんの部屋にあると思われると特定し得る。いくつかのこのような実装形態では、処理400は、特定のデバイスが推察される場所に置かれているという確認を、(たとえば、「このデバイスは、ベビーモニターですか?」などの質問を提示するインタフェースを介して、および/またはその他の適切な方法で)ユーザデバイスのユーザに要求し得る。
なお、いくつかの実装形態では、クエリは、トリガータームとしてみなされ得る1つ以上の単語を含み得る。トリガータームは、ブロック410に関してさらに詳細を後述するように、たとえば、トリガーワードまたはトリガーフレーズであってもよく、それらを含んでもよい。たとえば、いくつかの実装形態では、トリガーワードまたはトリガーフレーズは、人または生き物の種類(たとえば、「赤ちゃん」、「犬」、および/またはその他の適当な種類の人または生き物)および/または人または生き物の特定の名前(たとえば、ユーザの子供またはペットの名前)を含み得る。いくつかのこのような実装形態では、トリガーワードまたはトリガーフレーズは、ブロック410に関してより詳細を後述するように、たとえば、デバイスによって記録された、以前に検出された音声または画像に基づいて特定のデバイスと対応付けられ得る。いくつかの実装形態では、クエリがトリガーワードを含んでいないおよび/またはクエリに含まれる単語またはフレーズのいずれも特定のデバイスに予め対応付けられていないと判断された場合、処理400は、ユーザの環境にの複数のデバイス(たとえば、すべてのデバイス、特定の場所の近くにあるすべてのデバイス、映像データを記録可能なすべてのデバイス、および/またはその他の適当なデバイス群)が起動されて、クエリを受信することに応答して音声データおよび/または映像データを記録させられると判断し得る。
なお、いくつかの実装形態では、処理400は、任意の適当な技術または当該技術の組合せを用いて、どのデバイスが特定の場所にあるまたはその近くにあるのかを判断し得る。たとえば、いくつかの実装形態では、処理400は、たとえば、特定のバーチャルアシスタントデバイスが特定の場所に置かれている、特定のスマートテレビが特定の寝室に置かれている、および/または場所とデバイスとのその他の適当な組合せを示す、ユーザによって明示的に提供される格納された情報を使用し得る。別の例として、いくつかの実装形態では、ブロック410に関してさらに詳細に後述するように、処理400は、以前のクエリに基づいて、特定のデバイスと場所との対応付けを以前に決定したことがある可能性がある。いくつかのこのような実装形態では、処理400は、暗黙的に判断された場所情報を用いて当該1つ以上のデバイスを特定し得る。
別の例として、いくつかの実装形態では、処理400は、受信したクエリに対応付けられている情報を判断するために必要なデバイス機能に基づいて、1つ以上のデバイスを特定し得る。より特定的な例として、オーディオ情報が有用である可能性があるとクエリが示す場合、処理400は、マイクロフォンを備えるおよび/またはマイクロフォンに対応付けられた1つ以上のデバイス(たとえば、モバイル機器、ウェブカメラ、バーチャルアシスタントデバイス、および/またはその他の適当なデバイス)を特定し得る。具体的な例として、「私の赤ちゃんは泣いていますか?」などのクエリは、オーディオ情報が有用である可能性があることを示す。別のさらに特定の例として、映像情報が有用である可能性があるとクエリが示す場合、処理400は、カメラを備えるおよび/またはカメラに対応付けられた1つ以上のデバイスを特定し得る。具体的な例として、「私の犬はどこにいますか?」などのクエリは、映像情報が有用である可能性があることを示す。
さらに別の例として、いくつかの実装形態では、処理400は、記録装置の表示をユーザデバイスのユーザに要求するクエリを受信したユーザデバイス上に、ユーザインタフェースを提示し得る。より特定的な例として、いくつかの実装形態では、処理400は、利用可能な記録装置の群を提示し得、クエリに関連性のあるデータを記録するための記録装置を当該記録装置の中から1つ以上選択するよう、ユーザに要求し得る。いくつかのこのような実装形態では、処理400は、利用可能な記録装置を任意の適切な方法で、たとえば、ユーザの自宅内の通信ネットワーク(たとえば、WiFiネットワーク、LAN、BLUETOOTHネットワーク、および/またはその他の適当な通信ネットワーク)に接続された記録装置を特定することによって特定し得る。
処理400は、406において、1つ以上のデバイスからデータを受信し得る。たとえば、いくつかの実装形態では、処理400は、デバイスの各々に対応付けられたマイクロフォンおよび/またはカメラからオーディオ録音および/またはビデオ録画を受信し得る。なお、いくつかの実装形態では、データは、任意の適当な数(たとえば、1つ、2つ、4つ、および/またはその他の適当な数)のデバイスから受信され得る。処理400は、データを任意の適切な方法で受信し得る。たとえば、いくつかの実装形態では、処理400は、デバイスに対応付けられたマイクロフォンを起動させて音声データを記録させ得る。別の例として、いくつかの実装形態では、処理400は、デバイスに対応付けられたカメラを起動させて、画像および/または映像データを記録させ得る。なお、いくつかの実装形態では、デバイスに対応付けられたマイクロフォンおよび/またはカメラは、既に起動されていてもよく、処理400は、音声データおよび/または映像データを、処理のために保存させ得る。いくつかの実装形態では、処理400は、キャプチャされた音声データおよび/または映像データを、処理のためにサーバ(複数可)202に送信させ得る。
いくつかの実装形態では、処理400は、音声データおよび/または映像データをキャプチャし、キャプチャされたデータがクエリに関連性のある情報を含んでいると判断されるまで、記録された音声データおよび/または映像データを処理する。たとえば、ユーザの赤ちゃんについての情報が要求されているとクエリが示す場合、処理400は、赤ちゃんに関連する音声(たとえば、鳴き声、おしゃべり、および/またはその他の適当な音声)が記録データ中に検出されるまで、音声データおよび/または映像データを記録し得る。別の例として、ユーザの犬についての情報が要求されているとクエリが示す場合、処理400は、犬に関連する音声(たとえば、吠えている、引っ掻いている、および/またはその他の適当な音声)が記録されるおよび/または犬の画像がキャプチャされるまで、音声データおよび/または映像データを記録し得る。いくつかの実装形態では、音声データおよび/または映像データは、処理前に任意の適切な方法で格納され得る。たとえば、いくつかの実装形態では、音声データおよび/または映像データは、任意の適当なサイズのサーキュラーバッファに格納され得、クエリに関連性がないと判断されたデータは、処理および/または分析後、破棄され得る。より特定的な例として、ユーザの赤ちゃんについての情報が要求されているとクエリが示す場合、処理400は、1つ以上のデバイスから音声データのチャンクを記録し、記録された音声データのチャンクを分析して赤ちゃんに関連する音声が記録された音声データ中に提示されているかどうかを判断し、赤ちゃんに関連する音声が提示されていないと判断した場合、記録された音声データのチャンクを削除し得る。別のさらに特定の例として、処理400は、1つ以上のデバイスから映像データのチャンクを記録し、記録された映像データのチャンクを分析してクエリに対応付けられた画像(たとえば、ユーザの赤ちゃんの画像、ユーザのペットの画像、および/またはその他の適当な画像コンテンツ)が記録された映像データ中に提示されているかどうかを判断し、クエリに対応付けられた画像が提示されていない場合、記録された映像データのチャンクを削除し得る。
いくつかの実装形態では、処理400は、記録された音声データを任意の適切な方法で分析し得る。たとえば、いくつかの実装形態では、処理400は、音声データおよび/または記録された音声データに基づいて生成された指紋を照合して、記録された音声データが音声データベースに格納されている音声と一致するかどうかを判断し得る。いくつかの実装形態では、音声データベースは、赤ちゃんの泣き声、犬の吠え声、犬または猫が引っ掻く音、子供が遊んでいる音、および/または記録された音を特定するために利用され得るその他の適当な音など、任意の適当な音を含み得る。いくつかの実装形態では、処理400は、任意の適当な技術(複数可)を用いて、記録された音声を音声データベースの音と照合するためのオーディオ指紋を生成し得る。たとえば、いくつかの実装形態では、処理400は、任意の適当な周波数に対応するスペクトル、および/またはその他の適当な情報を示すオーディオ指紋を生成し得る。
処理400は、408において、ユーザクエリおよび受信したデータに基づいて、ユーザに情報を提示し得る。いくつかの実装形態では、処理400は、ユーザクエリに関する任意の適当な情報を提示し得る。たとえば、クエリが「寝室にいる私の赤ちゃんの様子を確認して」である場合、処理400は、寝室からのオーディオ録音、寝室からのビデオ録画、記録データの記述(たとえば、「寝室に物音なし」、「赤ちゃんは、まだ寝ています」、および/またはその他の適当な記述)、および/またはその他の適当なクエリへの応答を提示し得る。音声データ、画像データ、および/または映像データが提示される場合、処理400は、音声データ、画像データ、および/または映像データを任意の適切な方法で提示し得る。たとえば、いくつかの実装形態では、処理400は、クエリを入力するためにユーザが使用するユーザデバイス上に任意の適当な音声または映像を提示し得る。別の例として、いくつかの実装形態では、当該音声および/または映像は、異なるユーザデバイス上に音声および/または映像を提示するための選択可能な入力、同じ記録装置からさらなる音声データおよび/または映像データを記録するための選択可能な入力、および/またはその他の適当なオプションなど、インタラクションのためのその他の適当なオプションを含んだユーザインタフェース内に提示され得る。別の例として、クエリが、はいまたはいいえの質問をたずねる場合、処理400は、クエリへの回答を提示し得る。はい/いいえの質問のより特定的な例として、「私の赤ちゃんは寝ていますか?」、「私の犬は吠えていますか?」、および/またはその他の適当な質問などを挙げることができる。
なお、いくつかの実装形態では、情報を提示するユーザデバイスは、ユーザの自宅および/または記録装置から遠隔に存在し得る。たとえば、いくつかの実装形態では、ユーザデバイスのユーザは、遠隔地(たとえば、ユーザのオフィス、旅先、および/またはその他の適当な遠隔地)にあるユーザデバイスを介してクエリを送信した可能性があり、ユーザの自宅内の記録装置によって記録されたデータを用いてユーザの自宅についての情報(たとえば、ユーザの自宅にいる生き物または人)を要求してもよい。
410において、処理400は、1つ以上のデバイスのうちの少なくとも1つのデバイスを、1つ以上のトリガータームと対応付け得る。1つ以上のトリガータームは、たとえば、クエリに含まれるトリガーワードおよび/またはトリガーフレーズであってもよく、またはそれらを含んでもよい。たとえば、いくつかの実装形態では、デバイスは、未来の同様のクエリへの回答のために用いるのに適当なデバイスを特定するためのクエリに含まれる1つ以上のトリガーワードに対応付けられ得る。いくつかの実装形態では、処理400は、任意の適当な情報に基づいて、少なくとも1つのデバイスを、クエリに含まれる1つ以上のトリガーワードに対応付け得る。たとえば、ユーザの子供についての情報をクエリが要求し、特定のデバイスが子供に関連する音声または物音を検出した場合(たとえば、特定の寝室にあるバーチャルアシスタントデバイス、および/またはその他の適当なデバイス)、処理400は、当該特定のデバイスをクエリにおいて使用されている子供および/または子供の名前に対応付け得る。別の例として、クエリが特定の場所(たとえば、寝室、リビング、および/またはその他の適当な場所)について言及した場合、処理400は、関連データ(たとえば、ペットの音声または画像、および/またはその他の適当な関連データ)を記録するデバイスを、当該特定の場所と対応付け得る。
なお、いくつかの実装形態では、処理400は、クエリに対して任意の適当な自然言語処理技術を用いて、少なくとも1つのデバイスをクエリに含まれる1つ以上の単語と対応付け得る。たとえば、クエリが「他の部屋にいる私の赤ちゃんの様子を確認して」である場合、処理400は、ユーザの自宅には2つ以上の部屋(たとえば、ユーザが現在いる部屋ではない部屋)があると判断し得、赤ちゃんを検出するデバイスを含んだ部屋は、「他の部屋」であると判断し得る。
これに加えて、なお、いくつかの実装形態では、処理400は、トリガーワードまたはトリガーフレーズを検出することに応答して、音声データおよび/または映像データの記録を開始し得る。たとえば、いくつかの実装形態では、トリガーワードまたはトリガーフレーズは、人または生き物の種類および/または人または生き物の特定の名前を含み得る。より特定的な例として、いくつかの実装形態では、トリガーワードは、「赤ちゃん」、「犬」、「猫」、ユーザの子供の名前、ユーザのペットの名前、および/またはその他の適当な単語または名前を含み得る。別の例として、いくつかの実装形態では、トリガーワードまたはトリガーフレーズは、「台所」、「リビング」、「赤ちゃんの部屋」、および/またはその他の適当な場所など、ユーザの環境における場所を含み得る。いくつかの実装形態では、トリガーワードまたはトリガーフレーズを検出することに応答して、処理400は、任意の適当なデバイスからの記録を開始し、トリガーワードまたはトリガーフレーズに対応付けられた音声または画像が、記録された音声データまたは映像データに含まれているかどうかを判断し得る。たとえば、検出されたトリガーワードが「赤ちゃん」である場合、処理400は、赤ちゃんに関連する音声が検出され得るかどうかを判断するために、音声データおよび/または映像データの記録を開始し得る。いくつかの実装形態では、処理400は、トリガーワードまたはトリガーフレーズを検出することに応答して、任意の適当なデバイスを起動し得る。これに加えて、または、これに代えて、いくつかの実装形態では、処理400は、トリガーワードまたはトリガーフレーズに基づいて、起動するデバイスを選択し得る。たとえば、いくつかの実装形態では、検出されたトリガーワードが「赤ちゃん」である場合、処理400は、赤ちゃんに関連付けられた音声を以前検出したことのある1つ以上のデバイス、および/または、ユーザが示す、赤ちゃんに関連付けられた場所にあると知られている1つ以上のデバイス(たとえば、赤ちゃんの部屋、および/またはその他の適当な場所)を起動し得る。
図5を参照すると、開示の主題のいくつかの実装形態に係る、イベントを検出してイベントを示す情報を提示するための処理例500が示されている。
処理500は、502において、1つ以上のデバイスからデータを受信することから開始し得る。たとえば、図4のブロック406に関して上述したように、このデータは、デバイスに対応付けられたマイクロフォンおよび/またはカメラから記録された任意の適切な音声データおよび/または映像データを含み得る。いくつかの実装形態では、音声データおよび/または映像データは、任意の適当な長さ(たとえば、1秒、2秒、10秒、および/またはその他の適当な長さ)のものであり得る。いくつかの実装形態では、当該データは、処理および分析するためにサーバによって1つ以上のデバイスから受信され得る。
504において、処理500は、受信したデータに基づいて、生き物または人の特徴の一部、またはそれを含んだイベントを検出し得る。いくつかの実装形態では、イベントは、特定の生き物または人に関連し得る。たとえば、いくつかの実装形態では、イベントは、ユーザの赤ちゃんが泣いている、ユーザの子供が起きている、ユーザの犬が吠えている、ユーザのペットが家具を引っ掻いている、および/またはその他の適当なイベントであり得る。いくつかの実装形態では、処理500は、任意の適当な技術または当該技術の組合せを用いてイベントを検出し得る。たとえば、いくつかの実装形態では、処理500は、記録された音声データを分析して、音声データが特定の音声(たとえば、赤ちゃんの泣き声またはおしゃべり、子供のしゃべり声、玩具の音、犬の吠え声または引っ掻き音、および/またはその他の適当な音声)を含んでいるかどうかを判断し得る。別の例として、いくつかの実装形態では、処理500は、記録された映像データを分析して、特定の生き物または人が映像に含まれているかどうかを判断し、人または生き物が映像に含まれている場合、当該人または生き物の現在の状態または行動を判断し得る。より特定的な例として、いくつかの実装形態では、処理500は、任意の適当な画像処理または画像認識技術を用いて、映像データが犬を含んでいるかどうかを判断し、次に、犬が寝ているか起きているか、吠えているか静かにしているか、および/またはその他の適当な特徴を判断することができる。なお、いくつかの実装形態では、処理500は、任意の適当な技術または当該技術の組合せを用いて、記録データを分析してイベントを検出することができる。たとえば、いくつかの実装形態では、処理500は、記録された音声データに基づいて生成されたオーディオ指紋を、既知音声のデータベース(図4のブロック406に関して上述したように)と照合して、記録された音声データが、赤ちゃんの泣き声または犬の吠え声など、既知の音声を含んでいるかどうかを判断し得る。別の例として、いくつかの実装形態では、処理500は、任意の適当な画像認識技術を用いて記録された映像データを分析し、記録された映像データが既知の生き物または人(たとえば、ユーザのペット、ユーザの子供、および/またはその他の適当な既知の生き物または人)および/または特定の種類の生き物または人(たとえば、子供、犬、猫、および/またはその他の適当な種類の生き物または人)を含んでいるかどうかを判断し得る。
いくつかの実装形態では、処理500は、検出されたイベントがユーザの関心の対象になる尤度を判断し得る。いくつかの実装形態では、処理500は、任意の適当な情報に基づいてこの尤度を判断し得る。たとえば、いくつかの実装形態では、処理500は、ユーザに提示したことのある以前の情報に基づいて、および以前に提示された情報に対するユーザの反応に基づいて、尤度を判断し得る。より特定的な例として、同じまたは同様のイベント(たとえば、「あなたの赤ちゃんが泣いています」、「あなたの犬がカウチを引っ掻いています」、および/またはその他の適当なイベント)の表示をユーザが以前提示されたことがあると処理500が判断した場合、処理500は、ユーザがイベントに基づいて追加情報を要求した(たとえば、イベントに関する音声データまたは映像データの視聴を要求した、検出されたイベントに対応付けられたデバイスを起動してさらなる音声データまたは映像データを記録するよう要求した、および/またはその他の適当な追加情報を要求した)かどうかを判断し得る。この例を引き続き使用すると、ユーザがこの追加情報を以前に要求したことがあると処理500が判断する場合、処理500は、ユーザが追加情報を要求したことが概してないと処理500が判断する場合と比較して高い尤度(たとえば、50%以上、70%以上、および/またはその他の適当な尤度)を割り当て得る。これに加えて、または、これに代えて、いくつかの実装形態では、処理500は、判断された尤度に信頼値を割り当て得る。いくつかのこのような実装形態では、信頼値は、検出されたイベントまたは同様のイベントがこれまでユーザに提示された回数に基づき得る。たとえば、いくつかの実装形態では、以前にユーザに1度だけ提示されたことがある検出イベントには、以前にユーザに10回提示されたことがある検出イベントと比較して低い信頼値が割り当てられる。さらには、いくつかの実装形態では、信頼値は、以前に提示された同様のイベントに対するユーザの応答のばらつきに基づき得る。いくつかの実装形態では、信頼値は、ユーザデバイスのユーザから受信した明示的なフィードバックに基づき得る。たとえば、いくつかの実装形態では、検出イベント(たとえば、「私は、あなたの犬が吠えているのが聞こえました」、「私は、あなたの赤ちゃんが泣いているのが聞こえました」、および/またはその他の適当な検出イベント)の表示を提示した後、処理500は、検出されたイベントが正しかったかどうかおよび/またはユーザの関心の対象であったかどうかについてフィードバックを要求するメッセージを提示し得る。より特定的な例として、いくつかの実装形態では、フィードバックを要求するこのメッセージは、「あなたの犬は吠えていましたか?」および/または「このイベントのあなたの興味の対象でしたか?」であり得る。いくつかのこのような実装形態では、メッセージは、「はい」または「いいえ」を選択するためのラジオボタン、および/またはその他の適当なユーザインタフェース制御など、メッセージに応答してユーザからのフィードバックを受信するための任意の適当なユーザインタフェース制御を含み得る。いくつかのこのような実装形態では、明示的なフィードバックは、未来の同様の検出イベントの信頼値を設定するために用いることができる。
506において、処理500は、イベントを示す情報をユーザデバイス上のユーザインタフェースを介して提示することができる。たとえば、いくつかの実装形態では、処理500は、泣いている赤ちゃんが検出されたこと、吠えている犬が検出されたこと、および/またはその他の適当なメッセージを示すメッセージを提示することができる。
いくつかの実装形態では、処理500は、任意の適当な情報に基づいて、イベントを示す情報を提示するかどうかを判断できる。たとえば、いくつかの実装形態では、イベントがユーザの関心の対象になると判断する尤度が予め定められた閾値(たとえば、50%以上、70%以上、および/またはその他の適当な尤度)を超える場合、処理500は、この情報を提示すると判断し得る。別の例として、いくつかの実装形態では、判断された尤度が第1の予め定められた閾値を超え、判断された信頼値が第2の予め定められた閾値(たとえば、50%以上、70%以上、および/またはその他の適当な信頼値)を超えた場合、処理500は、この情報を提示すると判断し得る。別の例として、いくつかの実装形態では、処理500は、ユーザの好みに基づいて、情報を提示するかどうかを判断し得る。より特定的な例として、いくつかの実装形態では、ユーザの好みは、特定の時間(たとえば、夜9時と朝6時の間、および/またはその他の適当な時間)に特定の記録装置(たとえば、ベビーモニター、特定の音声制御スピーカ、および/またはその他の適当なデバイス)から取得した情報をユーザが受信したがっていることを示し得る。別のさらに特定の例として、いくつかの実装形態では、ユーザは、ユーザの自宅にある特定の記録装置またはオブジェクトに関するアラートを明示的に起動し得る。
508において、処理500は、追加情報を提示する要求を、ユーザインタフェースを介して受信し得る。たとえば、いくつかの実装形態では、ユーザインタフェースは、ユーザに追加情報を要求させる1つ以上の選択可能な入力をさらに含み得る。たとえば、いくつかの実装形態では、ユーザインタフェースは、選択可能な入力を含み得、当該入力は、選択されると、記録された音声データをユーザデバイスを介して提示させる。別の例として、いくつかの実装形態では、ユーザインタフェースは、選択可能な入力を含み得、当該入力は、選択されると、検出されたイベントに対応するデータを記録したデバイスに対応付けられたマイクロフォンを起動させ、さらに記録された音声データをユーザデバイスを介して提示させる。さらに別の例として、いくつかの実装形態では、ユーザインタフェースは、選択可能な入力を含み得、当該入力は、選択されると、記録された音声データまたは映像データを、近くのテレビなど、第2のユーザデバイス上に提示させる。
いくつかの実装形態では、図4および図5の処理の上述したブロックのうちの少なくともいくつかは、図示されて図に関して説明された順番およびシーケンスに限られず、任意の順番またはシーケンスで実行および実施することができる。また、待機時間および処理時間を低減するために、図4および図5の上記ブロックのうちのいくつかは、適宜実質的に同時に、または平行して実行または実施することができる。これに加えて、または、これに代えて、図4および図5の処理の上述したブロックのうちのいくつかを省略することができる。
いくつかの実装形態では、本明細書の機能および/または処理を実行するための命令を格納するために、任意の適当なコンピュータ読み取り可能な媒体を用いることができる。たとえば、いくつかの実装形態では、コンピュータ読み取り可能な媒体は、一時的または非一時的であり得る。たとえば、非一時的なコンピュータ読み取り可能な媒体は、磁気媒体(ハードディスク、フロッピー(登録商標)ディスク、および/またはその他の適当な磁気媒体など)、光学媒体(コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、および/またはその他の適当な光学媒体など)、半導体媒体(フラッシュメモリ、EPROM(Electrically Programmable Read−Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、および/またはその他の適当な半導体媒体など)、瞬間的で転送時の永続性がない任意の適当な媒体、および/または任意の適当な有形の媒体など、媒体を含み得る。別の例として、一時的なコンピュータ読み取り可能な媒体は、ネットワーク上、電線、導線、光ファイバ、回路に含まれる信号、瞬間的で転送時の永続性がない任意の適当な媒体、および/または任意の適当な無形の媒体を含み得る。
本明細書に記載のシステムが、ユーザについての個人情報を収集するまたは個人情報を利用する場合、プログラムまたは特徴がユーザ情報(たとえば、ユーザのソーシャルネットワーク、社会的行為または活動、職業、ユーザの嗜好、またはユーザの現在位置についての情報)を収集するかどうかを制御するための機会がユーザに与えられてもよい。これに加えて、特定のデータは、個人を特定可能な情報が取り除かれるように、格納または使用される前に1つ以上の方法で処理されてもよい。たとえば、ユーザについての個人情報が特定できないようにユーザの識別情報を処理したり、ユーザの特定の場所が特定できないように場所情報(市、郵便番号、または州レベルなど)が取得されるユーザの地理的位置を一般化したりしてもよい。したがって、ユーザは、ユーザについての情報がどのように収集されるのか、およびこの情報がコンテンツサーバによってどのように利用されるかについて、自分の好きなようにすることができる。
このように、検出されたイベントに関する情報を提供するための方法、システム、および媒体が提供される。
上述の例示的な実装形態において本発明を説明および例示したが、本開示は、あくまでも一例であり、本明細書の趣旨および範囲から逸脱することなく、本発明の実装形態の詳細に対して様々な変更がなされてもよく、本明細書の範囲は添付の特許請求の範囲によってのみ限定されることを理解されたい。開示の実装形態の特徴は、様々に組み合わせおよび並び替えることができる。

Claims (16)

  1. 情報を提供するための方法であって、
    ユーザの環境に置かれた記録装置群のうちの第1の記録装置をトリガータームと対応付けるステップと、
    前記トリガータームを含んだクエリをユーザデバイスから受信するステップと、
    前記クエリを受信することに応答して、前記ユーザの環境にある前記記録装置群のうちの少なくとも1つの記録装置から音声データを送信すると判断するステップと、
    前記受信したクエリが前記トリガータームを含んでいることに基づいて、前記第1の記録装置を特定するステップと、
    前記第1の記録装置から前記音声データを受信するステップと、
    前記受信した音声データに基づいて、前記ユーザの環境に存在する生き物の特徴を特定するステップと、
    前記生き物の特徴を示す情報を前記ユーザデバイス上に提示するステップとを含む、方法。
  2. 前記第1の記録装置を前記トリガータームと対応付けるステップは、前記第1の記録装置によって以前に記録された音声データに基づく、請求項1に記載の方法。
  3. 前記第1の記録装置を前記トリガータームと対応付けるステップは、前記ユーザの環境内の前記第1の記録装置の既知の場所に基づく、請求項1または2に記載の方法。
  4. 前記第1の記録装置を前記トリガータームと対応付けるステップは、前記第1の記録装置の推察される場所に基づき、
    前記推察される場所は、前記ユーザデバイスから以前に受信したクエリに基づいて判断される、請求項1〜3のいずれか1項に記載の方法。
  5. 前記情報は、前記受信した音声データを前記ユーザデバイスによって提示させる選択可能な入力を含んだユーザインタフェース内で提示される、請求項1〜4のいずれか1項に記載の方法。
  6. 前記情報は、前記第1の記録装置にさらなる音声データを記録させる選択可能な入力を含んだユーザインタフェース内で提示される、請求項1〜5のいずれか1項に記載の方法。
  7. 前記記録装置群のうちの第2の記録装置から第2の音声データを受信するステップと、
    前記受信した第2の音声データに基づいて前記生き物に関するイベントを検出するステップと、
    前記検出されたイベントが前記ユーザデバイスの前記ユーザの関心の対象である可能性があるかどうかを判断するステップと、
    前記検出されたイベントが前記ユーザの関心の対象である可能性があると判断することに応答して、前記検出されたイベントの表示を前記ユーザデバイス上に提示させるステップとをさらに含む、請求項1〜6のいずれか1項に記載の方法。
  8. 情報を提供するためのシステムであって、ハードウェアプロセッサを含み、
    前記ハードウェアプロセッサは、
    ユーザの環境に置かれた記録装置群のうちの第1の記録装置をトリガータームと対応付け、
    前記トリガータームを含んだクエリをユーザデバイスから受信し、
    前記クエリを受信することに応答して、前記ユーザの環境にある前記記録装置群のう
    ちの少なくとも1つの記録装置から音声データを送信すると判断し、
    前記受信したクエリが前記トリガータームを含んでいることに基づいて、前記第1の記録装置を特定し、
    前記第1の記録装置から前記音声データを受信し、
    前記受信した音声データに基づいて、前記ユーザの環境に存在する生き物の特徴を特定し、
    前記生き物の特徴を示す情報を前記ユーザデバイス上に提示するようにプログラムされる、システム。
  9. 前記第1の記録装置を前記トリガータームと対応付けることは、前記第1の記録装置によって以前に記録された音声データに基づく、請求項8に記載のシステム。
  10. 前記第1の記録装置を前記トリガータームと対応付けることは、前記ユーザの環境内の前記第1の記録装置の既知の場所に基づく、請求項8または9に記載のシステム。
  11. 前記第1の記録装置を前記トリガータームと対応付けることは、前記第1の記録装置の推察される場所に基づき、
    前記推察される場所は、前記ユーザデバイスから以前に受信したクエリに基づいて判断される、請求項8〜10のいずれか1項に記載のシステム。
  12. 前記情報は、前記受信した音声データを前記ユーザデバイスによって提示させる選択可能な入力を含んだユーザインタフェース内で提示される、請求項8〜11のいずれか1項に記載のシステム。
  13. 前記情報は、前記第1の記録装置にさらなる音声データを記録させる選択可能な入力を含んだユーザインタフェース内で提示される、請求項8〜12のいずれか1項に記載のシステム。
  14. 前記ハードウェアプロセッサは、
    前記記録装置群のうちの第2の記録装置から第2の音声データを受信し、
    前記受信した第2の音声データに基づいて前記生き物に関するイベントを検出し、
    前記検出されたイベントが前記ユーザデバイスの前記ユーザの関心の対象である可能性があるかどうかを判断し、
    前記検出されたイベントが前記ユーザの関心の対象である可能性があると判断することに応答して、前記検出されたイベントの表示を前記ユーザデバイス上に提示させるようにさらにプログラムされる、請求項8〜13のいずれか1項に記載のシステム。
  15. 請求項1〜7のいずれか1項に記載の方法をコンピュータに実行させるように構成されたコンピュータ読み取り可能な命令を保持する、コンピュータ読み取り可能な媒体。
  16. コンピュータによって実行されるプログラムであって、前記コンピュータは、前記プログラムに、請求項1〜7のいずれか1項に記載の方法を実行させる、プログラム。
JP2019567235A 2017-07-21 2018-06-14 検出されたイベントに関する情報を提供するための方法、システム、および媒体 Active JP6745419B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/656,653 US11567726B2 (en) 2017-07-21 2017-07-21 Methods, systems, and media for providing information relating to detected events
US15/656,653 2017-07-21
PCT/US2018/037519 WO2019018083A1 (en) 2017-07-21 2018-06-14 METHODS, SYSTEMS, AND MEDIA FOR PROVIDING INFORMATION REGARDING DETECTED EVENTS

Publications (2)

Publication Number Publication Date
JP6745419B1 true JP6745419B1 (ja) 2020-08-26
JP2020528158A JP2020528158A (ja) 2020-09-17

Family

ID=62916741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567235A Active JP6745419B1 (ja) 2017-07-21 2018-06-14 検出されたイベントに関する情報を提供するための方法、システム、および媒体

Country Status (7)

Country Link
US (1) US11567726B2 (ja)
EP (1) EP3613045B1 (ja)
JP (1) JP6745419B1 (ja)
KR (1) KR102338888B1 (ja)
CN (1) CN110709930B (ja)
BR (1) BR112019024646A2 (ja)
WO (1) WO2019018083A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102389041B1 (ko) * 2017-08-11 2022-04-21 엘지전자 주식회사 이동단말기 및 머신 러닝을 이용한 이동 단말기의 제어방법
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
CN112309060A (zh) * 2019-08-02 2021-02-02 广东美的制冷设备有限公司 安防设备及其室内监控方法、控制装置和可读存储介质
KR102352472B1 (ko) * 2019-11-12 2022-01-17 임용섭 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
KR20210058152A (ko) * 2019-11-13 2021-05-24 엘지전자 주식회사 지능형 보안 디바이스를 제어하는 방법
CN113409777B (zh) * 2020-03-16 2023-05-23 上海博泰悦臻网络技术服务有限公司 一种记录用户关注点的方法、车载主机及车辆
US11645949B2 (en) * 2021-08-30 2023-05-09 Sap Se Sound detection alerts

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7009520B2 (en) 2000-09-22 2006-03-07 Burlington Basket Company Method, apparatus, and system for remote baby monitoring with additional functions
US6968294B2 (en) 2001-03-15 2005-11-22 Koninklijke Philips Electronics N.V. Automatic system for monitoring person requiring care and his/her caretaker
KR101111273B1 (ko) * 2003-05-21 2012-02-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 가청 메시지들의 생성이 가능한 모니터링 시스템
US8612311B2 (en) 2004-05-28 2013-12-17 Media Queue, Llc Hybrid distribution method for playable media
US7266347B2 (en) 2003-06-10 2007-09-04 Gross John N Remote monitoring device and process
US7373395B2 (en) * 2004-02-04 2008-05-13 Perseus Wireless, Inc. Method and system for providing information to remote clients
US8619136B2 (en) 2006-12-01 2013-12-31 Centurylink Intellectual Property Llc System and method for home monitoring using a set top box
JP4691515B2 (ja) 2007-01-18 2011-06-01 パナソニック株式会社 通信システム、撮像データ蓄積装置、プログラム及び撮像データ送信方法
US8265928B2 (en) * 2010-04-14 2012-09-11 Google Inc. Geotagged environmental audio for enhanced speech recognition accuracy
US20130107029A1 (en) 2011-10-26 2013-05-02 Mysnapcam, Llc Systems, methods, and apparatus for monitoring infants
US9280599B1 (en) * 2012-02-24 2016-03-08 Google Inc. Interface for real-time audio recognition
US9208676B2 (en) 2013-03-14 2015-12-08 Google Inc. Devices, methods, and associated information processing for security in a smart-sensored home
CN102970523A (zh) * 2012-12-12 2013-03-13 曾锃 一种基于互联网的便携式实时监控装置和控制方法
KR102195897B1 (ko) * 2013-06-05 2020-12-28 삼성전자주식회사 음향 사건 검출 장치, 그 동작 방법 및 그 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능 기록 매체
CA2926811C (en) * 2013-10-07 2023-03-21 Google Inc. Smart-home hazard detector providing context specific features and/or pre-alarm configurations
US10311694B2 (en) * 2014-02-06 2019-06-04 Empoweryu, Inc. System and method for adaptive indirect monitoring of subject for well-being in unattended setting
US9131068B2 (en) 2014-02-06 2015-09-08 Elwha Llc Systems and methods for automatically connecting a user of a hands-free intercommunication system
US20150228281A1 (en) * 2014-02-07 2015-08-13 First Principles,Inc. Device, system, and method for active listening
KR102216048B1 (ko) * 2014-05-20 2021-02-15 삼성전자주식회사 음성 명령 인식 장치 및 방법
US20150370272A1 (en) * 2014-06-23 2015-12-24 Google Inc. Intelligent configuration of a smart environment based on arrival time
US20160094812A1 (en) 2014-09-30 2016-03-31 Kai Chen Method And System For Mobile Surveillance And Mobile Infant Surveillance Platform
US9871830B2 (en) 2014-10-07 2018-01-16 Cisco Technology, Inc. Internet of things context-enabled device-driven tracking
US20160125318A1 (en) * 2014-11-03 2016-05-05 Canary Connect, Inc. User-Assisted Learning in Security/Safety Monitoring System
US9953187B2 (en) 2014-11-25 2018-04-24 Honeywell International Inc. System and method of contextual adjustment of video fidelity to protect privacy
US11392580B2 (en) 2015-02-11 2022-07-19 Google Llc Methods, systems, and media for recommending computerized services based on an animate object in the user's environment
US10453098B2 (en) * 2015-03-04 2019-10-22 Google Llc Privacy-aware personalized content for the smart home
US9729989B2 (en) * 2015-03-27 2017-08-08 Echostar Technologies L.L.C. Home automation sound detection and positioning
US10565455B2 (en) * 2015-04-30 2020-02-18 Ants Technology (Hk) Limited Methods and systems for audiovisual communication
US9819905B1 (en) * 2015-05-28 2017-11-14 Amazon Technologies, Inc. Video communication sessions between whitelisted devices
US9734845B1 (en) * 2015-06-26 2017-08-15 Amazon Technologies, Inc. Mitigating effects of electronic audio sources in expression detection
US10582167B2 (en) * 2015-08-31 2020-03-03 Sensory, Inc. Triggering video surveillance using embedded voice, speech, or sound recognition
US10127926B2 (en) * 2016-06-10 2018-11-13 Google Llc Securely executing voice actions with speaker identification and authentication input types
US10181323B2 (en) * 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US11164570B2 (en) * 2017-01-17 2021-11-02 Ford Global Technologies, Llc Voice assistant tracking and activation

Also Published As

Publication number Publication date
US11567726B2 (en) 2023-01-31
KR20200005741A (ko) 2020-01-16
JP2020528158A (ja) 2020-09-17
BR112019024646A2 (pt) 2020-06-09
US20190026066A1 (en) 2019-01-24
CN110709930B (zh) 2023-12-01
KR102338888B1 (ko) 2021-12-13
EP3613045A1 (en) 2020-02-26
EP3613045B1 (en) 2020-10-07
CN110709930A (zh) 2020-01-17
WO2019018083A1 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
JP6745419B1 (ja) 検出されたイベントに関する情報を提供するための方法、システム、および媒体
US11830333B2 (en) Systems, methods, and devices for activity monitoring via a home assistant
US11386285B2 (en) Systems and methods of person recognition in video streams
US10783883B2 (en) Focus session at a voice interface device
KR102551715B1 (ko) Iot 기반 알림을 생성 및 클라이언트 디바이스(들)의 자동화된 어시스턴트 클라이언트(들)에 의해 iot 기반 알림을 자동 렌더링하게 하는 명령(들)의 제공
US20160286327A1 (en) Home Automation Sound Detection and Positioning
US12001754B2 (en) Context based media selection based on preferences setting for active consumer(s)
JP6749490B2 (ja) 音声の分類化
KR102533443B1 (ko) 콘텐츠 제공 방법 및 이를 사용하는 전자 장치
TW201535156A (zh) 執行與個人的存在相關聯的動作
KR20200074680A (ko) 단말 장치 및 이의 제어 방법
US11233490B2 (en) Context based volume adaptation by voice assistant devices
US11783010B2 (en) Systems and methods of person recognition in video streams
US20210233556A1 (en) Voice processing device, voice processing method, and recording medium
WO2020195821A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム
KR102489509B1 (ko) 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
JP6250852B1 (ja) 判定プログラム、判定装置及び判定方法
US20220303186A1 (en) Techniques for reacting to device event state changes that are shared over a network of user devices
JP2023180943A (ja) 情報処理装置、情報処理方法およびプログラム
JP7533224B2 (ja) 情報機器、情報処理方法、情報処理プログラム、制御装置、制御方法及び制御プログラム
US20230360507A1 (en) In-home event intercom and notifications
JP6560321B2 (ja) 判定プログラム、判定装置及び判定方法
JP2020036109A (ja) 情報処理装置、情報処理方法、プログラムおよび住戸端末
CN115188397A (zh) 媒体输出控制方法、装置、设备及可读介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200331

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200331

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R150 Certificate of patent or registration of utility model

Ref document number: 6745419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250