TW201729039A - 基於回應於來自使用者之語音片語之內容資料而產生通知之電子裝置 - Google Patents
基於回應於來自使用者之語音片語之內容資料而產生通知之電子裝置 Download PDFInfo
- Publication number
- TW201729039A TW201729039A TW105137177A TW105137177A TW201729039A TW 201729039 A TW201729039 A TW 201729039A TW 105137177 A TW105137177 A TW 105137177A TW 105137177 A TW105137177 A TW 105137177A TW 201729039 A TW201729039 A TW 201729039A
- Authority
- TW
- Taiwan
- Prior art keywords
- notification
- electronic device
- speech phrase
- command
- speech
- Prior art date
Links
- 230000004044 response Effects 0.000 title claims description 36
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims description 103
- 238000004891 communication Methods 0.000 claims description 46
- 230000033001 locomotion Effects 0.000 claims description 33
- 239000000463 material Substances 0.000 claims description 30
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 101000574648 Homo sapiens Retinoid-inducible serine carboxypeptidase Proteins 0.000 description 4
- 102100025483 Retinoid-inducible serine carboxypeptidase Human genes 0.000 description 4
- 241000207875 Antirrhinum Species 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 235000012431 wafers Nutrition 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/66—Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
- H04M1/667—Preventing unauthorised calls from a telephone set
- H04M1/67—Preventing unauthorised calls from a telephone set by electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Telephone Function (AREA)
- Alarm Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本發明揭示一種用於藉由一電子裝置產生一通知以向該電子裝置之一使用者警示的的方法。在此方法中,可接收一語音片語。接著,該接收之語音片語可藉由一處理器識別為一用以產生該通知的命令。另外,該電子裝置之一或多個情境資料可藉由至少一個感測器偵測。可判定該通知是否至少基於該情境資料而產生。該通知可藉由該處理器基於該情境資料及用以產生該通知之該命令而產生。
Description
本發明係關於藉由電子裝置產生通知,且更特定言之,係關於產生一通知以向電子裝置之使用者警示。
最近,諸如智慧型電話、平板電腦、可穿戴電腦及類似者的電子裝置之使用已變得普遍。此等裝置常常提供經由無線或有線網路的話音及/或資料通信功能性。另外,此等裝置可提供經設計以增強使用者便利性的多種功能,諸如聲音處理、影像或視訊處理、導航、音樂或多媒體檔案之重現,等。 在此等功能中,習知電子裝置常常裝備有語音識別功能。此等電子裝置可回應於接收並識別來自使用者之話音命令而執行功能。舉例而言,裝備有語音識別功能之電子裝置可回應於來自使用者之話音命令而啟動應用程式、播放音訊檔案或拍攝照片。 偶爾,電子裝置可由其使用者丟失或放錯地方。在此等情況下,一些習知電子裝置經組態以輸出警報聲音或訊息以輔助使用者發現電子裝置。舉例而言,電子裝置可藉由回應於來自使用者之話音命令產生警報聲音而將其位置向使用者警示。電子裝置亦可傳輸訊息至使用者之另一電子裝置以將電子裝置之位置通知使用者。 然而,在一些情形中,可錯誤地產生警報聲音。舉例而言,若發現電子裝置之話音命令是由使用者之電子裝置自意欲用於其自身電子裝置的另一人接收,則使用者之電子裝置可回應於話音命令而產生警報聲音。另外,在諸如圖書館、電影院、會議室及類似者的一些位置中使用電子裝置之音訊功能可被制約或受到限制。在此環境中,回應於來自使用者或另一人之話音命令而產生用於定位電子裝置之警報聲音可係不合需要的。
本發明係關於基於電子裝置之情境資料及用以產生通知之命令而產生通知以向電子裝置之使用者警示。 根據本發明之一個態樣,揭示一種用於藉由電子裝置產生通知以向電子裝置之使用者警示的方法。在此方法中,可接收語音片語。接著,接收之語音片語可藉由處理器識別為用以產生通知的命令。另外,電子裝置之一或多個情境資料可藉由至少一個感測器偵測。可判定通知是否至少基於情境資料而產生。可藉由處理器基於情境資料及用以產生通知之命令而產生通知。本發明亦描述與此方法有關的電腦可讀媒體。 根據本發明之另一態樣,揭示一種用於產生通知以向電子裝置之使用者警示的電子裝置。電子裝置可包括聲音感測器、語音識別單元、感測器單元、處理器及輸出單元。聲音感測器可經組態以接收語音片語,且語音識別單元可經組態以將語音片語識別為用以產生通知之命令。另外,感測器單元可經組態以偵測電子裝置之情境資料。另外,處理器可經組態以基於情境資料及命令產生通知。輸出單元可經組態以產生指示通知的可聽聲音、振動或可見光中之至少一者。另外,處理器可包括通知處理單元,其經組態以判定通知是否基於情境資料而產生。
現將詳細參考各種實施例,該等實施例之實例在隨圖中予以說明。在以下詳細描述中,闡述眾多特定細節以便提供對本發明之發明性態樣的透徹理解。然而,可在無此等特定細節的情況下實踐本發明之發明性態樣對於一般熟習此項技術者將係顯而易見的。在其他情況下,未詳細描述眾所周知的方法、程序、系統及組件,以免不必要地混淆各種實施例之態樣。圖 1
說明根據本發明之一個實施例的經組態以基於電子裝置120之情境資料產生通知以向電子裝置120之使用者110警示的電子裝置120。如所示,使用者110及電子裝置120可位於房間100中。電子裝置可置放在桌子102上並由複數本書籍104覆蓋,使得使用者110可不能夠發現電子裝置120。如本文中所說明,電子裝置120可為經調適以接收並處理聲音的任何合適裝置,諸如智慧型電話、數位相機、可穿戴電腦(例如,智慧型眼鏡、智慧型手錶等)、個人電腦、膝上型電腦、平板電腦、遊戲裝置等。 為定位電子裝置120,使用者110可說出指示用以產生向電子裝置120之使用者110警示的通知之命令的語音片語。電子裝置120可經由電子裝置120中之聲音感測器130接收來自使用者110的語音片語。語音片語可為一或多個預定關鍵詞及/或一或多個自然語言片語,如下文將參看圖 8
更詳細地描述。在接收到語音片語後,電子裝置120可將語音片語識別為用以產生通知之命令。 在將語音片語識別為用以產生通知之命令後,電子裝置120可偵測電子裝置120之情境資料。如本文所使用,術語電子裝置之「情境資料」可為描述或表徵電子裝置之環境條件的任何資料或資訊(諸如電子裝置之環境光位準、環境聲音位準、當前時間、當前位置等),及指示電子裝置120是否正由使用者110使用的使用情況資料(諸如指示電子裝置之移動的資料、使用者110之影像、藉由電子裝置偵測的使用者輸入(例如,按鍵輸入、觸碰輸入、語音輸入等)、指示未確認傳入通信之情況,及/或在除朝向電子裝置之方向以外的方向中說出的輸入聲音(例如,語音命令))。 基於情境資料及用以產生通知之命令,電子裝置120可產生通知。在一個實施例中,電子裝置120可判定通知是否基於情境資料及用以產生通知之命令而產生。在判定產生通知後,電子裝置120可產生並輸出經調適以向電子裝置120之使用者110警示的通知。可使用任何合適的輸出單元(諸如揚聲器、振動單元、光輸出單元(例如,顯示螢幕、LED閃光燈等)、通信單元及可提供指示電子裝置120之位置或存在之輸出並允許使用者110發現或定位電子裝置120的類似單元)輸出通知。 另一方面,電子裝置120可判定將不會基於電子裝置120之情境資料而產生通知。舉例而言,若情境資料指示電子裝置120正由使用者110使用或位於圖書館中,則電子裝置120可判定將不會產生通知。在此情況下,即使當電子裝置120已將語音片語識別為用以產生通知之命令時,通知仍可不會產生。以此方式,可基於電子裝置120之情境資料而控制通知之產生以防止產生並輸出非所要或無意的通知。圖 2
說明根據本發明之一個實施例的經組態以基於電子裝置120之情境資料產生用於使用者110之通知的電子裝置120之方塊圖。電子裝置120可包括聲音感測器130、感測器單元210、輸出單元220、通信單元230、儲存單元240及處理器250。處理器250可包括語音識別單元252、話音輔助單元254及通知處理單元256。處理器250可為用於管理並操作電子裝置120的任何合適處理器,諸如應用程式處理器(AP)、中央處理單元(CPU)、數位信號處理器(DSP)等。聲音感測器130可為與感測器單元210分開之組件或可包括於感測器單元210中,且可為能夠接收聲音並將聲音轉換成指示聲音之電子信號的任何合適裝置。如本文所使用,術語「單元」可指能夠執行或經調適以執行一或多個功能的一或多個硬體組件、區段、部分或電路,且可另外結合或藉由執行處理程序、指令、程序、次常式或其類似者(例如,程式碼、微碼等)而執行此等功能。又,「單元」可劃分成較小單元(例如,子單元)或兩個或大於兩個單元可組合成單一「單元」。 在電子裝置120中,聲音感測器130可經組態以接收來自使用者110之語音片語。在接收到語音片語後,聲音感測器130可提供語音片語至處理器250之語音識別單元252。處理器250中之語音識別單元252可經組態以使用任何合適之語音識別方案(諸如隱式馬爾可夫模型(Hidden Markov Model)、深度神經網路(Deep Neural Networks)或其類似者)將語音片語識別為用以執行功能的命令,諸如用以產生通知的命令。在語音片語經識別為用以產生通知之命令後,語音識別單元252可提供用以產生通知之命令至處理器250中之通知處理單元256。在此情況下,通知處理單元256可處於去啟動狀態中且可在識別用以產生通知之命令後,藉由語音識別單元252啟動。替代地,通知處理單元256可已經被啟動用於自語音識別單元252接收用以產生通知之命令。 根據一些實施例,語音片語可包括至少第一語音片語及第二語音片語,其中之每一者可為預定關鍵字或片語。舉例而言,語音識別單元252可識別第一片語(例如,「嘿,Snapdragon(Hey Snapdragon)」)並啟動處理器250中之話音輔助單元254。話音輔助單元254接著可經由聲音感測器130接收第二語音片語(例如,「你在哪?(Where are you?)」)並將第二語音片語識別為用以產生通知之命令。在識別第二語音片語後,話音輔助單元254可啟動通知處理單元256並提供用以產生通知之經識別命令至通知處理單元256。 在電子裝置120中,感測器單元210可包括能夠偵測電子裝置之情境資料的任何合適數目及類型的感測器或裝置。舉例而言,感測器單元210可包括聲音感測器(例如,聲音感測器130)、影像感測器、運動感測器、時鐘單元、位置感測器、輸入單元及類似者,如將參看圖 3
更詳細描述。感測器單元210可偵測情境資料(諸如使用者輸入、使用者110之影像、環境條件(例如,位置資訊、時序資訊、環境光值)、電子裝置120之移動、指示未確認傳入通信之情況、及/或在除朝向電子裝置120之方向以外的方向中說出的輸入聲音(例如,語音命令)),且提供情境資料至通知處理單元256。在一個實施例中,感測器單元210可經組態以連續地、週期性地或間歇地監視情境資料。另外或替代地,感測器單元210可經組態以在接收及/或識別指示用以產生通知之命令的語音片語後,偵測情境資料。 在接收到用以產生通知之命令後,通知處理單元256可經組態以判定通知是否將基於自感測器單元210及/或聲音感測器130接收之情境資料而產生。舉例而言,若情境資料指示電子裝置120很可能不可由使用者110存取(例如,丟失或放錯地方),則電子裝置120之通知處理單元256可判定將產生通知。另一方面,若情境資料指示電子裝置120位於諸如圖書館、電影院等之地點處(其中電子裝置120之使用可被制約),則通知處理單元256可判定將不會產生通知。 通知處理單元256可經組態以指示輸出單元220基於情境資料及用以產生通知之識別命令產生通知。根據一個實施例,回應於判定將基於情境資料而產生通知,通知處理單元256可產生經組態以控制藉由輸出單元220產生通知的一或多個信號。舉例而言,通知處理單元256可在判定通知將產生後,提供一或多個信號以啟動及/或指示輸出單元220產生通知。另一方面,通知處理單元256可判定基於情境資料將不會產生通知。在此情況下,通知處理單元256可不提供任一信號以指示輸出單元220產生通知或可提供一或多個信號以去啟動及/或指示輸出單元220以防止產生通知。以此方式,即使當自使用者110接收之語音片語經識別為用以產生通知之命令時,仍可不會基於情境資料輸出通知。 輸出單元220可經組態以基於情境資料及用以產生通知之命令產生通知。如本文所描述,輸出單元220可為能夠回應於來自通知處理單元256之一或多個控制信號而輸出通知的任何合適組件。在一個實施例中,輸出單元220可包括揚聲器222、振動單元224、顯示螢幕226、LED單元228等中的任一者,或其任何組合。舉例而言,電子裝置120中之揚聲器222可輸出可聽聲音(例如,警報聲音、鈴聲或其類似者)以輔助使用者110發現電子裝置120。另外或替代地,振動單元224可振動,或顯示螢幕226或LED單元228可輸出可見光。在額外或替代實施例中,通知處理單元256可產生通知(例如,指示電子裝置之位置的訊息,該訊息可自感測器單元210中之位置感測器獲得),並經由通信單元230傳輸通知至與使用者110相關聯的外部裝置。 電子裝置120中之儲存單元240可儲存一或多個預定語音片語之命令資料庫(未圖示)以用於電子裝置120產生通知。命令資料庫可藉由處理器250中之語音識別單元252及/或話音輔助單元254存取以將接收之語音片語識別為用以產生通知的命令。在一些實施例中,儲存單元240可儲存情境資料庫(未圖示),其可藉由處理器250中之通知處理單元256存取以用於判定通知是否將基於情境資料而產生。情境資料庫可經組態以儲存可用於判定通知是否將產生的任何合適類型之資料或資訊,諸如將不產生通知的預定位置、期間將不產生通知的預定時間段及類似者。在一個實施例中,可基於藉由感測器單元210連續地、週期性地或間歇地接收之情境資料而更新情境資料庫。儲存單元240可使用諸如隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可擦除可程式化唯讀記憶體(EEPROM)、快閃記憶體或固態磁碟機(SSD)的任何合適儲存裝置或記憶體裝置實施。圖 3
說明根據本發明之一個實施例的經組態以偵測電子裝置120之情境資料的感測器單元210之方塊圖。感測器單元210可包括複數個感測器(諸如聲音感測器130、影像感測器310、移動感測器320(例如,加速度計、陀螺儀等)、時鐘單元330、位置感測器340及輸入單元350(例如,觸控螢幕、按鍵或按鈕等))。感測器130、310、320、330、340及350可偵測作為情境資料之一或多個輸入,其可經提供至處理器250中之通知處理單元256。 聲音感測器130可經組態以接收輸入聲音並將輸入聲音轉換成聲音資料,其可作為情境資料輸出至通知處理單元256。聲音感測器130可包括可用以接收、俘獲、感測及/或偵測輸入聲音的一或多個麥克風或任何其他類型聲音感測器,且可採用任何合適之軟體及/或硬體用於執行此等功能。在一個實施例中,聲音感測器130可接收包括自使用者110說出的語音片語之輸入聲音。輸入聲音亦可包括電子裝置120或來自使用者110之環境聲音,諸如背景聲音、雜訊等。當接收到輸入聲音時,聲音感測器130可產生聲音資料,其可作為情境資料而提供至通知處理單元256。 根據一個實施例,聲音感測器130亦可經組態以自使用者110接收作為用以產生通知之命令的語音片語並提供語音片語至語音識別單元252。在另一實施例中,語音片語可包括第一語音片語及第二語音片語。在此情況下,聲音感測器130可提供第一語音片語至語音識別單元252,語音識別單元252可在將第一語音片語識別為用以啟動話音輔助單元254之命令後啟動話音輔助單元254。話音輔助單元254可接收來自聲音感測器130之第二語音片語並將片語識別為用以產生通知的命令。 在感測器單元210中,影像感測器310可經組態以俘獲一或多個影像,諸如使用者之臉、眼、嘴唇或手等。影像亦可包括使用者或電子裝置120之背景影像。根據一個實施例,影像感測器310可俘獲臉、眼(例如,虹膜)之影像或可用以識別使用者的任何其他實體影像。根據另一個實施例,電子裝置120之環境光位準可藉由影像感測器310偵測。影像感測器310接著可將影像及/或環境光位準作為情境資料提供至處理器250中之通知處理單元256。如本文所描述,影像感測器310可為能夠俘獲或感測影像或光位準的任何合適之影像或光感測裝置(例如,相機、相機模組、電荷耦合裝置等)。 移動感測器320可經組態以偵測電子裝置120之移動。在一個實施例中,移動感測器320可為經組態以監視電子裝置120之定向及/或加速度並產生指示電子裝置120之定向或運動的變化之資料的陀螺儀及/或加速度計。舉例而言,陀螺儀可偵測電子裝置120之定向以追蹤電子裝置120之運動或移動。另一方面,加速度計可偵測電子裝置120之加速度或定向以追蹤電子裝置120之運動。指示電子裝置120之定向或運動的變化之所產生資料可作為情境資料而提供至通知處理單元256。 感測器單元210中之時鐘單元330可經組態以偵測電子裝置120之時序資訊(例如,當前時間)並將所偵測時序資訊作為情境資料輸出。時鐘單元330可為嵌入於電子裝置120中並經組態以追蹤當前時間的時序裝置或時鐘。另外或替代地,時鐘單元330可作為CPU時鐘實施於處理器250中,經由通信單元230接收來自外部網路的時序資訊,或使用經由位置感測器340接收之GPS時間資訊以追蹤當前時間。時鐘單元330可將時序資訊作為情境資料提供至通知處理單元256。 位置感測器340可經組態以偵測電子裝置120之位置資訊(例如,當前位置)並將所偵測位置資訊作為情境資料輸出。在一個實施例中,位置感測器340可為經組態以基於自複數個GPS衛星接收之GPS信號偵測GPS位置資訊及時序資訊的GPS接收器。另外或替代地,位置感測器340可為經組態以接收來自複數個Wi-Fi存取點或蜂巢塔基地台之信號並偵測電子裝置120之位置資訊的無線接收器。位置感測器340接著可將位置資訊(其可包括電子裝置120之緯度、經度及海拔高度的集合)作為情境資料提供至通知處理單元256。 輸入單元350可經組態以偵測來自電子裝置120之使用者的輸入(例如,手動輸入)並將所偵測輸入作為情境資料輸出。在一個實施例中,輸入單元350可為用於接收來自使用者之輸入(例如,使用者輸入)的任何合適之輸入裝置且可包括觸控螢幕、按鈕、小鍵盤、觸控板或其類似者。輸入單元350可將來自使用者之所偵測輸入作為情境資料提供至通知處理單元256。圖 4
說明根據本發明之一個實施例的藉由電子裝置120中之處理器250執行以基於電子裝置120之情境資料產生通知的方法之流程圖。最初,在410處,處理器250可經由聲音感測器130接收來自使用者之語音片語。在一個實施例中,處理器250中之語音識別單元252可將接收之語音片語識別為用以產生通知之命令。替代地,語音識別單元252可經由聲音感測器130接收作為用以啟動話音輔助單元254之命令的第一語音片語並在將第一語音片語識別為啟動命令後,啟動話音輔助單元254。話音輔助單元254接著可接收來自聲音感測器130之第二語音片語並將該片語識別為用以產生通知之命令。用以產生通知之命令接著可經提供至通知處理單元256。 回應於用以產生通知之命令,在430處,通知處理單元256可接收來自感測器單元210中之一或多個感測器的電子裝置120之情境資料。在一個實施例中,通知處理單元256可至少基於使用者輸入、電子裝置之移動、時序資訊、電子裝置之位置資訊、環境光值及輸入聲音中的一者接收情境資料。另外或替代地,處理器250亦可將指示未確認傳入通信之情況偵測為情境資料。舉例而言,處理器250可經由通信單元230接收傳入通信(例如,訊息、電子郵件等)並將傳入通信儲存於儲存單元240中。在使用者110審查傳入通信以前,處理器250可判定傳入通信尚未被使用者110確認(例如,被審查)及因此將未確認傳入通信偵測為情境資料,其可經提供至處理器250中之通知處理單元256。另外或替代地,感測器單元210可包括可將指示未確認傳入通信之情況偵測為情境資料的單獨處理單元。 在440處,通知處理單元256可判定是否基於情境資料及用以產生通知之命令而產生通知。在一個實施例中,回應於用以產生通知之所識別命令,通知處理單元256可判定通知是否將基於情境資料而產生。在此情況下,通知處理單元256可分析來自感測器單元210及/或處理器250的一或多個情境資料或其任何組合,諸如使用者輸入、使用者110之影像、環境條件(例如,位置資訊、時序資訊、環境光值)、電子裝置120之移動、指示未確認傳入通信之情況,及/或輸入聲音(例如,語音命令)。在使用者110的影像之情況下,通知處理單元256可應用任何合適之臉識別技術以在可自感測器單元210中之影像感測器310接收的一或多個影像中識別使用者110之臉。在輸入聲音之情況下,通知處理單元256可判定輸入聲音是否係在除朝向電子裝置120之方向以外的方向中說出,其亦可用作情境資料,如參看圖6
及圖 7
將更詳細描述。 各種類型之情境資料可藉由通知處理單元256處理以判定是否產生通知,如將參看圖 5
更詳細地描述。在一個實施例中,一或多種類型情境資料可經給定較高或最高優先權,使得可基於偵測到此等類型情境資料產生通知而不管偵測到其他類型之情境資料。另外或替代地,可基於各種類型之情境資料判定情境得分,該等情境資料中之每一者可經加權並組合。在通知處理單元256判定將產生通知後,在450處,其可提供控制信號至輸出單元220以產生通知。 在接收到控制信號後,輸出單元220可經由揚聲器222、振動單元224、顯示螢幕226及/或LED單元228輸出通知。舉例而言,輸出單元220中之揚聲器222可輸出可聽聲音(例如,警報聲音、鈴聲或其類似者)。另外或替代地,輸出單元220中之振動單元224可振動,或可見光可經由顯示螢幕226或LED單元228輸出。 根據一個實施例,電子裝置120可經組態以在靜音模式中,在該靜音模式中電子裝置120可經組態以停用經由揚聲器222的聲音輸出。在此情況下,若電子裝置120判定將產生通知,則其可去啟動靜音模式以使得通知可經由揚聲器222輸出。舉例而言,若電子裝置120在振動模式中(在該振動模式中振動可經由振動單元224輸出且經由揚聲器222輸出聲音被停用),則其可去啟動振動模式以允許經由揚聲器222輸出通知。圖 5
說明根據本發明之一個實施例的藉由處理器250中之通知處理單元256執行以用於判定通知是否將基於情境資料而產生的方法之流程圖。為了判定通知是否將產生,通知處理單元256可分析及/或處理來自感測器單元210中之任何一或多個感測器或單元的情境資料。在一些實施例中,通知處理單元256可指派較高或最高優先權給某些類型情境資料。 最初,通知處理單元256可在510處判定是否在自感測器單元210接收之情境資料中偵測到使用者輸入。舉例而言,使用者輸入可指示電子裝置120正藉由使用者110使用或可由使用者110存取。在一個實施例中,若在510處判定情境資料包括使用者輸入(例如,手動輸入),則通知處理單元256可在560處判定沒有通知將產生。替代地或另外,通知處理單元256可回應於作為情境資料接收之使用者輸入而判定電子裝置120是否正操作。舉例而言,電子裝置120可回應於來自使用者110之輸入或命令而在電子裝置120之顯示器上顯示視訊或播放歌曲。在此情況下,通知處理單元256可在560處判定沒有通知將產生。 另一方面,若在510處判定未接收到使用者輸入,則通知處理單元256可在520處判定電子裝置120之當前位置或當前時間是否分別在預定位置或預定時間內。在一些實施例中,電子裝置120可接收並儲存一或多個時間段及/或位置,對於該一或多個時間段及/或位置,將不會自使用者110產生通知。在判定電子裝置之當前位置或當前時間分別在預定位置或預定時間內後,通知處理單元256可在560處判定通知將不會產生。否則,通知處理單元256可在530處繼續基於其他類型之情境資料判定用於產生通知的情境得分。 在一個實施例中,通知處理單元256可自感測器單元210接收作為情境資料之當前時間並判定當前時間是否在預定時間段內(在該預定時間段期間將不產生通知),諸如當使用者110可不活躍(例如,睡眠、夜晚時間等)或可不能夠存取電子裝置120(例如,在會議期間)時。期間將不產生通知的預定時間段可基於電子裝置120之使用歷史或電子裝置之行事曆應用程式中的經排程任務而判定。舉例而言,通知處理單元256可存取行事曆應用程式並在520處判定當前時間係在期間會議經排程的時間段內且因此在560處繼續判定沒有通知將產生。 在另一實施例中,通知處理單元256可自感測器單元210接收作為情境資料的電子裝置120之當前位置並判定當前位置是否對應於預定位置,對於該預定位置將不產生通知。舉例而言,電子裝置120之當前位置可經判定以對應於可制約電子裝置120之使用所在的位置,諸如圖書館、電影院或其類似者。在此情況下,通知處理單元256可在560處繼續判定通知將不會產生。否則,通知處理單元256可在530處繼續基於其他類型之情境資料判定用於產生通知的情境得分。 在530處,通知處理單元256可基於一或多種類型之情境資料判定情境得分。如本文所使用,術語「情境得分」可為指示電子裝置120是否處於將產生通知的情境中的機率值。在一個實施例中,通知處理單元256可基於自感測器單元210及/或處理器250接收之情境資料計算情境得分。舉例而言,情境資料可包括除使用者輸入、當前位置及當前時間以外的一或多種類型之情境資料。替代地,情境資料可包括自感測器單元210及/或處理器250接收之所有類型情境資料。 在一些實施例中,情境得分可基於情境資料之類型而判定,情境資料諸如環境光值、使用者之影像、指示未確認傳入通信的情況及/或電子裝置之移動。情境資料類型中之每一者可以任何合適的值表示,該等值可藉由相關聯預定權重加權並經組合以使用任何合適的加權方案計算情境得分。舉例而言,情境得分可基於情境資料而判定,情境資料可根據本發明之一個實施例如下文表 1
中所示而加權。 <表1>
在上述表 1
中之環境光的情況下,環境光可以可與光之強度成比例的在0與1之間的範圍內的數字情境值表示,其中值0可指示最低強度位準(例如,完全黑暗)且值1可指示最高強度。舉例而言,低環境光值可指示電子裝置120藉由物件(例如,複數個書籍、紙、衣服、口袋等)覆蓋或位於物件內且因此使用者110可不能夠發現電子裝置120。在此種情形中,通知可經產生以向電子裝置120之使用者110警示。在其他情況下,低環境光值可為一天時間(諸如晚上時間)之結果且可不清楚地指示通知是否應產生。因此,在表1中所說明之實施例中,0.1之相對低權重可經指派給具有0.2之強度的環境光,以使得通知處理單元256可判定用於環境光值的0.02之加權情境值。 對於使用者110之影像的情況,影像可視使用者110是否經識別為在影像中而以0或1之數字情境值表示。舉例而言,當在自影像感測器310接收之影像中識別使用者110時,可指派值1。否則,可指派值0。若在經由影像感測器310接收之影像中偵測到使用者110,則高度可能使用者110可看到電子裝置120。因此,相對高權重0.5可經指派給表 1
中具有值1的使用者110之影像,使得通知處理單元256可判定用於影像的加權情境值0.5。 在電子裝置120中之未確認傳入通信之情況下,指示此傳入通信資料之情況可以在0與1之間的範圍內的數字情境值表示,該數字情境值與自接收未確認傳入通信以來的經過時間成反比。舉例而言,在接收到作為情境資料的指示未確認傳入通信之情況後,通知處理單元256可判定自經由通信單元230接收到未確認傳入通信以來已經過多少時間。當直接在經由通信單元230接收後接收到指示未確認傳入通信之情況時,用於該情況之情境值可對應於1。另一方面,當自接收到未確認傳入通信以來的經過時間比預定臨限時間段(例如,10小時、一日等)長時,用於指示未確認傳入通信之情況的情境值可對應於0。對於此等情況之間的經過時間,可指派與經過時間成反比的任何合適之中間值。在所說明之實施例中,值0.4可經指派用於六小時之經過時間且權重0.3可經指派給此情況,使得通知處理單元256可判定用於指示未確認傳入通信之情況的加權情境值0.12。 對於電子裝置120之移動的情況,指示電子裝置120之移動的移動資料可以在0與1之間的範圍內的數字情境值表示,該數字情境值可與自電子裝置120之最後或最新移動以來的經過時間成反比。舉例而言,若自移動感測器320接收之當前移動資料指示電子裝置120之移動,則經過時間可為零且電子裝置120之移動的情境值可對應於1。另一方面,若當前移動資料指示電子裝置未移動,則通知處理單元256可判定自基於偵測到最後或最新移動的時間偵測到最後或最新移動以來已經過多少時間。舉例而言,當自移動感測器320接收到指示電子裝置120之移動的移動資料時,處理器250可在儲存單元240中儲存偵測到電子裝置120之移動的時間。在此情況下,通知處理單元256可自儲存單元240存取偵測到電子裝置120之最後移動的時間,並判定自偵測到最後移動以來已經過多少時間。若自電子裝置120之最後或最新移動以來的經過時間比預定臨限時間段(例如,10小時、一日等)長,則電子裝置120之移動的情境值可經判定為0。對於在零與預定臨限時間段之間的經過時間,可指派與經過時間成反比的任何合適之中間值。如所說明之實施例中所示,值0.8可經指派用於兩個小時之經過時間且0.1之權重可經指派給此移動資料。在此情況下,通知處理單元256可判定針對電子裝置120之移動的0.08之加權情境值。 在產生針對表1中之情境資料類型中之每一者的加權情境值後,通知處理單元256可藉由相加加權情境值計算0.72之情境得分。舉例而言,情境得分S可根據以下等式來判定,其中wi
及vi
分別為權重及情境值。替代地,情境得分S可根據用於判定情境得分的任何合適之函式(諸如)來判定,其中vi
為情境值。儘管通知處理單元256基於表1中所展示的情境資料類型判定情境得分,但亦可基於其他類型之情境資料(諸如使用者輸入、當前位置、當前時間、說出輸入聲音的方向(例如,偏離方向)及/或類似者)判定情境得分。在此情況下,高權重值可經指派給此等類型情境資料中之每一者以使得情境得分可實質上基於此等類型情境資料中之一或多者而判定。 參看圖5,在判定情境得分後,通知處理單元256可在540處比較情境得分與預定臨限得分。若情境得分小於或等於預定臨限得分,則通知處理單元256可在550處判定通知將產生。另一方面,若情境得分經判定為大於預定臨限值,則通知處理單元256可在560處判定通知將不會產生。參看上述表1,鑒於預定臨限得分0.5,通知處理單元256可在560處判定通知將不會產生,此係由於所計算情境得分0.72大於或等於預定臨限得分0.5。另一方面,若所計算情境得分小於臨限得分,則通知處理單元256可在550處判定通知將產生。 在一些實施例中,通知處理單元256可另外基於輸入聲音是否在朝向電子裝置120之方向中說出判定是否產生通知,朝向電子裝置120之方向可對應於朝向聲音感測器130之方向。舉例而言,輸入聲音可為藉由使用者110說出的語音片語(例如,指示用以產生通知之命令的語音片語),該語音片語藉由電子裝置120經由聲音感測器130而接收。在接收到輸入聲音後,通知處理單元256可判定輸入聲音是否在除朝向電子裝置120之方向以外的方向中說出。 根據一個實施例,通知處理單元256可將輸入聲音偏離使用者110的角度判定為輸入聲音之「偏離方向」(DOD)。在此情況下,若輸入聲音之偏離方向係在沿著聲源(例如,使用者)與電子裝置120之間的線(例如,參考線或方向)的方向中,則輸入聲音可經判定為在朝向電子裝置120之方向中說出。否則,輸入聲音可經判定為在除朝向電子裝置120之方向以外的方向中說出。另外,通知處理單元256亦可在方向經判定為在離電子裝置120與使用者110之間的線預定角度或範圍內時判定輸入聲音之偏離方向係朝向電子裝置120。圖 6
說明根據本發明之一個實施例的藉由使用者110在朝向電子裝置120之方向中說出的輸入聲音。在所說明之實施例中,使用者110可在方向610中說出作為輸入聲音的語音片語,方向610可偏離朝向電子裝置120之參考方向620。在經由聲音感測器130接收到作為輸入聲音之語音片語後,通知處理單元256可判定語音片語之偏離方向610,在使用者110與電子裝置120之間的參考方向620,及方向610與方向620之間的角度θ1
。鑒於輸入聲音在其內可被認為朝向電子裝置120說出的預定角度β,通知處理單元256可判定角度θ1
小於預定角度β且因此判定語音片語之偏離方向610朝向電子裝置120。圖 7
說明根據本發明之一個實施例的藉由使用者110在除朝向電子裝置120之方向以外的方向中說出的輸入聲音。如所說明之實施例中所示,使用者110可在方向710中說出作為輸入聲音的語音片語,方向710可偏離朝向電子裝置120之參考方向720。在經由聲音感測器130接收到作為輸入聲音之語音片語後,通知處理單元256可判定語音片語之偏離方向710,在使用者110與電子裝置120之間的參考方向720,及方向710與方向720之間的角度θ2
。鑒於輸入聲音在其內可被認為朝向電子裝置120說出的預定角度β,通知處理單元256可判定角度θ2
大於預定角度β且因此判定語音片語之偏離方向710係在除朝向電子裝置120之方向以外的方向中。圖 8
說明根據本發明之一個實施例的基於第一語音片語810及第二語音片語820之接收時間將語音片語識別為用以產生通知之命令。在所說明之實施例中,語音片語可包括作為用以啟動話音輔助單元254之命令的第一語音片語810及作為用以產生通知之命令的第二語音片語820。最初,使用者110可在時間T1處說出第一語音片語(例如,「嘿,Snapdragon」)。電子裝置120可經由聲音感測器130接收第一語音片語且語音識別單元252可使用任何合適的語音識別功能將第一語音片語識別為用以啟動處理器250中之話音輔助單元254的命令。在識別第一語音片語後,語音識別單元252可啟動話音輔助單元254。 在時間T2處,使用者110可說出第二語音片語(例如,「你在哪」)。已被啟動的話音輔助單元254可經由聲音感測器130接收第二語音片語並將第二語音片語識別為用以產生通知之命令。在將第二語音片語識別為用以產生通知之命令後,話音輔助單元254可基於第一語音片語810及第二語音片語820之接收時間判定第一語音片語810及第二語音片語820是否在預定時間段(例如,5秒)內接收。在第一語音片語810及第二片語820經判定已在預定時間段內接收後,話音輔助單元254可啟動通知處理單元256並提供所識別命令至通知處理單元256,通知處理單元256可判定是否產生通知。在一個實施例中,話音輔助單元254可在其提供經識別命令至通知處理單元256後去啟動。 根據一些實施例,語音識別單元252或話音輔助單元254可識別第一語音片語810及第二語音片語820兩者。在一個實施例中,可按任何次序或序列接收第一語音片語810及第二語音片語820且語音識別單元252及/或話音輔助單元254可經組態以按此次序識別第一語音片語810及第二語音片語820。舉例而言,若語音識別單元252不能接收或識別第一語音片語810但接收並識別第二語音片語820,則語音識別單元252接著可接收第一語音片語810並將其識別為用以產生通知之命令。圖 9
說明根據本發明之一個實施例的經組態以傳輸包括電子裝置之位置資訊之通知至使用者110之外部裝置930的電子裝置120。如本文所用,術語「外部裝置」可為實體地與電子裝置120分隔並能夠與電子裝置120無線地通信的任何電子裝置。如所示,使用者110可在位置910(例如,辦公室)處且電子裝置120可在位置920(例如,家)處以使得電子裝置120可不能夠接收或識別由使用者110說出的語音片語。 在所說明之實施例中,使用者110可輸入命令(例如,用以產生通知之語音片語)至外部裝置930(例如,智慧型手錶、智慧型眼鏡等)以用於定位電子裝置120。作為回應,外部裝置930可無線地傳輸用以產生通知之請求(其可包括輸入語音片語)至電子裝置120。在經由通信單元230接收對於通知之請求後,電子裝置120中之處理器250可自位置感測器340接收位置資訊並經由通信單元230無線地傳輸位置資訊至外部裝置930。替代地或另外,處理器250可經由感測器單元210或自儲存單元240接收指示電子裝置之位置的任何其他類型情境資料(例如,由影像感測器310俘獲之影像),且將此資料作為電子裝置120之位置資訊傳輸至外部裝置930。替代地或替代地,電子裝置120可經由輸出單元220輸出通知。回應於接收到電子裝置120之位置資訊,外部裝置930可向使用者110輸出位置資訊。 另外或替代地,外部裝置930可接收來自使用者110之語音片語以用於定位電子裝置120並將語音片語識別為定位電子裝置120之命令。回應於所識別命令,外部裝置930可傳輸用以產生通知之請求至電子裝置120。在接收到請求後,電子裝置120可傳輸電子裝置120之位置資訊至外部裝置930。另外,電子裝置120可傳輸電子裝置120之任何其他類型情境資料至外部裝置930。在此情況下,外部裝置930可基於自電子裝置120接收之情境資料判定是否將由電子裝置120產生通知。在判定通知將產生後,外部裝置930可無線地傳輸用以產生通知之命令至電子裝置120,作為回應,電子裝置120可產生並輸出通知。在一些實施例中,外部裝置930可經組態以經由一或多個感測器偵測外部裝置930之情境資料。基於外部裝置930之所偵測情境資料,外部裝置930可選擇一或多個輸出單元用於輸出電子裝置120之位置資訊並經由所選擇輸出單元向使用者110輸出位置資訊。圖 10
說明根據本發明之一個實施例的藉由處理器250執行以用於鎖定或解鎖電子裝置120的方法之流程圖。在1010處,通知處理單元256可判定通知將基於情境資料而產生。舉例而言,處理器250中之通知處理單元256可判定通知將基於一或多種類型之情境資料而產生,該一或多種類型之情境資料可指示電子裝置120很可能不可由使用者110存取(例如,丟失或放錯地方)。回應於判定通知將產生,處理器250可在1020處鎖定電子裝置120以防止除使用者110以外的使用者對電子裝置120之未經授權存取。在1030處,處理器250可經由輸入單元350、聲音感測器130、指紋感測器及/或影像感測器310接收經調適以驗證使用者110的使用者輸入,諸如聲音輸入、預定圖案或影像、個人識別號碼、密碼、指紋等。回應於接收及驗證使用者輸入,處理器250可在1040處解鎖電子裝置120。在一個實施例中,當電子裝置120回應於判定通知將產生而已鎖定時,處理器250可基於具有高驗證或鑑認位準的使用者輸入類型解鎖電子裝置。舉例而言,處理器250可回應於密碼輸入而不解鎖電子裝置120且可需要指紋或臉影像作為使用者輸入以解鎖電子裝置120。圖 11
說明根據一些實施例的其中可實施本發明之方法及設備以用於基於情境資料及用以產生通知之命令產生通知的電子裝置1100之方塊圖。電子裝置1100可為蜂巢式電話、智慧型電話、可穿戴電腦、智慧型手錶、智慧型眼鏡、平板個人電腦、終端機、手持機、個人數位助理(PDA)、無接線電話、平板電腦等。無線通信系統可為CDMA系統、GSM系統、W-CDMA系統、LTE系統、LTE進階系統等。 電子裝置1100可能夠經由接收路徑及傳輸路徑提供雙向通信。在接收路徑上,藉由基地台所傳輸的信號可藉由天線1112接收,且可提供至接收器(RCVR)1114。接收器1114可調節並數位化所接收之信號,並將經調節且經數位化之數位信號提供至數位區段以供進一步處理。在傳輸路徑上,傳輸器(TMTR)1116可自數位區段1120接收待傳輸的資料,處理並調節該資料,且產生經調變信號,該經調變信號經由天線1112傳輸至基地台。接收器1114及傳輸器1116可為可支援CDMA、GSM、W-CDMA、LTE、LTE進階等的收發器之部分。 數位區段1120可包括各種處理、介面及記憶體單元,諸如,數據機處理器1122、精簡指令集電腦/數位信號處理器(RISC/DSP)1124、控制器/處理器1126、內部記憶體1128、通用音訊/視訊編碼器1132、通用音訊解碼器1134、圖形/顯示處理器1136,及外部匯流排介面(EBI)1138。數據機處理器1122可執行用於資料傳輸及接收的處理,例如,編碼、調變、解調變及解碼。RISC/DSP 1124可執行電子裝置1100的通用及特定處理。控制器/處理器1126可執行數位區段1120內的各種處理及介面單元的操作。內部記憶體1128可儲存用於數位區段1120內的各種單元的資料及/或指令。 通用音訊/視訊編碼器1132可對來自音訊/視訊源1142、麥克風1144、影像感測器1146等的輸入信號執行編碼。通用音訊解碼器1134可執行對經寫碼音訊資料的解碼,且可將輸出信號提供至揚聲器/耳機1148。圖形/顯示處理器1136可執行對可呈現至顯示單元1150的圖形、視訊、影像及文本的處理。EBI 1138可促進資料在數位區段1120與主記憶體1152之間的轉移。 數位區段1120可使用一或多個處理器、DSP、微處理器、RISC等來實施。亦可在一或多個特殊應用積體電路(ASIC)及/或一些其他類型的積體電路(IC)上製造數位區段1120。 一般而言,本文中所描述的任何裝置可表示各種類型之裝置,諸如無線電話、蜂巢式電話、膝上型電腦、無線多媒體裝置、無線通信個人電腦(PC)卡、PDA、外部或內部數據機、經由無線頻道通信的裝置等。裝置可具有各種名稱,諸如存取終端機(AT)、存取單元、用戶單元、行動台、行動裝置、行動單元、行動電話、行動設備、遠端台、遠端終端機、遠端單元、使用者裝置、使用者裝備、手持型裝置等。本文中所描述的任何裝置可具有用於儲存指令及資料的記憶體以及硬體、軟體、韌體或其組合。 可藉由各種構件實施本文中所描述之技術。舉例而言,此等技術可以硬體、韌體、軟體或其組合來實施。一般熟習此項技術者將進一步瞭解,結合本文中的揭示內容描述的各種說明性邏輯區塊、模組、電路及演算法步驟可實施為電子硬體、電腦軟體或兩者的組合。為了清楚地說明硬體與軟體之此可互換性,各種說明性組件、區塊、模組、電路及步驟已在上文大體按其功能性加以描述。將此功能性是實施為硬體還是軟體取決於特定應用及強加於整個系統的設計約束。對於每一特定應用而言,熟習此項技術者可以變化之方式實施所描述之功能性,但不應將該等實施決策解釋為導致脫離本發明之範疇。 對於硬件實施,用以執行技術的處理單元可實施在以下各者內:一或多個ASIC、DSP、數位信號處理裝置(DSPD)、可程式化邏輯裝置(PLD)、場可程式化閘陣列(FPGA)、處理器、控制器、微控制器、微處理器、電子裝置、經設計以執行本文中所描述的功能的其他電子單元、電腦,或其組合。 因此,結合本文中之揭示內容描述的各種說明性邏輯區塊、模組及電路可使用通用處理器、DSP、ASIC、FPGA或經設計以執行本文中所描述的功能的其他可程式化邏輯裝置、離散閘或電晶體邏輯、離散硬體組件或其任何組合來實施或執行。通用處理器可為微處理器,但在替代方案中,處理器可為任何處理器、控制器、微控制器或狀態機。處理器亦可實施為計算裝置之組合,例如DSP與微處理器之組合、複數個微處理器、結合DSP核心之一或多個微處理器,或任何其他此組態。 若以軟體實施,則可將功能作為一或多個指令或程式碼而儲存於電腦可讀媒體上或經由電腦可讀媒體來傳輸。電腦可讀媒體包括電腦儲存媒體及通信媒體兩者,通信媒體包括有助於電腦程式自一處轉移至另一處之任何媒體。儲存媒體可為可由電腦存取之任何可用媒體。藉助於實例,且不受其限制,此等電腦可讀媒體可包含RAM、ROM、EEPROM、CD-ROM或其他光碟儲存裝置、磁碟儲存裝置或其他磁性儲存裝置,或可用以攜載或儲存呈指令或資料結構之形式的所要程式碼且可由電腦存取的任何其他媒體。如本文中所使用,磁碟及光碟包括緊密光碟(CD)、雷射光碟、光學光碟、數位影音光碟(DVD)、軟碟及藍光光碟,其中磁碟通常以磁性方式再現資料,而光碟使用雷射以光學方式再現資料。以上各者之組合亦應包括於電腦可讀媒體之範圍內。舉例而言,電腦可讀儲存媒體可為包括可由處理器執行之指令的非暫時性電腦可讀儲存裝置。因此,電腦可讀儲存媒體可不為信號。 提供本發明之先前描述以使得任何熟習此項技術者能夠製造或使用本發明。對本發明之各種修改對於熟習此項技術者而言將為顯而易見的,且在不脫離本發明之精神或範疇的情況下將本文中所定義之一般原理應用於其他變體。因此,本發明並不意欲限於本文中所描述之實例,而應符合與本文中所揭示之原理及新穎特徵相一致的最廣泛範疇。 儘管稱例示性實施利用在一或多個單獨電腦系統的情境下的本發明之標的物的態樣,但標的物不受如此限制,而是可結合任何計算環境(諸如網路或分佈式計算環境)來實施。再此外,本發明之標的物的態樣可在複數個處理晶片或裝置中或跨越複數個處理晶片或裝置實施,且可類似地跨越複數個裝置影響儲存。此等裝置可包括PC、網路伺服器及手持型裝置。 雖然已以具體針對結構特徵及/或方法動作之語言描述標的物,但應理解,所附申請專利範圍中所定義之標的物未必限於上文所描述之具體特徵或動作。實情為,以實施申請專利範圍之實例形式揭示上文所描述之特定特徵及動作。 <本發明之態樣> 下文中,將另外陳述本發明之一些態樣。 (實例1)根據本發明之一態樣,提供一種用於藉由電子裝置產生通知的方法,該方法包含:接收語音片語;藉由處理器將語音片語識別為用以產生通知之命令;藉由至少一個感測器偵測電子裝置之情境資料;及藉由處理器基於情境資料及命令產生通知。 (實例2)在實例1之方法中,至少基於使用者輸入、電子裝置之移動、時序資訊、電子裝置之位置資訊、環境光值及輸入聲音中的一者偵測情境資料。 (實例3)在實例2之方法中,產生通知包含至少基於情境資料而判定通知是否將產生。 (實例4)在實例3之方法中,判定通知是否將產生包含在判定通知將產生後,去啟動電子裝置之靜音模式。 (實例5)在實例3之方法中,判定通知是否將產生包含在偵測到情境資料包括使用者輸入後,判定通知將不會產生。 (實例6)在實例4之方法中,判定通知是否將產生包含以下各者中之至少一者:判定時序資訊是否在期間將不產生通知的預定時間段內;或判定電子裝置之位置資訊是否對應於將不產生通知的預定位置。 (實例7)在實例1之方法中,接收語音片語包含藉由聲音感測器接收第一語音片語及第二語音片語,且將語音片語識別為用以產生通知的命令包含回應於判定第一語音片語及第二語音片語在預定時間段內接收而將語音片語識別為用以產生通知之命令。 (實例8)在實例7之方法中,將語音片語識別為用以產生通知之命令包含將第一語音片語識別為用以啟動電子裝置中之話音輔助單元的命令及將第二語音片語識別為用以產生通知的命令。 (實例9)在實例1之方法中,接收語音片語包含藉由通信單元接收來自外部裝置之語音片語,且產生通知包含藉由通信單元傳輸電子裝置之位置資訊至外部裝置。 (實例10)實例4之方法進一步包括回應於判定產生通知而鎖定電子裝置以防止對電子裝置的未經授權存取。 (實例11)實例10之方法進一步包括回應於接收使用者輸入而解鎖電子裝置。 (實例12)實例1之方法,產生通知包含藉由輸出單元產生指示通知的可聽聲音、振動或可見光中之至少一者。 (實例13)根據本發明之一態樣,提供一種用於產生通知之電子裝置,該電子裝置包含:聲音感測器,其經組態以接收語音片語;語音識別單元,其經組態以將語音片語識別為用以產生通知之命令;感測器單元,其經組態以偵測電子裝置之情境資料;及處理器,其經組態以基於情境資料及命令產生通知。 (實例14)實例13之電子裝置進一步包括經組態以產生指示通知的可聽聲音、振動或可見光中之至少一者的輸出單元。 (實例15)在實例13之電子裝置中,感測器單元經進一步組態以至少基於在使用者輸入、電子裝置之移動、時序資訊、電子裝置之位置資訊、環境光值及輸入聲音中的一者偵測情境資料。 (實例16)在實例15之電子裝置中,處理器進一步包含經組態以至少基於情境資料判定是否將產生通知的通知處理單元。 (實例17)在實例16之電子裝置中,通知處理單元經進一步組態以基於以下各者中之至少一者判定是否將產生通知:在偵測到情境資料包括使用者輸入後,判定通知將不會產生;判定時序資訊是否在期間將不產生通知的預定時間段內;或判定電子裝置之位置資訊是否對應於將不產生通知的預定位置。 (實例18)在實例13之電子裝置中,聲音感測器經進一步組態以接收作為語音片語的第一語音片語及第二語音片語,且語音識別單元經進一步組態以回應於判定第一語音片語及第二語音片語係在預定時間段內接收而將語音片語識別為用以產生通知之命令。 (實例19)實例18之電子裝置進一步包括話音輔助單元,其中語音識別單元經進一步組態以將第一語音片語識別為用以啟動話音輔助單元之命令且話音輔助單元經組態以將第二語音片語識別為用以產生通知之命令。 (實例20)實例13之電子裝置進一步包括經組態以接收來自外部裝置之語音片語並傳輸電子裝置之位置資訊至外部裝置的通信單元。 (實例21)在實例16之電子裝置中,電子裝置經進一步組態以執行以下各者中之至少一者:回應於判定將產生通知而鎖定電子裝置以防止對電子裝置的未經授權存取;或回應於接收到使用者輸入解鎖電子裝置。 (實例22)一種非暫時性電腦可讀儲存媒體,其包含使電子裝置之至少一個處理器執行以下操作的指令:接收語音片語;將語音片語識別為用以產生通知之命令;經由至少一個感測器偵測電子裝置之情境資料;及基於情境資料及命令產生通知。 (實例23)在實例22之非暫時性電腦可讀儲存媒體中,偵測情境資料係至少基於使用者輸入、電子裝置之移動、時序資訊、電子裝置之位置資訊、環境光值及輸入聲音中之一者。 (實例24)在實例23之非暫時性電腦可讀儲存媒體中,產生通知包含至少基於情境資料判定是否產生通知。 (實例25)在實例24之非暫時性電腦可讀儲存媒體中,判定通知是否將產生包含以下各者中之至少一者:在偵測到情境資料包括使用者輸入後判定通知將不會產生;判定時序資訊是否在期間將不產生通知的預定時間段內;或判定電子裝置之位置資訊是否對應於將不產生通知的預定位置。 (實例26)在實例22之非暫時性電腦可讀儲存媒體中,經由聲音感測器接收語音片語包含接收第一語音片語及第二語音片語,且將語音片語識別為用以產生通知之命令包含回應於判定第一語音片語及第二語音片語係在預定時間段內接收而將語音片語識別為用以產生通知之命令。 (實例27)在實例26之非暫時性電腦可讀儲存媒體中,將語音片語識別為用以產生通知之命令包含將第一語音片語識別為用以啟動電子裝置中之話音輔助單元的命令及將第二語音片語識別為用以產生通知之命令。 (實例28)在實例22之非暫時性電腦可讀儲存媒體中,接收語音片語包含經由通信單元接收來自外部裝置之語音片語,且產生通知包含經由通信單元傳輸電子裝置之位置資訊至外部裝置。 (實例29)實例24之非暫時性電腦可讀儲存媒體進一步包括使電子裝置之至少一個處理器執行以下操作中之至少一個操作的指令:回應於判定通知將產生而鎖定電子裝置以防止對電子裝置之未經授權存取;或回應於接收到使用者輸入而解鎖電子裝置。 (實例30)在實例22之非暫時性電腦可讀儲存媒體中,產生通知包含經由輸出單元產生指示通知的可聽聲音、振動或可見光中之至少一者。
100‧‧‧房間
102‧‧‧桌子
104‧‧‧書籍
110‧‧‧使用者
120‧‧‧電子裝置
130‧‧‧聲音感測器
210‧‧‧感測器單元
220‧‧‧輸出單元
222‧‧‧揚聲器
224‧‧‧振動單元
226‧‧‧顯示螢幕
228‧‧‧LED單元
230‧‧‧通信單元
240‧‧‧儲存單元
250‧‧‧處理器
252‧‧‧語音識別單元
254‧‧‧話音輔助單元
256‧‧‧通知處理單元
310‧‧‧影像感測器
320‧‧‧移動感測器
330‧‧‧時鐘單元
340‧‧‧位置感測器
350‧‧‧輸入單元
610‧‧‧方向
620‧‧‧方向
710‧‧‧方向
720‧‧‧方向
810‧‧‧第一語音片語
820‧‧‧第二語音片語
910‧‧‧位置
920‧‧‧位置
930‧‧‧外部裝置
1100‧‧‧電子裝置
1112‧‧‧天線
1114‧‧‧接收器(RCVR)
1116‧‧‧傳輸器(TMTR)
1120‧‧‧數位區段
1122‧‧‧數據機處理器
1124‧‧‧精簡指令集電腦/數位信號處理器(RISC/DSP)
1126‧‧‧控制器/處理器
1128‧‧‧內部記憶體
1132‧‧‧通用音訊/視訊編碼器
1134‧‧‧通用音訊解碼器
1136‧‧‧圖形/顯示處理器
1138‧‧‧外部匯流排介面(EBI)
1142‧‧‧音訊/視訊源
1144‧‧‧麥克風
1146‧‧‧影像感測器
1148‧‧‧揚聲器/耳機
1150‧‧‧顯示單元
1152‧‧‧主記憶體
102‧‧‧桌子
104‧‧‧書籍
110‧‧‧使用者
120‧‧‧電子裝置
130‧‧‧聲音感測器
210‧‧‧感測器單元
220‧‧‧輸出單元
222‧‧‧揚聲器
224‧‧‧振動單元
226‧‧‧顯示螢幕
228‧‧‧LED單元
230‧‧‧通信單元
240‧‧‧儲存單元
250‧‧‧處理器
252‧‧‧語音識別單元
254‧‧‧話音輔助單元
256‧‧‧通知處理單元
310‧‧‧影像感測器
320‧‧‧移動感測器
330‧‧‧時鐘單元
340‧‧‧位置感測器
350‧‧‧輸入單元
610‧‧‧方向
620‧‧‧方向
710‧‧‧方向
720‧‧‧方向
810‧‧‧第一語音片語
820‧‧‧第二語音片語
910‧‧‧位置
920‧‧‧位置
930‧‧‧外部裝置
1100‧‧‧電子裝置
1112‧‧‧天線
1114‧‧‧接收器(RCVR)
1116‧‧‧傳輸器(TMTR)
1120‧‧‧數位區段
1122‧‧‧數據機處理器
1124‧‧‧精簡指令集電腦/數位信號處理器(RISC/DSP)
1126‧‧‧控制器/處理器
1128‧‧‧內部記憶體
1132‧‧‧通用音訊/視訊編碼器
1134‧‧‧通用音訊解碼器
1136‧‧‧圖形/顯示處理器
1138‧‧‧外部匯流排介面(EBI)
1142‧‧‧音訊/視訊源
1144‧‧‧麥克風
1146‧‧‧影像感測器
1148‧‧‧揚聲器/耳機
1150‧‧‧顯示單元
1152‧‧‧主記憶體
當結合附圖閱讀時,參考以下詳細描述將理解本發明之發明性態樣的實施例。圖 1
說明根據本發明之一個實施例的經組態以基於電子裝置之情境資料產生通知以向電子裝置之使用者警示的電子裝置。圖 2
說明根據本發明之一個實施例的經組態以基於電子裝置之情境資料產生用於使用者之通知的電子裝置之方塊圖。圖 3
說明根據本發明之一個實施例的經組態以偵測電子裝置之情境資料的感測器單元之方塊圖。圖 4
說明根據本發明之一個實施例的藉由電子裝置中之處理器執行以用於基於電子裝置之情境資料產生通知的方法之流程圖。圖 5
說明根據本發明之一個實施例的藉由處理器中之通知處理單元執行以用於判定通知是否基於情境資料而產生的方法之流程圖。圖 6
說明根據本發明之一個實施例的由使用者在朝向電子裝置之方向中說出的輸入聲音。圖 7
說明根據本發明之一個實施例的由使用者在除朝向電子裝置之方向以外的方向中說出的輸入聲音。圖 8
說明根據本發明之一個實施例的基於第一語音片語及第二語音片語之接收時間將語音片語識別為用以產生通知之命令。圖 9
說明根據本發明之一個實施例的經組態以傳輸包括電子裝置之位置資訊之通知至使用者之外部裝置的電子裝置。圖 10
說明根據本發明之一個實施例的藉由處理器執行以用於鎖定或解鎖電子裝置的方法之流程圖。圖 11
為根據本發明之一個實施例的其中可實施用於基於情境資料及用以產生通知之命令產生通知的方法及設備的例示性電子裝置之方塊圖。
Claims (30)
- 一種用於藉由一電子裝置產生一通知的方法,其包含: 接收一語音片語; 藉由一處理器將該語音片語識別為一用以產生該通知之命令; 藉由至少一個感測器偵測該電子裝置之情境資料;及 藉由該處理器基於該情境資料及該命令產生該通知。
- 如請求項1之方法,其中至少基於一使用者輸入、該電子裝置之移動、時序資訊、該電子裝置之位置資訊、環境光值及一輸入聲音中的一者偵測該情境資料。
- 如請求項2之方法,其中產生該通知包含至少基於該情境資料而判定該通知是否將產生。
- 如請求項3之方法,其中判定該通知是否將產生包含在判定該通知將產生後去啟動該電子裝置之一靜音模式。
- 如請求項3之方法,其中判定該通知是否將產生包含在偵測到該情境資料包括該使用者輸入後判定該通知將不會產生。
- 如請求項4之方法,其中判定該通知是否將產生包含以下各者中之至少一者: 判定該時序資訊是否在期間該通知將不會產生的一預定時間段內;或 判定該電子裝置之該位置資訊是否對應於該通知將不會產生的一預定位置。
- 如請求項1之方法,其中接收一語音片語包含藉由一聲音感測器接收一第一語音片語及一第二語音片語,且 其中將該語音片語識別為一用以產生該通知之命令包含回應於判定該第一語音片語及該第二語音片語係在一預定時間段內接收而將該語音片語識別為該用以產生該通知之命令。
- 如請求項7之方法,其中將該語音片語識別為一用以產生該通知之命令包含將該第一語音片語識別為一用以啟動該電子裝置中之一話音輔助單元的命令及將該第二語音片語識別為該用以產生該通知的命令。
- 如請求項1之方法,其中接收一語音片語包含藉由一通信單元接收來自一外部裝置之該語音片語,且 其中產生該通知包含藉由該通信單元傳輸該電子裝置之位置資訊至該外部裝置。
- 如請求項4之方法,其進一步包含 回應於判定該通知將產生而鎖定該電子裝置以防止對該電子裝置之未經授權存取。
- 如請求項10之方法,其進一步包含回應於接收到一使用者輸入而解鎖該電子裝置。
- 如請求項1之方法,其中產生該通知包含藉由一輸出單元產生指示該通知的可聽聲音、振動或可見光中之至少一者。
- 一種用於產生一通知之電子裝置,其包含: 一聲音感測器,其經組態以接收一語音片語; 一語音識別單元,其經組態以將該語音片語識別為一用以產生該通知之命令; 一感測器單元,其經組態以偵測該電子裝置之情境資料;及 一處理器,其經組態以基於該情境資料及該命令產生該通知。
- 如請求項13之電子裝置,其進一步包含經組態以產生指示該通知的可聽聲音、振動或可見光中之至少一者的一輸出單元。
- 如請求項13之電子裝置,其中該感測器單元經進一步組態以至少基於在一使用者輸入、該電子裝置之移動、時序資訊、該電子裝置之位置資訊、環境光值及一輸入聲音中的一者偵測該情境資料。
- 如請求項15之電子裝置,其中該處理器包含經組態以至少基於該情境資料而判定該通知是否將產生的一通知處理單元。
- 如請求項16之電子裝置,其中該通知處理單元經進一步組態以基於以下各者中之至少一者而判定該通知是否將產生: 在偵測到該情境資料包括該使用者輸入後判定該通知將不會產生; 判定該時序資訊是否在期間該通知將不會產生的一預定時間段內;或 判定該電子裝置之該位置資訊是否對應於該通知將不會產生的一預定位置。
- 如請求項13之電子裝置, 其中該聲音感測器經進一步組態以接收作為該語音片語的一第一語音片語及一第二語音片語,且 其中該語音識別單元經進一步組態以回應於判定該第一語音片語及該第二語音片語係在一預定時間段內接收而將該語音片語識別為一用以產生該通知之命令。
- 如請求項18之電子裝置,其進一步包含一話音輔助單元, 其中該語音識別單元經進一步組態以將該第一語音片語識別為一用以啟動該話音輔助單元之命令,且 其中該話音輔助單元經組態以將該第二語音片語識別為該用以產生該通知的命令。
- 如請求項13之電子裝置,其進一步包含: 一通信單元,其經組態以接收來自一外部裝置之該語音片語並傳輸該電子裝置之位置資訊至該外部裝置。
- 如請求項16之電子裝置,其中該電子裝置經進一步組態以執行以下各者中之至少一者: 回應於判定該通知將產生而鎖定該電子裝置以防止對該電子裝置之未經授權存取;或 回應於接收到一使用者輸入而解鎖該電子裝置。
- 一種非暫時性電腦可讀儲存媒體,其包含使一電子裝置之至少一個處理器執行以下操作的指令: 接收一語音片語; 將該語音片語識別為一用以產生一通知之命令; 經由至少一個感測器偵測該電子裝置之情境資料;及 基於該情境資料及該命令產生該通知。
- 如請求項22之非暫時性電腦可讀儲存媒體,其中偵測該情境資料係至少基於一使用者輸入、該電子裝置之移動、時序資訊、該電子裝置之位置資訊、環境光值及一輸入聲音中之一者。
- 如請求項23之非暫時性電腦可讀儲存媒體,其中產生該通知包含至少基於該情境資料而判定該通知是否將產生。
- 如請求項24之非暫時性電腦可讀儲存媒體,其中判定該通知是否將產生包含以下各者中之至少一者: 在偵測到該情境資料包括該使用者輸入後判定該通知將不會產生; 判定該時序資訊是否在期間該通知將不會產生的一預定時間段內;或 判定該電子裝置之該位置資訊是否對應於該通知將不會產生的一預定位置。
- 如請求項22之非暫時性電腦可讀儲存媒體,其中經由一聲音感測器接收一語音片語包含接收一第一語音片語及一第二語音片語,且 其中將該語音片語識別為一用以產生該通知之命令包含回應於判定該第一語音片語及該第二語音片語係在一預定時間段內接收而將該語音片語識別為該用以產生該通知之命令。
- 如請求項26之非暫時性電腦可讀儲存媒體,其中將該語音片語識別為一用以產生該通知之命令包含將該第一語音片語識別為一用以啟動該電子裝置中之一話音輔助單元的命令及將該第二語音片語識別為該用以產生該通知之命令。
- 如請求項22之非暫時性電腦可讀儲存媒體,其中接收一語音片語包含經由一通信單元接收來自一外部裝置的該語音片語,且 其中產生該通知包含經由該通信單元傳輸該電子裝置之位置資訊至該外部裝置。
- 如請求項24之非暫時性電腦可讀儲存媒體,其進一步包含使該電子裝置之該至少一個處理器執行以下各者中之至少一個操作的指令: 回應於判定該通知將產生而鎖定該電子裝置以防止對該電子裝置之未經授權存取;或 回應於接收到一使用者輸入而解鎖該電子裝置。
- 如請求項22之非暫時性電腦可讀儲存媒體,其中產生該通知包含經由一輸出單元產生指示該通知的可聽聲音、振動或可見光中之至少一者。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/956,180 US9946862B2 (en) | 2015-12-01 | 2015-12-01 | Electronic device generating notification based on context data in response to speech phrase from user |
US14/956,180 | 2015-12-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201729039A true TW201729039A (zh) | 2017-08-16 |
TWI647590B TWI647590B (zh) | 2019-01-11 |
Family
ID=57321405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW105137177A TWI647590B (zh) | 2015-12-01 | 2016-11-15 | 用於產生通知之方法、電子裝置及非暫時性電腦可讀儲存媒體 |
Country Status (11)
Country | Link |
---|---|
US (1) | US9946862B2 (zh) |
EP (3) | EP3757989A1 (zh) |
JP (1) | JP6585300B2 (zh) |
KR (1) | KR101921037B1 (zh) |
CN (1) | CN108292503B (zh) |
BR (1) | BR112018010876A2 (zh) |
ES (1) | ES2842181T3 (zh) |
HK (1) | HK1251075A1 (zh) |
SG (1) | SG11201803050PA (zh) |
TW (1) | TWI647590B (zh) |
WO (1) | WO2017095560A1 (zh) |
Families Citing this family (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
EP3937002A1 (en) | 2013-06-09 | 2022-01-12 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
DE112014003653B4 (de) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9769564B2 (en) | 2015-02-11 | 2017-09-19 | Google Inc. | Methods, systems, and media for ambient background noise modification based on mood and/or behavior information |
US10223459B2 (en) | 2015-02-11 | 2019-03-05 | Google Llc | Methods, systems, and media for personalizing computerized services based on mood and/or behavior information from multiple data sources |
US10284537B2 (en) | 2015-02-11 | 2019-05-07 | Google Llc | Methods, systems, and media for presenting information related to an event based on metadata |
US11048855B2 (en) | 2015-02-11 | 2021-06-29 | Google Llc | Methods, systems, and media for modifying the presentation of contextually relevant documents in browser windows of a browsing application |
US11392580B2 (en) * | 2015-02-11 | 2022-07-19 | Google Llc | Methods, systems, and media for recommending computerized services based on an animate object in the user's environment |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
JP2016218852A (ja) * | 2015-05-22 | 2016-12-22 | ソニー株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
KR20180037543A (ko) * | 2016-10-04 | 2018-04-12 | 삼성전자주식회사 | 음성 인식 전자 장치 |
US11276395B1 (en) * | 2017-03-10 | 2022-03-15 | Amazon Technologies, Inc. | Voice-based parameter assignment for voice-capturing devices |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
DK179560B1 (en) * | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10599391B2 (en) * | 2017-11-06 | 2020-03-24 | Google Llc | Parsing electronic conversations for presentation in an alternative interface |
CN108022586B (zh) * | 2017-11-30 | 2019-10-18 | 百度在线网络技术(北京)有限公司 | 用于控制页面的方法和装置 |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US11094316B2 (en) * | 2018-05-04 | 2021-08-17 | Qualcomm Incorporated | Audio analytics for natural language processing |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
JP2019204025A (ja) * | 2018-05-24 | 2019-11-28 | レノボ・シンガポール・プライベート・リミテッド | 電子機器、制御方法、及びプログラム |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
JP7055722B2 (ja) * | 2018-08-27 | 2022-04-18 | 京セラ株式会社 | 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム |
JP2020052445A (ja) * | 2018-09-21 | 2020-04-02 | シャープ株式会社 | 発話装置、サーバ、制御システム、制御方法、およびプログラム |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11205433B2 (en) * | 2019-08-21 | 2021-12-21 | Qualcomm Incorporated | Method and apparatus for activating speech recognition |
CN110648645A (zh) * | 2019-09-27 | 2020-01-03 | 北京小米移动软件有限公司 | 带屏电子设备控制方法、装置及控制系统 |
US11664044B2 (en) | 2019-11-25 | 2023-05-30 | Qualcomm Incorporated | Sound event detection learning |
JP7482640B2 (ja) * | 2020-02-05 | 2024-05-14 | キヤノン株式会社 | 音声入力装置およびその制御方法ならびにプログラム |
CN111354360A (zh) * | 2020-03-17 | 2020-06-30 | 北京百度网讯科技有限公司 | 语音交互处理方法、装置和电子设备 |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US20220028245A1 (en) * | 2020-07-21 | 2022-01-27 | Rai Strategic Holdings, Inc. | Aerosol Generation Device Locator |
US11410677B2 (en) | 2020-11-24 | 2022-08-09 | Qualcomm Incorporated | Adaptive sound event classification |
US11749287B2 (en) * | 2021-04-09 | 2023-09-05 | Qualcomm Incorporated | Device finder using voice authentication |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3888727B2 (ja) * | 1997-04-15 | 2007-03-07 | 三菱電機株式会社 | 音声区間検出方法、音声認識方法、音声区間検出装置及び音声認識装置 |
JP2002057749A (ja) * | 2000-08-09 | 2002-02-22 | Denso Corp | 携帯形通信装置 |
US7398209B2 (en) * | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7693720B2 (en) | 2002-07-15 | 2010-04-06 | Voicebox Technologies, Inc. | Mobile systems and methods for responding to natural language speech utterance |
JP4429691B2 (ja) * | 2003-11-07 | 2010-03-10 | クラリオン株式会社 | 車載用音響装置、車載用音響装置の制御方法、車載用音響装置の制御プログラム、及び記録媒体 |
US9042921B2 (en) * | 2005-09-21 | 2015-05-26 | Buckyball Mobile Inc. | Association of context data with a voice-message component |
JP2009124188A (ja) * | 2006-01-30 | 2009-06-04 | Nec Corp | 携帯端末、携帯端末の紛失通知方法、および紛失通知プログラム |
US8587402B2 (en) | 2008-03-07 | 2013-11-19 | Palm, Inc. | Context aware data processing in mobile computing device |
JP2010098356A (ja) * | 2008-10-14 | 2010-04-30 | Panasonic Corp | 携帯端末 |
US9076125B2 (en) * | 2009-02-27 | 2015-07-07 | Microsoft Technology Licensing, Llc | Visualization of participant relationships and sentiment for electronic messaging |
US8423508B2 (en) * | 2009-12-04 | 2013-04-16 | Qualcomm Incorporated | Apparatus and method of creating and utilizing a context |
US8854318B2 (en) * | 2010-09-01 | 2014-10-07 | Nokia Corporation | Mode switching |
JP2012070085A (ja) * | 2010-09-21 | 2012-04-05 | Ntt Docomo Inc | 携帯端末及びプログラム |
US9262612B2 (en) * | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US8594737B2 (en) | 2011-04-06 | 2013-11-26 | Blackberry Limited | System and method for locating a misplaced mobile device |
US20130324071A1 (en) * | 2012-06-04 | 2013-12-05 | Yeung Hwae Huh | Modifying alert modes for electronic devices |
US9348607B2 (en) * | 2012-06-07 | 2016-05-24 | Apple Inc. | Quiet hours for notifications |
JP2014036360A (ja) * | 2012-08-09 | 2014-02-24 | Sharp Corp | 電子機器、電子機器の制御方法、および制御プログラム |
US9721587B2 (en) * | 2013-01-24 | 2017-08-01 | Microsoft Technology Licensing, Llc | Visual feedback for speech recognition system |
US9854084B2 (en) | 2013-03-06 | 2017-12-26 | Google Llc | Contextual alarm and notification management |
US10078487B2 (en) | 2013-03-15 | 2018-09-18 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014165470A1 (en) | 2013-04-03 | 2014-10-09 | Qmotion Incorporated | System and method for wireless voice activation of motorized window coverings |
US10145579B2 (en) * | 2013-05-01 | 2018-12-04 | Honeywell International Inc. | Devices and methods for interacting with a control system that is connected to a network |
US9384751B2 (en) * | 2013-05-06 | 2016-07-05 | Honeywell International Inc. | User authentication of voice controlled devices |
US9892729B2 (en) * | 2013-05-07 | 2018-02-13 | Qualcomm Incorporated | Method and apparatus for controlling voice activation |
US9767672B2 (en) | 2013-06-14 | 2017-09-19 | Ebay Inc. | Mobile device self-identification system |
US9240182B2 (en) * | 2013-09-17 | 2016-01-19 | Qualcomm Incorporated | Method and apparatus for adjusting detection threshold for activating voice assistant function |
KR102188090B1 (ko) * | 2013-12-11 | 2020-12-04 | 엘지전자 주식회사 | 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템 |
US8938394B1 (en) * | 2014-01-09 | 2015-01-20 | Google Inc. | Audio triggers based on context |
JP2015148648A (ja) * | 2014-02-04 | 2015-08-20 | シャープ株式会社 | 対話システム、発話制御装置、対話装置、発話制御方法、発話制御装置の制御プログラム、および、対話装置の制御プログラム |
US20150249718A1 (en) * | 2014-02-28 | 2015-09-03 | Chris Huybregts | Performing actions associated with individual presence |
US9430186B2 (en) * | 2014-03-17 | 2016-08-30 | Google Inc | Visual indication of a recognized voice-initiated action |
US9966079B2 (en) * | 2014-03-24 | 2018-05-08 | Lenovo (Singapore) Pte. Ltd. | Directing voice input based on eye tracking |
US10770075B2 (en) | 2014-04-21 | 2020-09-08 | Qualcomm Incorporated | Method and apparatus for activating application by speech input |
US9715875B2 (en) * | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9696801B2 (en) * | 2014-06-26 | 2017-07-04 | Thomas Alan Donaldson | Eye-controlled user interface to control an electronic device |
US10515081B2 (en) * | 2014-12-11 | 2019-12-24 | Facebook, Inc. | User-aware notification delivery |
US10274911B2 (en) * | 2015-06-25 | 2019-04-30 | Intel Corporation | Conversational interface for matching text of spoken input based on context model |
-
2015
- 2015-12-01 US US14/956,180 patent/US9946862B2/en active Active
-
2016
- 2016-10-26 SG SG11201803050PA patent/SG11201803050PA/en unknown
- 2016-10-26 KR KR1020187015239A patent/KR101921037B1/ko active IP Right Grant
- 2016-10-26 EP EP20175533.7A patent/EP3757989A1/en not_active Ceased
- 2016-10-26 CN CN201680068148.6A patent/CN108292503B/zh active Active
- 2016-10-26 ES ES16795469T patent/ES2842181T3/es active Active
- 2016-10-26 BR BR112018010876A patent/BR112018010876A2/pt not_active Application Discontinuation
- 2016-10-26 JP JP2018527997A patent/JP6585300B2/ja active Active
- 2016-10-26 EP EP24157945.7A patent/EP4350691A1/en active Pending
- 2016-10-26 WO PCT/US2016/058920 patent/WO2017095560A1/en active Application Filing
- 2016-10-26 EP EP16795469.2A patent/EP3384489B1/en active Active
- 2016-11-15 TW TW105137177A patent/TWI647590B/zh not_active IP Right Cessation
-
2018
- 2018-08-14 HK HK18110383.4A patent/HK1251075A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
US20170154176A1 (en) | 2017-06-01 |
KR101921037B1 (ko) | 2018-11-21 |
US9946862B2 (en) | 2018-04-17 |
CN108292503B (zh) | 2019-06-14 |
EP3757989A1 (en) | 2020-12-30 |
SG11201803050PA (en) | 2018-06-28 |
CN108292503A (zh) | 2018-07-17 |
BR112018010876A2 (pt) | 2018-11-21 |
TWI647590B (zh) | 2019-01-11 |
EP3384489B1 (en) | 2020-09-23 |
JP6585300B2 (ja) | 2019-10-02 |
WO2017095560A1 (en) | 2017-06-08 |
ES2842181T3 (es) | 2021-07-13 |
EP3384489A1 (en) | 2018-10-10 |
EP4350691A1 (en) | 2024-04-10 |
KR20180066251A (ko) | 2018-06-18 |
JP2018537714A (ja) | 2018-12-20 |
HK1251075A1 (zh) | 2019-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI647590B (zh) | 用於產生通知之方法、電子裝置及非暫時性電腦可讀儲存媒體 | |
US9916431B2 (en) | Context-based access verification | |
KR101868711B1 (ko) | 애플리케이션들에 대한 액세스를 제어하기 위한 방법 및 장치 | |
KR101981878B1 (ko) | 스피치의 방향에 기초한 전자 디바이스의 제어 | |
US20150249718A1 (en) | Performing actions associated with individual presence | |
US11217084B2 (en) | Mobile device self-identification system | |
EP3134896A1 (en) | Method and apparatus for activating application by speech input | |
WO2015160519A1 (en) | Method and apparatus for performing function by speech input | |
JP2017509009A (ja) | オーディオストリームの中の音楽の追跡 | |
TW202240573A (zh) | 使用語音認證的設備尋檢器 | |
TWI468983B (zh) | 服務啟動方法及系統 | |
CN106445069A (zh) | 信息提示方法和智能设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |