JP6911938B2 - 装置及び方法 - Google Patents
装置及び方法 Download PDFInfo
- Publication number
- JP6911938B2 JP6911938B2 JP2019553498A JP2019553498A JP6911938B2 JP 6911938 B2 JP6911938 B2 JP 6911938B2 JP 2019553498 A JP2019553498 A JP 2019553498A JP 2019553498 A JP2019553498 A JP 2019553498A JP 6911938 B2 JP6911938 B2 JP 6911938B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- mobile device
- determined
- identification information
- circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 88
- 239000003795 chemical substances by application Substances 0.000 description 86
- 238000004590 computer program Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/28—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves by co-ordinating position lines of different shape, e.g. hyperbolic, circular, elliptical or radial
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/0009—Transmission of position information to remote stations
- G01S5/0045—Transmission from base station to mobile station
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2111—Location-sensitive, e.g. geographical location, GPS
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
(1)ユーザのスピーチを示すサウンドデータに基づき、前記ユーザの位置を判断し、
前記ユーザの前記判断した位置と、モバイルデバイスから受信した位置情報及びユーザ識別情報とに基づき、前記ユーザを識別する
よう構成される回路
を具備する装置。
(2)項(1)に記載の装置であって、
前記回路は、前記サウンドデータに基づき、少なくとも1個のユーザ識別情報を、前記ユーザの前記判断した位置と関連付けるようにさらに構成され、
前記少なくとも1個のユーザ識別情報及び前記ユーザの前記判断した位置を、前記モバイルデバイスから受信した前記ユーザ識別情報及び前記位置情報と比較することにより、前記ユーザを識別する
装置。
(3)項(1)又は(2)に記載の装置であって、
前記ユーザの前記位置を判断することは、前記ユーザの方向及び距離の少なくとも一方を判断することを含む
装置。
(4)項(1)乃至(3)の何れか一項に記載の装置であって、
前記回路は、前記モバイルデバイスと通信するようにさらに構成される
装置。
(5)項(1)乃至(4)の何れか一項に記載の装置であって、
前記モバイルデバイスは、位置を判断し、前記判断した位置を示す位置情報を供給するよう構成され、
前記回路は、前記位置情報を受信するようにさらに構成される
装置。
(6)項(1)乃至(5)の何れか一項に記載の装置であって、
前記モバイルデバイスは、前記モバイルデバイスを装着するユーザを識別し、前記判断したユーザを示すユーザ識別情報を供給するよう構成され、
前記回路は、前記ユーザ識別情報を受信するようにさらに構成される
装置。
(7)項(1)乃至(6)の何れか一項に記載の装置であって、
前記モバイルデバイスのマイクロフォンを介して生成した付加的なサウンドデータを、前記ユーザを識別するのに使用する
装置。
(8)項(1)乃至(7)の何れか一項に記載の装置であって、
前記モバイルデバイスは、ユーザ入力を受信し、ユーザ入力情報を供給するよう構成され、
前記回路は、前記ユーザを識別するため、前記ユーザ入力情報を受信するようにさらに構成される
装置。
(9)項(1)乃至(8)の何れか一項に記載の装置であって、
前記回路は、前記モバイルデバイスからの前記ユーザ入力情報をリクエストするようにさらに構成される
装置。
(10)項(1)乃至(9)の何れか一項に記載の装置であって、
前記回路は、前記ユーザを識別するため、顔認識データをリクエストするようにさらに構成される
装置。
(11)ユーザのスピーチを示すサウンドデータに基づき、前記ユーザの位置を判断し、
前記ユーザの前記判断した位置と、モバイルデバイスから受信した位置情報及びユーザ識別情報とに基づき、前記ユーザを識別する
方法。
(12)項(11)に記載の方法であって、
さらに、前記サウンドデータに基づき、少なくとも1個のユーザ識別情報を、前記ユーザの前記判断した位置と関連付け、
前記少なくとも1個のユーザ識別情報及び前記ユーザの前記判断した位置を、前記モバイルデバイスから受信した前記ユーザ識別情報及び前記位置情報と比較することにより、前記ユーザを識別する
方法。
(13)項(11)又は(12)に記載の方法であって、
前記ユーザの前記位置を判断することは、前記ユーザの方向及び距離の少なくとも一方を判断することを含む
方法。
(14)項(11)乃至(13)の何れか一項に記載の方法であって、
さらに、前記モバイルデバイスと通信する
方法。
(15)項(11)乃至(14)の何れか一項に記載の方法であって、
前記モバイルデバイスは、位置を判断し、前記判断した位置を示す位置情報を供給するよう構成され、
さらに、前記位置情報を受信する
方法。
(16)項(11)乃至(15)の何れか一項に記載の方法であって、
前記モバイルデバイスは、前記モバイルデバイスを装着するユーザを識別し、前記判断したユーザを示すユーザ識別情報を供給するよう構成され、
さらに、前記ユーザ識別情報を受信する
方法。
(17)項(11)乃至(16)の何れか一項に記載の方法であって、
前記モバイルデバイスのマイクロフォンを介して生成した付加的なサウンドデータを、前記ユーザを識別するのに使用する
方法。
(18)項(11)乃至(17)の何れか一項に記載の方法であって、
前記モバイルデバイスは、ユーザ入力を受信し、ユーザ入力情報を供給するよう構成され、
さらに、前記ユーザを識別するため、前記ユーザ入力情報を受信する
方法。
(19)項(11)乃至(18)の何れか一項に記載の方法であって、
さらに、前記モバイルデバイスからの前記ユーザ入力情報をリクエストする
方法。
(20)項(11)乃至(19)の何れか一項に記載の方法であって、
さらに、前記ユーザを識別するため、顔認識データをリクエストする
方法。
(21)コンピュータが実行するとき、項(11)乃至(20)の何れか一項に記載の方法をコンピュータに実行させるプログラムコードを含む
コンピュータプログラム。
(22)プロセッサが実行するとき、項(11)乃至(20)の何れか一項に記載の方法を実行させるコンピュータプログラムプロダクトを記憶する
非一過性のコンピュータ読み取り可能な記録媒体。
Claims (20)
- ユーザのスピーチを示すサウンドデータに基づき、前記ユーザの位置を判断し、
前記ユーザの前記判断した位置と、モバイルデバイスから受信した、当該モバイルデバイス側で決定した位置情報及びユーザ識別情報とに基づき、前記ユーザを識別する
よう構成される回路
を具備する装置。 - ユーザのスピーチを示すサウンドデータに基づき、前記ユーザの位置を判断し、
前記ユーザの前記判断した位置と、モバイルデバイスから受信した位置情報及びユーザ識別情報とに基づき、前記ユーザを識別する
よう構成される回路
を具備する装置であって、
前記回路は、前記サウンドデータに基づき、少なくとも1個のユーザ識別情報を、前記ユーザの前記判断した位置と関連付けるようにさらに構成され、
前記少なくとも1個のユーザ識別情報及び前記ユーザの前記判断した位置を、前記モバイルデバイスから受信した前記ユーザ識別情報及び前記位置情報と比較することにより、前記ユーザを識別する
装置。 - 請求項1に記載の装置であって、
前記ユーザの前記位置を判断することは、前記ユーザの方向及び距離の少なくとも一方を判断することを含む
装置。 - 請求項1に記載の装置であって、
前記回路は、前記モバイルデバイスと通信するようにさらに構成される
装置。 - 請求項1に記載の装置であって、
前記回路は、前記モバイルデバイスから供給された前記モバイルデバイスが判断した当該モバイルデバイスの位置を示す前記位置情報を受信するようにさらに構成される
装置。 - 請求項1に記載の装置であって、
前記回路は、前記モバイルデバイスから供給された、前記モバイルデバイスを装着するユーザを識別し、前記判断したユーザを示す前記ユーザ識別情報を受信するようにさらに構成される
装置。 - 請求項1に記載の装置であって、
前記モバイルデバイスのマイクロフォンを介して生成した付加的なサウンドデータを、前記ユーザを識別するのに使用する
装置。 - 請求項1に記載の装置であって、
前記モバイルデバイスは、ユーザ入力を受信し、ユーザ入力情報を供給するよう構成され、
前記回路は、前記ユーザを識別するため、前記ユーザ入力情報を受信するようにさらに構成される
装置。 - 請求項8に記載の装置であって、
前記回路は、前記モバイルデバイスからの前記ユーザ入力情報をリクエストするようにさらに構成される
装置。 - 請求項1に記載の装置であって、
前記回路は、前記ユーザを識別するため、顔認識データをリクエストするようにさらに構成される
装置。 - ユーザのスピーチを示すサウンドデータに基づき、前記ユーザの位置を判断し、
前記ユーザの前記判断した位置と、モバイルデバイスから受信した、当該モバイルデバイス側で決定した位置情報及びユーザ識別情報とに基づき、前記ユーザを識別する
方法。 - ユーザのスピーチを示すサウンドデータに基づき、前記ユーザの位置を判断し、
前記ユーザの前記判断した位置と、モバイルデバイスから受信した位置情報及びユーザ識別情報とに基づき、前記ユーザを識別する方法であって、
さらに、前記サウンドデータに基づき、少なくとも1個のユーザ識別情報を、前記ユーザの前記判断した位置と関連付け、
前記少なくとも1個のユーザ識別情報及び前記ユーザの前記判断した位置を、前記モバイルデバイスから受信した前記ユーザ識別情報及び前記位置情報と比較することにより、前記ユーザを識別する
方法。 - 請求項11に記載の方法であって、
前記ユーザの前記位置を判断することは、前記ユーザの方向及び距離の少なくとも一方を判断することを含む
方法。 - 請求項11に記載の方法であって、
さらに、前記モバイルデバイスと通信する
方法。 - ユーザのスピーチを示すサウンドデータに基づき、前記ユーザの位置を判断し、
前記ユーザの前記判断した位置と、モバイルデバイスから受信した位置情報及びユーザ識別情報とに基づき、前記ユーザを識別する方法であって、
前記モバイルデバイスは、位置を判断し、前記判断した位置を示す位置情報を供給するよう構成され、
さらに、前記位置情報を受信する
方法。 - 請求項11に記載の方法であって、
前記モバイルデバイスは、前記モバイルデバイスを装着するユーザを識別し、前記判断したユーザを示すユーザ識別情報を供給するよう構成され、
さらに、前記ユーザ識別情報を受信する
方法。 - 請求項11に記載の方法であって、
前記モバイルデバイスのマイクロフォンを介して生成した付加的なサウンドデータを、前記ユーザを識別するのに使用する
方法。 - 請求項11に記載の方法であって、
前記モバイルデバイスは、ユーザ入力を受信し、ユーザ入力情報を供給するよう構成され、
さらに、前記ユーザを識別するため、前記ユーザ入力情報を受信する
方法。 - 請求項18に記載の方法であって、
さらに、前記モバイルデバイスからの前記ユーザ入力情報をリクエストする
方法。 - 請求項11に記載の方法であって、
さらに、前記ユーザを識別するため、顔認識データをリクエストする
方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17164215 | 2017-03-31 | ||
EP17164215.0 | 2017-03-31 | ||
PCT/EP2018/058024 WO2018178207A1 (en) | 2017-03-31 | 2018-03-28 | Apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020512592A JP2020512592A (ja) | 2020-04-23 |
JP6911938B2 true JP6911938B2 (ja) | 2021-07-28 |
Family
ID=58489172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019553498A Active JP6911938B2 (ja) | 2017-03-31 | 2018-03-28 | 装置及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11594229B2 (ja) |
EP (1) | EP3602554B1 (ja) |
JP (1) | JP6911938B2 (ja) |
WO (1) | WO2018178207A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102478031B1 (ko) * | 2018-03-08 | 2022-12-16 | 삼성전자주식회사 | 외부 장치와의 연결을 위한 전자 장치 및 방법 |
US11838230B2 (en) * | 2021-01-07 | 2023-12-05 | Qualcomm Incorporated | Access point assisted sidelink communications |
US20220335087A1 (en) * | 2021-04-14 | 2022-10-20 | Ricoh Company, Ltd. | Data processing apparatus, data processing system, and data processing method |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001319045A (ja) * | 2000-05-11 | 2001-11-16 | Matsushita Electric Works Ltd | 音声マンマシンインタフェースを用いたホームエージェントシステム、及びプログラム記録媒体 |
KR101295003B1 (ko) | 2011-10-12 | 2013-08-16 | 한국과학기술연구원 | 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법 |
JP2013104938A (ja) * | 2011-11-11 | 2013-05-30 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
JP6031761B2 (ja) | 2011-12-28 | 2016-11-24 | 富士ゼロックス株式会社 | 音声解析装置および音声解析システム |
US9706323B2 (en) * | 2014-09-09 | 2017-07-11 | Sonos, Inc. | Playback device calibration |
JP6026651B2 (ja) * | 2013-05-14 | 2016-11-16 | 株式会社東芝 | 電子機器およびデータ管理方法 |
JP2016524724A (ja) | 2013-05-28 | 2016-08-18 | トムソン ライセンシングThomson Licensing | 家庭環境内で音声コマンドに関連付けられた位置を特定して家庭用電気機器を制御する方法およびシステム |
US9595181B2 (en) | 2013-12-20 | 2017-03-14 | Invensense, Inc. | Wearable device assisting smart media application and vice versa |
JP6440483B2 (ja) * | 2014-12-17 | 2018-12-19 | シャープ株式会社 | 通信システム、サーバ装置、ロボット、情報処理方法、およびプログラム |
US20160180222A1 (en) | 2014-12-23 | 2016-06-23 | Ejenta, Inc. | Intelligent Personal Agent Platform and System and Methods for Using Same |
US9554091B1 (en) * | 2015-12-15 | 2017-01-24 | Cisco Technology, Inc. | Identifying conference participants and active talkers at a video conference endpoint using user devices |
US10028112B2 (en) * | 2016-02-18 | 2018-07-17 | Vivint, Inc. | Event triggered messaging |
CN106328132A (zh) | 2016-08-15 | 2017-01-11 | 歌尔股份有限公司 | 一种智能设备的语音交互控制方法和装置 |
-
2018
- 2018-03-28 JP JP2019553498A patent/JP6911938B2/ja active Active
- 2018-03-28 WO PCT/EP2018/058024 patent/WO2018178207A1/en active Application Filing
- 2018-03-28 US US16/498,502 patent/US11594229B2/en active Active
- 2018-03-28 EP EP18712917.6A patent/EP3602554B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018178207A1 (en) | 2018-10-04 |
EP3602554B1 (en) | 2023-12-20 |
EP3602554A1 (en) | 2020-02-05 |
JP2020512592A (ja) | 2020-04-23 |
US20200035248A1 (en) | 2020-01-30 |
US11594229B2 (en) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102513297B1 (ko) | 전자 장치 및 전자 장치의 기능 실행 방법 | |
US11270695B2 (en) | Augmentation of key phrase user recognition | |
US10146923B2 (en) | Audiovisual associative authentication method, related system and device | |
Bai et al. | Acoustic-based sensing and applications: A survey | |
US11699449B2 (en) | In-ear liveness detection for voice user interfaces | |
US11210376B2 (en) | Systems and methods for biometric user authentication | |
JP6911938B2 (ja) | 装置及び方法 | |
US10636405B1 (en) | Automatic active noise reduction (ANR) control | |
TW201606760A (zh) | 從音頻訊號的即時情緒辨識 | |
US11343612B2 (en) | Activity detection on devices with multi-modal sensing | |
US11514928B2 (en) | Spatially informed audio signal processing for user speech | |
KR20150130854A (ko) | 오디오 신호 인식 방법 및 이를 제공하는 전자 장치 | |
CN109064720B (zh) | 位置提示方法、装置、存储介质及电子设备 | |
Zhang | Towards Context-Aware and Trustworthy Voice Assistants | |
WO2017219925A1 (zh) | 一种信息发送方法、装置及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6911938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |