CN115942171A - 信息处理装置、信息处理系统、存储介质及信息处理方法 - Google Patents
信息处理装置、信息处理系统、存储介质及信息处理方法 Download PDFInfo
- Publication number
- CN115942171A CN115942171A CN202210270850.8A CN202210270850A CN115942171A CN 115942171 A CN115942171 A CN 115942171A CN 202210270850 A CN202210270850 A CN 202210270850A CN 115942171 A CN115942171 A CN 115942171A
- Authority
- CN
- China
- Prior art keywords
- user
- information
- speaker device
- information processing
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 74
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 239000011521 glass Substances 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 38
- 230000033001 locomotion Effects 0.000 claims description 24
- 230000009471 action Effects 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 7
- 230000010485 coping Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 136
- 230000008901 benefit Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000035807 sensation Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011038 discontinuous diafiltration by volume reduction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1787—General system configurations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1041—Mechanical or electronic switches, or control elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/01—Aspects of volume control, not necessarily automatic, in sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/01—Hearing devices using active noise cancellation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Headphones And Earphones (AREA)
Abstract
一种信息处理装置、信息处理系统、存储介质及信息处理方法,所述信息处理装置具备处理器,所述处理器进行如下处理:对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理;若根据表示所述用户的状况及该用户的周围的状况中的至少一个的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行该扬声器装置的功能控制。
Description
技术领域
本发明涉及一种信息处理装置、信息处理系统、存储介质及信息处理方法。
背景技术
近年来,无线方式的耳机或头戴式耳机的功能不断充实,尤其是去除噪声的功能或自然地听到周围的声音的功能等改变声音的听感的功能受到关注,也存在相关技术(例如,专利文献1)。
专利文献1:日本特开2020-108166号公报
然而,为了使用户享受到改变声音的听感的功能的优点,需要自行进行使这些功能有效或无效的操作,未能充分享受到这些功能的优点。
发明内容
本发明的目的在于,与将具有改变声音的听感的功能的扬声器装置配置于耳边的用户自行进行用于享受该功能的优点的操作的情况相比,能够更多地享受到该功能的优点。
方案1所述的发明是一种信息处理装置,其特征在于,具备处理器,所述处理器进行如下处理:对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理;若根据表示所述用户的状况及该用户的周围的状况中的至少一个的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行该扬声器装置的功能控制。
方案2所述的发明是方案1所述的信息处理装置,其特征在于,所述处理器进行如下处理:作为成为所述识别对象的物体的信息,对可能存在于所述用户周围的物体的信息及作为成为所述识别对象的物体的该用户的信息和所述扬声器装置的功能控制的内容建立对应关联而进行管理。
方案3所述的发明是方案2所述的信息处理装置,其特征在于,所述处理器进行如下处理:作为可能存在于所述用户周围的物体的信息,对表示该用户与该物体的位置关系的信息和所述扬声器装置的功能控制的内容建立对应关联而进行管理。
方案4所述的发明是方案3所述的信息处理装置,其特征在于,所述处理器进行如下处理:若识别到存在于所述用户周围的物体,则作为与该物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,以引入外部声音的控制、消除外部声音的控制、停止声音输出的控制、调节音量的控制及输出表示识别到该物体的意旨的消息的控制中的一个以上的内容,进行该扬声器装置的功能控制。
方案5所述的发明是方案4所述的信息处理装置,其特征在于,所述处理器进行如下处理:作为所述扬声器装置的功能控制,使外部声音的引入、声音输出的停止及音量的降低优先于外部声音的消除。
方案6所述的发明是方案4所述的信息处理装置,其特征在于,所述处理器进行如下处理:若识别到作为存在于所述用户周围的物体的人存在于该用户的前方,则作为所述扬声器装置的功能控制,进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。
方案7所述的发明是方案6所述的信息处理装置,其特征在于,所述处理器进行如下处理:若识别到作为存在于所述用户周围的物体的人存在于该用户的前方且正在对该用户说话,则作为所述扬声器装置的功能控制,进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。
方案8所述的发明是方案7所述的信息处理装置,其特征在于,所述处理器进行如下处理:根据作为存在于所述用户周围的物体的人的嘴部动作,识别该人正在对该用户说话。
方案9所述的发明是方案4所述的信息处理装置,其特征在于,所述处理器进行如下处理:若识别到作为存在于所述用户周围的物体的其他信息处理装置或印刷物存在于该用户的前方,则作为所述扬声器装置的功能控制,进行消除外部声音的控制。
方案10所述的发明是方案4所述的信息处理装置,其特征在于,所述处理器进行如下处理:若识别到存在于所述用户周围的物体存在于该用户的后方或侧面方向,则作为所述扬声器装置的功能控制,进行外部声音的引入及基于声音或文本的所述消息的输出中的至少一个控制。
方案11所述的发明是方案2所述的信息处理装置,其特征在于,所述处理器进行如下处理:作为所述物体即所述用户的信息,对该用户的动作信息和所述扬声器装置的功能控制的内容建立对应关联而进行管理。
方案12所述的发明是方案11所述的信息处理装置,其特征在于,所述处理器进行如下处理:若识别到所述用户的动作,则作为与所述用户的动作信息建立有对应关联的所述扬声器装置的功能控制的内容,以引入外部声音的控制、消除外部声音的控制、停止声音输出的控制、调节音量的控制及输出表示识别到的意旨的消息的控制中的一个以上的内容,进行该扬声器装置的功能控制。
方案13所述的发明是方案12所述的信息处理装置,其特征在于,所述处理器进行如下处理:若作为所述用户的动作识别到回头的动作、仰视的动作或鞠躬的动作,则作为所述扬声器装置的功能控制,进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。
方案14所述的发明是方案1所述的信息处理装置,其特征在于,所述处理器进行如下处理:根据搭载于所述用户所佩戴的可佩戴式终端的复数种传感器各自的所述传感结果的组合,识别所述物体。
方案15所述的发明是方案14所述的信息处理装置,其特征在于,所述处理器进行如下处理:根据所述传感结果的组合及从表示自身装置或所述可佩戴式终端的位置的信息推断的所述用户使用所述扬声器装置的环境,识别所述物体。
方案16所述的发明是方案14所述的信息处理装置,其特征在于,所述处理器进行如下处理:根据通过所述复数种传感器各自的所述传感能力和根据所述用户使用所述扬声器装置的环境来确定的该传感结果的组合,识别所述物体。
方案17所述的发明是方案16所述的信息处理装置,其特征在于,所述能力为识别物体的能力、应对环境的能力、测定距离的能力、识别空间的能力及测定速度的能力中的任一个。
方案18所述的发明是方案14所述的信息处理装置,其特征在于,所述处理器进行如下处理:根据搭载于佩戴在所述用户的头部的眼镜型的所述可佩戴式终端的所述复数种传感器各自的所述传感结果的组合,识别所述物体。
方案19所述的发明是一种信息处理系统,其特征在于,具有:管理单元,对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理;及控制单元,若根据表示所述用户的状况及该用户的周围的状况的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行该扬声器装置的功能控制。
方案20所述的发明是一种存储介质,其特征在于,存储有用于使计算机实现如下功能的程序:对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理的功能;及若根据表示所述用户的状况及该用户的周围的状况的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行该扬声器装置的功能控制的功能。
方案21所述的发明是一种信息处理方法,其特征在于,包括如下步骤:对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理;及若根据表示所述用户的状况及该用户的周围的状况中的至少一个的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行该扬声器装置的功能控制。
发明效果
根据本发明的第1方案,能够提供一种信息处理装置,与将具有改变声音的听感的功能的扬声器装置(例如,耳机装置或头戴式耳机装置)佩戴于耳边的用户自行进行用于享受该功能的优点的操作的情况相比,该信息处理装置能够更多地享受到该功能的优点。
根据本发明的第2方案,能够使用户享受到如下优点:自动控制根据有可能存在于用户周围的物体的信息及作为物体的用户的信息来改变声音的听感的功能。
根据本发明的第3方案,能够使用户享受到如下优点:自动控制根据有可能存在于用户周围的物体和表示与用户的位置关系的信息来改变声音的听感的功能。
根据本发明的第4方案,能够使用户享受到如下优点:若识别到存在于用户周围的物体,则自动控制外部声音的引入、噪声的去除、声音输出的停止、音量的调节及表示识别到物体的意旨的消息的输出中的每一个。
根据本发明的第5方案,能够自动地优先使用户避免危险。
根据本发明的第6方案,能够使用户享受到如下优点:若识别到存在于用户前方的人,则自动变得容易听取来自周围环境的声音。
根据本发明的第7方案,能够使用户享受到如下优点:若识别到存在于用户前方的人正在对用户说话,则自动变得容易听取来自周围环境的声音。
根据本发明的第8方案,能够使用户享受到如下优点:若根据存在于用户前方的人的嘴部动作识别到该人正在对该用户说话,则自动变得容易听取来自周围环境的声音。
根据本发明的第9方案,能够使用户享受到如下优点:若识别到存在于用户前方的个人电脑等信息处理装置、书籍或资料等印刷物,则自动去除噪声,变得容易听取从扬声器装置输出的声音。
根据本发明的第10方案,能够使用户享受到如下优点:若识别到存在于用户的后方或侧面方向的物体,则自动变得容易听取来自周围环境的声音,或能够通过消息得知识别到物体的情况,由此避免危险。
根据本发明的第11方案,能够使用户享受到如下优点:自动控制根据用户的动作信息来改变声音的听感的功能。
根据本发明的第12方案,能够使用户享受到如下优点:根据用户的动作信息,自动控制外部声音的引入、噪声的去除、声音输出的停止、音量的调节及表示识别到物体的意旨的消息的输出中的每一个。
根据本发明的第13方案,能够使用户享受到如下优点:若识别到用户回头的动作、仰视的动作、鞠躬的动作,则自动控制外部声音的引入、声音输出的停止及音量的降低中的每一个。
根据本发明的第14方案,通过搭载于用户所佩戴的可佩戴式终端的复数种传感器的传感结果的组合,能够进行与周边环境相对应的物体识别。
根据本发明的第15方案,与不考虑表示位置的信息而进行物体识别的情况相比,能够进行更高精度的识别。
根据本发明的第16方案,与不考虑每个传感器的能力而进行物体识别的情况相比,能够进行更高精度的识别。
根据本发明的第17方案,与不考虑每个传感器的能力而进行物体识别的情况相比,能够进行更高精度的识别。
根据本发明的第18方案,能够使用户享受到根据佩戴于容易在位置上掌握用户状况的头部的眼镜型可佩戴式终端的传感结果而被自动控制的扬声器装置的功能的优点。
根据本发明的第19方案,能够提供一种信息处理系统,与将具有改变声音的听感的功能的扬声器装置佩戴于耳边的用户自行进行用于享受该功能的优点的操作的情况相比,该信息处理装置能够更多地享受到该功能的优点。
根据本发明的第20方案,能够提供一种存储有如下程序的存储介质,与将具有改变声音的听感的功能的扬声器装置佩戴于耳边的用户自行进行用于享受该功能的优点的操作的情况相比,该程序能够更多地享受到该功能的优点。
根据本发明的第21方案,能够提供一种信息处理方法,与将具有改变声音的听感的功能的扬声器装置佩戴于耳边的用户自行进行用于享受该功能的优点的操作的情况相比,该信息处理方法能够更多地享受到该功能的优点。
附图说明
根据以下附图,对本发明的实施方式进行详细叙述。
图1是表示适用本实施方式的信息处理系统的整体结构的图;
图2是表示用户终端的硬件结构的图;
图3是表示AR眼镜的硬件结构的图;
图4是表示用户终端的控制部的功能结构的图;
图5是表示AR眼镜的控制部的功能结构的图;
图6是表示用户终端的处理中识别物体并进行耳机装置的功能控制为止的处理流程的流程图;
图7是表示进行耳机装置的功能控制时的处理流程的流程图;
图8是表示AR眼镜的处理流程的流程图;
图9是表示存储于用户终端的存储部的数据库的信息的具体例的图;
图10是表示与AR眼镜的传感器部以及搭载于摄像部的复数种传感器及相机各自的能力及适当性相关的评价结果的图。
符号说明
1-信息处理系统,10-用户终端,11-控制部,30-AR眼镜,31-控制部,90-网络,101-信息管理部,102-获取部,103-识别部,104-功能控制部,301-获取部,302-发送控制部。
具体实施方式
以下,参考附图对本发明的实施方式进行详细说明。
(信息处理系统的结构)
图1是表示适用本实施方式的信息处理系统1的整体结构的图。
信息处理系统1通过用户终端10、AR(扩增实境,Augmented Reality)眼镜30及耳机装置50通过网络90或红外线通信、可见光通信、近距离无线通信、蓝牙(注册商标)、RFID(注册商标)、UWB(超宽带,Ultra Wide Band)等通信方式连接而构成。网络90例如为LAN(局域网,Local Area Network)、互联网等。另外,用户终端10、AR眼镜30及耳机装置50之间已彼此完成所谓的配对处理,彼此登录为连接对象的候选。
用户终端10为用户U所使用的智能手机、平板终端、个人电脑等信息处理装置。用户终端10对成为识别对象的物体的信息和佩戴在用户U耳边的耳机装置50的功能控制的内容建立对应关联而进行管理。用户终端10根据表示佩戴耳机装置50的用户U的状况及用户U周围的状况中的至少一个的传感结果来识别物体。而且,用户终端10以与所识别的物体的信息建立有对应关联的耳机装置50的功能控制的内容进行耳机装置50的功能控制。
AR眼镜30是具有显示图像信息的显示器的眼镜型可佩戴式终端,佩戴于用户U的头部。AR眼镜30将图像信息显示于显示器,并且能够经由显示器视觉辨认存在于现实空间的物体。在AR眼镜30搭载有能够检测分别存在于前方、后方及侧面方向的物体的复数种传感器,向用户终端10实时发送这些传感器的传感结果。
耳机装置50是输出音乐等声音的扬声器装置,佩戴于用户U的双耳上。耳机装置50具有改变声音的听感的功能。例如,具有引入外部声音的功能、消除外部声音的功能、停止声音输出的功能、调节音量的功能及输出表示通过用户终端10识别到物体的意旨的消息的功能等。这些功能中,引入外部声音的功能是指降低输出声音的音量来引入用户U周围的声音的功能。
并且,消除外部声音的功能还被称为所谓的主动降噪功能,是能够降低周围的噪声,享受充满临场感的声音的功能。具体而言,是通过数字电路或模拟电路另外生成相对于外部声音相反相位的信号,并使信号叠加,由此主动衰减外部声音的功能。这些功能还能够通过对耳机装置50或用户终端10的输入操作来控制,但在本实施方式中,通过后述的用户终端10的功能结构自动控制。
另外,上述每个信息处理装置的功能为一例,只要作为信息处理系统1整体而具备上述功能即可。因此,可以在信息处理系统1内分担上述功能中的一部分或全部,也可以协同上述功能中的一部分或全部。例如,可以将AR眼镜30的功能的一部分或全部作为用户终端10或耳机装置50的功能。由此,促进作为信息处理系统1整体的处理,并且能够对处理进行相互补全。
(用户终端的硬件结构)
图2是表示用户终端10的硬件结构的图。
用户终端10具有控制部11、存储器12、存储部13、通信部14、操作部15、显示部16、传感器部17及摄像部18。这些各部通过数据总线、地址总线、PCI(外围设备组件互连,Peripheral Component Interconnect)总线等连接。
控制部11是通过OS(基本软件)或应用软件(application software)等各种软件的执行来控制自身装置的动作的处理器。控制部11例如由CPU(中央处理器,CentralProcessing Unit)构成。存储器12是存储各种软件或在其执行中使用的数据等的存储区域,演算时用作工作区。存储器12例如由RAM(随机存取存储器,Random Access Memory)等构成。
存储部13是存储对各种软件的输入数据和来自各种软件的输出数据等的存储区域,作为存储各种信息的数据库,存储有控制内容DB801。另外,对于存储于控制内容DB801的信息,在后面进行叙述。存储部13例如由用于存储程序或各种设定数据等的HDD(硬盘驱动器,Hard Disk Drive)或SSD(固态驱动器,Solid State Drive)、半导体存储器等构成。通信部14经由网络90进行数据的收发。通信部14经由网络90或通过红外线通信等通信方式进行数据的收发。通信部14在与AR眼镜30及耳机装置50之间进行数据的收发。
操作部15例如由键盘、鼠标、机械式按钮、开关构成,接受输入操作。操作部15中还包含与显示部16一体地构成触摸面板的触摸传感器。显示部16显示图像或文本信息等。显示部16例如由用于显示信息的液晶显示器或有机EL(电致发光,=Electro Luminescence)显示器构成。
传感器部17由环境光传感器、非接触式传感器、LiDAR(光雷达,Light DetectionAnd Ranging)等光传感器、加速度传感器等各种传感器构成。摄像部18由能够拍摄静止图像及动态图像的相机、红外线照相机等构成。而且,这些各部由数据总线、地址总线、PCI总线等连接。
(AR眼镜的硬件结构)
图3是表示AR眼镜30的硬件结构的图。
AR眼镜30具备与图2所示的用户终端10的硬件结构中除操作部15以外的结构相同的硬件结构。即,AR眼镜30具有由CPU等处理器构成的控制部31、由RAM等存储区域构成的存储器32及由HDD或SSD、半导体存储器等存储区域构成的存储部33。并且,具有经由网络90等在与用户终端10及耳机装置50之间进行数据收发的通信部34及由液晶显示器或有机EL显示器等构成的显示部35。并且,具有由LiDAR、毫米波雷达、加速度传感器等构成的传感器部36及由能够拍摄静止图像及动态图像的相机、红外线照相机等构成的摄像部37。而且,这些各部由数据总线、地址总线、PCI总线等连接。
上述结构中,传感器部36及摄像部37能够检测及拍摄分别存在于AR眼镜30的前方、后方及侧面方向的物体。构成传感器部36的LiDAR进行基于光的物体的检测和距离的测量,各个毫米波雷达利用电波测量物体的位置和速度。并且,构成摄像部37的相机能够根据摄像图像的数据的分析结果检测物体。
(用户终端的控制部的功能结构)
图4是表示用户终端10的控制部11的功能结构的图。
在用户终端10的控制部11中,信息管理部101、获取部102、识别部103及功能控制部104发挥作用。
信息管理部101作为管理单元,对成为识别对象的物体的信息和佩戴于用户U耳边的耳机装置50的功能控制的内容建立对应关联而存储于数据库并进行管理。具体而言,信息管理部101对有可能存在于佩戴耳机装置50的用户周围的物体的信息及作为物体的用户的信息和耳机装置50的功能控制的内容建立对应关联而存储于存储部13的控制内容DB801并进行管理。有可能存在于佩戴耳机装置50的用户U的周围的物体的信息中包含表示用户U与物体的位置关系的信息。并且,作为物体的用户U的信息中包含用户U的动作信息。另外,关于成为识别对象的物体的信息及佩戴于用户U耳边的耳机装置50的功能控制的内容的具体例,参考图9在后面进行叙述。
获取部102获取从用户U所佩戴的AR眼镜30发送来的传感结果和表示AR眼镜30的位置的信息。从AR眼镜30发送的传感结果中包含表示用户U的状况的传感结果及表示用户U的周围状况的传感结果。
作为从AR眼镜30发送的表示位置的信息,例如可举出AR眼镜30的GPS(全球定位系统,Global Positioning System)信息等。并且,获取部102获取表示自身装置的位置的信息。作为表示自身装置的位置的信息,例如可举出自身装置的GPS信息等。
识别部103根据至少包含通过获取部102获取的传感结果的信息来识别物体。通过获取部102获取的传感结果是搭载于AR眼镜30的复数种传感器各自的传感结果的集合。因此,识别部103在识别物体时,取舍选择所获取的传感结果集合,根据适于识别物体的传感结果的组合来识别物体。识别部103在取舍选择传感结果时,考虑搭载于AR眼镜30的复数种传感器及相机各自的识别物体的能力、应对环境的能力、测定距离的能力、识别空间的能力及测定速度的能力等。
识别部103还能够根据将所取舍选择的传感结果的组合和根据表示自身装置及AR眼镜30各自的位置的信息推断的耳机装置50的使用环境组合而成的信息来识别物体。如此,通过设为能够根据与用户终端10或AR眼镜30的位置相关的信息来识别物体,能够对仅基于传感结果的物体的识别结果进行补全。
识别部103根据至少包含所获取的传感结果的组合的信息,识别作为存在于用户U周围的物体的人存在于用户U的前方。而且,识别存在于用户U的前方的人正在对用户U说话。在此,关于如何识别存在于用户U的前方的人正在对用户U说话,并无特别限定。例如,可以根据基于拍摄存在于用户U的前方的人的脸部而得的图像数据的传感结果检测表情的变化和嘴部动作,识别正在对用户U说话。
并且,识别部103根据至少包含所获取的传感结果的组合的信息,识别作为存在于用户U周围的物体的其他信息处理装置或印刷物存在于用户U的前方。例如,可以设想用户U坐在椅子上开始个人电脑的操作或开始浏览书籍或资料的状况。
并且,识别部103根据至少包含所获取的传感结果的组合的信息,识别存在于用户U周围的物体存在于用户U的后方或侧面方向。例如,可以设想一些物体接近步行中的用户U的背后或两侧那样的状况。并且,识别部103识别作为物体的用户U的动作。作为用户U的动作,可举出回头的动作、仰视的动作、鞠躬的动作等。此时,可以对用户U的动作模式和传感结果的组合进行建模。由此,能够进行更高精度的用户动作的识别。
若通过识别部103识别到物体,则功能控制部104作为控制单元以存储于控制内容DB801的、与识别到的物体的信息建立有对应关联的功能控制的内容进行耳机装置50的功能控制。具体而言,作为功能控制的内容,功能控制部104以引入外部声音的控制、消除外部声音的控制、停止声音输出的控制、调节音量的控制及输出表示识别到物体的意旨的消息的控制中的一个以上的内容进行耳机装置50的功能控制。另外,从优先使用户U避免危险的角度来看,作为耳机装置50的功能控制,功能控制部104还能够进行使外部声音的引入、声音输出的停止及音量的降低优先于外部声音的消除的控制。
例如,若识别到作为存在于用户U周围的物体的人存在于用户U的前方,则作为耳机装置50的功能控制,功能控制部104进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。而且,若识别到作为存在于用户U周围的物体的人存在于用户U的前方且正在对用户U说话,则作为耳机装置50的功能控制,功能控制部104进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。
并且,例如若识别到作为存在于用户U周围的物体的其他信息处理装置或印刷物存在于用户U的前方,则作为耳机装置50的功能控制,功能控制部104进行消除外部声音的控制。并且,例如若识别到存在于用户U周围的物体存在于用户U的后方或侧面方向,则作为耳机装置50的功能控制,功能控制部104进行外部声音的引入及基于声音或文本的消息的输出中的至少一个控制。
并且,例如若识别到作为物体的用户U的动作,则作为耳机装置50的功能控制,功能控制部104进行外部声音的引入、外部声音的消除、声音输出的停止、音量的调节及表示识别到物体的意旨的消息的输出中的至少一个以上的控制。并且,例如若作为物体即用户U的动作识别到回头的动作、仰视的动作或点头或鞠躬的动作,则作为耳机装置50的功能控制,功能控制部104进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。
并且,功能控制部104根据与用户终端10及AR眼镜30各自的位置相关的信息,进行耳机装置50的各种功能控制。例如,用户位于如存在面向用户的广播的设施或场所(例如,车站的站台、医院等)时,功能控制部104进行引入外部声音的控制。并且,用户乘坐电车移动时,功能控制部104进行消除外部声音的控制。这些内容存储于上述数据库并控制功能,但用户U能够对该数据库进行修改、追加、删除等编辑。而且,用户U通过手动切换功能控制时,还能够将从获取部102获得的状况追加到该数据库中。
(AR眼镜的功能结构)
图5是表示AR眼镜30的控制部31的功能结构的图。
在AR眼镜30的控制部31中,获取部301和发送控制部302发挥作用。
获取部301获取基于自身装置的传感器部36及摄像部37的传感结果。发送控制部302进行朝向用户终端10发送通过获取部301获取的传感结果的控制。
(用户终端的处理)
图6是表示用户终端10的处理中识别物体并进行耳机装置50的功能控制为止的处理流程的流程图。
用户终端10对物体的信息和耳机装置50的功能控制的内容建立对应关联而进行管理(步骤S401中,是),若从AR眼镜30发送来传感结果(步骤S402中,是),则获取发送来的信息(步骤S403)。相对于此,未对物体的信息和耳机装置50的功能控制的内容建立对应关联而进行管理时(步骤S401中,否),反复进行步骤S401的处理,直至对物体的信息和耳机装置50的功能控制的内容建立对应关联而进行管理。并且,未从AR眼镜30发送来传感结果时(步骤S402中,否),用户终端10反复进行步骤S402的处理,直至从AR眼镜30发送来传感结果。
用户终端10根据在步骤S403中获取的传感结果识别物体(步骤S404中,是),所识别的物体的信息存在于数据库时(步骤S405中,是),以与所识别的物体的信息建立有对应关联的功能控制的内容进行耳机装置50的功能控制(步骤S406)。相对于此,根据在步骤S403中获取的传感结果未识别到物体时(步骤S404中,否)或所识别的物体的信息不存在于数据库时(步骤S405中,否),返回步骤S402的处理。
图7是表示进行耳机装置50的功能控制时的处理流程的流程图。
所识别的物体存在于用户U的前方(步骤S501中,是),且该物体的种类为人的脸部时(步骤S502中,是),作为耳机装置50的功能控制,用户终端10进行引入外部声音的控制、停止声音输出或降低输出音量的控制(步骤S505)。具体而言,作为引入外部声音的控制,进行将搭载于耳机装置50的引入外部声音的功能的开关从关闭切换为打开的控制,并且进行停止从耳机装置50输出的音乐等的播放或降低音量的控制。
并且,所识别的物体存在于用户U的前方(步骤S501中,是),且该物体的种类不是人的脸部(步骤S502中,否),而是信息处理装置或印刷物时(步骤S503中,是),作为耳机装置50的功能控制,用户终端10进行消除外部声音的控制(步骤S506)。具体而言,作为消除外部声音的控制,进行将所谓的主动降噪功能的开关从关闭切换为打开的控制。
相对于此,所识别的物体不是信息处理装置或印刷物(步骤S503中,否),但所识别的物体的信息存在于数据库时(步骤S504中,是),以与该物体的信息建立有对应关联的功能控制的内容进行耳机装置50的功能控制(步骤S507)。具体而言,若所识别的物体的信息存在于存储部13的控制内容DB801,则以与该物体的信息建立有对应关联的功能控制的内容进行耳机装置50的功能控制。相对于此,所识别的物体的信息不存在于数据库时(步骤S504中,否),结束处理。
并且,所识别的物体存在于用户U的后方或侧面方向而不是前方时(步骤S501中,否),无论该物体的种类如何,作为耳机装置50的功能控制,用户终端10进行引入外部声音的控制和输出表示识别到物体的意旨的消息的控制(步骤S508)。例如,作为输出表示识别到物体的意旨的消息的控制,进行基于警告音的通知等控制。
(AR眼镜的处理)
图8是表示AR眼镜30的处理流程的流程图。
AR眼镜30若获取到自身装置的传感器部36及摄像部37的传感结果(步骤S601中,是),则发送给用户终端10(步骤S602)。相对于此,未获取到传感结果时(步骤S601中,否),AR眼镜30反复进行步骤S601的处理,直至获取到自身装置的传感器部36及摄像部37的传感结果。
(具体例)
图9是表示存储于用户终端10的存储部13的数据库的信息的具体例的图。
如上所述,存储于用户终端10的存储部13的控制内容DB801中,建立对应关联而存储有有可能存在于佩戴耳机装置50的用户U的周围的物体的信息及作为物体的用户U的信息和耳机装置50的功能控制的内容,图9中示出其一例。图9所示的三个项目中,“物体”一栏中存储有所识别的物体的信息。并且,“传感器检测区域”一栏中存储有搭载于AR眼镜30的传感器部36及摄像部37能够传感及拍摄的区域。并且,“功能控制”一栏中存储有耳机装置50的功能控制的内容。
例如,根据针对用户U的前方的传感结果检测到作为“物体”的“人的脸部”的存在时,作为与此对应的耳机装置50的“功能控制”,进行“引入外部声音”、“停止输出”及“降低音量”的控制。并且,例如根据针对用户U的前方的传感结果检测到作为“物体”的“信息处理装置”或“印刷物”的存在时,作为与此对应的耳机装置50的“功能控制”,进行“消除外部声音”的控制。并且,例如根据针对用户U的后方或侧面方向的传感结果检测到作为“物体”的“物体接近(不论种类)”时,作为与此对应的耳机装置50的“功能控制”,进行“引入外部声音”及“输出消息”的控制。
图10是表示与AR眼镜30的传感器部36及搭载于摄像部37的复数种传感器及相机各自的能力及适当性相关的评价结果的图。
如上所述,用户终端10在取舍选择传感结果时,考虑搭载于AR眼镜30的复数种传感器及相机各自的识别物体的能力、应对环境的能力、测定距离的能力、识别空间的能力及测定速度的能力等。例如,考虑如图10的“项目”所示的能力。由此,能够实现根据物体识别或测定环境而具有优劣势的传感器或相机的相互补全,实现更高精度的物体的识别。
即,“物体识别力”是指识别物体的能力,具体而言,例如是指能够识别有可能存在于用户U身边的障碍物、道路上的白线、车辆、人等的能力。如图10所示,相机识别物体的能力较高。并且,“恶劣天气、夜间”是指应对环境的能力,具体而言,例如是指即使在恶劣天气或夜间时也能够保持识别能力的能力。如图10所示,毫米波雷达应对环境的能力较高。
并且,“距离测定”是指测定距离的能力,具体而言,例如是指测定与对象物之间的距离的能力。如图10所示,毫米波雷达及LiDAR测定距离的能力较高。并且,“空间识别力”是指识别空间的能力,具体而言,例如是指识别三维空间的能力。如图10所示,LiDAR识别空间的能力较高。
并且,“速度测定”是指测定速度的能力,具体而言,例如是指测定对象物的速度的能力。如图10所示,毫米波雷达及LiDAR测定速度的能力较高。并且,“成本”是指性价比,具体而言,例如是指开发成本、维护成本等。如图10所示,相机及毫米波雷达的性价比较高。
以上,对本实施方式进行了说明,但本发明并不限于上述本实施方式。并且,基于本发明的效果也不限定于上述本实施方式中所记载的效果。例如,图1所示的系统结构、图2及图3所示的硬件结构仅为用于实现本发明的目的的例示,并无特别限定。并且,图4及图5所示的功能结构也仅为例示,并无特别限定。只要图1的信息处理系统1具备能够作为整体来执行上述处理的功能即可,为了实现该功能而采用何种功能结构并不限定于图4及图5的例子。
并且,图6至图8所示的处理步骤的顺序也仅为例示,并无特别限定。不仅可以是沿着图示的步骤的顺序以时序列进行的处理,也可以不一定按时序列进行处理,还可以并行或者个别地进行。并且,图9及图10所示的具体例也仅为一例,并无特别限定。
并且,在上述实施方式中,设为由AR眼镜30进行传感的结构,但并不限定于此,例如可以由耳机装置50或用户终端10进行传感。
并且,在上述实施方式中,作为搭载有进行传感的传感器或相机的可佩戴式终端采用了AR眼镜30,但并不限定于此,也可以在用户U能够佩戴的任何可佩戴式终端搭载传感器或相机并使其进行传感。例如,可以使所谓的智能手表进行传感。
并且,例如可以在用户U佩戴在身上的物品上搭载传感器或相机并使其进行传感。例如,可以在用户U的帽子、衣服、挎包、背包、耳环、项链、戒指等用户U能够佩戴在身上的物品搭载传感器、相机及信息发送装置并使其进行传感。
上述本发明的实施方式是以例示及说明为目的而提供的。另外,本发明的实施方式并不全面详尽地包括本发明,并且并不将本发明限定于所公开的方式。很显然,对本发明所属的领域中的技术人员而言,各种变形及变更是自知之明的。本实施方式是为了最容易理解地说明本发明的原理及其应用而选择并说明的。由此,本技术领域中的其他技术人员能够通过对假定为各种实施方式的特定使用最优化的各种变形例来理解本发明。本发明的范围由以上的权利要求及其等同物来定义。
Claims (21)
1.一种信息处理装置,其特征在于,具备处理器,
所述处理器进行如下处理:
对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理;
若根据表示所述用户的状况及所述用户的周围的状况中的至少一个的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行所述扬声器装置的功能控制。
2.根据权利要求1所述的信息处理装置,其特征在于,
所述处理器进行如下处理:作为成为所述识别对象的物体的信息,对可能存在于所述用户周围的物体的信息及作为成为所述识别对象的物体的所述用户的信息和所述扬声器装置的功能控制的内容建立对应关联而进行管理。
3.根据权利要求2所述的信息处理装置,其特征在于,
所述处理器进行如下处理:作为可能存在于所述用户周围的物体的信息,对表示所述用户与所述物体的位置关系的信息和所述扬声器装置的功能控制的内容建立对应关联而进行管理。
4.根据权利要求3所述的信息处理装置,其特征在于,
所述处理器进行如下处理:若识别到存在于所述用户周围的物体,则作为与所述物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,以引入外部声音的控制、消除外部声音的控制、停止声音输出的控制、调节音量的控制及输出表示识别到所述物体的意旨的消息的控制中的一个以上的内容,进行所述扬声器装置的功能控制。
5.根据权利要求4所述的信息处理装置,其特征在于,
所述处理器进行如下处理:作为所述扬声器装置的功能控制,使外部声音的引入、声音输出的停止及音量的降低优先于外部声音的消除。
6.根据权利要求4所述的信息处理装置,其特征在于,
所述处理器进行如下处理:若识别到作为存在于所述用户周围的物体的人存在于所述用户的前方,则作为所述扬声器装置的功能控制,进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。
7.根据权利要求6所述的信息处理装置,其特征在于,
所述处理器进行如下处理:若识别到作为存在于所述用户周围的物体的人存在于所述用户的前方且正在对所述用户说话,则作为所述扬声器装置的功能控制,进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。
8.根据权利要求7所述的信息处理装置,其特征在于,
所述处理器进行如下处理:根据作为存在于所述用户周围的物体的人的嘴部动作,识别所述人正在对所述用户说话。
9.根据权利要求4所述的信息处理装置,其特征在于,
所述处理器进行如下处理:若识别到作为存在于所述用户周围的物体的其他信息处理装置或印刷物存在于所述用户的前方,则作为所述扬声器装置的功能控制,进行消除外部声音的控制。
10.根据权利要求4所述的信息处理装置,其特征在于,
所述处理器进行如下处理:若识别到存在于所述用户周围的物体存在于所述用户的后方或侧面方向,则作为所述扬声器装置的功能控制,进行外部声音的引入及基于声音或文本的所述消息的输出中的至少一个控制。
11.根据权利要求2所述的信息处理装置,其特征在于,
所述处理器进行如下处理:作为所述物体即所述用户的信息,对所述用户的动作信息和所述扬声器装置的功能控制的内容建立对应关联而进行管理。
12.根据权利要求11所述的信息处理装置,其特征在于,
所述处理器进行如下处理:若识别到所述用户的动作,则作为与所述用户的动作信息建立有对应关联的所述扬声器装置的功能控制的内容,以引入外部声音的控制、消除外部声音的控制、停止声音输出的控制、调节音量的控制及输出表示识别到的意旨的消息的控制中的一个以上的内容,进行所述扬声器装置的功能控制。
13.根据权利要求12所述的信息处理装置,其特征在于,
所述处理器进行如下处理:若作为所述用户的动作识别到回头的动作、仰视的动作或鞠躬的动作,则作为所述扬声器装置的功能控制,进行外部声音的引入、声音输出的停止及音量的降低中的一个以上的控制。
14.根据权利要求1所述的信息处理装置,其特征在于,
所述处理器进行如下处理:根据搭载于所述用户所佩戴的可佩戴式终端的复数种传感器各自的所述传感结果的组合,识别所述物体。
15.根据权利要求14所述的信息处理装置,其特征在于,
所述处理器进行如下处理:根据所述传感结果的组合及从表示自身装置或所述可佩戴式终端的位置的信息推断的所述用户使用所述扬声器装置的环境,识别所述物体。
16.根据权利要求14所述的信息处理装置,其特征在于,
所述处理器进行如下处理:根据通过所述复数种传感器各自的所述传感能力和根据所述用户使用所述扬声器装置的环境来确定的所述传感结果的组合,识别所述物体。
17.根据权利要求16所述的信息处理装置,其特征在于,
所述能力为识别物体的能力、应对环境的能力、测定距离的能力、识别空间的能力及测定速度的能力中的任一个。
18.根据权利要求14所述的信息处理装置,其特征在于,
所述处理器进行如下处理:根据搭载于佩戴在所述用户的头部的眼镜型的所述可佩戴式终端的所述复数种传感器各自的所述传感结果的组合,识别所述物体。
19.一种信息处理系统,其特征在于,具有:
管理单元,对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理;及
控制单元,若根据表示所述用户的状况及所述用户的周围的状况的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行所述扬声器装置的功能控制。
20.一种存储介质,其特征在于,存储有使计算机实现如下功能的程序:
对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理的功能;及
若根据表示所述用户的状况及所述用户的周围的状况的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行所述扬声器装置的功能控制的功能。
21.一种信息处理方法,其特征在于,包括如下步骤:
对成为识别对象的物体的信息和配置于用户耳边的扬声器装置的功能控制的内容建立对应关联而进行管理;及
若根据表示所述用户的状况及所述用户的周围的状况中的至少一个的传感结果识别到所述物体,则以与成为所述识别对象的物体的信息建立有对应关联的所述扬声器装置的功能控制的内容,进行所述扬声器装置的功能控制。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021154793A JP2023046090A (ja) | 2021-09-22 | 2021-09-22 | 情報処理装置、情報処理システム、およびプログラム |
JP2021-154793 | 2021-09-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115942171A true CN115942171A (zh) | 2023-04-07 |
Family
ID=85571691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210270850.8A Pending CN115942171A (zh) | 2021-09-22 | 2022-03-18 | 信息处理装置、信息处理系统、存储介质及信息处理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230091669A1 (zh) |
JP (1) | JP2023046090A (zh) |
CN (1) | CN115942171A (zh) |
-
2021
- 2021-09-22 JP JP2021154793A patent/JP2023046090A/ja active Pending
-
2022
- 2022-01-13 US US17/575,592 patent/US20230091669A1/en active Pending
- 2022-03-18 CN CN202210270850.8A patent/CN115942171A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2023046090A (ja) | 2023-04-03 |
US20230091669A1 (en) | 2023-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10795445B2 (en) | Methods, devices, and systems for determining contact on a user of a virtual reality and/or augmented reality device | |
AU2015206668B2 (en) | Smart necklace with stereo vision and onboard processing | |
CN108700982B (zh) | 信息处理设备、信息处理方法以及程序 | |
CN110506249B (zh) | 信息处理设备、信息处理方法和记录介质 | |
EP3067782B1 (en) | Information processing apparatus, control method, and program | |
US11806621B2 (en) | Gaming with earpiece 3D audio | |
CN111723602A (zh) | 驾驶员的行为识别方法、装置、设备及存储介质 | |
KR20170111450A (ko) | 보청장치, 휴대장치 및 그 제어방법 | |
CN108141491A (zh) | 移动终端控制装置及控制方法 | |
KR20140129936A (ko) | 헤드 마운트 디스플레이 및 이를 이용한 콘텐츠 제공 방법 | |
CN110349527B (zh) | 虚拟现实显示方法、装置及系统、存储介质 | |
CN107430560B (zh) | 信息处理设备、信息处理方法和计算机程序 | |
KR20180113115A (ko) | 전자장치 및 이의 동작방법 | |
CN111566597A (zh) | 信息处理设备、信息处理方法和程序 | |
US11037519B2 (en) | Display device having display based on detection value, program, and method of controlling device | |
KR101626307B1 (ko) | 휴대 단말기 및 그 동작 제어방법 | |
CN115942171A (zh) | 信息处理装置、信息处理系统、存储介质及信息处理方法 | |
CN114498827A (zh) | 清洁机器人的运行方法、装置、电子设备及介质 | |
CN115209032B (zh) | 基于清洁机器人的图像采集方法、装置、电子设备及介质 | |
CN109785226A (zh) | 一种图像处理方法、装置及终端设备 | |
CN109639906A (zh) | 一种预警方法及移动终端 | |
WO2024134736A1 (ja) | ヘッドマウントディスプレイ装置および立体音響の制御方法 | |
US11930420B1 (en) | Handheld electronic devices with contextual input-output capabilities | |
WO2024004398A1 (ja) | 情報処理装置、プログラム、及び情報処理システム | |
KR101871660B1 (ko) | 웨어러블 기반의 개인용 자동 기록장치의 운용방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |