WO2016152121A1 - 電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 - Google Patents

電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2016152121A1
WO2016152121A1 PCT/JP2016/001563 JP2016001563W WO2016152121A1 WO 2016152121 A1 WO2016152121 A1 WO 2016152121A1 JP 2016001563 W JP2016001563 W JP 2016001563W WO 2016152121 A1 WO2016152121 A1 WO 2016152121A1
Authority
WO
WIPO (PCT)
Prior art keywords
volume
user
age group
telephone
unit
Prior art date
Application number
PCT/JP2016/001563
Other languages
English (en)
French (fr)
Inventor
達朗 細川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2016152121A1 publication Critical patent/WO2016152121A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers

Definitions

  • the present invention relates to a telephone, a telephone system, a volume setting method for a telephone, and a non-transitory computer-readable medium storing a program, and more particularly, a telephone, a telephone system, a volume setting method for a telephone, The present invention relates to a non-transitory computer readable medium storing a program.
  • Patent Document 1 a facial feature that uniquely identifies a user is acquired by a camera, and volume adjustment or the like is performed depending on whether or not the acquisition target user is a registered user. It is disclosed.
  • Patent Document 2 discloses a mobile phone terminal that recognizes the state of the user from the image of the user's face captured by the camera and changes the volume according to the recognized state. Further, Patent Document 2 discloses that when a specific repeated expression is included in the received voice, the volume is changed to cope with difficulty in hearing due to background noise.
  • the present invention has been made to solve such a problem, and even when the user and the installation environment are unspecified, a telephone and a telephone system that can provide the user with the optimum sound volume.
  • Another object of the present invention is to provide a volume setting method for a telephone and a non-transitory computer-readable medium storing a program.
  • the telephone according to the present invention includes a learning result storage unit that stores learning result data regarding feature information of a face image for each predetermined age group, an image acquisition unit that acquires a face image of a user, and the image acquisition
  • the feature information of the face image acquired by the means is compared with the feature information stored in the learning result storage means, and the estimation means for estimating the age group of the user and the estimation sound volume are estimated by the estimation means.
  • Volume setting means for setting the volume corresponding to the set age and corresponding to the installation environment.
  • the telephone system includes a learning result storage unit that stores learning result data about feature information of face images for each predetermined age group, an image acquisition unit that acquires a user's face image, The feature information of the face image acquired by the image acquisition means is compared with the feature information stored in the learning result storage means, the estimation means for estimating the age group of the user, and the estimation of the sound volume to be used Sound volume setting means for setting the sound volume corresponding to the age group estimated by the means according to the installation environment of the telephone.
  • the volume setting method for a telephone acquires a user's face image, and uses the acquired face image feature information as learning result data about face image feature information for each predetermined age group.
  • the user's age group is estimated, and the sound volume to be used is set to a sound volume corresponding to the estimated age group and corresponding to the installation environment of the telephone.
  • the program according to the present invention includes an image acquisition step for acquiring a user's face image, and feature information of the acquired face image, learning result data about the feature information of the face image for each predetermined age group
  • the computer includes an estimation step for estimating the age group of the user, and a volume setting step for setting a volume corresponding to the estimated age group and a volume corresponding to the estimated age group for the volume to be used. Let it run.
  • a telephone there are stored a telephone, a telephone system, a telephone volume setting method, and a program capable of providing an optimal volume to the user even when the user and the installation environment are unspecified.
  • a non-transitory computer readable medium may be provided.
  • FIG. 1 is a perspective view illustrating an appearance of a telephone according to a first embodiment.
  • 1 is a diagram illustrating a hardware configuration of a telephone according to a first embodiment.
  • FIG. 3 is a functional block diagram of the telephone according to the first exemplary embodiment.
  • 4 is a flowchart showing an example of an operation related to volume setting in the telephone according to the first exemplary embodiment;
  • FIG. 6 is a functional block diagram of a telephone according to a third embodiment.
  • 10 is a flowchart illustrating an example of an operation related to volume setting in the telephone according to the third exemplary embodiment;
  • FIG. 6 is a functional block diagram of a telephone according to a fourth embodiment.
  • 10 is a flowchart illustrating an example of an operation related to volume setting in the telephone according to the fourth exemplary embodiment;
  • FIG. 1 is a diagram showing an outline of a telephone 1 according to an embodiment of the present invention.
  • the telephone 1 includes a learning result storage unit 2, an image acquisition unit 3, an estimation unit 4, and a volume setting unit 5.
  • the learning result storage unit 2 stores learning result data regarding the feature information of the face image for each predetermined age group.
  • the image acquisition unit 3 acquires a face image of the user of the telephone 1.
  • the estimation unit 4 compares the feature information of the face image acquired by the image acquisition unit 3 with the feature information stored in the learning result storage unit 2 to estimate the age group of the user of the telephone 1.
  • the volume setting unit 5 sets the volume used in the telephone 1 to a volume corresponding to the age group estimated by the estimation unit 4 and corresponding to the installation environment of the telephone 1.
  • a volume corresponding to the user's age group and a volume corresponding to the installation environment of the telephone 1 are set. For this reason, even when the user and the installation environment are unspecified, the optimum sound volume can be provided to the user.
  • FIG. 2 is a perspective view illustrating an appearance of the telephone 100 according to the first embodiment.
  • FIG. 3 is a diagram illustrating a hardware configuration of the telephone 100 according to the first embodiment.
  • the telephone 100 is a device for making a call with another telephone by an arbitrary communication method via a communication network (not shown).
  • the telephone 100 is a non-portable telephone and is installed and used at a specific location.
  • the telephone 100 is, for example, a desk phone or a public telephone.
  • the telephone 100 may be a telephone installed in another device or apparatus such as an ATM or an elevator. As described above, a plurality of unspecified users are assumed as users of the telephone 100.
  • the telephone 100 includes a camera 101, a microphone 102, an input unit 103, a display unit 104, a handset 105, a handset detector 106, and a speaker 107.
  • the telephone 100 has a function as a computer, and includes a control unit 108 such as a CPU (Central Processing Unit) and a storage unit 109 such as a memory or a hard disk (see FIG. 3).
  • a control unit 108 such as a CPU (Central Processing Unit)
  • a storage unit 109 such as a memory or a hard disk (see FIG. 3).
  • the camera 101 is a digital camera including a lens, a solid-state imaging device such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor).
  • the camera 101 is built in the telephone 100, but may be externally attached to the telephone 100.
  • the camera 101 is provided so that the body including the face of the user of the telephone 100 is an imaging range, for example.
  • the camera 101 is provided so that the position of the body including the face assumed when the user uses the telephone 100 is the imaging range.
  • the microphone 102 converts sound around the installation environment of the telephone 100 into an audio signal.
  • the input unit 103 is an input interface for a user to operate, for example, a button including a dial key, a volume setting button, and the like. Note that the input unit 103 does not necessarily include a button, and may include a touch panel.
  • the display unit 104 is a liquid crystal display, for example, and displays various information such as incoming call information and volume information.
  • the input unit 103 may have the function of the display unit 104.
  • the handset 105 includes a speaker that outputs a voice signal of the other party as a sound, and a microphone that converts a voice uttered by a user of the telephone 100 into a voice signal.
  • the handset detector 106 detects that the handset 105 has been lifted. That is, the handset detector 106 detects a transition from the on-hook state to the off-hook state. For example, the handset detection unit 106 has a switch that is pressed in an on-hook state, and the handset 105 is lifted when the switch is changed from a pressed state to a non-pressed state. Detect as a thing.
  • Speaker 107 outputs various sound signals such as ringtones and voice guidance as sounds. Note that the speaker 107 may output the other party's voice instead of the voice output from the handset 105 or together with the voice output from the handset 105.
  • FIG. 4 is a functional block diagram of the telephone 100 according to the first embodiment.
  • the telephone 100 includes a learning result storage unit 10, an age group volume storage unit 11, an image acquisition unit 12, an estimation unit 13, a volume measurement unit 14, and a volume setting unit 15.
  • the image acquisition unit 12, the estimation unit 13, the volume measurement unit 14, and the volume setting unit 15 can be realized by executing a program under the control of the control unit 108, for example. More specifically, the program stored in the storage unit 109 is executed by being controlled by the control unit 108. In addition, each component is not limited to being realized by software by a program, but may be realized by any combination of hardware, firmware, and software. Further, the learning result storage unit 10 and the age group volume storage unit 11 are realized by the storage unit 109, for example.
  • the learning result storage unit 10 stores learning result data regarding the feature information of the face image for each predetermined age group.
  • the predetermined age groups are, for example, teens, 20s, 30s, 40s, 50s, 60 units, 70s, 80s, 90s, and the like.
  • the age group may be set more finely or may be set more roughly.
  • the age ranges of the respective age groups may be different, such as 20 years old or less, 20 to 50 years old, 50 years old or more.
  • the age range of each age group may be one year old.
  • the feature information is information about any feature of the face, such as information about wrinkles on the face and information about relative positions of face components such as eyes, nose, and mouth.
  • the learning result data is data indicating feature information of face images for each predetermined age group learned by machine learning, for example.
  • the learning result storage unit 10 uses, for example, data indicating feature information obtained by machine learning using face image data of a plurality of persons whose age groups are known as teacher data. It is stored as learning result data about information.
  • the number of teacher data is determined according to the estimation accuracy required in the age estimation. For example, the higher the estimation accuracy, the more face image data is used in machine learning to obtain learning result data.
  • the age group volume storage unit 11 stores information indicating the correspondence between the age group and the volume.
  • the age group-specific volume storage unit 11 specifically stores information indicating the volume to be added to the volume of the installation environment of the telephone 100 (hereinafter referred to as an added volume) for each age group. To do.
  • the volume storage unit 11 for each age group associates the first added volume with the first age group, and the first age group is more than the first age group.
  • Information that associates a second added sound volume that is larger than the first added sound volume with an elderly second age group is stored.
  • Each age group in the age group-specific sound volume storage unit 11 corresponds to the age group of the learning result data stored in the learning result storage unit 10.
  • the image acquisition unit 12 acquires a user's face image captured by the camera 101.
  • the face image is an image including the face portion of the user.
  • the image acquisition unit 12 outputs the acquired face image to the estimation unit 13.
  • the image acquisition unit 12 extracts an image including a user's face portion from images output from the camera 101 using a known face recognition process, and cuts out an area including the user's face portion.
  • the obtained partial image is output to the estimation unit 13.
  • the estimation unit 13 estimates the age group of the user of the telephone 100 from the face image acquired by the image acquisition unit 12. Specifically, the estimation unit 13 compares the feature information of the face image acquired by the image acquisition unit 12 with the feature information stored in the learning result storage unit 10, and estimates the age group of the user. For example, the estimation unit 13 determines which of the feature information of the face image acquired by the image acquisition unit 12 is the closest among the feature information for each age group stored in the learning result storage unit 10. The age group associated with the determined feature information is estimated as the user's age group. The estimation unit 13 notifies the volume setting unit 15 of the estimated age group.
  • the volume measuring unit 14 measures the volume of the installation environment of the telephone 100. Specifically, the sound signal of the sound around the installation environment collected by the microphone 102 is received, and the sound pressure value of this sound signal is measured. The volume measuring unit 14 outputs the measured volume of the installation environment to the volume setting unit 15.
  • the volume setting unit 15 sets the volume used by the telephone 100 to a volume obtained by increasing the volume measured by the volume measuring unit 14 by a volume determined in advance according to the age group. Specifically, the volume setting unit 15 sets the reception volume of the handset 105 as follows. That is, the volume setting unit 15 adds the added volume corresponding to the age group estimated by the estimating unit 13 among the added volumes stored in the age-specific volume storage unit 11 to the volume measured by the volume measuring unit 14. Set the received volume as the listening volume.
  • the volume setting unit 15 may set not only the received volume but also the volume output from the speaker 107 in the same manner. Further, when the volume setting unit 15 sets the reception volume of the handset 105 and the volume output by the speaker 107, the reception volume of the handset 105 for the estimated age group and the volume of the speaker 107 for the estimated age group And may be different. In this case, for example, the age-specific volume storage unit 11 stores information indicating the added volume regarding the received volume of the handset 105 and information indicating the added volume regarding the volume of the speaker 107.
  • volume setting unit 15 may use an average volume or a maximum volume during a predetermined period as the volume of the installation environment used when setting the volume.
  • FIG. 5 is a flowchart showing an example of the operation relating to the volume setting in the telephone 100.
  • step 10 the control unit 108 determines whether or not the handset detector 106 has detected lifting of the handset 105. Step 10 is repeated until the handset detector 106 detects lifting of the handset 105. When the handset detector 106 detects lifting of the handset 105, the process proceeds to step 11.
  • step 11 (S11) the control unit 108 causes the camera 101 to start imaging.
  • the camera 101 starts imaging when the lifting of the handset 105 is detected by the handset detector 106. For this reason, power consumption can be suppressed.
  • step 12 the image acquisition unit 12 acquires a user's face image captured by the camera 101.
  • step 13 the estimation unit 13 estimates the age group of the user of the telephone 100 from the face image acquired by the image acquisition unit 12.
  • step 14 the volume setting unit 15 sets the volume corresponding to the age group estimated in step 13 based on the volume of the installation environment for the volume used by the telephone 100.
  • the volume corresponding to the estimated age group of the user is set based on the volume of the installation environment of the telephone 100. For this reason, even when the user and the installation environment are unspecified, the optimum sound volume can be provided to the user.
  • the volume set by the volume setting unit 15 according to the second embodiment has frequency characteristics corresponding to the age group. That is, in the present embodiment, the volume varies depending on the frequency band of the sound to be output. For example, as a person becomes older, it becomes difficult to hear sound in a high frequency band. For this reason, for example, when the age group estimated by the estimation unit 13 is a predetermined elderly age group, the volume setting unit 15 according to the second embodiment sets the volume of the predetermined high frequency band for the elderly. Increase the volume compared to the volume for non-aged users. As described above, the volume setting unit 15 according to the second embodiment does not always add a uniform addition volume regardless of the frequency band of the output sound, but adds an addition volume corresponding to the frequency band of the output sound. . In the present embodiment, the age group volume storage unit 11 stores information indicating the added volume for each predetermined frequency band for each age group.
  • the volume set by the volume setting unit 15 may have frequency characteristics according to the age group and sex.
  • the estimation unit 13 compares the feature information of the face image acquired by the image acquisition unit 12 with the feature information stored in the learning result storage unit 10, and estimates gender in addition to the user's age group.
  • the learning result storage unit 10 stores learning result data for the feature information of the face image for each predetermined age group and sex. That is, the learning result data includes, for example, learning results data for teenage men, learning result data for teenage women, learning result data for men in their twenties, learning result data for women in their twenties, etc. It becomes data of.
  • the learning result storage unit 10 stores, for example, data indicating feature information obtained by machine learning using facial image data of a plurality of persons whose sex and age groups are known as teacher data. It is stored as learning result data about the feature information of the face image. Moreover, the volume storage part 11 by age group memorize
  • the volume can be appropriately adjusted according to the frequency band so that the user can easily hear.
  • Embodiment 3 Next, Embodiment 3 will be described.
  • the volume output by the telephone is determined based on the measured volume of the installation environment.
  • the sound volume output from the telephone is optimized based on the sound volume change instruction from the user.
  • components that are substantially the same as those in the above embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • FIG. 6 is a functional block diagram of the telephone 300 according to the third embodiment.
  • the telephone 300 includes a learning result storage unit 10, an image acquisition unit 12, an estimation unit 13, an age group volume storage unit 20, a volume change unit 21, and a volume setting unit 22.
  • the hardware configuration of the telephone 300 is the same as the hardware configuration of the telephone 100 shown in FIG.
  • the volume changing unit 21 and the volume setting unit 22 can be realized, for example, by executing a program under the control of the control unit 108. More specifically, the program stored in the storage unit 109 is executed by being controlled by the control unit 108.
  • the volume changing unit 21 and the volume setting unit 22 are not limited to being realized by software by a program, but may be realized by any combination of hardware, firmware, and software.
  • the age-specific volume storage unit 20 is realized by the storage unit 109, for example.
  • the age group-specific volume storage unit 20 stores information indicating the output volume predetermined according to the age group as information indicating the correspondence between the age group and the volume. For example, the age-specific volume storage unit 20 associates the first output volume with the first age group, and with respect to the second age group that is older than the first age group, than the first output volume. Information corresponding to the large second output volume is stored. Each age group in the sound volume storage unit 20 by age group corresponds to the age group of the learning result data stored in the learning result storage unit 10.
  • the volume change unit 21 receives a volume change instruction input by operating the input unit 103 by the user.
  • the volume changing unit 21 changes the volume set by the volume setting unit 22 in accordance with the received change instruction.
  • the user wants to change the output volume set by the volume setting unit 22, the user operates the input unit 103 to change the volume. Specifically, the user performs an operation of designating the changed volume.
  • the volume changing unit 21 notifies the volume setting unit 22 of the changed volume.
  • the volume setting unit 22 sets the output volume of the telephone 300 to a volume corresponding to the age group estimated by the estimation unit 13 among the volume determined in advance according to the age group. Further, when the volume is changed by the volume changing unit 21, the volume setting unit 22 changes the volume set in advance according to the age group, which is used when setting the volume according to the change instruction. For example, when the volume change unit 21 changes the volume, the volume setting unit 22 updates the output volume for each age group stored in the age group volume storage unit 20 according to the change instruction. In the present embodiment, the sound volume is updated when a predetermined update condition is satisfied. That is, after the update condition is satisfied and the update is performed, the volume setting unit 22 sets the volume using the updated volume, not the volume originally stored in the age-specific volume storage unit 20. To do.
  • the change instruction is an instruction to change the volume to a volume higher than the volume set by the volume setting unit 15, it is assumed that the installation environment of the telephone 300 is noisy.
  • the change instruction is an instruction to change the volume to a volume lower than the volume set by the volume setting unit 15, it is assumed that the installation environment of the telephone 300 is quiet.
  • the volume is updated when a predetermined update condition is satisfied.
  • the volume setting unit 22 may use, as an output volume, a volume that has been changed to a volume that is higher than the original volume when a change instruction is given to increase the volume in all age groups.
  • the volume setting unit 22 may use the volume changed to a volume lower than the original volume as the output volume when an instruction to change the volume is made in all age groups.
  • FIG. 7 is a flowchart showing an example of the operation related to the volume setting in the telephone 300.
  • the present embodiment is different from the flowchart of FIG. 5 in that step 14 and subsequent steps in the flowchart of telephone 100 shown in FIG. 5 are replaced with steps 20-25.
  • the description of the overlapping steps will be omitted, and the operation after step 20 will be described.
  • step 20 the volume setting unit 22 sets the output volume of the telephone 300 to a volume corresponding to the age group estimated in step 13 out of the volume for each age group stored in the age group volume storage unit 20. Set.
  • the sound volume setting unit 22 performs sound volume setting based on the updated sound volume.
  • step 21 the volume changing unit 21 determines whether or not an instruction to change the volume from the user has been received.
  • the process proceeds to step 22. If the volume changing unit 21 has not received a change instruction, the process proceeds to step 25.
  • step 22 the volume changing unit 21 changes the output volume set in step 20 in accordance with the received change instruction. Thereafter, the process proceeds to step 23.
  • step 23 the volume setting unit 22 determines whether or not the above update condition for updating the volume for each age group stored in the volume storage unit 20 for each age group is satisfied, and the update condition If the condition is satisfied, the process proceeds to step 24. If the update condition is not satisfied, the volume setting process ends.
  • step 24 (S24) the volume setting unit 22 updates the volume for each age group stored by the age group volume storage unit 20. Thereby, from the next time onward, the volume setting unit 22 sets the volume based on the updated volume.
  • step 25 the control unit 108 determines whether or not the use of the telephone 300 has ended. For example, the control unit 108 determines whether or not a predetermined end condition is satisfied. The predetermined termination condition corresponds to detection of an on-hook state, for example. If the use of the telephone 300 has not ended, the process returns to step 21. If the use of the telephone 300 has ended, the volume setting process ends.
  • the volume output by the telephone is optimized based on the user's volume change instruction. For this reason, even when the user and the installation environment are unspecified, the optimum sound volume can be provided to the user. Also in this embodiment, the configuration described as the second embodiment may be adopted.
  • FIG. 8 is a functional block diagram of the telephone 400 according to the fourth embodiment.
  • the telephone 400 includes a learning result storage unit 10, an age group volume storage unit 11, an image acquisition unit 12, an estimation unit 13, a volume measurement unit 14, a volume setting unit 15, a volume change unit 21, and a use
  • a person-specific volume storage unit 30 and a user identification unit 31 are provided.
  • the hardware configuration of the telephone 400 is the same as the hardware configuration of the telephone 100 shown in FIG.
  • the user identification part 31 is realizable by making a program run by control of the control part 108, for example. More specifically, the program stored in the storage unit 109 is executed by being controlled by the control unit 108.
  • the user identification unit 31 is not limited to being realized by software by a program, but may be realized by any combination of hardware, firmware, and software.
  • the user-specific volume storage unit 30 is realized by the storage unit 109, for example.
  • the user-specific volume storage unit 30 stores the changed volume when the volume is changed by the volume change unit 21 in association with identification information for identifying the user who has made the change.
  • the identification information is a face image acquired by the image acquisition unit 12 for estimation of the age group. For this reason, when the volume changing unit 21 according to the present embodiment changes the volume in accordance with the received change instruction, information indicating the changed volume and the identification information are associated with each other and stored in the user-specific volume storage unit 30. .
  • the user identification unit 31 identifies a user based on the identification information.
  • the user identification unit 31 collates the face image acquired by the image acquisition unit 12 with the face image stored by the user-specific volume storage unit 30 in association with the volume, and the image acquisition unit 12 It is determined whether or not the face represented in the acquired face image matches the face represented in any of the face images stored in the user-specific volume storage unit 30.
  • the coincidence is not limited to the coincidence, but includes a case where the similarity is equal to or higher than a predetermined similarity.
  • the user identification unit 31 determines the degree of similarity between the feature information of the face image acquired by the image acquisition unit 12 and the feature information of the face image stored in the user-specific volume storage unit 30. Identifies whether the user corresponds to the face image stored in the user-specific volume storage unit 30. In this way, the user identifying unit 31 identifies whether or not the user is a user whose volume setting value is already stored in the user-specific volume storage unit 30.
  • the user identification unit 31 succeeds in identifying a user, that is, the face represented in the face image stored in the user-specific volume storage unit 30 is represented by the face image acquired by the image acquisition unit 12. If it matches, the volume setting unit 15 is notified of the identified user.
  • the user identification unit 31 uses a face image as identification information, but the user may be identified by other types of identification information.
  • identification information such as a character string or a numeric string for identifying the user may be used.
  • the user-specific volume storage unit 30 stores the volume after the change by the volume change unit 21 and identification information such as a character string or a numeric string in association with each other.
  • the identification information acquisition part which acquires identification information may be provided.
  • the identification information acquisition unit reads identification information stored in a storage medium such as an IC (integrated circuit) card or a magnetic card that is used when the user uses the telephone set 400.
  • the volume setting unit 15 identifies the volume used by the telephone 400 among the volumes stored by the user-specific volume storage unit 30. Set the volume corresponding to the selected user. That is, in this embodiment, the volume setting unit 15 sets the volume stored in the user-specific volume storage unit 30 when the user identification unit 31 succeeds in identifying the user, and the user identification unit 31 When the identification of the user fails, the added sound volume corresponding to the age group estimated by the estimating unit 13 among the added sound volumes stored in the age-specific sound volume storage unit 11 is compared with the sound volume measured by the sound volume measuring unit 14. Set to the added volume.
  • the estimation part 13 of this embodiment does not perform an estimation process, when the user identification part 31 succeeds in identification.
  • the estimation unit 13 of the present embodiment when the user identification fails, that is, any face stored in the user-specific volume storage unit 30 is the face represented by the face image acquired by the image acquisition unit 3
  • the age group of the user of the telephone 400 is estimated from the face image acquired by the image acquisition unit 12.
  • FIG. 9 is a flowchart illustrating an example of an operation related to volume setting in the telephone 400.
  • the present embodiment differs from the flowchart of FIG. 5 in that step 13 and subsequent steps in the flowchart of the telephone 100 shown in FIG. 5 are replaced with steps 30 to 37.
  • steps 30 to 37 the description of the overlapping steps will be omitted, and the operation after step 30 will be described.
  • step 30 the user identification unit 31 performs a user identification process on the face image acquired in step 12. If the user identification unit 31 succeeds in identifying the user, the process proceeds to step 31. If the user identification unit 31 fails to identify the user, the process proceeds to step 32.
  • step 31 the volume setting unit 15 sets the volume used by the telephone 400 to a volume corresponding to the identified user among the volumes stored in the user-specific volume storage unit 30. Thereafter, the process proceeds to step 34.
  • step 32 the estimation unit 13 estimates the age group of the user of the telephone 100 from the face image acquired by the image acquisition unit 12.
  • the volume setting unit 15 sets the volume corresponding to the age group for the volume used by the telephone 100 based on the volume of the installation environment. Thereafter, the process proceeds to step 34.
  • step 34 the volume changing unit 21 determines whether or not an instruction to change the volume from the user has been received.
  • the process proceeds to step 35. If the volume changing unit 21 has not received a change instruction, the process proceeds to step 37.
  • step 35 as in step 22, the volume changing unit 21 changes the output volume set in step 31 or step 33 in accordance with the received change instruction. Thereafter, the process proceeds to step 36.
  • step 36 the volume changing unit 21 stores information indicating the changed volume and the face image acquired in step 12 in the user-specific volume storage unit 30 in association with each other. Thereby, the volume designated by the user is set for the user after the next time.
  • step 37 the control unit 108 determines whether or not the use of the telephone 400 has ended. If the use of the telephone 400 has not ended, the process returns to step 34. If the use of the telephone 400 has ended, the volume setting process ends.
  • the configuration described as the second embodiment may be adopted.
  • the configuration is shown in which the volume output by the telephone is determined based on the measured volume of the installation environment.
  • the sound volume output from the telephone may be optimized based on the sound volume change instruction from the user.
  • the estimation process is performed using a face image.
  • the estimation process may be performed based on a body image including a face without being limited to the face image.
  • the learning result storage unit 10 stores learning result data regarding feature information of a body image including a face for each predetermined age group.
  • the image acquisition part 12 acquires the body image containing a user's face.
  • the estimation unit 13 estimates the age group of the user by comparing the feature information of the body image acquired by the image acquisition unit 12 with the feature information stored in the learning result storage unit 10.
  • sex estimation may be performed based on a body image including a face. In this way, by making the image used for estimation a body image, it is possible to use contours such as the posture and height of the user, clothes, and the like as feature information for estimation, so that the estimation accuracy can be improved. I can expect.
  • the imaging of the camera 101 is started when the handset 105 is lifted.
  • operations such as imaging of the camera 101 and detection of a face image from the image are performed by the handset 105. It may be done regardless of lifting.
  • the telephone is described as having the respective configurations shown in FIGS. 1, 4, 6, or 8.
  • a part of the configuration may be shared by another device such as a server that can communicate with the telephone. You may prepare. That is, a telephone system including a telephone may have each configuration shown in FIG.
  • Non-transitory computer readable media include various types of tangible storage media (tangible storage medium).
  • Examples of non-transitory computer-readable media include magnetic recording media (eg flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable ROM), flash ROM, RAM (random access memory)) are included.
  • the program may also be supplied to the computer by various types of temporary computer-readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 利用者及び設置環境が不特定である場合にも、利用者に最適な音量を提供することが可能な電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体を提供する。学習結果記憶部(2)は、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データを記憶する。画像取得部(3)は、利用者の顔画像を取得する。推定部(4)は、画像取得部(3)により取得された顔画像の特徴情報を、学習結果記憶部(2)が記憶する特徴情報と比較して、利用者の年齢層を推定する。音量設定部(5)は、使用する音量について、推定部(4)により推定された年齢層に対応する、設置環境に応じた音量に設定する。

Description

電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
 本発明は電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体に関し、特に自動的に音量が設定される電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体に関する。
 ATM(現金自動預け払い機:Automated Teller Machine)、エレベータ、家庭などに設置される電話や公衆電話などのように、不特定の複数の利用者に使用される電話がある。利用者ごと及び設置環境ごとに最適な音量は異なるため、このような電話において音量を一律に設定すると、利用者にとって聞きづらい音量となり利便性が損なわれる。
 これに対し、特許文献1では、カメラによりユーザを一意的に識別する顔の特徴を取得し、取得対象のユーザが登録されたユーザであるか否かに応じて、ボリューム調整などを行うことが開示されている。
 また、特許文献2では、カメラにより撮像されたユーザの顔の画像から、当該ユーザの状態を認識し、認識した状態に応じて音量を変更する携帯電話端末が開示されている。また、特許文献2では、さらに、特定の繰り返し表現が受話音声中に含まれる場合、音量を変更することにより、背景雑音による聞き取りづらさへの対応を行うことが開示されている。
特表2009-516473号公報 特開2014-64093号公報
 特許文献1に記載された技術では、個人を識別する必要があるため、予め想定された利用者以外の利用者による利用の場合は適切な音量の設定ができない。また、特許文献1に記載された技術では、通話環境によっては、音量が不適切となる恐れがある。特許文献2に記載された技術では、特定の繰り返し表現の有無により音量を変更しているため、例えば、通話環境が騒がしい場合であっても、通話が開始される前の音量の調整は困難であり、また、特定の繰り返し表現が会話中に使われない限り音量は調整されない。
 本発明は、このような課題を解決するためになされたものであり、利用者及び設置環境が不特定である場合にも、利用者に最適な音量を提供することが可能な電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体を提供することにある。
 本発明にかかる電話機は、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データを記憶する学習結果記憶手段と、利用者の顔画像を取得する画像取得手段と、前記画像取得手段により取得された顔画像の特徴情報を、前記学習結果記憶手段が記憶する特徴情報と比較して、前記利用者の年齢層を推定する推定手段と、使用する音量について、前記推定手段により推定された年齢層に対応する、設置環境に応じた音量に設定する音量設定手段とを有する。
 また、本発明にかかる電話システムは、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データを記憶する学習結果記憶手段と、利用者の顔画像を取得する画像取得手段と、前記画像取得手段により取得された顔画像の特徴情報を、前記学習結果記憶手段が記憶する特徴情報と比較して、前記利用者の年齢層を推定する推定手段と、使用する音量について、前記推定手段により推定された年齢層に対応する、電話機の設置環境に応じた音量に設定する音量設定手段とを有する。
 また、本発明にかかる電話機の音量設定方法は、利用者の顔画像を取得し、取得された顔画像の特徴情報を、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データと比較して、前記利用者の年齢層を推定し、使用する音量について、推定された年齢層に対応する、電話機の設置環境に応じた音量に設定する、方法である。
 また、本発明にかかるプログラムは、利用者の顔画像を取得する画像取得ステップと、取得された顔画像の特徴情報を、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データと比較して、前記利用者の年齢層を推定する推定ステップと、使用する音量について、推定された年齢層に対応する、電話機の設置環境に応じた音量に設定する音量設定ステップとをコンピュータに実行させる。
 本発明によれば、利用者及び設置環境が不特定である場合にも、利用者に最適な音量を提供することが可能な電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体を提供できる。
実施の形態にかかる電話機の概要を示す図である。 実施の形態1にかかる電話機の外観を示す斜視図である。 実施の形態1にかかる電話機のハードウェア構成を示す図である。 実施の形態1にかかる電話機の機能ブロック図である。 実施の形態1にかかる電話機における音量の設定に関する動作の一例を示すフローチャートである。 実施の形態3にかかる電話機の機能ブロック図である。 実施の形態3にかかる電話機における音量の設定に関する動作の一例を示すフローチャートである。 実施の形態4にかかる電話機の機能ブロック図である。 実施の形態4にかかる電話機における音量の設定に関する動作の一例を示すフローチャートである。
(本発明にかかる実施の形態の概要)
 実施の形態の説明に先立って、本発明にかかる実施の形態の概要を説明する。図1は、本発明の実施の形態にかかる電話機1の概要を示す図である。電話機1は、学習結果記憶部2と、画像取得部3と、推定部4と、音量設定部5とを有する。
 学習結果記憶部2は、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データを記憶する。画像取得部3は、電話機1の利用者の顔画像を取得する。推定部4は、画像取得部3により取得された顔画像の特徴情報を、学習結果記憶部2が記憶する特徴情報と比較して、電話機1の利用者の年齢層を推定する。音量設定部5は、電話機1で使用する音量について、推定部4により推定された年齢層に対応する、電話機1の設置環境に応じた音量に設定する。
 このような電話機1によれば、利用者の年齢層に応じた音量であって、かつ、電話機1の設置環境に応じた音量が設定される。このため、利用者及び設置環境が不特定である場合にも、利用者に最適な音量を提供することができる。
(実施の形態1)
 以下、図面を参照して本発明の実施の形態について説明する。
 図2は、実施の形態1にかかる電話機100の外観を示す斜視図である。また、図3は、実施の形態1にかかる電話機100のハードウェア構成を示す図である。電話機100は、図示しない通信回線網を介して、任意の通信方式により他の電話機との間で通話を行うための装置である。また、電話機100は、非可搬型の電話機であり、特定の場所に設置されて用いられる。電話機100は、例えば、卓上電話機、公衆電話機などである。また、電話機100は、ATM、エレベータなどの他の機器又は装置に設置された電話機であってもよい。このように、電話機100の利用者としては、不特定の複数の利用者が想定される。
 図2に示されるように、電話機100は、カメラ101と、マイク102と、入力部103と、表示部104と、送受話器105と、送受話器検知部106と、スピーカ107とを有している。また、電話機100は、コンピュータとしての機能を備えており、例えばCPU(Central Processing Unit)等の制御部108と、例えばメモリ又はハードディスク等の記憶部109とを有する(図3参照)。
 カメラ101は、レンズ、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)などの固体撮像素子を備えるデジタルカメラである。本実施の形態では、カメラ101は、電話機100に内蔵されているが、電話機100に外付けされていてもよい。カメラ101は、例えば電話機100の利用者の顔を含む身体を撮像範囲とするよう設けられている。具体的には、カメラ101は、利用者が電話機100を利用する際に想定される顔を含む身体の位置を撮像範囲とするよう設けられている。
 マイク102は、電話機100の設置環境の周囲の音を音声信号に変換する。
 入力部103は、利用者が操作するための入力インタフェースであり、例えば、ダイヤルキー、音量設定ボタンなどを含むボタンである。なお、入力部103は、必ずしもボタンにより構成されていなくてもよく、タッチパネルなどにより構成されてもよい。
 表示部104は、例えば液晶ディスプレイであり、着信情報や、音量情報などの各種情報を表示する。なお、例えば、入力部103がタッチパネルで構成されている場合、入力部103が表示部104の機能を兼ね備えてもよい。
 送受話器105は、通話相手の音声信号を音として出力するスピーカと、電話機100の利用者の発した音声を音声信号に変換するマイクを備えている。
 送受話器検知部106は、送受話器105が持ち上げられたことを検知する。すなわち、送受話器検知部106は、オンフック状態からオフフック状態への遷移を検知する。例えば、送受話器検知部106は、送受話器105がオンフック状態で押下されるスイッチを有し、スイッチが押下された状態から押下されていない状態へと変更した際に、送受話器105が持ち上げられたものとして検知する。
 スピーカ107は、着信音、音声ガイダンスなどの各種音声信号を音として出力する。なお、スピーカ107は、送受話器105における音声出力に代えて、又は送受話器105における音声出力とともに、通話相手の音声を出力してもよい。
 図4は、実施の形態1にかかる電話機100の機能ブロック図である。電話機100は、学習結果記憶部10と、年齢層別音量記憶部11と、画像取得部12と、推定部13と、音量計測部14と、音量設定部15とを有する。
 なお、画像取得部12、推定部13、音量計測部14、及び音量設定部15は、例えば、制御部108の制御によって、プログラムを実行させることによって実現できる。より具体的には、記憶部109に格納されたプログラムを、制御部108の制御によって実行して実現する。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、学習結果記憶部10及び年齢層別音量記憶部11は、例えば、記憶部109により実現される。
 学習結果記憶部10は、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データを記憶する。予め定められた年齢層は、例えば、10代、20代、30代、40代、50代、60台、70代、80代、90代などである。なお、年齢層は、さらに細かく設定されていてもよいし、より大まかに設定されていてもよい。また、20歳以下、20歳から50歳、50歳以上などのように、各年齢層の年齢幅が異なってもよい。また、各年齢層の年齢幅が、1歳であってもよい。特徴情報は、例えば、顔のしわについての情報や、目・鼻・口などの顔の構成要素の相対位置についての情報など、顔の任意の特徴についての情報である。
 学習結果データは、例えば、機械学習により学習された、予め定められた年齢層ごとの顔画像の特徴情報を示すデータである。学習結果記憶部10は、例えば、年齢層が既知である複数の人物についての顔画像データを教師データとして機械学習することにより得られた特徴情報を示すデータを、当該年齢層の顔画像の特徴情報についての学習結果データとして記憶している。なお、教師データの数は、年齢推定において必要とされる推定精度に応じて決定される。例えば、推定精度が高いほど、学習結果データを得るために機械学習の際に用いられる顔画像データは多くなる。
 年齢層別音量記憶部11は、年齢層と音量との対応関係について示す情報を記憶する。本実施の形態では、年齢層別音量記憶部11は、具体的には、年齢層ごとに、電話機100の設置環境の音量に加算すべき音量(以下、加算音量という。)を示す情報を記憶する。一般的に、年齢が高齢になるにしたがって聴力が失われることから、年齢層別音量記憶部11は、第1の年齢層に対し第1の加算音量を対応させ、第1の年齢層よりも高齢の第2の年齢層に対し第1の加算音量よりも大きい第2の加算音量を対応させた情報を記憶する。なお、年齢層別音量記憶部11における各年齢層は、学習結果記憶部10が記憶する学習結果データの年齢層に対応する。
 画像取得部12は、カメラ101により撮像された利用者の顔画像を取得する。顔画像は、利用者の顔部分を含む画像である。画像取得部12は、取得した顔画像を推定部13に出力する。なお、例えば、画像取得部12は、カメラ101から出力される画像のうち、利用者の顔部分を含む画像を公知の顔認識処理を用いて抽出し、利用者の顔部分を含む領域を切り出した部分画像を推定部13に出力する。
 推定部13は、画像取得部12により取得された顔画像から、電話機100の利用者の年齢層を推定する。具体的には、推定部13は、画像取得部12により取得された顔画像の特徴情報を、学習結果記憶部10が記憶する特徴情報と比較して、利用者の年齢層を推定する。例えば、推定部13は、画像取得部12により取得された顔画像の特徴情報が、学習結果記憶部10が記憶する年齢層ごとの特徴情報のうちいずれに最も近いかを判定し、最も近いと判定された特徴情報に対応付けられている年齢層を利用者の年齢層と推定する。
 推定部13は、推定した年齢層を音量設定部15に通知する。
 音量計測部14は、電話機100の設置環境の音量を計測する。具体的には、マイク102により集音された設置環境の周囲の音の音声信号を受信し、この音声信号の音圧値を計測する。音量計測部14は、計測した設置環境の音量を音量設定部15に出力する。
 音量設定部15は、電話機100で使用する音量について、音量計測部14により計測された音量に対し、年齢層に応じて予め定められた音量だけ増加させた音量に設定する。具体的には、音量設定部15は、送受話器105の受話音量を、次のように設定する。すなわち、音量設定部15は、年齢層別音量記憶部11に記憶された加算音量のうち推定部13により推定された年齢層に対応する加算音量を音量計測部14により計測された音量に対し加算した音量を受話音量として設定する。
 なお、音量設定部15は、受話音量に限らず、スピーカ107が出力する音量について、同様に設定してもよい。また、音量設定部15が、送受話器105の受話音量とスピーカ107が出力する音量について設定する場合、推定された年齢層に対する送受話器105の受話音量と、推定された年齢層に対するスピーカ107の音量とが異なってもよい。この場合、例えば、年齢層別音量記憶部11は、送受話器105の受話音量についての加算音量について示す情報と、スピーカ107の音量についての加算音量について示す情報をそれぞれ記憶する。
 また、音量設定部15は、音量設定の際に用いる設置環境の音量として、予め定められた期間の平均音量や最大音量を用いてもよい。
 次に、電話機100における音量の設定に関する動作について説明する。図5は、電話機100における音量の設定に関する動作の一例を示すフローチャートである。
 ステップ10(S10)において、制御部108は、送受話器検知部106が送受話器105の持ち上げを検知したか否かを判定する。送受話器検知部106が送受話器105の持ち上げを検知するまでステップ10が繰り返され、送受話器検知部106が送受話器105の持ち上げを検知すると、処理はステップ11へ移行する。
 ステップ11(S11)において、制御部108はカメラ101に撮像を開始させる。このように、本実施の形態では、カメラ101は、送受話器105の持ち上げが送受話器検知部106により検知されたことを契機に撮像を開始する。このため、消費電力を抑制することができる。
 次に、ステップ12(S12)において、画像取得部12が、カメラ101により撮像された利用者の顔画像を取得する。
 次に、ステップ13(S13)において、推定部13が、画像取得部12により取得された顔画像から、電話機100の利用者の年齢層を推定する。
 次に、ステップ14(S14)において、音量設定部15が、電話機100で使用する音量について、設置環境の音量に基づいて、ステップ13で推定された年齢層に応じた音量を設定する。
 以上、実施の形態1にかかる電話機100によれば、電話機100の設置環境の音量を基準として、推定された利用者の年齢層に応じた音量が設定される。このため、利用者及び設置環境が不特定である場合にも、利用者に最適な音量を提供することができる。
(実施の形態2)
 実施の形態2の音量設定部15により設定される音量は、年齢層に応じた周波数特性を有する。つまり、本実施の形態では、出力する音の周波数帯によって音量が異なる。例えば、人は、高齢になるにしたがって、高周波数帯の音の聞き取りが困難になる。このため、実施の形態2の音量設定部15は、例えば、推定部13により推定された年齢層が予め定められた高齢の年齢層である場合、予め定められた高周波数帯の音量を高齢ではない年齢層の利用者に対する音量と比べて大きくする。このように、実施の形態2の音量設定部15は、出力する音の周波数帯に関わらず常に一律の加算音量を加算するのではなく、出力する音の周波数帯に応じた加算音量を加算する。なお、本実施の形態では、年齢層別音量記憶部11は、年齢層ごとに、予め定められた周波数帯ごとの加算音量を示す情報を記憶する。
 また、男性と女性では、周波数に対する音の聞き取りやすさが異なる。このため、音量設定部15により設定される音量が、年齢層及び性別に応じた周波数特性を有してもよい。この場合、推定部13は、画像取得部12により取得された顔画像の特徴情報を、学習結果記憶部10が記憶する特徴情報と比較して、利用者の年齢層に加えて性別を推定する。また、この場合、実施の形態2の学習結果記憶部10は、予め定められた年齢層及び性別ごとの顔画像の特徴情報について学習結果データを記憶する。すなわち、学習結果データは、例えば、10代男性の学習結果データ、10代女性の学習結果データ、20代男性の学習結果データ、20代女性の学習結果データなどというように、年齢層及び性別ごとのデータとなっている。学習結果記憶部10は、例えば、性別及び年齢層が既知である複数の人物についての顔画像データを教師データとして機械学習することにより得られた特徴情報を示すデータを、当該性別及び年齢層の顔画像の特徴情報についての学習結果データとして記憶している。また、年齢層別音量記憶部11は、年齢層及び性別ごとに、予め定められた周波数帯ごとの加算音量を示す情報を記憶する。
 以上、実施の形態2にかかる電話機100によれば、実施の形態1にかかる電話機の上記効果に加え、利用者が聞き取りやすいように、周波数帯に応じて適切に音量を調整することができる。
(実施の形態3)
 次に、実施の形態3について説明する。上述の実施の形態では、計測された設置環境の音量に基づいて電話機が出力する音量が決定された。これに対し、本実施の形態では、利用者による音量の変更指示に基づいて、電話機が出力する音量が適正化される。なお、以下の説明において、上記実施の形態と実質的に同様の構成部分については同じ符号を付し、説明を省略する。
 図6は、実施の形態3にかかる電話機300の機能ブロック図である。電話機300は、学習結果記憶部10と、画像取得部12と、推定部13と、年齢層別音量記憶部20と、音量変更部21と、音量設定部22とを有する。なお、電話機300のハードウェア構成は、図3に示した電話機100のハードウェア構成と同様である。また、音量変更部21及び音量設定部22は、例えば、制御部108の制御によって、プログラムを実行させることによって実現できる。より具体的には、記憶部109に格納されたプログラムを、制御部108の制御によって実行して実現する。また、音量変更部21及び音量設定部22は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、年齢層別音量記憶部20は、例えば、記憶部109により実現される。
 年齢層別音量記憶部20は、年齢層と音量との対応関係について示す情報として、年齢層に応じて予め定められた出力音量を示す情報を記憶する。例えば、年齢層別音量記憶部20は、第1の年齢層に対し第1の出力音量を対応させ、第1の年齢層よりも高齢の第2の年齢層に対し第1の出力音量よりも大きい第2の出力音量を対応させた情報を記憶する。なお、年齢層別音量記憶部20における各年齢層は、学習結果記憶部10が記憶する学習結果データの年齢層に対応する。
 音量変更部21は、利用者により入力部103が操作されて入力された、音量の変更指示を受付ける。また、音量変更部21は、受け付けた変更指示に従って音量設定部22により設定された音量を変更する。利用者は、音量設定部22が設定した出力音量について変更したい場合、入力部103を操作して音量を変更するための操作を行う。具体的には、利用者は、変更後の音量を指定する操作を行う。音量変更部21は、変更後の音量を音量設定部22に通知する。
 音量設定部22は、電話機300の出力音量を、年齢層に応じて予め定められた音量のうち推定部13により推定された年齢層に対応する音量に設定する。また、音量設定部22は、音量変更部21による音量の変更があった場合、変更指示に応じて、音量設定の際に用いられる、年齢層に応じて予め定められた音量を変更する。例えば、音量設定部22は、音量変更部21による音量の変更があった場合、変更指示に応じて、年齢層別音量記憶部20が記憶する年齢層ごとの出力音量を更新する。なお、本実施の形態では、音量の更新は、予め定められた更新条件を満たした場合に行われる。すなわち、更新条件が満たされて更新が行われた後は、音量設定部22は、年齢層別音量記憶部20が当初記憶していた音量ではなく、更新後の音量を用いて音量設定を実施する。
 例えば、変更指示が、音量設定部15が設定した音量よりも大きな音量へと変更する指示である場合、電話機300の設置環境が騒々しいことが想定される。また、例えば、変更指示が、音量設定部15が設定した音量よりも小さな音量へと変更する指示である場合、電話機300の設置環境が静かであることが想定される。音量の更新は、予め定められた更新条件を満たした場合に行われる。例えば、音量設定部22は、全ての年齢層において音量を大きくする変更指示がなされた場合に、当初の音量よりも大きな音量へと変更された音量を出力音量としてもよい。また、例えば、音量設定部22は、全ての年齢層において音量を小さくする変更指示がなされた場合に、当初の音量よりも小さな音量へと変更された音量を出力音量としてもよい。
 次に、電話機300における音量の設定に関する動作について説明する。図7は、電話機300における音量の設定に関する動作の一例を示すフローチャートである。図7に示されるように、本実施の形態では、図5に示した電話機100におけるフローチャートのステップ14以降が、ステップ20~25に置き換えられている点で、図5のフローチャートと異なる。以下、重複するステップの説明は省略し、ステップ20以降の動作について説明する。
 図7に示されるフローチャートでは、ステップ13の後、処理は、ステップ20に移行する。
 ステップ20(S20)において、音量設定部22は、電話機300の出力音量を、年齢層別音量記憶部20が記憶する年齢層ごとの音量のうちステップ13で推定された年齢層に対応する音量に設定する。なお、年齢層別音量記憶部20が記憶する年齢層ごとの音量が更新されている場合には、音量設定部22は、更新後の音量に基づいて音量設定を行うこととなる。
 ステップ21(S21)において、音量変更部21は、利用者からの音量の変更指示を受付けたか否かを判定する。音量変更部21が変更指示を受付けた場合、処理はステップ22に移行する。音量変更部21が変更指示を受付けていない場合、処理はステップ25へ移行する。
 ステップ22(S22)において、音量変更部21は、受け付けた変更指示に従ってステップ20で設定された出力音量を変更する。その後、処理はステップ23に移行する。
 ステップ23(S23)において、音量設定部22は、年齢層別音量記憶部20が記憶する年齢層ごとの音量を更新する際の上述の更新条件が満たされているか否かを判定し、更新条件が満たされている場合には、処理はステップ24へ移行する。更新条件が満たされていない場合には、音量設定処理は終了する。
 ステップ24(S24)において、音量設定部22は、年齢層別音量記憶部20が記憶する年齢層ごとの音量を更新する。これにより、次回以降、音量設定部22は、更新後の音量に基づいて、音量を設定することとなる。
 一方、ステップ25(S25)では、制御部108は、電話機300の利用が終了したか否かを判定する。制御部108は、例えば、予め定められた終了条件が満たされたか否かを判定する。予め定められた終了条件は、例えば、オンフック状態であることの検知が該当する。電話機300の利用が終了していない場合、処理はステップ21へと戻り、電話機300の利用が終了した場合、音量の設定処理は終了する。
 以上、実施の形態3にかかる電話機300によれば、利用者による音量の変更指示に基づいて、電話機が出力する音量が適正化される。このため、利用者及び設置環境が不特定である場合にも、利用者に最適な音量を提供することができる。なお、本実施の形態においても、実施の形態2として述べた構成を採用してもよい。
(実施の形態4)
 次に、実施の形態4について説明する。本実施の形態では、利用者が音量設定部により設定された音量について変更指示により変更した場合、当該利用者の次回の利用の際に音量設定部がこの変更された音量を設定する点で、上述の実施の形態と異なる。なお、上述の実施の形態と実質的に同様の構成部分については同じ符号を付し、重複する説明を省略する。
 図8は、実施の形態4にかかる電話機400の機能ブロック図である。電話機400は、学習結果記憶部10と、年齢層別音量記憶部11と、画像取得部12と、推定部13と、音量計測部14と、音量設定部15と、音量変更部21と、利用者別音量記憶部30と、利用者識別部31とを有する。なお、電話機400のハードウェア構成は、図3に示した電話機100のハードウェア構成と同様である。また、利用者識別部31は、例えば、制御部108の制御によって、プログラムを実行させることによって実現できる。より具体的には、記憶部109に格納されたプログラムを、制御部108の制御によって実行して実現する。また、利用者識別部31は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、利用者別音量記憶部30は、例えば、記憶部109により実現される。
 利用者別音量記憶部30は、音量変更部21により音量が変更された場合の変更後の音量を、変更を行った利用者を識別するための識別情報と対応付けて記憶する。本実施の形態では、識別情報は、年齢層の推定のために画像取得部12に取得された顔画像である。このため、本実施の形態の音量変更部21は、受け付けた変更指示に従って音量を変更する場合、変更後の音量を示す情報と識別情報とを対応付けて利用者別音量記憶部30に記憶する。
 利用者識別部31は、識別情報に基づいて利用者を識別する。本実施の形態では、利用者識別部31は、画像取得部12が取得した顔画像と、利用者別音量記憶部30が音量と対応付けて記憶する顔画像とを照合し、画像取得部12が取得した顔画像に表される顔が利用者別音量記憶部30に記憶されたいずれかの顔画像に表される顔と一致しているか否かを判定する。ここで、一致は、完全に一致に限らず、予め定められた類似度合い以上に類似している場合を含む。例えば、利用者識別部31は、画像取得部12により取得された顔画像の特徴情報と利用者別音量記憶部30に記憶された顔画像の特徴情報の類似度合いを判定することにより、利用者が利用者別音量記憶部30に記憶された顔画像に対応する利用者であるか否かを識別する。このようにして、利用者識別部31は、利用者が、利用者別音量記憶部30に既に音量の設定値が記憶されている利用者であるか否かを識別する。
 利用者識別部31は、利用者の識別に成功した場合、すなわち画像取得部12が取得した顔画像に表される顔が利用者別音量記憶部30に記憶された顔画像に表される顔と一致した場合、識別された利用者を音量設定部15に通知する。
 なお、本実施の形態では、利用者識別部31は、識別情報として顔画像を用いているが、他の種類の識別情報により利用者を識別してもよい。例えば、利用者を識別するための文字列や数字列などの識別情報が用いられてもよい。この場合、利用者別音量記憶部30は、音量変更部21による変更後の音量と、文字列や数字列などの識別情報とを対応付けて記憶する。なお、識別情報として、顔画像以外のものを用いる場合、識別情報を取得する識別情報取得部が設けられてもよい。この識別情報取得部は、例えば、利用者が電話機400の利用時に用いる、IC(integrated circuit)カードや磁気カードなどの記憶媒体に記憶された識別情報を読み取る。
 また、本実施の形態の音量設定部15は、利用者識別部31により利用者が識別された場合、電話機400で使用する音量を、利用者別音量記憶部30が記憶する音量のうち識別された利用者に対応する音量に設定する。すなわち、本実施の形態では、音量設定部15は、利用者識別部31が利用者の識別に成功した場合、利用者別音量記憶部30が記憶する音量に設定し、利用者識別部31が利用者の識別に失敗した場合、年齢層別音量記憶部11に記憶された加算音量のうち推定部13により推定された年齢層に対応する加算音量を音量計測部14により計測された音量に対し加算した音量に設定する。
 なお、本実施形態の推定部13は、利用者識別部31が識別に成功した場合は推定処理を行わない。つまり、本実施形態の推定部13は、利用者の識別に失敗した場合、すなわち画像取得部3が取得した顔画像に表される顔が利用者別音量記憶部30に記憶されたいずれの顔画像に表される顔とも一致しない場合に、画像取得部12により取得された顔画像から電話機400の利用者の年齢層を推定する。
 次に、電話機400における音量の設定に関する動作について説明する。図9は、電話機400における音量の設定に関する動作の一例を示すフローチャートである。図9に示されるように、本実施の形態では、図5に示した電話機100におけるフローチャートのステップ13以降が、ステップ30~37に置き換えられている点で、図5のフローチャートと異なる。以下、重複するステップの説明は省略し、ステップ30以降の動作について説明する。
 図9に示されるフローチャートでは、ステップ12の後、処理は、ステップ30に移行する。
 ステップ30(S30)において、ステップ12で取得した顔画像に対し、利用者識別部31が利用者の識別処理を行う。利用者識別部31が利用者の識別に成功した場合、処理はステップ31へ移行する。利用者識別部31が利用者の識別に失敗した場合、処理はステップ32へ移行する。
 ステップ31(S31)において、音量設定部15は、電話機400で使用する音量を、利用者別音量記憶部30が記憶する音量のうち識別された利用者に対応する音量に設定する。その後、処理はステップ34へ移行する。
 これに対し、ステップ32(S32)では、ステップ13と同様、推定部13が、画像取得部12により取得された顔画像から、電話機100の利用者の年齢層を推定する。その後、ステップ33(S33)で、ステップ14(S14)と同様、音量設定部15が、電話機100で使用する音量について、設置環境の音量に基づいて、年齢層に応じた音量を設定する。その後、処理はステップ34へ移行する。
 ステップ34(S34)において、ステップ21と同様、音量変更部21は、利用者からの音量の変更指示を受付けたか否かを判定する。音量変更部21が変更指示を受付けた場合、処理はステップ35に移行する。音量変更部21が変更指示を受付けていない場合、処理はステップ37へ移行する。
 ステップ35(S35)において、ステップ22と同様、音量変更部21は、受け付けた変更指示に従ってステップ31又はステップ33で設定された出力音量を変更する。その後、処理はステップ36に移行する。
 ステップ36(S36)において、音量変更部21は、変更後の音量を示す情報とステップ12で取得した顔画像とを対応付けて利用者別音量記憶部30に記憶する。これにより、次回以降、当該利用者に対しては、利用者が指定した音量が設定されることとなる。
 一方、ステップ37(S37)では、ステップ25と同様、制御部108は、電話機400の利用が終了したか否かを判定する。電話機400の利用が終了していない場合、処理はステップ34へと戻り、電話機400の利用が終了した場合、音量の設定処理は終了する。
 以上、実施の形態4にかかる電話機300によれば、利用者による音量の変更指示があった場合には、指示による変更後の音量と当該利用者の識別情報とが対応付けて記憶される。そして、当該利用者の次回の利用の際には、前回利用時の所望の音量が自動的に設定される。このため、利用者ごとの利便性を向上することができる。なお、本実施の形態においても、実施の形態2として述べた構成を採用してもよい。また、本実施の形態では、計測された設置環境の音量に基づいて電話機が出力する音量が決定される構成を示したが。実施の形態3のように、利用者による音量の変更指示に基づいて、電話機が出力する音量が適正化される構成としてもよい。
 以上、本発明の実施の形態について説明したが、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の実施の形態では、顔画像により推定処理を行ったが、顔画像に限らず、顔を含む身体画像に基づいて推定処理を行ってもよい。この場合、例えば、学習結果記憶部10は、予め定められた年齢層ごとの顔を含む身体画像の特徴情報についての学習結果データを記憶する。また、画像取得部12は、利用者の顔を含む身体画像を取得する。また、推定部13は、画像取得部12により取得された身体画像の特徴情報を、学習結果記憶部10が記憶する特徴情報と比較して、利用者の年齢層を推定する。なお、顔を含む身体画像に基づいて、年齢層に加えて性別の推定が行われてもよい。このように、推定に利用する画像を身体画像とすることにより、利用者の姿勢や身長などの輪郭や、服装などを推定のための特徴情報として利用することができるため、推定精度の向上が期待できる。
 また、例えば、上述の実施の形態では、送受話器105の持ち上げを契機にカメラ101の撮像が開始されたが、カメラ101の撮像及び画像からの顔画像の検知などの動作が、送受話器105の持ち上げに関わらず行われてもよい。
 また、上述の実施の形態では、電話機が図1,4,6又は8に示される各構成を備えるものとして説明したが、構成の一部を、電話機と通信可能なサーバなどの他の装置が備えてもよい。すなわち、電話機を含む電話システムが、図1,4,6又は8に示される各構成を備えてもよい。
 また、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2015年3月23日に出願された日本出願特願2015-059224を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、100、300、400 電話機
2、10 学習結果記憶部
3、12 画像取得部
4、13 推定部
5、15、22 音量設定部
11、20 年齢層別音量記憶部
14 音量計測部
21 音量変更部
21 音量変更部
30 利用者別音量記憶部
31 利用者識別部
101 カメラ
102 マイク
103 入力部
104 表示部
105 送受話器
106 送受話器検知部
107 スピーカ
108 制御部
109 記憶部

Claims (11)

  1.  予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データを記憶する学習結果記憶手段と、
     利用者の顔画像を取得する画像取得手段と、
     前記画像取得手段により取得された顔画像の特徴情報を、前記学習結果記憶手段が記憶する特徴情報と比較して、前記利用者の年齢層を推定する推定手段と、
     使用する音量について、前記推定手段により推定された年齢層に対応する、設置環境に応じた音量に設定する音量設定手段と
     を有する電話機。
  2.  設置環境の音量を計測する音量計測手段をさらに有し、
     前記音量設定手段は、前記音量計測手段により計測された音量に対し、年齢層に応じて予め定められた音量だけ増加させた音量に設定する
     請求項1に記載の電話機。
  3.  前記音量設定手段により設定された音量の変更指示を受付け、受け付けた変更指示に従って前記音量設定手段により設定された音量を変更する音量変更手段をさらに有し、
     前記音量設定手段は、年齢層に応じて予め定められた音量のうち前記推定手段により推定された年齢層に対応する音量に設定し、前記音量変更手段による変更があった場合、前記変更指示に応じて、音量設定の際に用いられる、前記年齢層に応じて予め定められた音量を変更する
     請求項1に記載の電話機。
  4.  前記音量設定手段により設定される音量は、年齢層に応じた周波数特性を有する
     請求項1乃至3のいずれか1項に記載の電話機。
  5.  前記学習結果記憶手段は、予め定められた年齢層及び性別ごとの顔画像の特徴情報についての学習結果データを記憶し、
     前記推定手段は、前記画像取得手段により取得された顔画像の特徴情報を、前記学習結果記憶手段が記憶する特徴情報と比較して、前記利用者の年齢層及び性別を推定し、
     前記音量設定手段により設定される音量は、年齢層及び性別に応じた周波数特性を有する
     請求項4に記載の電話機。
  6.  前記学習結果記憶手段は、予め定められた年齢層ごとの顔を含む身体画像の特徴情報についての学習結果データを記憶し、
     前記画像取得手段は、利用者の顔を含む身体画像を取得し、
     前記推定手段は、前記画像取得手段により取得された身体画像の特徴情報を、前記学習結果記憶手段が記憶する特徴情報と比較して、前記利用者の年齢層を推定する
     請求項1乃至5のいずれか1項に記載の電話機。
  7.  カメラと、
     送受話器が持ち上げられたことを検知する送受話器検知手段と
     をさらに有し、
     前記カメラは、前記送受話器検知手段により前記送受話器の持ち上げが検知されたことを契機に撮像を開始し、
     前記画像取得手段は、前記カメラが撮像開始後、前記カメラから顔画像を取得する
     請求項1乃至6のいずれか1項に記載の電話機。
  8.  利用者からの音量の変更指示に従って前記音量設定手段により設定された音量が変更された場合の変更後の音量を、前記利用者を識別するための識別情報と対応付けて記憶する利用者別音量記憶手段と、
     前記識別情報に基づいて前記利用者を識別する利用者識別手段と、
     をさらに有し、
     前記音量設定手段は、前記利用者識別手段により利用者が識別された場合、識別された利用者についての前記利用者別音量記憶手段が記憶する音量に設定する
     請求項1乃至7のいずれか1項に記載の電話機。
  9.  予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データを記憶する学習結果記憶手段と、
     利用者の顔画像を取得する画像取得手段と、
     前記画像取得手段により取得された顔画像の特徴情報を、前記学習結果記憶手段が記憶する特徴情報と比較して、前記利用者の年齢層を推定する推定手段と、
     使用する音量について、前記推定手段により推定された年齢層に対応する、電話機の設置環境に応じた音量に設定する音量設定手段と
     を有する電話システム。
  10.  利用者の顔画像を取得し、
     取得された顔画像の特徴情報を、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データと比較して、前記利用者の年齢層を推定し、
     使用する音量について、推定された年齢層に対応する、電話機の設置環境に応じた音量に設定する
     電話機の音量設定方法。
  11.  利用者の顔画像を取得する画像取得ステップと、
     取得された顔画像の特徴情報を、予め定められた年齢層ごとの顔画像の特徴情報についての学習結果データと比較して、前記利用者の年齢層を推定する推定ステップと、
     使用する音量について、推定された年齢層に対応する、電話機の設置環境に応じた音量に設定する音量設定ステップと
     をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2016/001563 2015-03-23 2016-03-17 電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 WO2016152121A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-059224 2015-03-23
JP2015059224A JP6596865B2 (ja) 2015-03-23 2015-03-23 電話機、電話システム、電話機の音量設定方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2016152121A1 true WO2016152121A1 (ja) 2016-09-29

Family

ID=56979213

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/001563 WO2016152121A1 (ja) 2015-03-23 2016-03-17 電話機、電話システム、電話機の音量設定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体

Country Status (2)

Country Link
JP (1) JP6596865B2 (ja)
WO (1) WO2016152121A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020194488A1 (ja) * 2019-03-26 2020-10-01 株式会社資生堂 三次元顔形態の判別装置、方法、プログラム、およびシステム
CN111966224A (zh) 2020-08-27 2020-11-20 百度在线网络技术(北京)有限公司 护眼模式的提示方法、装置、电子设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04278796A (ja) * 1991-03-06 1992-10-05 Fujitsu Ltd 外部環境適応型音量調整方法
JPH07312639A (ja) * 1994-05-17 1995-11-28 Mitsubishi Electric Corp 送受話音量自動記憶調節式電話機
JPH11175724A (ja) * 1997-12-11 1999-07-02 Toshiba Tec Corp 人物属性識別装置
JP2005045717A (ja) * 2003-07-25 2005-02-17 Sharp Corp 通信端末装置および通信システム
JP2005275935A (ja) * 2004-03-25 2005-10-06 Omron Corp 端末装置
JP2006119920A (ja) * 2004-10-21 2006-05-11 Matsushita Electric Ind Co Ltd 情報端末装置
JP2007264945A (ja) * 2006-03-28 2007-10-11 Kyocera Corp 機能設定装置、電子機器、電子機器の機能設定システム及び電子機器の機能設定方法
JP2009171189A (ja) * 2008-01-16 2009-07-30 Pioneer Electronic Corp 音声補正装置及び音声補正機能を備えた通信端末装置
JP2009267877A (ja) * 2008-04-25 2009-11-12 Kyocera Corp 携帯電話機
US8131848B1 (en) * 2009-09-29 2012-03-06 Jason Adam Denise Image analysis and communication device control technology
WO2012093470A1 (ja) * 2011-01-04 2012-07-12 富士通株式会社 音声制御装置、音声制御方法及び音声制御プログラム
JP2014064093A (ja) * 2012-09-20 2014-04-10 Sony Corp 信号処理装置およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2009239409A (ja) * 2008-03-26 2009-10-15 Brother Ind Ltd 通信装置
KR102050897B1 (ko) * 2013-02-07 2019-12-02 삼성전자주식회사 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법
CN104008320A (zh) * 2014-05-19 2014-08-27 惠州Tcl移动通信有限公司 基于人脸识别的使用权限和用户模式控制方法及系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04278796A (ja) * 1991-03-06 1992-10-05 Fujitsu Ltd 外部環境適応型音量調整方法
JPH07312639A (ja) * 1994-05-17 1995-11-28 Mitsubishi Electric Corp 送受話音量自動記憶調節式電話機
JPH11175724A (ja) * 1997-12-11 1999-07-02 Toshiba Tec Corp 人物属性識別装置
JP2005045717A (ja) * 2003-07-25 2005-02-17 Sharp Corp 通信端末装置および通信システム
JP2005275935A (ja) * 2004-03-25 2005-10-06 Omron Corp 端末装置
JP2006119920A (ja) * 2004-10-21 2006-05-11 Matsushita Electric Ind Co Ltd 情報端末装置
JP2007264945A (ja) * 2006-03-28 2007-10-11 Kyocera Corp 機能設定装置、電子機器、電子機器の機能設定システム及び電子機器の機能設定方法
JP2009171189A (ja) * 2008-01-16 2009-07-30 Pioneer Electronic Corp 音声補正装置及び音声補正機能を備えた通信端末装置
JP2009267877A (ja) * 2008-04-25 2009-11-12 Kyocera Corp 携帯電話機
US8131848B1 (en) * 2009-09-29 2012-03-06 Jason Adam Denise Image analysis and communication device control technology
WO2012093470A1 (ja) * 2011-01-04 2012-07-12 富士通株式会社 音声制御装置、音声制御方法及び音声制御プログラム
JP2014064093A (ja) * 2012-09-20 2014-04-10 Sony Corp 信号処理装置およびプログラム

Also Published As

Publication number Publication date
JP6596865B2 (ja) 2019-10-30
JP2016178596A (ja) 2016-10-06

Similar Documents

Publication Publication Date Title
CN105282345B (zh) 通话音量的调节方法和装置
EP3264332B1 (en) Device and method for recognizing fingerprint
EP3091753A1 (en) Method and device of optimizing sound signal
CN105554389A (zh) 拍摄方法及装置
JP5185570B2 (ja) 個人識別通信システム及び個人識別通信システムにおいて実行されるプログラム
CN107135452B (zh) 助听器适配方法及装置
CN105933512B (zh) 一种安全通话方法、装置和移动终端
CN105355195A (zh) 音频识别方法及装置
CN105100193A (zh) 云名片推荐方法及装置
CN110033784A (zh) 一种音频质量的检测方法、装置、电子设备及存储介质
JP6596865B2 (ja) 電話機、電話システム、電話機の音量設定方法、及びプログラム
EP4050601A1 (en) Method and apparatus for audio processing, terminal and storage medium
CN104573642B (zh) 人脸识别方法及装置
CN113113044A (zh) 音频处理方法及装置、终端及存储介质
CN105323383B (zh) 手机铃声音量的调整方法和装置
CN106776874A (zh) 用户建群方法和装置
JP2007037088A (ja) ドアホン装置
CN107578382A (zh) 图像处理方法及装置
US8280432B2 (en) Mobile communication device and method for operating a mobile communication device
JP2007104382A (ja) インターホン装置
CN108492311A (zh) 通过电子设备进行动作校正的方法及装置
CN108134870A (zh) 语音信息发送方法及装置
CN107665340B (zh) 指纹识别方法、装置、电子设备
CN111753753A (zh) 图像识别方法及装置、电子设备和存储介质
JP7139839B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16768028

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16768028

Country of ref document: EP

Kind code of ref document: A1