JP2011205256A - Telephone set and method of correcting position thereof - Google Patents

Telephone set and method of correcting position thereof Download PDF

Info

Publication number
JP2011205256A
JP2011205256A JP2010068814A JP2010068814A JP2011205256A JP 2011205256 A JP2011205256 A JP 2011205256A JP 2010068814 A JP2010068814 A JP 2010068814A JP 2010068814 A JP2010068814 A JP 2010068814A JP 2011205256 A JP2011205256 A JP 2011205256A
Authority
JP
Japan
Prior art keywords
image
user
ear
speaker
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010068814A
Other languages
Japanese (ja)
Other versions
JP5156042B2 (en
Inventor
Eiji Yano
英司 矢野
Seiji Shiraishi
誠二 白石
Keiko Saito
恵子 斉藤
Yuki Matsunaga
祐樹 松永
Shoichi Yokozawa
尚一 横澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010068814A priority Critical patent/JP5156042B2/en
Publication of JP2011205256A publication Critical patent/JP2011205256A/en
Application granted granted Critical
Publication of JP5156042B2 publication Critical patent/JP5156042B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a telephone set that facilitates matching of a position of a speaker to the position of the user's ear.SOLUTION: In a mobile phone 1, an instruction control unit 16 instructs a user to correct the position of a receiver 2 for the ear based on a comparison result of an image during use which is the image of a user captured by a built-in camera 4 when the user is using the receiver 2 and a proper position image stored in an image database 18. Based on a comparison of the image during use and the proper position image in a deviation operating unit 15, it is possible to estimate how much the position of a speaker 6 is deviated from the position facing the ear of the user during use of the receiver 2. A position correction is instructed by the instruction control unit 16 based on the comparison results, so that an instruction can be made for the user to reduce a displacement of the speaker 6. Consequently, the position of the speaker 6 can be matched easily to the position of the user's ear.

Description

本発明は、電話機及び電話機の位置補正方法に関する。   The present invention relates to a telephone and a telephone position correction method.

従来、下記特許文献1に記載されるように、ユーザの口及び耳の位置に合わせて、マイク及びスピーカの位置を最適な位置に設定できる携帯電話装置が知られている。この携帯電話装置は、マイクが設けられた本体と、スピーカが設けられ、本体に対してヒンジ部を介して回動可能に連結された筺体とを備えている。そして、筺体を回動させることにより、本体と筺体とのなす角を任意に設定可能とし、マイク及びスピーカの位置をユーザの口及び耳の位置に合わせられるようにしている。   2. Description of the Related Art Conventionally, as described in Patent Document 1 below, a mobile phone device is known in which the positions of a microphone and a speaker can be set to optimum positions according to the positions of a user's mouth and ears. This mobile phone device includes a main body provided with a microphone, and a casing provided with a speaker and rotatably connected to the main body via a hinge portion. Then, by rotating the housing, the angle between the main body and the housing can be arbitrarily set, and the positions of the microphone and the speaker can be matched with the positions of the user's mouth and ear.

特開2006−5564号公報JP 2006-5564 A

上記の携帯電話装置では、ユーザが通話等を行う際、スピーカはユーザの視界から外れるため、ユーザは、視覚以外の感覚に頼ってスピーカの位置を耳の位置に合わすことになる。しかしながら、近年の電話機の小型化に伴い、スピーカも小さくなる傾向にある。例えば、近年の電話機におけるスピーカ穴の大きさは、数mm程度となっている。そのため、電話機のユーザにとって、スピーカの位置を耳の位置に合わせづらい場合があった。   In the mobile phone device described above, when the user makes a call or the like, the speaker is out of the user's field of view. Therefore, the user relies on a sense other than vision to adjust the position of the speaker to the position of the ear. However, with recent miniaturization of telephones, speakers tend to be smaller. For example, the size of a speaker hole in a recent telephone is about several mm. Therefore, it may be difficult for the telephone user to align the position of the speaker with the position of the ear.

そこで本発明は、スピーカの位置をユーザの耳の位置に容易に合わせることができる電話機及び電話機の位置補正方法を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a telephone and a telephone position correction method that can easily adjust the position of a speaker to the position of a user's ear.

上記目的を達成するために、本発明に係る電話機は、ユーザの耳に当てられる受話器と、受話器に搭載され、受話器の一方の側に向けて音声を出力するスピーカと、を備える電話機であって、受話器の一方の側に向けられたカメラと、スピーカが耳に対面する状態でのユーザの画像である適正位置画像に応じた適正位置情報を記憶する記憶部と、ユーザによる受話器の使用時にカメラで撮影されるユーザの画像である使用時画像に応じた使用時位置情報と、記憶部によって記憶された適正位置情報とを比較する比較手段と、比較手段による比較結果に基づいて、ユーザに対して耳に対する受話器の位置を補正させる旨の指示を行う指示手段と、を備えることを特徴とする。   In order to achieve the above object, a telephone set according to the present invention is a telephone set including a receiver that is applied to a user's ear, and a speaker that is mounted on the receiver and outputs sound toward one side of the receiver. A camera directed to one side of the handset, a storage unit for storing proper position information corresponding to a proper position image that is a user's image with a speaker facing the ear, and a camera when the user uses the handset Based on the comparison result by the comparison means, the comparison means for comparing the use position information corresponding to the use image that is taken by the user and the appropriate position information stored in the storage unit, to the user And instructing means for instructing to correct the position of the handset relative to the ear.

本発明に係る電話機によれば、記憶部によって、スピーカが耳に対面する状態でのユーザの画像である適正位置画像に応じた適正位置情報が記憶される。また、比較手段によって、ユーザによる受話器の使用時にカメラで撮影されるユーザの画像である使用時画像に応じた使用時位置情報と、記憶部によって記憶された適正位置情報とが比較される。そして、比較手段による比較結果に基づいて、指示手段によって、ユーザに対して耳に対する受話器の位置を補正させる旨の指示が行われる。ここで、比較手段における使用時位置情報と適正位置情報との比較により、受話器の使用時にスピーカの位置がユーザの耳に対面する位置からどの程度ずれているのかを推定することができる。指示手段による位置補正指示は、この比較結果に基づいて行われるため、ユーザに対してスピーカの位置のずれを小さくするような指示が可能となる。よって、ユーザは、指示に従うだけでスピーカの位置を耳の位置に合わすことができる。従って、スピーカの位置をユーザの耳の位置に容易に合わせることができる。   According to the telephone set of the present invention, the appropriate position information corresponding to the appropriate position image, which is the image of the user when the speaker faces the ear, is stored by the storage unit. In addition, the comparison unit compares the in-use position information corresponding to the in-use image, which is the user's image taken by the camera when the user uses the handset, with the appropriate position information stored in the storage unit. Then, based on the comparison result by the comparison unit, the instruction unit instructs the user to correct the position of the handset with respect to the ear. Here, it is possible to estimate how much the position of the speaker is deviated from the position facing the user's ear when the handset is used, by comparing the in-use position information with the appropriate position information. Since the position correction instruction by the instruction means is performed based on the comparison result, it is possible to instruct the user to reduce the displacement of the speaker position. Therefore, the user can adjust the position of the speaker to the position of the ear simply by following the instruction. Therefore, the position of the speaker can be easily adjusted to the position of the user's ear.

ここで、本発明に係る電話機において、比較手段は、適正位置画像に含まれるユーザの特徴部と、使用時画像に含まれる特徴部との位置の差分を演算し、指示手段は、比較手段によって演算された差分に基づいて、差分が小さくなるように指示を行うことが好ましい。   Here, in the telephone according to the present invention, the comparison means calculates a difference in position between the user feature included in the appropriate position image and the feature included in the in-use image, and the instruction means is determined by the comparison means. It is preferable to instruct the difference to be small based on the calculated difference.

この発明によれば、比較手段によって、適正位置画像に含まれるユーザの特徴部と、使用時画像に含まれる特徴部との位置の差分が演算される。更に、指示手段によって、この位置の差分が小さくなるように指示が行われる。よって、スピーカの位置をユーザの耳の位置に精度良く合わせることができる。   According to this invention, the difference between the positions of the user feature included in the proper position image and the feature included in the in-use image is calculated by the comparison unit. Further, an instruction is given by the instruction means so that the difference between the positions becomes small. Therefore, the position of the speaker can be accurately adjusted to the position of the user's ear.

また、本発明に係る電話機において、比較手段は、ユーザのアゴ、血管、ヒゲ、肌の色のうち少なくとも1つを特徴部として、差分の演算を行うことが好ましい。   In the telephone set according to the present invention, it is preferable that the comparison unit calculates the difference using at least one of the user's jaw, blood vessel, beard, and skin color as a feature.

ユーザのアゴ、血管、ヒゲ、肌の色は、ユーザ固有の形状を呈する部分であり、且つ、その形状の時間的変化は少ないと考えられる。よって、比較手段によって、これらのうち少なくとも1つを特徴部として差分の演算が行われるため、ユーザごとに精度の良い位置合わせを行うことができる。また、受話器が使用される時間帯に関わらず、いつでも精度の良い位置合わせを行うことができる。   The user's jaw, blood vessel, beard, and skin color are portions that have a shape unique to the user, and it is considered that there is little temporal change in the shape. Therefore, since the difference is calculated using at least one of these as a feature by the comparison means, it is possible to perform accurate alignment for each user. In addition, accurate positioning can be performed at any time regardless of the time zone in which the handset is used.

また、本発明に係る電話機において、指示手段は、受話器の位置を補正させる旨を示す位置補正メッセージをスピーカに出力させることにより、指示を行うことが好ましい。   Moreover, in the telephone set according to the present invention, it is preferable that the instruction means performs the instruction by causing the speaker to output a position correction message indicating that the position of the handset is to be corrected.

この発明によれば、ユーザは、指示手段によりスピーカから出力させられる位置補正メッセージに従って受話器の位置を補正することができるので、スピーカの位置をユーザの耳の位置に一層容易に合わせることができる。   According to the present invention, the user can correct the position of the handset according to the position correction message output from the speaker by the instruction means, so that the position of the speaker can be more easily adjusted to the position of the user's ear.

また、本発明に係る電話機において、ユーザの音声を入力するマイクとスピーカとにおける音声の入出力を検出する音声入出力検出手段を備え、指示手段は、音声入出力検出手段によって音声の非入出力状態が検出された場合に、スピーカに位置補正メッセージを出力させることが好ましい。   The telephone according to the present invention further includes voice input / output detection means for detecting voice input / output between a microphone and a speaker for inputting a user's voice, and the instruction means is a voice non-input / output by the voice input / output detection means. It is preferable to output a position correction message to the speaker when the state is detected.

この発明によれば、音声入出力検出手段によって音声の非入出力状態が検出された場合に位置補正メッセージが出力されるので、位置補正メッセージが通話の邪魔になることを防止しつつ、スピーカの位置をユーザの耳の位置に容易に合わせることができる。   According to the present invention, since the position correction message is output when the voice input / output detection means detects the non-input / output state of the voice, it is possible to prevent the position correction message from interfering with the telephone call. The position can be easily adjusted to the position of the user's ear.

また、本発明に係る電話機において、受話器を振動させる振動部を備え、指示手段は、受話器の位置を補正させる旨を示す振動パターンで振動部に受話器を振動させることにより、指示を行うことが好ましい。   Further, the telephone according to the present invention preferably includes a vibration unit that vibrates the handset, and the instruction unit preferably instructs the vibration unit to vibrate the handset with a vibration pattern indicating that the position of the handset is to be corrected. .

この発明によれば、受話器の位置を補正させる旨を示す振動パターンにより位置補正指示が行われるので、位置補正指示が通話の邪魔になることを防止できる。よって、通話のタイミングに関わらず位置補正指示を行うことができ、スピーカの位置をユーザの耳の位置に迅速に合わせることができる。   According to the present invention, since the position correction instruction is performed by the vibration pattern indicating that the position of the handset is to be corrected, it is possible to prevent the position correction instruction from interfering with the call. Therefore, a position correction instruction can be issued regardless of the call timing, and the position of the speaker can be quickly adjusted to the position of the user's ear.

また、本発明に係る電話機において、受話器の加速度を検出し、検出した加速度に基づいてユーザの耳は右耳であるか左耳であるかを検出する左右検出手段を備え、記憶部に記憶される適正位置情報は、スピーカが右耳に対面する状態でのユーザの画像である右側適正位置画像に応じた右側適正位置情報と、スピーカが左耳に対面する状態でのユーザの画像である左側適正位置画像に応じた左側適正位置情報と、を含み、比較手段は、ユーザによる受話器の使用時に左右検出手段によって検出された検出結果に応じた適正位置情報を用いて、使用時位置情報との比較を行うことが好ましい。   Further, the telephone according to the present invention includes left and right detection means for detecting the acceleration of the handset and detecting whether the user's ear is the right ear or the left ear based on the detected acceleration, and is stored in the storage unit. Right position information corresponding to the right right position image, which is the user's image in a state where the speaker faces the right ear, and left side, which is the user's image in a state where the speaker faces the left ear. Left side appropriate position information according to the appropriate position image, and the comparison means uses the appropriate position information according to the detection result detected by the left and right detection means when the user uses the handset, and It is preferable to make a comparison.

この発明によれば、ユーザによる受話器の使用時に左右検出手段によって検出された右耳であるか左耳であるかの検出結果に応じて、右側適正位置情報又は左側適正位置情報を用いた比較が行われる。よって、受話器がユーザのいずれの耳に当てられたとしても、スピーカの位置をユーザの耳の位置に精度良く合わせることができる。   According to this invention, the comparison using the right proper position information or the left proper position information is performed according to the detection result of the right ear or the left ear detected by the left / right detection means when the user uses the handset. Done. Therefore, even if the handset is applied to any ear of the user, the position of the speaker can be accurately adjusted to the position of the user's ear.

また、本発明に係る電話機において、適正位置画像は、スピーカが耳に対面する状態でカメラによって撮影されたユーザの画像であることが好ましい。   In the telephone according to the present invention, it is preferable that the appropriate position image is a user's image taken by the camera with the speaker facing the ear.

この発明によれば、適正位置画像は、使用時画像を撮影するのと同じカメラによって撮影される。そして、比較手段において、この適正位置画像に応じた適正位置情報と使用時画像に応じた使用時位置情報とが比較されるため、より正確な比較を行うことができる。よって、指示手段による位置補正指示の正確性の向上が図られる。   According to the present invention, the proper position image is captured by the same camera that captures the in-use image. Then, the comparing means compares the appropriate position information corresponding to the appropriate position image with the use position information corresponding to the use image, so that more accurate comparison can be performed. Therefore, the accuracy of the position correction instruction by the instruction unit can be improved.

ところで、本発明は、上記のように電話機の発明として記述できる他に、以下のように電話機の位置補正方法の発明としても記述することができる。これはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。   By the way, the present invention can be described as the invention of the telephone as described above, and can also be described as the invention of the method of correcting the position of the telephone as follows. This is substantially the same invention only in different categories, and has the same operations and effects.

すなわち、本発明に係る電話機の位置補正方法は、ユーザの耳に当てられる受話器と、受話器に搭載され、受話器の一方の側に向けて音声を出力するスピーカと、受話器の一方の側に向けられたカメラと、スピーカが耳に対面する状態でのユーザの画像である適正位置画像に応じた適正位置情報を記憶する記憶部と、を備える電話機の位置補正方法であって、ユーザによる受話器の使用時にカメラで撮影されるユーザの画像である使用時画像に応じた使用時位置情報と、記憶部によって記憶された適正位置情報とを比較する比較ステップと、比較ステップにおける比較結果に基づいて、ユーザに対して耳に対する受話器の位置を補正させる旨の指示を行う指示ステップと、を含むことを特徴とする。   That is, the method for correcting the position of a telephone according to the present invention is directed to a receiver that is applied to a user's ear, a speaker that is mounted on the receiver, and outputs sound toward one side of the receiver, and one side of the receiver. And a storage unit for storing appropriate position information corresponding to an appropriate position image that is an image of the user in a state where the speaker faces the ear, and the use of the receiver by the user The comparison step of comparing the in-use position information corresponding to the in-use image, which is an image of the user that is sometimes photographed by the camera, with the appropriate position information stored in the storage unit, and the comparison result in the comparison step, And an instruction step for instructing to correct the position of the receiver with respect to the ear.

本発明によれば、スピーカの位置をユーザの耳の位置に容易に合わせることができる。   According to the present invention, the position of the speaker can be easily adjusted to the position of the user's ear.

本発明の一実施形態に係る携帯電話機の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone which concerns on one Embodiment of this invention. 図1の携帯電話機がユーザによって使用される例の説明図である。It is explanatory drawing of the example in which the mobile telephone of FIG. 1 is used by the user. 図1の携帯電話機のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the mobile telephone of FIG. 適正位置登録の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of appropriate position registration. 画像データベースに記憶される適正位置画像の具体例を示す図である。It is a figure which shows the specific example of the appropriate position image memorize | stored in an image database. 画像データベースに記憶される特徴部適正位置データの具体例を示す図である。It is a figure which shows the specific example of the characteristic part appropriate position data memorize | stored in an image database. 位置合わせの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of position alignment. 図7の処理手順の一部を示すフローチャートである。It is a flowchart which shows a part of processing procedure of FIG. 図7の処理における画像処理及びずれ演算処理の説明図である。FIG. 8 is an explanatory diagram of image processing and shift calculation processing in the processing of FIG. 7. 図7の処理における位置補正指示が行われるタイミングの説明図である。It is explanatory drawing of the timing when the position correction instruction | indication in the process of FIG. 7 is performed. 振動による位置補正指示の例を示す図である。It is a figure which shows the example of the position correction instruction | indication by vibration.

以下、本発明の一実施形態に係る電話機及び電話機の位置補正方法について、図面を参照しながら説明する。以下の説明では、携帯電話機及び携帯電話機の位置補正方法を例として説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。   Hereinafter, a telephone and a telephone position correction method according to an embodiment of the present invention will be described with reference to the drawings. In the following description, a mobile phone and a position correction method for the mobile phone will be described as an example. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant descriptions are omitted.

図1は、本実施形態に係る携帯電話機の構成を示すブロック図、図2は、図1の携帯電話機がユーザによって使用される例の説明図である。図1及び図2に示すように、携帯電話機1は、いわゆる折りたたみ式の携帯電話機である。携帯電話機1は、ユーザに向けて音声を出力するスピーカ6が搭載された受話器2と、ユーザの音声を入力するマイク9と、スピーカ6の位置をユーザの耳Eの位置に合わせるために、ユーザに対して耳Eに対する受話器2の位置を補正させる旨の位置補正指示を行う制御部10と、を備えている。   FIG. 1 is a block diagram showing a configuration of a mobile phone according to the present embodiment, and FIG. 2 is an explanatory diagram of an example in which the mobile phone of FIG. 1 is used by a user. As shown in FIGS. 1 and 2, the mobile phone 1 is a so-called foldable mobile phone. The mobile phone 1 includes a receiver 2 equipped with a speaker 6 that outputs sound toward the user, a microphone 9 that inputs the user's voice, and a speaker 6 in order to match the position of the speaker 6 with the position of the user's ear E. And a control unit 10 that issues a position correction instruction to correct the position of the handset 2 with respect to the ear E.

図2に示すように、受話器2は、携帯電話機1の操作のためにユーザによって押される入力ボタン3が搭載された扁平型の第1筺体2aと、第1筺体2aに対して回動可能に連結され、スピーカ6が搭載された扁平型の第2筺体2bとを有している。受話器2は、ユーザが通話を行わない際には、第1筺体2aと第2筺体2bとが重ねられるようにして折りたたまれる。一方、受話器2は、ユーザが通話を行う際には、第2筺体2bが第1筺体2aに対して回動させられて展開され、図2に示す状態となる。ユーザが通話を行う際には、受話器2が展開されたこの状態で、第2筺体2bは、ユーザの耳Eに当てられる。   As shown in FIG. 2, the handset 2 is rotatable with respect to the first casing 2 a and a flat first casing 2 a on which an input button 3 to be pressed by the user for operating the mobile phone 1 is mounted. And a flat second housing 2b on which the speaker 6 is mounted. When the user does not make a call, the receiver 2 is folded so that the first casing 2a and the second casing 2b are overlapped. On the other hand, when the user makes a call, the handset 2 is unfolded by rotating the second housing 2b relative to the first housing 2a, and is in the state shown in FIG. When the user makes a call, the second housing 2b is applied to the user's ear E in this state where the handset 2 is deployed.

受話器2の第2筺体2bには、受話器2が展開された状態で、第2筺体2bのユーザに対面する側(一方の側;以下、「ユーザ側」ともいう。)に向けて画像を表示するディスプレイ20が設けられている。なお、図1では、ディスプレイ20の図示を省略している。   On the second housing 2b of the receiver 2, an image is displayed toward the side facing the user (one side; hereinafter also referred to as "user side") of the second housing 2b in a state where the receiver 2 is deployed. A display 20 is provided. In addition, illustration of the display 20 is abbreviate | omitted in FIG.

スピーカ6は、第2筺体2bのユーザ側の面であって、ディスプレイ20に対して第2筺体2bの先端側に搭載されている。スピーカ6は、ユーザが通話を行う際、第2筺体2bのユーザ側に向けて通話相手の音声を出力する。また、スピーカ6は、音声を出力すると同時に、音声の出力中であることを示す音声出力情報を制御部10に出力する。更に、スピーカ6は、制御部10により制御されてユーザに対する案内や指示のための各種メッセージを出力する。   The speaker 6 is a user-side surface of the second housing 2 b and is mounted on the distal end side of the second housing 2 b with respect to the display 20. The speaker 6 outputs the other party's voice toward the user side of the second housing 2b when the user makes a call. In addition, the speaker 6 outputs sound to the control unit 10 at the same time as outputting sound, indicating that sound is being output. Furthermore, the speaker 6 is controlled by the control unit 10 and outputs various messages for guidance and instructions to the user.

更に、第2筺体2bのユーザ側に向けられたインカメラ(カメラ)4が、第2筺体2bのユーザ側の面であって、ディスプレイ20に対して第2筺体2bの基端側に搭載されている。このインカメラ4としては、例えば従来知られているCMOS(Complementary Metal Oxide Semiconductor)カメラを用いることができる。インカメラ4は、ユーザによる入力ボタン3の操作に連動してユーザの顔(より具体的にはアゴの周辺)を側方から撮影する。   Further, an in-camera (camera) 4 directed to the user side of the second housing 2b is mounted on the user-side surface of the second housing 2b on the base end side of the second housing 2b with respect to the display 20. ing. As the in-camera 4, for example, a conventionally known CMOS (Complementary Metal Oxide Semiconductor) camera can be used. The in-camera 4 photographs the user's face (more specifically, the periphery of the jaw) from the side in conjunction with the operation of the input button 3 by the user.

特に本実施形態にあっては、インカメラ4は、スピーカ6からの音声案内に従いユーザが入力ボタン3を操作することにより、スピーカ6がユーザの耳Eの穴に対面する状態でのユーザの画像である適正位置画像を撮影する。更に、インカメラ4は、ユーザが通話を行う際に、制御部10により制御されてユーザの顔を側方から撮影する。制御部10により制御されて撮影されたユーザの顔の画像は、ユーザによる受話器2の使用時におけるユーザの画像である使用時画像に相当する。インカメラ4は、こうしてユーザの顔を撮影すると、適正位置画像及び使用時画像を生成する。インカメラ4は、生成した適正位置画像及び使用時画像を制御部10に出力する。   In particular, in the present embodiment, the in-camera 4 is an image of the user in a state where the speaker 6 faces the hole of the user's ear E when the user operates the input button 3 in accordance with voice guidance from the speaker 6. A proper position image is taken. Further, when the user makes a call, the in-camera 4 is controlled by the control unit 10 to photograph the user's face from the side. The image of the user's face captured by being controlled by the control unit 10 corresponds to an in-use image that is an image of the user when the handset 2 is used by the user. When the in-camera 4 captures the user's face in this way, the in-camera 4 generates an appropriate position image and an in-use image. The in-camera 4 outputs the generated proper position image and in-use image to the control unit 10.

また、受話器2の第1筺体2aには、受話器2の加速度を検出する加速度センサ5と、受話器2を振動させるバイブレータ(振動部)7とが内蔵されている。加速度センサ5は、例えば半導体式の3軸加速度センサであり、受話器2の傾きを検出可能とされている。加速度センサ5は、受話器2の傾きを検出すると、検出した傾きを示す傾き情報を制御部10に出力する。この傾き情報は、受話器2に当てられたユーザの耳Eは右耳であるか左耳であるかの検出のために、制御部10において用いられる。バイブレータ7は、例えば振動モータである。   The first housing 2 a of the receiver 2 includes an acceleration sensor 5 that detects the acceleration of the receiver 2 and a vibrator (vibration unit) 7 that vibrates the receiver 2. The acceleration sensor 5 is a semiconductor triaxial acceleration sensor, for example, and can detect the inclination of the receiver 2. When the acceleration sensor 5 detects the inclination of the handset 2, the acceleration sensor 5 outputs inclination information indicating the detected inclination to the control unit 10. This inclination information is used in the control unit 10 for detecting whether the user's ear E applied to the receiver 2 is the right ear or the left ear. The vibrator 7 is, for example, a vibration motor.

マイク9は、例えばエレクトレットコンデンサマイクである。マイク9は、ユーザの音声を入力すると同時に、音声の入力中であることを示す音声入力情報を制御部10に出力する。   The microphone 9 is, for example, an electret condenser microphone. The microphone 9 inputs voice of the user and simultaneously outputs voice input information indicating that voice is being input to the control unit 10.

更に、携帯電話機1は、前述した適正位置画像を記憶する画像データベース(記憶部)18を備えている。この適正位置画像は、スピーカ6がユーザの右耳に対面する状態でのユーザの画像である右側適正位置画像PRと、スピーカ6がユーザの左耳に対面する状態でのユーザの画像である左側適正位置画像PLと、各々1個ずつ含んでいる(図5参照)。また、画像データベース18には、右側適正位置画像PR及び左側適正位置画像PLに加え、右側適正位置画像PR及び左側適正位置画像PLの各々に応じた情報である右側特徴部適正位置データ及び左側特徴部適正位置データが記憶されている。これらの特徴部適正位置データは、適正位置画像PR,PLに含まれるユーザの特徴部の位置をxy座標として抽出したデータである(図6参照)。このユーザの特徴部としては、具体的には、アゴのライン(輪郭)、肌に透けて見える血管、ヒゲ、肌の色等が挙げられる。これら特徴部は、ユーザ固有の形状を呈する部分であり、且つ、その形状の時間的変化が少ないものである。こうして画像データベース18に記憶される適正位置画像PR,PL及び特徴部適正位置データは、適正位置情報に相当する。   Furthermore, the mobile phone 1 includes an image database (storage unit) 18 that stores the above-described appropriate position image. This right position image is a right right position image PR that is a user's image when the speaker 6 faces the user's right ear, and a left side that is the user's image when the speaker 6 faces the user's left ear. It includes one appropriate position image PL and one each (see FIG. 5). Further, in the image database 18, in addition to the right proper position image PR and the left proper position image PL, the right feature part proper position data and the left feature which are information corresponding to each of the right proper position image PR and the left proper position image PL. Part proper position data is stored. These characteristic part appropriate position data are data obtained by extracting the position of the user's characteristic part included in the appropriate position images PR and PL as xy coordinates (see FIG. 6). Specific examples of the user's features include jaw lines (contours), blood vessels visible through the skin, beards, and skin color. These feature portions are portions exhibiting a shape unique to the user, and have little temporal change in the shape. The proper position images PR and PL and the feature part proper position data stored in the image database 18 in this way correspond to proper position information.

更にまた、携帯電話機1は、ユーザに対する受話器2の位置補正指示を行うための位置補正メッセージ等を記憶するメッセージデータベース19を備えている。より詳しくは、この位置補正メッセージは、スピーカ6を通じて、受話器2の位置を補正させる旨をユーザに対して示すメッセージである。メッセージデータベース19には、この位置補正メッセージの他に、ユーザに対して適正位置画像を撮影するように案内するための適正位置登録案内メッセージや、適正位置画像を撮影するタイミングをユーザに計らせるためのイミテーション音が記憶されている。   Furthermore, the mobile phone 1 is provided with a message database 19 for storing a position correction message for instructing the position correction of the handset 2 to the user. More specifically, this position correction message is a message indicating to the user that the position of the handset 2 is to be corrected through the speaker 6. In the message database 19, in addition to the position correction message, a proper position registration guidance message for guiding the user to shoot a proper position image and a timing for taking a proper position image are shown to the user. The imitation sound is memorized.

制御部10は、スピーカ6から出力される音声出力情報、インカメラ4から出力される画像、加速度センサ5から出力される傾き情報、及びマイク9から出力される音声入力情報等を入力する。そして、制御部10は、入力したこれらの情報等と、画像データベース18に記憶された適正位置情報及びメッセージデータベース19に記憶された位置補正メッセージとを用いて所定の処理を実行することにより、ユーザに対する受話器2の位置補正指示を行う(この位置補正指示に関する一連の処理を総称して「位置合わせ」ともいう)。制御部10による位置合わせは、1回の通話当たり1回行うこととしてもよいし、1回の通話中において定期的(例えば1分毎)に繰り返し行うこととしてもよい。   The control unit 10 inputs audio output information output from the speaker 6, an image output from the in-camera 4, tilt information output from the acceleration sensor 5, audio input information output from the microphone 9, and the like. Then, the control unit 10 executes predetermined processing using the input information and the like, the appropriate position information stored in the image database 18 and the position correction message stored in the message database 19, thereby allowing the user to The position correction instruction of the handset 2 is given to (a series of processes related to the position correction instruction are collectively referred to as “positioning”). Positioning by the control unit 10 may be performed once per call, or may be repeated periodically (for example, every minute) during one call.

また、制御部10は、位置合わせに先立って、適正位置画像(右側適正位置画像PR及び左側適正位置画像PL)及びこれに応じた特徴部適正位置データを画像データベース18に記憶させる(この適正位置画像の記憶に関する一連の処理を総称して「適正位置登録」ともいう)。制御部10による適正位置登録は、ユーザが携帯電話機1を最初に利用する際にのみ1回行うこととしてもよいし、携帯電話機1の利用開始後、定期的(例えば1カ月に1回)に行うこととしてもよい。   Further, prior to the alignment, the control unit 10 stores the appropriate position image (the right appropriate position image PR and the left appropriate position image PL) and the feature portion appropriate position data corresponding thereto in the image database 18 (this appropriate position). A series of processes related to image storage are collectively referred to as “appropriate position registration”). The appropriate location registration by the control unit 10 may be performed only once when the user uses the mobile phone 1 for the first time, or periodically (for example, once a month) after the use of the mobile phone 1 is started. It may be done.

制御部10は、音声入出力検出部11と、画像取得部12と、左右検出部13と、画像処理部14と、ずれ演算部15と、指示制御部16とを有している。   The control unit 10 includes a voice input / output detection unit 11, an image acquisition unit 12, a left / right detection unit 13, an image processing unit 14, a deviation calculation unit 15, and an instruction control unit 16.

音声入出力検出部11は、位置合わせの際、マイク9とスピーカ6とにおける音声の入出力を検出する音声入出力検出手段である。具体的には、音声入出力検出部11は、マイク9から出力される音声入力情報及びスピーカ6から出力される音声出力情報を入力する。音声入出力検出部11は、入力した音声入力情報及び音声出力情報に基づいて、スピーカ6又はマイク9において音声が入出力されている状態である音声の入出力状態を検出する。また、音声入出力検出部11は、入力した音声入力情報及び音声出力情報に基づいて、スピーカ6及びマイク9において音声が入出力されていない状態である音声の非入出力状態を検出する。音声入出力検出部11は、音声の入出力状態又は非入出力状態を検出すると、入出力状態又は非入出力状態を検出した旨を示す音声状態情報を指示制御部16に出力する。また、音声入出力検出部11は、例えば入力ボタン3の一部である通話ボタンがユーザにより操作されたことを検出して、携帯電話機1による通話の開始を検出する。音声入出力検出部11は、通話の開始を検出すると、その旨を左右検出部13に通知すると共に、インカメラ4を制御してインカメラ4に使用時画像を撮影させる。これにより、音声入出力検出部11による通話の開始の検出は、制御部10における位置合わせ開始のトリガとなる。   The voice input / output detection unit 11 is voice input / output detection means for detecting voice input / output between the microphone 9 and the speaker 6 at the time of alignment. Specifically, the voice input / output detection unit 11 inputs voice input information output from the microphone 9 and voice output information output from the speaker 6. The voice input / output detection unit 11 detects a voice input / output state that is a state in which voice is being input / output from the speaker 6 or the microphone 9 based on the input voice input information and voice output information. The voice input / output detection unit 11 detects a voice non-input / output state in which no voice is input / output in the speaker 6 and the microphone 9 based on the input voice input information and voice output information. When the voice input / output detection unit 11 detects the voice input / output state or the non-input / output state, the voice input / output detection unit 11 outputs voice state information indicating that the input / output state or the non-input / output state is detected to the instruction control unit 16. In addition, the voice input / output detection unit 11 detects that a call button that is a part of the input button 3 is operated by the user, for example, and detects the start of a call by the mobile phone 1. When the voice input / output detection unit 11 detects the start of a call, the voice input / output detection unit 11 notifies the left / right detection unit 13 to that effect, and controls the in-camera 4 to cause the in-camera 4 to capture an in-use image. Thereby, detection of the start of a call by the voice input / output detection unit 11 serves as a trigger for starting alignment in the control unit 10.

画像取得部12は、インカメラ4から出力される画像を入力する。すなわち、画像取得部12は、適正位置登録の際、インカメラ4から出力される適正位置画像を入力する。また、画像取得部12は、適正位置画像の入力と共に、インカメラ4によって撮影される適正位置画像は右側適正位置画像PRであるか左側適正位置画像PLであるかを示す適正位置画像左右情報を指示制御部16から取得する。画像取得部12は、適正位置画像を入力すると、入力した適正位置画像に画像処理を施すことにより、適正位置画像に含まれるユーザの特徴部(例えばアゴのライン、血管、ヒゲ、肌の色等)を抽出し、抽出した特徴部の画像中における位置をxy座標として抽出する。画像取得部12は、特徴部の画像中における位置を示すxy座標を含む特徴部適正位置データを生成する。そして、画像取得部12は、適正位置画像に適正位置画像左右情報及び特徴部適正位置データを添付して画像データベース18に記憶させる。なお、画像取得部12における特徴部の抽出や位置の座標等への変換では、従来のパターン認識の技術を利用することができる。   The image acquisition unit 12 inputs an image output from the in-camera 4. That is, the image acquisition unit 12 inputs a proper position image output from the in-camera 4 at the time of proper position registration. In addition to the input of the proper position image, the image acquisition unit 12 receives right position right and left information indicating whether the right position image PR captured by the in-camera 4 is the right right position image PR or the left right position image PL. Obtained from the instruction control unit 16. When the appropriate position image is input, the image acquisition unit 12 performs image processing on the input appropriate position image, thereby including user features (for example, jaw lines, blood vessels, whiskers, skin color, etc.) included in the appropriate position image. ) And the position of the extracted feature in the image is extracted as xy coordinates. The image acquisition unit 12 generates feature portion appropriate position data including xy coordinates indicating the position of the feature portion in the image. Then, the image acquisition unit 12 attaches the appropriate position image right / left information and the characteristic portion appropriate position data to the appropriate position image and stores them in the image database 18. It should be noted that a conventional pattern recognition technique can be used for the extraction of the characteristic part and the conversion to the coordinates of the position in the image acquisition unit 12.

一方、画像取得部12は、位置合わせの際、インカメラ4から出力される使用時画像を入力する。画像取得部12は、使用時画像を入力すると、入力した使用時画像を左右検出部13に出力する。   On the other hand, the image acquisition unit 12 inputs an in-use image output from the in-camera 4 at the time of alignment. When the use image is input, the image acquisition unit 12 outputs the input use image to the left / right detection unit 13.

左右検出部13は、位置合わせの際、ユーザの耳Eは右耳であるか左耳であるかを受話器2の加速度に基づいて検出する。具体的には、左右検出部13は、音声入出力検出部11から通話の開始が検出された旨の通知を取得すると、加速度センサ5から出力される傾き情報を入力する。左右検出部13は、入力した傾き情報に示される傾きに基づいて、受話器2に当てられたユーザの耳Eは右耳であるか左耳であるかを検出する。すなわち、左右検出部13は、加速度センサ5と共に左右検出手段を構成している。なお、加速度センサ5及び左右検出部13による左右の検出は、従来の方法と同様である。   The left / right detection unit 13 detects whether the user's ear E is the right ear or the left ear based on the acceleration of the receiver 2 at the time of alignment. Specifically, when the left / right detection unit 13 obtains notification from the voice input / output detection unit 11 that the start of the call has been detected, the left / right detection unit 13 inputs the tilt information output from the acceleration sensor 5. The left / right detection unit 13 detects whether the user's ear E applied to the receiver 2 is the right ear or the left ear based on the inclination indicated by the input inclination information. That is, the left / right detection unit 13 constitutes a left / right detection unit together with the acceleration sensor 5. The left and right detection by the acceleration sensor 5 and the left and right detection unit 13 is the same as the conventional method.

更に、左右検出部13は、受話器2に当てられたユーザの耳Eは右耳であるか左耳であるかを検出すると、検出結果に応じた適正位置画像を画像データベース18から抽出する。より具体的には、左右検出部13は、受話器2に当てられたユーザの耳Eは右耳であることを検出した場合、画像データベース18に記憶された適正位置画像に添付される適正位置画像左右情報を参照することにより、画像データベース18から右側適正位置画像PRを抽出する。また、左右検出部13は、受話器2に当てられたユーザの耳Eは左耳であることを検出した場合、画像データベース18に記憶された適正位置画像に添付される適正位置画像左右情報を参照することにより、画像データベース18から左側適正位置画像PLを抽出する。   Further, when detecting whether the user's ear E applied to the receiver 2 is the right ear or the left ear, the left / right detection unit 13 extracts an appropriate position image corresponding to the detection result from the image database 18. More specifically, when the left / right detection unit 13 detects that the user's ear E applied to the receiver 2 is the right ear, the proper position image attached to the proper position image stored in the image database 18. The right appropriate position image PR is extracted from the image database 18 by referring to the left and right information. Further, when the left / right detection unit 13 detects that the user's ear E applied to the receiver 2 is the left ear, the right / left detection unit 13 refers to the right / left information of the proper position image attached to the proper position image stored in the image database 18. Thus, the left proper position image PL is extracted from the image database 18.

更にまた、左右検出部13は、画像取得部12から出力された使用時画像を取得する。左右検出部13は、画像取得部12から出力された使用時画像を取得すると、取得した使用時画像と、画像データベース18から抽出した適正位置画像とを画像処理部14に出力する。   Furthermore, the left / right detection unit 13 acquires the in-use image output from the image acquisition unit 12. When the left / right detection unit 13 acquires the in-use image output from the image acquisition unit 12, the left / right detection unit 13 outputs the acquired in-use image and the appropriate position image extracted from the image database 18 to the image processing unit 14.

画像処理部14は、位置合わせの際、左右検出部13から出力される使用時画像及び適正位置画像を取得する。画像処理部14は、取得した使用時画像に画像処理を施すことにより、使用時画像に含まれるユーザの特徴部(例えばアゴのライン、血管、ヒゲ、肌の色等)を抽出し、抽出した特徴部の画像中における位置をxy座標として抽出する。画像処理部14は、特徴部の画像中における位置を示すxy座標を含む特徴部使用時位置データを生成する。そして、画像処理部14は、使用時画像に特徴部使用時位置データを添付して、適正位置画像と共にずれ演算部15に出力する。ここで出力される使用時画像及び特徴部使用時位置データは、使用時位置情報に相当する。なお、画像処理部14における特徴部の抽出や位置の座標等への変換では、従来のパターン認識の技術を利用することができる。   The image processing unit 14 acquires an in-use image and an appropriate position image output from the left / right detection unit 13 during alignment. The image processing unit 14 performs image processing on the acquired in-use image to extract and extract a user feature (for example, jaw line, blood vessel, whiskers, skin color) included in the in-use image. The position of the feature portion in the image is extracted as xy coordinates. The image processing unit 14 generates feature portion use position data including xy coordinates indicating the position of the feature portion in the image. Then, the image processing unit 14 attaches the feature portion use position data to the use image, and outputs it to the shift calculation unit 15 together with the appropriate position image. The in-use image and feature portion use position data output here correspond to use position information. It should be noted that a conventional pattern recognition technique can be used for the extraction of the characteristic part and the conversion to the coordinates of the position in the image processing unit 14.

ずれ演算部15は、位置合わせの際、ずれ演算部15から出力された使用時位置情報と画像データベース18に記憶された適正位置情報とを比較する比較手段である。ずれ演算部15は、画像処理部14から出力される使用時画像及び適正位置画像を取得する。ずれ演算部15は、取得した使用時画像及び適正位置画像を重ね合わせる画像処理を行う。そして、ずれ演算部15は、適正位置画像に含まれる所定の特徴部と、使用時画像に含まれる所定の特徴部との位置の差分(以下、「ずれ」ともいう)を演算する。具体的には、ずれ演算部15は、使用時画像及び適正位置画像を重ね合わせた画像において、適正位置画像に含まれたユーザの所定の特徴部と、使用時画像に含まれた、その所定の特徴部に対応する特徴部とを検出する。ここで、対応する特徴部は、例えばその形状や位置に基づいて検出される。そして、適正位置画像に含まれた特徴部と、使用時画像に含まれた特徴部との対応する点の座標の差(x方向、y方向)を位置の差分として演算する。ずれ演算部15は、位置の差分を演算すると、その位置の差分を示す位置差分情報を生成する。   The shift calculation unit 15 is a comparison unit that compares the in-use position information output from the shift calculation unit 15 and the appropriate position information stored in the image database 18 during alignment. The deviation calculation unit 15 acquires an in-use image and an appropriate position image output from the image processing unit 14. The deviation calculation unit 15 performs image processing to superimpose the acquired in-use image and appropriate position image. Then, the deviation calculator 15 calculates a difference in position (hereinafter also referred to as “deviation”) between the predetermined feature included in the appropriate position image and the predetermined feature included in the in-use image. Specifically, in the image obtained by superimposing the in-use image and the appropriate position image, the deviation calculation unit 15 includes the predetermined feature of the user included in the appropriate position image and the predetermined image included in the in-use image. A feature corresponding to the feature is detected. Here, the corresponding feature is detected based on, for example, its shape and position. Then, a coordinate difference (x direction, y direction) of corresponding points between the feature part included in the appropriate position image and the feature part included in the in-use image is calculated as a position difference. When calculating the position difference, the shift calculation unit 15 generates position difference information indicating the position difference.

このように、適正位置画像と使用時画像との比較によりずれが演算される場合、適正位置画像が適正位置情報(右側適正位置情報又は左側適正位置情報)に相当し、使用時画像が使用時位置情報に相当する。   As described above, when the deviation is calculated by comparing the appropriate position image with the in-use image, the appropriate position image corresponds to the appropriate position information (right-side appropriate position information or left-side appropriate position information), and the in-use image is in use. It corresponds to position information.

なお、上記した画像処理部14及びずれ演算部15によるずれの演算では、まず適正位置画像と使用時画像とにおいて特徴部を抽出し、対応する特徴部同士の位置の差分を演算しているが、特徴部を抽出することなく、適正位置画像と使用時画像との画像のずれを検出することによりずれを演算してもよい。この場合、2つの画像のずれを検出する従来の画像処理技術を用いることができる。   In the above-described shift calculation by the image processing unit 14 and the shift calculation unit 15, first, a feature part is extracted from the appropriate position image and the in-use image, and a difference in position between corresponding feature parts is calculated. The shift may be calculated by detecting the shift between the proper position image and the in-use image without extracting the feature portion. In this case, a conventional image processing technique for detecting a shift between two images can be used.

また、ここで、ずれ演算部15は、使用時画像及び適正位置画像を直接用いずに、使用時画像及び適正位置画像の各々に添付された特徴部適正位置データと特徴部使用時位置データとを比較することにより、適正位置画像に含まれた特徴部と、使用時画像に含まれた特徴部との対応する点の座標の差(x方向、y方向)を演算してもよい。この場合、画像データベース18には、適正位置画像は記憶されずに、右側特徴部適正位置データ及び左側特徴部適正位置データのみが記憶されていてもよい。また、この場合、右側特徴部適正位置データ及び左側特徴部適正位置データが適正位置情報(右側適正位置情報及び左側適正位置情報)に相当し、特徴部使用時位置データが使用時位置情報に相当する。   Here, the shift calculation unit 15 does not directly use the in-use image and the appropriate position image, but includes the appropriate position data and the in-use position data attached to each of the in-use image and the appropriate position image. , The coordinate difference (x direction, y direction) of corresponding points between the feature part included in the proper position image and the feature part included in the in-use image may be calculated. In this case, the right position feature proper position data and the left feature position proper position data may be stored in the image database 18 without storing the proper position image. Also, in this case, the right-side feature part proper position data and the left-hand side part proper position data correspond to the proper position information (right-side proper position information and left-side proper position information), and the feature part use-time position data corresponds to the use-time position information. To do.

また、ずれ演算部15は、演算した位置の差分に基づいて、使用時画像が適正位置画像に一致しているか否かを判断する。具体的には、ずれ演算部15は、予め記憶した所定の差分閾値と位置の差分との比較により一致しているか否かの判断を行う。ずれ演算部15は、位置の差分が所定の差分閾値以上である場合、生成した位置差分情報を指示制御部16における位置補正指示のために指示制御部16に出力する。また、ずれ演算部15は、位置の差分が差分閾値未満である場合、指示制御部16における位置補正指示は不要である旨を示す指示不要情報を生成し、生成した指示不要情報を指示制御部16に出力する。   Further, the deviation calculation unit 15 determines whether or not the in-use image matches the appropriate position image based on the calculated position difference. Specifically, the deviation calculation unit 15 determines whether or not they match by comparing a predetermined difference threshold stored in advance with a position difference. The deviation calculation unit 15 outputs the generated position difference information to the instruction control unit 16 for a position correction instruction in the instruction control unit 16 when the position difference is greater than or equal to a predetermined difference threshold value. In addition, when the position difference is less than the difference threshold, the deviation calculation unit 15 generates instruction-unnecessary information indicating that the position correction instruction in the instruction control unit 16 is not necessary, and the generated instruction-unnecessary information is transmitted to the instruction control unit. 16 is output.

指示制御部16は、位置合わせの際、ずれ演算部15による比較結果に基づいて、ユーザに対して耳Eに対する受話器2の位置を補正させる旨の位置補正指示を行う指示手段である。具体的には、指示制御部16は、ずれ演算部15から出力される位置差分情報又は指示不要情報を取得する。指示制御部16は、ずれ演算部15から位置差分情報を取得すると、取得した位置差分情報に示される位置の差分に基づいて、その位置の差分が小さくなるようにユーザに対する位置補正指示を行う。より詳しくは、指示制御部16は、ずれ演算部15で演算される位置の差分と、この位置の差分を小さくするような位置補正方向及び位置補正距離との対応関係(例えば換算式等)を記憶している。指示制御部16は、この対応関係を用いることにより、取得した位置差分情報に示される位置の差分に応じて、その位置の差分を小さくするような位置補正方向及び位置補正距離(例えば「右(又は左)にamm、上(又は下)にbmm」等)を演算する。ここでの位置補正方向は、携帯電話機1(インカメラ4)が基準とされる。なお、指示制御部16は、位置補正距離は演算せずに位置補正方向のみを演算してもよい。   The instruction control unit 16 is an instruction unit that gives a position correction instruction to the user to correct the position of the handset 2 with respect to the ear E based on the comparison result by the deviation calculation unit 15 at the time of alignment. Specifically, the instruction control unit 16 acquires position difference information or instruction unnecessary information output from the deviation calculation unit 15. When the instruction control unit 16 acquires the position difference information from the deviation calculation unit 15, based on the position difference indicated in the acquired position difference information, the instruction control unit 16 issues a position correction instruction to the user so that the position difference becomes smaller. More specifically, the instruction control unit 16 indicates a correspondence relationship (for example, a conversion formula) between the position difference calculated by the deviation calculation unit 15 and the position correction direction and position correction distance so as to reduce the position difference. I remember it. By using this correspondence relationship, the instruction control unit 16 uses a position correction direction and a position correction distance (for example, “right (right)” to reduce the position difference according to the position difference indicated in the acquired position difference information. Or, the left) amm, the upper (or lower) bmm "and the like. The position correction direction here is based on the mobile phone 1 (in-camera 4). Note that the instruction control unit 16 may calculate only the position correction direction without calculating the position correction distance.

また、指示制御部16は、音声入出力検出部11から出力される音声状態情報を取得する。更に、指示制御部16は、取得した音声状態情報に音声の非入出力状態が一定時間連続して示される場合に、メッセージデータベース19から位置補正メッセージを取得する。指示制御部16は、位置補正メッセージを取得すると、取得した位置補正メッセージに、演算した位置補正方向及び位置補正距離を含める。そして、指示制御部16は、スピーカ6を制御してスピーカ6に位置補正方向及び位置補正距離を含む位置補正メッセージを出力させることにより、ユーザに対する位置補正指示を行う。なお、指示制御部16は、ずれ演算部15から指示不要情報を取得すると、位置合わせを終了する。なお、指示制御部16は、位置補正距離は演算せずに位置補正方向のみを演算した場合、位置補正方向のみを位置補正メッセージに含める。   In addition, the instruction control unit 16 acquires voice state information output from the voice input / output detection unit 11. Further, the instruction control unit 16 acquires a position correction message from the message database 19 when the acquired voice state information indicates a voice non-input / output state continuously for a predetermined time. When the instruction control unit 16 acquires the position correction message, the instruction control unit 16 includes the calculated position correction direction and position correction distance in the acquired position correction message. And the instruction | indication control part 16 performs the position correction instruction | indication with respect to a user by controlling the speaker 6 and making the speaker 6 output the position correction message containing a position correction direction and a position correction distance. Note that when the instruction control unit 16 acquires the instruction-unnecessary information from the deviation calculation unit 15, the instruction control unit 16 ends the alignment. When the instruction control unit 16 calculates only the position correction direction without calculating the position correction distance, the instruction control unit 16 includes only the position correction direction in the position correction message.

また、指示制御部16には、1回の通話中に位置合わせを繰り返し実行するか否かを示す繰り返し情報が記憶されている。この繰り返し情報は、例えば「1回の通話当たり1回行う」旨や、「1回の通話中において定期的(例えば1分毎)に繰り返し行う」旨を示す情報である。指示制御部16は、位置合わせの際、繰り返し情報に基づいて、受話器2の位置合わせを定期的に実行するか否かを判断する。   In addition, the instruction control unit 16 stores repetitive information indicating whether or not the alignment is repeatedly performed during one call. This repeated information is information indicating, for example, “perform once per call” or “repeat periodically (for example, every minute) during one call”. The instruction control unit 16 determines whether or not to periodically perform the positioning of the receiver 2 based on the repeated information during the positioning.

更に、指示制御部16には、適正位置登録を定期的に行う頻度を示す位置登録頻度情報が記憶されている。この位置登録頻度情報は、例えば「ユーザが携帯電話機1を最初に利用する際にのみ1回行う」旨や、「携帯電話機1の利用開始後、定期的(例えば1カ月に1回)に行う」旨を示す情報である。指示制御部16は、位置登録頻度情報に基づいて、適正位置登録を実行する。   Further, the instruction control unit 16 stores location registration frequency information indicating the frequency of performing proper location registration periodically. This location registration frequency information is, for example, “performed only when the user uses the mobile phone 1 for the first time” or “performed periodically (for example, once a month) after the use of the mobile phone 1 is started”. ". The instruction control unit 16 performs proper position registration based on the position registration frequency information.

また、指示制御部16は、適正位置登録の際、ユーザに対する適正位置画像の登録案内を行う。具体的には、指示制御部16は、メッセージデータベース19から適正位置登録案内メッセージを取得する。指示制御部16は、適正位置登録案内メッセージを取得すると、スピーカ6を制御してスピーカ6に適正位置登録案内メッセージを出力させる。この適正位置登録案内メッセージは、ユーザに対して右側適正位置画像PRを撮影するように案内する右側用メッセージと、ユーザに対して左側適正位置画像PLを撮影するように案内する左側用メッセージとが含まれる。また、指示制御部16は、スピーカ6に適正位置登録案内メッセージを出力させる。そして、指示制御部16は、スピーカ6に出力させた適正位置登録案内メッセージが右側用メッセージであるか左側用メッセージであるかに応じて、インカメラ4によって撮影される適正位置画像が右側適正位置画像PRであるか左側適正位置画像PLであるかを示す適正位置画像左右情報を生成する。指示制御部16は、生成した適正位置画像左右情報を画像取得部12に出力する。   In addition, the instruction control unit 16 guides the user to register the appropriate position image when registering the appropriate position. Specifically, the instruction control unit 16 acquires an appropriate location registration guidance message from the message database 19. When the instruction control unit 16 acquires the appropriate position registration guidance message, the instruction control unit 16 controls the speaker 6 to cause the speaker 6 to output the appropriate position registration guidance message. The proper position registration guidance message includes a right message for guiding the user to shoot the right proper position image PR and a left message for guiding the user to shoot the left proper position image PL. included. In addition, the instruction control unit 16 causes the speaker 6 to output an appropriate position registration guidance message. Then, the instruction control unit 16 determines that the proper position image captured by the in-camera 4 is the right proper position depending on whether the proper position registration guidance message output to the speaker 6 is a right message or a left message. Proper position image right / left information indicating whether the image is the image PR or the left proper position image PL is generated. The instruction control unit 16 outputs the generated appropriate position image left-right information to the image acquisition unit 12.

更に、指示制御部16は、適正位置登録の際、ユーザに対して適正位置画像を撮影するタイミングを計らせる。具体的には、指示制御部16は、メッセージデータベース19から、適正位置画像を撮影するタイミングをユーザに計らせるためのイミテーション音を取得する。指示制御部16は、イミテーション音を取得すると、スピーカ6を制御してスピーカ6にイミテーション音を出力させる。   Further, the instruction control unit 16 causes the user to measure the timing for capturing the appropriate position image when registering the appropriate position. Specifically, the instruction control unit 16 acquires from the message database 19 an imitation sound for allowing the user to measure the timing for capturing an appropriate position image. When obtaining the imitation sound, the instruction control unit 16 controls the speaker 6 to cause the speaker 6 to output the imitation sound.

図3は、携帯電話機1のハードウェア構成を示す図である。図3に示すように、携帯電話機1は、CPU(Central Processing Unit)101、主記憶装置であるRAM(Random Access Memory)102、及びROM(ReadOnly Memory)103、入力ボタン3を含む操作部104、無線通信モジュール105、ハードディスク等の補助記憶装置106等のハードウェアを備えるコンピュータを備えて構成される。これらの構成要素が動作することにより、携帯電話機1の上述した機能が発揮される。   FIG. 3 is a diagram illustrating a hardware configuration of the mobile phone 1. As shown in FIG. 3, the mobile phone 1 includes a central processing unit (CPU) 101, a random access memory (RAM) 102 that is a main storage device, a read only memory (ROM) 103, an operation unit 104 including an input button 3, The wireless communication module 105 includes a computer including hardware such as an auxiliary storage device 106 such as a hard disk. By operating these components, the above-described functions of the mobile phone 1 are exhibited.

続いて、携帯電話機1により実行される処理(携帯電話機1の位置補正方法)について説明する。携帯電話機1による処理は、図4及び図7に示すフローチャートに従い主に制御部10によって実行される。図4は、適正位置登録の処理手順を示すフローチャートである。また、図7は、位置合わせの処理手順を示すフローチャートである。   Next, processing (position correction method for the mobile phone 1) executed by the mobile phone 1 will be described. The processing by the mobile phone 1 is mainly executed by the control unit 10 in accordance with the flowcharts shown in FIGS. FIG. 4 is a flowchart showing a processing procedure of proper position registration. FIG. 7 is a flowchart showing the alignment processing procedure.

まず、図4を参照しながら適正位置登録について説明する。ここでは、指示制御部16に記憶された位置登録頻度情報に基づいて適正位置登録が実行される。以下の説明では、位置登録頻度情報に「ユーザが携帯電話機1を最初に利用する際にのみ1回行う」旨が示される場合について説明する。この適正位置登録は、入力ボタン3の一部である電源ボタンがユーザにより押された際、若しくは、ユーザにより適正位置登録を行う旨の操作が行われた際に開始する。まず、指示制御部16によって、画像データベース18に適正位置画像が記憶されているか否かが検出される。画像データベース18に適正位置画像が既に記憶されている場合、適正位置登録は実行されない。但し、改めて適正位置登録が実行されてもよい。   First, the proper position registration will be described with reference to FIG. Here, the appropriate position registration is executed based on the position registration frequency information stored in the instruction control unit 16. In the following description, a case will be described in which the location registration frequency information indicates that “only once when the user uses the mobile phone 1 for the first time”. The proper position registration starts when a power button that is a part of the input button 3 is pressed by the user or when an operation for performing proper position registration is performed by the user. First, the instruction control unit 16 detects whether or not an appropriate position image is stored in the image database 18. When the proper position image is already stored in the image database 18, the proper position registration is not executed. However, appropriate location registration may be executed again.

画像データベース18に適正位置画像が記憶されていない場合、図4に示すように、指示制御部16によって、ユーザに対する適正位置画像の登録案内が行われる(S01)。ここでは、スピーカ6からユーザに向けて適正位置登録案内メッセージが出力される。適正位置登録案内メッセージとしては、例えば「これから適正位置登録を開始します。受話器を右耳(又は左耳)に当て、イミテーション音が最もよく聞こえる位置で入力ボタンを押してインカメラで撮影してください」が該当する。また、指示制御部16によって、適正位置画像左右情報が画像取得部12に出力される。   When the appropriate position image is not stored in the image database 18, as shown in FIG. 4, the instruction control unit 16 guides the user to register the appropriate position image (S01). Here, an appropriate position registration guidance message is output from the speaker 6 to the user. An example of the appropriate location registration guidance message is “Start proper location registration from now on. Place the handset on the right ear (or left ear) and press the input button at the position where you can hear the imitation sound best. Is applicable. Further, the instruction control unit 16 outputs the right and left information on the proper position image to the image acquisition unit 12.

次に、指示制御部16によって、イミテーション音が出力される(S02)。ここでは、スピーカ6からユーザに向けてイミテーション音が出力される。イミテーション音としては、例えば「ピーピーピー…」という音が該当する。このイミテーション音の出力は、ユーザに対して適正位置画像を撮影するタイミングを計らせるために行われる。続いて、ユーザは、イミテーション音が最もよく聞こえる位置で入力ボタン3を押す。この入力ボタン3の操作により、インカメラ4によって、適正位置画像の撮影が行われる(S03)。そして、インカメラ4によって適正位置画像が生成され、生成された適正位置画像が画像取得部12に出力される。   Next, an imitation sound is output by the instruction control unit 16 (S02). Here, an imitation sound is output from the speaker 6 toward the user. As the imitation sound, for example, a sound “Peepy ...” is applicable. The output of the imitation sound is performed to allow the user to measure the timing for capturing the appropriate position image. Subsequently, the user presses the input button 3 at a position where the imitation sound can be heard best. By operating the input button 3, the in-camera 4 captures an appropriate position image (S03). Then, an appropriate position image is generated by the in-camera 4, and the generated appropriate position image is output to the image acquisition unit 12.

次に、画像取得部12によって、画像データベース18に適正位置画像が記憶させられる(S04)。ここでは、画像取得部12によって、適正位置画像に画像処理が施されることにより、適正位置画像に含まれるユーザの特徴部が抽出され、特徴部適正位置データが生成される。そして、適正位置画像に適正位置画像左右情報及び特徴部適正位置データが添付され、画像データベース18に記憶させられる。   Next, the appropriate position image is stored in the image database 18 by the image acquisition unit 12 (S04). Here, when the image acquisition unit 12 performs image processing on the appropriate position image, the feature portion of the user included in the appropriate position image is extracted, and feature portion appropriate position data is generated. Then, the appropriate position image right / left information and the proper position appropriate position data are attached to the appropriate position image and stored in the image database 18.

以上の一連の処理を右側(右耳)と左側(左耳)とのそれぞれについて実行することによって、適正位置登録が行われる。図5は、画像データベース18に記憶される適正位置画像の具体例を示す図である。図5に示すように、画像データベース18は、スピーカ6がユーザの右耳に対面する状態でのユーザの画像である右側適正位置画像PRと、スピーカ6がユーザの左耳に対面する状態でのユーザの画像である左側適正位置画像PLとを記憶している。右側適正位置画像PRでは、ユーザの特徴部として、アゴのラインAR、血管BR、及びヒゲCRが抽出されている。また、左側適正位置画像PLでは、ユーザの特徴部として、アゴのラインAL、血管BL、及びヒゲCLが抽出されている。   Appropriate position registration is performed by executing the above-described series of processing for each of the right side (right ear) and the left side (left ear). FIG. 5 is a diagram showing a specific example of the proper position image stored in the image database 18. As shown in FIG. 5, the image database 18 includes a right-side proper position image PR that is a user image in a state where the speaker 6 faces the user's right ear, and a state where the speaker 6 faces the user's left ear. The left proper position image PL which is a user image is stored. In the right appropriate position image PR, jaw lines AR, blood vessels BR, and mustache CR are extracted as user features. In the left proper position image PL, the jaw line AL, the blood vessel BL, and the whiskers CL are extracted as the user's characteristic portions.

図6は、画像データベース18に記憶される特徴部適正位置データの具体例を示す図である。図6に示すように、画像データベース18には、アゴのライン、血管、及びヒゲに対応する画像内の座標が記憶されている。更に、図6に示すように、肌の色(くすんでいる箇所等)を特徴部として認識し、肌の色が変わっている箇所の座標が記憶されるようにしてもよい。この適正位置データは、右側適正位置画像PR及び左側適正位置画像PLの各々について記憶される。   FIG. 6 is a diagram showing a specific example of the feature portion appropriate position data stored in the image database 18. As shown in FIG. 6, the image database 18 stores coordinates in an image corresponding to jaw lines, blood vessels, and beards. Furthermore, as shown in FIG. 6, the skin color (spotted part or the like) may be recognized as a feature part, and the coordinates of the part where the skin color has changed may be stored. This appropriate position data is stored for each of the right appropriate position image PR and the left appropriate position image PL.

続いて、図7を参照しながら位置合わせについて説明する。まず、音声入出力検出部11によって、通話ボタンの操作が検出されて、携帯電話機1による通話の開始が検出される(S11)。通話の開始が検出されると、その旨が左右検出部13に通知される。次に、左右検出部13によって、受話器2に当てられたユーザの耳Eは右耳であるか左耳であるかが検出される(S12)。また、ユーザの耳Eは右耳であるか左耳であるかが検出されると共に、左右検出部13によって、検出結果に応じた適正位置画像(右側適正位置画像PR又は左側適正位置画像PL)が画像データベース18から抽出される。以下の説明では、ユーザの耳Eが右耳である場合について説明する。   Next, alignment will be described with reference to FIG. First, the operation of the call button is detected by the voice input / output detection unit 11, and the start of the call by the mobile phone 1 is detected (S11). When the start of a call is detected, this is notified to the left / right detection unit 13. Next, the left / right detection unit 13 detects whether the user's ear E applied to the receiver 2 is the right ear or the left ear (S12). Further, it is detected whether the user's ear E is the right ear or the left ear, and the right and left detection unit 13 detects an appropriate position image (right appropriate position image PR or left appropriate position image PL). Are extracted from the image database 18. In the following description, a case where the user's ear E is the right ear will be described.

次に、音声入出力検出部11によって、インカメラ4が制御されて使用時画像が撮影させられる(S13)。そして、インカメラ4によって、使用時画像が生成され、生成された使用時画像が画像取得部12を介して左右検出部13に出力される。そして、左右検出部13によって、使用時画像と適正位置画像とが画像処理部14に出力される。次に、画像処理部14によって、使用時画像に画像処理が施されることにより、使用時画像に含まれるユーザの特徴部が抽出され、特徴部使用時位置データが生成される(S14)。そして、画像処理部14によって、使用時画像に特徴部使用時位置データが添付され、適正位置画像と共にずれ演算部15に出力される。   Next, the in-camera 4 is controlled by the voice input / output detection unit 11 and an in-use image is taken (S13). Then, the in-camera 4 generates an in-use image, and the generated in-use image is output to the left / right detection unit 13 via the image acquisition unit 12. Then, the left and right detection unit 13 outputs the in-use image and the appropriate position image to the image processing unit 14. Next, the image processing unit 14 performs image processing on the in-use image, thereby extracting the feature portion of the user included in the in-use image and generating feature portion use position data (S14). Then, the image processing unit 14 attaches the characteristic part use position data to the use image, and outputs the characteristic part use position data together with the appropriate position image to the deviation calculation unit 15.

図9(a)は、ステップS14において画像処理された使用時画像P2を示す図である。図9(a)に示すように、使用時画像P2では、ユーザの特徴部として、アゴのラインA2、血管B2、及びヒゲC2が抽出されている。図9(a)に示す使用時画像P2は、受話器2がユーザの右耳に当てられた場合の使用時画像である。   FIG. 9A shows the in-use image P2 that has been subjected to image processing in step S14. As shown in FIG. 9A, in the in-use image P2, jaw lines A2, blood vessels B2, and whiskers C2 are extracted as user features. The in-use image P2 shown in FIG. 9A is an in-use image when the handset 2 is put on the user's right ear.

次に、ずれ演算部15によって、適正位置画像に含まれる所定の特徴部と、使用時画像に含まれる所定の特徴部との位置の差分(ずれ)が演算される(S15;比較ステップ)。ここでの演算処理は、図8に示すフローチャートに従って、ずれ演算部15によって実行される。まず、使用時画像及び適正位置画像が画像処理により重ね合わされる(S51)。次に、適正位置画像に含まれたユーザの所定の特徴部と、使用時画像に含まれた、その所定の特徴部に対応する特徴部とが検出される(S52)。そして、適正位置画像に含まれる所定の特徴部と、使用時画像に含まれる所定の特徴部との位置の差分(ずれ)が演算される(S53)。そして、位置の差分が演算されると、ずれ演算部15によって、その位置の差分を示す位置差分情報が生成される。   Next, the displacement calculation unit 15 calculates a difference (deviation) in position between the predetermined feature included in the appropriate position image and the predetermined feature included in the in-use image (S15: comparison step). The calculation process here is executed by the deviation calculation unit 15 in accordance with the flowchart shown in FIG. First, the in-use image and the appropriate position image are superimposed by image processing (S51). Next, a predetermined feature of the user included in the proper position image and a feature corresponding to the predetermined feature included in the in-use image are detected (S52). Then, the position difference (deviation) between the predetermined feature included in the appropriate position image and the predetermined feature included in the in-use image is calculated (S53). When the position difference is calculated, the position difference information indicating the position difference is generated by the shift calculation unit 15.

図9(b)は、ステップS15(S51〜S53)におけるずれ演算処理の説明図である。図9(b)に示すように、ステップS51で重ね合わされた画像PSでは、図9(a)に示した使用時画像P2と図5に示した右側適正位置画像PRとが所定のずれをもっている。ここで、破線で示す右側適正位置画像PRのアゴのラインAR、血管BR、及びヒゲCRは、実線で示す使用時画像P2のアゴのラインA2、血管B2、及びヒゲC2に各々対応している。ステップS53のずれの演算では、対応する特徴部同士の座標のx方向及びy方向における差が演算される。図9(b)に示す例では、血管BRの上側の端点pには、血管B2の上側の端点qが対応している。そして、血管BRの上側の端点pの座標が(x11,y11)であるのに対し、血管B2の上側の端点qの座標は(x12,y12)となっている。よって、次式によってずれが演算される。
(X方向のずれ)=x12−x11
(Y方向のずれ)=y12−y11
FIG. 9B is an explanatory diagram of the shift calculation processing in step S15 (S51 to S53). As shown in FIG. 9B, in the image PS superimposed in step S51, the in-use image P2 shown in FIG. 9A and the right-side proper position image PR shown in FIG. 5 have a predetermined deviation. . Here, the jaw line AR, the blood vessel BR, and the mustache CR of the right appropriate position image PR indicated by a broken line respectively correspond to the jaw line A2, the blood vessel B2, and the mustache C2 of the in-use image P2 indicated by a solid line. . In the calculation of the deviation in step S53, the difference between the coordinates of the corresponding feature portions in the x direction and the y direction is calculated. In the example shown in FIG. 9B, the upper end point q of the blood vessel B2 corresponds to the upper end point p of the blood vessel BR. The coordinates of the upper end point p of the blood vessel BR are (x11, y11), while the coordinates of the upper end point q of the blood vessel B2 are (x12, y12). Therefore, the deviation is calculated by the following equation.
(Deviation in X direction) = x12−x11
(Shift in Y direction) = y12−y11

このように、ずれ演算部15は、ユーザのアゴ、血管、ヒゲのうち少なくとも1つを特徴部として、ずれの演算を行う。また、ずれ演算部15は、肌の色(くすんでいる箇所等)を特徴部としてずれの演算を行ってもよい。   As described above, the deviation calculation unit 15 calculates the deviation using at least one of the user's jaw, blood vessel, and beard as a characteristic part. Further, the shift calculation unit 15 may perform shift calculation using the skin color (such as a dull spot) as a feature.

なお、ずれの演算は、上記式のように対応する特定点同士の座標の差として演算されてもよいし、対応する複数の点で座標の差が異なる場合には、複数の点の座標の差を平均することにより演算されてもよい。また、使用時画像P2及び適正位置画像PRを直接用いずにこれらに添付された特徴部適正位置データ(図6参照)と特徴部使用時位置データとを比較することにより、適正位置画像に含まれた特徴部と、使用時画像に含まれた特徴部との対応する点の座標の差(x方向、y方向)を演算してもよい。   The calculation of the deviation may be performed as a difference in coordinates between corresponding specific points as in the above formula, or when the difference in coordinates differs between a plurality of corresponding points, It may be computed by averaging the differences. In addition, the feature position proper position data (see FIG. 6) attached to the use position image P2 and the proper position image PR are not directly used, but the feature position use position data is included in the proper position image. The coordinate difference (x direction, y direction) of the corresponding point between the feature part and the feature part included in the in-use image may be calculated.

ステップS15でずれが演算されると、ずれ演算部15によって、使用時画像が適正位置画像に一致しているか否かが判断される(図7のS16)。ここでは、所定の差分閾値と位置の差分との比較により判断が行われる。位置の差分が差分閾値未満である場合、使用時画像は適正位置画像に一致していると判断される。そして、ずれ演算部15によって、指示制御部16における位置補正指示は不要である旨を示す指示不要情報が生成され、生成された指示不要情報が指示制御部16に出力される。これにより、位置合わせは終了する。また、位置の差分が差分閾値以上である場合、使用時画像は適正位置画像に一致していないと判断される。そして、位置差分情報が指示制御部16に出力され、指示制御部16によって、位置差分情報に示される位置の差分が小さくなるように、ユーザに対する位置補正指示が行われる(S17;指示ステップ)。   When the deviation is calculated in step S15, the deviation calculating unit 15 determines whether or not the in-use image matches the appropriate position image (S16 in FIG. 7). Here, the determination is performed by comparing the predetermined difference threshold value with the position difference. If the position difference is less than the difference threshold, it is determined that the in-use image matches the appropriate position image. Then, the deviation calculation unit 15 generates instruction-unnecessary information indicating that the position correction instruction in the instruction control unit 16 is unnecessary, and the generated instruction-unnecessary information is output to the instruction control unit 16. This completes the alignment. When the position difference is equal to or greater than the difference threshold, it is determined that the in-use image does not match the proper position image. Then, the position difference information is output to the instruction control unit 16, and the instruction control unit 16 issues a position correction instruction to the user so that the position difference indicated by the position difference information is reduced (S17; instruction step).

ここで、ステップS17の位置補正指示では、指示制御部16によって、ステップS15で演算されたずれに応じて、ずれを小さくするような位置補正方向及び位置補正距離が演算される。図9(b)に示した例では、血管B2の上側の端点qは、血管BRの上側の端点pに対して、例えば「X方向では右方向に3mm、Y方向では下方向に2mm」ずれていると演算される。この場合、受話器2のスピーカ6の位置は、ユーザの右耳に対面する方向(インカメラ4側)から見て、ユーザの右耳に対してX方向で左方向に3mm、Y方向で上方向に2mmずれていることが推定される。言い換えれば、受話器2は、ユーザの右耳に対面する方向から見て、適正位置よりもやや左上に位置している。そのため、指示制御部16によって、「少し右下」或いは「右に3mm、下に2mm」が位置補正方向及び位置補正距離として演算される。   Here, in the position correction instruction in step S17, the instruction control unit 16 calculates a position correction direction and a position correction distance that reduce the shift according to the shift calculated in step S15. In the example shown in FIG. 9B, the upper end point q of the blood vessel B2 is shifted from the upper end point p of the blood vessel BR by, for example, “3 mm rightward in the X direction and 2 mm downward in the Y direction”. Is calculated. In this case, the position of the speaker 6 of the receiver 2 is 3 mm in the left direction in the X direction and 3 mm in the Y direction with respect to the right ear of the user, as viewed from the direction facing the user's right ear (in-camera 4 side). Is estimated to be 2 mm. In other words, the handset 2 is located slightly upper left than the appropriate position when viewed from the direction facing the user's right ear. Therefore, the instruction control unit 16 calculates “slightly lower right” or “3 mm to the right and 2 mm to the lower” as the position correction direction and the position correction distance.

また、指示制御部16によって、音声入出力検出部11から出力される音声状態情報が取得される。更に、音声の非入出力状態が一定時間連続して示される場合に、指示制御部16によって、位置補正メッセージが取得され、演算した位置補正方向及び位置補正距離が含められる。そして、スピーカ6から位置補正メッセージが出力される。図10は、ステップS17における位置補正指示が行われるタイミングの説明図である。図10では、携帯電話機1のユーザであるAさんと、通話相手のBさんとの通話の流れを時間軸上に示している。図10に示すように、Bさんによる音声が2度目に出力された後、一定時間T1連続して音声の入出力はなされていない。よって、一定時間T1が経過した時点である時刻t1においてスピーカ6から位置補正メッセージが出力される。例えば、図9(b)に示した例では、出力される位置補正メッセージとしては、「もう少し右下です」や「右に3mm、下に2mmです」が該当する。   Also, the instruction control unit 16 acquires the voice state information output from the voice input / output detection unit 11. Further, when the voice non-input / output state is indicated continuously for a certain period of time, the instruction control unit 16 acquires a position correction message and includes the calculated position correction direction and position correction distance. Then, a position correction message is output from the speaker 6. FIG. 10 is an explanatory diagram of the timing at which the position correction instruction is performed in step S17. In FIG. 10, the flow of a call between the user A of the mobile phone 1 and the caller B is shown on the time axis. As shown in FIG. 10, after the voice by Mr. B is output for the second time, the voice is not input / output continuously for a certain time T1. Therefore, a position correction message is output from the speaker 6 at time t1, which is the time when the predetermined time T1 has elapsed. For example, in the example shown in FIG. 9B, the position correction message to be output corresponds to “a little lower right” or “3 mm to the right and 2 mm to the bottom”.

このように、本実施形態の携帯電話機1では、音声入出力検出部11によって音声の非入出力状態が検出された場合に、スピーカ6に位置補正メッセージを出力させる。このような制御により、位置補正メッセージが通話の邪魔になることが防止される。また、携帯電話機1では、左右検出部13によって検出された検出結果(右耳又は左耳)に応じた適正位置画像に基づいて位置補正指示がなされる。よって、ずれの演算精度が高まり、スピーカの位置をユーザの耳の位置に精度良く合わせることができる。   As described above, in the cellular phone 1 according to the present embodiment, when the non-input / output state of the voice is detected by the voice input / output detection unit 11, the position correction message is output to the speaker 6. Such control prevents the position correction message from interfering with the call. Further, in the mobile phone 1, a position correction instruction is given based on an appropriate position image corresponding to the detection result (right ear or left ear) detected by the left / right detection unit 13. Therefore, the calculation accuracy of the deviation is increased, and the position of the speaker can be accurately adjusted to the position of the user's ear.

ステップS17に続いて、指示制御部16によって、繰り返し情報に基づいて受話器2の位置合わせは定期的に実行されるか否かが判断される(S18)。繰り返し情報に「1回の通話中において1分毎に繰り返し行う」旨が示されている場合、指示制御部16によって、位置合わせは定期的に実行されると判断され、この判断が行われた時刻から1分後にステップS12の左右検出処理に戻る。また、繰り返し情報に「1回の通話当たり1回行う」旨が示されている場合、指示制御部16によって、位置合わせは定期的に実行されないと判断され、図7に示す処理は終了する。   Subsequent to step S17, the instruction control unit 16 determines whether or not the positioning of the handset 2 is periodically executed based on the repeated information (S18). When the repeat information indicates that “repeated every minute during one call”, the instruction control unit 16 determines that the alignment is periodically performed, and this determination is performed. After one minute from the time, the process returns to the left / right detection process in step S12. If the repeat information indicates “perform once per call”, the instruction control unit 16 determines that the alignment is not performed periodically, and the process shown in FIG. 7 ends.

以上説明した本実施形態の携帯電話機1によれば、画像データベース18によって、スピーカ6が耳Eに対面する状態でのユーザの画像である適正位置画像(図5に示す右側適正位置画像PR又は左側適正位置画像PL)が記憶される。また、ずれ演算部15によって、ユーザによる受話器2の使用時にインカメラ4によって撮影されるユーザの画像である使用時画像P2と、画像データベース18によって記憶された適正位置画像PRとが比較される(図9参照)。そして、ずれ演算部15による比較結果に基づいて、指示制御部16によって、ユーザに対して耳Eに対する受話器2の位置を補正させる旨の指示が行われる。ここで、ずれ演算部15における使用時画像P2と適正位置画像PRとの比較により、受話器2の使用時にスピーカ6の位置がユーザの耳Eに対面する位置からどの程度ずれているのかを推定することができる。指示制御部16による位置補正指示は、この比較結果に基づいて行われるため、ユーザに対してスピーカ6の位置のずれを小さくするような指示が可能となる。よって、ユーザは、指示に従うだけでスピーカ6の位置を耳Eの位置に合わすことができる。従って、スピーカ6の位置をスピーカ6から出力される音声がよく聞こえるようなユーザの耳Eの位置に容易に合わせることができる。   According to the mobile phone 1 of the present embodiment described above, the appropriate position image (the right appropriate position image PR shown in FIG. 5 or the left side) is an image of the user in a state where the speaker 6 faces the ear E by the image database 18. The proper position image PL) is stored. Further, the deviation calculation unit 15 compares the in-use image P2 that is the user's image taken by the in-camera 4 when the user uses the handset 2 with the appropriate position image PR stored in the image database 18 ( (See FIG. 9). Then, based on the comparison result by the deviation calculation unit 15, the instruction control unit 16 instructs the user to correct the position of the handset 2 with respect to the ear E. Here, it is estimated how much the position of the speaker 6 is deviated from the position facing the user's ear E when the handset 2 is used, by comparing the in-use image P2 and the appropriate position image PR in the deviation calculation unit 15. be able to. Since the position correction instruction by the instruction control unit 16 is performed based on this comparison result, it is possible to instruct the user to reduce the positional deviation of the speaker 6. Therefore, the user can adjust the position of the speaker 6 to the position of the ear E only by following the instruction. Therefore, the position of the speaker 6 can be easily adjusted to the position of the user's ear E where the sound output from the speaker 6 can be heard well.

特許文献1に記載されるような従来の技術では、スピーカの位置をユーザの耳の位置に合わせるため、第1筺体と第2筺体とを連結する特別なヒンジ部等の物理的構成を必要としていた。しかしながら、本実施形態の携帯電話機1によれば、そのような特別な物理的構成を要することなく、スピーカ6の位置をユーザの耳Eの位置に容易に合わせることができる。   In the conventional technology as described in Patent Document 1, a physical configuration such as a special hinge portion that connects the first housing and the second housing is required to adjust the position of the speaker to the position of the user's ear. It was. However, according to the mobile phone 1 of the present embodiment, the position of the speaker 6 can be easily adjusted to the position of the user's ear E without requiring such a special physical configuration.

また、ずれ演算部15によって、適正位置画像PRに含まれるユーザの特徴部AR,BR,CRの画像と、使用時画像P2に含まれる特徴部A2,B2,C2の画像との位置の差分が演算される。更に、指示制御部16によって、この位置の差分が小さくなるように指示が行われるため、スピーカ6の位置をユーザの耳Eの位置に精度良く合わせることができる。   In addition, the displacement calculation unit 15 calculates the difference in position between the images of the user feature portions AR, BR, and CR included in the appropriate position image PR and the images of the feature portions A2, B2, and C2 included in the in-use image P2. Calculated. Further, since the instruction control unit 16 instructs the position difference to be small, the position of the speaker 6 can be accurately adjusted to the position of the user's ear E.

また、ユーザのアゴ、血管、ヒゲ、肌の色は、ユーザ固有の形状を呈する部分であり、且つ、その形状の時間的変化は少ないと考えられる。よって、ずれ演算部15によって、これらのうち少なくとも1つを特徴部として差分の演算が行われるため、ユーザごとに精度の良い位置合わせを行うことができる。また、受話器2が使用される時間帯に関わらず、いつでも精度の良い位置合わせを行うことができる。   In addition, the user's jaw, blood vessels, whiskers, and skin color are portions that have a shape unique to the user, and it is considered that there is little temporal change in the shape. Therefore, the difference calculation unit 15 calculates the difference using at least one of them as a feature portion, so that accurate alignment can be performed for each user. In addition, accurate positioning can be performed at any time regardless of the time zone in which the handset 2 is used.

また、ユーザは、指示制御部16によりスピーカ6から出力させられる位置補正メッセージに従って受話器2の位置を補正することができるので、スピーカ6の位置をユーザの耳Eの位置に一層容易に合わせることができる。   In addition, since the user can correct the position of the receiver 2 according to the position correction message output from the speaker 6 by the instruction control unit 16, the position of the speaker 6 can be more easily adjusted to the position of the user's ear E. it can.

また、音声入出力検出部11によって音声の非入出力状態が検出された場合に位置補正メッセージが出力されるので、位置補正メッセージが通話の邪魔になることを防止しつつ、スピーカ6の位置をユーザの耳Eの位置に容易に合わせることができる。   In addition, since a position correction message is output when a voice non-input / output state is detected by the voice input / output detection unit 11, the position of the speaker 6 can be adjusted while preventing the position correction message from interfering with the call. It can be easily adjusted to the position of the user's ear E.

また、ユーザによる受話器2の使用時に左右検出部13によって検出された右耳であるか左耳であるかの検出結果に応じて、右側適正位置画像PR又は左側適正位置画像PLに基づく位置補正指示が行われる。よって、スピーカ6の位置をユーザの耳Eの位置に一層精度良く合わせることができる。   In addition, a position correction instruction based on the right proper position image PR or the left proper position image PL according to the detection result of the right ear or the left ear detected by the left / right detector 13 when the handset 2 is used by the user. Is done. Therefore, the position of the speaker 6 can be more accurately matched with the position of the user's ear E.

更にまた、適正位置画像PRは、使用時画像P2を撮影するのと同じインカメラ4によって撮影されるため、ずれ演算部15において、使用時画像P2と適正位置画像PRとの比較をより正確に行うことができる。よって、指示制御部16による位置補正指示の正確性の向上が図られる。   Furthermore, since the proper position image PR is taken by the same in-camera 4 as the use-time image P2, the displacement calculation unit 15 compares the use-time image P2 with the proper position image PR more accurately. It can be carried out. Therefore, the accuracy of the position correction instruction by the instruction control unit 16 can be improved.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限られるものではない。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment.

例えば、上記実施形態では、指示制御部16による位置補正指示がスピーカ6を通じて行われる場合について示したが、図11に示すように、受話器2の位置を補正させる旨を示す振動パターンでバイブレータ7に受話器2を振動させることにより、位置補正指示を行ってもよい。この場合、バイブレータ7は、制御部10により制御されて所定の振動パターンで受話器2を振動させる。この振動による位置補正指示では、図11(a)に示すように、ユーザ(Aさん)と通話相手(Bさん)との通話の流れに関わらず、差分閾値以上の位置の差分が検出された時刻t2で、位置補正指示が行われる。また、図11(b)に示すように、位置補正指示により示す方向は、各振動パターンにおける振動の長さや間隔を変えることによりユーザに伝達することができる。例えば、図11(b)に示す例において受話器2の位置を「右下」に補正させたい場合は、パターンBとパターンDとの組み合わせによる振動パターンで位置補正指示が行われる。なお、ここで用いられる振動パターンは、メッセージデータベース19に記憶される。   For example, in the above-described embodiment, the case where the position correction instruction by the instruction control unit 16 is performed through the speaker 6 has been described. However, as illustrated in FIG. 11, the vibrator 7 has a vibration pattern indicating that the position of the receiver 2 is corrected. A position correction instruction may be issued by vibrating the handset 2. In this case, the vibrator 7 is controlled by the control unit 10 to vibrate the handset 2 with a predetermined vibration pattern. In this position correction instruction by vibration, as shown in FIG. 11A, a position difference equal to or greater than the difference threshold is detected regardless of the flow of the call between the user (Mr. A) and the other party (Mr. B). At time t2, a position correction instruction is issued. Also, as shown in FIG. 11B, the direction indicated by the position correction instruction can be transmitted to the user by changing the vibration length and interval in each vibration pattern. For example, when it is desired to correct the position of the handset 2 to “lower right” in the example shown in FIG. 11B, a position correction instruction is issued with a vibration pattern based on a combination of the pattern B and the pattern D. The vibration pattern used here is stored in the message database 19.

このような構成によれば、受話器2の位置を補正させる旨を示す振動パターンでバイブレータ7が受話器2を振動させることにより位置補正指示が行われるので、位置補正指示が通話の邪魔になることを防止できる。よって、通話のタイミングに関わらず位置補正指示を行うことができ、スピーカ6の位置をユーザの耳Eの位置に迅速に合わせることができる。   According to such a configuration, since the vibrator 7 vibrates the handset 2 with a vibration pattern indicating that the position of the handset 2 is to be corrected, the position correction instruction is performed. Can be prevented. Therefore, a position correction instruction can be issued regardless of the call timing, and the position of the speaker 6 can be quickly adjusted to the position of the user's ear E.

また、画像データベース18に記憶される適正位置画像は、インカメラ4によって撮影される場合に限られず、インカメラ4以外の他の手段によって生成された画像でもよい。また、上記実施形態では、インカメラ4が第2筺体2bに搭載される場合について説明したが、インカメラ4は、第1筺体2aに搭載されてもよい。また、本発明は、折りたたみ式の形態電話機に限られず、ストレート式の携帯電話機にも適用可能である。更にまた、本発明は、携帯電話機に限られず、固定電話の受話器やその子機等に適用することも可能である。   Further, the appropriate position image stored in the image database 18 is not limited to the case where the image is captured by the in-camera 4, and may be an image generated by other means other than the in-camera 4. Moreover, although the said embodiment demonstrated the case where the in camera 4 was mounted in the 2nd housing 2b, the in camera 4 may be mounted in the 1st housing 2a. In addition, the present invention is not limited to a foldable type telephone, and can also be applied to a straight-type mobile phone. Furthermore, the present invention is not limited to a mobile phone, and can also be applied to a land-line telephone handset and its handset.

1…携帯電話機(電話機)、2…受話器、4…インカメラ(カメラ)、5…加速度センサ(左右検出手段)、6…スピーカ、7…バイブレータ(振動部)、9…マイク、11…音声入出力検出部(音声入出力検出手段)、13…左右検出部(左右検出手段)、15…ずれ演算部(比較手段)、16…指示制御部(指示手段)、18…画像データベース(記憶部)、E…耳、P2…使用時画像、PL…左側適正位置画像、PR…右側適正位置画像。   DESCRIPTION OF SYMBOLS 1 ... Mobile phone (telephone), 2 ... Handset, 4 ... In camera (camera), 5 ... Acceleration sensor (left-right detection means), 6 ... Speaker, 7 ... Vibrator (vibration part), 9 ... Microphone, 11 ... Sound input Output detection unit (voice input / output detection unit), 13 ... left / right detection unit (left / right detection unit), 15 ... deviation calculation unit (comparison unit), 16 ... instruction control unit (instruction unit), 18 ... image database (storage unit) , E ... ear, P2 ... use image, PL ... left proper position image, PR ... right right position image.

Claims (9)

ユーザの耳に当てられる受話器と、前記受話器に搭載され、前記受話器の一方の側に向けて音声を出力するスピーカと、を備える電話機であって、
前記受話器の前記一方の側に向けられたカメラと、
前記スピーカが前記耳に対面する状態での前記ユーザの画像である適正位置画像に応じた適正位置情報を記憶する記憶部と、
前記ユーザによる前記受話器の使用時に前記カメラで撮影される前記ユーザの画像である使用時画像に応じた使用時位置情報と、前記記憶部によって記憶された前記適正位置情報とを比較する比較手段と、
前記比較手段による比較結果に基づいて、前記ユーザに対して前記耳に対する前記受話器の位置を補正させる旨の指示を行う指示手段と、
を備えることを特徴とする電話機。
A telephone set provided with a handset that is placed on a user's ear; and a speaker that is mounted on the handset and outputs sound toward one side of the handset,
A camera directed to the one side of the handset;
A storage unit that stores appropriate position information according to an appropriate position image that is an image of the user in a state where the speaker faces the ear;
Comparing means for comparing in-use position information corresponding to an in-use image, which is an image of the user taken by the camera when the user uses the handset, with the appropriate position information stored in the storage unit; ,
Instructing means for instructing the user to correct the position of the receiver with respect to the ear based on the comparison result by the comparing means;
A telephone set comprising:
前記比較手段は、前記適正位置画像に含まれる前記ユーザの特徴部と、前記使用時画像に含まれる前記特徴部との位置の差分を演算し、
前記指示手段は、前記比較手段によって演算された前記差分に基づいて、前記差分が小さくなるように前記指示を行うことを特徴とする請求項1記載の電話機。
The comparison unit calculates a difference in position between the feature portion of the user included in the appropriate position image and the feature portion included in the in-use image;
2. The telephone according to claim 1, wherein the instruction unit performs the instruction so that the difference becomes small based on the difference calculated by the comparison unit.
前記比較手段は、前記ユーザのアゴ、血管、ヒゲ、肌の色のうち少なくとも1つを前記特徴部として、前記差分の演算を行うことを特徴とする請求項1又は2記載の電話機。   The telephone according to claim 1 or 2, wherein the comparison means calculates the difference using at least one of the user's jaw, blood vessel, beard, and skin color as the characteristic portion. 前記指示手段は、前記受話器の位置を補正させる旨を示す位置補正メッセージを前記スピーカに出力させることにより、前記指示を行うことを特徴とする請求項1〜3のいずれか一項記載の電話機。   The telephone according to claim 1, wherein the instruction unit performs the instruction by causing the speaker to output a position correction message indicating that the position of the handset is to be corrected. 前記ユーザの音声を入力するマイクと前記スピーカとにおける音声の入出力を検出する音声入出力検出手段を備え、
前記指示手段は、前記音声入出力検出手段によって前記音声の非入出力状態が検出された場合に、前記スピーカに前記位置補正メッセージを出力させることを特徴とする請求項4記載の電話機。
Voice input / output detection means for detecting voice input / output between the microphone for inputting the user's voice and the speaker;
5. The telephone set according to claim 4, wherein the instruction unit causes the speaker to output the position correction message when the voice input / output detection unit detects a non-input / output state of the voice.
前記受話器を振動させる振動部を備え、
前記指示手段は、前記受話器の位置を補正させる旨を示す振動パターンで前記振動部に前記受話器を振動させることにより、前記指示を行うことを特徴とする請求項1〜5のいずれか一項記載の電話機。
A vibration unit for vibrating the receiver;
The said instruction | indication means performs the said instruction | indication by vibrating the said handset to the said vibration part by the vibration pattern which shows that the position of the said handset is correct | amended. Phone.
前記受話器の加速度を検出し、検出した前記加速度に基づいて前記ユーザの前記耳は右耳であるか左耳であるかを検出する左右検出手段を備え、
前記記憶部に記憶される前記適正位置情報は、前記スピーカが前記右耳に対面する状態での前記ユーザの画像である右側適正位置画像に応じた右側適正位置情報と、前記スピーカが前記左耳に対面する状態での前記ユーザの画像である左側適正位置画像に応じた左側適正位置情報と、を含み、
前記比較手段は、前記ユーザによる前記受話器の使用時に前記左右検出手段によって検出された検出結果に応じた前記適正位置情報を用いて、前記使用時位置情報との比較を行うことを特徴とする請求項1〜6のいずれか一項記載の電話機。
Left and right detection means for detecting acceleration of the handset and detecting whether the user's ear is a right ear or a left ear based on the detected acceleration;
The right position information stored in the storage unit includes right right position information according to a right right position image that is an image of the user in a state where the speaker faces the right ear, and the speaker has the left ear. Left proper position information corresponding to the left proper position image that is the image of the user in a state of facing,
The comparison means performs comparison with the in-use position information by using the appropriate position information according to a detection result detected by the left / right detection means when the handset is used by the user. Item 7. The telephone set according to any one of items 1 to 6.
前記適正位置画像は、前記スピーカが前記耳に対面する状態で前記カメラによって撮影された前記ユーザの画像であることを特徴とする請求項1〜7のいずれか一項記載の電話機。   The telephone according to claim 1, wherein the proper position image is an image of the user taken by the camera in a state where the speaker faces the ear. ユーザの耳に当てられる受話器と、前記受話器に搭載され、前記受話器の一方の側に向けて音声を出力するスピーカと、前記受話器の前記一方の側に向けられたカメラと、前記スピーカが前記耳に対面する状態での前記ユーザの画像である適正位置画像に応じた適正位置情報を記憶する記憶部と、を備える電話機の位置補正方法であって、
前記ユーザによる前記受話器の使用時に前記カメラで撮影される前記ユーザの画像である使用時画像に応じた使用時位置情報と、前記記憶部によって記憶された前記適正位置情報とを比較する比較ステップと、
前記比較ステップにおける比較結果に基づいて、前記ユーザに対して前記耳に対する前記受話器の位置を補正させる旨の指示を行う指示ステップと、
を含むことを特徴とする電話機の位置補正方法。
A receiver that is placed on a user's ear; a speaker that is mounted on the receiver and that outputs sound toward one side of the receiver; a camera that is directed to the one side of the receiver; and the speaker is connected to the ear And a storage unit that stores appropriate position information corresponding to an appropriate position image that is an image of the user in a state of facing the phone,
A comparison step of comparing in-use position information corresponding to an in-use image that is an image of the user taken by the camera when the user uses the handset with the appropriate position information stored in the storage unit; ,
An instruction step for instructing the user to correct the position of the receiver with respect to the ear based on the comparison result in the comparison step;
A method for correcting the position of a telephone, comprising:
JP2010068814A 2010-03-24 2010-03-24 Telephone and telephone position correction method Expired - Fee Related JP5156042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010068814A JP5156042B2 (en) 2010-03-24 2010-03-24 Telephone and telephone position correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010068814A JP5156042B2 (en) 2010-03-24 2010-03-24 Telephone and telephone position correction method

Publications (2)

Publication Number Publication Date
JP2011205256A true JP2011205256A (en) 2011-10-13
JP5156042B2 JP5156042B2 (en) 2013-03-06

Family

ID=44881461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010068814A Expired - Fee Related JP5156042B2 (en) 2010-03-24 2010-03-24 Telephone and telephone position correction method

Country Status (1)

Country Link
JP (1) JP5156042B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013236130A (en) * 2012-05-02 2013-11-21 Kyocera Corp Electronic apparatus, control method, and control program
JP2014007497A (en) * 2012-06-22 2014-01-16 Kyocera Corp Electronic device, control program, and information notification method
KR20140052603A (en) * 2012-10-25 2014-05-07 엘지전자 주식회사 Mobile terminal

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003188957A (en) * 2001-12-19 2003-07-04 Nec Access Technica Ltd Portable telephone set
JP2006005564A (en) * 2004-06-16 2006-01-05 Mitsubishi Electric Corp Mobile telephone device
JP2007235474A (en) * 2006-02-28 2007-09-13 Saxa Inc Telephone device
JP2007259134A (en) * 2006-03-23 2007-10-04 Nec Saitama Ltd Portable telephone device and method for reducing power consumption in it
JP2008060734A (en) * 2006-08-29 2008-03-13 Toshiba Corp Portable terminal
JP2008172579A (en) * 2007-01-12 2008-07-24 Brother Ind Ltd Communication equipment
JP2010233103A (en) * 2009-03-27 2010-10-14 Sharp Corp Electronic equipment, cellular phone, speaker position guiding method, and speaker volume control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003188957A (en) * 2001-12-19 2003-07-04 Nec Access Technica Ltd Portable telephone set
JP2006005564A (en) * 2004-06-16 2006-01-05 Mitsubishi Electric Corp Mobile telephone device
JP2007235474A (en) * 2006-02-28 2007-09-13 Saxa Inc Telephone device
JP2007259134A (en) * 2006-03-23 2007-10-04 Nec Saitama Ltd Portable telephone device and method for reducing power consumption in it
JP2008060734A (en) * 2006-08-29 2008-03-13 Toshiba Corp Portable terminal
JP2008172579A (en) * 2007-01-12 2008-07-24 Brother Ind Ltd Communication equipment
JP2010233103A (en) * 2009-03-27 2010-10-14 Sharp Corp Electronic equipment, cellular phone, speaker position guiding method, and speaker volume control method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013236130A (en) * 2012-05-02 2013-11-21 Kyocera Corp Electronic apparatus, control method, and control program
JP2014007497A (en) * 2012-06-22 2014-01-16 Kyocera Corp Electronic device, control program, and information notification method
US9674617B2 (en) 2012-06-22 2017-06-06 Kyocera Corporation Electronic apparatus comprising a piezoelectric vibration module configured to vibrate a cover panel, storage medium storing control program that controls the electronic apparatus and information notification method of the electronic apparatus
KR20140052603A (en) * 2012-10-25 2014-05-07 엘지전자 주식회사 Mobile terminal
KR101984176B1 (en) * 2012-10-25 2019-05-30 엘지전자 주식회사 Mobile terminal

Also Published As

Publication number Publication date
JP5156042B2 (en) 2013-03-06

Similar Documents

Publication Publication Date Title
CN110189340B (en) Image segmentation method and device, electronic equipment and storage medium
KR20190086658A (en) Method, apparatus, program and recording medium for synthesizing virtual and physical objects
EP3062286B1 (en) Optical distortion compensation
JPWO2010086993A1 (en) Authentication device, imaging device, authentication method, and authentication program
JP6357884B2 (en) POSITIONING DEVICE AND AUDIO DEVICE
JP2007017596A (en) Portable terminal device
CN109522863B (en) Ear key point detection method and device and storage medium
CN105554389A (en) Photographing method and photographing apparatus
JP5156042B2 (en) Telephone and telephone position correction method
JPWO2014010324A1 (en) Image deformation apparatus and operation control method thereof
JP6205941B2 (en) Imaging program, imaging method, and information processing apparatus
JP6587918B2 (en) Electronic device, electronic device control method, electronic device control apparatus, control program, and electronic device system
US10136271B2 (en) Automatically answering an incoming voice-call on a mobile device with no-touch user interface interaction
US9495017B2 (en) Computing systems for peripheral control
JP2007274333A (en) Image display position correction method and portable terminal with image display position correction function
JP2011250131A (en) Photographic device
JP2007213199A (en) Living body identification device
KR20050059759A (en) Photographing guidance method and apparatus for camera phone
JP2012205117A (en) Electronic device
JP7414064B2 (en) Information processing device, information processing method, and program
JP5921047B2 (en) User interface device
JP2019124864A (en) Imaging support system, imaging support method, and imaging support program
JP2017011454A (en) Wearable device
KR101324809B1 (en) Mobile terminal and controlling method thereof
WO2019082648A1 (en) Electronic device, control device, control program, and method for operating electronic device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5156042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees