JP2011205206A - Electronic apparatus, direction presenting method for electronic apparatus, program and direction presenting system for electronic apparatus - Google Patents

Electronic apparatus, direction presenting method for electronic apparatus, program and direction presenting system for electronic apparatus Download PDF

Info

Publication number
JP2011205206A
JP2011205206A JP2010068098A JP2010068098A JP2011205206A JP 2011205206 A JP2011205206 A JP 2011205206A JP 2010068098 A JP2010068098 A JP 2010068098A JP 2010068098 A JP2010068098 A JP 2010068098A JP 2011205206 A JP2011205206 A JP 2011205206A
Authority
JP
Japan
Prior art keywords
target
electronic device
information
image information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010068098A
Other languages
Japanese (ja)
Inventor
Mitsuru Sentoda
充 仙洞田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010068098A priority Critical patent/JP2011205206A/en
Publication of JP2011205206A publication Critical patent/JP2011205206A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus, a direction presenting method for the electronic apparatus, a program and a direction presenting system for the electronic apparatus, capable of presenting, for example, the directions of a target place, a person or a communication party by a tactile sense during calling in real time.SOLUTION: A position information capturing means, an azimuth information capturing means, an image information capturing means for capturing at least a part of image information of user's face, and an output section are connected to a control section. The control section includes: a target position specifying means and a target direction specifying means; a first difference detecting means for detecting the difference between the target direction and the reference direction of an electronic apparatus; a relative posture specifying means; a coordinate converting means for converting coordinates into a target direction with reference to the direction of the user's face; a second difference detecting means for detecting the difference between the target direction after the coordinate conversion and the target direction before the coordinate conversion; and an output section control means for controlling the output section on the basis of the detected difference information. The output section includes a tactile sense presenting means for presenting the direction.

Description

本発明は、電子機器、電子機器の方向提示方法、プログラムおよび電子機器の方向提示システムに関する。   The present invention relates to an electronic device, an electronic device direction presentation method, a program, and an electronic device direction presentation system.

モバイル電子機器の機能は年々増加する方向にあり、電話、メール、画像、動画、チャット、など多種のコミュニケーション手段が利用されている。しかしながら従来のコミュニケーションは、音声や、テキスト、画像を中心としたいわゆる視覚や聴覚を利用したコミュニケーションが中心で、通話相手の方向をリアルに感じ取りより臨場感のあるコミュニケーションの提案や、視覚や、聴覚情報に加えて、人と人とがより感性豊かにコミュニケーションできる新たなコミュニケーション手段や機能は、模索されているものの実現に至っていない。   The functions of mobile electronic devices are increasing year by year, and various communication means such as telephone calls, e-mails, images, videos, and chats are used. However, conventional communication is centered on communication using so-called vision and hearing centered on voice, text, and images. In addition to information, new communication means and functions that enable people to communicate with each other more sensibly have not yet been realized.

ユーザインタフェースでは人の触覚や、力を感じる感覚機能(以下力覚と呼ぶ)を使ったコミュニケーションも研究はされているものの実用化された事例は無く、携帯電話での呼び出しにバイブレーションモータが使われているが、あくまでも着信を知らせるためのものであり、コミュニケーションのツールとしては利用されていないのが現状である。   In the user interface, communication using human tactile sensations and sensory functions that sense force (hereinafter referred to as force sensation) has been studied, but there has been no practical use, and a vibration motor is used for calling on mobile phones. However, it is only for notification of incoming calls and is not currently used as a communication tool.

関連技術として、測位情報を用いて、登録されている連絡先の情報が直感的にわかるように、ディスプレイ上に、今いる方向や、その距離に応じてアイコンの大きさを変えて表現することで、臨場感を提供するものが提案されている(例えば、特許文献1参照)。ディスプレイを使った方向提示の場合は、ユーザはディスプレイを確認するには、TV電話のように本体を耳から離した状態で通話しなくてならず、通話内容が周囲に漏れたり、騒音のある環境では聞き取りにくくなるという問題がある。また、カーナビゲーションのような音声による方向提示では通話を邪魔してしまうという問題もある。ディスプレイに地図を表示して方向提示する携帯端末も提案されているが(例えば、特許文献2参照)、ユーザは画面を見ながら目的の方向をサーチすることが前提となっており、上記と同様の問題がある。   As a related technology, use positioning information to express the registered contact information on the display by changing the size of the icon according to the current direction and distance. Thus, a device that provides a sense of realism has been proposed (see, for example, Patent Document 1). In the case of direction presentation using a display, in order to check the display, the user must make a call with the main body away from the ear like a TV phone, and the content of the call leaks to the surroundings or there is noise There is a problem that it is difficult to hear in the environment. In addition, there is a problem that the direction presentation by voice such as car navigation disturbs the call. Although a mobile terminal that displays a map on a display and presents a direction has been proposed (see, for example, Patent Document 2), it is assumed that the user searches for a target direction while viewing the screen, and the same as described above. There is a problem.

一方、触覚感覚・力覚感覚を利用してユーザに進むべき方向を直感的に理解し易い形で提示する力覚型ヒューマンナビゲーションシステムが提案されている(例えば、特許文献3参照)。しかし、通話時に(電子機器を直接耳にあてた状態の時)、通話相手または目標方向へユーザの顔(視線)を基準に直接誘導する機能の例はなかった。   On the other hand, a haptic human navigation system that uses a tactile sensation and a haptic sensation to present a direction to a user in a form that is intuitively easy to understand has been proposed (for example, see Patent Document 3). However, there has been no example of a function that directly guides the user to the other party or the target direction based on the user's face (line of sight) during a call (when the electronic device is directly applied to the ear).

特表2009−517762号公報Special table 2009-517762 特開2001−023076号公報JP 2001-023076 A 特開2004−177360号公報JP 2004-177360 A

本発明では新たなコミュニケーション手段として、通話中に、例えば、目的の場所や人物、通話相手の方向を、触覚によってリアルタイムで提示することのできる電子機器、電子機器の方向提示方法、プログラムおよび電子機器の方向提示システムを提供することを目的とする。   In the present invention, as new communication means, during a call, for example, an electronic device capable of presenting a target location, a person, and the direction of the other party in real time by tactile sense, a direction presentation method for the electronic device, a program, and an electronic device An object is to provide a direction presentation system.

前記目的を達成するために、本発明の電子機器は、
位置情報取り込み手段、方位情報取り込み手段、ユーザの顔の少なくとも一部の画像情報を取り込む画像情報取り込み手段、制御部および出力部を備え、
前記各取り込み手段が、前記制御部に接続され、
前記制御部が、前記出力部に接続され、
前記制御部が、
目標物の位置を特定する目標位置特定手段と、
前記位置情報取り込み手段を用いて取り込まれた位置情報と、前記特定された目標物の位置の情報とから、目標物の方向である目標方向を特定する目標方向特定手段と、
前記目標方向と電子機器の基準方向との差分を検出する第1の差分検出手段と、
前記画像情報取り込み手段を用いて取り込まれた前記画像情報から電子機器とユーザの顔との相対姿勢を特定する相対姿勢特定手段と、
前記特定された目標方向と前記相対姿勢の情報に基づき、ユーザの顔の向きを基準とした目標方向に座標を変換する座標変換手段と、
前記座標変換後の目標方向と座標変換前の目標方向との差分を検出する第2の差分検出手段と、
前記検出された差分情報に基づき、前記出力部を制御する出力部制御手段とを備え、
前記出力部が、方向を提示する触覚提示手段を備える
ことを特徴とする。
In order to achieve the above object, an electronic device of the present invention includes:
Position information capturing means, orientation information capturing means, image information capturing means for capturing image information of at least a part of the user's face, a control unit and an output unit,
Each capturing means is connected to the control unit,
The control unit is connected to the output unit;
The control unit is
Target position specifying means for specifying the position of the target;
Target direction specifying means for specifying a target direction which is the direction of the target object from the position information acquired using the position information acquisition means and the position information of the specified target object;
First difference detection means for detecting a difference between the target direction and a reference direction of the electronic device;
Relative posture specifying means for specifying the relative posture between the electronic device and the user's face from the image information captured using the image information capturing means;
Coordinate conversion means for converting coordinates to a target direction based on the orientation of the user's face based on the specified target direction and the relative posture information;
Second difference detection means for detecting a difference between the target direction after the coordinate conversion and the target direction before the coordinate conversion;
Output unit control means for controlling the output unit based on the detected difference information,
The output unit includes tactile sense presenting means for presenting a direction.

また、本発明の電子機器の方向提示方法は、前記本発明の電子機器を使用し、
位置情報取り込み工程、方位情報取り込み工程、ユーザの顔の少なくとも一部の画像情報を取り込む画像情報取り込み工程、制御工程および出力工程を備え、
前記制御工程が、
目標物の位置を特定する目標位置特定工程と、
前記位置情報取り込み工程において取り込まれた位置情報と、前記特定された目標物の位置の情報とから、目標物の方向である目標方向を特定する目標方向特定工程と、
前記目標方向と電子機器の基準方向との差分を検出する第1の差分検出工程と、
前記画像情報取り込み工程を用いて取り込まれた前記画像情報から電子機器とユーザの顔との相対姿勢を特定する相対姿勢特定工程と、
前記特定された目標方向と前記相対姿勢の情報に基づき、ユーザの顔の向きを基準とした目標方向に座標を変換する座標変換工程と、
前記座標変換後の目標方向と座標変換前の目標方向との差分を検出する第2の差分検出工程と、
前記検出された差分情報に基づき、前記出力部を制御する出力部制御工程とを備え、
前記出力工程が、方向を提示する触覚提示工程を備える
ことを特徴とする。
The electronic device direction presentation method of the present invention uses the electronic device of the present invention,
A position information capturing process, an orientation information capturing process, an image information capturing process for capturing at least part of image information of the user's face, a control process, and an output process;
The control step is
A target position identifying step for identifying the position of the target;
A target direction specifying step for specifying a target direction which is a direction of the target from the position information acquired in the position information capturing step and the information of the position of the specified target;
A first difference detection step of detecting a difference between the target direction and a reference direction of the electronic device;
A relative posture identifying step for identifying a relative posture between the electronic device and the user's face from the image information captured using the image information capturing step;
A coordinate conversion step of converting coordinates into a target direction based on the orientation of the user's face based on the specified target direction and the relative posture information;
A second difference detection step of detecting a difference between the target direction after the coordinate conversion and the target direction before the coordinate conversion;
An output unit control step for controlling the output unit based on the detected difference information,
The output step includes a tactile sense presentation step of presenting a direction.

また、本発明のプログラムは、前記本発明の電子機器の方向提示方法を、電子機器上で実行可能なことを特徴とする。   The program of the present invention is characterized in that the electronic device direction presentation method of the present invention can be executed on the electronic device.

また、本発明の電子機器の方向提示システムは、前記本発明の電子機器の方向提示方法による方向提示機能を提供することを特徴とする。   The electronic device direction presentation system of the present invention provides a direction presentation function by the electronic device direction presentation method of the present invention.

本発明によれば、通話中であっても、例えば、目的の場所や人物、通話相手の方向を、触覚によってリアルタイムで提示することのできる電子機器、電子機器の方向提示方法、プログラムおよび電子機器の方向提示システムを提供することができる。   According to the present invention, even during a call, for example, an electronic device capable of presenting a target location, a person, and the direction of a call partner in real time by tactile sense, a direction presentation method for an electronic device, a program, and an electronic device A direction presentation system can be provided.

本発明の実施形態に係る電子機器の構成の一例を示す図である。It is a figure which shows an example of a structure of the electronic device which concerns on embodiment of this invention. 本発明の実施形態に係る電子機器の構成の一例を示す図である。It is a figure which shows an example of a structure of the electronic device which concerns on embodiment of this invention. 本発明の実施形態に係る電子機器による方向提示の一例を示す模式図である。It is a schematic diagram which shows an example of the direction presentation by the electronic device which concerns on embodiment of this invention. 本発明の電子機器の一例の概略斜視図である。It is a schematic perspective view of an example of the electronic device of the present invention. 本発明の実施形態に係る通話時のユーザの顔(視線)方向と電子機器の相対姿勢の関係の一例を示す模式図である。It is a schematic diagram which shows an example of the relationship between the user's face (line of sight) direction at the time of a call and the relative posture of the electronic device according to the embodiment of the present invention. 本発明の実施形態に係る通話時のユーザの顔(視線)方向と電子機器の相対姿勢の関係のその他の例を示す模式図である。It is a schematic diagram which shows the other example of the relationship between the user's face (line of sight) direction at the time of the telephone call which concerns on embodiment of this invention, and the relative attitude | position of an electronic device. 本発明の実施形態に係る通話時のユーザの顔(視線)方向と電子機器の相対姿勢の関係のさらにその他の例を示す模式図である。It is a schematic diagram which shows the further another example of the relationship between the user's face (line of sight) direction at the time of the telephone call which concerns on embodiment of this invention, and the relative posture of an electronic device. 本発明の電子機器の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the electronic device of this invention. 本発明の実施形態に係る電子機器による方向提示のその他の例を示す模式図である。It is a schematic diagram which shows the other example of the direction presentation by the electronic device which concerns on embodiment of this invention.

以下、本発明の電子機器、電子機器の方向提示方法について、詳細に説明する。ただし、本発明は、以下の実施形態に限定されない。   Hereinafter, the electronic device and the direction presentation method of the electronic device of the present invention will be described in detail. However, the present invention is not limited to the following embodiments.

(実施形態1)
図1に、本発明の電子機器の構成の一例を示す。図1に示すように、本例の電子機器10は、位置情報取り込み手段206、方位情報取り込み手段207、ユーザの顔の少なくとも一部の画像情報を取り込む画像情報取り込み手段204、制御部100および出力部300を備えている。そして、前記各取り込み手段は、前記制御部100に接続されており、前記制御部100は、前記出力部300に接続されている。前記出力部300は、方向を提示する触覚提示手段310を備えている。前記制御部100は、目標物の位置を特定する目標位置特定手段101と、前記位置情報取り込み手段206を用いて取り込まれた位置情報と、前記特定された目標物の位置の情報とから、目標物の方向である目標方向を特定する目標方向特定手段102と、前記目標方向と電子機器の基準方向との差分を検出する第1の差分検出手段103と、前記画像情報取り込み手段204を用いて取り込まれた前記画像情報から電子機器とユーザの顔との相対姿勢を特定する相対姿勢特定手段106と、前記特定された目標方向と前記相対姿勢の情報に基づき、ユーザの顔の向きを基準とした目標方向に座標を変換する座標変換手段107と、前記座標変換後の目標方向と座標変換前の目標方向との差分を検出する第2の差分検出手段108と、前記検出された差分情報に基づき、前記出力部300を制御する出力部制御手段109とを備えている。
(Embodiment 1)
FIG. 1 illustrates an example of a configuration of an electronic device of the present invention. As shown in FIG. 1, the electronic apparatus 10 of this example includes a position information capturing unit 206, an orientation information capturing unit 207, an image information capturing unit 204 that captures image information of at least a part of the user's face, a control unit 100, and an output. The unit 300 is provided. Each capturing unit is connected to the control unit 100, and the control unit 100 is connected to the output unit 300. The output unit 300 includes tactile sense presenting means 310 for presenting a direction. The control unit 100 uses a target position specifying unit 101 that specifies the position of a target, position information acquired using the position information acquiring unit 206, and information on the position of the specified target. Using target direction specifying means 102 for specifying a target direction that is the direction of an object, first difference detection means 103 for detecting a difference between the target direction and a reference direction of an electronic device, and the image information capturing means 204 Relative posture specifying means 106 for specifying a relative posture between the electronic device and the user's face from the captured image information, and based on the information on the specified target direction and the relative posture, the user's face orientation is used as a reference. A coordinate conversion means 107 for converting coordinates into the target direction, a second difference detection means 108 for detecting a difference between the target direction after the coordinate conversion and the target direction before the coordinate conversion, Based on the issued difference information, and an output unit control means 109 for controlling the output unit 300.

前記制御部100には、本例の電子機器10が携帯電話端末である場合、通話時の通話相手、目標物または場所等の方向提示機能を有効にするか、無効にするかの切替えソフトウエアを備えることもできる。これらのソフトウエアは、表示メニューやショートカットキーにより切り替え選択を可能としておくと、ユーザは必要に応じて切り替えることができる。   In the control unit 100, when the electronic device 10 of this example is a mobile phone terminal, switching software for enabling or disabling the direction presentation function of a call partner, a target, or a place during a call Can also be provided. These software can be switched as necessary if the switching selection is enabled by a display menu or a shortcut key.

通話時の通話相手や目標物や場所の前記方向提示機能が有効な場合には、位置情報取り込み手段206および方位情報取り込み手段207によって取り込まれる情報から、電子機器本体の地上に対する位置や姿勢が検出される。また、制御部100に備えられた目標位置特定手段101は、通話相手、目標物または場所等の目標位置を特定する。目標方向特定手段102は、前記電子機器本体の位置情報と前記特定された目標位置情報を用い、前記電子機器から目標への方向(目標方向)を特定する。   When the direction presentation function of the other party, target or place at the time of a call is valid, the position and orientation of the electronic device main body with respect to the ground are detected from the information captured by the position information capturing unit 206 and the direction information capturing unit 207. Is done. Further, the target position specifying means 101 provided in the control unit 100 specifies a target position such as a call partner, a target or a place. The target direction specifying means 102 uses the position information of the electronic device main body and the specified target position information to specify the direction from the electronic device to the target (target direction).

また、電子機器10本体の姿勢は、方位情報取り込み手段207により取り込んだ情報から確定される。電子機器10本体の基準方向(例えば、電子機器10のディスプレイの法線方向など)と、目標方向との差分を検出する、第1の差分検出手段103により、電子機器10本体の姿勢に応じた目標方向との差分を特定することができる。この差分に基づき、制御部100は出力部300を制御し、ユーザが目的の方向の認識を可能にする。   Further, the posture of the electronic device 10 main body is determined from the information captured by the orientation information capturing unit 207. A first difference detection unit 103 that detects a difference between a reference direction of the electronic device 10 main body (for example, a normal direction of the display of the electronic device 10) and a target direction according to the posture of the electronic device 10 main body. The difference from the target direction can be specified. Based on this difference, the control unit 100 controls the output unit 300 to allow the user to recognize the target direction.

図2は、本実施形態に係る電子機器の構成の一部を更に詳細に示した図である。制御部100には画像情報取り込み手段204が接続されている。前記画像情報取り込み手段204としては、カメラを使用することができるが、画像情報が取り込めるものであれば制限はなく、通話時のユーザの顔の特徴が写る位置に配置されていれば配置レイアウトにも制限はない。またこのカメラは複数であっても構わないし、通話時の画角がユーザの顔に特徴が写る角度に調整される制御がされていても良い。また、携帯電話では、通話時にユーザ側に面する表示画面側に搭載されるカメラの他に、自分以外の対象物を撮像する、表示画面の反対側に搭載されるカメラなど、複数で複数の画角を写すカメラが一般的に搭載されている。   FIG. 2 is a diagram showing a part of the configuration of the electronic apparatus according to the present embodiment in more detail. An image information capturing unit 204 is connected to the control unit 100. As the image information capturing means 204, a camera can be used, but there is no limitation as long as the image information can be captured. There is no limit. Further, there may be a plurality of cameras, and control may be performed so that the angle of view during a call is adjusted to an angle at which a feature appears on the user's face. In addition to the camera mounted on the display screen facing the user side during a call, the mobile phone captures a target object other than itself, such as a camera mounted on the opposite side of the display screen. A camera that captures the angle of view is generally installed.

位置情報取り込み手段206としては、GPSまたはGSMセルの測位、無線LAN(Wi−Fi)アクセスポイント位置からの推定や基地局を利用した測位など、ワイヤレスの基地局を使った位置情報システム等を使用することができる。また、手動で現在位置の設定をすることで、位置情報を取り込むこともできる。その他にも、位置が特定できる機能を有していれば制限はない。また、方位情報取り込み手段207は磁気センサを用いることができる。前記磁気センサは、地磁気などを検出し、電子機器の地球に対する方位を検出する。さらに、場合によっては重力を検出し、電子機器の姿勢を検出する必要がある場合も想定されるが、その場合は、重力方向情報取り込み手段208が制御部100に接続されており、情報を取り込むことが可能である。重力の検出には加速度センサを用いることができる。近年では、3軸の加速度センサが搭載され、重力だけでなく、動きや動作を検出して操作の代用に使われることができるようになってきた。   As the position information capturing means 206, a position information system using a wireless base station, such as positioning of a GPS or GSM cell, estimation from a wireless LAN (Wi-Fi) access point position, or positioning using a base station is used. can do. In addition, the position information can be taken in by manually setting the current position. In addition, there is no limitation as long as it has a function for specifying the position. Further, the azimuth information capturing means 207 can use a magnetic sensor. The magnetic sensor detects geomagnetism and the like, and detects the orientation of the electronic device with respect to the earth. Furthermore, in some cases, it is assumed that it is necessary to detect the gravity and detect the attitude of the electronic device. In this case, the gravity direction information capturing unit 208 is connected to the control unit 100 and captures information. It is possible. An acceleration sensor can be used for detecting gravity. In recent years, a three-axis acceleration sensor has been mounted, and not only gravity but also movements and movements can be detected and used as a substitute for operation.

ユーザの顔(視線)を目標の方向に誘導するために、制御部100には顔情報検出手段104、顔情報の方向別パターン記憶手段105が設けられている。さらに、前記顔情報検出手段104と、顔情報の方向別パターン記憶手段105に格納された顔情報の方向別パターン情報とを使い、ユーザと電子機器との相対位置や姿勢を特定するために相対姿勢特定手段106が設けられている。さらに、位置情報取り込み手段206から電子機器の位置を特定し、目標位置特定手段101を使い電子機器を基準とした通話相手や対象物など目標方向を特定する、目標方向特定手段102が設けられている。   In order to guide the user's face (line of sight) in the target direction, the control unit 100 is provided with face information detection means 104 and face information direction-specific pattern storage means 105. Further, using the face information detecting means 104 and the face information direction pattern information stored in the face information direction pattern storage means 105, the relative position and orientation of the user and the electronic device can be specified. Posture specifying means 106 is provided. Further, a target direction specifying unit 102 is provided for specifying the position of the electronic device from the position information capturing unit 206 and specifying the target direction such as a communication partner or object with reference to the electronic device using the target position specifying unit 101. Yes.

さらに、前述の相対姿勢特定手段106と電子機器を基準とした目標の方向から、ユーザの顔(視線)を基準とした目標の方向へ座標を変換する手段107があり、さらに、座標変換後のユーザの顔(視線)を基準とした目標方向データと、座標変換前の電子機器を基準とした目標方向データとの差分を検出する、第2の差分検出手段108が設けられている。   Furthermore, there is means 107 for converting coordinates from the above-described relative orientation specifying means 106 and the target direction based on the electronic device to the target direction based on the user's face (line of sight). Second difference detection means 108 is provided for detecting a difference between target direction data based on the user's face (line of sight) and target direction data based on the electronic device before coordinate conversion.

本実施形態においては、電子機器本体の制御部100には、他の機器と情報をやり取りする送受信手段202および記憶手段203が接続されている。この送受信手段202には、さらにアンテナ201が接続されている。本例では、無線による接続である形態を示したが、これに限定されず、有線による接続であってもよい。さらに制御部100には、他の機器とのI/F205が接続されている。前記他の機器とのI/F205としては、具体的には、USB、IEE1394、カードメモリスロット、IrDa、Bluetoothなどを用いることができる。また、その他のセンサ209が接続されている。その他のセンサ209としては、加速度センサ、温度センサ、湿度センサ、圧力センサおよび光センサなどをあげることができる。   In the present embodiment, a transmission / reception unit 202 and a storage unit 203 for exchanging information with other devices are connected to the control unit 100 of the electronic device main body. An antenna 201 is further connected to the transmission / reception means 202. In this example, although the form which is the connection by radio | wireless was shown, it is not limited to this, The connection by wire may be sufficient. Furthermore, an I / F 205 with other devices is connected to the control unit 100. Specifically, USB, IEEE1394, card memory slot, IrDa, Bluetooth, etc. can be used as the I / F 205 with the other device. In addition, other sensors 209 are connected. Examples of the other sensors 209 include an acceleration sensor, a temperature sensor, a humidity sensor, a pressure sensor, and an optical sensor.

出力部300には、前述のとおり、方向を提示する触覚(力覚)提示手段310が備えられている。前記触覚提示手段310としては、物理量の変化により、方向を提示するものであることが好ましい。例えば、振動(バイブレーション)を発生させる振動発生手段323は、携帯電話端末等の電子機器においては、着信等を通知する手段として一般に装備されている。本発明においては、この振動発生手段323を本発明の触覚提示手段として使用することもできる。例えば、通話中に所定方向を提示する場合、ユーザが目標とする方向に近づくにつれ、バイブレーションの間隔や大きさ、周波数や振動パターン等を変化させて、ユーザを所定方向に誘導することができる。一例として、目標方向が南側にある場合、ユーザが北を向くと連続的に振動が発生し、東または西を向くと、振動が断続的になり、南を向くと振動が止まる、というような提示方法が可能である。この場合、ユーザは、振動が止まった方向を向けばよい。   As described above, the output unit 300 includes the tactile sense (force sense) presentation unit 310 that presents a direction. It is preferable that the tactile sense presenting unit 310 presents a direction by changing a physical quantity. For example, vibration generating means 323 for generating vibration (vibration) is generally provided as means for notifying an incoming call or the like in an electronic device such as a mobile phone terminal. In the present invention, this vibration generating means 323 can also be used as the tactile sense presenting means of the present invention. For example, when a predetermined direction is presented during a call, the user can be guided in a predetermined direction by changing the vibration interval, size, frequency, vibration pattern, and the like as the user approaches the target direction. As an example, when the target direction is on the south side, the vibration continuously occurs when the user faces north, the vibration becomes intermittent when the user faces east or west, and the vibration stops when facing the south. A presentation method is possible. In this case, the user may turn in the direction in which the vibration has stopped.

また、前記触覚提示手段310として、熱を発生させる熱発生手段を用いることもできる。熱発生手段を用いた触覚提示手段の一例を説明する図を図3(a)に示す。本例の触覚提示手段310は、円形のパッド状に形成されており、発熱素子が埋め込まれている。前記制御部100から方向提示情報が出されると、前記触覚提示手段のその方向に対応した部分の発熱素子が発熱する。図3(a)においては、斜線を付した部分に触れることで、温感を感じることができ、この場合、図中の矢印方向が提示された方向であることを、ユーザに認識させることができる。   Further, as the tactile sense presenting means 310, heat generating means for generating heat can be used. FIG. 3A is a diagram for explaining an example of tactile sensation presentation means using heat generation means. The tactile sense presenting means 310 of this example is formed in a circular pad shape, and a heating element is embedded therein. When direction presenting information is output from the control unit 100, the heat generating elements corresponding to the direction of the tactile sense presenting means generate heat. In FIG. 3 (a), a warm feeling can be felt by touching the hatched portion, and in this case, the user can recognize that the direction of the arrow in the figure is the presented direction. it can.

また、前記触覚提示手段310として、回転動作をすることで方向の提示が可能なジョグダイヤル等をあげることができる。ジョグダイヤルを用いた触覚提示手段の一例を説明する図を図3(b−1)に示す。本例の触覚提示手段310は、回転可能なダイヤル状に形成されている。前記制御部100から方向提示情報が出されると、前記ジョグダイヤルは、ユーザに向かせたい方向に向かって回転する。図3(b−2)は、ジョグダイヤル付きの携帯電話で通話中のユーザの状態を上から見た模式図である。ユーザの向いている方向が提示方向と異なる場合、左図のようにジョグダイヤルが回転する。ユーザがジョグダイヤルの回転方向に従い、向きを変え、提示方向と同一方向に向くと、ジョグダイヤルの回転が止まる。この場合、ジョグダイヤルの回転が停止することで、図中の矢印方向が提示された方向であることを、ユーザに認識させることができる。   Further, as the tactile sense presenting means 310, a jog dial or the like capable of presenting a direction by rotating is exemplified. FIG. 3B-1 is a diagram for explaining an example of tactile sense presentation means using a jog dial. The tactile sense presenting means 310 of this example is formed in a rotatable dial shape. When direction presentation information is output from the control unit 100, the jog dial rotates in a direction desired to be directed to the user. FIG. 3B-2 is a schematic view of the state of the user who is talking on the mobile phone with a jog dial as seen from above. When the direction in which the user is facing differs from the presentation direction, the jog dial rotates as shown in the left figure. When the user changes the direction according to the rotation direction of the jog dial and faces in the same direction as the presentation direction, the rotation of the jog dial stops. In this case, by stopping the rotation of the jog dial, the user can recognize that the arrow direction in the figure is the presented direction.

前記触覚提示手段は、2次元以上の方向を提示するものであると、目標となる方向をダイレクトに提示できるため、好ましい。2次元以上の方向を提示する触覚提示手段としては、例えば、後述するジョイスティックやジョグボール等をあげることができる。   It is preferable that the tactile sensation presentation unit presents a direction of two or more dimensions because the target direction can be presented directly. Examples of the tactile sense presenting means for presenting a direction of two or more dimensions include a joystick and a jog ball which will be described later.

前記出力部300は、前記触覚提示手段310に、併せて、例えば、スピーカ320、表示手段321、発光手段322、振動発生手段323などを備えることができる。これらの各構成要素は、触覚提示手段310に併せて単独で用いてもよいし、複数を組み合わせて用いることもできる。例えば、前述の例において、提示された方向にユーザが向いたことを知らせるために、振動の停止やジョグダイヤルの回転の停止とともに、前記スピーカ320からアラーム音を発生させたり、前記発光手段322から光信号を発生させたりすることもできる。これらの手段を併用することで、ユーザへの方向提示をより確実に行うことができる。   The output unit 300 may include, for example, a speaker 320, a display unit 321, a light emitting unit 322, a vibration generating unit 323, and the like in addition to the tactile sense providing unit 310. Each of these components may be used alone or in combination with the tactile sense presenting means 310. For example, in the above-described example, in order to notify that the user is directed in the presented direction, an alarm sound is generated from the speaker 320 or light is emitted from the light emitting means 322 together with the stop of vibration or the rotation of the jog dial. A signal can also be generated. By using these means in combination, direction presentation to the user can be performed more reliably.

また、電子機器10は、音声取り込み手段410、操作部420などを備えるが、これらの実装構造については、周知の構造を採用することができるため詳細は省略する。   In addition, the electronic device 10 includes a voice capturing unit 410, an operation unit 420, and the like, but the details of the mounting structure are omitted because a known structure can be adopted.

前記制御部100は、カメラ等の画像情報取り込み手段204によって取り込まれる情報を取り込み、前記制御部100内にある顔情報検出手段104によって、例えば、顔の輪郭や、鼻、口などの特徴のある情報の抽出が行われる。この顔情報検出手段104により抽出された情報と、顔情報の方向別パターン記憶手段105に格納された情報とのパターンマッチングにより、通話時のユーザの顔(視線)と電子機器との相対位置または姿勢を特定する。その特定は、同じく制御部100内にある相対姿勢特定手段106により行われる。   The control unit 100 captures information captured by the image information capturing unit 204 such as a camera, and the face information detection unit 104 in the control unit 100 has features such as a face outline, a nose, and a mouth. Information is extracted. By the pattern matching between the information extracted by the face information detection unit 104 and the information stored in the pattern storage unit 105 according to the direction of the face information, Identify posture. The specification is performed by the relative posture specifying means 106 that is also in the control unit 100.

(実施形態2)
次に、画像を使った相対位置または姿勢の検出例を、図4から図7を用いて説明する。図4は、本発明の電子機器(携帯電話端末)の一例の概略斜視図である。図4(a)は、本例の電子機器を、表示面側(ディスプレイやタッチパネルのある側)から見た図であり、図4(b)は、背面側から見た図である。前記電子機器10は、スピーカ320、音声取り込み手段410および画像情報取り込み手段(カメラ)204を備えている。本例の電子機器10において、前記画像情報取り込み手段(カメラ)204は、前記音声取り込み手段410付近(通話時の口元付近)に取り付けられている。本図においては、折畳みタイプの携帯電話端末を例示したが、本発明の電子機器はこれに限定されず、ストレートタイプやスライドタイプのものであってもよい。また、本図においては、電子機器に通常備えられている、ディスプレイ部分や操作ボタンあるいはタッチパネル等の部材の表示は省略している。
(Embodiment 2)
Next, an example of detecting a relative position or posture using an image will be described with reference to FIGS. FIG. 4 is a schematic perspective view of an example of an electronic apparatus (mobile phone terminal) according to the present invention. FIG. 4A is a view of the electronic apparatus of this example as viewed from the display surface side (the side where the display or the touch panel is provided), and FIG. 4B is a view as viewed from the back side. The electronic device 10 includes a speaker 320, a sound capturing unit 410, and an image information capturing unit (camera) 204. In the electronic apparatus 10 of this example, the image information capturing means (camera) 204 is attached near the sound capturing means 410 (near the mouth during a call). Although the folding type mobile phone terminal is illustrated in this figure, the electronic apparatus of the present invention is not limited to this, and may be a straight type or a slide type. Further, in this drawing, display of members such as a display portion, operation buttons, and a touch panel, which are usually provided in an electronic device, is omitted.

図5は電子機器(携帯電話端末)10を左手で把持し左耳で受話している場合のユーザの頭部を示した模式図である。図5は、顔を前方向から見た斜視図であり、各々の下段に、前記電子機器の前記画像情報取り込み手段(カメラ)204から取り込まれる画像イメージを示している。各図は、耳のつけ当て部を中心にして、顔(視線)の向きと平行な面内において電子機器10を回転させた状態を示している。図6は、同じ電子機器(携帯電話端末)10を右手で把持し右耳で受話している場合のユーザの頭部を、図5と同様に示した模式図である。図5および図6において、各図共に電子機器の表示面の法線方向と、ユーザの顔(視線)方向とがほぼ直行した例を示している。   FIG. 5 is a schematic diagram showing the user's head when the electronic device (mobile phone terminal) 10 is held with the left hand and is listening with the left ear. FIG. 5 is a perspective view of the face as viewed from the front, and the lower part of each shows an image image captured from the image information capturing means (camera) 204 of the electronic device. Each drawing shows a state in which the electronic device 10 is rotated in a plane parallel to the direction of the face (line of sight) around the ear pad. FIG. 6 is a schematic diagram showing the user's head in the same manner as FIG. 5 when holding the same electronic device (mobile phone terminal) 10 with the right hand and listening with the right ear. 5 and 6 show examples in which the normal direction of the display surface of the electronic device and the user's face (line of sight) direction are almost orthogonal.

図5および図6の各々の中央の図は、電子機器が、標準的な状態で把持された場合を示している。図5左図および図6右図は、電子機器が、耳のつけ当て部を中心にして、手前側に回転した状態で把持された場合を示している。また、図5右図および図6左図は、電子機器が、耳のつけ当て部を中心にして、後ろ側に回転した状態で把持された場合を示している。前記画像情報取り込み手段(カメラ)204から取り込まれた画像は、前記制御部100内にある顔情報検出手段104によって、例えば、顎、口元、額の頂点といった特徴点の各部分を検出し、各部を結ぶ仮想線の角度情報を得る。この角度情報を、顔情報の方向別パターン記憶手段105に格納された角度情報とのパターンマッチングにより、通話時のユーザの顔(視線)と電子機器との相対位置または姿勢を特定することができる。その特定は、同じく制御部100内にある相対姿勢特定手段106により行われる。前記顔情報の方向別パターン記憶手段105には、予め、ユーザが電子機器を通話状態に構えた時の画像を取り込んでおく。取り込まれる画像は、顔、顔の一部または身体の一部でもよい。取り込んだ画像から、特徴点を抽出する。特徴点としては、顔の輪郭、鼻、口および頬等の顔の一部の輪郭、ホクロや皺等、ユーザの身体の部位を特定できるものであれば、適宜用いることができる。このように、予め作成しておいた通常の通話状態の画像情報と、新たに取得した画像情報とを用いて、その都度比較することによって、ユーザの顔の向きと電子機器との相対位置をリアルタイムで求めることができる。   Each of the central views of FIGS. 5 and 6 shows a case where the electronic apparatus is gripped in a standard state. The left diagram in FIG. 5 and the right diagram in FIG. 6 show a case where the electronic device is gripped in a state of being rotated to the near side with the ear fitting portion as the center. Moreover, the right figure of FIG. 5 and the left figure of FIG. 6 have shown the case where the electronic device is hold | gripped in the state rotated to the back side centering | focusing on the ear fitting part. For the image captured from the image information capturing means (camera) 204, the face information detecting means 104 in the control unit 100 detects each part of the feature points such as the chin, the mouth, and the vertex of the forehead. Get angle information of virtual line connecting The relative position or posture between the user's face (line of sight) and the electronic device during a call can be specified by pattern matching of this angle information with the angle information stored in the face information direction pattern storage means 105. . The specification is performed by the relative posture specifying means 106 that is also in the control unit 100. The face information direction pattern storage means 105 captures in advance an image when the user holds the electronic device in a talking state. The captured image may be a face, a part of the face, or a part of the body. Feature points are extracted from the captured image. Any feature points can be used as long as they can identify a part of the user's body, such as a face contour, a contour of a part of the face such as the nose, mouth and cheeks, a mole or a heel. In this way, by comparing each time using the image information of the normal call state created in advance and the newly acquired image information, the relative orientation between the user's face direction and the electronic device can be determined. Can be obtained in real time.

前記の予め作成する通常の通話状態の画像情報と、相対位置との紐付けは、ユーザと電子機器とが既知の方向に向いた状態で、画像を取り込むことで校正することができる(キャリブレーション)。例えば、ユーザが真北を向いて、電子機器を通話状態に構えた時の画像情報を取り込むことにより、電子機器自体も方向情報を有するため、ユーザが右手で電子機器を持ったときの画像と、左手で電子機器を持ったときの画像とを識別することが可能となる。さらに、特徴点を少なくとも3点以上識別することができれば、極座標変換により、通話時の通常の構えからの相対位置変化を算出することが可能となり、ユーザの顔の向きを基準とした方向提示が可能となる。   The association between the image information of the normal call state created in advance and the relative position can be calibrated by capturing an image with the user and the electronic device facing in a known direction (calibration). ). For example, since the electronic device itself also has direction information by capturing image information when the user faces true north and holds the electronic device in a call state, the image when the user holds the electronic device with the right hand It becomes possible to distinguish the image when the electronic device is held with the left hand. Furthermore, if at least three or more feature points can be identified, it is possible to calculate a relative position change from a normal stance during a call by polar coordinate conversion, and direction presentation based on the orientation of the user's face can be performed. It becomes possible.

前記特徴点の抽出には、カメラを用いることができるが、CCDやCMOSカメラでは、赤外線も認識するため、ホクロや皺等を際立てて検出することができる。その中の3点以上の位置を記録できれば、相似変形では距離を、回転角度では回転を、形状変形では面に対する平行度が変化したことが検出できるため、ユーザの顔に対してどのような姿勢で保持されているのかを、精度よく計算することができる。また、通話時の人の動きの速度を考慮すると、前記画像情報取り込み手段(カメラ)は常時作動している必要はなく、画像情報を間欠的に取り込むことでも使用可能である。   A camera can be used to extract the feature points. However, since a CCD or CMOS camera also recognizes infrared rays, moles and wrinkles can be detected prominently. If three or more positions can be recorded, it is possible to detect the distance in the similarity deformation, the rotation in the rotation angle, and the change in the parallelism to the surface in the shape deformation. Can be accurately calculated. In consideration of the speed of movement of a person during a call, the image information capturing means (camera) does not have to be constantly operated, and can be used by intermittently capturing image information.

前記顔情報の方向別パターン記憶手段105に記憶されるパターンは、一般的な特徴を基準としたデータテーブルとしておいてもよく、ユーザ本人の顔画像を直接取り込みテーブル化して画像マッチングに利用しても良い。   The pattern stored in the pattern information storage unit 105 according to the direction of the face information may be a data table based on general characteristics. The face image of the user himself / herself is directly taken into a table and used for image matching. Also good.

図7は左右方向に加えて重力の方向にユーザの顔(視線)の方向が変化した場合の模式図である。ユーザの向きや、3次元の位置情報特定が可能である場合、重力方向を考慮しなくてはならない場合もあり得る。この場合も、重力方向の情報を加味する他は、前記図5および図6を用いて説明した形態と同様に動作させることができる。   FIG. 7 is a schematic diagram when the direction of the user's face (line of sight) changes in the direction of gravity in addition to the left-right direction. If the user's orientation and three-dimensional position information can be specified, the direction of gravity may have to be taken into account. Also in this case, the operation can be performed in the same manner as described with reference to FIGS. 5 and 6 except that the information on the direction of gravity is taken into account.

電子機器と目標との位置関係を特定する際、ユーザの電子機器では位置情報取り込み手段206(通常はGPSが使われる)により特定され、通話相手などの目標の位置情報は、目標位置特定手段101により特定される。ただし、前提として、通話相手や目標には位置情報の開示を許可されていることが条件となる。目標位置特定手段101と位置情報取り込み手段206との情報から、電子機器を基準とした目標の方向が目標方向特定手段102により特定される。さらに前述のユーザの顔(視線)と電子機器との相対姿勢との情報により目的の場所や人物、通話相手の方向をユーザの顔(視線)を基準とした方向へ座標変換手段107により変換する。これにより、制御部100はユーザの顔(視線)を基準とした目標方向と電子機器本体を基準とした目標方向との差分を計算することが可能となる。この計算には制御部100内の第2の差分検出手段108によって実行される。3次元の座標変換については、座標ベクトル(要素数3)に対し、回転を表す行列(3×3)と平行移動のベクトル(要素数3)を加えることにより変換が可能である。また、地球上の方向を特定する計算に関しては、カーナビゲーションシステムなどで使われる球面三角法の手法を用いることができる。上記の検出された方向の差分に基づいて制御部100は出力部300の各出力手段を制御する。   When the positional relationship between the electronic device and the target is specified, the user's electronic device is specified by the position information capturing means 206 (normally GPS is used), and the target position information such as the call partner is the target position specifying means 101. Specified by. However, as a precondition, it is a condition that the other party or the target is permitted to disclose the position information. From the information of the target position specifying unit 101 and the position information capturing unit 206, the target direction with respect to the electronic device is specified by the target direction specifying unit 102. Further, the coordinate conversion means 107 converts the direction of the target place, person, and the other party to the direction based on the user's face (line of sight) based on the information on the relative face between the user's face (line of sight) and the electronic device. . Thereby, the control unit 100 can calculate the difference between the target direction based on the user's face (line of sight) and the target direction based on the electronic device main body. This calculation is executed by the second difference detection means 108 in the control unit 100. The three-dimensional coordinate conversion can be performed by adding a matrix (3 × 3) representing rotation and a translation vector (3 elements) to a coordinate vector (3 elements). As for the calculation for specifying the direction on the earth, a spherical trigonometric method used in a car navigation system or the like can be used. Based on the difference between the detected directions, the control unit 100 controls each output unit of the output unit 300.

図8に以上の動作をフローチャートで示す。目標物を検知すると、電子機器は、目標方向を検出し(S1)、ついで、電子機器自体の方向検出を行う(S2)。そして、ユーザの顔の一部等の画像情報を取り込む(S3)。取り込まれた画像情報は、予め取り込まれた既知の相対姿勢と画像とのテーブルの情報と比較され(S4)、ユーザの顔の向きと電子機器との相対位置の情報が得られる。求められた相対位置の情報から、ユーザの顔の向きを基準とした目標方向への変換がなされる(S5)。次のステップ(S6)においては、目標方向とユーザの顔の方向との差分があるか否かが判断される。前記差分がある(Yes)と判断された場合には、出力部制御手段が作動して、差分に応じた方向提示をするように(S7)、出力部に指示を出す。前記差分がない(No)と判断された場合には、方向提示は完了する(S8)。通話が引き続き行われ、さらに方向提示が必要な場合には、S2以降のステップが繰り返される。   FIG. 8 is a flowchart showing the above operation. When the target is detected, the electronic device detects the target direction (S1), and then detects the direction of the electronic device itself (S2). Then, image information such as a part of the user's face is captured (S3). The captured image information is compared with information of a table of known relative orientations and images captured in advance (S4), and information on the relative position between the user's face orientation and the electronic device is obtained. Conversion to the target direction based on the orientation of the user's face is performed from the information on the obtained relative position (S5). In the next step (S6), it is determined whether there is a difference between the target direction and the user's face direction. When it is determined that there is the difference (Yes), the output unit control means operates to give an instruction to the output unit so as to present a direction according to the difference (S7). When it is determined that there is no difference (No), the direction presentation is completed (S8). If the call is continued and further direction presentation is required, the steps after S2 are repeated.

(実施形態3)
本実施形態では、ユーザへの方向提示のその他の例について、前記触覚提示手段310が、2次元以上の方向を提示するものである形態を示す。2次元以上の方向を提示する触覚提示手段としては、ジョイスティックやジョグボール等をあげることができる。例えば、4方向に倒れるジョイスティックや、あらゆる方向に回転するジョグボールのような触覚提示手段310を使えば、ユーザの顔(視線)に対する目標となる方向へダイレクトに誘導することができる。また、方向提示に振動や、提示のタイミングなどの情報を付加することで、距離感なども提示することもできる。
(Embodiment 3)
In the present embodiment, as another example of the direction presentation to the user, the tactile sense presentation unit 310 presents a two-dimensional or higher direction. Examples of tactile sense presenting means for presenting directions of two or more dimensions include a joystick and a jog ball. For example, if a haptic presentation means 310 such as a joystick that falls in four directions or a jog ball that rotates in any direction is used, it can be guided directly to a target direction with respect to the user's face (line of sight). Further, by adding information such as vibration and presentation timing to the direction presentation, a sense of distance can be presented.

前記触覚提示手段310が、例えば、ジョイスティックである場合では、現在のユーザの顔(視線)の向きから目標の方向に最も近い方向にジョイスティックを傾斜させて提示したり、同様に図9に示すようなジョグボール310などを使って提示させることも可能である。また、2次元では表現出来ない方向に対しては、表現できる角度範囲に到達するまで、表示の領域限界まで方向を指定し、方向および量が表現できる範囲に到達したところからベクトル表現するなどの表示方法が考えられる。さらに、3次元での方向提示が可能である手段を用いれば、ユーザの姿勢や電子機器の把持状態に関わらずダイレクトに方向をベクトル表示することが可能となる。図9に示す例では、通話時にジョグボール310を人差し指で触れ、その回転方向を触覚により感じることでユーザは方向を読み取ることができる。   In the case where the tactile sense presenting means 310 is a joystick, for example, the joystick is presented by inclining the joystick in the direction closest to the target direction from the current user's face (line of sight) orientation, as shown in FIG. It is also possible to present using a jog ball 310 or the like. For directions that cannot be expressed in two dimensions, specify the direction up to the limit of the display area until the range of angles that can be expressed is reached, and vector expression from where the range of directions and quantities can be expressed, etc. A display method is conceivable. Furthermore, if a means capable of presenting a direction in three dimensions is used, the direction can be directly displayed as a vector regardless of the posture of the user and the gripping state of the electronic device. In the example shown in FIG. 9, the user can read the direction by touching the jog ball 310 with the index finger during a call and feeling the rotation direction by touch.

以上のように、本発明の電子機器によると、ユーザは電子機器本体に設けた基準に対する目標方向の差分を、触覚によってリアルタイムで知ることができるため、電子機器を使った目標方向のサーチが可能となる。また、ユーザが通話をしている状態で目的の場所や人物、通話相手の方向を提示された場合でも、電子機器が、ユーザの顔(視線)の向きと電子機器との相対位置関係や、相対する姿勢を認識することができる。したがって、ユーザの顔(視線)の向きを考慮した方向提示と、通話時の聴覚や、視覚を妨害しない方向提示機能を提供することができる。これにより、よりストレスのない通話時の方向提示サービスを提供できるという効果がある。   As described above, according to the electronic device of the present invention, the user can know the difference of the target direction with respect to the reference provided in the electronic device main body in real time by tactile sense, so the target direction can be searched using the electronic device. It becomes. In addition, even when the target location, person, and the direction of the other party of the call are presented while the user is making a call, the electronic device has a relative positional relationship between the direction of the user's face (line of sight) and the electronic device, The opposite posture can be recognized. Therefore, it is possible to provide a direction presentation function that takes into account the orientation of the user's face (line of sight) and a direction presentation function that does not interfere with hearing or visual perception during a call. Thereby, there is an effect that it is possible to provide a direction presentation service during a call without stress.

また、人混みでの待ち合わせでお互いの方向を確認できたり、面識の無い人同士が互いを識別できたり、目の不自由な人同士がお互いの方向を認識することもできるので、よりスムーズに待ち合わせを出来るなどの効果を奏する。さらに、通話相手や目標物、場所の方向が判ることで、より臨場感や感性に訴えるコミュニケーションも実現可能である。   In addition, it is possible to confirm each other's direction by waiting in crowds, people who are not acquainted can identify each other, and blind people can also recognize each other's direction, so they can meet more smoothly There are effects such as being able to. Furthermore, communication that appeals to a sense of reality and sensitivity can be realized by knowing the direction of the call partner, target, and location.

本発明は、例えば、携帯電話やPDA(Personal Digital Assistant、あるいは、Personal Data Assistance)、ノートPCなどの情報をやり取りする電子機器全般に適用でき、その用途は広い。   The present invention can be applied to all electronic devices that exchange information, such as mobile phones, PDAs (Personal Digital Assistants or Personal Data Assistance), and notebook PCs, and has a wide range of uses.

上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。   A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)位置情報取り込み手段、方位情報取り込み手段、ユーザの顔の少なくとも一部の画像情報を取り込む画像情報取り込み手段、制御部および出力部を備え、
前記各取り込み手段が、前記制御部に接続され、
前記制御部が、前記出力部に接続され、
前記制御部が、
目標物の位置を特定する目標位置特定手段と、
前記位置情報取り込み手段を用いて取り込まれた位置情報と、前記特定された目標物の位置の情報とから、目標物の方向である目標方向を特定する目標方向特定手段と、
前記目標方向と電子機器の基準方向との差分を検出する第1の差分検出手段と、
前記画像情報取り込み手段を用いて取り込まれた前記画像情報から電子機器とユーザの顔との相対姿勢を特定する相対姿勢特定手段と、
前記特定された目標方向と前記相対姿勢の情報に基づき、ユーザの顔の向きを基準とした目標方向に座標を変換する座標変換手段と、
前記座標変換後の目標方向と座標変換前の目標方向との差分を検出する第2の差分検出手段と、
前記検出された差分情報に基づき、前記出力部を制御する出力部制御手段とを備え、
前記出力部が、方向を提示する触覚提示手段を備える
ことを特徴とする電子機器。
(Supplementary Note 1) A position information capturing unit, an orientation information capturing unit, an image information capturing unit that captures image information of at least a part of the user's face, a control unit, and an output unit.
Each capturing means is connected to the control unit,
The control unit is connected to the output unit;
The control unit is
Target position specifying means for specifying the position of the target;
Target direction specifying means for specifying a target direction which is the direction of the target object from the position information acquired using the position information acquisition means and the position information of the specified target object;
First difference detection means for detecting a difference between the target direction and a reference direction of the electronic device;
Relative posture specifying means for specifying the relative posture between the electronic device and the user's face from the image information captured using the image information capturing means;
Coordinate conversion means for converting coordinates to a target direction based on the orientation of the user's face based on the specified target direction and the relative posture information;
Second difference detection means for detecting a difference between the target direction after the coordinate conversion and the target direction before the coordinate conversion;
Output unit control means for controlling the output unit based on the detected difference information,
The electronic device, wherein the output unit includes tactile sense presenting means for presenting a direction.

(付記2)前記出力部制御手段が、前記差分が検出された場合に作動することを特徴とする、付記1に記載の電子機器。 (Supplementary note 2) The electronic apparatus according to Supplementary note 1, wherein the output unit control means operates when the difference is detected.

(付記3)前記触覚提示手段が、物理量の変化により方向を提示するものであることを特徴とする、付記1または2に記載の電子機器。 (Supplementary note 3) The electronic apparatus according to Supplementary note 1 or 2, wherein the tactile sense presenting means presents a direction by a change in physical quantity.

(付記4)前記触覚提示手段が、振動発生手段であることを特徴とする、付記1から3のいずれかに記載の電子機器。 (Supplementary note 4) The electronic device according to any one of supplementary notes 1 to 3, wherein the tactile sense presenting means is a vibration generating means.

(付記5)前記触覚提示手段が、熱発生手段であることを特徴とする、付記1から4のいずれかに記載の電子機器。 (Supplementary note 5) The electronic apparatus according to any one of supplementary notes 1 to 4, wherein the tactile sense presenting means is a heat generating means.

(付記6)前記触覚提示手段が、ジョグダイヤルであることを特徴とする、付記1から5のいずれかに記載の電子機器。 (Supplementary note 6) The electronic device according to any one of supplementary notes 1 to 5, wherein the tactile sense presenting means is a jog dial.

(付記7)前記触覚提示手段が、2次元以上の方向を提示するものであることを特徴とする、付記1から6のいずれかに記載の電子機器。 (Supplementary note 7) The electronic device according to any one of supplementary notes 1 to 6, wherein the tactile sense presenting means presents a direction of two or more dimensions.

(付記8)前記触覚提示手段が、ジョイスティックであることを特徴とする、付記7に記載の電子機器。 (Supplementary note 8) The electronic device according to supplementary note 7, wherein the tactile sense presenting means is a joystick.

(付記9)前記触覚提示手段が、ジョグボールであることを特徴とする、付記7に記載の電子機器。 (Supplementary note 9) The electronic apparatus according to supplementary note 7, wherein the tactile sense presenting means is a jog ball.

(付記10)前記位置情報取り込み手段が、GPSまたはGSMセルの測位、無線LAN(Wi−Fi)アクセスポイント位置からの推定、基地局を利用した測位、および、手動での現在位置の設定から選ばれる方法によって位置情報の取り込みをする手段であることを特徴とする、付記1から9のいずれかに記載の電子機器。 (Supplementary Note 10) The position information capturing means is selected from GPS or GSM cell positioning, wireless LAN (Wi-Fi) access point position estimation, positioning using a base station, and manual current position setting. 10. The electronic device according to any one of appendices 1 to 9, wherein the electronic device is means for capturing position information by a method.

(付記11)前記制御部が、前記画像情報から特徴点を抽出する手段を有することを特徴とする、付記1から10のいずれかに記載の電子機器。 (Additional remark 11) The said control part has a means to extract a feature point from the said image information, The electronic device in any one of Additional remark 1 to 10 characterized by the above-mentioned.

(付記12)前記画像情報取り込み手段が、間欠的に画像情報を取り込むことを特徴とする、付記1から11のいずれかに記載の電子機器。 (Supplementary note 12) The electronic apparatus according to any one of Supplementary notes 1 to 11, wherein the image information capturing unit intermittently captures image information.

(付記13)前記画像情報取り込み手段がカメラであることを特徴とする、付記1から12のいずれかに記載の電子機器。 (Supplementary note 13) The electronic apparatus according to any one of Supplementary notes 1 to 12, wherein the image information capturing means is a camera.

(付記14)前記相対姿勢特定手段が、前記画像情報と、予め取得した基準方向の画像情報とを比較する手段を有していることを特徴とする、付記1から13のいずれかに記載の電子機器。 (Additional remark 14) The said relative attitude | position identification means has a means to compare the said image information with the image information of the reference direction acquired previously, The additional remark 1 to 13 characterized by the above-mentioned. Electronics.

(付記15)付記1から14のいずれかに記載の電子機器を使用し、
位置情報取り込み工程、方位情報取り込み工程、ユーザの顔の少なくとも一部の画像情報を取り込む画像情報取り込み工程、制御工程および出力工程を備え、
前記制御工程が、
目標物の位置を特定する目標位置特定工程と、
前記位置情報取り込み工程において取り込まれた位置情報と、前記特定された目標物の位置の情報とから、目標物の方向である目標方向を特定する目標方向特定工程と、
前記目標方向と電子機器の基準方向との差分を検出する第1の差分検出工程と、
前記画像情報取り込み工程を用いて取り込まれた前記画像情報から電子機器とユーザの顔との相対姿勢を特定する相対姿勢特定工程と、
前記特定された目標方向と前記相対姿勢の情報に基づき、ユーザの顔の向きを基準とした目標方向に座標を変換する座標変換工程と、
前記座標変換後の目標方向と座標変換前の目標方向との差分を検出する第2の差分検出工程と、
前記検出された差分情報に基づき、前記出力部を制御する出力部制御工程とを備え、
前記出力工程が、方向を提示する触覚提示工程を備える
ことを特徴とする電子機器の方向提示方法。
(Appendix 15) Using the electronic device according to any one of Appendices 1 to 14,
A position information capturing process, an orientation information capturing process, an image information capturing process for capturing at least part of image information of the user's face, a control process, and an output process;
The control step is
A target position identifying step for identifying the position of the target;
A target direction specifying step for specifying a target direction which is a direction of the target from the position information acquired in the position information capturing step and the information of the position of the specified target;
A first difference detection step of detecting a difference between the target direction and a reference direction of the electronic device;
A relative posture identifying step for identifying a relative posture between the electronic device and the user's face from the image information captured using the image information capturing step;
A coordinate conversion step of converting coordinates into a target direction based on the orientation of the user's face based on the specified target direction and the relative posture information;
A second difference detection step of detecting a difference between the target direction after the coordinate conversion and the target direction before the coordinate conversion;
An output unit control step for controlling the output unit based on the detected difference information,
The electronic device direction presentation method, wherein the output step includes a tactile sense presentation step of presenting a direction.

(付記16)前記出力部制御工程が、前記差分が検出された場合に実行されることを特徴とする、付記15に記載の電子機器の方向提示方法。 (Additional remark 16) The said output part control process is performed when the said difference is detected, The direction presentation method of the electronic device of Additional remark 15 characterized by the above-mentioned.

(付記17)前記触覚提示工程が、物理量の変化により方向を提示する工程であることを特徴とする、付記15または16に記載の電子機器の方向提示方法。 (Additional remark 17) The direction presentation method of the electronic device of Additional remark 15 or 16 characterized by the said tactile sense presentation process being a process of presenting a direction by the change of physical quantity.

(付記18)前記触覚提示工程が、振動発生工程であることを特徴とする、付記15から17のいずれかに記載の電子機器の方向提示方法。 (Supplementary note 18) The electronic device direction presentation method according to any one of supplementary notes 15 to 17, wherein the tactile sense presentation step is a vibration generation step.

(付記19)前記触覚提示工程が、熱発生工程であることを特徴とする、付記15から18のいずれかに記載の電子機器の方向提示方法。 (Supplementary note 19) The electronic device direction presentation method according to any one of supplementary notes 15 to 18, wherein the tactile sense presentation step is a heat generation step.

(付記20)前記触覚提示工程が、2次元以上の方向を提示する工程であることを特徴とする、付記15から19のいずれかに記載の電子機器の方向提示方法。 (Supplementary note 20) The electronic device direction presentation method according to any one of supplementary notes 15 to 19, wherein the tactile sense presentation step is a step of presenting a direction of two or more dimensions.

(付記21)前記位置情報取り込み工程が、GPSまたはGSMセルの測位、無線LAN(Wi−Fi)アクセスポイント位置からの推定、基地局を利用した測位、および、手動での現在位置の設定から選ばれる方法によって位置情報の取り込みをする工程であることを特徴とする、付記15から20のいずれかに記載の電子機器の方向提示方法。 (Supplementary note 21) The position information capturing step is selected from GPS or GSM cell positioning, estimation from a wireless LAN (Wi-Fi) access point position, positioning using a base station, and manual setting of the current position The electronic device direction presentation method according to any one of appendices 15 to 20, characterized in that it is a step of acquiring position information by a method described above.

(付記22)前記制御工程が、前記画像情報から特徴点を抽出する工程を有することを特徴とする、付記15から21のいずれかに記載の電子機器の方向提示方法。 (Supplementary note 22) The electronic device direction presentation method according to any one of supplementary notes 15 to 21, wherein the control step includes a step of extracting a feature point from the image information.

(付記23)前記画像情報取り込み工程が、間欠的に画像情報を取り込む工程であることを特徴とする、付記15から22のいずれかに記載の電子機器の方向提示方法。 (Supplementary Note 23) The electronic device direction presentation method according to any one of Supplementary Notes 15 to 22, wherein the image information capturing step is a step of intermittently capturing image information.

(付記24)前記相対姿勢特定工程が、前記画像情報と、予め取得した基準方向の画像情報とを比較する工程を有していることを特徴とする、付記15から23のいずれかに記載の電子機器の方向提示方法。 (Additional remark 24) The said relative attitude | position identification process has the process of comparing the said image information and the image information of the reference direction acquired previously, The additional description 15 to 23 characterized by the above-mentioned. The direction presentation method of electronic equipment.

(付記25)付記15から24のいずれかに記載の電子機器の方向提示方法を、電子機器上で実行可能なことを特徴とするプログラム。 (Additional remark 25) The program which can perform the direction presentation method of the electronic device in any one of Additional remarks 15 to 24 on an electronic device.

(付記26)付記15から24のいずれかに記載の電子機器の方向提示方法による方向提示機能を提供することを特徴とする電子機器の方向提示システム。 (Supplementary note 26) A direction presentation system for an electronic device, which provides a direction presentation function according to the direction presentation method for an electronic device according to any one of Supplementary notes 15 to 24.

10 電子機器(携帯電話端末)
100 制御部
101 目標位置特定手段
102 目標方向特定手段
103 (本体基準方向と目標方向との)第1の差分検出手段
104 顔情報検出手段
105 顔情報の方向別パターン記憶手段
106 相対姿勢特定手段
107 (端末基準からユーザの顔の向き基準へ)座標変換手段
108 (ユーザの顔の向きと目標方向との)第2の差分検出手段
109 出力部制御手段
201 アンテナ
202 送受信手段
203 記憶手段
204 画像情報取り込み手段(カメラ)
205 他の機器とのI/F
206 位置情報取り込み手段
207 方位情報取り込み手段
208 重力方向情報取り込み手段
209 その他のセンサ
300 出力部
310 触覚提示手段(ジョグボール)
320 スピーカ
321 表示手段
322 発光手段
323 振動発生手段
410 音声取り込み手段
420 操作部
10 Electronic devices (mobile phone terminals)
DESCRIPTION OF SYMBOLS 100 Control part 101 Target position specific | specification means 102 Target direction specific | specification means 103 1st difference detection means 104 (Body reference direction and target direction) Face information detection means 105 Pattern information means 106 according to direction of face information Relative attitude | position specific means 107 (From terminal reference to user face orientation reference) coordinate conversion means 108 (difference between user face direction and target direction) second difference detection means 109 output unit control means 201 antenna 202 transmission / reception means 203 storage means 204 image information Capture means (camera)
205 I / F with other devices
206 Position information capturing unit 207 Direction information capturing unit 208 Gravity direction information capturing unit 209 Other sensor 300 Output unit 310 Tactile sense presenting unit (jog ball)
320 Speaker 321 Display unit 322 Light emitting unit 323 Vibration generating unit 410 Audio capturing unit 420 Operation unit

Claims (10)

位置情報取り込み手段、方位情報取り込み手段、ユーザの顔の少なくとも一部の画像情報を取り込む画像情報取り込み手段、制御部および出力部を備え、
前記各取り込み手段が、前記制御部に接続され、
前記制御部が、前記出力部に接続され、
前記制御部が、
目標物の位置を特定する目標位置特定手段と、
前記位置情報取り込み手段を用いて取り込まれた位置情報と、前記特定された目標物の位置の情報とから、目標物の方向である目標方向を特定する目標方向特定手段と、
前記目標方向と電子機器の基準方向との差分を検出する第1の差分検出手段と、
前記画像情報取り込み手段を用いて取り込まれた前記画像情報から電子機器とユーザの顔との相対姿勢を特定する相対姿勢特定手段と、
前記特定された目標方向と前記相対姿勢の情報に基づき、ユーザの顔の向きを基準とした目標方向に座標を変換する座標変換手段と、
前記座標変換後の目標方向と座標変換前の目標方向との差分を検出する第2の差分検出手段と、
前記検出された差分情報に基づき、前記出力部を制御する出力部制御手段とを備え、
前記出力部が、方向を提示する触覚提示手段を備える
ことを特徴とする電子機器。
Position information capturing means, orientation information capturing means, image information capturing means for capturing image information of at least a part of the user's face, a control unit and an output unit,
Each capturing means is connected to the control unit,
The control unit is connected to the output unit;
The control unit is
Target position specifying means for specifying the position of the target;
Target direction specifying means for specifying a target direction which is the direction of the target object from the position information acquired using the position information acquisition means and the position information of the specified target object;
First difference detection means for detecting a difference between the target direction and a reference direction of the electronic device;
Relative posture specifying means for specifying the relative posture between the electronic device and the user's face from the image information captured using the image information capturing means;
Coordinate conversion means for converting coordinates to a target direction based on the orientation of the user's face based on the specified target direction and the relative posture information;
Second difference detection means for detecting a difference between the target direction after the coordinate conversion and the target direction before the coordinate conversion;
Output unit control means for controlling the output unit based on the detected difference information,
The electronic device, wherein the output unit includes tactile sense presenting means for presenting a direction.
前記出力部制御手段が、前記差分が検出された場合に作動することを特徴とする、請求項1記載の電子機器。 The electronic apparatus according to claim 1, wherein the output unit control unit operates when the difference is detected. 前記触覚提示手段が、物理量の変化により方向を提示するものであることを特徴とする、請求項1または2に記載の電子機器。 The electronic device according to claim 1, wherein the tactile sense presenting unit presents a direction by a change in physical quantity. 前記触覚提示手段が、2次元以上の方向を提示するものであることを特徴とする、請求項1から3のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 3, wherein the tactile sense presenting unit presents a direction of two or more dimensions. 前記制御部が、前記画像情報から特徴点を抽出する手段を有することを特徴とする、請求項1から4のいずれか一項に記載の電子機器。 5. The electronic apparatus according to claim 1, wherein the control unit includes means for extracting a feature point from the image information. 前記画像情報取り込み手段が、間欠的に画像情報を取り込むことを特徴とする、請求項1から5のいずれか一項に記載の電子機器。 The electronic apparatus according to claim 1, wherein the image information capturing unit intermittently captures image information. 前記相対姿勢特定手段が、前記画像情報と、予め取得した基準方向の画像情報とを比較する手段を有していることを特徴とする、請求項1から6のいずれか一項に記載の電子機器。 The electronic device according to claim 1, wherein the relative posture specifying unit includes a unit that compares the image information with image information in a reference direction acquired in advance. machine. 請求項1から7のいずれか一項に記載の電子機器を使用し、
位置情報取り込み工程、方位情報取り込み工程、ユーザの顔の少なくとも一部の画像情報を取り込む画像情報取り込み工程、制御工程および出力工程を備え、
前記制御工程が、
目標物の位置を特定する目標位置特定工程と、
前記位置情報取り込み工程において取り込まれた位置情報と、前記特定された目標物の位置の情報とから、目標物の方向である目標方向を特定する目標方向特定工程と、
前記目標方向と電子機器の基準方向との差分を検出する第1の差分検出工程と、
前記画像情報取り込み工程を用いて取り込まれた前記画像情報から電子機器とユーザの顔との相対姿勢を特定する相対姿勢特定工程と、
前記特定された目標方向と前記相対姿勢の情報に基づき、ユーザの顔の向きを基準とした目標方向に座標を変換する座標変換工程と、
前記座標変換後の目標方向と座標変換前の目標方向との差分を検出する第2の差分検出工程と、
前記検出された差分情報に基づき、前記出力部を制御する出力部制御工程とを備え、
前記出力工程が、方向を提示する触覚提示工程を備える
ことを特徴とする電子機器の方向提示方法。
Using the electronic device according to any one of claims 1 to 7,
A position information capturing process, an orientation information capturing process, an image information capturing process for capturing at least part of image information of the user's face, a control process, and an output process;
The control step is
A target position identifying step for identifying the position of the target;
A target direction specifying step for specifying a target direction which is a direction of the target from the position information acquired in the position information capturing step and the information of the position of the specified target;
A first difference detection step of detecting a difference between the target direction and a reference direction of the electronic device;
A relative posture identifying step for identifying a relative posture between the electronic device and the user's face from the image information captured using the image information capturing step;
A coordinate conversion step of converting coordinates into a target direction based on the orientation of the user's face based on the specified target direction and the relative posture information;
A second difference detection step of detecting a difference between the target direction after the coordinate conversion and the target direction before the coordinate conversion;
An output unit control step for controlling the output unit based on the detected difference information,
The electronic device direction presentation method, wherein the output step includes a tactile sense presentation step of presenting a direction.
請求項8記載の電子機器の方向提示方法を、電子機器上で実行可能なことを特徴とするプログラム。   9. A program capable of executing the electronic device direction presentation method according to claim 8 on the electronic device. 請求項8記載の電子機器の方向提示方法による方向提示機能を提供することを特徴とする電子機器の方向提示システム。   9. A direction presentation system for an electronic device, which provides a direction presentation function according to the direction presentation method for an electronic device according to claim 8.
JP2010068098A 2010-03-24 2010-03-24 Electronic apparatus, direction presenting method for electronic apparatus, program and direction presenting system for electronic apparatus Withdrawn JP2011205206A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010068098A JP2011205206A (en) 2010-03-24 2010-03-24 Electronic apparatus, direction presenting method for electronic apparatus, program and direction presenting system for electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010068098A JP2011205206A (en) 2010-03-24 2010-03-24 Electronic apparatus, direction presenting method for electronic apparatus, program and direction presenting system for electronic apparatus

Publications (1)

Publication Number Publication Date
JP2011205206A true JP2011205206A (en) 2011-10-13

Family

ID=44881425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010068098A Withdrawn JP2011205206A (en) 2010-03-24 2010-03-24 Electronic apparatus, direction presenting method for electronic apparatus, program and direction presenting system for electronic apparatus

Country Status (1)

Country Link
JP (1) JP2011205206A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502349A (en) * 2010-11-10 2014-01-30 クアルコム,インコーポレイテッド Tactile-based personal navigation
JP2019508131A (en) * 2016-02-19 2019-03-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for processing a body part

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502349A (en) * 2010-11-10 2014-01-30 クアルコム,インコーポレイテッド Tactile-based personal navigation
US9335181B2 (en) 2010-11-10 2016-05-10 Qualcomm Incorporated Haptic based personal navigation
US9733086B2 (en) 2010-11-10 2017-08-15 Qualcomm Incorporated Haptic based personal navigation
JP2019508131A (en) * 2016-02-19 2019-03-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for processing a body part

Similar Documents

Publication Publication Date Title
US8619152B2 (en) Mobile terminal and operating method thereof
US8761590B2 (en) Mobile terminal capable of providing multiplayer game and operating method thereof
US10380776B2 (en) Glass-type mobile terminal
KR20160148374A (en) Mobile terminal and method of controlling the same
US20190043038A1 (en) Mobile device and control method therefor
KR20160141458A (en) Mobile terminal
KR20180014504A (en) Mobile terminal and operating method thereof
US10348970B2 (en) Mobile terminal and method of operating the same
KR20180039529A (en) Mobile terminal and operating method thereof
US10628024B2 (en) Method for setting guidelines for an omnidirectional image based on user gestures on a touch screen
KR20170130952A (en) Mobile terminal and method for controlling the same
KR20170089653A (en) Mobile terminal and method for controlling the same
KR20170143384A (en) Mobile terminal and method for controlling the same
CN110349527B (en) Virtual reality display method, device and system and storage medium
CN116871982A (en) Device and method for detecting spindle of numerical control machine tool and terminal equipment
CN113160031B (en) Image processing method, device, electronic equipment and storage medium
CN112396076A (en) License plate image generation method and device and computer storage medium
US10375380B2 (en) Mobile terminal and operating method thereof
US20180048815A1 (en) Mobile terminal and operating method thereof
KR20190018906A (en) Mobile terminal for rendering virtual organs in augmented/virtual reality and system thereof
CN110213205B (en) Verification method, device and equipment
KR20160001229A (en) Mobile terminal and method for controlling the same
KR101749393B1 (en) Watch-type mobile terminal and dispaying method thereof
JP2011205206A (en) Electronic apparatus, direction presenting method for electronic apparatus, program and direction presenting system for electronic apparatus
JP2011205205A (en) Electronic apparatus, direction presenting method for electronic apparatus, program and direction presenting system for electronic apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604