JP2014002464A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2014002464A
JP2014002464A JP2012135943A JP2012135943A JP2014002464A JP 2014002464 A JP2014002464 A JP 2014002464A JP 2012135943 A JP2012135943 A JP 2012135943A JP 2012135943 A JP2012135943 A JP 2012135943A JP 2014002464 A JP2014002464 A JP 2014002464A
Authority
JP
Japan
Prior art keywords
user
unit
information
output
external device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012135943A
Other languages
Japanese (ja)
Inventor
Osamu Kamide
将 上出
Shunichi Izumitani
俊一 泉谷
Hirokazu Dobashi
広和 土橋
Chihiro Tsukamoto
千尋 塚本
Michiyo Ogawa
倫代 小川
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012135943A priority Critical patent/JP2014002464A/en
Priority to PCT/JP2013/062114 priority patent/WO2013187138A1/en
Priority to CN201810603973.2A priority patent/CN109101106B/en
Priority to CN201380031196.4A priority patent/CN104364736B/en
Priority to US14/408,131 priority patent/US20150145763A1/en
Publication of JP2014002464A publication Critical patent/JP2014002464A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic device capable of improving the user-friendliness of a device.SOLUTION: An electronic device (10) comprises: an input unit (620) that inputs information on the use of a device by a user; a communication unit (20) that performs proximity communication or human body communication with an external device; and an output unit (640) that, when the communication unit communicates with the external device, outputs at least one of information output by the external device and an output mode of the information output by the external device to the external device on the basis of the information on the use of the device by the user.

Description

本発明は、電子機器に関する。   The present invention relates to an electronic device.

従来から、機器に対する説明(ガイダンス)を受けるための様々な方法が提案されている。例えば、特許文献1には、人体通信を利用したガイダンスシステムが提案されている。この特許文献1のガイダンスシステムでは、ユーザがヘルプスイッチに触れつつガイダンスを受けたい機器に触れることで、ヘルプスイッチと機器との間の人体通信が成立するので、ガイダンス制御装置は、当該人体通信の成立に応じて、機器に関するガイダンスをユーザに提供する。   Conventionally, various methods for receiving an explanation (guidance) for a device have been proposed. For example, Patent Document 1 proposes a guidance system using human body communication. In the guidance system of Patent Document 1, since the human body communication between the help switch and the device is established when the user touches the device that the user wants to receive the guidance while touching the help switch, the guidance control device The guidance regarding the device is provided to the user according to the establishment.

特開2010−003012号公報JP 2010-003012 A

しかしながら、従来のガイダンスシステムでは、ユーザは、ガイダンスを受けるためにヘルプスイッチとガイダンスを受けたい機器との両方に意識的に触れる必要があり、使い勝手がよいものではなかった。   However, in the conventional guidance system, the user needs to consciously touch both the help switch and the device that wants to receive the guidance in order to receive the guidance, which is not convenient.

そこで、本発明は上記の課題に鑑みてなされたものであり、機器の使い勝手を向上させることが可能な電子機器を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to provide an electronic device that can improve the usability of the device.

本発明の電子機器(10)は、ユーザの機器の使用に関する情報を入力する入力部(620)と、外部機器と近接通信または人体通信を行う通信部(20)と、前記通信部が前記外部機器と通信した場合に、前記ユーザの機器の使用に関する情報に基づいて、前記外部機器が出力する情報及び前記外部機器が出力する情報の出力態様の少なくとも一方を、前記外部機器に出力する出力部(640)とを備えている。   The electronic device (10) of the present invention includes an input unit (620) for inputting information related to the use of the user's device, a communication unit (20) for performing near field communication or human body communication with an external device, and the communication unit being the external device. An output unit that outputs to the external device at least one of information output from the external device and information output from the external device based on information on use of the user's device when communicating with the device (640).

また、本発明の電子機器では、前記出力部は、前記入力部が入力した前記ユーザの使用言語に基づき、前記外部機器が出力する情報及び前記外部機器が出力する情報の出力態様の少なくとも一方を前記外部機器に出力してもよい。また、本発明の電子機器は、前記機器を使用している前記ユーザを撮像する撮像部(40)と、前記撮像部の撮像結果に基づいて前記ユーザの属性を検出する属性検出部(613)と、を備え、前記出力部は、前記ユーザの属性に応じた情報の出力及び前記ユーザの属性に応じた態様での情報出力の少なくとも一方を前記外部機器に出力してもよい。   In the electronic device of the present invention, the output unit outputs at least one of information output from the external device and information output from the external device based on the language used by the user input by the input unit. You may output to the said external apparatus. The electronic device according to the present invention includes an imaging unit (40) that images the user who is using the device, and an attribute detection unit (613) that detects the attribute of the user based on an imaging result of the imaging unit. The output unit may output at least one of information output according to the user attribute and information output in a mode according to the user attribute to the external device.

また、本発明の電子機器は、表示を行う表示部(12)を備え、前記ユーザの機器の使用に関する情報は、前記ユーザの前記表示部の使用状態に関する情報を含み、前記出力部は、前記入力部が入力した前記ユーザの前記表示部の使用状態に関する情報を前記外部機器に出力してもよい。また、本発明の電子機器は、音声を出力する音声出力部(19)を備え、前記ユーザの機器の使用に関する情報は、前記ユーザの前記音声出力部の使用状態に関する情報を含み、前記出力部は、前記入力部が入力した前記ユーザの前記音声出力部の使用状態に関する情報を前記外部機器に出力してもよい。   Moreover, the electronic device of the present invention includes a display unit (12) for performing display, the information regarding the use of the user's device includes information regarding the use state of the display unit of the user, and the output unit includes the Information regarding a usage state of the display unit of the user input by the input unit may be output to the external device. In addition, the electronic device of the present invention includes a sound output unit (19) that outputs sound, and the information related to use of the user device includes information related to a use state of the sound output unit of the user, and the output unit May output information related to a usage state of the voice output unit of the user input by the input unit to the external device.

さらに、本発明の電子機器は、電子的な支払いを行う支払部を備え、前記ユーザの機器の使用に関する情報は、前記支払部で使用された前記ユーザの使用通貨に関する情報を含み、前記出力部は、前記入力部が入力した前記ユーザの使用通貨に関する情報を前記外部機器に出力してもよい。また、本発明の電子機器では、前記出力部は、前記ユーザの使用言語に基づき、習慣に関する情報を出力してもよい。また、本発明の電子機器は、前記ユーザの機器の使用に関する情報を記憶する記憶部(50)を備えていてもよい。   Furthermore, the electronic device of the present invention includes a payment unit that performs electronic payment, and the information related to the use of the user's device includes information related to the user's currency used in the payment unit, and the output unit May output information related to the user's currency used by the input unit to the external device. Moreover, in the electronic device of the present invention, the output unit may output information on habits based on the language used by the user. Moreover, the electronic device of this invention may be provided with the memory | storage part (50) which memorize | stores the information regarding use of the said user's apparatus.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at positions where the functions can be achieved.

本発明の電子機器は、機器の使い勝手を向上させることができるという効果を奏する。   The electronic device of the present invention has an effect that the usability of the device can be improved.

一実施形態に係る情報処理システムの構成を示す図である。It is a figure showing composition of an information processing system concerning one embodiment. 一実施形態に係る情報処理システムの使用例を模式的に示す図である。It is a figure which shows typically the usage example of the information processing system which concerns on one Embodiment. 図3(A)は、携帯機器が記憶する携帯機器の仕様及び使用情報の一例を示す図であり、図3(B)は、携帯機器が記憶する外部機器の仕様及び使用情報の一例を示す図である。FIG. 3A is a diagram illustrating an example of specifications and usage information of a portable device stored in the portable device, and FIG. 3B is an example of specifications and usage information of an external device stored in the portable device. FIG. 携帯機器の制御部のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the control part of a portable apparatus. 携帯機器の制御部が備える機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function with which the control part of a portable device is provided. 携帯機器の制御部が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the control part of a portable device performs.

以下、一実施形態に係る情報処理システムについて、図1〜図6に基づいて詳細に説明する。本実施形態の情報処理システムは、携帯機器が取得した、ユーザの機器の使用に関する情報に基づき、パーソナルコンピュータ(以下、パソコンと略す)やデジタルカメラなどの情報家電の操作性を向上させるシステムである。   Hereinafter, an information processing system according to an embodiment will be described in detail with reference to FIGS. The information processing system according to the present embodiment is a system that improves the operability of information home appliances such as a personal computer (hereinafter abbreviated as a personal computer) and a digital camera based on information about the use of a user's device acquired by a mobile device. .

図1には、本実施形態に係る情報処理システム1の構成が示されている。また、図2には、情報処理システム1の使用例が模式的に示されている。情報処理システム1は、図1,図2に示すように、携帯機器10と、外部機器100と、外部機器200と、を備える。   FIG. 1 shows a configuration of an information processing system 1 according to the present embodiment. FIG. 2 schematically shows a usage example of the information processing system 1. As shown in FIGS. 1 and 2, the information processing system 1 includes a mobile device 10, an external device 100, and an external device 200.

外部機器100、200は、パソコン、デジタルカメラ等の情報家電である。本実施形態では、一例として、外部機器100、200は、図2に示すようなパソコンであるものとする。なお、本実施形態では、外部機器100が、従来からユーザが会社で継続使用しているデスクトップ型パソコンであり、外部機器200が、ユーザが会社においてこれから使用を開始するノート型パソコンであるとする。以後、外部機器100をデスクトップパソコン100、外部機器200をノートパソコン200と呼ぶものとする。   The external devices 100 and 200 are information home appliances such as a personal computer and a digital camera. In this embodiment, as an example, the external devices 100 and 200 are assumed to be personal computers as shown in FIG. In the present embodiment, it is assumed that the external device 100 is a desktop personal computer that the user has been continuously using in the company, and the external device 200 is a laptop personal computer that the user will start using in the company. . Hereinafter, the external device 100 is referred to as a desktop personal computer 100, and the external device 200 is referred to as a notebook personal computer 200.

(デスクトップパソコン100)
デスクトップパソコン100は、図1,図2に示すように、表示部(ディスプレイ)110、キーボード120、マウス130等のユーザの入力操作部材を備える。また、デスクトップパソコン100は、図1に示すように、他の機器と通信するための通信部140、記憶部150、撮像部160および制御部180を備える。
(Desktop PC 100)
The desktop personal computer 100 includes user input operation members such as a display unit (display) 110, a keyboard 120, and a mouse 130, as shown in FIGS. Further, as shown in FIG. 1, the desktop personal computer 100 includes a communication unit 140, a storage unit 150, an imaging unit 160, and a control unit 180 for communicating with other devices.

表示部110は、例えば、液晶表示素子を用いた表示デバイスである。キーボード120としては、ケーブル接続可能なUSBキーボードや、ケーブル接続のないワイヤレスキーボードを用いることができる。なお、図2に示すように、キーボード120のうち、ユーザの腕が接触する位置には、携帯機器10の通信部20と人体通信を行うための電極部170が設けられている。   The display unit 110 is a display device using a liquid crystal display element, for example. As the keyboard 120, a USB keyboard that can be connected by a cable or a wireless keyboard that is not connected by a cable can be used. As shown in FIG. 2, an electrode unit 170 for performing human body communication with the communication unit 20 of the mobile device 10 is provided at a position where the user's arm contacts in the keyboard 120.

マウス130としては、ケーブル接続可能なUSBマウスや、ケーブル接続の無いワイヤレスマウスを用いることができる。なお、マウス130のうち、ユーザの手が触れる部分には、携帯機器10の通信部20と人体通信を行うための電極部172が設けられている。   As the mouse 130, a USB mouse that can be connected by a cable or a wireless mouse that is not connected by a cable can be used. Note that an electrode unit 172 for performing human body communication with the communication unit 20 of the mobile device 10 is provided in a part of the mouse 130 that is touched by the user's hand.

通信部140は、他の機器(本実施形態では携帯機器10の通信部20)と通信を行う。通信部140は、キーボード120やマウス130に設けられた電極部170,172を用いて人体通信を行う人体通信部141と、無線通信により通信を行う無線通信部142とを有する。人体通信部141は、携帯機器10を胸ポケット等で保持するユーザがデスクトップパソコン100を使用しているとき(図2の左上図参照)、すなわち、携帯機器10とデスクトップパソコン100との人体通信が成立しているときに、記憶部150に記憶されたデスクトップパソコン100の仕様に関する情報およびユーザのデスクトップパソコン100の使用に関する情報(これらの情報の詳細については後述する)を携帯機器10に送信する。また、人体通信部141は、携帯機器10とデスクトップパソコン100との人体通信が成立しているときに、ユーザによる他の機器(ノートパソコン200や携帯機器10)の使用や設定に関する情報等を携帯機器10から受信する。なお、無線通信部142は、携帯機器10とデスクトップパソコン100との人体通信が成立していない場合の、携帯機器10とデスクトップパソコン100との間の通信に用いられる。   The communication unit 140 communicates with other devices (in this embodiment, the communication unit 20 of the mobile device 10). The communication unit 140 includes a human body communication unit 141 that performs human body communication using the electrode units 170 and 172 provided on the keyboard 120 and the mouse 130, and a wireless communication unit 142 that performs communication by wireless communication. When the user who holds the portable device 10 in a breast pocket or the like is using the desktop personal computer 100 (see the upper left diagram in FIG. 2), the human body communication unit 141 performs human body communication between the portable device 10 and the desktop personal computer 100. When established, information related to the specifications of the desktop personal computer 100 and information related to the use of the desktop personal computer 100 (details of these information will be described later) stored in the storage unit 150 are transmitted to the mobile device 10. In addition, the human body communication unit 141 carries information on use and settings of other devices (the notebook computer 200 and the mobile device 10) by the user when the human body communication between the mobile device 10 and the desktop personal computer 100 is established. Receive from device 10. The wireless communication unit 142 is used for communication between the mobile device 10 and the desktop personal computer 100 when the human body communication between the mobile device 10 and the desktop personal computer 100 is not established.

記憶部150は、例えば、不揮発性のフラッシュメモリであり、制御部180によって実行されるデスクトップパソコン100を制御するためのプログラム、デスクトップパソコン100を制御するための各種パラメータを記憶する。さらに、記憶部150は、ユーザのデスクトップパソコン100の使用や設定に関する情報を記憶する。具体的には、記憶部150は、ユーザがデスクトップパソコン100を使用するときのユーザの操作の特徴(癖)を記憶する。本実施形態では、記憶部150は、ユーザの操作の特徴(癖)として、例えば、キーボード120の文字変換の特徴(癖)、誤変換履歴、文字(単語)登録の履歴、セキュリティレベルの設定、キーボード120やマウス130の感度設定、フォントの大きさ、表示のズーム倍率、表示部110の輝度やカーソルの点滅速度等を記憶する。また、マウス130は、主ボタンと副ボタンとを備えており、右利き・左利きに対応できるようになっている。本実施形態において、記憶部150は、主ボタン(もしくは副ボタン)の設定が右利きか左利きかを記憶している。   The storage unit 150 is, for example, a nonvolatile flash memory, and stores a program for controlling the desktop personal computer 100 executed by the control unit 180 and various parameters for controlling the desktop personal computer 100. Further, the storage unit 150 stores information related to the use and settings of the user's desktop personal computer 100. Specifically, the storage unit 150 stores user operation characteristics (癖) when the user uses the desktop personal computer 100. In the present embodiment, the storage unit 150 includes, for example, a character conversion feature (癖) of the keyboard 120, an erroneous conversion history, a character (word) registration history, a security level setting, as a user operation feature (癖). The sensitivity setting of the keyboard 120 and the mouse 130, the font size, the zoom magnification of the display, the brightness of the display unit 110, the blinking speed of the cursor, and the like are stored. In addition, the mouse 130 includes a main button and a sub button so that it can handle right-handed / left-handed. In the present embodiment, the storage unit 150 stores whether the setting of the main button (or sub button) is right-handed or left-handed.

撮像部160は、ユーザがデスクトップパソコン100を操作しているときのユーザを撮像するものであり、撮像レンズや撮像素子(CCD(Charge Coupled
Device)およびCMOS(Complementary Metal Oxide Semiconductor)デバイス)などから構成される。撮像部160が撮像した画像に基づき、ユーザの操作の特徴(癖)が記憶部150に記憶される。なお、撮像部160は、図2の左上図に示すようにデスクトップパソコン100(表示部110)に内蔵されていてもよいし、デスクトップパソコン100やその近傍に後から設置されてもよい。
The imaging unit 160 captures an image of the user when the user is operating the desktop personal computer 100, and includes an imaging lens and an imaging element (CCD (Charge Coupled).
Device) and CMOS (Complementary Metal Oxide Semiconductor) devices). Based on the image captured by the imaging unit 160, the feature (操作) of the user's operation is stored in the storage unit 150. The imaging unit 160 may be built in the desktop personal computer 100 (display unit 110) as shown in the upper left diagram of FIG. 2, or may be installed later in the desktop personal computer 100 or in the vicinity thereof.

制御部180は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only
Memory)等を備え、デスクトップパソコン100全体を統括的に制御する。本実施形態においては、制御部180は、ユーザがデスクトップパソコン100を操作しているときのユーザの操作の特徴(癖)を記憶部150に記憶する処理を行う。また、制御部180は、記憶部150に記憶されたデスクトップパソコン100の仕様および使用に関する情報を、携帯機器10に送信する制御を行う。さらに、制御部180は、携帯機器10からユーザの機器の使用に関する情報を受信した場合、受信した情報を記憶部150に記憶する処理を行う。
The control unit 180 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only).
Memory) and the like, and comprehensively control the desktop personal computer 100 as a whole. In the present embodiment, the control unit 180 performs a process of storing, in the storage unit 150, a feature (操作) of a user operation when the user is operating the desktop personal computer 100. In addition, the control unit 180 performs control to transmit information related to specifications and use of the desktop personal computer 100 stored in the storage unit 150 to the mobile device 10. Further, when receiving information related to the use of the user's device from the mobile device 10, the control unit 180 performs processing for storing the received information in the storage unit 150.

(ノートパソコン200)
ノートパソコン200は、デスクトップパソコン100と同様、表示部210、キーボード220、マウス230等のユーザの入力操作部材を備える。また、ノートパソコン200は、図1に示すように、他の機器と通信するための通信部240、記憶部250、撮像部260および制御部280を備える。また、図2の右下図に示すように、キーボード220近傍及びマウス230には、電極270,272が設けられている。なお、ノートパソコン200の各構成の詳細は、デスクトップパソコン100の各構成と同様であるので、その説明を省略するものとする。
(Notebook PC 200)
As with the desktop personal computer 100, the notebook personal computer 200 includes user input operation members such as a display unit 210, a keyboard 220, and a mouse 230. In addition, the notebook computer 200 includes a communication unit 240, a storage unit 250, an imaging unit 260, and a control unit 280 for communicating with other devices, as shown in FIG. Further, as shown in the lower right diagram of FIG. 2, electrodes 270 and 272 are provided in the vicinity of the keyboard 220 and the mouse 230. Note that details of each configuration of the notebook personal computer 200 are the same as those of the desktop personal computer 100, and thus description thereof is omitted.

(携帯機器10)
携帯機器10は、ユーザにより携帯された状態で利用される情報機器である。携帯機器10としては、携帯電話、スマートフォン、タブレット型パソコン、PHS(Personal
Handy-phone System)、PDA(Personal Digital Assistant)等を採用することができる。本実施形態では、携帯機器10は、スマートフォンであるものとする。携帯機器10は、例えば、長方形の主面(ディスプレイ12が設けられる面)を有する薄板形状を有し、片手の手のひらで把持することができる程度の大きさであるものとする。携帯機器10は、電話機能やインターネット等に接続するための通信機能、および、プログラムを実行するためのデータ処理機能等を有する。
(Portable device 10)
The mobile device 10 is an information device that is used while being carried by a user. The mobile device 10 may be a mobile phone, a smartphone, a tablet personal computer, a PHS (Personal
Handy-phone System), PDA (Personal Digital Assistant), etc. can be employed. In the present embodiment, the mobile device 10 is assumed to be a smartphone. The portable device 10 has, for example, a thin plate shape having a rectangular main surface (surface on which the display 12 is provided), and has a size that can be held by the palm of one hand. The mobile device 10 has a telephone function, a communication function for connecting to the Internet, etc., a data processing function for executing a program, and the like.

携帯機器10は、図1に示すように、ディスプレイ12、タッチパネル14、カレンダー部16、マイク18、スピーカ19、通信部20、センサ部30、撮像部40、フラッシュメモリ50、及び制御部60等を備える。   As shown in FIG. 1, the portable device 10 includes a display 12, a touch panel 14, a calendar unit 16, a microphone 18, a speaker 19, a communication unit 20, a sensor unit 30, an imaging unit 40, a flash memory 50, a control unit 60, and the like. Prepare.

ディスプレイ12は、携帯機器10の主面に設けられ、画像、各種情報およびボタン等の操作入力用画像を表示する。本実施形態においては、ディスプレイ12は、右手用の操作メニューと(例えば、右親指が届く範囲にアイコンを表示する)、左手用の操作メニューと(例えば、左親指が届く範囲にアイコンを表示する)を表示可能である。なお、ディスプレイ12としては、例えば、液晶表示素子を用いたデバイスを採用できる。   The display 12 is provided on the main surface of the mobile device 10 and displays an image for operation input such as an image, various information, and buttons. In the present embodiment, the display 12 displays an operation menu for the right hand (for example, an icon is displayed in a range where the right thumb can reach), and an operation menu for the left hand (for example, an icon is displayed in a range where the left thumb can be reached). ) Can be displayed. As the display 12, for example, a device using a liquid crystal display element can be adopted.

タッチパネル14は、ユーザが触れたことに応じて情報入力を受け付ける。タッチパネル14は、ディスプレイ12上またはディスプレイ12内に組み込まれて設けられる。したがって、タッチパネル14は、ユーザがディスプレイ12の表面をタッチすることに応じて、種々の情報入力を受け付ける。   The touch panel 14 accepts information input in response to touching by the user. The touch panel 14 is provided on the display 12 or incorporated in the display 12. Therefore, the touch panel 14 accepts various information inputs in response to the user touching the surface of the display 12.

カレンダー部16は、年、月、日、時刻といった時間情報を取得して制御部60に出力する。さらに、カレンダー部16は、計時機能を有する。   The calendar unit 16 acquires time information such as year, month, day, and time and outputs the time information to the control unit 60. Furthermore, the calendar unit 16 has a time measuring function.

マイク18は、例えば、携帯機器10の主面のディスプレイ12下方に設けられ、ユーザが携帯機器10の電話機能を使用する際に、ユーザの口元に位置するようになっている。スピーカ19は、例えば、携帯機器10の主面のディスプレイ12上方に設けられ、ユーザが携帯機器10の電話機能を使用する際に、ユーザの耳元に位置するようになっている。   The microphone 18 is provided below the display 12 on the main surface of the mobile device 10, for example, and is positioned at the user's mouth when the user uses the telephone function of the mobile device 10. The speaker 19 is provided above the display 12 on the main surface of the mobile device 10, for example, and is positioned at the user's ear when the user uses the telephone function of the mobile device 10.

通信部20は、人体通信部21と、無線通信部22と、を有する。人体通信部21は、人体と接触または近接する電極部70を介して、デスクトップパソコン100と,ノートパソコン200との間で人体通信を行う。人体通信部21は、バンドパスフィルタを有した電気回路から構成される送受信部を有し、入力した受信信号を復調して受信データを生成したり、送信するデータを変調して送信信号を生成したりする。人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがあり、電流方式及び電界方式のいずれの方式を用いてもよい。なお、電界方式の人体通信を採用すれば、電極部70が人体に直接触れていなくても、服のポケット(例えば、ワイシャツのポケット)などに携帯機器10があれば、通信が可能である。   The communication unit 20 includes a human body communication unit 21 and a wireless communication unit 22. The human body communication unit 21 performs human body communication between the desktop personal computer 100 and the notebook computer 200 via the electrode unit 70 that is in contact with or close to the human body. The human body communication unit 21 includes a transmission / reception unit including an electric circuit having a band pass filter, and demodulates an input reception signal to generate reception data, or modulates transmission data to generate a transmission signal. To do. Human body communication includes a current system that transmits a weak current through the human body and modulates the current to transmit information, and an electric field system that transmits information by modulating the electric field induced on the surface of the human body. Either a method or an electric field method may be used. If electric field type human body communication is employed, even if the electrode unit 70 is not in direct contact with the human body, communication is possible if the portable device 10 is in a pocket of clothes (for example, a pocket of a shirt).

無線通信部22は、外部機器(デスクトップパソコン100、ノートパソコン200)との間で、無線通信を行う際に使用される。なお、携帯機器10と外部機器(デスクトップパソコン100、ノートパソコン200)とを人体通信(又は近距離通信(例えば、FeliCa(登録商標))によりペアリングした後に、無線通信にて携帯機器10と外部機器(デスクトップパソコン100、ノートパソコン200)との間の通信を継続するようにしてもよい。   The wireless communication unit 22 is used when performing wireless communication with an external device (desktop personal computer 100, notebook personal computer 200). The mobile device 10 and the external device (desktop personal computer 100, notebook computer 200) are paired by human body communication (or short-range communication (for example, FeliCa (registered trademark)), and then the mobile device 10 and the external device are connected by wireless communication. You may make it continue communication between apparatuses (desktop personal computer 100, notebook personal computer 200).

本実施形態においては、人体通信部21は、デスクトップパソコン100との人体通信が成立している間に、デスクトップパソコン100の仕様に関する情報およびユーザによるデスクトップパソコン100の使用に関する情報をデスクトップパソコン100から受信する。また、人体通信部21は、ノートパソコン200との人体通信が成立している間に、ノートパソコン200に対して、デスクトップパソコン100や携帯機器10の使用に関する情報を送信する。   In the present embodiment, the human body communication unit 21 receives from the desktop personal computer 100 information related to the specifications of the desktop personal computer 100 and information related to the use of the desktop personal computer 100 by the user while human body communication with the desktop personal computer 100 is established. To do. In addition, the human body communication unit 21 transmits information related to the use of the desktop personal computer 100 and the portable device 10 to the notebook computer 200 while human body communication with the notebook computer 200 is established.

センサ部30は、各種センサを有する。本実施形態では、センサ部30は、GPS(Global Positioning System)モジュール31、生体センサ32、及び加速度センサ33を有する。   The sensor unit 30 has various sensors. In the present embodiment, the sensor unit 30 includes a GPS (Global Positioning System) module 31, a biological sensor 32, and an acceleration sensor 33.

GPSモジュール31は、携帯機器10の位置(例えば、緯度及び経度)を検出するセンサであり、間接的に、ユーザの位置及びユーザが使用するデスクトップパソコン100及びノートパソコン200の位置を検出するセンサである。   The GPS module 31 is a sensor that detects the position (for example, latitude and longitude) of the mobile device 10 and indirectly detects the position of the user and the positions of the desktop personal computer 100 and the notebook personal computer 200 used by the user. is there.

生体センサ32は、携帯機器10を保持するユーザの状態を取得するセンサであり、本実施形態では携帯機器10を使用しているユーザの生体情報を検出するために用いられる。例えば、生体センサ32は、ユーザの体温、血圧、脈拍及び発汗量等を取得する。また、生体センサ32は、例えば、ユーザが生体センサ32を保持している力(例えば、握力)を取得する。   The biometric sensor 32 is a sensor that acquires the state of the user holding the mobile device 10, and is used to detect biometric information of the user who is using the mobile device 10 in this embodiment. For example, the biosensor 32 acquires the user's body temperature, blood pressure, pulse, sweat rate, and the like. In addition, the biosensor 32 acquires, for example, a force (for example, a gripping force) at which the user holds the biosensor 32.

生体センサ32としては、例えば、特開2001−276012号公報(米国特許第6526315号明細書)に開示されるように、発光ダイオードによりユーザに向けて光を照射し、この光に応じてユーザから反射した光を受光することにより、脈拍を検出するセンサを用いることができる。また、生体センサ32としては、特開2007−215749号公報(米国特許出願公開2007/0191718号明細書)に開示されているような腕時計型の生体センサにより検出された情報を取得可能なセンサを用いることとしてもよい。   As the biosensor 32, for example, as disclosed in Japanese Patent Laid-Open No. 2001-276012 (US Pat. No. 6,526,315), light is emitted toward the user by a light emitting diode, and the user responds to this light. A sensor that detects a pulse by receiving the reflected light can be used. The biosensor 32 is a sensor capable of acquiring information detected by a wristwatch-type biosensor as disclosed in Japanese Patent Application Laid-Open No. 2007-215749 (US Patent Application Publication No. 2007/0191718). It may be used.

また、生体センサ32は、圧力センサを含んでもよい。圧力センサは、ユーザが携帯機器10を保持したことや、携帯機器10を保持する力を検出することができるものとする。なお、生体センサ32は、圧力センサによってユーザによる携帯機器10の保持を検出した段階から、他の生体情報の取得を開始するようにしてもよい。また、携帯機器10では、スリープ状態においてユーザが携帯機器10を保持したことを圧力センサが検出した場合に、他の機能をオンするようにしてもよい。   In addition, the biosensor 32 may include a pressure sensor. It is assumed that the pressure sensor can detect that the user holds the mobile device 10 and the force that holds the mobile device 10. The biological sensor 32 may start acquisition of other biological information from the stage where the pressure sensor detects the holding of the mobile device 10 by the user. Further, in the mobile device 10, when the pressure sensor detects that the user holds the mobile device 10 in the sleep state, another function may be turned on.

加速度センサ33は、ユーザがタッチパネル14を操作する際の力量を検出する。加速度センサ33には、例えば、圧電素子や歪ゲージ等を用いることができる。   The acceleration sensor 33 detects the amount of power when the user operates the touch panel 14. For example, a piezoelectric element or a strain gauge can be used for the acceleration sensor 33.

撮像部40は、ユーザが携帯機器10を保持している場合(使用している場合)のユーザの状況(例えば、身なり、ジェスチャー)を撮像する。これにより、ユーザの携帯機器10の使用状態を、ユーザに特別な操作を強いることなく撮像できる。撮像部40は、撮影レンズや撮像素子(CCD及びCMOSデバイス)などを含み、例えば、携帯機器10の主面のディスプレイ12上方に設けられる。   The imaging unit 40 captures an image of a user's situation (for example, dressed up or gestured) when the user is holding (using) the mobile device 10. Thereby, the usage state of the user's portable device 10 can be imaged without forcing the user to perform a special operation. The imaging unit 40 includes a photographic lens, an imaging element (CCD and CMOS device), and is provided above the display 12 on the main surface of the mobile device 10, for example.

フラッシュメモリ50は、例えば、不揮発性の半導体メモリであり、制御部60が実行する処理で使用されるデータ等を記憶する。また、フラッシュメモリ50は、携帯機器10の仕様に関する情報やユーザによる携帯機器10の使用や設定に関する情報、外部機器(例えば、デスクトップパソコン100)の仕様に関する情報やユーザによる外部機器の使用に関する情報を記憶する。前述したように、ディスプレイ12は、右手用の操作メニューと左手用の操作メニューとを表示可能であり、フラッシュメモリ50は、右手用の操作メニューおよび左手用の操作メニューのうちいずれが設定されているかを記憶する。   The flash memory 50 is a non-volatile semiconductor memory, for example, and stores data used in processing executed by the control unit 60. The flash memory 50 also stores information related to the specifications of the mobile device 10, information related to the use and settings of the mobile device 10 by the user, information related to the specifications of the external device (for example, the desktop personal computer 100), and information related to the use of the external device by the user. Remember. As described above, the display 12 can display the right-hand operation menu and the left-hand operation menu, and the flash memory 50 is set with either the right-hand operation menu or the left-hand operation menu. I remember.

ここで、フラッシュメモリ50に記憶されている携帯機器情報テーブル及び外部機器情報テーブルについて、説明する。図3(A)には、携帯機器10の仕様および使用に関する情報を格納する携帯機器情報テーブルの一例が示されている。また、図3(B)には、外部機器の仕様および使用に関する情報を格納する外部機器情報テーブルの一例が示されている。   Here, the portable device information table and the external device information table stored in the flash memory 50 will be described. FIG. 3A shows an example of a portable device information table that stores information relating to the specifications and use of the portable device 10. FIG. 3B shows an example of an external device information table that stores information related to specifications and usage of external devices.

携帯機器情報テーブルは、図3(A)に示すように、「ID」、「カテゴリ」、「使用頻度」、「使用状況」、「構成装置」、「構成装置仕様」、「構成装置使用状態」、および「センサ出力」の項目を有する。   As shown in FIG. 3A, the portable device information table includes “ID”, “category”, “usage frequency”, “usage status”, “component device”, “component device specification”, “component device use state”. And “sensor output”.

「ID」の項目には、携帯機器を一意に識別するための識別子が格納される。また、「カテゴリ」の項目には、IDで識別される機器のカテゴリが格納される。なお、「カテゴリ」の項目としてより具体的な情報(例えば“スマートフォン”など)を格納してもよい。なお、携帯機器情報テーブルには、携帯機器自体の情報が登録されることから、「ID」及び「カテゴリ」の項目を設けないこととしてもよい。   In the item “ID”, an identifier for uniquely identifying the mobile device is stored. In the “category” item, the category of the device identified by the ID is stored. Note that more specific information (eg, “smart phone”) may be stored as the “category” item. Note that since the information on the mobile device itself is registered in the mobile device information table, the items “ID” and “category” may not be provided.

「使用頻度」の項目には、IDで識別される機器の使用頻度が格納される。例えば、ユーザが携帯機器10を毎日使用する場合には、“毎日”と格納される。「使用状況」の項目には、IDで識別される機器の使用時間が格納される。例えば、携帯機器10をユーザが1日あたり3時間使用する場合には、“3時間/日”と格納される。なお、図3(A)に示す携帯機器情報テーブルに「使用エリア」や「使用時間帯」の項目を設け、GPSモジュール31やカレンダー部16の出力に基づき、ユーザが携帯機器10をどこでどの時間帯に用いるかを格納するようにしてもよい。これにより、場所や時間帯に応じた携帯機器10の使用に関する情報を格納(蓄積)することができる。また、ユーザによる操作が右手で行われるか左手で行われるかを格納してもよい。   The item “usage frequency” stores the usage frequency of the device identified by the ID. For example, when the user uses the portable device 10 every day, “every day” is stored. The “usage status” item stores the usage time of the device identified by the ID. For example, when the user uses the mobile device 10 for 3 hours per day, “3 hours / day” is stored. It should be noted that items of “use area” and “use time zone” are provided in the mobile device information table shown in FIG. 3A, and based on the output of the GPS module 31 and the calendar unit 16, the user places the mobile device 10 where and what time. You may make it store whether it uses for a belt | band | zone. As a result, it is possible to store (accumulate) information related to the use of the mobile device 10 according to the place and time zone. Further, whether the user's operation is performed with the right hand or the left hand may be stored.

「構成装置」の項目には、IDで識別される機器を構成する装置を格納する。携帯機器10が、ディスプレイ、入力装置、および音声装置を備える場合、「構成装置」の項目には、“ディスプレイ”、“入力装置”、および“音声装置”が格納される。「構成装置仕様」の項目には、各構成装置の仕様が格納される。また、「構成装置使用状態」の項目には、各構成装置の使用状態が格納される。「センサ出力」の項目には、各構成装置の使用時に各センサで取得した情報が格納される。これにより、本実施形態では、各機器の仕様に関する情報と、ユーザの各機器の使用に関する情報(操作の特徴(癖))とが、携帯機器情報テーブルにおいて関連付けて記憶されるようになっている。なお、各機器の仕様に関する情報と、使用に関する情報を関連付けるのは、同一のユーザであっても機器の仕様に応じて機器の使い方が異なったり、使用状態に応じてセンサ出力が異なるためである。   In the item “component device”, a device constituting the device identified by the ID is stored. When the mobile device 10 includes a display, an input device, and an audio device, “display”, “input device”, and “audio device” are stored in the item “component device”. The item “component device specification” stores the specification of each component device. In addition, the usage status of each component device is stored in the item “component device usage status”. The item “sensor output” stores information acquired by each sensor when each component device is used. Thereby, in this embodiment, the information regarding the specification of each device and the information regarding the use of each device by the user (operation characteristics (癖)) are stored in association with each other in the portable device information table. . Note that the information related to the specifications of each device and the information related to the use are associated with each other even if the same user uses the device depending on the device specifications or the sensor output varies depending on the usage state. .

例えば、図3(A)に示すように、携帯機器10のディスプレイが3.5インチのディスプレイである場合、「構成装置仕様」の項目には“3.5インチ”が格納される。そして、「構成装置使用状態」の項目には、“3.5インチ”のディスプレイを使用する場合のフォントサイズ(例えば、「大」)が格納される。また、「センサ出力」の項目には、例えば、ユーザがディスプレイを使用しているときに撮像部40が撮像した画像に基づいて、表情検出部612が検出したユーザの表情等が格納される。例えば、ユーザが携帯機器10の使用時に目を細めていた場合、「センサ出力」の項目に“目を細める”が格納される。なお、図3(A)には、上述したディスプレイの仕様及び使用に関する情報のほか、タッチパネルの使用に関する情報(操作方法、操作速度、力量など)や、マイクの使用に関する情報(使用言語など)、スピーカの使用に関する情報(音量など)が格納される。   For example, as shown in FIG. 3A, when the display of the mobile device 10 is a 3.5-inch display, “3.5 inches” is stored in the item “component specification”. In the “component usage state” item, a font size (for example, “large”) when a “3.5 inch” display is used is stored. The item “sensor output” stores, for example, the facial expression of the user detected by the facial expression detection unit 612 based on the image captured by the imaging unit 40 when the user is using the display. For example, when the user narrows his eyes when using the mobile device 10, “squint” is stored in the item “sensor output”. In addition, in FIG. 3A, in addition to the above-described information on the specification and use of the display, information on the use of the touch panel (operation method, operation speed, ability, etc.), information on the use of the microphone (use language, etc.), Stores information related to the use of the speaker (volume, etc.).

外部機器情報テーブルは、図3(B)に示すように、図3(A)の携帯機器情報テーブルとほぼ同一の項目を有している。なお、図3(B)の外部機器情報テーブルには、図3(A)のテーブルに無い「使用エリア」の項目が設けられている。また、図3(B)の例では、外部機器としてデスクトップパソコンが登録されている。なお、図3(B)の外部機器情報テーブルに、外部機器の使用時間帯に関する情報やユーザによる操作が右手で行われるのか左手で行われるのかについての情報を格納してもよい。図3(A)の携帯機器情報テーブル及び図3(B)の外部機器情報テーブルに、ユーザが携帯機器10又は外部機器を操作するときの手の情報を格納することにより、ユーザの利き手がわかるとともに、マウス130の主ボタンは右手で操作し、携帯機器10の操作は左手で行なうなどユーザの特徴(癖)を認識することもできる。   As shown in FIG. 3B, the external device information table has almost the same items as the portable device information table of FIG. In the external device information table in FIG. 3B, an item “use area” that is not in the table in FIG. 3A is provided. In the example of FIG. 3B, a desktop personal computer is registered as an external device. Note that the external device information table in FIG. 3B may store information on the usage time zone of the external device and information on whether the user's operation is performed with the right hand or the left hand. By storing hand information when the user operates the mobile device 10 or the external device in the mobile device information table of FIG. 3A and the external device information table of FIG. At the same time, the user's feature (ユ ー ザ) can be recognized such that the main button of the mouse 130 is operated with the right hand and the portable device 10 is operated with the left hand.

図3(B)の例では、表示装置が17インチのディスプレイであり、ユーザが表示装置を使用する場合のフォントサイズが“中”(標準)であるという情報が格納されている。また、図3(B)の例では、ユーザがフォントを小さくした場合に目を細めていたという情報が格納されている。このように、図3(B)の例では、ユーザは、17インチのディスプレイでは、フォントサイズを“中”にしても文字を容易に視認できるが、3.5インチのディスプレイでは、フォントサイズを“大”にしても文字を視認し難いということがわかる。なお、図3(B)のテーブルには、デスクトップパソコン100におけるキーボードの使用に関する情報(操作速度、使用言語など)や、マイクの使用に関する情報、スピーカの使用に関する情報(音量など)が格納される。また、図3(B)のテーブルには、使用エリアの情報(会社など)が格納される。   In the example of FIG. 3B, information is stored that the display device is a 17-inch display and the font size when the user uses the display device is “medium” (standard). Further, in the example of FIG. 3B, information that the user narrowed his eyes when the user reduced the font is stored. In this way, in the example of FIG. 3B, the user can easily see the characters on the 17-inch display even if the font size is “medium”, but the 3.5-inch display can change the font size. It can be seen that even if “Large”, characters are difficult to see. Note that the table in FIG. 3B stores information related to keyboard use in the desktop personal computer 100 (operation speed, language used, etc.), information related to microphone use, and information related to speaker use (volume etc.). . In addition, in the table of FIG. 3B, information on the use area (such as a company) is stored.

図1に戻り、制御部60は、携帯機器10全体を統括的に制御するとともに、各種処理を実行する。図4には、制御部60のハードウェア構成の一例が示されている。制御部60は、入出力部601、ROM602、CPU603、及びRAM604を備える。入出力部601は、ディスプレイ12、タッチパネル14、カレンダー部16、マイク18、スピーカ19、通信部20、センサ部30、撮像部40およびフラッシュメモリ50との間でデータの送受信を行う。ROM602は、撮像部40で撮像された画像に対して顔認識処理を行うためのプログラム等を格納する。CPU603は、ROM602に格納されたプログラムを読み込んで実行する。RAM604は、プログラムを実行する際に使用される一時的なデータを保存する。   Returning to FIG. 1, the control unit 60 comprehensively controls the entire mobile device 10 and executes various processes. FIG. 4 shows an example of the hardware configuration of the control unit 60. The control unit 60 includes an input / output unit 601, a ROM 602, a CPU 603, and a RAM 604. The input / output unit 601 transmits / receives data to / from the display 12, the touch panel 14, the calendar unit 16, the microphone 18, the speaker 19, the communication unit 20, the sensor unit 30, the imaging unit 40, and the flash memory 50. The ROM 602 stores a program for performing face recognition processing on the image captured by the imaging unit 40. The CPU 603 reads and executes a program stored in the ROM 602. The RAM 604 stores temporary data used when executing the program.

次に、上述したハードウェア資源とソフトウェアとの協働により実現される、携帯機器10の制御部60が備える機能の一例について説明する。図5は、制御部60が備える機能の一例を示す機能ブロック図である。制御部60は、画像分析部610、入力部620、規制部630および出力部640を有する。   Next, an example of functions provided in the control unit 60 of the mobile device 10 realized by the cooperation of the hardware resources and software described above will be described. FIG. 5 is a functional block diagram illustrating an example of functions provided in the control unit 60. The control unit 60 includes an image analysis unit 610, an input unit 620, a regulation unit 630, and an output unit 640.

画像分析部610は、撮像部40が撮像した画像の分析を行うものであり、顔認識部611、表情検出部612及び属性検出部613を備える。   The image analysis unit 610 analyzes an image captured by the imaging unit 40 and includes a face recognition unit 611, a facial expression detection unit 612, and an attribute detection unit 613.

顔認識部611は、撮像部40から、撮像部40が撮像した画像を受け付ける。顔認識部611は、撮像部40が撮像した画像に、顔が含まれているか否かを判定する。画像の中に顔が含まれている場合、顔認識部611は、顔の部分の画像データと、フラッシュメモリ50に記憶されているユーザの顔画像データとを比較(例えば、パターンマッチング)して、撮像部40が撮像した人を認識する。また、顔認識部611は、顔の部分の画像データを表情検出部612及び属性検出部613に出力する。   The face recognition unit 611 receives an image captured by the imaging unit 40 from the imaging unit 40. The face recognition unit 611 determines whether a face is included in the image captured by the imaging unit 40. When a face is included in the image, the face recognition unit 611 compares the image data of the face portion with the user's face image data stored in the flash memory 50 (for example, pattern matching). The image capturing unit 40 recognizes the person imaged. Further, the face recognition unit 611 outputs the image data of the face part to the expression detection unit 612 and the attribute detection unit 613.

表情検出部612は、顔認識部611から顔の部分の画像データを受け付ける。表情検出部612は、顔の画像データと、フラッシュメモリ50に記憶されている顔表情データとを比較して、ユーザの表情を検出する。例えば、表情検出部612は、目を細めている顔、笑顔、泣き顔、怒り顔、驚き顔、眉間に皺を寄せている顔、緊張している顔、およびリラックスしている顔等の表情を検出する。表情検出部612は、検出した顔の表情を、ユーザの携帯機器10の使用に関する情報としてフラッシュメモリ50に記憶させる。笑顔検出の方法としては、例えば、米国特許出願公開2008/037841号明細書に開示されている方法を使用することができる。また、眉間の皺の検出方法としては、例えば、米国特許出願公開2008/292148号明細書に開示されている方法を使用することができる。   The expression detection unit 612 receives image data of a face portion from the face recognition unit 611. The facial expression detection unit 612 detects facial expressions of the user by comparing the facial image data with the facial expression data stored in the flash memory 50. For example, the facial expression detection unit 612 displays facial expressions such as a narrowed face, a smiling face, a crying face, an angry face, a surprised face, a face with a wrinkle between eyebrows, a tense face, and a relaxed face. To detect. The facial expression detection unit 612 stores the detected facial expression in the flash memory 50 as information related to the user's use of the mobile device 10. As a smile detection method, for example, a method disclosed in US Patent Application Publication No. 2008/037841 can be used. Moreover, as a method for detecting eyelids between eyebrows, for example, a method disclosed in US Patent Application Publication No. 2008/292148 can be used.

属性検出部613は、顔認識部611から顔の画像データを受け付ける。属性検出部613は、撮像部40が撮像した画像に顔が含まれている場合に、顔の画像データから、ユーザの性別や年齢層を推定する。属性検出部613は、推定したユーザの性別や年齢層を、フラッシュメモリ50に記憶させる。なお、画像を用いた性別判定や年齢判定には、例えば、特許第4273359号公報(米国特許出願公開2010/0217743号明細書)に開示された方法を使用することができる。   The attribute detection unit 613 receives face image data from the face recognition unit 611. The attribute detection unit 613 estimates the gender and age group of the user from the face image data when the image captured by the imaging unit 40 includes a face. The attribute detection unit 613 stores the estimated gender and age group of the user in the flash memory 50. For example, the method disclosed in Japanese Patent No. 4273359 (US Patent Application Publication No. 2010/0217743) can be used for sex determination and age determination using an image.

入力部620は、通信部20および規制部630を介して、外部機器から、該外部機器の仕様及びユーザの該外部機器の使用や設定に関する情報を入力し、フラッシュメモリ50に格納する。本実施形態では、入力部620は、デスクトップパソコン100から、デスクトップパソコン100の仕様に関する情報、およびユーザのデスクトップパソコン100の使用に関する情報を入力し、フラッシュメモリ50に格納する。   The input unit 620 inputs information related to the specifications of the external device and the use and settings of the external device of the user from the external device via the communication unit 20 and the restriction unit 630 and stores the information in the flash memory 50. In the present embodiment, the input unit 620 inputs information regarding the specifications of the desktop personal computer 100 and information regarding the use of the user's desktop personal computer 100 from the desktop personal computer 100 and stores the information in the flash memory 50.

また、入力部620は、携帯機器10の使用や設定に関する情報をフラッシュメモリ50(携帯機器情報テーブル(図3(A)))に格納する。例えば、入力部620は、ディスプレイ12の設定情報、マイク18が集音した音声と音声辞書から判別可能なユーザの使用言語、スピーカ19の音量設定、ユーザによるタッチパネル14を操作するときの特徴(センサ部の検出結果に基づく特徴)や使用言語、漢字変換の履歴、カレンダー部16の出力から判定可能なユーザによる携帯機器10の使用頻度や使用状況を携帯機器情報テーブルに格納する。   In addition, the input unit 620 stores information related to use and setting of the mobile device 10 in the flash memory 50 (mobile device information table (FIG. 3A)). For example, the input unit 620 includes setting information of the display 12, a user language that can be discriminated from the voice collected by the microphone 18 and the voice dictionary, a volume setting of the speaker 19, and characteristics (sensors) when the user operates the touch panel 14. (Feature based on the detection result of the part), the language used, the history of kanji conversion, and the usage frequency and usage status of the portable device 10 that can be determined from the output of the calendar unit 16 are stored in the portable device information table.

規制部630は、通信部20を介して、デスクトップパソコン100から取得した各種データ(インターネットの閲覧履歴、デスクトップパソコン100の仕様及び使用や設定に関する情報、ユーザがデスクトップパソコン100を用いて作成した文章や資料、画像、音声等)を取得し、そのうちの一部のデータのみを入力部620に入力する。この場合、規制部630は、例えば、デスクトップパソコン100で作成した文章や資料、画像、音声等の入力部620への入力を規制し、その他のデータは入力部620に対して入力するようにする。もしくは、上述の文章や資料、画像、音声等を入力した場合でもユーザの特徴(癖)を検出した後に規制部630により入力した文章や資料、画像、音声等を削除するようにすればよい。なお、規制部630の機能を外部機器(例えば、デスクトップパソコン100)に持たせるようにしてもよい。   The restriction unit 630 receives various data acquired from the desktop personal computer 100 via the communication unit 20 (Internet browsing history, information on specifications and use and settings of the desktop personal computer 100, texts created by the user using the desktop personal computer 100, Materials, images, sounds, etc.) are acquired, and only a part of the data is input to the input unit 620. In this case, for example, the restriction unit 630 restricts the input to the input unit 620 such as texts, materials, images, and voices created by the desktop personal computer 100, and inputs other data to the input unit 620. . Alternatively, even when the above-described sentence, document, image, voice, or the like is input, the sentence, document, image, voice, or the like input by the restriction unit 630 may be deleted after detecting the user's feature (癖). In addition, you may make it give the function of the control part 630 to an external device (for example, desktop PC 100).

出力部640は、フラッシュメモリ50内に記憶されている情報を、通信部20を介して外部機器(ノートパソコン200)に出力する。   The output unit 640 outputs information stored in the flash memory 50 to an external device (notebook computer 200) via the communication unit 20.

(制御部60の処理)
次に、制御部60が実行する処理について、図6のフローチャートを用いて説明する。図6は、制御部60が実行する処理の一例を示すフローチャートである。なお、本処理は繰り返し実行されてもよいし、週に1回、月に1回というように所定時間が経過するたびに本処理を開始してもよい。なお、この場合の所定時間は、フラッシュメモリ50に記憶させておけばよい。また、ユーザが意識的に携帯機器10の電極部70に触れたときや、外部機器(デスクトップパソコン100またはノートパソコン200)と近距離通信を成立させたときに図6のフローチャートを実行するようにしてもよい。
(Processing of the control unit 60)
Next, processing executed by the control unit 60 will be described with reference to the flowchart of FIG. FIG. 6 is a flowchart illustrating an example of processing executed by the control unit 60. Note that this process may be repeatedly executed, or may be started each time a predetermined time elapses, such as once a week or once a month. Note that the predetermined time in this case may be stored in the flash memory 50. 6 is executed when the user consciously touches the electrode unit 70 of the mobile device 10 or establishes short-range communication with an external device (desktop personal computer 100 or notebook personal computer 200). May be.

図6の処理では、ステップS10において、入力部620が、人体通信が成立しているか否かを判断する。ここでの判断が否定されている間は、入力部620は、ステップS10の判断を繰り返すが、肯定された場合には、ステップS14に移行する。なお、本実施形態では、ユーザが服の胸ポケットにおいて携帯機器10を保持した状態で、手がデスクトップパソコン100のマウス130又はキーボード120に触れた場合や、ユーザが服の胸ポケットにおいて携帯機器10を保持した状態で、手がノートパソコン200のマウス230又はキーボード220に触れた場合に、ステップS10の判断が肯定されて、ステップS14に移行する。   In the process of FIG. 6, in step S10, the input unit 620 determines whether or not human body communication is established. While the determination here is denied, the input unit 620 repeats the determination of step S10, but when the determination is affirmed, the process proceeds to step S14. In the present embodiment, when the user holds the portable device 10 in the chest pocket of the clothes and the hand touches the mouse 130 or the keyboard 120 of the desktop personal computer 100, or the user places the portable device 10 in the chest pocket of the clothes. When the hand touches the mouse 230 or the keyboard 220 of the notebook computer 200 with the state held, the determination in step S10 is affirmed and the process proceeds to step S14.

ステップS14に移行すると、入力部620は、人体通信が成立した外部機器の使用頻度が高いか否か判断する。使用頻度が高いか否かは、携帯機器10のフラッシュメモリ50(外部機器情報テーブル(図3(A)))に登録されている外部機器に関する情報から使用頻度を取得し、その値が閾値(例えば、3日/週など)以上か否かに基づいて判断することができる。なお、使用頻度の情報がフラッシュメモリ50に記録されていない場合は、ユーザが初めてその外部機器を使用すると考えられるため、ステップS14が否定されるものとする。   If transfering it to step S14, the input part 620 will judge whether the use frequency of the external apparatus in which human body communication was materialized is high. Whether the usage frequency is high or not is determined by acquiring the usage frequency from information related to the external device registered in the flash memory 50 (external device information table (FIG. 3A)) of the mobile device 10 and the value is a threshold value ( For example, the determination can be made based on whether or not 3 days / week or more. If the usage frequency information is not recorded in the flash memory 50, it is considered that the user uses the external device for the first time, and therefore step S14 is denied.

ユーザがこれまで使用し続けているデスクトップパソコン100を現在使用している場合(図2の左上図の場合)には、当該デスクトップパソコン100の使用頻度が高いので、ステップS14の判断は肯定されて、入力部620は、ステップS16に移行する。ステップS16に移行すると、入力部620は、外部機器(デスクトップパソコン100)の記憶部150に記録されている各種データを、通信部140および通信部20を介して取得する。なお、ステップS16では、入力部620は、規制部630を介して、デスクトップパソコン100の記憶部150に記憶されている各種データを取得する。したがって、ステップS16では、規制部630の機能により、入力部620は、ユーザがデスクトップパソコン100で作成した文章等のデータを取得せず、デスクトップパソコン100の仕様に関する情報およびユーザによるデスクトップパソコン100の使用や設定に関する情報を取得することができる。   If the user is currently using the desktop personal computer 100 that has been used so far (in the case of the upper left figure in FIG. 2), the use frequency of the desktop personal computer 100 is high, so the determination in step S14 is affirmed. The input unit 620 proceeds to step S16. In step S16, the input unit 620 acquires various data recorded in the storage unit 150 of the external device (desktop personal computer 100) via the communication unit 140 and the communication unit 20. In step S <b> 16, the input unit 620 acquires various data stored in the storage unit 150 of the desktop personal computer 100 via the restriction unit 630. Therefore, in step S <b> 16, the input unit 620 does not acquire data such as text created by the user on the desktop personal computer 100 due to the function of the regulation unit 630, and information on the specifications of the desktop personal computer 100 and the use of the desktop personal computer 100 by the user. And information about settings can be acquired.

次いで、ステップS18では、入力部620は、取得した情報をフラッシュメモリ50(外部機器情報テーブル(図3(B))に記憶(更新)する。その後は、図6の全処理を終了する。   Next, in step S18, the input unit 620 stores (updates) the acquired information in the flash memory 50 (external device information table (FIG. 3B). Thereafter, all the processes in FIG. 6 are terminated.

なお、データの送受信は、人体通信部21および人体通信部141を用いて行っても、無線通信部22および無線通信部142を用いて行ってもよく、その両方を用いてもよい。例えば、ユーザがキーボード120やマウス130を使用している場合には、人体通信を用い、ユーザが考え事をしていてキーボード120やマウス130を使用していない場合には、無線通信を用いてもよい。さらに、キーボード120の入力が途切れ途切れの場合は、無線通信を用いればよく、キーボード120の入力が途切れ途切れの場合でも、キーボード120の不図示のアームレストにユーザの手や腕が触れている場合には人体通信を用いてもよい。   Data transmission / reception may be performed using the human body communication unit 21 and the human body communication unit 141, or may be performed using the wireless communication unit 22 and the wireless communication unit 142, or both of them may be used. For example, when the user is using the keyboard 120 or the mouse 130, human body communication is used. When the user is thinking and not using the keyboard 120 or the mouse 130, wireless communication may be used. Good. Further, when the input of the keyboard 120 is interrupted, wireless communication may be used. Even when the input of the keyboard 120 is interrupted, the user's hand or arm is in contact with the armrest (not shown) of the keyboard 120. May use human body communication.

一方、ユーザが新たに使用を開始するノートパソコン200を使用している場合には、ステップS14の判断が否定され、ステップS22に移行する。ステップS22に移行すると、出力部640が、GPSモジュール31の出力からユーザの位置情報を取得する。これは、ユーザが、例えば自宅にいるのか、ビジネスエリアにいるのかを確認するためである。このような確認を行うのは、例えば、ノートパソコンの場合、自宅で使用する場合と業務で使う場合とでは使用状態が異なることがあるからである(例えば、ノートパソコンを自宅で使用する場合であればスピーカの音量を「大」にするが、業務で使用する場合には「消音」にするなど)。   On the other hand, when the user is using the notebook personal computer 200 to be newly used, the determination in step S14 is denied and the process proceeds to step S22. If transfering it to step S22, the output part 640 will acquire a user's positional information from the output of the GPS module 31. FIG. This is to confirm whether the user is at home or in a business area, for example. Such confirmation is performed because, for example, in the case of a laptop computer, the usage state may differ between when used at home and when used at work (for example, when using a laptop computer at home). If there is, set the volume of the speaker to “High”, but “Mute” for business use).

次いで、ステップS24では、出力部640は、人体通信が成立している外部機器(ノートパソコン200)に送信可能なデータが存在するか否か判断する。この場合、出力部640は、例えば、外部機器情報テーブル(図3(B))に、人体通信を行っている外部機器と類似するカテゴリの機器で、ほぼ同じエリアで使用されている外部機器のデータが存在するかを判断する。ここで、図3(B)に示すように、外部機器情報テーブルには、ノートパソコン200とカテゴリが類似するデスクトップパソコン100のデータが格納されており、ノートパソコン200をユーザが使用しているエリアが、デスクトップパソコン100の使用エリア(会社)と一致しているとする。このような場合には、出力部640は、ノートパソコン200に送信可能なデータが存在すると判断する。   Next, in step S24, the output unit 640 determines whether there is data that can be transmitted to the external device (notebook computer 200) with which human body communication is established. In this case, the output unit 640 includes, for example, an external device information table (FIG. 3B) of an external device used in almost the same area in a category similar to the external device performing human body communication. Determine if data exists. Here, as shown in FIG. 3B, the external device information table stores data of the desktop personal computer 100 whose category is similar to that of the personal computer 200, and the area where the user is using the personal computer 200. Is the same as the use area (company) of the desktop personal computer 100. In such a case, the output unit 640 determines that there is data that can be transmitted to the notebook computer 200.

ステップS24の判断が否定された場合、すなわち、人体通信が成立している外部機器(ノートパソコン200)に送信可能なデータが存在しない場合には、図6の全処理を終了する。一方、ステップS24の判断が肯定された場合、すなわち、人体通信が成立している外部機器(ノートパソコン200)に送信可能なデータが存在する場合には、出力部640は、ステップS26において、フラッシュメモリ50から、携帯機器10やデスクトップパソコン100の使用に関する情報を取得し、ステップS28において、人体通信が成立している外部機器(ノートパソコン200)に、取得した情報を送信する。   If the determination in step S24 is negative, that is, if there is no data that can be transmitted to the external device (notebook computer 200) with which human body communication is established, the entire processing of FIG. On the other hand, if the determination in step S24 is affirmative, that is, if there is data that can be transmitted to an external device (notebook personal computer 200) with which human body communication is established, the output unit 640 performs flashing in step S26. Information regarding the use of the mobile device 10 or the desktop personal computer 100 is acquired from the memory 50, and the acquired information is transmitted to an external device (notebook personal computer 200) with which human body communication is established in step S28.

この場合、出力部640は、例えば、デスクトップパソコン100の表示装置の設定、文字変換の特徴、キーボードの感度設定などの情報を、ノートパソコン200に出力する。なお、出力された情報は、ノートパソコン200の記憶部250に記憶され、ノートパソコン200の操作時に参照されることになる。これにより、ユーザはパソコンの入れ替えによる各種設定操作をほとんど行わなくても良くなる。また、ユーザがノートパソコン200を初めて操作する場合でも、ユーザの操作の特徴(癖)をノートパソコン200に記憶させることができるので、ユーザはストレスを感じずにノートパソコン200の操作を行うことができるようになる。   In this case, the output unit 640 outputs, for example, information such as the display device setting of the desktop personal computer 100, character conversion characteristics, and keyboard sensitivity setting to the notebook personal computer 200. The output information is stored in the storage unit 250 of the notebook computer 200 and is referred to when the notebook computer 200 is operated. As a result, the user need not perform various setting operations by replacing the personal computer. Even when the user operates the notebook computer 200 for the first time, the user's operation characteristics (癖) can be stored in the notebook computer 200, so that the user can operate the notebook computer 200 without feeling stressed. become able to.

なお、ユーザがノートパソコン200を自宅で利用する場合には、出力部640は、インターネット等の検索履歴や、スピーカの設定については携帯機器10の使用に関する情報をノートパソコンに出力し、パソコン特有の設定については、デスクトップパソコン100の使用に関する情報を出力するようにしてもよい。このように、機器のカテゴリや設置場所に応じて、複数の機器の使用状態を、選択的に、新たに使用する機器に送信することで、ユーザによる機器の使い勝手を向上することができる。   When the user uses the notebook computer 200 at home, the output unit 640 outputs information related to the use of the mobile device 10 to the notebook computer for search history such as the Internet and speaker settings. As for the setting, information regarding the use of the desktop personal computer 100 may be output. As described above, according to the category or installation location of the device, the usage state of the plurality of devices is selectively transmitted to the newly used device, thereby improving the usability of the device by the user.

以上詳細に説明したように、本実施形態によると、携帯機器10は、デスクトップパソコン100と通信可能な通信部20と、ユーザによるデスクトップパソコン100の操作に応じて、デスクトップパソコン100の仕様に関する情報およびユーザによるデスクトップパソコン100の使用に関する情報の少なくとも一方を通信部20を介して入力する入力部620と、を備える。これにより、携帯機器10は、デスクトップパソコン100の仕様およびデスクトップパソコン100の使用状態を取得することができる。このようにして取得できたデスクトップパソコン100の情報を、他の機器(ノートパソコン200など)で利用することとすれば、他の機器の操作等をストレス無く行うことができるようになる。   As described above in detail, according to the present embodiment, the mobile device 10 includes the communication unit 20 that can communicate with the desktop personal computer 100 and information on the specifications of the desktop personal computer 100 according to the operation of the desktop personal computer 100 by the user. And an input unit 620 for inputting at least one of information regarding the use of the desktop personal computer 100 by the user via the communication unit 20. Thereby, the mobile device 10 can acquire the specifications of the desktop personal computer 100 and the usage state of the desktop personal computer 100. If the information of the desktop personal computer 100 obtained in this way is used in another device (such as the notebook personal computer 200), the operation of the other device can be performed without stress.

また、本実施形態の携帯機器10では、通信部20は、ユーザを介してデスクトップパソコン100と通信する人体通信部21を有しているので、ユーザに特別な操作を強いることなく、ユーザがデスクトップパソコン100を操作したタイミング(人体通信が成立したタイミング)で、デスクトップパソコン100の仕様および使用に関する情報を携帯機器10が取得することができる。   Further, in the mobile device 10 of the present embodiment, the communication unit 20 includes the human body communication unit 21 that communicates with the desktop personal computer 100 via the user, so that the user can use the desktop without forcing a special operation. At the timing when the personal computer 100 is operated (when the human body communication is established), the portable device 10 can acquire information regarding the specifications and use of the desktop personal computer 100.

また、本実施形態の携帯機器10は、位置情報を検出するGPSモジュール31を備え、出力部640は、GPSモジュール31が検出した位置情報に応じて、ノートパソコン200に対して情報を出力するので、ノートパソコン200の使用場所に適した情報がノートパソコン200に反映されるため、ノートパソコン200の使い勝手を向上することができる。また、本実施形態によれば、GPSモジュール31は、ユーザによるノートパソコン200の操作に応じて、位置情報を検出するので、ユーザに特別な操作を強いることなく、ユーザがノートパソコン200を操作すれば、ノートパソコン200を操作している場所に適した情報がノートパソコン200に反映されるため、ノートパソコン200の使い勝手が向上する。   In addition, the mobile device 10 of the present embodiment includes a GPS module 31 that detects position information, and the output unit 640 outputs information to the notebook computer 200 according to the position information detected by the GPS module 31. Since the information suitable for the place where the notebook computer 200 is used is reflected in the notebook computer 200, the usability of the notebook computer 200 can be improved. Further, according to the present embodiment, the GPS module 31 detects position information according to the operation of the notebook computer 200 by the user, so that the user can operate the notebook computer 200 without forcing the user to perform a special operation. For example, the information suitable for the place where the notebook computer 200 is operated is reflected on the notebook computer 200, so that the usability of the notebook computer 200 is improved.

また、本実施形態の携帯機器10では、出力部640は、ユーザによる携帯機器10やデスクトップパソコン100の使用に関する情報を出力するので、携帯機器10を操作する場合のユーザの操作の特徴(癖)を、ノートパソコン200に反映することができる。これにより、ユーザは、ノートパソコン200を初めて利用する場合などにおいても、ストレス無くノートパソコン200を操作することが可能となる。   Further, in the mobile device 10 of the present embodiment, the output unit 640 outputs information related to the use of the mobile device 10 and the desktop personal computer 100 by the user, so that the user operation characteristics when operating the mobile device 10 (癖) Can be reflected in the notebook computer 200. Thereby, even when the user uses the notebook computer 200 for the first time, the user can operate the notebook computer 200 without stress.

また、本実施形態の携帯機器10は、ユーザがデスクトップパソコン100を用いて作成した情報の入力部620による入力を規制する規制部630を備えるので、例えば、会社で作成した文章等がユーザの携帯機器10に記録されるのを防止することができる。   In addition, since the mobile device 10 according to the present embodiment includes the regulation unit 630 that regulates input by the user using the desktop personal computer 100 by the information input unit 620, for example, a sentence created by a company is carried by the user. Recording on the device 10 can be prevented.

また、本実施形態の携帯機器10は、ユーザを撮像する撮像部40を備え、入力部620は、撮像部40が撮像した画像を使用して、携帯機器10の使用に関する情報を入力するので、ユーザに特別な操作を強制することなく、携帯機器10の使用に関する情報(例えば、フォントが小さい場合に目を細めるという情報)を入力することができる。   Moreover, since the portable device 10 of the present embodiment includes the imaging unit 40 that images the user, and the input unit 620 uses the image captured by the imaging unit 40 to input information regarding the use of the portable device 10. Information on the use of the mobile device 10 (for example, information that narrows the eyes when the font is small) can be input without forcing the user to perform a special operation.

また、本実施形態では、出力部640は、ノートパソコン200のカテゴリに応じて、デスクトップパソコン100の使用に関する情報および携帯機器10の使用に関する情報の少なくとも一方をノートパソコン200へ出力するので、ノートパソコン200を使用するのに適したユーザの操作の特徴(癖)をノートパソコン200に反映させることができる。   In the present embodiment, the output unit 640 outputs at least one of the information related to the use of the desktop personal computer 100 and the information related to the use of the mobile device 10 to the notebook personal computer 200 according to the category of the notebook personal computer 200. The feature (癖) of the user's operation suitable for using 200 can be reflected on the notebook computer 200.

また、本実施形態によれば、出力部640は、表示に関する情報および感度に関する情報の少なくとも一方を出力するので、ユーザはノートパソコン200の使用を開始する場合に、これらの情報をノートパソコン200で設定する必要がなく、ノートパソコン200の使い勝手が向上する。この場合、表示に関する情報に文字変換の情報が含まれていれば、ユーザの文字変換時の癖を、ノートパソコン200に反映させることができ、ノートパソコン200の使い勝手が向上する。   In addition, according to the present embodiment, the output unit 640 outputs at least one of information relating to display and information relating to sensitivity. Therefore, when the user starts using the notebook computer 200, the information is displayed on the notebook computer 200. There is no need for setting, and the usability of the notebook computer 200 is improved. In this case, if the information about display includes character conversion information, the user's character conversion habit can be reflected in the notebook computer 200, and the usability of the notebook computer 200 is improved.

なお、上記実施形態では、外部機器がデスクトップパソコン100やノートパソコン200である場合について説明したが、これに限られるものではない。例えば、外部機器は、デジタルカメラであってもよい。この場合、古いデジタルカメラの露出や絞り等の細かい設定を人体通信等により携帯機器10に記憶しておくことで、新しいデジタルカメラを利用するときには、当該新しいデジタルカメラに携帯機器10から古いデジタルカメラの設定を送信することができるようになる。これにより、ユーザはストレスを感じることなく、新しいデジタルカメラを使用することが可能となる。   In the above embodiment, the case where the external device is the desktop personal computer 100 or the notebook personal computer 200 has been described. However, the present invention is not limited to this. For example, the external device may be a digital camera. In this case, by storing detailed settings such as exposure and aperture of the old digital camera in the portable device 10 by human body communication or the like, when using a new digital camera, the old digital camera is transferred from the portable device 10 to the new digital camera. You will be able to send your settings. As a result, the user can use the new digital camera without feeling stressed.

また、例えば、携帯機器10のディスプレイ12の大きさ(例えば3.5インチ)がデジタルカメラの背面液晶パネルと一致または類似するような場合は、携帯機器10のディスプレイ12の設定をデジタルカメラ側に送信してもよい。また、デジタルカメラにタッチパネルによる入力機能が搭載されている場合には、携帯機器10のタッチパネル14の設定をデジタルカメラ側に送信してもよい。このように、カテゴリの異なる機器において構成要素が同等・類似である場合には、その構成要素の使用状態を送信することによりユーザの機器の使い勝手を向上することができる。なお、デジタルカメラ以外の機器、例えばゲーム機器やミュージックプレーヤなどにも同様の機能を持たせることで、使い勝手の向上を図ることが可能となる。   For example, when the size (for example, 3.5 inches) of the display 12 of the mobile device 10 is the same as or similar to the rear liquid crystal panel of the digital camera, the setting of the display 12 of the mobile device 10 is set to the digital camera side. You may send it. If the input function using a touch panel is mounted on the digital camera, the settings of the touch panel 14 of the mobile device 10 may be transmitted to the digital camera side. As described above, when the components are the same or similar in devices of different categories, the usability of the user's device can be improved by transmitting the usage state of the components. In addition, it is possible to improve the usability by providing the same function to devices other than the digital camera, such as a game device or a music player.

なお、外部機器として、国内又は海外の空港などに設置されている案内装置を採用することとしてもよい。例えば、ユーザによる携帯機器10の使用言語が日本語であることが携帯機器情報テーブル(図3(A))に格納されている場合には、当該ユーザが案内装置の所定のタッチ部分(電極が設けられているものとする)をタッチしたときに、携帯機器10から使用言語「日本語」という情報を案内装置に対して送信するようにする。この場合、案内装置は、日本語による案内を表示するようにする。これにより、案内装置の使い勝手を向上することができる。また、案内装置は、当該案内装置の設置国と日本との違い(生活習慣や考え方の違いなど)を表示するようにしてもよい。例えば、ある国において、子供の頭をなでてはいけないという慣習があるならば、当該慣習を知らせるためのメッセージを案内装置上に表示することとすればよい。   In addition, it is good also as employ | adopting the guidance apparatus installed in the domestic or overseas airport etc. as an external apparatus. For example, when it is stored in the mobile device information table (FIG. 3A) that the language used by the user of the mobile device 10 is Japanese, the user can select a predetermined touch portion (electrode When the touch is made, information on the language used “Japanese” is transmitted from the portable device 10 to the guidance device. In this case, the guidance device displays guidance in Japanese. Thereby, the usability of the guidance device can be improved. In addition, the guidance device may display a difference between the country in which the guidance device is installed and Japan (such as a difference in lifestyle and way of thinking). For example, in a certain country, if there is a custom that the child's head should not be stroked, a message for informing the custom may be displayed on the guidance device.

また、携帯機器10からは、ユーザの属性に関する情報を案内装置に対して送信するようにしてもよい。この場合、例えば、携帯機器10のユーザが若年層であることが案内装置に対して送信された場合には、案内装置は、平易な表現を用いた情報や、平仮名を用いた表示を行うなどすればよい。このようにしても、案内装置の使い勝手を向上することができる。なお、案内装置としては、空港などに設置されるような大型の案内装置に限らず、美術館や動物園等で入場者に貸し出される携帯型の案内装置であってもよい。   Moreover, you may make it transmit the information regarding a user's attribute with respect to a guidance apparatus from the portable apparatus 10. FIG. In this case, for example, when it is transmitted to the guidance device that the user of the mobile device 10 is a younger generation, the guidance device performs information using plain expressions, display using hiragana, etc. do it. Even in this case, the usability of the guidance device can be improved. The guidance device is not limited to a large guidance device installed at an airport or the like, but may be a portable guidance device that is rented to visitors at a museum or a zoo.

また、例えば、携帯機器10が電子マネー機能を有している場合、携帯機器10に記憶されている通常使用している通貨に関する情報を案内装置に対して入力することとしてもよい。この場合、案内装置では、通常使用している通貨と訪問国の通貨との為替レートを出力するなどしてもよい。   In addition, for example, when the mobile device 10 has an electronic money function, information related to the currency that is normally used stored in the mobile device 10 may be input to the guidance device. In this case, the guidance device may output the exchange rate between the currency currently used and the currency of the visited country.

なお、携帯機器10から案内装置に対して、上記実施形態で説明した情報(フォントやタッチパネルの使用状態、スピーカ音量など)を送信することとしてもよい。案内装置では、これらの情報に基づいた表示を行うことで、ユーザによる使い勝手を向上することができる。   In addition, it is good also as transmitting the information (The usage condition of a font, a touch panel, a speaker volume, etc.) demonstrated in the said embodiment from the portable apparatus 10 with respect to a guidance apparatus. In the guidance device, display based on these pieces of information can improve usability for the user.

なお、上記実施形態で説明した携帯機器に関する情報を格納する携帯機器情報テーブル(図3(A))および外部機器に関する情報を格納する外部機器情報テーブル(図3(B))は、一例である。例えば、2つのテーブルを1つのテーブルに纏めてもよい。また、各テーブルの項目の一部を省略したり別の項目を追加することとしてもよい。   Note that the portable device information table (FIG. 3A) for storing information related to the mobile device described in the above embodiment and the external device information table (FIG. 3B) for storing information related to the external device are examples. . For example, two tables may be combined into one table. Also, some of the items in each table may be omitted or another item may be added.

なお、上記実施形態では、本発明の電子機器が、携帯機器10である場合について説明したが、これに限らず、電子機器の機能を、腕時計やネックレス、メガネ、補聴器など、ユーザが身に付ける物に設けることとしてもよい。   In the above embodiment, the case where the electronic device of the present invention is the mobile device 10 has been described. However, the present invention is not limited to this, and the user can wear the functions of the electronic device such as a wristwatch, a necklace, glasses, and a hearing aid. It is good also as providing in a thing.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10 携帯機器
12 ディスプレイ
14 マイク
20 通信部
21 人体通信部
31 GPSモジュール
40 撮像部
50 フラッシュメモリ
100 デスクトップパソコン
200 ノートパソコン
613 属性検出部
620 入力部
630 規制部
640 出力部

DESCRIPTION OF SYMBOLS 10 Portable apparatus 12 Display 14 Microphone 20 Communication part 21 Human body communication part 31 GPS module 40 Imaging part 50 Flash memory 100 Desktop personal computer 200 Notebook personal computer 613 Attribute detection part 620 Input part 630 Restriction part 640 Output part

Claims (8)

ユーザの機器の使用に関する情報を入力する入力部と、
外部機器と近接通信または人体通信を行う通信部と、
前記通信部が前記外部機器と通信した場合に、前記ユーザの機器の使用に関する情報に基づいて、前記外部機器が出力する情報及び前記外部機器が出力する情報の出力態様の少なくとも一方を、前記外部機器に出力する出力部と、
を備えたことを特徴とする電子機器。
An input unit for inputting information on the use of the user's device;
A communication unit that performs proximity communication or human body communication with an external device;
When the communication unit communicates with the external device, at least one of the information output by the external device and the output mode of the information output by the external device based on information on the use of the user device is An output unit that outputs to the device;
An electronic device characterized by comprising:
前記出力部は、前記入力部が入力した前記ユーザの使用言語に基づき、前記外部機器が出力する情報及び前記外部機器が出力する情報の出力態様の少なくとも一方を前記外部機器に出力することを特徴とする請求項1記載の電子機器。   The output unit outputs, to the external device, at least one of information output from the external device and an output mode of information output from the external device based on the language used by the user input by the input unit. The electronic device according to claim 1. 前記機器を使用している前記ユーザを撮像する撮像部と、
前記撮像部の撮像結果に基づいて前記ユーザの属性を検出する属性検出部と、を備え、
前記出力部は、前記ユーザの属性に応じた情報の出力及び前記ユーザの属性に応じた態様での情報出力の少なくとも一方を前記外部機器に出力することを特徴とする請求項1または2に記載の電子機器。
An imaging unit for imaging the user using the device;
An attribute detection unit that detects an attribute of the user based on an imaging result of the imaging unit,
The said output part outputs at least one of the output of the information according to the attribute of the said user, and the information output in the aspect according to the attribute of the said user to the said external device, The Claim 1 or 2 characterized by the above-mentioned. Electronic equipment.
表示を行う表示部を備え、
前記ユーザの機器の使用に関する情報は、前記ユーザの前記表示部の使用状態に関する情報を含み、
前記出力部は、前記入力部が入力した前記ユーザの前記表示部の使用状態に関する情報を前記外部機器に出力することを特徴とする請求項1から3のいずれか一項記載の電子機器。
It has a display unit that displays,
The information on the use of the user's device includes information on the usage state of the display unit of the user,
4. The electronic device according to claim 1, wherein the output unit outputs information regarding a usage state of the display unit of the user input by the input unit to the external device. 5.
音声を出力する音声出力部を備え、
前記ユーザの機器の使用に関する情報は、前記ユーザの前記音声出力部の使用状態に関する情報を含み、
前記出力部は、前記入力部が入力した前記ユーザの前記音声出力部の使用状態に関する情報を前記外部機器に出力することを特徴とする請求項1から4のいずれか一項記載の電子機器。
It has an audio output unit that outputs audio,
The information on the use of the user's device includes information on the usage state of the voice output unit of the user,
5. The electronic device according to claim 1, wherein the output unit outputs, to the external device, information related to a usage state of the voice output unit of the user input by the input unit.
電子的な支払いを行う支払部を備え、
前記ユーザの機器の使用に関する情報は、前記支払部で使用された前記ユーザの使用通貨に関する情報を含み、
前記出力部は、前記入力部が入力した前記ユーザの使用通貨に関する情報を前記外部機器に出力することを特徴とする請求項1から5のいずれか一項記載の電子機器。
With a payment department that makes electronic payments,
Information on the use of the user's equipment includes information on the user's currency used in the payment unit,
The electronic device according to claim 1, wherein the output unit outputs information on the user's currency used by the input unit to the external device.
前記出力部は、前記ユーザの使用言語に基づき、習慣に関する情報を出力することを特徴とする請求項2記載の電子機器。   The electronic device according to claim 2, wherein the output unit outputs information related to habits based on a language used by the user. 前記ユーザの機器の使用に関する情報を記憶する記憶部を備えることを特徴とする請求項1から7のいずれか一項に記載の電子機器。   The electronic device according to claim 1, further comprising a storage unit that stores information regarding use of the user's device.
JP2012135943A 2012-06-15 2012-06-15 Electronic device Pending JP2014002464A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012135943A JP2014002464A (en) 2012-06-15 2012-06-15 Electronic device
PCT/JP2013/062114 WO2013187138A1 (en) 2012-06-15 2013-04-24 Electronic device
CN201810603973.2A CN109101106B (en) 2012-06-15 2013-04-24 Electronic device
CN201380031196.4A CN104364736B (en) 2012-06-15 2013-04-24 Electronic equipment
US14/408,131 US20150145763A1 (en) 2012-06-15 2013-04-24 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012135943A JP2014002464A (en) 2012-06-15 2012-06-15 Electronic device

Publications (1)

Publication Number Publication Date
JP2014002464A true JP2014002464A (en) 2014-01-09

Family

ID=50035609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012135943A Pending JP2014002464A (en) 2012-06-15 2012-06-15 Electronic device

Country Status (1)

Country Link
JP (1) JP2014002464A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076624A (en) * 2001-09-03 2003-03-14 Nec Corp System and method for automatically setting computer environment using portable information terminal
JP2007312339A (en) * 2006-04-19 2007-11-29 Softbank Bb Corp Portable communication terminal and communication server
WO2009131130A1 (en) * 2008-04-23 2009-10-29 日本電気株式会社 Information processing system, information processing device, mobile communication device, and method for managing user information used for them
JP2010003012A (en) * 2008-06-18 2010-01-07 Denso Corp Guidance system
JP2011228878A (en) * 2010-04-19 2011-11-10 Nikon Corp Reproducer
JP2012103951A (en) * 2010-11-11 2012-05-31 Sony Corp Information processor, table, display control method, program, portable terminal and information processing system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076624A (en) * 2001-09-03 2003-03-14 Nec Corp System and method for automatically setting computer environment using portable information terminal
JP2007312339A (en) * 2006-04-19 2007-11-29 Softbank Bb Corp Portable communication terminal and communication server
WO2009131130A1 (en) * 2008-04-23 2009-10-29 日本電気株式会社 Information processing system, information processing device, mobile communication device, and method for managing user information used for them
JP2010003012A (en) * 2008-06-18 2010-01-07 Denso Corp Guidance system
JP2011228878A (en) * 2010-04-19 2011-11-10 Nikon Corp Reproducer
JP2012103951A (en) * 2010-11-11 2012-05-31 Sony Corp Information processor, table, display control method, program, portable terminal and information processing system

Similar Documents

Publication Publication Date Title
US11514430B2 (en) User interfaces for transfer accounts
US10191564B2 (en) Screen control method and device
US10097494B2 (en) Apparatus and method for providing information
US10552004B2 (en) Method for providing application, and electronic device therefor
US9122456B2 (en) Enhanced detachable sensory-interface device for a wireless personal communication device and method
US10185883B2 (en) Mobile terminal and method for controlling same
JP6012900B2 (en) Input method, apparatus, program, and recording medium
WO2013187138A1 (en) Electronic device
EP3149679A1 (en) User device enabling access to payment information in response to mechanical input detection
KR20140147557A (en) Mobile terminal and method for detecting a gesture to control functions
EP3046042A1 (en) Apparatus for implementing home button and fingerprint identification on single sensor
EP3343343A1 (en) Mobile terminal and control method for the mobile terminal
US20170076139A1 (en) Method of controlling mobile terminal using fingerprint recognition and mobile terminal using the same
KR20160071263A (en) Mobile terminal and method for controlling the same
KR102093328B1 (en) Method and system for recommending clothing using clothing and environmental information of user pictures
CN110162956B (en) Method and device for determining associated account
CN112068762A (en) Interface display method, device, equipment and medium of application program
US20160337855A1 (en) Mobile terminal and method for controlling the same
JP5942621B2 (en) Electronics
JP6601457B2 (en) Electronics
JP2016181271A (en) Electronic device
JP2014002464A (en) Electronic device
JP2014003380A (en) Electronic apparatus
KR20170083403A (en) Smart watch and controlling method using electromyograph singsl therof
CN112311652A (en) Message sending method, device, terminal and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160426