JP2013191103A - Electronic device and program - Google Patents

Electronic device and program Download PDF

Info

Publication number
JP2013191103A
JP2013191103A JP2012057950A JP2012057950A JP2013191103A JP 2013191103 A JP2013191103 A JP 2013191103A JP 2012057950 A JP2012057950 A JP 2012057950A JP 2012057950 A JP2012057950 A JP 2012057950A JP 2013191103 A JP2013191103 A JP 2013191103A
Authority
JP
Japan
Prior art keywords
unit
display
information
input
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012057950A
Other languages
Japanese (ja)
Inventor
Junji Tanaka
淳史 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012057950A priority Critical patent/JP2013191103A/en
Publication of JP2013191103A publication Critical patent/JP2013191103A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic device that can effectively input information to a person on an opposite surface side of a surface facing a user.SOLUTION: The electronic device comprises: a first output part and a second output part that are arranged in a front and rear position relationship with each other; a first input part that detects first information input from a side facing the first output part; a second input part that detects second information input from a side facing the second output part; a detection part that detects whether or not a user is present in each of directions facing the first output part and the second output part; and an output control part that controls respective outputs of the first output part and the second output part on the basis of a detection result of any of the first input part and the second input part and a detection result of the detection part.

Description

本発明は、電子機器、およびプログラムに関する。   The present invention relates to an electronic device and a program.

複数の互いに異なる視野方向から視認可能な表示領域に表示面を分割し、それぞれの表示領域に情報を表示する電子機器がある(例えば、特許文献1参照)。   There is an electronic device that divides a display surface into a plurality of display areas that can be viewed from a plurality of different viewing directions and displays information in each display area (see, for example, Patent Document 1).

特表2009−500737号公報Special table 2009-500737

しかしながら、特許文献1に示す電子機器にあっては、表示面に表示された情報を複数の視野方向から視認可能であったとしても、その視野方向はその表示面に対面する側に限られているという問題があった。   However, in the electronic device shown in Patent Document 1, even if the information displayed on the display surface can be viewed from a plurality of viewing directions, the viewing direction is limited to the side facing the display surface. There was a problem of being.

本発明は、このような事情に鑑みてなされたもので、その目的は、ユーザに対面する面の反対面側にいる人に対して有効に情報を出力することができる電子機器、およびプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an electronic device and a program capable of effectively outputting information to a person on the opposite side of the surface facing the user. It is to provide.

この発明は上述した課題を解決するためになされたもので、本発明は、互いに表裏の位置関係に配置されている第1出力部および第2出力部と、前記第1出力部に対面する側から入力される第1情報を検出する第1入力部と、前記第2出力部に対面する側から入力される第2情報を検出する第2入力部と、前記第1出力部および前記第2出力部に対面する方向のそれぞれにユーザがいるか否かを検出する検出部と、前記第1入力部および前記第2入力部のうち何れかの入力部の検出結果と、前記検出部の検出結果とに基づいて、前記第1出力部および前記第2出力部それぞれの出力を制御する出力制御部と、を備えることを特徴とする電子機器である。   The present invention has been made to solve the above-described problems. The present invention relates to a first output unit and a second output unit which are arranged in a positional relationship between the front and back sides, and a side facing the first output unit. A first input unit for detecting first information input from the second input unit, a second input unit for detecting second information input from a side facing the second output unit, the first output unit, and the second output unit. A detection unit for detecting whether or not there is a user in each direction facing the output unit; a detection result of any one of the first input unit and the second input unit; and a detection result of the detection unit And an output control unit that controls the output of each of the first output unit and the second output unit.

また、本発明は、互いに表裏の位置関係に配置されている第1出力部および第2出力部を有する電子機器が備えるコンピュータに、第1入力部に前記第1出力部に対面する側から入力される第1情報を検出させるステップと、第2入力部に前記第2出力部に対面する側から入力される第2情報を検出させるステップと、検出部に前記第1出力部および前記第2出力部に対面する方向のそれぞれにユーザがいるか否かを検出させるステップと、前記第1入力部および前記第2入力部のうち何れかの入力部の検出結果と、前記検出部の検出結果とに基づいて、前記第1出力部および前記第2出力部それぞれの出力を制御するステップと、を実行させるためのプログラムである。   According to the present invention, a computer provided in an electronic device having a first output unit and a second output unit that are arranged in a positional relationship with each other is input to a first input unit from a side facing the first output unit. Detecting the first information to be performed; causing the second input unit to detect the second information input from the side facing the second output unit; and causing the detection unit to detect the first output unit and the second information. Detecting whether or not there is a user in each of the directions facing the output unit, a detection result of any one of the first input unit and the second input unit, and a detection result of the detection unit, And a step of controlling the output of each of the first output unit and the second output unit based on the program.

この発明によれば、ユーザに対面する面の反対面側にいる人に対して有効に情報を出力することができる。   According to the present invention, information can be output effectively to a person on the opposite side of the surface facing the user.

本発明の一実施形態による電子機器の概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the electronic device by one Embodiment of this invention. 本発明の一実施形態による電子機器の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the electronic device by one Embodiment of this invention. 撮像された画像からユーザを検出する処理を説明する図である。It is a figure explaining the process which detects a user from the imaged image. 電子機器の両面側にユーザがいる場合の入出力制御を説明する図である。It is a figure explaining input / output control in case a user exists in the both surfaces side of an electronic device. 電子機器の片面側のみにユーザがいる場合の入出力制御を説明する図である。It is a figure explaining input / output control in case a user exists only in the single side | surface side of an electronic device. 翻訳機能を備えた電子機器の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the electronic device provided with the translation function. 電子機器の入出力制御処理の第1例を示すフローチャートである。It is a flowchart which shows the 1st example of the input / output control process of an electronic device. 電子機器の入出力制御処理の第2例を示すフローチャートである。It is a flowchart which shows the 2nd example of the input / output control process of an electronic device. 電子機器の入出力制御処理の第3例を示すフローチャートである。It is a flowchart which shows the 3rd example of the input / output control process of an electronic device. 電子機器の入出力制御処理の第4例を示すフローチャートである。It is a flowchart which shows the 4th example of the input / output control process of an electronic device. 電子機器の表示部に表示される表示情報の一例を示す図である。It is a figure which shows an example of the display information displayed on the display part of an electronic device. 電子機器の入出力制御の処理タイミングの第1例を示すタイミングチャートである。It is a timing chart which shows the 1st example of the processing timing of the input / output control of an electronic device. 電子機器の入出力制御の処理タイミングの第2例を示すタイミングチャートである。It is a timing chart which shows the 2nd example of the processing timing of the input / output control of an electronic device. 文章変換機能を備えた電子機器の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the electronic device provided with the text conversion function. 文章変換機能を用いた入出力制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the input / output control process using a text conversion function. 病院内で電子機器が使用されている状況を示す図である。It is a figure which shows the condition where the electronic device is used in the hospital. 第1表示部および第2表示部のそれぞれに表示される表示情報の表示方向を示す図である。It is a figure which shows the display direction of the display information displayed on each of a 1st display part and a 2nd display part.

<電子機器の構成>
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の一実施形態による電子機器100の概略構成を示す模式図である。
図1に示す電子機器100は、両面に表示部を有するタブレット型の電子機器である。この図に示す電子機器100は、互いに表裏の位置関係にある第1面101(第1筐体面)と第2面102(第2筐体面)とにおいて、第1面101に表示面を有する第1表示部21と、第2面102に表示面を有する第2表示部22と、を備えている。すなわち、電子機器100は、互いに表裏の位置関係に配置されている第1表示部21および第2表示部22を備えており、両面に情報または画像等を表示可能である。
図1(a)は、第1面101がユーザAに対面する面、および第2面102がユーザBに対面する面となるように電子機器100が把持されている状態を示している。また、図1(b)は、電子機器100の第1面101を示す図であり、図1(c)は、電子機器100の第2面102を示す図である。
<Configuration of electronic equipment>
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic diagram showing a schematic configuration of an electronic device 100 according to an embodiment of the present invention.
An electronic device 100 illustrated in FIG. 1 is a tablet-type electronic device having display portions on both sides. The electronic device 100 shown in this figure has a display surface on the first surface 101 of the first surface 101 (first housing surface) and the second surface 102 (second housing surface) that are in a positional relationship with each other. 1 display part 21 and 2nd display part 22 which has a display surface in the 2nd surface 102 are provided. That is, the electronic device 100 includes the first display unit 21 and the second display unit 22 that are arranged in a positional relationship between the front and back surfaces, and can display information, images, or the like on both sides.
FIG. 1A shows a state in which the electronic device 100 is gripped such that the first surface 101 faces the user A and the second surface 102 faces the user B. FIG. 1B is a diagram illustrating the first surface 101 of the electronic device 100, and FIG. 1C is a diagram illustrating the second surface 102 of the electronic device 100.

第1表示部21および第2表示部22は、操作入力用として、接触式の操作入力部(タッチパネル式の入力部)を備えている。例えば、この操作入力部は、第1表示部21および第2表示部22のそれぞれの表示面上における接触状態を検出する表示面接触センサ(第1接触状態検出部)として、第1表示部21の表示面上に第1表示面接触センサ33を備え、第2表示部22の表示面上に第2表示面接触センサ34を備えている。
なお、上記表示面接触センサは、表示面上のみに限らず、第1面101および第2面102のそれぞれの面上における接触状態を検出する構成としてもよい。
The first display unit 21 and the second display unit 22 include a contact type operation input unit (touch panel type input unit) for operation input. For example, the operation input unit is a first display unit 21 as a display surface contact sensor (first contact state detection unit) that detects a contact state on each display surface of the first display unit 21 and the second display unit 22. The first display surface contact sensor 33 is provided on the display surface, and the second display surface contact sensor 34 is provided on the display surface of the second display unit 22.
Note that the display surface contact sensor is not limited to the display surface, and may be configured to detect a contact state on each of the first surface 101 and the second surface 102.

また、電子機器100は、第1撮像部11と第2撮像部12とを備えている。第1撮像部11は、第1面101に配置され、第1表示部21の表示面に対面する方向(第1方向)を撮像する。また、第2撮像部12は、第2面102に配置され、第2表示部22の表示面に対面する方向(第2方向)を撮像する。
なお、以下の記述において、電子機器100のユーザAに対面する面を第1面101とし、その反対側の面でありユーザAに対面しない面を第2面102とする。同様に、電子機器100のユーザBに対面する面を第2面102とし、その反対側の面でありユーザBに対面しない面を第1面101とする。
The electronic device 100 includes a first imaging unit 11 and a second imaging unit 12. The first imaging unit 11 is arranged on the first surface 101 and images a direction (first direction) facing the display surface of the first display unit 21. The second imaging unit 12 is arranged on the second surface 102 and images the direction facing the display surface of the second display unit 22 (second direction).
In the following description, the surface facing the user A of the electronic device 100 is referred to as a first surface 101, and the opposite surface that is not facing the user A is referred to as a second surface 102. Similarly, a surface facing the user B of the electronic device 100 is a second surface 102, and a surface on the opposite side that is not facing the user B is a first surface 101.

ユーザAは、第1面101側の第1表示部21に表示された情報を視認するとともに、第1面101側を主な操作面として、第1表示部21の表面上に備えられている第1表示面接触センサ33により操作入力を行う。これに対し、ユーザBは、第2面102側の第2表示部22に表示された情報を視認するとともに、第2面102側を主な操作面として、第2表示部22の表面上に備えられている第2表示面接触センサ34により操作入力を行う。   The user A visually recognizes information displayed on the first display unit 21 on the first surface 101 side, and is provided on the surface of the first display unit 21 with the first surface 101 side as a main operation surface. An operation input is performed by the first display surface contact sensor 33. On the other hand, the user B visually recognizes the information displayed on the second display unit 22 on the second surface 102 side, and on the surface of the second display unit 22 with the second surface 102 side as a main operation surface. An operation input is performed by the second display surface contact sensor 34 provided.

また、電子機器100は、第1面101に配置されている第1音出力部26と、第2面102に配置されている第2音出力部27と、を備えている。さらに、電子機器100は、第1面101に配置されている第1音検出部38を有する第1音入力部36と、第2面102に配置されている第2音検出部39を有する第2音入力部37と、を備えている。   The electronic device 100 further includes a first sound output unit 26 disposed on the first surface 101 and a second sound output unit 27 disposed on the second surface 102. Furthermore, the electronic device 100 includes a first sound input unit 36 having a first sound detection unit 38 disposed on the first surface 101 and a second sound detection unit 39 disposed on the second surface 102. A two-sound input unit 37.

次に、図2を参照して、電子機器100の構成について説明する。
図2は、この発明の一実施形態による電子機器100の構成を示す概略ブロック図である。なお、図2において図1の各部に対応する部分には同一の符号を付けている。
Next, the configuration of the electronic device 100 will be described with reference to FIG.
FIG. 2 is a schematic block diagram showing the configuration of the electronic device 100 according to one embodiment of the present invention. In FIG. 2, parts corresponding to those in FIG. 1 are denoted by the same reference numerals.

図2に示す電子機器100は、撮像部10と、表示部20および音出力部25を有する出力部2と、操作入力部30および音入力部35を有する入力部3と、検出部40と、制御部50と、記憶部5と、バス9とを備えている。   The electronic device 100 shown in FIG. 2 includes an imaging unit 10, an output unit 2 having a display unit 20 and a sound output unit 25, an input unit 3 having an operation input unit 30 and a sound input unit 35, a detection unit 40, A control unit 50, a storage unit 5, and a bus 9 are provided.

撮像部10は、第1面101に配置されている第1撮像部11と、第2面102に配置されている第2撮像部12と、を備えている。例えば、第1撮像部11および第2撮像部12のそれぞれは、不図示であるが、光学レンズと、光学レンズを介して入力される被写体光束(光学像)を撮像する撮像素子と、当該撮像素子に撮像された撮像データをデジタル画像データとして出力する撮像信号処理部と、を有している。また、撮像部10は、後述する制御部50が備えている撮像制御部51により制御される。   The imaging unit 10 includes a first imaging unit 11 disposed on the first surface 101 and a second imaging unit 12 disposed on the second surface 102. For example, each of the first imaging unit 11 and the second imaging unit 12 is not shown, but includes an optical lens, an imaging element that captures a subject light beam (optical image) input via the optical lens, and the imaging An image signal processing unit that outputs image data captured by the element as digital image data. The imaging unit 10 is controlled by an imaging control unit 51 provided in the control unit 50 described later.

出力部2は、表示部20と、音出力部25と、を備えている。
表示部20は、第1面101に配置されている第1表示部21と、第2面102に配置されている第2表示部22と、を備えている。第1表示部21および第2表示部22は、例えば、液晶ディスプレイであって、情報または画像をそれぞれ表示する。また、表示部20は、タッチパネルであって、第1表示部21の表示面上に第1表示面接触センサ33が設けられ(配置され)、第2表示部22の表示面上に第2表示面接触センサ34が設けられ(配置され)ている。なお、第1表示面接触センサ33と第2表示面接触センサ34とは、後述する操作入力部30が備えている構成である。
The output unit 2 includes a display unit 20 and a sound output unit 25.
The display unit 20 includes a first display unit 21 disposed on the first surface 101 and a second display unit 22 disposed on the second surface 102. The first display unit 21 and the second display unit 22 are, for example, liquid crystal displays and display information or images, respectively. The display unit 20 is a touch panel, and a first display surface contact sensor 33 is provided (arranged) on the display surface of the first display unit 21, and a second display is displayed on the display surface of the second display unit 22. A surface contact sensor 34 is provided (arranged). In addition, the 1st display surface contact sensor 33 and the 2nd display surface contact sensor 34 are the structures with which the operation input part 30 mentioned later is provided.

音出力部25は、第1面101に配置されている第1音出力部26と、第2面102に配置されている第2音出力部27と、を備えている。第1音出力部26および第2音出力部27のそれぞれは、例えばスピーカーを有しており、制御部50の制御により、音声、操作音、または警告音などを出力する。   The sound output unit 25 includes a first sound output unit 26 disposed on the first surface 101 and a second sound output unit 27 disposed on the second surface 102. Each of the first sound output unit 26 and the second sound output unit 27 has a speaker, for example, and outputs a sound, an operation sound, a warning sound, or the like under the control of the control unit 50.

すなわち、電子機器100は、第1面101側の出力部(第1出力部)として、第1面101に配置されている第1表示部21および第1音出力部26を備えている。また、電子機器100は、第2面102側の出力部(第2出力部)として、第2面102に配置されている第2表示部22および第2音出力部27を備えている。   That is, the electronic device 100 includes the first display unit 21 and the first sound output unit 26 arranged on the first surface 101 as an output unit (first output unit) on the first surface 101 side. In addition, the electronic device 100 includes a second display unit 22 and a second sound output unit 27 arranged on the second surface 102 as an output unit (second output unit) on the second surface 102 side.

入力部3は、操作入力部30と、音入力部35と、を備えている。
操作入力部30は、第1面101に配置されている第1操作入力部31と、第2面102に配置されている第2操作入力部32とを備えている。例えば、第1操作入力部31は、第1表示部21の表示面上における接触状態を検出する第1表示面接触センサ33を備えている。また、第2操作入力部32は、第2表示部22の表示面上における接触状態を検出する第2表示面接触センサ34を備えている。
The input unit 3 includes an operation input unit 30 and a sound input unit 35.
The operation input unit 30 includes a first operation input unit 31 disposed on the first surface 101 and a second operation input unit 32 disposed on the second surface 102. For example, the first operation input unit 31 includes a first display surface contact sensor 33 that detects a contact state on the display surface of the first display unit 21. The second operation input unit 32 includes a second display surface contact sensor 34 that detects a contact state on the display surface of the second display unit 22.

ここで、表示面接触センサ(第1表示面接触センサ33および第2表示面接触センサ34)は、タッチパネル方式の操作入力デバイスであって、例えば、静電容量方式の接触センサである。なお、表示面接触センサは、静電容量方式に代えて、電磁誘導方式、赤外線方式、表面弾性波方式、抵抗膜方式、マトリクス・スイッチ方式、などとしてもよい。また、表示面接触センサは、例えば、同時に複数個所の接触を検出することができる多点入力可能な、所謂マルチタッチパネル方式としてもよい。   Here, the display surface contact sensors (the first display surface contact sensor 33 and the second display surface contact sensor 34) are touch panel type operation input devices, for example, capacitance type contact sensors. The display surface contact sensor may be an electromagnetic induction method, an infrared method, a surface acoustic wave method, a resistance film method, a matrix switch method, or the like instead of the capacitance method. Further, the display surface contact sensor may be of a so-called multi-touch panel type capable of multipoint input capable of detecting contact at a plurality of locations at the same time.

音入力部35は、第1面101に配置され、第1表示部21の表示面に対面する方向(第1方向)からの音を検出する第1音検出部38を有する第1音入力部36を備えている。また、音入力部35は、第2面102に配置され、第2表示部22の表示面に対面する方向(第2方向)からの音を検出する第2音検出部39を有する第2音入力部37を備えている。   The sound input unit 35 is disposed on the first surface 101 and has a first sound detection unit 38 that detects a sound from a direction facing the display surface of the first display unit 21 (first direction). 36. In addition, the sound input unit 35 is disposed on the second surface 102 and has a second sound detection unit 39 that detects a sound from a direction facing the display surface of the second display unit 22 (second direction). An input unit 37 is provided.

第1音検出部38および第2音検出部39のそれぞれは、例えば、入力された音を検出するマイクを有しており、制御部50の制御により、音声、または周囲音などを検出する。第1音入力部36は、第1音検出部38により検出された音(音声)を、音情報(音声情報)として取得する。また、第2音検出部39により検出された音を、音情報(音声情報)として取得する。   Each of the first sound detection unit 38 and the second sound detection unit 39 includes, for example, a microphone that detects an input sound, and detects a voice or an ambient sound under the control of the control unit 50. The first sound input unit 36 acquires the sound (voice) detected by the first sound detection unit 38 as sound information (voice information). Further, the sound detected by the second sound detection unit 39 is acquired as sound information (voice information).

すなわち、電子機器100は、第1面101側の入力部(第1入力部)として、第1面101に配置され、第1面101側(第1出力部に対面する側)から入力される情報(第1情報)を検出する第1操作入力部31および第1音入力部36を備えている。また、電子機器100は、第2面102側の入力部(第2入力部)として、第2面102に配置され、第2面102側(第2出力部に対面する側)から入力される情報(第2情報)を検出する第2操作入力部32および第2音入力部37を備えている。   That is, the electronic device 100 is arranged on the first surface 101 as an input unit (first input unit) on the first surface 101 side, and is input from the first surface 101 side (side facing the first output unit). A first operation input unit 31 and a first sound input unit 36 for detecting information (first information) are provided. In addition, the electronic device 100 is arranged on the second surface 102 as an input unit (second input unit) on the second surface 102 side, and is input from the second surface 102 side (side facing the second output unit). A second operation input unit 32 and a second sound input unit 37 for detecting information (second information) are provided.

検出部40は、顔検出部41と、姿勢検出部42と、把持状態検出部43と、音検出方向識別部44と、を備えている。例えば、検出部40は、第1面101(第1出力部)および第2面102(第2出力部)に対面する方向(側)のそれぞれにユーザがいるか否かを検出する。   The detection unit 40 includes a face detection unit 41, a posture detection unit 42, a gripping state detection unit 43, and a sound detection direction identification unit 44. For example, the detection unit 40 detects whether or not there is a user in each of the directions (sides) facing the first surface 101 (first output unit) and the second surface 102 (second output unit).

顔検出部41は、撮像部10により撮像された画像に基づいて、電子機器100の第1面101および第2面102に対面する方向(側)のそれぞれにユーザがいるか否かを検出する。例えば、顔検出部41は、第1撮像部11により撮像された第1画像、および第2撮像部12により撮像された第2画像のうちの何れかの画像(何れか一方の画像、或いは両方の画像)から顔の画像を検出する。そして、顔検出部41は、第1画像から顔の画像を検出したか否かに基づいて、第1表示部21の表示面(第1面101)に対面する方向にユーザがいるか否かを検出するとともに、第2画像から顔の画像を検出したか否かに基づいて、第2表示部22の表示面(第2面102)に対面する方向にユーザがいるか否かを検出する。   The face detection unit 41 detects whether or not there is a user in each of the directions (sides) facing the first surface 101 and the second surface 102 of the electronic device 100 based on the image captured by the imaging unit 10. For example, the face detection unit 41 may select one of the first image captured by the first imaging unit 11 and the second image captured by the second imaging unit 12 (either one image or both). Image of the face) is detected from the image. Then, the face detection unit 41 determines whether or not there is a user in a direction facing the display surface (first surface 101) of the first display unit 21 based on whether or not a face image is detected from the first image. In addition to detection, based on whether or not a face image is detected from the second image, it is detected whether or not there is a user in a direction facing the display surface (second surface 102) of the second display unit 22.

図3は、撮像された画像からユーザを検出する処理を説明する図である。
図3(a)は、電子機器100の第1面101に対面する方向にいるユーザAが電子機器100を把持している状態を示している。また、電子機器100の第2面102に対面する方向にはユーザBがいる。すなわち、ユーザAは電子機器100の第1面側の表示部や操作入力部を使用し、ユーザBは電子機器100の第2面側の表示部や操作入力部を使用する。
FIG. 3 is a diagram illustrating processing for detecting a user from a captured image.
FIG. 3A shows a state in which the user A who is in the direction facing the first surface 101 of the electronic device 100 is holding the electronic device 100. In addition, the user B is in the direction facing the second surface 102 of the electronic device 100. That is, the user A uses the display unit and the operation input unit on the first surface side of the electronic device 100, and the user B uses the display unit and the operation input unit on the second surface side of the electronic device 100.

第1撮像部11は、第1表示部21の表示面に対面する方向を撮像する。すなわち、図3(a)において、第1撮像部11は、電子機器100に対してユーザAがいる方向を撮像する。また、第2撮像部12は、第2表示部22の表示面に対面する方向を撮像する。すなわち、図3(a)において、第2撮像部12は、電子機器100に対してユーザBがいる方向を撮像する。   The first imaging unit 11 images the direction facing the display surface of the first display unit 21. That is, in FIG. 3A, the first imaging unit 11 images the direction in which the user A is with respect to the electronic device 100. In addition, the second imaging unit 12 images the direction facing the display surface of the second display unit 22. That is, in FIG. 3A, the second imaging unit 12 images the direction in which the user B is with respect to the electronic device 100.

これにより撮像された画像の例を図3(b)および図3(c)にそれぞれ示す。図3(b)は、第1撮像部11によって撮像された第1画像の一例であって、画像領域内にユーザAが撮像されていることを示している。また、図3(c)は、第2撮像部12によって撮像された第2画像の一例であって、画像領域内にユーザBが撮像されていることを示している。この場合、顔検出部41は、第1画像からユーザAの顔(顔画像)を検出するとともに、第2画像からユーザBの顔(顔画像)を検出する。これにより、顔検出部41は、第1面101に対面する方向および第2面102に対面する方向の何れの方向にもユーザがいることを検出する。   Examples of images thus captured are shown in FIGS. 3B and 3C, respectively. FIG. 3B is an example of the first image captured by the first imaging unit 11 and shows that the user A is captured in the image area. FIG. 3C is an example of the second image captured by the second imaging unit 12 and shows that the user B is captured in the image area. In this case, the face detection unit 41 detects the face (face image) of the user A from the first image, and detects the face (face image) of the user B from the second image. As a result, the face detection unit 41 detects that the user is present in either the direction facing the first surface 101 or the direction facing the second surface 102.

すなわち、顔検出部41は、第1撮像部11により撮像された第1画像に基づいて、第1表示部21の表示面(第1面101)に対面する方向にユーザがいるか否かを検出するとともに、第2撮像部12により撮像された第2画像に基づいて、第2表示部22の表示面(第2面102)に対面する方向にユーザがいるか否かを検出する。   That is, the face detection unit 41 detects whether there is a user in a direction facing the display surface (first surface 101) of the first display unit 21 based on the first image captured by the first imaging unit 11. At the same time, based on the second image picked up by the second image pickup unit 12, it is detected whether or not there is a user in a direction facing the display surface (second surface 102) of the second display unit 22.

また、顔検出部41は、撮像された画像から顔を検出する場合、例えば、顔の形状や特徴をテンプレートとして予め記憶しておき、撮像された画像に対してテンプレートマッチングすることにより顔を検出する。なお、顔検出部41は、撮像された画像の画像領域に対する検出した顔の位置、大きさ、方向などに基づいて、ユーザがいるか否か(電子機器100のそれぞれの面を使用しているユーザがいるか否か)を検出してもよい。
また、顔検出部41は、撮像された画像から顔を検出するのに代えて、眼や身体を検出してもよい。これにより、顔検出部41は、撮像された画像から眼や身体を検出し、検出した方向に基づいて、第1表示部21または第2表示部22の表示面に対面する方向にユーザがいるか否かを検出してもよい。また、顔検出部41は、検出結果を制御部50に出力する。
In addition, when detecting the face from the captured image, the face detection unit 41 stores the face shape and features as a template in advance, and detects the face by performing template matching on the captured image. To do. Note that the face detection unit 41 determines whether there is a user based on the position, size, direction, and the like of the detected face with respect to the image area of the captured image (users using each surface of the electronic device 100). Or not) may be detected.
Further, the face detection unit 41 may detect eyes or a body instead of detecting a face from the captured image. Thereby, the face detection unit 41 detects the eyes and the body from the captured image, and based on the detected direction, is the user in a direction facing the display surface of the first display unit 21 or the second display unit 22? Whether or not may be detected. Further, the face detection unit 41 outputs the detection result to the control unit 50.

図2に戻り、姿勢検出部42は、電子機器100の姿勢を検出する。例えば、姿勢検出部42は、加速度センサ、角速度センサ、傾斜センサ、または、地磁気センサ等を有しており、水平面に平行な面に含まれる互いに直交するX軸,Y軸、および水平面に直交するZ軸により定まる3次元空間における位置や角度により示される電子機器100の姿勢や動きを検出する。また、姿勢検出部42は、検出した電子機器100の姿勢や動きを制御部50に出力する。   Returning to FIG. 2, the posture detection unit 42 detects the posture of the electronic device 100. For example, the posture detection unit 42 includes an acceleration sensor, an angular velocity sensor, an inclination sensor, a geomagnetic sensor, or the like, and is orthogonal to the X axis, the Y axis, and the horizontal plane that are included in a plane parallel to the horizontal plane. The posture and movement of the electronic device 100 indicated by the position and angle in the three-dimensional space determined by the Z axis are detected. In addition, the posture detection unit 42 outputs the detected posture and movement of the electronic device 100 to the control unit 50.

把持状態検出部43は、電子機器100がユーザにより把持されている状態を把持状態として検出する。例えば、把持状態検出部43は、第1表示部21の表示面上における接触状態を検出する第1表示面接触センサ33と、第2表示部22の表示面上における接触状態を検出する第2表示面接触センサ34と、によって検出されるそれぞれの表示面上における接触状態に基づいて、把持状態を検出する。これにより、把持状態検出部43は、例えば、電子機器100が操作者の手により把持されている場合の把持されている位置、または、電子機器100の第1表示部21および第2表示部22のうちの何れの表示部がユーザに対面する表示部として把持されているか等を検出する。
例えば、把持状態検出部43は、上述の把持状態に基づいて、電子機器100の第1面101および第2面102に対面する方向(側)のそれぞれにユーザがいるか否かを検出してもよい。
The gripping state detection unit 43 detects a state where the electronic device 100 is gripped by the user as a gripping state. For example, the gripping state detection unit 43 detects the contact state on the display surface of the first display unit 21 and the second display unit detects the contact state on the display surface of the second display unit 22. The gripping state is detected based on the contact state on each display surface detected by the display surface contact sensor 34. Accordingly, the gripping state detection unit 43 is, for example, a gripped position when the electronic device 100 is gripped by an operator's hand, or the first display unit 21 and the second display unit 22 of the electronic device 100. Which display unit is gripped as a display unit facing the user is detected.
For example, the gripping state detection unit 43 may detect whether there is a user in each of the directions (sides) facing the first surface 101 and the second surface 102 of the electronic device 100 based on the gripping state described above. Good.

音検出方向識別部44は、第1音検出部38および第2音検出部39の何れかにより検出された音が、第1表示部21の表示面に対面する方向および第2表示部22の表示面に対面する方向のうち何れの方向からの音であるかを識別する。例えば、音検出方向識別部44は、第1音検出部38および第2音検出部39が検出する音の大きさに基づいて、第1表示部21の表示面に対面する方向から検出された音であるか、または第2表示部22の表示面に対面する方向から検出された音であるか、を識別する。   The sound detection direction identification unit 44 is configured so that the sound detected by either the first sound detection unit 38 or the second sound detection unit 39 faces the display surface of the first display unit 21 and the second display unit 22. Which direction is the sound from the directions facing the display surface is identified. For example, the sound detection direction identification unit 44 is detected from the direction facing the display surface of the first display unit 21 based on the volume of sound detected by the first sound detection unit 38 and the second sound detection unit 39. Whether the sound is detected or the sound detected from the direction facing the display surface of the second display unit 22 is identified.

制御部50は、撮像制御部51と、出力制御部としての表示制御部52および音出力制御部53と、入力制御部としての操作入力制御部54および音入力制御部55と、を備えている。
撮像制御部51は、撮像部10の撮像処理を制御する。例えば、撮像制御部51は、撮像部10が備えている各撮像部に撮像させる撮像タイミング信号を出力する。
The control unit 50 includes an imaging control unit 51, a display control unit 52 and a sound output control unit 53 as output control units, and an operation input control unit 54 and a sound input control unit 55 as input control units. .
The imaging control unit 51 controls the imaging process of the imaging unit 10. For example, the imaging control unit 51 outputs an imaging timing signal that causes each imaging unit included in the imaging unit 10 to perform imaging.

表示制御部52は、表示部20の表示処理を制御する。例えば、表示制御部52は、表示部20が備えている各表示部に表示させる情報(表示情報)を選択して表示させる処理、各表示部において情報を表示させる表示領域を設定する処理、各表示部の表示のオン(表示状態)とオフ(非表示状態)とを切り替える処理等を制御する。ここで、各表示部に表示させる情報(表示情報)とは、画像、文字またはアイコン等による情報、メニュー画面等、の何れであってもよい。   The display control unit 52 controls display processing of the display unit 20. For example, the display control unit 52 selects and displays information (display information) to be displayed on each display unit included in the display unit 20, sets a display area for displaying information on each display unit, A process of switching the display on (display state) and off (non-display state) is controlled. Here, the information (display information) displayed on each display unit may be any of information such as images, characters or icons, a menu screen, and the like.

音出力制御部53は、音出力部25の出力処理を制御する。例えば、音出力制御部53は、音出力部25が備えている各音出力部に出力させる情報(音声情報)を選択して出力させる処理を制御する。   The sound output control unit 53 controls output processing of the sound output unit 25. For example, the sound output control unit 53 controls processing to select and output information (audio information) to be output to each sound output unit included in the sound output unit 25.

操作入力制御部54は、操作入力部30において入力される操作に対する検出処理を制御する。例えば、操作入力制御部54は、操作入力部が備えている各表示面接触センサの検出領域の変更、検出動作のオン(検出動作状態)とオフ(検出停止状態)との切り替え処理等を制御する。また、操作入力制御部54は、第1操作入力部31および第2操作入力部32の何れから操作入力を検出したかを判定する。   The operation input control unit 54 controls detection processing for operations input through the operation input unit 30. For example, the operation input control unit 54 controls a detection area change of each display surface contact sensor provided in the operation input unit, a switching process between detection operation on (detection operation state) and off (detection stop state), and the like. To do. Further, the operation input control unit 54 determines from which of the first operation input unit 31 and the second operation input unit 32 the operation input is detected.

音入力制御部55は、音入力部35に入力される音に対する検出処理を制御する。例えば、音入力制御部55は、音入力部35が検出する音の周波数帯域、サンプリング周期、検出期間などを制御する。   The sound input control unit 55 controls the detection process for the sound input to the sound input unit 35. For example, the sound input control unit 55 controls the frequency band of the sound detected by the sound input unit 35, the sampling period, the detection period, and the like.

記憶部5には、表示部20に表示させる情報等が記憶されている。例えば、記憶部5には、表示部20に表示させる情報として、画像、文字またはアイコン等による情報、メニュー画面等、のデータが記憶されている。この記憶部5に記憶されている情報は、制御部50の制御によって読み出される。   The storage unit 5 stores information to be displayed on the display unit 20. For example, as information to be displayed on the display unit 20, the storage unit 5 stores data such as images, information on characters or icons, menu screens, and the like. Information stored in the storage unit 5 is read out under the control of the control unit 50.

バス9は、撮像部10、表示部20、音出力部25、操作入力部30、音入力部35、検出部40、制御部50、および記憶部5に接続され、各部から出力された画像データ、音データ、検出信号、制御信号等を転送する。   The bus 9 is connected to the imaging unit 10, the display unit 20, the sound output unit 25, the operation input unit 30, the sound input unit 35, the detection unit 40, the control unit 50, and the storage unit 5, and image data output from each unit. Sound data, detection signal, control signal, etc. are transferred.

(入出力制御の説明)
次に、本実施形態の電子機器100における入出力制御について説明する。
前述したように、電子機器100は、第1出力部(第1面101側の出力部)としての第1表示部21および第1音出力部26と、第2出力部(第2面102側の出力部)としての第2表示部22および第2音出力部27とを備えている。
また、電子機器100は、第1入力部(第1面101側の入力部)としての第1操作入力部31および第1音入力部36と、第2入力部(第2面102側の入力部)としての第2操作入力部32および第2音入力部37とを備えている。
(Description of input / output control)
Next, input / output control in the electronic device 100 of the present embodiment will be described.
As described above, the electronic device 100 includes the first display unit 21 and the first sound output unit 26 as the first output unit (the output unit on the first surface 101 side), and the second output unit (the second surface 102 side). The second display unit 22 and the second sound output unit 27 are provided.
The electronic device 100 includes a first operation input unit 31 and a first sound input unit 36 as a first input unit (input unit on the first surface 101 side), and a second input unit (input on the second surface 102 side). A second operation input unit 32 and a second sound input unit 37.

制御部50は、上述の第1入力部および第2入力部のうち何れかの入力部の検出結果と、検出部40の検出結果とに基づいて、上述の第1出力部および第2出力部それぞれの出力を制御する。
図4は、電子機器100の両面側にユーザがいる場合の入出力制御を説明する図である。また、図5は、電子機器100の片面側のみにユーザがいる場合の入出力制御を説明する図である。以下、図4、5を用いて、本実施形態の入出力制御の概要について説明する。
The control unit 50 includes the first output unit and the second output unit described above based on the detection result of any one of the first input unit and the second input unit described above and the detection result of the detection unit 40. Control each output.
FIG. 4 is a diagram illustrating input / output control when there are users on both sides of the electronic device 100. FIG. 5 is a diagram illustrating input / output control when the user is on only one side of the electronic device 100. Hereinafter, an outline of the input / output control of the present embodiment will be described with reference to FIGS.

まず、図4を用いて、電子機器100の両面側にユーザがいる場合の入出力制御の概要を説明する。図4に示すように、検出部40は、第1面101に対面する方向を撮像した第1画像および第2面102に対面する方向を撮像した第2画像の両方の画像からそれぞれ顔を検出(ユーザAおよびユーザBの顔を検出)する(符号201参照)。この場合、制御部50は、第1入力部が検出した情報(第1情報)に基づいて出力する情報(第3情報)を、第2出力部から出力させる(符号202参照)とともに、第2入力部が検出した情報(第2情報)に基づいて出力する情報(第4情報)を、第1出力部から出力させる(符号203参照)。   First, an outline of input / output control when there are users on both sides of the electronic device 100 will be described with reference to FIG. As shown in FIG. 4, the detection unit 40 detects a face from both the first image obtained by imaging the direction facing the first surface 101 and the second image obtained by imaging the direction facing the second surface 102. (Detect faces of user A and user B) (see reference numeral 201). In this case, the control unit 50 causes the second output unit to output information (third information) to be output based on the information (first information) detected by the first input unit (see reference numeral 202), and the second Information (fourth information) to be output based on information (second information) detected by the input unit is output from the first output unit (see reference numeral 203).

例えば、表示制御部52は、顔検出部41により、第1表示部21および第2表示部22の表示面に対面する方向のそれぞれ両方にユーザがいると検出された場合、第1入力部が検出した第1情報に基づいて出力する第3情報を、第2表示部22に表示させる。また、表示制御部52は、第2入力部が検出した第2情報に基づいて出力する第4情報を、第1表示部21に表示させる。   For example, when the display control unit 52 detects that the user is present in both directions facing the display surfaces of the first display unit 21 and the second display unit 22 by the face detection unit 41, the first input unit is Third information to be output based on the detected first information is displayed on the second display unit 22. In addition, the display control unit 52 causes the first display unit 21 to display fourth information that is output based on the second information detected by the second input unit.

ここで、第1入力部が検出した第1情報は、第1操作入力部31が検出した情報および第1音入力部36が検出した情報の何れであってもよい。また、第2入力部が検出した第2情報は、第2操作入力部32が検出した情報および第2音入力部37が検出した情報の何れであってもよい。   Here, the first information detected by the first input unit may be any of information detected by the first operation input unit 31 and information detected by the first sound input unit 36. The second information detected by the second input unit may be any of information detected by the second operation input unit 32 and information detected by the second sound input unit 37.

なお、表示制御部52の制御に代えて、音出力制御部53の制御としてもよい。例えば、音出力制御部53は、顔検出部41により、第1表示部21および第2表示部22の表示面に対面する方向のそれぞれ両方にユーザがいると検出された場合、第1入力部が検出した第1情報に基づいて出力する第3情報を、第2音出力部27から出力させてもよい。また、音出力制御部53は、第2入力部が検出した第2情報に基づいて出力する第4情報を、第1音出力部26から出力させてもよい。   Instead of the control of the display control unit 52, the sound output control unit 53 may be controlled. For example, if the sound output control unit 53 detects that the user is in both directions facing the display surfaces of the first display unit 21 and the second display unit 22 by the face detection unit 41, the first input unit The third information to be output based on the first information detected by may be output from the second sound output unit 27. Further, the sound output control unit 53 may cause the first sound output unit 26 to output fourth information to be output based on the second information detected by the second input unit.

次に、図5を用いて、電子機器100の片面側のみにユーザがいる場合の入出力制御の概要を説明する。図5(a)に示すように、検出部40は、第1面101に対面する方向を撮像した第1画像からのみ顔を検出(ユーザAの顔を検出)する(符号204参照)。この場合、制御部50は、第1入力部が検出した第1情報に基づいて出力する第3情報を、第1出力部から出力させる(符号205参照)。   Next, an outline of input / output control when the user is on only one side of the electronic device 100 will be described with reference to FIG. As shown in FIG. 5A, the detection unit 40 detects a face only (detects the face of the user A) from the first image obtained by imaging the direction facing the first surface 101 (see reference numeral 204). In this case, the control unit 50 causes the first output unit to output third information to be output based on the first information detected by the first input unit (see reference numeral 205).

例えば、表示制御部52は、顔検出部41により、第1表示部21の表示面に対面する方向のみにユーザがいると検出された場合、第1入力部が検出した第1情報に基づいて出力する第3情報を、第1表示部21に表示させる。   For example, when the face detection unit 41 detects that the user is present only in the direction facing the display surface of the first display unit 21, the display control unit 52 is based on the first information detected by the first input unit. The third information to be output is displayed on the first display unit 21.

また、図5(b)に示すように、検出部40は、第2面102に対面する方向を撮像した第2画像からのみ顔を検出(ユーザBの顔を検出)する(符号206参照)。この場合、制御部50は、第2入力部が検出した第2情報に基づいて出力する第4情報を、第2出力部から出力させる(符号207参照)。   As shown in FIG. 5B, the detection unit 40 detects a face only (detects the face of the user B) from the second image obtained by imaging the direction facing the second surface 102 (see reference numeral 206). . In this case, the control unit 50 causes the second output unit to output fourth information to be output based on the second information detected by the second input unit (see reference numeral 207).

例えば、表示制御部52は、顔検出部41により、第2表示部22の表示面に対面する方向のみにユーザがいると検出された場合、第2入力部が検出した第2情報に基づいて出力する第4情報を、第2表示部22に表示させる。   For example, when the face detection unit 41 detects that the user is only in the direction facing the display surface of the second display unit 22, the display control unit 52 is based on the second information detected by the second input unit. The fourth information to be output is displayed on the second display unit 22.

ここで、図5(a)に示す第1入力部が検出した第1情報は、第1操作入力部31が検出した情報および第1音入力部36が検出した情報の何れであってもよい。また、図5(b)に示す第2入力部が検出した第2情報は、第2操作入力部32が検出した情報および第2音入力部37が検出した情報の何れであってもよい。   Here, the first information detected by the first input unit shown in FIG. 5A may be either the information detected by the first operation input unit 31 or the information detected by the first sound input unit 36. . Further, the second information detected by the second input unit shown in FIG. 5B may be either the information detected by the second operation input unit 32 or the information detected by the second sound input unit 37.

なお、図5(a)、(b)に示す制御も図4に示す制御と同様に、表示制御部52の制御に代えて、音出力制御部53の制御としてもよい。例えば、音出力制御部53は、顔検出部41により、第1表示部21の表示面に対面する方向のみにユーザがいると検出された場合、第1入力部が検出した第1情報に基づいて出力する第3情報を、第1音出力部26から出力させてもよい。また、音出力制御部53は、顔検出部41により、第2表示部22の表示面に対面する方向のみにユーザがいると検出された場合、第2入力部が検出した第2情報に基づいて出力する第4情報を、第2音出力部27にから出力させてもよい。   Note that the control shown in FIGS. 5A and 5B may be controlled by the sound output control unit 53 instead of the control by the display control unit 52, similarly to the control shown in FIG. For example, when the face detection unit 41 detects that the user is present only in the direction facing the display surface of the first display unit 21, the sound output control unit 53 is based on the first information detected by the first input unit. The third information to be output may be output from the first sound output unit 26. Further, when the face detection unit 41 detects that the user is present only in the direction facing the display surface of the second display unit 22, the sound output control unit 53 is based on the second information detected by the second input unit. The fourth information to be output may be output from the second sound output unit 27.

このように、制御部50は、電子機器100の両面側にユーザがいると検出された場合、互いに表裏の関係にある面から入力された情報に基づいて出力する情報を、入力された面の反対面から出力させるように制御する。また、制御部50は、電子機器100の片面側のみにユーザがいると検出された場合、ユーザがいる面から入力された情報に基づいて出力する情報を、入力された面と同じ面から出力させるように制御する。   As described above, when it is detected that there are users on both sides of the electronic device 100, the control unit 50 outputs information to be output based on information input from surfaces that are in a front-to-back relationship with each other. Control to output from the opposite side. In addition, when it is detected that the user is on only one side of the electronic device 100, the control unit 50 outputs information to be output based on information input from the surface where the user is present from the same surface as the input surface. To control.

これにより、電子機器100は、電子機器100の両面側にユーザがいると検出された場合、ユーザによって入力された情報に基づいて出力する情報を、入力された面の反対面側にいるユーザに対面する側から出力することができる。例えば、第1面101に対面する方向にいるユーザAから入力された情報に基づいて出力する情報を、第1面101の反対面となるユーザBに対面する第2面102から出力することができる。よって、電子機器100は、互いに表裏の位置関係に備えられている入力部から入力された情報に基づいて出力する情報を、入力された面と反対面側の出力部から出力することにより、反対面側にいるユーザに有効に伝えることができる。   Thereby, when it is detected that there are users on both sides of the electronic device 100, the electronic device 100 sends information to be output based on the information input by the user to the user on the opposite side of the input surface. Output from the facing side. For example, information to be output based on information input from the user A in the direction facing the first surface 101 may be output from the second surface 102 facing the user B, which is the opposite surface of the first surface 101. it can. Therefore, the electronic device 100 outputs the information to be output based on the information input from the input unit provided in the front and back positional relationship from the output unit on the side opposite to the input surface, thereby It can be effectively communicated to the user on the face side.

また、電子機器100は、電子機器100の片面側のみにユーザがいる場合には、入力された情報に基づいて出力する情報を、入力された面と同じ面(すなわち、ユーザがいる面)の出力部から出力することができる。よって、電子機器100は、電子機器100の両面側にユーザがいる場合と片面側のみにユーザがいる場合とに応じて、適切に制御することができる。   In addition, when there is a user only on one side of electronic device 100, electronic device 100 outputs information to be output based on the input information on the same surface as the input surface (that is, the surface on which the user is present). It can be output from the output unit. Therefore, the electronic device 100 can appropriately control depending on whether the user is on both sides of the electronic device 100 or the user is on only one side.

なお、図4に示す制御において、電子機器100は、符号202が示す制御(第1面101からの入力された情報に基づいて第2面102から出力する制御)、および符号203が示す制御(第2面102からの入力された情報に基づいて第1面101から出力する制御)の何れか一方の制御のみ実行する構成としてもよい。   In the control shown in FIG. 4, the electronic device 100 controls the control indicated by reference numeral 202 (control output from the second face 102 based on the information input from the first face 101) and the control indicated by reference numeral 203 ( Only one control of the control (output from the first surface 101 based on the information input from the second surface 102) may be executed.

<翻訳機能を備えた電子機器の例>
次に、本実施形態の電子機器が翻訳機能を備えている場合を例として、上述した入出力制御について詳しく説明する。
図6は、翻訳機能を備えた電子機器200の構成の一例を示す概略ブロック図である。この図6に示す電子機器200の構成は、図2に示す電子機器100の構成に対して翻訳部6と、言語推定部7と、情報変換部60と、を備えている点が異なる。なお、図6において、図2の各部に対応する構成には同一の符号を付け、その説明を省略する。
<Example of electronic equipment with translation function>
Next, the input / output control described above will be described in detail by taking as an example the case where the electronic apparatus of the present embodiment has a translation function.
FIG. 6 is a schematic block diagram illustrating an example of the configuration of an electronic device 200 having a translation function. The configuration of the electronic device 200 shown in FIG. 6 differs from the configuration of the electronic device 100 shown in FIG. 2 in that a translation unit 6, a language estimation unit 7, and an information conversion unit 60 are provided. In FIG. 6, components corresponding to those in FIG. 2 are assigned the same reference numerals, and descriptions thereof are omitted.

翻訳部6は、言語により表された文字情報を翻訳し、この翻訳した言語により表された文字情報に変換する。例えば、記憶部5には、複数の国の言語を翻訳するための辞書情報が登録(記憶)されており、翻訳部6は、記憶部5に登録されている辞書情報に基づいて、入力された文字情報を翻訳する。   The translation unit 6 translates the character information represented by the language and converts it into character information represented by the translated language. For example, dictionary information for translating languages of a plurality of countries is registered (stored) in the storage unit 5, and the translation unit 6 is input based on the dictionary information registered in the storage unit 5. Translate the text information.

具体的には、翻訳部6は、第1入力部から入力された第1情報に含まれる第1言語により表された文字情報を、第1言語と異なる第2言語により表された文字情報を含む第3情報(第2出力部に出力する第3情報)に変換する。また、翻訳部6は、第2入力部から入力された第2情報に含まれる第2言語により表された文字情報を、第1言語により表された文字情報を含む第4情報(第1出力部に出力する第4情報)に変換する。   Specifically, the translation unit 6 converts the character information expressed in the first language included in the first information input from the first input unit into the character information expressed in the second language different from the first language. It converts into the 3rd information (3rd information output to a 2nd output part) including. Also, the translation unit 6 converts the character information expressed in the second language included in the second information input from the second input unit into the fourth information (first output) including the character information expressed in the first language. 4th information to be output to the unit).

ここで、第1言語は、例えば第1面101に対面する方向にいるユーザAが用いる国の言語である。一方、第2言語は、例えば第2面102に対面する方向にいるユーザBが用いる国の言語である。例えば、翻訳部6は、ユーザAにより入力された第1言語により表された文字情報を、第2表示部22の表示面に対面する方向に検出されたユーザBに対応した第2言語(ユーザBが用いる言語)により表された文字情報に変換する。また、翻訳部6は、ユーザBにより入力された第2言語により表された文字情報を、第1表示部21の表示面に対面する方向に検出されたユーザAに対応した第1言語(ユーザAが用いる言語)により表された文字情報に変換する。   Here, the first language is, for example, the language of the country used by the user A in the direction facing the first surface 101. On the other hand, the second language is a language of a country used by the user B in a direction facing the second surface 102, for example. For example, the translation unit 6 converts the character information represented by the first language input by the user A into the second language (user) corresponding to the user B detected in the direction facing the display surface of the second display unit 22. (Language used by B). In addition, the translation unit 6 converts the character information represented by the second language input by the user B into the first language (user) corresponding to the user A detected in the direction facing the display surface of the first display unit 21. (Language used by A) is converted into character information.

言語推定部7は、顔検出部41により検出された顔の画像に基づいて、検出された顔のユーザが属する国の言語の候補を推定する。例えば、言語推定部7は、第2画像から検出された顔の画像(顔の特徴)に基づいて、翻訳部6が翻訳する複数の国の言語として、第2表示部22の表示面に対面する方向のユーザBが属する国の言語の候補を推定する。   Based on the face image detected by the face detection unit 41, the language estimation unit 7 estimates a language candidate of the country to which the user of the detected face belongs. For example, the language estimation unit 7 faces the display surface of the second display unit 22 as languages of a plurality of countries translated by the translation unit 6 based on the face image (facial features) detected from the second image. The language candidate of the country to which the user B in the direction to which the user belongs belongs is estimated.

なお、例えば、記憶部5には、顔の特徴を示す顔特徴情報と、この顔特徴情報に対応付けられた複数の国の言語の候補が登録されている。そして、推定部7は、第2画像から検出された顔の画像(顔の特徴)と、記憶部5に登録されている顔特徴情報に対応付けられた複数の国の言語の候補と、に基づいてユーザBが属する国の言語の候補を推定する   For example, in the storage unit 5, facial feature information indicating facial features and language candidates in a plurality of countries associated with the facial feature information are registered. Then, the estimation unit 7 includes a face image (facial feature) detected from the second image and a plurality of country language candidates associated with the face feature information registered in the storage unit 5. Based on the candidate language of the country to which user B belongs

なお、翻訳部6が翻訳する言語は、ユーザにより選択された言語としてもよい。例えば、表示制御部52が表示部20に言語選択メニューを表示して、この言語選択メニューにおいてユーザにより選択された言語を翻訳部6が翻訳する言語としてもよい。   In addition, the language which the translation part 6 translates is good also as a language selected by the user. For example, the display control unit 52 may display a language selection menu on the display unit 20, and the language selected by the user in the language selection menu may be a language that the translation unit 6 translates.

また、翻訳部6は、第1言語により表された文字情報を、複数の国の言語それぞれにより表された複数の文字情報に翻訳するとともに、この翻訳した複数の文字情報を表示制御部52の制御により第2表示部22に表示させてもよい。そして、翻訳部6は、第2表示部22に表示させた複数の国の言語それぞれにより表された複数の文字情報のうち選択された文字情報の言語を第2言語として翻訳してもよい。これにより、ユーザBは、第2表示部22に表示された複数の国の言語それぞれにより表された文字情報から、ユーザBが用いる言語により表された文字情報を選択することができる。   The translation unit 6 translates the character information expressed in the first language into a plurality of character information expressed in languages of a plurality of countries, and the translated character information is displayed in the display control unit 52. You may display on the 2nd display part 22 by control. And the translation part 6 may translate the language of the character information selected among the several character information represented by each of the language of the several country displayed on the 2nd display part 22 as a 2nd language. Thereby, the user B can select the character information expressed by the language used by the user B from the character information expressed by the languages of the plurality of countries displayed on the second display unit 22.

さらに、上述したように、複数の国の言語それぞれにより表された複数の文字情報を第2表示部22に表示させて、ユーザBに翻訳言語を選択させる場合、翻訳部6は、第1言語により表された文字情報を、第2画像から検出された顔の画像に基づいて、複数の国の言語それぞれにより表された複数の文字情報に翻訳してもよい。
つまり、翻訳部6は、第2画像から検出された顔の画像に基づいて推定される国の言語(検出された顔のユーザが属すると推定される国の言語、例えば、アジア系の言語、アングロサクソン系の言語、など)に翻訳してもよい。例えば、翻訳部6は、検出された顔に基づいて言語推定部7が推定した複数の国の言語の候補に翻訳してもよい。
Furthermore, as described above, when displaying a plurality of character information expressed in each of languages of a plurality of countries on the second display unit 22 and causing the user B to select a translation language, the translation unit 6 May be translated into a plurality of pieces of character information represented in languages of a plurality of countries based on the face image detected from the second image.
That is, the translation unit 6 determines the language of the country estimated based on the face image detected from the second image (the language of the country estimated to which the user of the detected face belongs, for example, an Asian language, Anglo-Saxon language, etc.) may be translated. For example, the translation unit 6 may translate the language candidates of a plurality of countries estimated by the language estimation unit 7 based on the detected face.

情報変換部60は、言語により表された文字情報を音声情報に変換する第1情報変換部61(第1変換部)と、音声情報を文字情報に変換する第2情報変換部62(第2変換部)と、を備えている。   The information conversion unit 60 includes a first information conversion unit 61 (first conversion unit) that converts character information expressed in a language into audio information, and a second information conversion unit 62 (second output) that converts audio information into character information. Conversion unit).

例えば、音出力制御部53は、第1情報変換部61が変換した音声情報を、第1音出力部26および第2音出力部27の何れかから出力させる。これにより、電子機器200は、翻訳した文字情報を音声情報として出力することができる。例えば、音出力制御部53は、第1情報変換部61が第2言語により表された文字情報を変換した音声情報を、第2音出力部27から出力させるとともに、第1情報変換部61が第1言語により表された文字情報を変換した音声情報を、第1音出力部26から出力させる。   For example, the sound output control unit 53 causes the sound information converted by the first information conversion unit 61 to be output from either the first sound output unit 26 or the second sound output unit 27. Thereby, the electronic device 200 can output the translated character information as voice information. For example, the sound output control unit 53 causes the first information conversion unit 61 to output the sound information obtained by converting the character information expressed in the second language from the second sound output unit 27, and the first information conversion unit 61 The sound information obtained by converting the character information expressed in the first language is output from the first sound output unit 26.

これにより、電子機器200は、ユーザAが入力した第1言語により表された文字情報を第2言語により表された文字情報に翻訳するとともに、第2言語により表された文字情報を音声情報として第2音出力部27から出力することができる。また、電子機器200は、ユーザBが入力した第2言語により表された文字情報を第1言語により表された文字情報に翻訳するとともに、第1言語により表された文字情報を音声情報として第1音出力部26から出力することができる。   Thereby, the electronic device 200 translates the character information expressed in the first language input by the user A into the character information expressed in the second language, and uses the character information expressed in the second language as voice information. The sound can be output from the second sound output unit 27. In addition, the electronic device 200 translates the character information expressed in the second language input by the user B into the character information expressed in the first language, and uses the character information expressed in the first language as the voice information. The single sound output unit 26 can output the sound.

また、第2情報変換部62は、第1音検出部および前記第2音検出部の何れかにより検出された音声情報を、文字情報に変換する。
例えば、翻訳部6は、第2情報変換部62が第1音検出部38により検出された音声情報を変換した、第1言語により表された文字情報を、第2言語により表された文字情報に翻訳する。また、翻訳部6は、第2情報変換部62が第2音検出部39により検出された音声情報を変換した、第2言語により表された文字情報を、第1言語により表された文字情報に翻訳する。
The second information conversion unit 62 converts the voice information detected by either the first sound detection unit or the second sound detection unit into character information.
For example, the translation unit 6 converts the character information expressed in the first language into the character information expressed in the second language, in which the second information conversion unit 62 converts the voice information detected by the first sound detection unit 38. Translate to In addition, the translation unit 6 converts the character information expressed in the second language into the character information expressed in the first language, which is obtained by converting the voice information detected by the second sound detection unit 39 by the second information conversion unit 62. Translate to

これにより、電子機器200は、ユーザAが第1言語を用いた音声で入力した音声情報を文字情報に変換するとともに、変換した第1言語により表された文字情報を、第2言語により表された文字情報に翻訳することができる。また、電子機器200は、ユーザBが第2言語を用いた音声で入力した音声情報を文字情報に変換するとともに、変換した第2言語により表された文字情報を、第1言語により表された文字情報に翻訳することができる。   Thereby, the electronic device 200 converts the voice information input by the user A with the voice using the first language into the character information, and the character information expressed in the converted first language is expressed in the second language. Can be translated into character information. In addition, the electronic device 200 converts the voice information input by the user B using voice in the second language into character information, and the character information expressed in the converted second language is expressed in the first language. Can be translated into text information.

よって、電子機器200は、ユーザAが第1言語を用いた音声で入力した音声情報を、文字情報に変換するとともに、第2言語により表された文字情報に翻訳して第2表示部22に表示することができる。また、同様に、電子機器200は、ユーザBが第2言語を用いた音声で入力した音声情報を、文字情報に変換するとともに、第1言語により表された文字情報に翻訳して第1表示部21に表示することができる。さらに、電子機器200は、上述の第1情報変換部61の機能も併用することにより、ユーザAが第1言語を用いた音声で入力した音声情報を、第2言語を用いた音声で第2音出力部27から出力することができる。また、同様に、電子機器200は、ユーザBが第2言語を用いた音声で入力した音声情報を、第1言語を用いた音声で第1音出力部26から出力することができる。   Therefore, the electronic device 200 converts the voice information input by the user A with the voice using the first language into the character information, and translates it into the character information expressed in the second language. Can be displayed. Similarly, the electronic device 200 converts the voice information input by the user B using voice in the second language into character information and translates it into character information expressed in the first language for the first display. It can be displayed on the part 21. Furthermore, the electronic device 200 uses the function of the first information conversion unit 61 described above in combination, so that the voice information input by the user A using the first language using the second language is used as the second voice information using the second language. The sound can be output from the sound output unit 27. Similarly, the electronic device 200 can output, from the first sound output unit 26, voice information input by the user B using voice using the second language, using voice using the first language.

(翻訳機能を備えた電子機器における入出力制御の処理の説明)
次に、電子機器200における翻訳機能を用いた入出力制御の処理の動作について説明する。なお、以下の説明において、第1言語を日本語とし、第2言語を英語として記述する。
(Explanation of input / output control processing in electronic equipment with translation function)
Next, the operation of the input / output control process using the translation function in the electronic device 200 will be described. In the following description, the first language is described as Japanese and the second language is described as English.

図7は、電子機器200の入出力制御処理の第1例を示すフローチャートである。この図7を参照して、電子機器200が第1面101側(第1面101に対面する方向)、および第2面102側(第2面102に対面する方向)の顔を検出した結果に基づいて行う入出力制御処理の動作について説明する。   FIG. 7 is a flowchart illustrating a first example of input / output control processing of the electronic device 200. Referring to FIG. 7, a result of electronic device 200 detecting a face on the first surface 101 side (direction facing first surface 101) and second surface 102 side (direction facing second surface 102). The operation of the input / output control process performed based on the above will be described.

まず、検出部40は、撮像部10により撮像された画像から顔の画像を検出する(ステップS1)。次に、検出部40は、撮像部10により撮像された画像から第1面101側に顔があるか否か(すなわちユーザAがいるか否か)を判定する(ステップS2)。例えば、検出部40は、第1撮像部11により撮像された第1画像から顔の画像を検出したか否かに基づいて、第1面101側に顔があるか否かを判定する。ステップS2において第1面101側に顔がない(すなわちユーザAがいない)と判定された場合、検出部40は、ステップS6に処理を進める。   First, the detection unit 40 detects a face image from the image captured by the imaging unit 10 (step S1). Next, the detection unit 40 determines whether there is a face on the first surface 101 side (that is, whether there is a user A) from the image captured by the imaging unit 10 (step S2). For example, the detection unit 40 determines whether or not there is a face on the first surface 101 side based on whether or not a face image is detected from the first image captured by the first imaging unit 11. When it is determined in step S2 that there is no face on the first surface 101 side (that is, there is no user A), the detection unit 40 advances the processing to step S6.

一方、ステップS2において、第1面101側に顔がある(すなわちユーザAがいる)と判定された場合、検出部40は、撮像部10により撮像された画像から第2面102側に顔があるか否か(すなわちユーザBがいるか否か)を判定する(ステップS3)。例えば、検出部40は、第2撮像部12により撮像された第2画像から顔の画像を検出したか否かに基づいて、第2面102側に顔があるか否かを判定する。   On the other hand, when it is determined in step S2 that there is a face on the first surface 101 side (ie, there is a user A), the detection unit 40 has a face on the second surface 102 side from the image captured by the imaging unit 10. It is determined whether there is (that is, whether there is a user B) (step S3). For example, the detection unit 40 determines whether or not there is a face on the second surface 102 side based on whether or not a face image is detected from the second image captured by the second imaging unit 12.

ステップS3において、第2面102側に顔がある(すなわちユーザBがいる)と判定された場合、検出部40は、両面側にユーザがいる(第1面101側にユーザAおよび第2面102側にユーザBがそれぞれいる)と判定する。この検出部40の結果を受けて、制御部50は、第1面101側から入力された日本語により表された情報を、翻訳部6により英語により表され情報に翻訳して第2面102側に出力する(例えば、第2表示部22に表示させる)。また、制御部50は、第2面102側から入力された英語により表された情報を、翻訳部6により日本語により表され情報に翻訳して第1面101側に出力する(例えば、第1表示部21に表示させる)(ステップS4)。   If it is determined in step S3 that there is a face on the second surface 102 side (that is, user B is present), the detection unit 40 has users on both sides (user A and second surface on the first surface 101 side). It is determined that there is a user B on the 102 side). In response to the result of the detection unit 40, the control unit 50 translates information expressed in Japanese input from the first surface 101 side into information expressed in English by the translation unit 6, and the second surface 102. (For example, displayed on the second display unit 22). Further, the control unit 50 translates the information expressed in English input from the second surface 102 side into information expressed in Japanese by the translation unit 6 and outputs the information to the first surface 101 side (for example, the first surface 101). 1 is displayed on the display unit 21) (step S4).

一方、ステップS3において、第2面102側に顔がない(すなわちユーザBがいない)と判定された場合、検出部40は、第1面101側のみにユーザAがいると判定する。この検出部40の結果を受けて、制御部50は、第1面101側から入力された日本語により表された情報を、翻訳部6により英語により表され情報に翻訳して第1面101側に出力する(例えば、第1表示部21に表示させる)(ステップS5)。   On the other hand, when it is determined in step S3 that there is no face on the second surface 102 side (that is, there is no user B), the detection unit 40 determines that the user A exists only on the first surface 101 side. In response to the result of the detection unit 40, the control unit 50 translates information expressed in Japanese input from the first surface 101 side into information expressed in English by the translation unit 6. (For example, displayed on the first display unit 21) (step S5).

また、ステップS6において、検出部40は、撮像部10により撮像された画像から第2面102側に顔があるか否か(すなわちユーザBがいるか否か)を判定する。例えば、検出部40は、ステップS3と同様に、第2撮像部12により撮像された第2画像から顔の画像を検出したか否かに基づいて、第2面102側に顔があるか否かを判定する。   In step S <b> 6, the detection unit 40 determines whether or not there is a face on the second surface 102 side from the image captured by the imaging unit 10 (that is, whether or not there is a user B). For example, the detection unit 40 determines whether or not there is a face on the second surface 102 side based on whether or not a face image is detected from the second image captured by the second imaging unit 12 as in step S3. Determine whether.

ステップS6において、第2面102側に顔がある(すなわちユーザBがいる)と判定された場合、検出部40は、第2面102側のみにユーザBがいると判定する。この検出部40の結果を受けて、制御部50は、第2面102側から入力された英語により表された情報を、翻訳部6により日本語により表され情報に翻訳して第2面102側に出力する(例えば、第2表示部22に表示させる)(ステップS7)。また、ステップS6において、第2面102側に顔がない(すなわちユーザBがいない)と判定された場合、検出部40は、両面側の何れにもユーザがいないと判定して、ステップS1に処理を戻す。   In step S6, when it is determined that there is a face on the second surface 102 side (that is, there is a user B), the detection unit 40 determines that the user B exists only on the second surface 102 side. In response to the result of the detection unit 40, the control unit 50 translates information expressed in English input from the second surface 102 side into information expressed in Japanese by the translation unit 6 and converted into information. (For example, displayed on the second display unit 22) (step S7). If it is determined in step S6 that there is no face on the second surface 102 side (that is, there is no user B), the detection unit 40 determines that there is no user on either side, and the process proceeds to step S1. Return processing.

このように、制御部50は、電子機器200の両面側にユーザがいると検出された場合、互いに表裏の関係にある面から入力された情報を翻訳した情報を、入力された面の反対面から出力させるように制御する。また、制御部50は、電子機器200の片面側のみにユーザがいると検出された場合、ユーザがいる面から入力された情報を翻訳した情報を、入力された面と同じ面から出力させるように制御する。   As described above, when it is detected that there are users on both sides of the electronic device 200, the control unit 50 translates information input from the surfaces that are in a relationship of the front and back to the opposite surface of the input surface. Control to output from. In addition, when it is detected that the user is present only on one side of the electronic device 200, the control unit 50 outputs information obtained by translating information input from the surface where the user is present from the same surface as the input surface. To control.

これにより、電子機器200は、電子機器200の両面側にユーザがいると検出された場合、ユーザによって入力された情報を翻訳した情報を、入力された面の反対面側にいるユーザに対面する側から出力することができる。また、電子機器200は、電子機器200の片面側のみにユーザがいる場合には、入力された情報を翻訳した情報を、入力された面と同じ面(すなわち、ユーザがいる面)の出力部から出力することができる。よって、電子機器100は、電子機器100の両面側にユーザがいる場合と片面側のみにユーザがいる場合とに応じて、適切に制御することができる。   As a result, when it is detected that there are users on both sides of the electronic device 200, the electronic device 200 faces information obtained by translating the information input by the user to the user on the opposite side of the input surface. Can be output from the side. In addition, in the case where the user is on only one side of the electronic device 200, the electronic device 200 outputs the information obtained by translating the input information on the same surface as the input surface (that is, the surface on which the user is present). Can be output from. Therefore, the electronic device 100 can appropriately control depending on whether the user is on both sides of the electronic device 100 or the user is on only one side.

次に、電子機器200の両面側に顔が検出された状態において、それぞれの面から情報が入力された際の処理について説明する。
図8は、電子機器200の入出力制御処理の第2例を示すフローチャートであって、電子機器200の両面側に顔が検出された状態における入出力制御処理を示している。
Next, processing when information is input from each surface in a state where faces are detected on both surfaces of the electronic device 200 will be described.
FIG. 8 is a flowchart showing a second example of the input / output control process of the electronic device 200, and shows the input / output control process in a state where faces are detected on both sides of the electronic device 200.

まず、検出部40は、電子機器200の両面側に顔が検出された(第1面101側にユーザAおよび第2面102側にユーザBがそれぞれいる)と判定する(ステップS11)。次に、入力部3は、第1面101側または第2面102側からの入力を検出する(ステップS12)。   First, the detection unit 40 determines that faces are detected on both sides of the electronic device 200 (user A is on the first surface 101 side and user B is on the second surface 102 side) (step S11). Next, the input unit 3 detects an input from the first surface 101 side or the second surface 102 side (step S12).

続いて、入力部3は、第1面101側から入力があったか否かを判定する(ステップS13)。ステップS13において、第1面101側から入力があったと判定された場合、翻訳部6は、入力された日本語により表された情報を、英語により表された情報に翻訳する(ステップS14)。そして、制御部50は、翻訳部6の翻訳結果である英語により表された情報を第2面102側に出力する(例えば、第2表示部22に表示させる)(ステップS15)。   Subsequently, the input unit 3 determines whether or not there is an input from the first surface 101 side (step S13). If it is determined in step S13 that there is an input from the first surface 101 side, the translation unit 6 translates the input information expressed in Japanese into information expressed in English (step S14). And the control part 50 outputs the information represented by the English which is the translation result of the translation part 6 to the 2nd surface 102 side (for example, is displayed on the 2nd display part 22) (step S15).

一方、ステップS13において、第1面101側から入力がないと判定された場合、入力部3は、第2面102側から入力があったか否かを判定する(ステップS16)。ステップS16において、第2面102側から入力があったと判定された場合、翻訳部6は、入力された英語により表された情報を、日本語により表された情報に翻訳する(ステップS17)。そして、制御部50は、翻訳部6の翻訳結果である日本語により表された情報を第1面101側に出力する(例えば、第1表示部21に表示させる)(ステップS18)。また、ステップS16において、第2面102側から入力がないと判定された場合、検出部40は、ステップS12に処理を戻して入力が検出されるまでステップS12、S13、S16の処理を繰り返す。   On the other hand, when it is determined in step S13 that there is no input from the first surface 101 side, the input unit 3 determines whether or not there is an input from the second surface 102 side (step S16). If it is determined in step S16 that there is an input from the second surface 102 side, the translation unit 6 translates the input information expressed in English into information expressed in Japanese (step S17). And the control part 50 outputs the information represented by the Japanese which is the translation result of the translation part 6 to the 1st surface 101 side (for example, it displays on the 1st display part 21) (step S18). If it is determined in step S16 that there is no input from the second surface 102 side, the detection unit 40 returns to step S12 and repeats the processes in steps S12, S13, and S16 until an input is detected.

このように、制御部50は、電子機器200の両面側にユーザがいると検出された場合、互いに表裏の関係にある面から入力された情報を翻訳した情報を、入力された面の反対面から出力させるように制御する。   As described above, when it is detected that there are users on both sides of the electronic device 200, the control unit 50 translates information input from the surfaces that are in a relationship of the front and back to the opposite surface of the input surface. Control to output from.

これにより、電子機器200は、電子機器200の両面側にユーザがいると検出された場合、ユーザによって入力された情報を翻訳した情報を、入力された面の反対面側にいるユーザに対面する側から出力することができる。例えば、電子機器200は、第1面101に対面する方向にいるユーザAから入力された情報(例えば日本語により表された情報)をユーザBに伝えるために翻訳した情報(例えば英語により表された情報)を、第1面101の反対面となるユーザBに対面する第2面102から出力することができる。よって、電子機器200は、互いに表裏の位置関係に備えられている入力部から入力された情報を翻訳した情報を、入力された面と反対面側の出力部から出力することにより、反対面側にいるユーザに有効に伝えることができる。   As a result, when it is detected that there are users on both sides of the electronic device 200, the electronic device 200 faces information obtained by translating the information input by the user to the user on the opposite side of the input surface. Can be output from the side. For example, the electronic device 200 translates information (for example, expressed in English) that is translated to convey information (for example, information expressed in Japanese) input from the user A in the direction facing the first surface 101 to the user B. Can be output from the second surface 102 facing the user B, which is the opposite surface of the first surface 101. Therefore, the electronic device 200 outputs information obtained by translating the information input from the input units provided in the front and back positional relationship from the output unit on the side opposite to the input side, so that the opposite side Can be effectively communicated to users in

次に、電子機器200の両面側に顔が検出された状態において、第1面101側から情報が入力された際に複数の言語に翻訳して第2面側に表示することによりユーザBに翻訳言語を選択可能とする処理について説明する。
図9は、電子機器200の入出力制御処理の第3例を示すフローチャートであって、選択可能なように複数の翻訳言語を表示する処理の一例を示している。
Next, in a state where faces are detected on both sides of the electronic device 200, when information is input from the first surface 101 side, it is translated into a plurality of languages and displayed on the second surface side to the user B. Processing for enabling selection of a translation language will be described.
FIG. 9 is a flowchart showing a third example of the input / output control process of the electronic device 200, and shows an example of a process of displaying a plurality of translated languages so that they can be selected.

まず、検出部40は、電子機器200の両面側に顔が検出された(第1面101側にユーザAおよび第2面102側にユーザBがそれぞれいる)と判定する(ステップS21)。次に、入力部3は、第1面101側から情報(日本語により表された情報)が入力されたことを検出する(ステップS22)。   First, the detection unit 40 determines that faces are detected on both sides of the electronic device 200 (user A is on the first surface 101 side and user B is on the second surface 102 side) (step S21). Next, the input unit 3 detects that information (information expressed in Japanese) is input from the first surface 101 side (step S22).

続いて、翻訳部6は、入力された日本語により表された情報を、設定された複数の国の言語(複数の翻訳言語)を用いて翻訳する(ステップS25)。例えば、翻訳部6は、入力された日本語により表された情報を、予め設定された、英語、仏語、独語、中国語、等により表された情報にそれぞれ翻訳する。   Subsequently, the translation unit 6 translates the information expressed in the input Japanese using the set languages of a plurality of countries (a plurality of translation languages) (step S25). For example, the translation unit 6 translates input information represented in Japanese into information represented in English, French, German, Chinese, and the like set in advance.

そして、制御部50は、翻訳部6の翻訳結果である複数の国の言語(複数の翻訳言語)を用いて表された(翻訳された)情報から、使用する翻訳言語(ユーザBが用いる言語)を選択可能な選択画面(選択メニュー)を第2面102側に出力する(例えば、第2表示部22に表示させる)(ステップS26)。例えば、制御部50は、英語、仏語、独語、中国語、等により表された情報を選択可能な選択画面(選択メニュー)を第2表示部22に表示させる。   Then, the control unit 50 uses the translated language (language used by the user B) from the information expressed (translated) using the languages of a plurality of countries (a plurality of translated languages) as the translation result of the translation unit 6. ) Is selectable (selection menu) is output to the second surface 102 side (for example, displayed on the second display unit 22) (step S26). For example, the control unit 50 causes the second display unit 22 to display a selection screen (selection menu) on which information represented in English, French, German, Chinese, and the like can be selected.

そして、第2表示面接触センサ34に対するユーザBのタッチ操作を検出することにより、制御部50は、第2表示部22に表示させた複数の翻訳言語の中にユーザBが用いる翻訳言語(該当言語)があるか否か(言語が選択されたか否か)を判定する(ステップS27)。   And by detecting the touch operation of the user B with respect to the 2nd display surface contact sensor 34, the control part 50 is the translation language (the applicable) which the user B uses among the several translation languages displayed on the 2nd display part 22. It is determined whether or not (language) is present (whether or not a language is selected) (step S27).

ステップS27において、ユーザBが用いる翻訳言語(該当言語)がある(言語が選択された)と判定された場合、翻訳部6は、選択された言語(例えば英語)を翻訳言語として設定する(ステップS28)。一方、ステップS27において、ユーザBが用いる翻訳言語(該当言語)がないと判定された場合(言語が選択されず、例えば他の国の言語の候補を表示させるボタンに対するタッチ操作が検出された場合)、翻訳部6は、翻訳言語の候補の設定を変更して(ステップS29)、ステップS25に処理を戻す。そして、翻訳部6は、変更した候補の翻訳言語を用いて翻訳し、ステップS26以降の処理を繰り返す。   If it is determined in step S27 that there is a translation language (corresponding language) used by the user B (a language is selected), the translation unit 6 sets the selected language (for example, English) as the translation language (step S27). S28). On the other hand, if it is determined in step S27 that there is no translation language (corresponding language) used by the user B (a language is not selected, for example, a touch operation on a button for displaying a candidate for a language in another country is detected. ) The translation unit 6 changes the setting of translation language candidates (step S29), and returns the process to step S25. And the translation part 6 translates using the changed candidate translation language, and repeats the process after step S26.

このように、翻訳部6は、日本語(第1言語)により表された文字情報を、複数の国の言語それぞれにより表された複数の文字情報に翻訳する。また、表示制御部52は、翻訳部6が翻訳した複数の文字情報を第2表示部22に表示させる。そして、翻訳部6は、第2表示部22に表示させた複数の国の言語それぞれにより表された複数の文字情報のうち選択された文字情報の言語を翻訳言語として設定する。   Thus, the translation unit 6 translates the character information expressed in Japanese (first language) into a plurality of character information expressed in the languages of a plurality of countries. In addition, the display control unit 52 causes the second display unit 22 to display a plurality of character information translated by the translation unit 6. And the translation part 6 sets the language of the character information selected among the several character information represented by each of the language of the several country displayed on the 2nd display part 22 as a translation language.

これにより、電子機器200は、第2表示部22に表示した複数の国の言語それぞれにより表された文字情報のうちから、ユーザBが用いる言語により表された文字情報を選択可能にすることができる。すなわち、電子機器200は、複数の国の言語(複数の翻訳言語)それぞれにより表された文字情報を第2表示部22に表示することにより、表示した複数の国の言語(複数の翻訳言語)のうちからユーザBが用いる言語(翻訳言語)を選択可能にすることができる。よって、ユーザBは、第2表示部22に表示された複数の国の言語それぞれにより表された文字情報から、ユーザBが用いる言語により表された文字情報を選択することにより、ユーザBが用いる言語(翻訳言語)を選択することができる。   Thereby, the electronic device 200 can select the character information expressed by the language used by the user B from the character information expressed by the languages of the plurality of countries displayed on the second display unit 22. it can. In other words, the electronic device 200 displays the character information represented by the languages of a plurality of countries (a plurality of translated languages) on the second display unit 22, thereby displaying the languages of the displayed countries (a plurality of translated languages). The language (translation language) used by the user B can be selected. Therefore, the user B uses the user B by selecting the character information represented by the language used by the user B from the character information represented by the languages of the plurality of countries displayed on the second display unit 22. Language (translation language) can be selected.

次に、図9を用いて説明した第2面側に表示する複数の翻訳言語を、検出した顔に基づいて推定した翻訳言語とする処理について説明する。
図10は、電子機器200の入出力制御処理の第4例を示すフローチャートであって、検出した顔に基づいて推定した複数の翻訳言語を表示する処理の一例を示している。図10に示す処理は、図9に示す処理に対して、ステップS25において翻訳する言語を、ステップS23およびステップS24の処理において推定した言語に設定する点のみが異なる。なお、図10において、図9の各処理に対応する処理には同一の符号を付け、その説明を省略する。
Next, a description will be given of a process in which a plurality of translation languages displayed on the second surface side described with reference to FIG. 9 are converted into translation languages estimated based on detected faces.
FIG. 10 is a flowchart illustrating a fourth example of the input / output control process of the electronic device 200, and illustrates an example of a process of displaying a plurality of translation languages estimated based on the detected face. The process shown in FIG. 10 differs from the process shown in FIG. 9 only in that the language to be translated in step S25 is set to the language estimated in the processes in steps S23 and S24. In FIG. 10, processes corresponding to the processes in FIG. 9 are denoted by the same reference numerals, and description thereof is omitted.

言語推定部7は、第2面102側から検出された顔の画像に基づいて、翻訳部6が翻訳する複数の国の言語として、第2表示部22の表示面に対面する方向のユーザBが属する国の言語の候補を推定する(ステップS23)。例えば、言語推定部7は、ユーザBの顔がアジア系の顔と判定することにより、ユーザBが属する国の言語の候補を、アジア系の人が属する国の言語の候補として、例えば、「日本語、中国語、韓国語、台湾語、英語」と推定する。   Based on the face image detected from the second surface 102 side, the language estimation unit 7 uses the user B in the direction facing the display surface of the second display unit 22 as languages of a plurality of countries to be translated by the translation unit 6. The candidate of the language of the country to which is belongs is estimated (step S23). For example, the language estimation unit 7 determines that the face of the user B is an Asian face, and the language candidate of the country to which the user B belongs is set as a language candidate of the country to which the Asian person belongs, for example, “ "Japanese, Chinese, Korean, Taiwanese, English"

次に、翻訳部6は、ステップS24において、言語推定部7が推定した候補の言語を翻訳言語として設定する。そして、翻訳部6は、例えば、言語推定部7が推定した「日本語、中国語、韓国語、台湾語、英語」それぞれを翻訳言語に設定する。   Next, the translation part 6 sets the candidate language which the language estimation part 7 estimated in step S24 as a translation language. Then, the translation unit 6 sets, for example, “Japanese, Chinese, Korean, Taiwanese, English” estimated by the language estimation unit 7 as translation languages.

このように、翻訳部6は、日本語(第1言語)により表された文字情報を、第2画像から検出された顔の画像に基づいて、複数の国の言語それぞれにより表された複数の文字情報に翻訳する。これにより、ユーザBに対面する表示部に表示させる翻訳言語の選択肢の中に、ユーザBが用いる言語が含まれる確立を高めることができる。   In this manner, the translation unit 6 converts the character information expressed in Japanese (first language) into a plurality of languages expressed in the languages of a plurality of countries based on the face image detected from the second image. Translate to text information. Thereby, the probability that the language which the user B uses is included in the choice of the translation language displayed on the display part which faces the user B can be improved.

次に、図11を参照して、電子機器200の表示部20の表示例について説明する。
図11は、電子機器200の表示部20に表示される表示情報の一例を示す図であって、図11(a)は第1表示部21の表示例を示し、図11(b)は第2表示部22の表示例を示している。
Next, a display example of the display unit 20 of the electronic device 200 will be described with reference to FIG.
FIG. 11 is a diagram illustrating an example of display information displayed on the display unit 20 of the electronic device 200. FIG. 11A illustrates a display example of the first display unit 21, and FIG. 2 shows a display example of the display unit 22.

この図に示す第1表示部21および第2表示部22は、それぞれの表示領域が自分側の情報を表示する表示領域と相手側の情報を表示する表示領域との2つの領域に分割されて表示している。   The first display unit 21 and the second display unit 22 shown in this figure are each divided into two areas, a display area for displaying information on its own side and a display area for displaying information on the other side. it's shown.

図11(a)に示すように、表示制御部52は、ユーザAに対面する第1表示部21の表示領域のうち、ユーザAの情報(自分側の情報、第1面101側から入力された第1情報)を表示する表示領域210と、ユーザBの情報(相手側の情報、第2情報を翻訳した第4情報)を表示する表示領域215との2つの領域に、それぞれ対応する情報を表示させる。一方、表示制御部52は、ユーザBに対面する第2表示部22の表示領域のうち、ユーザBの情報(自分側の情報、第2面102側から入力された第2情報)を表示する表示領域220と、ユーザAの情報(相手側の情報、第1情報を翻訳した第3情報)を表示する表示領域225との2つの領域に、それぞれ対応する情報を表示させる。   As shown in FIG. 11 (a), the display control unit 52 is input from the display area of the first display unit 21 facing the user A from the information of the user A (information on the user side, the first surface 101 side). Information corresponding to two areas, a display area 210 for displaying the first information) and a display area 215 for displaying the information of the user B (information on the other party, fourth information obtained by translating the second information). Is displayed. On the other hand, the display control unit 52 displays the information of the user B (the information on the user side, the second information input from the second surface 102 side) in the display area of the second display unit 22 facing the user B. Corresponding information is displayed in two areas: a display area 220 and a display area 225 for displaying the information of the user A (information on the other party, third information obtained by translating the first information).

また、表示制御部52は、表示領域210内の符号211で示す領域、または表示領域225内の符号226で示す領域に、それぞれ第1撮像部11により撮像された第1画像に基づいて、ユーザAの顔を含む画像を表示させてもよい。また、表示制御部52は、表示領域215内の符号216で示す領域、または表示領域220内の符号221で示す領域に、それぞれ第2撮像部12により撮像された第2画像に基づいて、ユーザBの顔を含む画像を表示させてもよい。   In addition, the display control unit 52 performs a user operation based on the first image captured by the first imaging unit 11 in the area indicated by the reference numeral 211 in the display area 210 or the area indicated by the reference numeral 226 in the display area 225. An image including the face of A may be displayed. In addition, the display control unit 52 uses the second image captured by the second imaging unit 12 in the area indicated by the reference numeral 216 in the display area 215 or the area indicated by the reference numeral 221 in the display area 220 based on the second image. An image including the face of B may be displayed.

なお、表示制御部52は、上述したユーザAの顔を含む画像、またはユーザBの顔を含む画像のそれぞれに代えて、ユーザAに対応するアバター画像、またはユーザBに対応するアバター画像を表示させてもよい。   Note that the display control unit 52 displays an avatar image corresponding to the user A or an avatar image corresponding to the user B instead of the image including the face of the user A or the image including the face of the user B described above. You may let them.

例えば、記憶部5には、ユーザAに対応するアバター画像、またはユーザBに対応するアバター画像が登録(記憶)されている構成としてもよい。また、検出部40は、第1画像または第2画像から検出した顔の特徴に基づいてユーザ認識処理を実行することにより、第1画像または第2画像から検出された顔の画像が、例えばユーザAおよびユーザBの何れの顔の画像であるかを検出してもよい。そして、表示制御部52は、検出部40により第1画像または第2画像から検出されたユーザAおよびユーザBの顔の画像と、記憶部5から読み出したユーザAに対応するアバター画像、またはユーザBに対応するアバター画像とに基づいて、ユーザAに対応するアバター画像、またはユーザBに対応するアバター画像を表示させてもよい。   For example, the storage unit 5 may have a configuration in which an avatar image corresponding to the user A or an avatar image corresponding to the user B is registered (stored). Further, the detection unit 40 performs a user recognition process based on the facial features detected from the first image or the second image, so that the facial image detected from the first image or the second image is, for example, a user It may be detected which face image is A or user B. The display control unit 52 then detects the user A and user B face images detected from the first image or the second image by the detection unit 40 and the avatar image corresponding to the user A read from the storage unit 5 or the user. Based on the avatar image corresponding to B, an avatar image corresponding to user A or an avatar image corresponding to user B may be displayed.

次に、翻訳機能を用いた入出力制御処理の動作の例として、図11(a)、(b)に示す表示方法を用いた場合の処理の一例を説明する。
例えば、制御部50は、ユーザAにより第1面101側から日本語を用いて表された文字情報(第1情報)「こんにちは。」が入力されたことを検出することにより、入力された文字情報(第1情報)「こんにちは。」を表示領域210内に表示させる(図11(a)参照)。次に、翻訳部6は、この入力された日本語により表された文字情報(第1情報)「こんにちは。」を、英語により表された文字情報(第3情報)「Hello.」に翻訳する。そして、制御部50は、翻訳された結果である英語により表された文字情報(第3情報)「Hello.」を、第2面102側の表示領域225内に表示させる(図11(b)参照)。
Next, as an example of the operation of the input / output control process using the translation function, an example of the process when the display method shown in FIGS. 11A and 11B is used will be described.
For example, the control unit 50, by detecting that the character information expressed by using the Japanese from the first surface 101 side by the user A (first information) "Hello." Is input, the inputted character information to be displayed on the (first information) "Hello." the display area 210 (see FIG. 11 (a)). Then, the translation unit 6, to translate the character information represented by the input Japanese (first information) "Hello.", Character information represented by the English (third information) to "Hello." . Then, the control unit 50 displays the character information (third information) “Hello.” Expressed in English as the translated result in the display area 225 on the second surface 102 side (FIG. 11B). reference).

また、制御部50は、ユーザBにより第2面102側から英語を用いて表された文字情報(第2情報)「Thank you.」が入力されたことを検出することにより、入力された文字情報(第2情報)「Thank you.」を表示領域220内に表示させる(図11(b)参照)。次に、翻訳部6は、この入力された英語により表された文字情報(第2情報)「Thank you.」を、日本語により表された文字情報(第4情報)「ありがとう。」に翻訳する。そして、制御部50は、翻訳された結果である日本語により表された文字情報(第4情報)「ありがとう。」を、第1面101側の表示領域215内に表示させる(図11(a)参照)。   Further, the control unit 50 detects that the user B has input the character information (second information) “Thank you.” Expressed in English from the second surface 102 side. Information (second information) “Thank you.” Is displayed in the display area 220 (see FIG. 11B). Next, the translation unit 6 translates the input character information (second information) “Thank you.” Expressed in English into character information (fourth information) “Thank you.” Expressed in Japanese. To do. Then, the control unit 50 displays the character information (fourth information) “Thank you” expressed in Japanese as the translated result in the display area 215 on the first surface 101 side (FIG. 11A). )reference).

このように、表示制御部52は、第1情報と第4情報とを、第1表示部21の表示領域内において互いに重ならない位置にそれぞれ並べて表示させる。また、表示制御部52は、第2情報と前記第3情報とを、第2表示部22の表示領域内において互いに重ならない位置にそれぞれ並べて表示させる。   In this way, the display control unit 52 displays the first information and the fourth information side by side in positions that do not overlap each other in the display area of the first display unit 21. In addition, the display control unit 52 displays the second information and the third information side by side in positions that do not overlap each other in the display area of the second display unit 22.

これにより、電子機器200は、ユーザAに対面する第1表示部21、またはユーザBに対面する第2表示部22に対して、自分側から入力した情報と相手側から入力されて翻訳された情報との両方を表示することができる。よって、電子機器200は、ユーザに分かりやすいように、互いに入力した対話の内容を表示することができる。なお、電子機器200は、所定の回数分の対話の内容を表示してもよく、また、最新の対話が追加されるたびに過去の対話を履歴が古い順に削除して表示内容を更新してもよい。   As a result, the electronic device 200 is input and translated from the information input from the other side and the first display unit 21 facing the user A or the second display unit 22 facing the user B. Both information and information can be displayed. Therefore, the electronic device 200 can display the contents of the dialogues input to each other so as to be easily understood by the user. The electronic device 200 may display the content of the conversation for a predetermined number of times, and every time the latest conversation is added, the past conversation is deleted from the oldest history and the display content is updated. Also good.

また、表示制御部52は、第1表示部21の表示面に対面する方向にいるユーザAを示す第1ユーザ画像(例えば、ユーザAの顔を含む画像)を第2表示部22に表示させるとともに、第2表示部22の表示面に対面する方向にいるユーザBを示す第2ユーザ画像(例えば、ユーザBの顔を含む画像)を第1表示部21に表示させる。   In addition, the display control unit 52 causes the second display unit 22 to display a first user image (for example, an image including the face of the user A) indicating the user A in a direction facing the display surface of the first display unit 21. At the same time, a second user image (for example, an image including the face of the user B) indicating the user B in the direction facing the display surface of the second display unit 22 is displayed on the first display unit 21.

例えば、上述の第1ユーザ画像は、第1画像から検出された顔の画像、および第1表示部の表示面に対面する方向にいるユーザ固有(ユーザA)に対応付けられているアバターの画像の何れであってもよい。また、第2ユーザ画像は、第2画像から検出された顔の画像、および第2表示部22の表示面に対面する方向にいるユーザ固有(ユーザB)に対応付けられているアバターの画像の何れであってもよい。   For example, the first user image described above includes an image of a face detected from the first image and an image of an avatar associated with a user specific (user A) in a direction facing the display surface of the first display unit. Any of these may be used. The second user image includes a face image detected from the second image and an avatar image associated with the user specific (user B) in the direction facing the display surface of the second display unit 22. Either may be sufficient.

これにより、電子機器200は、ユーザAに対面する第1表示部21、またはユーザBに対面する第2表示部22に対して、自分の顔画像またはアバター画像と、相手の顔画像またはアバター画像の両方を表示することができる。よって、電子機器200は、ユーザが操作入力中であって相手の顔を見ることができないような場合であっても、表示部に表示された相手の顔画像またはアバター画像を見ることができる。   Accordingly, the electronic device 200 displays the face image or avatar image of the user and the face image or avatar image of the other party on the first display unit 21 facing the user A or the second display unit 22 facing the user B. Both can be displayed. Therefore, electronic device 200 can see the face image or avatar image of the other party displayed on the display unit even when the user is performing an operation input and cannot see the other party's face.

なお、表示制御部52は、第1操作入力部31(第1入力部)に対する入力状態が入力中の状態であることが第1操作入力部31により検出された場合、この入力中の状態であることを示す情報を第2表示部22に表示させてもよい。同様に、表示制御部52は、第2操作入力部32(第2入力部)に対する入力状態が入力中の状態であることが第2操作入力部32により検出された場合、この入力中の状態であることを示す情報を第1表示部21に表示させてもよい。   When the first operation input unit 31 detects that the input state with respect to the first operation input unit 31 (first input unit) is an input state, the display control unit 52 is in the input state. Information indicating the presence may be displayed on the second display unit 22. Similarly, when the second operation input unit 32 detects that the input state with respect to the second operation input unit 32 (second input unit) is an input state, the display control unit 52 is in this input state. May be displayed on the first display unit 21.

これにより、電子機器200は、電子機器200の両面側にユーザがいる場合、それぞれのユーザに対面する表示部に対して、その反対面にいるユーザが入力中の場合には入力中であることを示す情報を表示することができる。よって、電子機器200は、反対側にいるユーザの入力状態を表示することができるため、ユーザが相手の入力中の際にその入力が終了するまで待機することが可能になるといったようにユーザビリティを向上させることができる。   Thereby, when there are users on both sides of the electronic device 200, the electronic device 200 is inputting when the user on the opposite surface is inputting to the display unit facing each user. Can be displayed. Therefore, since the electronic device 200 can display the input state of the user on the opposite side, it is possible to wait until the input is completed when the user is inputting the other party. Can be improved.

(入出力制御の処理タイミング)
次に、電子機器200の入出力制御の処理タイミングについて説明する。
電子機器200は、第1面101側からの入力処理と第2面側への出力処理とを時間軸において重ねて処理する(並列処理する)ことが可能である。例えば、制御部50は、第2面102側から情報を出力している間も、第1面101側からの入力を検出する。
(I / O control processing timing)
Next, input / output control processing timing of the electronic device 200 will be described.
The electronic device 200 can process input processing from the first surface 101 side and output processing to the second surface side in an overlapping manner on the time axis (parallel processing). For example, the control unit 50 detects an input from the first surface 101 side while outputting information from the second surface 102 side.

以下、この処理タイミングについて、音声情報による入出力制御の処理を例として説明する。例えば、音入力制御部55は、音出力制御部53が、英語(第2言語)により表された文字情報を変換した音声情報を第2音出力部から出力させている間も、第1音検出部38により検出された日本語(第1言語)を用いた音声情報を入力情報として取得する。   Hereinafter, the processing timing will be described using an example of input / output control processing based on audio information. For example, the sound input control unit 55 also outputs the first sound while the sound output control unit 53 outputs the sound information obtained by converting the character information expressed in English (second language) from the second sound output unit. Audio information using Japanese (first language) detected by the detection unit 38 is acquired as input information.

図12は、電子機器200の入出力制御の処理タイミングの第1例を示すタイミングチャートである。図12の横軸は時刻tを示しており、縦軸は、(a)第1面101側からの音声情報の入力、(b)第1面101側から入力される音声情報の区切りのタイミングを検出した信号(区切り検出信号)、(c)翻訳処理、(d)第2面102側への音声情報(翻訳後の音声情報)の出力、をそれぞれ示している。   FIG. 12 is a timing chart illustrating a first example of processing timing of input / output control of the electronic device 200. The horizontal axis of FIG. 12 indicates time t, and the vertical axis indicates (a) input of audio information from the first surface 101 side, and (b) timing of separation of audio information input from the first surface 101 side. (C) translation processing, and (d) output of speech information (translated speech information) to the second surface 102 side, respectively.

ここで、音入力部35に対して、第1面101側からユーザAによって入力される音声と第2面102側からユーザBによって入力される音声とは、前述した音検出方向識別部44により識別されているものとする。すなわち、第1音入力部36は第1面101側から検出されたユーザAの音声を音声情報として取得し、第2音入力部37は第2面102側から検出されたユーザBの音声を音声情報として取得するものとして、説明する。   Here, the sound input by the user A from the first surface 101 side and the sound input by the user B from the second surface 102 side to the sound input unit 35 by the sound detection direction identification unit 44 described above. It shall be identified. That is, the first sound input unit 36 acquires the voice of the user A detected from the first surface 101 side as voice information, and the second sound input unit 37 receives the voice of the user B detected from the second surface 102 side. A description will be given assuming that the information is acquired as audio information.

時刻t0から時刻t1において、第1音入力部36は、ユーザAにより日本語を用いた音声で入力された音声情報J11を取得する。時刻t1において、第1音入力部36は、音声が検出されなくなったことに応じて、音声情報J11における文章の区切りを検出して、区切り検出信号をL(ロウ)レベルから所定の期間H(ハイ)レベルに制御する(トリガパルスを出力する)。この区切り検出信号のトリガパルスのタイミングに応じて、時刻t1から時刻t2において、翻訳部6は、取得された日本語を用いた音声情報J11を、英語を用いた音声情報E11に翻訳する。続いて、時刻t2から時刻t5において、音出力制御部53は、翻訳結果である英語を用いた音声情報E11を第2音出力部27から出力させる。   From the time t0 to the time t1, the first sound input unit 36 acquires the voice information J11 input by the user A with the voice using Japanese. At time t1, the first sound input unit 36 detects a sentence break in the audio information J11 in response to the fact that no voice is detected, and sends a break detection signal from the L (low) level to a predetermined period H ( Control to high level (output trigger pulse). In accordance with the timing of the trigger pulse of the break detection signal, from time t1 to time t2, the translation unit 6 translates the acquired speech information J11 using Japanese into speech information E11 using English. Subsequently, from time t <b> 2 to time t <b> 5, the sound output control unit 53 causes the second sound output unit 27 to output audio information E <b> 11 using English as a translation result.

また、時刻t2から時刻t5において、音出力制御部53が音声情報E11を第2音出力部27から出力させている間の時刻t3において、ユーザAが話し始めることによって、第1音入力部36は、ユーザAにより日本語を用いた音声で入力された音声情報J12の取得を開始する。そして、時刻t3から時刻t6において、第1音入力部36は、ユーザAにより日本語を用いた音声で入力された音声情報J12を取得する。   Further, when the user A starts speaking at time t3 while the sound output control unit 53 outputs the sound information E11 from the second sound output unit 27 from time t2 to time t5, the first sound input unit 36 is started. Starts acquisition of the voice information J12 input by the user A using Japanese-language voice. And from the time t3 to the time t6, the 1st sound input part 36 acquires the audio | voice information J12 input with the audio | voice using the Japanese by the user A. FIG.

時刻t6において、第1音入力部36は、音声が検出されなくなったことに応じて、音声情報J12における文章の区切りを検出して、区切り検出信号をL(ロウ)レベルから所定の期間H(ハイ)レベルに制御する(トリガパルスを出力する)。この区切り検出信号のトリガパルスのタイミングに応じて、時刻t6から時刻t8において、翻訳部6は、取得された日本語を用いた音声情報J12を、英語を用いた音声情報E12に翻訳する。続いて、時刻t8において、音出力制御部53は、翻訳結果である英語を用いた音声情報E12を第2音出力部27から出力開始させる。   At time t6, the first sound input unit 36 detects a sentence break in the voice information J12 in response to the fact that no voice is detected, and sends a break detection signal from the L (low) level to a predetermined period H ( Control to high level (output trigger pulse). In accordance with the trigger pulse timing of the break detection signal, from time t6 to time t8, the translation unit 6 translates the acquired speech information J12 using Japanese into speech information E12 using English. Subsequently, at time t <b> 8, the sound output control unit 53 starts outputting the audio information E <b> 12 using English as a translation result from the second sound output unit 27.

このように、音入力制御部55は、時刻t3から時刻t5において、音出力制御部53が、英語(第2言語)により表された文字情報を変換した音声情報を第2音出力部から出力させている間も、第1音検出部38により検出された日本語(第1言語)を用いた音声情報を入力情報として取得する。すなわち、電子機器200は、第1面101側からの入力処理と第2面側への出力処理とを時間軸において重ねて処理する(並列処理する)。   As described above, the sound input control unit 55 outputs the sound information obtained by converting the character information expressed in English (second language) from the second sound output unit from the time t3 to the time t5. During this time, voice information using Japanese (first language) detected by the first sound detection unit 38 is acquired as input information. That is, the electronic device 200 processes the input process from the first surface 101 side and the output process to the second surface side in an overlapping manner on the time axis (performs parallel processing).

また、電子機器200は、第1面101側からの入力処理と第2面側からの入力処理とを時間軸において重ねて処理する(並列処理する)ことも可能である。例えば、制御部50は、第1面101側からの入力を検出している間も、第2面102側からの入力を検出する。   In addition, the electronic device 200 can also perform input processing from the first surface 101 side and input processing from the second surface side in a time axis manner (overlapping processing). For example, the control unit 50 detects an input from the second surface 102 side while detecting an input from the first surface 101 side.

以下、この処理タイミングについて音声情報による入出力制御の処理を例として説明する。例えば、音入力制御部55は、第1音検出部38により検出された日本語(第1言語)を用いた音声情報を入力情報として取得する間も、第2音検出部39により検出された英語(第2言語)を用いた音声情報を入力情報として取得する。   Hereinafter, the processing timing will be described using an example of input / output control processing based on audio information. For example, the sound input control unit 55 is detected by the second sound detection unit 39 while acquiring voice information using Japanese (first language) detected by the first sound detection unit 38 as input information. Audio information using English (second language) is acquired as input information.

図13は、電子機器200の入出力制御の処理タイミングの第2例を示すタイミングチャートである。図13の横軸は時刻tを示しており、縦軸は、図12に示す(a),(b)、(c)、および(d)に加えて、(e)第2面102側からの音声情報の入力、(f)第2面102側から入力される音声情報の区切りのタイミングを検出した信号(区切り検出信号)、(g)翻訳処理、(h)第1面101側への音声情報(翻訳後の音声情報)の出力、をそれぞれ示している。なお、図13に示す縦軸の(a),(b)、(c)、および(d)のそれぞれの処理タイミングは、図12に示す縦軸の(a),(b)、(c)、および(d)のそれぞれの処理タイミングと同様であり、その説明を適宜省略する。   FIG. 13 is a timing chart illustrating a second example of input / output control processing timing of the electronic device 200. The horizontal axis of FIG. 13 represents time t, and the vertical axis represents (e) from the second surface 102 side in addition to (a), (b), (c), and (d) shown in FIG. (F) A signal (delimiter detection signal) that detects the timing of delimitation of audio information input from the second surface 102 side, (g) translation processing, (h) input to the first surface 101 side The output of audio information (translated audio information) is shown. Note that the processing timings of (a), (b), (c), and (d) on the vertical axis shown in FIG. 13 are (a), (b), (c) on the vertical axis shown in FIG. And (d) are the same as the processing timings, and the description thereof is omitted as appropriate.

時刻t3から時刻t6において、第1音入力部36がユーザAにより日本語を用いた音声で入力された音声情報J12を取得している間の時刻t4において、ユーザBが話し始めることによって、第2音入力部37は、ユーザBにより英語を用いた音声で入力された音声情報E21の取得を開始する。そして、時刻t4から時刻t7において、第2音入力部37は、ユーザBにより英語を用いた音声で入力された音声情報E21を取得する。   From time t3 to time t6, the user B starts to speak at time t4 while the first sound input unit 36 acquires the voice information J12 input by the user A in Japanese. The two-sound input unit 37 starts acquisition of the voice information E21 input by the user B with a voice using English. And from the time t4 to the time t7, the 2nd sound input part 37 acquires the audio | voice information E21 input with the audio | voice which used English by the user B. FIG.

時刻t7において、第2音入力部37は、音声が検出されなくなったことに応じて、音声情報E21における文章の区切りを検出して、区切り検出信号をL(ロウ)レベルから所定の期間H(ハイ)レベルに制御する(トリガパルスを出力する)。この区切り検出信号のトリガパルスのタイミングに応じて、時刻t7から時刻t9において、翻訳部6は、取得された英語を用いた音声情報E21を、日本語を用いた音声情報J21に翻訳する。続いて、時刻t9において、音出力制御部53は、翻訳結果である日本語を用いた音声情報J21を第1音出力部26から出力開始させる。   At time t7, the second sound input unit 37 detects a sentence break in the audio information E21 in response to the fact that no voice is detected, and sends a break detection signal from the L (low) level to a predetermined period H ( Control to high level (output trigger pulse). In accordance with the trigger pulse timing of the break detection signal, from time t7 to time t9, the translation unit 6 translates the acquired speech information E21 using English into speech information J21 using Japanese. Subsequently, at time t <b> 9, the sound output control unit 53 starts outputting the sound information J <b> 21 using Japanese as the translation result from the first sound output unit 26.

このように、音入力制御部55は、時刻t4から時刻t6において、第1音検出部38により検出された日本語(第1言語)を用いた音声情報を入力情報として取得する間も、第2音検出部39により検出された英語(第2言語)を用いた音声情報を入力情報として取得する。すなわち、電子機器200は、第1面101側からの入力処理と第2面側からの入力処理とを時間軸において重ねて処理する(並列処理する)。   As described above, the sound input control unit 55 also acquires the voice information using Japanese (first language) detected by the first sound detection unit 38 from time t4 to time t6 as input information. Voice information using English (second language) detected by the two-tone detector 39 is acquired as input information. That is, the electronic device 200 processes the input process from the first surface 101 side and the input process from the second surface side in an overlapping manner on the time axis (performs parallel processing).

なお、電子機器200は、さらに、第1面101側への出力処理と第2面側への出力処理とを時間軸において重ねて処理する(並列処理する)構成としてもよい。
例えば、図13に示すように、時刻t9以降において、音出力制御部53は、英語(第2言語)により表された文字情報を変換した音声情報を第2音出力部から出力させるとともに、日本語(第1言語)により表された文字情報を変換した音声情報を第1音出力部から出力させる。
Note that the electronic device 200 may be configured to further process the output processing to the first surface 101 side and the output processing to the second surface side in a time axis manner (in parallel processing).
For example, as shown in FIG. 13, after time t9, the sound output control unit 53 outputs sound information obtained by converting character information expressed in English (second language) from the second sound output unit, and Voice information obtained by converting character information represented by a word (first language) is output from the first sound output unit.

以上図14および図15を用いて説明したように、電子機器200は、第1面101側からの入力処理と第2面側への出力処理とを時間軸において重ねて処理する(並列処理する)ことが可能である。また、電子機器200は、第1面101側からの入出力処理または第2面側からの入出力処理を時間軸において重ねて処理する(並列処理する)ことが可能である。さらに、電子機器200は、さらに、第1面101側への出力処理と第2面側への出力処理とを時間軸において重ねて処理する(並列処理する)構成としてもよい。なお、電子機器200は、例えば、入力された文章の区切りを検出して、文章の区切り毎に翻訳するとともに、その翻訳結果を次の文章が入力されている状態であっても並列処理によって出力することが可能である。   As described above with reference to FIGS. 14 and 15, the electronic device 200 processes the input process from the first surface 101 side and the output process to the second surface side in an overlapping manner on the time axis (parallel processing is performed). )Is possible. Further, the electronic device 200 can process the input / output processing from the first surface 101 side or the input / output processing from the second surface side in a time axis manner (parallel processing). Furthermore, the electronic device 200 may be configured to further process the output processing to the first surface 101 side and the output processing to the second surface side in a time axis manner (in parallel processing). The electronic device 200 detects, for example, an input sentence break, translates it for each sentence break, and outputs the translation result by parallel processing even when the next sentence is being input. Is possible.

これにより、電子機器200は、第1面101側からの入出力処理または第2面側からの入出力処理のうちの何れかの処理が実行されることによって、その他の処理の実行が妨げられることなく、それぞれの処理を実行することができる。よって、電子機器200は、ユーザに対して処理の実行待ちをさせること無く、両面それぞれの側から入力された情報を翻訳した情報を、入力された面と反対面側から出力することができる。すなわち、電子機器200は、ユーザが実際に会話するかのようなタイミングで、入力処理と翻訳結果の出力処理とを実行することができる(例えば、話した言葉に対して同時翻訳を実行することができる)。   Accordingly, the electronic device 200 is prevented from performing other processes by executing any one of the input / output process from the first surface 101 side and the input / output process from the second surface side. Each processing can be executed without any problem. Therefore, the electronic device 200 can output information obtained by translating information input from both sides without causing the user to wait for execution of processing from the side opposite to the input side. In other words, the electronic device 200 can execute the input process and the output process of the translation result at the timing as if the user is actually talking (for example, performing simultaneous translation on the spoken words). Is possible).

<文章変換機能を備えた電子機器の例>
次に、本実施形態の電子機器が、文章変換機能を備えている場合の制御の一例を説明する。
図14は、文章変換機能を備えた電子機器300の構成の一例を示す概略ブロック図である。この図14に示す電子機器300の構成は、図2に示す電子機器100の構成に対して文章変換部8を備えている点が異なる。なお、図14において、図2の各部に対応する構成には同一の符号を付け、その説明を省略する。
<Example of electronic equipment with text conversion function>
Next, an example of control when the electronic device of the present embodiment has a text conversion function will be described.
FIG. 14 is a schematic block diagram illustrating an example of the configuration of an electronic device 300 having a text conversion function. The configuration of the electronic device 300 shown in FIG. 14 is different from the configuration of the electronic device 100 shown in FIG. In FIG. 14, components corresponding to those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.

文章変換部8は、第1用語を用いた文章により表された文字情報を、第1用語よりも平易な第2用語を用いた文章により表された文字情報に変換する。例えば、文章変換部8は、第1用語を用いた文章により表された文字情報を含む第1情報を、第2用語を用いた文章により表された文字情報を含む第3情報に変換する。また、文章変換部8は、入力された文字情報に、第1用語が含まれているか否かを判定する。   The sentence conversion unit 8 converts the character information represented by the sentence using the first term into the character information represented by the sentence using the second term that is easier than the first term. For example, the sentence conversion unit 8 converts the first information including the character information represented by the sentence using the first term into the third information including the character information represented by the sentence using the second term. Further, the text conversion unit 8 determines whether or not the first term is included in the input character information.

ここで、上述の第1用語は、例えば特定の分野で用いられ専門用語または学術用語である。これに対して、第1用語よりも平易な第2用語は、特定の分野に携わらない一般の人でも理解できる一般用語である。例えば、記憶部5には、専門用語または学術用語と、それら専門用語または学術用語に対応する一般用語とが、用語を変換するための用語情報として対応付けて登録(記憶)されており、文章変換部8は、記憶部5に登録されている用語情報に基づいて、入力された専門用語または学術用語を用いた文章により表された文字情報を、一般用語を用いた文章により表された文字情報に変換する。   Here, the first term described above is, for example, a technical term or an academic term used in a specific field. On the other hand, the second term that is simpler than the first term is a general term that can be understood by ordinary people who are not involved in a specific field. For example, in the storage unit 5, technical terms or academic terms and general terms corresponding to the technical terms or academic terms are registered (stored) in association with each other as term information for converting the terms, Based on the term information registered in the storage unit 5, the conversion unit 8 converts the character information represented by the text using the input technical terms or academic terms into the characters represented by the text using general terms. Convert to information.

このように、電子機器300は、第1面101側から入力された専門用語または学術用語で表された文字情報を、一般用語に変換して第2面102側に表示する。これにより、電子機器300は、第1面101側のユーザ(例えば専門職に従事するユーザ)から入力された専門用語または学術用語で表された文字情報を、一般の人でも理解できる一般用語で表された文字情報により第2面102側のユーザ(例えば一般ユーザ)に伝えることができる。   In this way, the electronic device 300 converts the character information expressed in technical terms or academic terms input from the first surface 101 side into general terms and displays them on the second surface 102 side. As a result, the electronic device 300 uses the general terms that can be understood by the general public by the technical terms or scientific terms input from the user on the first surface 101 side (for example, the user engaged in the professional occupation). It can be conveyed to the user (for example, general user) on the second surface 102 side by the represented character information.

(文章変換機能を備えた電子機器における入出力制御の処理の説明)
次に、電子機器300における文章変換機能を用いた入出力制御の処理の動作について説明する。図15は、文章変換機能を用いた入出力制御処理の一例を示すフローチャートである。
(Explanation of input / output control processing in electronic equipment with text conversion function)
Next, an operation of input / output control processing using the text conversion function in the electronic device 300 will be described. FIG. 15 is a flowchart illustrating an example of an input / output control process using the text conversion function.

まず、検出部40は、電子機器300の両面側に顔が検出されたと判定する(ステップS31)。次に、入力部3は、第1面101側から情報(例えば文字情報)が入力されたことを検出する(ステップS32)。続いて、文章変換部8は、入力された文字情報に、専門用語(または学術用語など)が含まれているか否かを判定する(ステップS33)。   First, the detection unit 40 determines that a face has been detected on both sides of the electronic device 300 (step S31). Next, the input unit 3 detects that information (for example, character information) is input from the first surface 101 side (step S32). Subsequently, the text conversion unit 8 determines whether or not a technical term (or academic term) is included in the input character information (step S33).

ステップS33において、専門用語が含まれていると判定された場合、文章変換部8は、専門用語を用いた文章により表された文字情報を、一般用語を用いた文章により表された文字情報に変換する(ステップS34)。次に、表示制御部52は、文章変換部8により変換された一般用語を用いた文章により表された文字情報を、第2面102側の第2表示部22に表示させる(ステップS35)。   If it is determined in step S33 that the technical term is included, the text conversion unit 8 converts the character information represented by the text using the technical term into the character information represented by the text using the general term. Conversion is performed (step S34). Next, the display control unit 52 causes the second display unit 22 on the second surface 102 side to display the character information represented by the text using the general terms converted by the text conversion unit 8 (step S35).

一方、ステップS33において、専門用語が含まれていないと判定された場合、表示制御部52は、第1面101側から入力された文字情報そのままを、第2面102側の第2表示部22に表示させる(ステップS35)。   On the other hand, if it is determined in step S33 that no technical term is included, the display control unit 52 uses the character information input from the first surface 101 side as it is, the second display unit 22 on the second surface 102 side. (Step S35).

これにより、電子機器300は、専門用語または学術用語で表された文字情報を、一般用語に変換して第2面102側に表示することができる。すなわち、電子機器300は、例えば専門職に従事するユーザにより入力された専門用語または学術用語で表された文字情報を、入力された面の反対面側にいる例えば一般ユーザに対して、一般用語を用いた文章により表された文字情報に変換して表示することができる。   Thereby, the electronic device 300 can convert the character information expressed in technical terms or academic terms into general terms and display them on the second surface 102 side. That is, for example, the electronic device 300 may be configured to input, for example, general terms for a general user who is on the opposite side of the input surface, with respect to character information expressed in technical terms or academic terms input by a user engaged in a professional job. It can be converted into character information represented by sentences using and displayed.

ここで、上述した専門職に従事するユーザとは、例えば、医者、研究者、学者、等である。例えば、電子機器300は、医者により入力された専門用語(医学用語)で表された文字情報を、入力された面の反対面側にいる患者に対して、一般用語を用いた文章により表された文字情報に変換して表示することができる。   Here, the user engaged in the above-described professional job is, for example, a doctor, a researcher, a scholar, or the like. For example, the electronic device 300 represents text information expressed in technical terms (medical terms) input by a doctor as a sentence using general terms for a patient on the opposite side of the input surface. It can be converted into character information and displayed.

(表示方向の制御例)
次に、図16および図17を参照して、電子機器300の表示部20に表示される表示情報の表示方向の制御について説明する。ここでは、専門職に従事するユーザを医者とし、一般ユーザを患者とした場合を例として説明する。
(Display direction control example)
Next, with reference to FIGS. 16 and 17, control of the display direction of display information displayed on the display unit 20 of the electronic apparatus 300 will be described. Here, a case where a user engaged in a professional job is a doctor and a general user is a patient will be described as an example.

図16は、病院内で電子機器300が使用されている状況を示す図である。
図16(a)は、病室内のベッドに横たわっている患者(ユーザD)に対して、そのベッドの横に立っている医者(ユーザC)が、電子機器300を介して診断結果(カルテの内容)などを伝えている様子を示している。
FIG. 16 is a diagram illustrating a situation where the electronic device 300 is used in a hospital.
FIG. 16A illustrates a case where a doctor (user C) standing next to a bed lying on a bed in a hospital room receives a diagnosis result (record of medical records) via the electronic device 300. Contents)).

この図16(a)においては、電子機器300の第1面101がユーザCに対面する面、および第2面102がユーザDに対面する面となるように電子機器300がユーザCによって把持されている。
また、図16において、XYZ直交座標系が、互いに直交するX軸とY軸とが水平面に対して平行に定められ、Z軸が水平面に対して直交する軸として定められている。ユーザCは、Z軸に沿って立っている姿勢であり、ユーザDは、X軸方向に沿って横たわっている姿勢である。電子機器300は、第1表示部21および第2表示部22の表示面の1辺がX軸と平行な関係であって、他辺がX軸に対して直交する軸と平行な関係である(仮にZ軸と平行な関係とする)状態に把持されている。
In FIG. 16A, the electronic device 300 is gripped by the user C so that the first surface 101 of the electronic device 300 faces the user C and the second surface 102 faces the user D. ing.
Further, in FIG. 16, the XYZ orthogonal coordinate system is defined such that the X axis and the Y axis orthogonal to each other are defined in parallel to the horizontal plane, and the Z axis is defined as an axis orthogonal to the horizontal plane. The user C is in a posture standing along the Z axis, and the user D is in a posture lying along the X axis direction. In the electronic device 300, one side of the display surface of the first display unit 21 and the second display unit 22 has a relationship parallel to the X axis, and the other side has a relationship parallel to an axis orthogonal to the X axis. It is gripped in a state (assuming a relationship parallel to the Z axis).

図16(b)、(c)は、図16(a)に示すユーザC、ユーザD、電子機器300位置関係にある場合に、第1撮像部11および第2撮像部12により撮像されたそれぞれの画像の一例を示している。図16(b)は、第1撮像部11により撮像された第1画像を示す図である。第1撮像部11は、ユーザCがZ軸方向に対して平行となるような立ち姿勢、すなわち顔の上下方向がZ軸に沿った方向(縦方向)となるように、第1面101に対面する方向を撮像する。   FIGS. 16B and 16C are images captured by the first imaging unit 11 and the second imaging unit 12, respectively, when the user C, the user D, and the electronic device 300 are in the positional relationship illustrated in FIG. An example of the image is shown. FIG. 16B is a diagram illustrating a first image captured by the first imaging unit 11. The first imaging unit 11 is placed on the first surface 101 so that the user C is in a standing posture that is parallel to the Z-axis direction, that is, the vertical direction of the face is a direction (vertical direction) along the Z-axis. Image the facing direction.

一方、図16(c)は、第2撮像部12により撮像された第2画像を示す図である。第2撮像部12は、ユーザDがX軸方向に沿って横たわっている姿勢、すなわち顔の上下方向がX軸に沿った方向(横方向)となるように、第2面102に対面す方向を撮像する。   On the other hand, FIG. 16C is a diagram illustrating a second image captured by the second imaging unit 12. The second imaging unit 12 faces the second surface 102 such that the posture of the user D lying along the X-axis direction, that is, the vertical direction of the face is the direction (lateral direction) along the X-axis. Image.

表示制御部52は、第1画像(図16(b)参照)から検出された顔の上下方向に対応するように、第1表示部21に表示させる情報の上下方向を制御する。また、表示制御部52は、第2画像(図16(c)参照)から検出された顔の上下方向に対応するように、第2表示部22に表示させる情報の上下方向を制御する。   The display control unit 52 controls the vertical direction of information displayed on the first display unit 21 so as to correspond to the vertical direction of the face detected from the first image (see FIG. 16B). The display control unit 52 controls the vertical direction of information displayed on the second display unit 22 so as to correspond to the vertical direction of the face detected from the second image (see FIG. 16C).

図17は、図16(b)、(c)に示す検出画像に基づいて、第1表示部21および第2表示部22のそれぞれに表示される表示情報の表示方向を示す図である。
図17(a)は、第1表示部21に表示される表示情報の表示方向を示している。この図に示すように、表示制御部52は、表示情報の表示方向が、第1画像から検出された顔の上下方向と同様となるようにZ軸に沿った方向(縦方向)、且つZ軸の正方向が上および負方向が下となるように、第1表示部21に表示させる。
FIG. 17 is a diagram illustrating display directions of display information displayed on the first display unit 21 and the second display unit 22 based on the detection images illustrated in FIGS.
FIG. 17A shows the display direction of the display information displayed on the first display unit 21. As shown in this figure, the display control unit 52 performs a direction (vertical direction) along the Z axis so that the display direction of the display information is the same as the vertical direction of the face detected from the first image, and Z It is displayed on the first display unit 21 so that the positive direction of the axis is up and the negative direction is down.

図17(b)は、第2表示部22に表示される表示情報の表示方向を示している。この図に示すように、表示制御部52は、表示情報の表示方向が、第2画像から検出された顔の上下方向と同様となるようにX軸に沿った方向(横方向)、且つX軸の正方向が下および負方向が上となるように、第2表示部22に表示させる。   FIG. 17B shows the display direction of the display information displayed on the second display unit 22. As shown in this figure, the display control unit 52 has a direction along the X axis (horizontal direction) so that the display direction of the display information is the same as the vertical direction of the face detected from the second image, and X It is displayed on the second display unit 22 so that the positive direction of the axis is down and the negative direction is up.

ここで、図17(a)に示す表示情報は、専門用語(医学用語)を用いて表された文章を含む情報であって、図17(b)に示す表示情報は、専門用語(医学用語)を文章変換部8が変換した一般用語を用いて表された文章を含む情報である。   Here, the display information shown in FIG. 17A is information including sentences expressed using technical terms (medical terms), and the display information shown in FIG. 17B is technical terms (medical terms). ) Is information including a sentence expressed using a general term converted by the sentence conversion unit 8.

このように、表示制御部52は、第1表示部21に表示させる情報の表示方向にかかわらず、第2画像から検出された顔の画像における顔の方向に基づいて、第2表示部22に表示させる情報の表示方向を制御する。また、表示制御部52は、第2表示部22に表示させる情報の表示方向にかかわらず、第1画像から検出された顔の画像における顔の方向に基づいて、第1表示部21に表示させる情報の表示方向を制御する。   As described above, the display control unit 52 controls the second display unit 22 based on the face direction in the face image detected from the second image regardless of the display direction of the information displayed on the first display unit 21. Controls the display direction of information to be displayed. Further, the display control unit 52 causes the first display unit 21 to display the face based on the face direction in the face image detected from the first image, regardless of the display direction of the information displayed on the second display unit 22. Control the display direction of information.

これにより、電子機器300は、互いに表裏の位置関係に配置されている第1表示部21および第2表示部22それぞれに表示する情報を、それぞれの表示部に対面する方向のユーザの顔の向きと対応するような向きに表示することができる。よって、電子機器300は、電子機器300を介して互いに対面しているユーザの顔の向きが互いに異なる場合であっても、それぞれのユーザに対面する表示部に表示する情報の表示方向を、それぞれのユーザの顔の向き合わせた表示方向にすることができる。   As a result, the electronic device 300 displays information to be displayed on each of the first display unit 21 and the second display unit 22 that are arranged in a positional relationship between the front and back surfaces of the user's face in the direction facing the respective display units. It can be displayed in the direction corresponding to. Therefore, even when the directions of the faces of the users facing each other through the electronic device 300 are different from each other, the electronic device 300 changes the display direction of the information displayed on the display unit facing each user, respectively. The display direction can be set to match the face of the user.

なお、図14に示す電子機器300は、図13に示す情報変換部60を備えた構成としてもよい。これにより、電子機器300は、入力部3の操作入力部30から文字情報が入力されてもよいし、音入力部35から音声情報が入力されてもよい。また、電子機器300は、文字情報を表示部20に表示してもよいし、文字情報を音声情報に変換して音出力部25から出力してもよい。   Note that the electronic device 300 illustrated in FIG. 14 may include the information conversion unit 60 illustrated in FIG. Thereby, the electronic device 300 may receive character information from the operation input unit 30 of the input unit 3 or may receive voice information from the sound input unit 35. The electronic device 300 may display the character information on the display unit 20, or may convert the character information into voice information and output it from the sound output unit 25.

以上、説明してきたように、電子機器100は、電子機器100の両面側にユーザがいると検出された場合、ユーザによって入力された情報に基づいて出力する情報を、入力された面の反対面側にいるユーザに対面する側から出力することができる。例えば、第1面101に対面する方向にいるユーザAから入力された情報に基づいて出力する情報を、第1面101の反対面となるユーザBに対面する第2面102から出力することができる。   As described above, when it is detected that there are users on both sides of the electronic device 100, the electronic device 100 outputs information to be output based on information input by the user on the opposite side of the input surface. It is possible to output from the side facing the user on the side. For example, information to be output based on information input from the user A in the direction facing the first surface 101 may be output from the second surface 102 facing the user B, which is the opposite surface of the first surface 101. it can.

例えば、電子機器200は、互いに表裏の位置関係に備えられている入力部から入力された情報を翻訳した情報を、入力された面と反対面側の出力部から出力することができる。また、電子機器200は、ユーザが入力した文字情報(文章)を、入力した面の反対面側に同時翻訳(リアルタイム)で表示することができる。これにより、電子機器200は、対面する2者の間で使用されることにより、2者間で会話をするように(2者間の間に挟む形で会話するように)入出力処理と翻訳処理とを行うことが可能である。   For example, the electronic device 200 can output information obtained by translating the information input from the input units provided in the front and back positional relationship from the output unit on the side opposite to the input surface. In addition, the electronic device 200 can display the character information (sentence) input by the user on the opposite side of the input surface by simultaneous translation (real time). As a result, the electronic device 200 is used between the two persons facing each other, so that the two persons have a conversation (a conversation between the two persons), input / output processing and translation. Processing.

また、例えば、電子機器300は、互いに表裏の位置関係に備えられている入力部から入力された専門用語を含む情報を、一般情報に変換して入力された面と反対面側の出力部から出力することができる。これにより、電子機器300は、専門用語を用いるユーザと一般ユーザとの間で使用されることにより、2者間で会話をするように入出力処理と用語の変換処理とを行うことが可能である。   In addition, for example, the electronic device 300 converts information including technical terms input from input units provided in a positional relationship between the front and back to general information from an output unit on the side opposite to the input side. Can be output. As a result, the electronic device 300 can be used between a user who uses technical terms and a general user, so that input / output processing and term conversion processing can be performed so as to have a conversation between the two parties. is there.

このように、本実施形態による電子機器100(200,300)は、互いに表裏の位置関係に備えられている入力部から入力された情報に基づいて出力する情報を、入力された面と反対面側の出力部から出力することにより、反対面側にいるユーザに有効に伝えることができる。   As described above, the electronic device 100 (200, 300) according to the present embodiment has information that is output based on information input from input units provided in a positional relationship between the front and back surfaces of the electronic device 100 (200, 300). By outputting from the output unit on the side, it is possible to effectively inform the user on the opposite side.

以上のように、本実施形態によれば、ユーザに対面する面の反対面側にいる人に対して有効に情報を出力することができる。   As described above, according to the present embodiment, information can be effectively output to a person on the opposite side of the surface facing the user.

なお、検出部40は、把持状態検出部43により検出された把持状態に基づいて、第1表示部21の表示面に対面する方向(第1出力部に対面する方向)および第2表示部22の表示面に対面する方向(第2出力部に対面する方向)のうち何れかの方向にユーザがいるか否かを検出してもよい。   Note that the detection unit 40 has a direction facing the display surface of the first display unit 21 (a direction facing the first output unit) and the second display unit 22 based on the grip state detected by the grip state detection unit 43. It may be detected whether or not the user is in any direction among the directions facing the display surface (the direction facing the second output unit).

つまり、検出部40は、顔検出部41の検出結果、把持状態検出部43の検出結果、または顔検出部41の検出結果と把持状態検出部43の検出結果との組み合わせ、に基づいて、第1表示部21の表示面に対面する方向(第1出力部に対面する方向)および第2表示部22の表示面に対面する方向(第2出力部に対面する方向)のうち何れかの方向にユーザがいるか否かを検出してもよい。   In other words, the detection unit 40 is based on the detection result of the face detection unit 41, the detection result of the gripping state detection unit 43, or the combination of the detection result of the face detection unit 41 and the detection result of the gripping state detection unit 43. One of the direction facing the display surface of the first display unit 21 (direction facing the first output unit) and the direction facing the display surface of the second display unit 22 (direction facing the second output unit) Whether or not there is a user may be detected.

また、検出部40は、把持状態検出部43により検出された把持状態に基づいて、片側の面のみに電子機器100(200、300)を把持しているユーザを検出した場合、検出したユーザをメインユーザとして検出してもよい。   Further, when the detection unit 40 detects a user holding the electronic device 100 (200, 300) only on one surface based on the gripping state detected by the gripping state detection unit 43, the detection unit 40 detects the detected user. You may detect as a main user.

また、制御部50は、検出部40が検出したメインユーザに対面する面の側から入力された情報に基づいて出力する情報を、その入力された面と反対面となる面の側に出力する制御のみを実行する(反対面側から入力された情報に対する制御を実行しない)構成としてもよい。   Moreover, the control part 50 outputs the information output based on the information input from the side of the surface which faces the main user which the detection part 40 detected to the side of the surface opposite to the input surface. It is good also as a structure which performs only control (it does not perform the control with respect to the information input from the opposite surface side).

なお、互いに表裏の位置関係に配置されている表示部の表示面のうち、メインユーザが使用する面が予め定められているような電子機器100(200、300)であってもよい。そして、検出部40は、メインユーザが使用する面に対して反対面側のユーザのみを検出する構成としてもよい。この場合、撮像部10は、メインユーザが使用する面に対して反対面側のみに備えられていてもよい。また、この場合、メインユーザ側の顔を検出する機能がないため、表示制御部52は、姿勢検出部42により検出された電子機器100(200、300)の姿勢に基づいて、メインユーザに対面する側の表示面に表示される情報の表示方向を制御してもよい。   It should be noted that electronic device 100 (200, 300) in which the surface used by the main user among the display surfaces of the display units that are arranged in a positional relationship between the front and back surfaces may be determined in advance. And the detection part 40 is good also as a structure which detects only the user of an other surface side with respect to the surface which a main user uses. In this case, the imaging unit 10 may be provided only on the side opposite to the surface used by the main user. In this case, since there is no function for detecting the face on the main user side, the display control unit 52 faces the main user based on the attitude of the electronic device 100 (200, 300) detected by the attitude detection unit 42. You may control the display direction of the information displayed on the display surface of the side to perform.

なお、電子機器100(200、300)は、筐体の外周囲にユーザが把持しやすいようなグリップ形状が設けられた構造としてもよい。例えば、電子機器100(200、300)は、筐体の外周囲に、両面側のユーザ2人が把持しやすいように、筐体の外周囲の2辺以上にそれぞれグリップ形状が設けられた構造としてもよい。また、電子機器100(200、300)は、別体として構成されたグリップが着脱可能な構成(例えば、別体のグリップが着脱可能な接続部が筐体の外周囲に設けられた構成)としてもよい。   The electronic device 100 (200, 300) may have a structure in which a grip shape is provided on the outer periphery of the housing so that the user can easily grip it. For example, the electronic device 100 (200, 300) has a structure in which grip shapes are provided on two or more sides of the outer periphery of the casing so that two users on both sides can easily grip the outer periphery of the casing. It is good. In addition, the electronic device 100 (200, 300) has a configuration in which a grip configured as a separate body is detachable (for example, a configuration in which a connection portion in which a separate grip is detachable is provided on the outer periphery of the housing). Also good.

なお、上記実施形態において、第1音検出部38は、第1表示部21の表示面に対面する方向のうちの所定の範囲からの音を検出するような指向性を有するマイクを備えた構成としてもよい。また、第2音検出部39は、第2表示部22の表示面に対面する方向のうちの所定の範囲からの音を検出するような指向性を有するマイクを備えた構成としてもよい。これにより、音検出方向識別部44は、第1音検出部38および第2音検出部39の何れかにより検出された音が、第1表示部21の表示面に対面する方向および第2表示部22の表示面に対面する方向のうち何れの方向からの音であるかをより精度よく識別することができる。   In the above embodiment, the first sound detection unit 38 includes a microphone having directivity that detects sound from a predetermined range in the direction facing the display surface of the first display unit 21. It is good. The second sound detection unit 39 may include a microphone having directivity that detects sound from a predetermined range in the direction facing the display surface of the second display unit 22. As a result, the sound detection direction identification unit 44 determines whether the sound detected by either the first sound detection unit 38 or the second sound detection unit 39 faces the display surface of the first display unit 21 and the second display. It is possible to more accurately identify which direction the sound is from among the directions facing the display surface of the unit 22.

なお、上記実施形態において、第1音出力部26は、第1表示部21の表示面に対面する方向のうちの所定の範囲に対して音を出力するような指向性を有するスピーカーを備えた構成としてもよい。また、第2音出力部27は、第2表示部22の表示面に対面する方向のうちの所定の範囲に対して音を出力するような指向性を有するスピーカーを備えた構成としてもよい。これにより、ユーザの発声タイミングと音出力部25からの音声出力タイミングとが重なる場合、または第1音出力部26からの音声出力タイミングと第2音出力部27からの音声出力タイミングと重なる場合、において、音出力部25から出力された音声をユーザに対して聞き取りやすくすることができるとともに、音出力部25から出力された音声が音入力部35に対して混入することを抑制することができる。   In the above embodiment, the first sound output unit 26 includes a speaker having directivity that outputs sound in a predetermined range in the direction facing the display surface of the first display unit 21. It is good also as a structure. The second sound output unit 27 may include a speaker having directivity that outputs sound in a predetermined range in the direction facing the display surface of the second display unit 22. Thereby, when a user's utterance timing and the audio | voice output timing from the sound output part 25 overlap, or when the audio | voice output timing from the 1st sound output part 26 and the audio | voice output timing from the 2nd sound output part 27 overlap, In addition, the sound output from the sound output unit 25 can be easily heard by the user, and the sound output from the sound output unit 25 can be prevented from being mixed into the sound input unit 35. .

また、上記実施形態の電子機器100(200、300)は、互いに異なる3面以上の複数の面により構成され、複数の面それぞれに対して、対面する方向を撮像する撮像部、対面する側に表示する表示部、対面する方向に音を出力する音出力部、対面する側からの入力を検出する操作入力部、または対面する側からの音を検出する音入力部を備えている構成としてもよい。この構成による電子機器100(200、300)は、例えば、複数の面それぞれの側から入力された情報に基づく情報を、入力された面と異なる面(例えば反対面)側に出力する制御をしてもよい。   In addition, the electronic device 100 (200, 300) of the above-described embodiment is configured by a plurality of three or more surfaces that are different from each other, and on each of the plurality of surfaces, an imaging unit that captures a facing direction and a facing side. As a configuration provided with a display unit for displaying, a sound output unit for outputting sound in the facing direction, an operation input unit for detecting input from the facing side, or a sound input unit for detecting sound from the facing side Good. The electronic device 100 (200, 300) having this configuration controls, for example, to output information based on information input from each side of a plurality of surfaces to a surface (for example, the opposite surface) that is different from the input surface. May be.

なお、上記実施形態において、電子機器100(200、300)が、第1表示部21の表示面上における接触状態を検出する第1表示面接触センサ33と、第2表示部22の表示面上における接触状態を検出する第2表示面接触センサ34とを備えている例について説明したが、表示面上における接触状態を検出する構成に代えて、それぞれ第1面101(第1筐体面)と、第2面102(第2筐体面)とにおける接触状態をそれぞれ検出する構成としてもよい。
ここでいう第1面101(第1筐体面)および第2面102(第2筐体面)とは、それぞれの面の領域のうち、表示面の領域以外の領域であってもよいし、または、それぞれの面の領域のうち、表示面の領域と表示面の領域以外の領域との両方を含む領域であってもよい。
In the above embodiment, the electronic device 100 (200, 300) has a first display surface contact sensor 33 that detects a contact state on the display surface of the first display unit 21 and a display surface of the second display unit 22. Although the example provided with the 2nd display surface contact sensor 34 which detects the contact state in is replaced with the structure which detects the contact state on a display surface, it replaces with the 1st surface 101 (1st housing | casing surface), respectively. The contact state with the second surface 102 (second housing surface) may be detected.
Here, the first surface 101 (first housing surface) and the second surface 102 (second housing surface) may be regions other than the display surface region of the respective surface regions, or Of the respective surface regions, the region may include both a display surface region and a region other than the display surface region.

なお、第1表示部21および第2表示部22は、液晶ディスプレイを有するものに限られものではなく、例えば、有機EL(Electro-Luminescence)ディスプレイ、電子ペーパー方式の表示ディスプレイ、2つの透過型表示ディスプレイとその間に配置されている液晶ディスプレイ(透過と非透過とを切替え可能な液晶パネル)とにより構成される表示パネル、等、その他の表示ディスプレイを有するものであってもよい。   In addition, the 1st display part 21 and the 2nd display part 22 are not restricted to what has a liquid crystal display, For example, an organic EL (Electro-Luminescence) display, an electronic paper type display display, two transmission type | mold displays You may have other display displays, such as a display panel comprised with a display and the liquid crystal display (liquid crystal panel which can switch permeation | transmission and non-transmission) arrange | positioned between them.

また、上記実施形態の電子機器100(200、300)は、携帯情報端末、タブレット型コンピュータ、携帯電話、電子辞書、電子書籍リーダ等、様々な電子機器であってもよい。   In addition, the electronic device 100 (200, 300) of the above embodiment may be various electronic devices such as a portable information terminal, a tablet computer, a mobile phone, an electronic dictionary, and an electronic book reader.

また、上記実施形態における翻訳部6、言語推定部7、文章変換部8、検出部40、制御部50、および情報変換部60の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   In addition, a program for realizing the functions of the translation unit 6, the language estimation unit 7, the text conversion unit 8, the detection unit 40, the control unit 50, and the information conversion unit 60 in the above embodiment is recorded on a computer-readable recording medium. Then, the above-described processing of each unit may be performed by causing the computer system to read and execute the program recorded on the recording medium. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.

5 記憶部、6 翻訳部、7 言語推定部、8 文章変換部、11 第1撮像部、12 第2撮像部、21 第1表示部、22 第2表示部、26 第1音出力部、27 第2音出力部、31 第1操作入力部、32 第2操作入力部、33 第1表示面接触センサ、34 第2表示面接触センサ、38 第1音検出部、39 第2音検出部、40 検出部、41 顔検出部、43 把持状態検出部、44 音検出方向識別部、50 制御部(出力制御部)、52 表示制御部、53 音出力制御部、61 第1情報変換部(第1変換部)、62 第2情報変換部(第2変換部)、100,200,300 電子機器   DESCRIPTION OF SYMBOLS 5 Memory | storage part, 6 translation part, 7 language estimation part, 8 sentence conversion part, 11 1st imaging part, 12 2nd imaging part, 21 1st display part, 22 2nd display part, 26 1st sound output part, 27 2nd sound output part, 31 1st operation input part, 32 2nd operation input part, 33 1st display surface contact sensor, 34 2nd display surface contact sensor, 38 1st sound detection part, 39 2nd sound detection part, 40 detection unit, 41 face detection unit, 43 gripping state detection unit, 44 sound detection direction identification unit, 50 control unit (output control unit), 52 display control unit, 53 sound output control unit, 61 first information conversion unit (first 1 conversion unit), 62 second information conversion unit (second conversion unit), 100, 200, 300 electronic equipment

Claims (31)

互いに表裏の位置関係に配置されている第1出力部および第2出力部と、
前記第1出力部に対面する側から入力される第1情報を検出する第1入力部と、
前記第2出力部に対面する側から入力される第2情報を検出する第2入力部と、
前記第1出力部および前記第2出力部に対面する方向のそれぞれにユーザがいるか否かを検出する検出部と、
前記第1入力部および前記第2入力部のうち何れかの入力部の検出結果と、前記検出部の検出結果とに基づいて、前記第1出力部および前記第2出力部それぞれの出力を制御する出力制御部と、
を備えることを特徴とする電子機器。
A first output unit and a second output unit that are arranged in a positional relationship with each other;
A first input unit for detecting first information input from a side facing the first output unit;
A second input unit for detecting second information input from a side facing the second output unit;
A detection unit for detecting whether or not there is a user in each of the directions facing the first output unit and the second output unit;
Control the output of each of the first output unit and the second output unit based on the detection result of one of the first input unit and the second input unit and the detection result of the detection unit An output control unit,
An electronic device comprising:
前記第1出力部および第2出力部として、互いに表裏の位置関係に表示面が配置されている第1表示部および第2表示部と、
前記第1表示部および前記第2表示部の表示を制御する前記出力制御部としての表示制御部と、
を備え、
前記表示制御部は、
前記検出部により、前記第1表示部および前記第2表示部の表示面に対面する方向のそれぞれ両方にユーザがいると検出された場合、
前記第1入力部が検出した前記第1情報に基づいて出力する第3情報を、前記第2表示部に表示させ、前記第2入力部が検出した前記第2情報に基づいて出力する第4情報を、前記第1表示部に表示させる
ことを特徴とする請求項1に記載の電子機器。
As the first output unit and the second output unit, a first display unit and a second display unit in which display surfaces are arranged in a positional relationship of front and back,
A display control unit as the output control unit for controlling the display of the first display unit and the second display unit;
With
The display control unit
When the detection unit detects that there is a user in both directions facing the display surfaces of the first display unit and the second display unit,
Third information to be output based on the first information detected by the first input unit is displayed on the second display unit, and output based on the second information detected by the second input unit. The electronic device according to claim 1, wherein information is displayed on the first display unit.
前記表示制御部は、
前記検出部により、前記第1表示部の表示面に対面する方向のみにユーザがいると検出された場合、
前記第3情報を、前記第1表示部に表示させる
ことを特徴とする請求項2に記載の電子機器。
The display control unit
When the detection unit detects that there is a user only in the direction facing the display surface of the first display unit,
The electronic apparatus according to claim 2, wherein the third information is displayed on the first display unit.
前記表示制御部は、
前記検出部により、前記第2表示部の表示面に対面する方向のみにユーザがいると検出された場合、
前記第4情報を、前記第2表示部に表示させる
ことを特徴とする請求項2または3に記載の電子機器。
The display control unit
When the detection unit detects that there is a user only in the direction facing the display surface of the second display unit,
The electronic apparatus according to claim 2, wherein the fourth information is displayed on the second display unit.
前記第1表示部の表示面に対面する方向を撮像する第1撮像部と、
前記第2表示部の表示面に対面する方向を撮像する第2撮像部と、
を備え、
前記検出部は、
前記第1撮像部により撮像された第1画像に基づいて、前記第1表示部の表示面に対面する方向にユーザがいるか否かを検出するとともに、前記第2撮像部により撮像された第2画像に基づいて、前記第2表示部の表示面に対面する方向にユーザがいるか否かを検出する
ことを特徴とする請求項2から4の何れか一項に記載の電子機器。
A first imaging unit that images a direction facing the display surface of the first display unit;
A second imaging unit that images a direction facing the display surface of the second display unit;
With
The detector is
Based on the first image picked up by the first image pickup unit, it is detected whether there is a user in a direction facing the display surface of the first display unit, and the second image picked up by the second image pickup unit. The electronic apparatus according to any one of claims 2 to 4, wherein whether or not there is a user in a direction facing the display surface of the second display unit is detected based on an image.
前記検出部は、
前記第1画像および前記第2画像のうち何れかの画像から顔の画像を検出し、
前記第1画像から顔の画像を検出したか否かに基づいて、前記第1表示部の表示面に対面する方向にユーザがいるか否かを検出するとともに、前記第2画像から顔の画像を検出したか否かに基づいて、前記第2表示部の表示面に対面する方向にユーザがいるか否かを検出する
ことを特徴とする請求項5に記載の電子機器。
The detector is
Detecting a face image from any one of the first image and the second image;
Based on whether a face image is detected from the first image, it is detected whether there is a user in a direction facing the display surface of the first display unit, and a face image is detected from the second image. 6. The electronic apparatus according to claim 5, wherein whether or not there is a user in a direction facing the display surface of the second display unit is detected based on whether or not the detection is performed.
言語により表された文字情報を翻訳し、当該翻訳した言語により表された文字情報に変換する翻訳部、
を備え、
前記翻訳部は、
前記第1情報に含まれる第1言語により表された文字情報を、前記第1言語と異なる第2言語により表された文字情報を含む前記第3情報に変換するとともに、前記第2情報に含まれる前記第2言語により表された文字情報を、前記第1言語により表された文字情報を含む前記第4情報に変換する
ことを特徴とする請求項5または6に記載の電子機器。
A translation unit that translates the character information represented by the language and converts it into character information represented by the translated language;
With
The translation unit
The character information represented by the first language included in the first information is converted into the third information including character information represented by a second language different from the first language, and is included in the second information. The electronic device according to claim 5, wherein the character information expressed in the second language is converted into the fourth information including the character information expressed in the first language.
前記翻訳部は、
前記第1言語により表された文字情報を、第2表示部の表示面に対面する方向に検出されたユーザに対応した前記第2言語により表された文字情報に変換する
ことを特徴とする請求項7に記載の電子機器。
The translation unit
The character information expressed in the first language is converted into character information expressed in the second language corresponding to the user detected in the direction facing the display surface of the second display unit. Item 8. The electronic device according to Item 7.
前記翻訳部は、
前記第1言語により表された文字情報を、複数の国の言語それぞれにより表された複数の文字情報に翻訳するとともに、当該翻訳した複数の文字情報を前記表示制御部の制御により前記第2表示部に表示させ、
前記第2表示部に表示させた前記複数の国の言語それぞれにより表された複数の文字情報のうち選択された文字情報の言語を前記第2言語とする
ことを特徴とする請求項7または8に記載の電子機器。
The translation unit
The character information expressed in the first language is translated into a plurality of character information expressed in the languages of a plurality of countries, and the translated character information is controlled by the display control unit in the second display. Displayed on the
9. The language of the character information selected from the plurality of character information represented by the languages of the plurality of countries displayed on the second display unit is the second language. The electronic device as described in.
前記翻訳部は、
前記第2画像から検出された顔の画像に基づいて、前記複数の国の言語に翻訳する
ことを特徴とする請求項9に記載の電子機器。
The translation unit
The electronic device according to claim 9, wherein the electronic device is translated into the languages of the plurality of countries based on a face image detected from the second image.
前記第2画像から検出された顔の画像に基づいて、前記複数の国の言語として、前記第2表示部の表示面に対面する方向のユーザが属する国の言語の候補を推定する推定部、
を備え、
前記翻訳部は、
前記推定部が推定した前記複数の国の言語に翻訳する
ことを特徴とする請求項9または10に記載の電子機器。
An estimation unit that estimates a language candidate of a country to which a user in a direction facing the display surface of the second display unit belongs, based on a face image detected from the second image;
With
The translation unit
The electronic device according to claim 9 or 10, wherein the electronic device is translated into the languages of the plurality of countries estimated by the estimation unit.
前記第1出力部および第2出力部として、互いに表裏の位置関係に配置されて音を出力する第1音出力部および第2音出力部と、
前記言語により表された文字情報を音声情報に変換する第1変換部と、
前記第1変換部が変換した音声情報を、前記第1音出力部および前記第2音出力部の何れかから出力させる前記出力制御部としての音出力制御部と、
を備えることを特徴とする請求項7から11の何れか一項に記載の電子機器。
As the first output unit and the second output unit, a first sound output unit and a second sound output unit that are arranged in a positional relationship with each other and output sound, and
A first conversion unit for converting character information expressed in the language into voice information;
A sound output control unit as the output control unit that outputs the sound information converted by the first conversion unit from either the first sound output unit or the second sound output unit;
The electronic apparatus according to claim 7, further comprising:
前記音出力制御部は、
前記第1変換部が前記第2言語により表された文字情報を変換した音声情報を、前記第2音出力部から出力させるとともに、前記第1変換部が前記第1言語により表された文字情報を変換した音声情報を、前記第1音出力部から出力させる
ことを特徴とする請求項12に記載の電子機器。
The sound output control unit
The voice information obtained by converting the character information expressed in the second language by the first conversion unit is output from the second sound output unit, and the character information expressed in the first language by the first conversion unit. The electronic apparatus according to claim 12, wherein audio information obtained by converting is output from the first sound output unit.
前記第1入力部として、入力される音を検出する第1音検出部と、
前記第2入力部として、入力される音を検出する第2音検出部と、
前記第1音検出部および前記第2音検出部の何れかにより検出された音が、前記第1表示部の表示面に対面する方向および前記第2表示部の表示面に対面する方向のうち何れの方向からの音であるかを識別する音検出方向識別部と、
前記第1音検出部および前記第2音検出部の何れかにより検出された音声情報を、文字情報に変換する第2変換部と、
を備えることを特徴とする請求項12または13に記載の電子機器。
A first sound detection unit that detects an input sound as the first input unit;
As the second input unit, a second sound detection unit that detects input sound;
Of the direction in which the sound detected by either the first sound detecting unit or the second sound detecting unit faces the display surface of the first display unit and the direction facing the display surface of the second display unit A sound detection direction identification unit for identifying which direction the sound is from;
A second converter that converts voice information detected by any of the first sound detector and the second sound detector into character information;
The electronic apparatus according to claim 12, further comprising:
前記翻訳部は、
第2変換部が前記第1音検出部により検出された音声情報を変換した、前記第1言語により表された文字情報を、前記第2言語により表された文字情報に翻訳するとともに、第2変換部が前記第2音検出部により検出された音声情報を変換した、前記第2言語により表された文字情報を、前記第1言語により表された文字情報に翻訳する
ことを特徴とする請求項14に記載の電子機器。
The translation unit
The second conversion unit translates the voice information detected by the first sound detection unit and translates the character information expressed in the first language into character information expressed in the second language, and the second The character information represented by the second language obtained by converting the voice information detected by the second sound detecting unit is translated into character information represented by the first language. Item 15. The electronic device according to Item 14.
前記音検出方向識別部は、
前記第1音検出部および前記第2音検出部が検出する音の大きさに基づいて、前記第1表示部の表示面に対面する方向から検出された音であるか、または前記第2表示部の表示面に対面する方向から検出された音であるか、を識別する
ことを特徴とする請求項14または15に記載の電子機器。
The sound detection direction identification unit is
The sound is detected from the direction facing the display surface of the first display unit based on the volume of sound detected by the first sound detection unit and the second sound detection unit, or the second display The electronic device according to claim 14, wherein the electronic device is identified whether the sound is detected from a direction facing the display surface of the unit.
前記第1音検出部は、
前記第1表示部の表示面に対面する方向のうちの所定の範囲からの音を検出するような指向性を有し、
前記第2音検出部は、
前記第2表示部の表示面に対面する方向のうちの所定の範囲からの音を検出するような指向性を有する
ことを特徴とする請求項14から16の何れか一項に記載の電子機器。
The first sound detector is
Having directivity to detect sound from a predetermined range in the direction facing the display surface of the first display unit;
The second sound detector is
The electronic apparatus according to any one of claims 14 to 16, wherein the electronic apparatus has directivity that detects sound from a predetermined range in a direction facing the display surface of the second display unit. .
前記第1音検出部または前記第2音検出部により検出された音声情報を入力情報として取得する制御をする音入力制御部を備え、
前記音入力制御部は、
前記音出力制御部が、前記第2言語により表された文字情報を変換した音声情報を前記第2音出力部から出力させている間も、前記第1音検出部により検出された音声情報を入力情報として取得する
ことを特徴とする請求項14から17の何れか一項に記載の電子機器。
A sound input control unit that performs control to acquire voice information detected by the first sound detection unit or the second sound detection unit as input information;
The sound input control unit
The sound information detected by the first sound detection unit is also output while the sound output control unit outputs the sound information obtained by converting the character information expressed in the second language from the second sound output unit. It acquires as input information. The electronic device as described in any one of Claims 14-17 characterized by the above-mentioned.
前記音入力制御部は、
前記第1音検出部により検出された音声情報を入力情報として取得する間も、前記第2音検出部により検出された音声情報を入力情報として取得する
ことを特徴とする請求項18に記載の電子機器。
The sound input control unit
The voice information detected by the second sound detection unit is acquired as input information while the voice information detected by the first sound detection unit is acquired as input information. Electronics.
第1用語を用いた文章により表された文字情報を、前記第1用語よりも平易な第2用語を用いた文章により表された文字情報に変換する文章変換部、
を備え、
前記文章変換部は、
前記第1用語を用いた文章により表された文字情報を含む前記第1情報を、前記第2用語を用いた文章により表された文字情報を含む前記第3情報に変換する
ことを特徴とする請求項5から19の何れか一項に記載の電子機器。
A text conversion unit that converts text information represented by text using the first term into text information represented by text using the second term that is easier than the first term;
With
The sentence converter
Converting the first information including character information represented by a sentence using the first term into the third information including character information represented by a sentence using the second term. The electronic device according to any one of claims 5 to 19.
前記第1用語は、
特定の分野で用いられ専門用語または学術用語である
ことを特徴とする請求項20に記載の電子機器。
The first term is:
The electronic device according to claim 20, wherein the electronic device is a technical term or an academic term used in a specific field.
前記表示制御部は、
前記第1表示部の表示面に対面する方向にいるユーザを示す第1ユーザ画像を第2表示部に表示させるとともに、前記第2表示部の表示面に対面する方向にいるユーザを示す第2ユーザ画像を第1表示部に表示させる
ことを特徴とする請求項5から21の何れか一項に記載の電子機器。
The display control unit
A first user image indicating a user in a direction facing the display surface of the first display unit is displayed on the second display unit, and a second indicating a user in a direction facing the display surface of the second display unit The electronic device according to any one of claims 5 to 21, wherein a user image is displayed on the first display unit.
前記第1ユーザ画像は、
前記第1画像から検出された顔の画像、および前記第1表示部の表示面に対面する方向にいるユーザ固有に対応付けられているアバターの画像の何れかを含み、
前記第2ユーザ画像は、
前記第2画像から検出された顔の画像、および前記第2表示部の表示面に対面する方向にいるユーザ固有に対応付けられているアバターの画像の何れかを含む
ことを特徴とする請求項22に記載の電子機器。
The first user image is
Including any one of a face image detected from the first image and an avatar image associated with the user in a direction facing the display surface of the first display unit;
The second user image is
The image of the face detected from the said 2nd image and either the image of the avatar matched with the user specific in the direction which faces the display surface of the said 2nd display part are included. 22. The electronic device according to 22.
前記表示制御部は、
前記第1表示部に表示させる情報の表示方向にかかわらず、前記第2画像から検出された顔の画像における顔の方向に基づいて、前記第2表示部に表示させる情報の表示方向を制御する
ことを特徴とする請求項5から23の何れか一項に記載の電子機器。
The display control unit
Regardless of the display direction of the information displayed on the first display unit, the display direction of the information displayed on the second display unit is controlled based on the face direction in the face image detected from the second image. The electronic device according to any one of claims 5 to 23, wherein:
前記表示制御部は、
前記第2表示部に表示させる情報の表示方向にかかわらず、前記第1画像から検出された顔の画像における顔の方向に基づいて、前記第1表示部に表示させる情報の表示方向を制御する
ことを特徴とする請求項5から24の何れか一項に記載の電子機器。
The display control unit
Regardless of the display direction of the information displayed on the second display unit, the display direction of the information displayed on the first display unit is controlled based on the face direction in the face image detected from the first image. The electronic device according to claim 5, wherein the electronic device is a device.
前記表示制御部は、
前記第1情報と前記第4情報とを、前記第1表示部の表示領域内において互いに重ならない位置にそれぞれ並べて表示させる
ことを特徴とする請求項2から25の何れか一項に記載の電子機器。
The display control unit
The electron according to any one of claims 2 to 25, wherein the first information and the fourth information are displayed side by side at positions that do not overlap each other in a display area of the first display unit. machine.
前記表示制御部は、
前記第2情報と前記第3情報とを、前記第2表示部の表示領域内において互いに重ならない位置にそれぞれ並べて表示させる
ことを特徴とする請求項2から26の何れか一項に記載の電子機器。
The display control unit
27. The electron according to any one of claims 2 to 26, wherein the second information and the third information are displayed side by side at positions that do not overlap each other in a display area of the second display unit. machine.
前記表示制御部は、
前記第1入力部に対する入力状態が入力中の状態であることが前記第1入力部により検出された場合、当該入力中の状態であることを示す情報を第2表示部に表示させ、
前記第2入力部に対する入力状態が入力中の状態であることが前記第2入力部により検出された場合、当該入力中の状態であることを示す情報を第1表示部に表示させる
ことを特徴とする請求項2から27の何れか一項に記載の電子機器。
The display control unit
When the first input unit detects that the input state for the first input unit is an input state, information indicating that the input state is being displayed is displayed on the second display unit,
When the second input unit detects that the input state with respect to the second input unit is an input state, information indicating the input state is displayed on the first display unit. The electronic device according to any one of claims 2 to 27.
自機器がユーザにより把持されている状態を把持状態として検出する把持状態検出部、
を備え、
前記検出部は、
前記把持状態検出部により検出された把持状態に基づいて、前記第1出力部に対面する方向および前記第2出力部に対面する方向のうち何れかの方向にユーザがいるか否かを検出する
ことを特徴とする請求項1から28の何れか一項に記載の電子機器。
A gripping state detection unit that detects a state in which the device is gripped by a user as a gripping state;
With
The detector is
Detecting whether the user is in one of a direction facing the first output unit and a direction facing the second output unit based on the gripping state detected by the gripping state detection unit. The electronic device according to any one of claims 1 to 28, wherein:
前記第1入力部として、前記第1出力部に対面する側に配置され、ユーザによる操作入力を検出する第1操作入力部と、
前記第2入力部として、前記第2出力部に対面する側に配置され、ユーザによる操作入力を検出する第2操作入力部と、
を備えていることを特徴とする請求項1から29の何れか一項に記載の電子機器。
As the first input unit, a first operation input unit that is disposed on the side facing the first output unit and detects an operation input by a user;
As the second input unit, a second operation input unit that is arranged on the side facing the second output unit and detects an operation input by a user;
30. The electronic apparatus according to claim 1, further comprising:
互いに表裏の位置関係に配置されている第1出力部および第2出力部を有する電子機器が備えるコンピュータに、
第1入力部に前記第1出力部に対面する側から入力される第1情報を検出させるステップと、
第2入力部に前記第2出力部に対面する側から入力される第2情報を検出させるステップと、
検出部に前記第1出力部および前記第2出力部に対面する方向のそれぞれにユーザがいるか否かを検出させるステップと、
前記第1入力部および前記第2入力部のうち何れかの入力部の検出結果と、前記検出部の検出結果とに基づいて、前記第1出力部および前記第2出力部それぞれの出力を制御するステップと、
を実行させるためのプログラム。
In a computer provided in an electronic device having a first output unit and a second output unit arranged in a positional relationship between the front and back,
Causing the first input unit to detect first information input from a side facing the first output unit;
Causing the second input unit to detect second information input from the side facing the second output unit;
Causing the detection unit to detect whether there is a user in each of the directions facing the first output unit and the second output unit;
Control the output of each of the first output unit and the second output unit based on the detection result of one of the first input unit and the second input unit and the detection result of the detection unit And steps to
A program for running
JP2012057950A 2012-03-14 2012-03-14 Electronic device and program Pending JP2013191103A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012057950A JP2013191103A (en) 2012-03-14 2012-03-14 Electronic device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057950A JP2013191103A (en) 2012-03-14 2012-03-14 Electronic device and program

Publications (1)

Publication Number Publication Date
JP2013191103A true JP2013191103A (en) 2013-09-26

Family

ID=49391250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057950A Pending JP2013191103A (en) 2012-03-14 2012-03-14 Electronic device and program

Country Status (1)

Country Link
JP (1) JP2013191103A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129873A (en) * 2017-03-06 2017-07-27 本田技研工業株式会社 Conversation assist device, method for controlling conversation assist device, and program for conversation assist device
JP2018195276A (en) * 2017-05-18 2018-12-06 深▲せん▼双猴科技有限公司 Simultaneous translation device with double-sided display, method, device, and electronic device
JP2018200694A (en) * 2018-06-12 2018-12-20 三菱電機株式会社 Display control device, display control method, and program
EP3454332A4 (en) * 2016-05-02 2019-05-01 Sony Corporation Control device, control method, and computer program
JP2019079545A (en) * 2018-12-04 2019-05-23 三菱電機株式会社 Display control apparatus, input display system, display control method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3454332A4 (en) * 2016-05-02 2019-05-01 Sony Corporation Control device, control method, and computer program
US11188288B2 (en) 2016-05-02 2021-11-30 Sony Corporation Control device and control method to issue notification on occurrence of processing overflow
JP2017129873A (en) * 2017-03-06 2017-07-27 本田技研工業株式会社 Conversation assist device, method for controlling conversation assist device, and program for conversation assist device
JP2018195276A (en) * 2017-05-18 2018-12-06 深▲せん▼双猴科技有限公司 Simultaneous translation device with double-sided display, method, device, and electronic device
JP2018200694A (en) * 2018-06-12 2018-12-20 三菱電機株式会社 Display control device, display control method, and program
JP2019079545A (en) * 2018-12-04 2019-05-23 三菱電機株式会社 Display control apparatus, input display system, display control method, and program

Similar Documents

Publication Publication Date Title
US10943158B2 (en) Translation and display of text in picture
US10546582B2 (en) Information processing device, method of information processing, and program
US20200026764A1 (en) Method of video call
JP6392374B2 (en) Head mounted display system and method for operating head mounted display device
US20140324412A1 (en) Translation device, translation system, translation method and program
JP2018508086A (en) Input processing method, apparatus and device
CN110322760B (en) Voice data generation method, device, terminal and storage medium
CN109240785B (en) Method, terminal and storage medium for setting language
US10747499B2 (en) Information processing system and information processing method
JP2013191103A (en) Electronic device and program
WO2018186416A1 (en) Translation processing method, translation processing program, and recording medium
KR20100026701A (en) Sign language translator and method thereof
US11335348B2 (en) Input method, device, apparatus, and storage medium
Akkara et al. Smartphone apps for visually impaired persons
US10720154B2 (en) Information processing device and method for determining whether a state of collected sound data is suitable for speech recognition
CN110378318B (en) Character recognition method and device, computer equipment and storage medium
US20170322621A1 (en) Mobile phone, method for operating mobile phone, and recording medium
JP2015049372A (en) Foreign language learning support device and foreign language learning support program
CN107943317A (en) Input method and device
JPWO2018020828A1 (en) Translation apparatus and translation system
JP2017211430A (en) Information processing device and information processing method
EP2632127B1 (en) Method and apparatus pertaining to presenting incoming-call identifiers
WO2017035985A1 (en) String storing method and device
CN105930525A (en) Content search method and apparatus
CN113850091A (en) Audio playing method and device, storage medium and electronic equipment