JP2014216962A - Electronic apparatus and system - Google Patents

Electronic apparatus and system Download PDF

Info

Publication number
JP2014216962A
JP2014216962A JP2013094687A JP2013094687A JP2014216962A JP 2014216962 A JP2014216962 A JP 2014216962A JP 2013094687 A JP2013094687 A JP 2013094687A JP 2013094687 A JP2013094687 A JP 2013094687A JP 2014216962 A JP2014216962 A JP 2014216962A
Authority
JP
Japan
Prior art keywords
image
unit
display
electronic device
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013094687A
Other languages
Japanese (ja)
Other versions
JP6133673B2 (en
Inventor
正義 近藤
Masayoshi Kondo
正義 近藤
山口 剛史
Takashi Yamaguchi
剛史 山口
雄大 永田
Yudai Nagata
雄大 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013094687A priority Critical patent/JP6133673B2/en
Publication of JP2014216962A publication Critical patent/JP2014216962A/en
Application granted granted Critical
Publication of JP6133673B2 publication Critical patent/JP6133673B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus and a system that are improved in convenience for a user.SOLUTION: An electronic apparatus 1 comprises an imaging unit 11, a display unit 12, and a control unit 13. The imaging unit 11 acquires an image of a subject. The display unit 12 is a transmissive display unit 12. The display unit 12 makes it possible to, transmissively from one surface side, visually recognize the other surface side. The control unit 13 displays an object corresponding to at least part of the subject on the display unit 12 on the basis of the image of the subject acquired by the imaging unit 11.

Description

本発明は、透過型の表示部を備える電子機器、及び、その電子機器を備えるシステムに関する。   The present invention relates to an electronic device including a transmissive display unit and a system including the electronic device.

電子機器の一例には、携帯電話機が挙げられる。携帯電話機には、2つの筐体をヒンジ部で接続して、折り畳み可能としたタイプがある。折り畳み型の携帯電話機には、2つの筐体が閉状態になる場合でも容易に操作できるようにするために、透明ディスプレイを備えるタイプがある(特許文献1参照)。   An example of the electronic device is a mobile phone. There is a type of mobile phone that can be folded by connecting two casings with a hinge portion. A type of foldable mobile phone includes a transparent display so that it can be easily operated even when two housings are closed (see Patent Document 1).

特開2012−129764号公報JP 2012-129964 A

上述したように、電子機器には、透明ディスプレイを備えるタイプがある。近年は、透明ディスプレイが光透過性を有するという利点を生かして、さらにユーザにとって利便性の高い電子機器の登場が望まれている。   As described above, there are types of electronic devices that include a transparent display. In recent years, there has been a demand for the appearance of electronic devices that are more convenient for users by taking advantage of the transparency of transparent displays.

本発明は、ユーザの利便性を向上させた電子機器及びシステムを提供することを目的とする。   It is an object of the present invention to provide an electronic device and a system that improve user convenience.

本発明の電子機器は、撮像部と、表示部と、制御部と、を備える。前記撮像部は、被写体の画像を取得する。前記表示部は、透過型である。前記表示部は、一方の面側から透過して他方の面側を視認可能である。前記制御部は、前記撮像部で取得された被写体の画像に基づいて、当該被写体の少なくとも一部に対するオブジェクトを前記表示部に表示させる。   The electronic device of the present invention includes an imaging unit, a display unit, and a control unit. The imaging unit acquires an image of a subject. The display unit is a transmissive type. The said display part can permeate | transmit from the one surface side and can visually recognize the other surface side. The control unit causes the display unit to display an object for at least a part of the subject based on the image of the subject acquired by the imaging unit.

前記制御部は、前記表示部を介して視認される被写体の一部に対応させて前記オブジェクトを表示させることが好ましい。   It is preferable that the control unit displays the object corresponding to a part of the subject visually recognized through the display unit.

前記オブジェクトは、色の濃度が所定の閾値より高いことが好ましい。   The object preferably has a color density higher than a predetermined threshold.

前記オブジェクトは、当該被写体の一部と同色若しくはそれに近い色であることが好ましい。   It is preferable that the object has the same color as a part of the subject or a color close thereto.

電子機器は、検出部をさらに備える。前記検出部は、前記表示部に重ね合わせてある。この場合、前記制御部は、前記検出部によって前記オブジェクトに対応する位置への接触を検出した場合には、前記オブジェクトの表示を解除するよう前記表示部を制御する。   The electronic device further includes a detection unit. The detection unit is superimposed on the display unit. In this case, when the detection unit detects contact with a position corresponding to the object, the control unit controls the display unit to cancel the display of the object.

本発明の電子機器は、撮像部と、表示部と、制御部と、を備える。前記撮像部は、被写体の画像を取得する。前記表示部は、透過型である。前記表示部は、一方の面側から透過して他方の面側を視認可能である。前記制御部は、前記撮像部で取得された被写体の画像に基づいて、当該被写体の少なくとも一部に対応する位置における前記表示部の透過率を下げる。   The electronic device of the present invention includes an imaging unit, a display unit, and a control unit. The imaging unit acquires an image of a subject. The display unit is a transmissive type. The said display part can permeate | transmit from the one surface side and can visually recognize the other surface side. The control unit lowers the transmittance of the display unit at a position corresponding to at least a part of the subject based on the image of the subject acquired by the imaging unit.

本発明の電子機器は、筐体と、表示部と、検知部と、制御部と、を備える。前記表示部は、透過型である。前記表示部は、一方の面側から透過して他方の面側を視認可能である。前記検知部は、加速度及び地磁気を検知する。前記制御部は、画像表示装置に表示される第1画像と、前記表示部に表示される第2画像とが重なるように前記筐体が配置された場合の前記筐体の向きを基準方向又は前記筐体の位置を基準位置として設定する。前記制御部は、前記検知部で検知された加速度及び地磁気に基づいて、前記基準方向に対する前記筐体の向き若しくは前記基準位置に対する位置を取得する。   The electronic device of the present invention includes a housing, a display unit, a detection unit, and a control unit. The display unit is a transmissive type. The said display part can permeate | transmit from the one surface side and can visually recognize the other surface side. The detection unit detects acceleration and geomagnetism. The controller controls the orientation of the housing when the housing is arranged such that the first image displayed on the image display device and the second image displayed on the display portion overlap with each other. The position of the housing is set as a reference position. The control unit acquires an orientation of the housing with respect to the reference direction or a position with respect to the reference position based on the acceleration and geomagnetism detected by the detection unit.

本発明の電子機器は、インターフェイス部と、撮像部と、表示部と、制御部と、を備える。前記インターフェイス部は、外部に配される画像表示装置と通信可能に接続される。前記撮像部は、画像を取得する。前記制御部は、前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させる。前記制御部は、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して送信させる。   The electronic device of the present invention includes an interface unit, an imaging unit, a display unit, and a control unit. The interface unit is communicably connected to an image display device arranged outside. The imaging unit acquires an image. When an image based on a third image displayed on the image display device is acquired by the imaging unit, the control unit applies to at least a part of the subject based on the image acquired by the imaging unit. A fourth image is displayed on the display unit. When a predetermined operation is performed on the fourth image, the control unit outputs image data corresponding to the fifth image so that a fifth image based on the predetermined operation is displayed on the image display device. To be transmitted through the section.

前記表示部は、一方の面側から透過して他方の面側及び他方の面側から透過して一方の面側を視認可能な透過型の表示部であることが好ましい。   It is preferable that the display unit is a transmissive display unit that can be transmitted from one surface side and transmitted from the other surface side and the other surface side to visually recognize the one surface side.

本発明のシステムは、画像表示装置と、電子機器とを備える。前記電子機器は、筐体と、表示部と、検知部と、制御部と、を備える。前記表示部は、透過型である。前記表示部は、一方の面側から透過して他方の面側を視認可能である。前記検知部は、加速度及び地磁気を検知する。前記制御部は、前記画像表示装置に表示される第1画像と、前記表示部に表示される第2画像とが重なるように前記筐体が配置された場合の前記筐体の向きを基準方向として設定する。前記制御部は、前記検知部で検知された加速度及び地磁気に基づいて、前記基準方向に対する前記筐体の向きを取得する。   The system of the present invention includes an image display device and an electronic device. The electronic device includes a housing, a display unit, a detection unit, and a control unit. The display unit is a transmissive type. The said display part can permeate | transmit from the one surface side and can visually recognize the other surface side. The detection unit detects acceleration and geomagnetism. The control unit sets a direction of the housing when the first image displayed on the image display device and the second image displayed on the display unit overlap with each other in a reference direction. Set as. The control unit acquires the orientation of the housing with respect to the reference direction based on the acceleration and geomagnetism detected by the detection unit.

本発明のシステムは、画像表示装置と、電子機器とを備える。前記電子機器は、インターフェイス部と、撮像部と、表示部と、制御部と、を備える。前記インターフェイス部は、前記画像表示装置と通信可能に接続される。前記撮像部は、画像を取得する。前記制御部は、前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像を認識する。前記制御部は、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させる。前記制御部は、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して送信させる。   The system of the present invention includes an image display device and an electronic device. The electronic device includes an interface unit, an imaging unit, a display unit, and a control unit. The interface unit is communicably connected to the image display device. The imaging unit acquires an image. The control unit recognizes an image acquired by the imaging unit when an image based on a third image displayed on the image display device is acquired by the imaging unit. The control unit causes the display unit to display a fourth image for at least a part of the subject based on the recognized image. When a predetermined operation is performed on the fourth image, the control unit outputs image data corresponding to the fifth image so that a fifth image based on the predetermined operation is displayed on the image display device. To be transmitted through the section.

本発明のシステムは、画像表示装置と、当該画像表示装置に表示を指示する制御装置と、電子機器と、を備える。前記電子機器は、インターフェイス部と、撮像部と、表示部を、制御部と、を備える。前記インターフェイス部は、前記画像表示装置と通信可能に接続される。前記撮像部は、画像を取得する。前記制御部は、前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像を認識する。前記制御部は、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させる。前記制御部は、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して前記制御装置に送信させる。前記制御装置は、前記電子機器から送信された画像データに基づいて前記画像表示装置に表示させるよう指示する。   The system of the present invention includes an image display device, a control device that instructs the image display device to display, and an electronic device. The electronic device includes an interface unit, an imaging unit, a display unit, and a control unit. The interface unit is communicably connected to the image display device. The imaging unit acquires an image. The control unit recognizes an image acquired by the imaging unit when an image based on a third image displayed on the image display device is acquired by the imaging unit. The control unit causes the display unit to display a fourth image for at least a part of the subject based on the recognized image. When a predetermined operation is performed on the fourth image, the control unit outputs image data corresponding to the fifth image so that a fifth image based on the predetermined operation is displayed on the image display device. To the control device via the unit. The control device instructs the image display device to display based on image data transmitted from the electronic device.

本発明によれば、ユーザの利便性を向上させた電子機器及びシステムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the electronic device and system which improved the user's convenience can be provided.

第1実施形態の電子機器について説明するためのブロック図である。It is a block diagram for demonstrating the electronic device of 1st Embodiment. 第1の具体例について説明するための図である。It is a figure for demonstrating a 1st example. 第3の具体例について説明するための図である。It is a figure for demonstrating the 3rd example. 第4の具体例について説明するための図である。It is a figure for demonstrating the 4th example. オブジェクトの位置を調整する場合について説明するための図である。It is a figure for demonstrating the case where the position of an object is adjusted. 本実施形態のシステムについて説明するためのブロック図である。It is a block diagram for demonstrating the system of this embodiment. キャリブレーションが行われるときに、画像表示装置に表示される画像と、電子機器に表示される画像と、を説明するための図である。It is a figure for demonstrating the image displayed on an image display apparatus and the image displayed on an electronic device when calibration is performed. キャリブレーションの他の例について説明するための図である。It is a figure for demonstrating the other example of calibration. シューティングゲームが行われる場合について説明するための図である。It is a figure for demonstrating the case where a shooting game is performed. 電子機器の他の形態について説明するための図である。It is a figure for demonstrating the other form of an electronic device.

[第1実施形態]
以下、本発明の第1実施形態について説明する。図1は、第1実施形態の電子機器1について説明するためのブロック図である。
[First Embodiment]
The first embodiment of the present invention will be described below. FIG. 1 is a block diagram for explaining an electronic apparatus 1 according to the first embodiment.

電子機器1は、例えば、携帯電話機、又はタブレット型のコンピュータ等である。電子機器1は、撮像部11と、表示部12と、検出部14と、記憶部15と、制御部13と、を備える。   The electronic device 1 is, for example, a mobile phone or a tablet computer. The electronic device 1 includes an imaging unit 11, a display unit 12, a detection unit 14, a storage unit 15, and a control unit 13.

撮像部11は、被写体の画像を取得する。すなわち、撮像部11は、カメラ部である。撮像部11は、アウトカメラ(図示せず)を備える。撮像部11は、インカメラ11a(図5参照)を備えていてもよい。電子機器1がユーザによって操作可能な状態でそのユーザに保持された場合、撮像部11としてのアウトカメラは、ユーザとは反対側に配置される被写体を撮像する。電子機器1がユーザによって操作可能な状態でそのユーザに保持された場合、撮像部11としてのインカメラ11aは、ユーザ側に配置される被写体を撮像する。インカメラ11aは、ユーザを撮像することが可能である。撮像部11(アウトカメラ及びインカメラ11a)は、表示部12に近接した位置に配置される。   The imaging unit 11 acquires a subject image. That is, the imaging unit 11 is a camera unit. The imaging unit 11 includes an out camera (not shown). The imaging unit 11 may include an in-camera 11a (see FIG. 5). When the electronic device 1 is held by the user in a state that can be operated by the user, the out camera as the imaging unit 11 captures an image of a subject arranged on the side opposite to the user. When the electronic device 1 is held by the user in a state where the electronic device 1 can be operated by the user, the in-camera 11a as the imaging unit 11 images a subject arranged on the user side. The in-camera 11a can capture a user. The imaging unit 11 (out camera and in camera 11a) is arranged at a position close to the display unit 12.

表示部12は、透過型である。表示部12は、一方の面側から透過して他方の面側を視認可能である。表示部12は、他方の面側から透過して一方の面側を視認可能である。表示部12は、例えば、液晶パネル、又は有機EL(electroluminescence)パネル等を備える。   The display unit 12 is a transmissive type. The display part 12 can permeate | transmit from one surface side and can visually recognize the other surface side. The display part 12 can permeate | transmit from the other surface side and can visually recognize one surface side. The display unit 12 includes, for example, a liquid crystal panel or an organic EL (electroluminescence) panel.

検出部14は、表示部12に重ね合わされている。検出部14は、例えば、透明タッチパネルである。   The detection unit 14 is superimposed on the display unit 12. The detection unit 14 is, for example, a transparent touch panel.

制御部13は、撮像部11で取得された被写体の画像に基づいて、その被写体の少なくとも一部に対するオブジェクトを表示部12に表示させる。撮像部11が起動された場合、制御部13は、撮像部11によってリアルタイムで取得される画像に基づいて、画像認識又は文字認識を行う。認識される画像は、例えば、オブジェクトを表示させるためのトリガとなる所定の画像である。認識される文字は、例えば、オブジェクトを表示させるためのトリガとなる所定の文字である。所定の文字とは、例えば、キーワードである。   Based on the subject image acquired by the imaging unit 11, the control unit 13 causes the display unit 12 to display an object for at least a part of the subject. When the imaging unit 11 is activated, the control unit 13 performs image recognition or character recognition based on an image acquired in real time by the imaging unit 11. The recognized image is, for example, a predetermined image serving as a trigger for displaying an object. The recognized character is, for example, a predetermined character that serves as a trigger for displaying the object. The predetermined character is, for example, a keyword.

オブジェクトは、例えば、文字、線、図形又は画像である。オブジェクトは、例えば、画像を認識した結果又は文字を認識した結果に対応付けられている。オブジェクトは、例えば、記憶部15に記憶される。制御部13は、画像認識を行った結果又は文字認識を行った結果に基づいて、オブジェクトを表示部12に表示させる。詳細な一例としては、制御部13は、画像認識を行った結果又は文字認識を行った結果に基づいて記憶部15からオブジェクトを読み出し、そのオブジェクトを表示部12に表示させる。なお、撮像部11によって取得された画像は、表示部12に表示されない。   The object is, for example, a character, a line, a figure, or an image. The object is associated with, for example, a result of recognizing an image or a result of recognizing characters. The object is stored in the storage unit 15, for example. The control unit 13 causes the display unit 12 to display an object based on the result of image recognition or the result of character recognition. As a detailed example, the control unit 13 reads an object from the storage unit 15 based on the result of image recognition or the result of character recognition, and causes the display unit 12 to display the object. Note that the image acquired by the imaging unit 11 is not displayed on the display unit 12.

制御部13は、表示部12を介して視認される被写体の一部に対応させてオブジェクトを表示させる。表示部12を介して視認される被写体の一部とは、表示部12を透過して見ることのできる物体のことである。物体は、撮像部11によって取得される画像に含まれる被写体の一部に対応するものである。
撮像部11は、表示部12に近接して配置される。このため、撮像部11によって取得される画像の範囲と、表示部12を透過して見ることができる範囲とは、対応する。制御部13は、撮像部11によって取得された画像に基づいてオブジェクトの位置を決定して、そのオブジェクトを表示部12に表示させる。これにより、オブジェクトは、表示部12を透過して視認される被写体の近くに配置(表示)されることになる。オブジェクトが被写体の一部に対するものである場合には、オブジェクトは、被写体の一部に対応して配置(表示)されることになる。すなわち、オブジェクトは、被写体の一部の近くに配置(表示)される。
The control unit 13 displays the object in correspondence with a part of the subject visually recognized via the display unit 12. The part of the subject visually recognized through the display unit 12 is an object that can be seen through the display unit 12. The object corresponds to a part of the subject included in the image acquired by the imaging unit 11.
The imaging unit 11 is disposed close to the display unit 12. For this reason, the range of the image acquired by the imaging unit 11 corresponds to the range that can be seen through the display unit 12. The control unit 13 determines the position of the object based on the image acquired by the imaging unit 11 and causes the display unit 12 to display the object. As a result, the object is arranged (displayed) near the subject that is visible through the display unit 12. When the object is for a part of the subject, the object is arranged (displayed) corresponding to a part of the subject. That is, the object is arranged (displayed) near a part of the subject.

これにより、電子機器1は、オブジェクトを表示させるので、ユーザの利便性を向上させることができる。   Thereby, since the electronic device 1 displays an object, the convenience of the user can be improved.

ここで、具体的な例について説明する。
まず、第1の具体例について説明する。図2は、第1の具体例について説明するための図である。図2(A)は、英単語を暗記するための単語帳21を示す。第1の具体例では、英単語を覚える場合に電子機器1が利用される。単語帳21には、日本語の単語及び英単語の他に、英単語が記載されていることを示す所定の図形(図示せず)が記載されている。制御部13は、撮像部11(図2には図示せず)によって取得された単語帳21の画像に基づいて画像認識を行い、画像認識の結果、所定の画像としての所定の図形が含まれていると判断する。この場合、制御部13は、撮像部11によって取得された画像、及び所定の図形に基づいて、英単語を隠す画像をオブジェクト22として表示部12に表示する(図2(B)参照)。図2(B)のオブジェクト22は、英単語の位置よりも広い位置を覆うような画像を表示しているが、オブジェクト22はこれに限られず、英単語の位置に限定してオブジェクトを表示してもよい。また、この図では、オブジェクト22は、透過率0にし、単語が全く見えない状態になっているが、この実施形態に限られず、透過率が0の近傍値であってもよく、それならば、単語が見えにくいので、透過率0の場合と同様に学習の効率が向上する。
Here, a specific example will be described.
First, a first specific example will be described. FIG. 2 is a diagram for explaining the first specific example. FIG. 2A shows a word book 21 for memorizing English words. In the first specific example, the electronic device 1 is used when learning English words. In addition to the Japanese words and English words, the word book 21 has a predetermined graphic (not shown) indicating that English words are described. The control unit 13 performs image recognition based on the image of the word book 21 acquired by the imaging unit 11 (not shown in FIG. 2), and a predetermined figure as a predetermined image is included as a result of the image recognition. Judge that In this case, the control unit 13 displays an image that hides the English words on the display unit 12 as an object 22 based on the image acquired by the imaging unit 11 and a predetermined graphic (see FIG. 2B). The object 22 in FIG. 2B displays an image that covers a position wider than the position of the English word, but the object 22 is not limited to this, and displays the object limited to the position of the English word. May be. Further, in this figure, the object 22 has a transparency of 0 and the word is not visible at all. However, the present invention is not limited to this embodiment, and the transparency may be a neighborhood value of 0. Since the word is difficult to see, the learning efficiency is improved as in the case where the transmittance is zero.

また、オブジェクト22は、色の濃度が所定の閾値よりも高いものであってもよい。オブジェクト22の色の濃度を所定の閾値(所定の濃度)よりも高くすることにより、単語帳21の英単語は、ユーザにとって表示部12を介して視認し難くなる。これにより、電子機器1は、ユーザの学習効率を向上させることができる。
なお、制御部13は、時間の経過に応じて、オブジェクト22の色の濃度を低下させてもよい。すなわち、制御部13は、時間の経過に応じて、英単語を見易くするように表示部12を制御してもよい。
The object 22 may have a color density higher than a predetermined threshold. By making the color density of the object 22 higher than a predetermined threshold (predetermined density), it is difficult for the user to visually recognize the English words in the word book 21 via the display unit 12. Thereby, the electronic device 1 can improve a user's learning efficiency.
Note that the control unit 13 may reduce the color density of the object 22 over time. That is, the control unit 13 may control the display unit 12 so that the English words are easy to see as time passes.

なお、制御部13は、上述した制御の代わりに、次のような制御を行ってもよい。すなわち、制御部13は、撮像部11で取得された被写体の画像に基づいて、その被写体の少なくとも一部に対応する位置における表示部12の透過率を下げる。例えば、制御部13は、撮像部11(図2には図示せず)によって取得された単語帳21の画像に基づいて画像認識を行い、画像認識の結果、所定の画像としての所定の図形が含まれていると判断する。この場合、制御部13は、撮像部11によって取得された画像、及び所定の図形に基づいて、英単語に対応する部分における表示部12の透過率を下げる。透過率を下げるとは、透過率を0%にするか、又は、透過率を0%の近傍の値にすることである。透過率を下げることは、例えば、表示部12が液晶パネルを備える場合、液晶に対する電圧の印加を調整すること等により行われる。これにより、日本語の単語の部分が表示部12を透過して視認することが可能になるが、英単語の部分が表示部12を透過して視認でき難くなる。これにより、電子機器1は、ユーザの学習効率を向上させることができる。
なお、この場合の制御部13は、時間の経過に応じて、表示部12において透過率を下げた部分のその透過率を向上させることもできる。すなわち、制御部13は、時間の経過に応じて英単語を見易くするように表示部12を制御してもよい。
In addition, the control part 13 may perform the following control instead of the control mentioned above. In other words, the control unit 13 reduces the transmittance of the display unit 12 at a position corresponding to at least a part of the subject based on the image of the subject acquired by the imaging unit 11. For example, the control unit 13 performs image recognition based on the image of the word book 21 acquired by the imaging unit 11 (not shown in FIG. 2). As a result of the image recognition, a predetermined figure as a predetermined image is obtained. Judged to be included. In this case, the control unit 13 lowers the transmittance of the display unit 12 in the portion corresponding to the English word based on the image acquired by the imaging unit 11 and the predetermined graphic. Decreasing the transmittance means that the transmittance is set to 0% or the transmittance is set to a value in the vicinity of 0%. For example, when the display unit 12 includes a liquid crystal panel, the transmittance is reduced by adjusting application of a voltage to the liquid crystal. As a result, the Japanese word portion can be visually recognized through the display unit 12, but the English word portion is difficult to see through the display unit 12. Thereby, the electronic device 1 can improve a user's learning efficiency.
In addition, the control part 13 in this case can also improve the transmittance | permeability of the part which reduced the transmittance | permeability in the display part 12 according to progress of time. That is, the control unit 13 may control the display unit 12 so as to make it easier to read English words as time passes.

次に、第2の具体例について説明する。第2の具体例では、英単語を覚える場合に電子機器1が利用される。単語帳では、例えば、日本語の単語が黒色で記載され、英単語が赤色で記載されている。まず、撮像部11によって単語帳の画像が取得される。制御部13は、撮像部11によって取得された単語帳の画像に基づいて文字認識を行い、文字認識の結果、上述した所定の文字としての英単語が含まれていると判断する。この場合、制御部13は、オブジェクトして、表示部12全体について赤色の表示を行う。これにより、表示部12を介して単語帳を視認した場合、日本語の単語が視認され、英単語は視認されない。   Next, a second specific example will be described. In the second specific example, the electronic device 1 is used when learning English words. In the word book, for example, Japanese words are written in black and English words are written in red. First, an image of the word book is acquired by the imaging unit 11. The control unit 13 performs character recognition based on the image of the word book acquired by the imaging unit 11, and determines that the English word as the predetermined character described above is included as a result of character recognition. In this case, the control unit 13 performs red display on the entire display unit 12 as an object. Thereby, when a word book is visually recognized via the display part 12, a Japanese word is visually recognized and an English word is not visually recognized.

ここで、オブジェクト22は、被写体の一部と同色若しくはそれに近い色であってもよい。この場合、制御部13は、撮像部11によって取得された画像から被写体の文字の色を認識して、その文字の色と同様の色のオブジェクト22を表示部12に表示させる。例えば、制御部13は、撮像部11によって単語帳の画像が取得された場合、英単語の文字の色(赤色)を認識して、その文字の色と同様の色(赤色)のオブジェクト22を表示部12に表示させる。これにより、電子機器1は、英単語を視認し難くすることができ、学習効率を向上させることができる。   Here, the object 22 may be the same color as a part of the subject or a color close thereto. In this case, the control unit 13 recognizes the character color of the subject from the image acquired by the imaging unit 11 and causes the display unit 12 to display the object 22 having the same color as the character color. For example, when the image of the word book is acquired by the imaging unit 11, the control unit 13 recognizes the color (red) of the character of the English word and selects the object 22 having the same color (red) as the color of the character. It is displayed on the display unit 12. Thereby, the electronic device 1 can make it difficult to visually recognize English words, and can improve learning efficiency.

次に、第3の具体例について説明する。図3は、第3の具体例について説明するための図である。第3の具体例では、新聞又は書籍等に対してコメント等を残す場合に電子機器1が利用される。まず、ユーザによって表示部12を介して新聞23が視認される場合に、記事に対応するようにユーザの指等によって表示部12がなぞられたりコメントが記入されたりする。この場合、制御部13は、検出部14による接触の検出に基づいて、その接触された部分に対応させて線24又は文字等を表示部12に表示させる。そして、撮像部11によって新聞23が撮像されると、その新聞23の画像と共に、表示部12に表示される線24又は文字等のデータが記憶部15に記憶される。その後、新聞23を再度閲覧するときに表示部12が新聞23にかざされたことを撮像部11等によって検出した場合、制御部13は、撮像部11によって取得された新聞23の画像について画像認識を行う。この場合の画像認識としては、撮像部11によって取得された新聞23の画像と、記憶部15に記憶された新聞23の画像とが対応するか否かの判断が行われる。画像認識の結果、撮像部11によって取得された新聞23の画像と、記憶部15に記憶された新聞23の画像とが対応する場合には、制御部13は、記憶部15に記憶されるデータを読み出し、そのデータに基づく線又は文字等をオブジェクトとして表示部12に表示させる。この場合、制御部13は、撮像部11によって取得される画像に基づいて、表示部12を介して視認される被写体とオブジェクトとが対応するように、そのオブジェクトを表示部12に表示する。   Next, a third specific example will be described. FIG. 3 is a diagram for explaining a third specific example. In the third specific example, the electronic device 1 is used when a comment or the like is left for a newspaper or a book. First, when the newspaper 23 is visually recognized by the user via the display unit 12, the display unit 12 is traced or a comment is written by the user's finger or the like so as to correspond to the article. In this case, the control unit 13 causes the display unit 12 to display a line 24 or a character corresponding to the contacted part based on the detection of the contact by the detection unit 14. Then, when the newspaper 23 is imaged by the imaging unit 11, data such as lines 24 or characters displayed on the display unit 12 is stored in the storage unit 15 together with an image of the newspaper 23. Thereafter, when the imaging unit 11 or the like detects that the display unit 12 is held over the newspaper 23 when browsing the newspaper 23 again, the control unit 13 recognizes an image of the newspaper 23 acquired by the imaging unit 11. I do. As image recognition in this case, it is determined whether or not the image of the newspaper 23 acquired by the imaging unit 11 corresponds to the image of the newspaper 23 stored in the storage unit 15. As a result of the image recognition, when the image of the newspaper 23 acquired by the imaging unit 11 corresponds to the image of the newspaper 23 stored in the storage unit 15, the control unit 13 stores data stored in the storage unit 15. , And a line or a character based on the data is displayed on the display unit 12 as an object. In this case, the control unit 13 displays the object on the display unit 12 based on the image acquired by the imaging unit 11 so that the subject visually recognized via the display unit 12 corresponds to the object.

次に、第4の具体例について説明する。図4は、第4の具体例について説明するための図である。第4の具体例では、スケジュール帳として電子機器1が利用される。まず、ユーザによって表示部12を介してカレンダ25が視認される場合に、日にちに対応するようにユーザの指等によって表示部12上でなぞられることを検出部14によって検出することにより予定が記入される。制御部13は、検出部14による接触の検出に基づいて、その接触された部分に対応させて予定26を表示部12に表示させる。そして、撮像部11によってカレンダ25が撮像されると、そのカレンダ25の画像と共に、表示部12に表示される予定26のデータが記憶部15に記憶される。その後、スケジュールを確認するために表示部12がカレンダ25にかざされたことを撮像部11等によって検出した場合、制御部13は、撮像部11によって取得されたカレンダ25の画像について画像認識を行う。この場合の画像認識としては、例えば、撮像部11によって取得されたカレンダ25の画像と、記憶部15に記憶されたカレンダ25の画像とが対応するか否かの判断が行われる。画像認識の結果、撮像部11によって取得されたカレンダ25の画像と、記憶部15に記憶されたカレンダ25の画像とが対応する場合には、制御部13は、記憶部15に記憶されるデータを読み出し、そのデータに基づく予定26をオブジェクトとして表示部12に表示させる。この場合、制御部13は、撮像部11によって取得される画像に基づいて、表示部12を介して視認される被写体とオブジェクトとが対応するように、そのオブジェクトを表示部12に表示する。なお、スケジュールは、会社用(図4(A)参照)と、プライベート用(図4(B)参照)とを別々に管理されることが可能である。   Next, a fourth specific example will be described. FIG. 4 is a diagram for explaining a fourth specific example. In the fourth specific example, the electronic device 1 is used as a schedule book. First, when the calendar 25 is visually recognized by the user via the display unit 12, the schedule is entered by detecting by the detection unit 14 that the user traces the display unit 12 with the user's finger or the like so as to correspond to the date. Is done. Based on the detection of contact by the detection unit 14, the control unit 13 causes the display unit 12 to display the schedule 26 corresponding to the contacted portion. Then, when the calendar 25 is imaged by the imaging unit 11, the data of the schedule 26 displayed on the display unit 12 is stored in the storage unit 15 together with the image of the calendar 25. After that, when the imaging unit 11 or the like detects that the display unit 12 is held over the calendar 25 in order to confirm the schedule, the control unit 13 performs image recognition on the image of the calendar 25 acquired by the imaging unit 11. . As image recognition in this case, for example, it is determined whether the image of the calendar 25 acquired by the imaging unit 11 corresponds to the image of the calendar 25 stored in the storage unit 15. When the image of the calendar 25 acquired by the imaging unit 11 corresponds to the image of the calendar 25 stored in the storage unit 15 as a result of image recognition, the control unit 13 stores data stored in the storage unit 15. And the schedule 26 based on the data is displayed on the display unit 12 as an object. In this case, the control unit 13 displays the object on the display unit 12 based on the image acquired by the imaging unit 11 so that the subject visually recognized via the display unit 12 corresponds to the object. The schedule can be managed separately for the company (see FIG. 4A) and private (see FIG. 4B).

なお、電子機器1が右方向に移動する場合には、制御部13は、表示部12を介して視認することができる被写体の一部(物体)が電子機器1に対して相対的に左方向へ移動するため、当該左方向への移動に対応させてオブジェクトを左方向へ移動させる。同様に、電子機器1が左方向に移動する場合には、制御部13は、表示部12を介して視認することができる被写体の一部(物体)が電子機器1に対して相対的に右方向へ移動するため、当該右方向への移動に対応させてオブジェクトを右方向へ移動させる。同様に、電子機器1が右方向又は左方向以外の他の方向に移動する場合でも、制御部13は、表示部12を介して視認することができる被写体の一部(物体)が電子機器1に対して相対的に移動するため、その移動の方向に対応させてオブジェクトをその方向に移動させる。同様に、電子機器1が前後方向に移動する場合には、制御部13は、表示部12を介して視認することができる被写体の一部(物体)の大きさが変化するため、その大きさの変化に対応させてオブジェクトの大きさを変更する。   When the electronic device 1 moves in the right direction, the control unit 13 causes the part of the subject (object) that can be visually recognized via the display unit 12 to move to the left relative to the electronic device 1. Therefore, the object is moved in the left direction corresponding to the movement in the left direction. Similarly, when the electronic device 1 moves in the left direction, the control unit 13 determines that a part of the subject (object) that can be visually recognized via the display unit 12 is relatively right with respect to the electronic device 1. In order to move in the direction, the object is moved in the right direction in accordance with the movement in the right direction. Similarly, even when the electronic device 1 moves in a direction other than the right direction or the left direction, the control unit 13 determines that a part of the subject (object) that can be visually recognized via the display unit 12 is the electronic device 1. Therefore, the object is moved in the direction corresponding to the movement direction. Similarly, when the electronic apparatus 1 moves in the front-rear direction, the control unit 13 changes the size of a part (object) of a subject that can be visually recognized via the display unit 12. The size of the object is changed in response to the change of.

上記の具体例の他にも、以下の例の場合に電子機器1を利用することができる。
例えば、オブジェクトが文字又は図形を隠すタイプの場合には、電子機器1は、写真合成等に利用される。写真合成は、写真撮影を行う場合に、被写体の邪魔をするような物体を消去したり、メガネを消去して、メガネを消去した部分の色を周囲の肌の色から推定したりするものである。
In addition to the specific examples described above, the electronic device 1 can be used in the following examples.
For example, when the object is of a type that hides characters or figures, the electronic device 1 is used for photo composition and the like. Photo compositing is a method of erasing an object that interferes with the subject when taking a picture, or erasing the glasses and estimating the color of the erased part from the surrounding skin color. is there.

また、例えば、オブジェクトとしての文字又は図形を表示部12に表示させるタイプの場合には、電子機器1は、回路図の履歴チェック、服の着せ替えアプリ、変身アプリ、又は、動物若しくはキャラクタを表示するアプリ等に利用される。回路図の履歴チェックは、回路図にペン等で直接記入することなく、時系列ごとに電子機器1をかざすことで変更履歴が見えるようになるものである。服の着せ替えアプリは、服の画像データを合成するものである。変身アプリは、髪の毛、ヒゲ、シワ、メガネ等を合成するものである。動物若しくはキャラクタを表示するアプリは、撮像部11で周囲環境の画像を取得して、状況に合わせて動物又はキャラクタを表示させるものである。   For example, in the case of a type in which characters or figures as objects are displayed on the display unit 12, the electronic device 1 displays a history check of a circuit diagram, a clothes change app, a transformation app, or an animal or character. Used for applications that The history check of the circuit diagram is such that the change history can be seen by holding the electronic device 1 in time series without directly entering the circuit diagram with a pen or the like. A dress-up app is a composition of clothing image data. The makeover app synthesizes hair, beard, wrinkles, glasses, and so on. The application for displaying an animal or character acquires an image of the surrounding environment with the imaging unit 11 and displays the animal or character according to the situation.

制御部13は、検出部14によってオブジェクトに対応する位置への接触を検出した場合には、オブジェクトの表示を解除するよう表示部12を制御する。すなわち、表示部12に表示されるオブジェクトがユーザによってタッチされたことを検出部14で検出した場合には、制御部13は、オブジェクトを表示部12から消去させる。
電子機器1は、ユーザにとってオブジェクトが不要になった場合には、オブジェクトの表示を解除するので、ユーザの利便性を向上させることができる。
When the detection unit 14 detects contact with a position corresponding to the object, the control unit 13 controls the display unit 12 to cancel the display of the object. That is, when the detection unit 14 detects that the object displayed on the display unit 12 is touched by the user, the control unit 13 deletes the object from the display unit 12.
Since the electronic device 1 cancels the display of the object when the user no longer needs the object, the convenience of the user can be improved.

図5は、オブジェクトの位置を調整する場合について説明するための図である。
オブジェクトの位置を調整する場合には、まず、撮像部11としてのインカメラ11aによって、ユーザの顔(目)の画像をリアルタイムで取得する。制御部13は、例えば、取得した画像に基づいて瞳孔及び角膜反射を検知し、その検知の結果に基づいてユーザの視線Aを求める。制御部13は、求められたユーザの視線Aと、撮像部11としてのアウトカメラ(図示せず)によってリアルタイムで取得された被写体の画像とに基づいて、ユーザが表示部12を介して視認していると推測される被写体を特定する。制御部13は、被写体を特定すると、アウトカメラによって取得される画像に基づいて、推測された被写体に対応するようにオブジェクトの位置を移動させる。
このようにして、電子機器1は、オブジェクトの位置を調整することができる。
FIG. 5 is a diagram for explaining a case where the position of an object is adjusted.
When adjusting the position of the object, first, an image of the user's face (eyes) is acquired in real time by the in-camera 11a as the imaging unit 11. For example, the control unit 13 detects the pupil and corneal reflection based on the acquired image, and obtains the user's line of sight A based on the detection result. Based on the obtained user's line of sight A and the image of the subject acquired in real time by an out camera (not shown) as the imaging unit 11, the control unit 13 visually recognizes the user via the display unit 12. Identify the subject that you suspect is. When specifying the subject, the control unit 13 moves the position of the object so as to correspond to the estimated subject based on the image acquired by the out-camera.
In this way, the electronic device 1 can adjust the position of the object.

なお、電子機器1は、パスワードの入力、指紋認証又は画像認証が行われた後に、オブジェクトを表示部12に表示させてもよい。
また、電子機器1は、予め設定した時間内のみ、オブジェクトを表示部12に表示させてもよい。
The electronic device 1 may display the object on the display unit 12 after password input, fingerprint authentication, or image authentication is performed.
Further, the electronic device 1 may display the object on the display unit 12 only within a preset time.

[第2実施形態]
以下、本発明の第2実施形態について説明する。図6は、本実施形態のシステム100について説明するためのブロック図である。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described. FIG. 6 is a block diagram for explaining the system 100 of the present embodiment.

システム100は、画像表示装置110と、電子機器120と、を備える。
画像表示装置110と電子機器120とは、相互に通信が可能となっている。画像表示装置110は、例えば、テレビである。
The system 100 includes an image display device 110 and an electronic device 120.
The image display device 110 and the electronic device 120 can communicate with each other. The image display device 110 is a television, for example.

第2実施形態の電子機器120は、例えば、携帯電話機、又はタブレット型のコンピュータ等である。電子機器120は、筐体121と、表示部122と、検出部123と、検知部124と、制御部125と、を備える。   The electronic device 120 of the second embodiment is, for example, a mobile phone or a tablet computer. The electronic device 120 includes a housing 121, a display unit 122, a detection unit 123, a detection unit 124, and a control unit 125.

表示部122は、透過型である。表示部122は、一方の面側から透過して他方の面側を視認可能である。表示部122は、他方の面側から透過して一方の面側を視認可能である。表示部122は、例えば、液晶パネル、又は有機EL(electroluminescence)パネル等を備える。
検出部123は、表示部122に重なるように配置される。検出部123は、透過型のタッチパネルである。
The display unit 122 is a transmissive type. The display part 122 can permeate | transmit from one surface side and can visually recognize the other surface side. The display unit 122 is visible from the other surface side through the one surface side. The display unit 122 includes, for example, a liquid crystal panel or an organic EL (electroluminescence) panel.
The detection unit 123 is disposed so as to overlap the display unit 122. The detection unit 123 is a transmissive touch panel.

筐体121は、検知部124と、制御部125と、を収容する。
検知部124は、加速度及び地磁気を検知する。検知部124は、加速度センサ及び地磁気センサを備える。
The casing 121 accommodates the detection unit 124 and the control unit 125.
The detection unit 124 detects acceleration and geomagnetism. The detection unit 124 includes an acceleration sensor and a geomagnetic sensor.

図7は、キャリブレーションが行われるときに、画像表示装置110に表示される画像と、電子機器120に表示される画像と、を説明するための図である。図7(A)は、画像表示装置110を示す。図7(B)は、電子機器120を示す。   FIG. 7 is a diagram for explaining an image displayed on the image display device 110 and an image displayed on the electronic device 120 when calibration is performed. FIG. 7A shows the image display device 110. FIG. 7B illustrates the electronic device 120.

制御部125は、キャリブレーションを行う。すなわち、制御部125は、画像表示装置110に表示される第1画像131と、表示部122に表示される第2画像132とが重なるように筐体121が配置された場合の筐体121の向きを基準方向又は筐体121の位置を基準位置として設定する。制御部125は、検知部124で検知された加速度及び地磁気に基づいて、基準方向に対する筐体121の向き若しくは基準位置に対する位置を取得する。   The control unit 125 performs calibration. That is, the control unit 125 of the case 121 when the case 121 is arranged so that the first image 131 displayed on the image display device 110 and the second image 132 displayed on the display unit 122 overlap each other. The direction is set as the reference direction or the position of the casing 121 as the reference position. The control unit 125 acquires the orientation of the housing 121 relative to the reference direction or the position relative to the reference position based on the acceleration and geomagnetism detected by the detection unit 124.

具体的には、キャリブレーションが行われる場合、図7(A)に示すように、画像表示装置110の中央部に第1画像131が表示される。第1画像131は、例えば、「+」の図形である。また、画像表示装置110の各角部にも、図7(A)に一例を示す「+」の図形が表示される。キャリブレーションが行われる場合、図7(B)に示すように、表示部122の中央部に第2画像132が表示される。第2画像132は、例えば、「+」の図形である。   Specifically, when calibration is performed, the first image 131 is displayed in the center of the image display device 110 as shown in FIG. The first image 131 is, for example, a “+” figure. In addition, a “+” figure as an example shown in FIG. 7A is also displayed at each corner of the image display device 110. When calibration is performed, the second image 132 is displayed at the center of the display unit 122 as shown in FIG. The second image 132 is, for example, a “+” figure.

そして、ユーザによって表示部122を透過して画像表示装置110を視認できるようにした場合に、画像表示装置110の中央部に表示される「+」の図形(第1画像131)と、表示部122に表示される「+」の図形(第2画像132)とが重なるように電子機器120(筐体121)を移動させると、制御部125は、その時の筐体121の向きを、電子機器120(筐体121)の基準方向として設定する。さらに、画像表示装置110の各角部に表示される「+」の図形と、表示部122に表示される「+」の図形とが重なるように電子機器120(筐体121)の向きを変えた場合、制御部125は、検知部124の検知結果を取得し、その検知結果に基づいて可動範囲を設定する。   Then, when the image display device 110 can be viewed through the display unit 122 by the user, a “+” figure (first image 131) displayed in the center of the image display device 110, and the display unit When the electronic device 120 (housing 121) is moved so that the “+” figure (second image 132) displayed on 122 overlaps, the control unit 125 changes the orientation of the housing 121 at that time to the electronic device. It is set as a reference direction of 120 (housing 121). Further, the orientation of the electronic device 120 (housing 121) is changed so that the “+” graphic displayed at each corner of the image display device 110 and the “+” graphic displayed on the display unit 122 overlap. In such a case, the control unit 125 acquires the detection result of the detection unit 124 and sets the movable range based on the detection result.

又は、画像表示装置110の中央部に表示される「+」の図形(第1画像131)と、表示部に表示される「+」の図形(第2画像132)とが重なり、且つ、第1画像131の大きさと第2画像132の大きさとが等しくなるように電子機器120(筐体121)を移動させると、制御部125は、そのときの筐体121の位置を基準位置として設定する。第1画像131のサイズが第2画像132よりも大きい場合、電子機器120は、画像表示装置110に近づいていることになる。第1画像131のサイズが第2画像132よりも小さい場合、電子機器120は、画像表示装置110から離れていることになる。第1画像131と第2画像132とのサイズが等しくなるように電子機器120を移動させれば、画像表示装置110と電子機器120との距離が適切になる。
これにより、キャリブレーションは、終了する。
Alternatively, the “+” graphic (first image 131) displayed in the center of the image display device 110 and the “+” graphic (second image 132) displayed on the display unit overlap, and When the electronic device 120 (housing 121) is moved so that the size of the first image 131 is equal to the size of the second image 132, the control unit 125 sets the position of the housing 121 at that time as a reference position. . When the size of the first image 131 is larger than the second image 132, the electronic device 120 is approaching the image display device 110. When the size of the first image 131 is smaller than the second image 132, the electronic device 120 is away from the image display device 110. If the electronic device 120 is moved so that the sizes of the first image 131 and the second image 132 are equal, the distance between the image display device 110 and the electronic device 120 becomes appropriate.
This completes the calibration.

キャリブレーションが終了した場合、制御部125は、検知部124で検知された加速度及び地磁気に基づいて、基準方向に対する筐体121の向きを取得することが可能になる。すなわち、制御部125は、電子機器120が向いている方向を取得することができる。また、キャリブレーションが終了した場合、制御部125は、検知部124で検知された加速度及び地磁気に基づいて、基準位置に対する位置を取得することが可能になる。すなわち、制御部125は、画像表示装置110と電子機器120との距離を取得することが可能になる。   When the calibration is completed, the control unit 125 can acquire the orientation of the housing 121 with respect to the reference direction based on the acceleration and geomagnetism detected by the detection unit 124. That is, the control unit 125 can acquire the direction in which the electronic device 120 is facing. Further, when the calibration is completed, the control unit 125 can acquire a position with respect to the reference position based on the acceleration and the geomagnetism detected by the detection unit 124. That is, the control unit 125 can acquire the distance between the image display device 110 and the electronic device 120.

また、キャリブレーションは、上記の例のように実行されるばかりでなく、以下のように実行されてもよい。図8は、キャリブレーションの他の例について説明するための図である。キャリブレーションが行われる場合、制御部125は、所定の図形133を表示部122に表示させる。所定の図形133は、電子機器120に対する画像表示装置110の位置を決定するための図形である。そして、ユーザによって表示部122を透過して画像表示装置110を視認できるようにした場合に、所定の図形133と画像表示装置110とが対応するように電子機器120(筐体121)を移動させると、電子機器120(筐体121)の基準方向と、電子機器120の可動範囲を設定することができる。図8に示す場合では、所定の図形133と画像表示装置110の角部を対応させて、所定の図形133の内側に画像表示装置110を配置させれば、キャリブレーションは、終了する。この場合、電子機器120の可動範囲は、予め決められている。   Further, the calibration may be executed not only as in the above example but also as follows. FIG. 8 is a diagram for explaining another example of calibration. When calibration is performed, the control unit 125 causes the display unit 122 to display a predetermined graphic 133. The predetermined figure 133 is a figure for determining the position of the image display device 110 with respect to the electronic device 120. Then, when the image display device 110 can be viewed through the display unit 122 by the user, the electronic device 120 (housing 121) is moved so that the predetermined graphic 133 and the image display device 110 correspond to each other. The reference direction of the electronic device 120 (housing 121) and the movable range of the electronic device 120 can be set. In the case shown in FIG. 8, the calibration ends when the predetermined graphic 133 and the corner of the image display device 110 are made to correspond to each other and the image display device 110 is arranged inside the predetermined graphic 133. In this case, the movable range of the electronic device 120 is determined in advance.

システム100は、キャリブレーションを実行することにより、キャリブレーションが利用されるアプリケーションをユーザに提供することができる。よって、システム100は、ユーザの利便性を向上させることができる。   The system 100 can provide a user with an application in which calibration is performed by executing calibration. Therefore, the system 100 can improve user convenience.

システム100及び電子機器120は、上記のようなキャリブレーションを必要とするアプリケーションを実行することができる。そのアプリケーションの一例は、シューティングゲームである。図9は、シューティングゲームが行われる場合について説明するための図である。   The system 100 and the electronic device 120 can execute an application that requires calibration as described above. An example of the application is a shooting game. FIG. 9 is a diagram for explaining a case where a shooting game is performed.

この場合、電子機器120は、インターフェイス部126をさらに備える。
インターフェイス部126は、外部に配される画像表示装置110と通信可能に接続される。例えば、インターフェイス部126と画像表示装置110とに接続されたケーブル128によって、電子機器120と画像表示装置110とは、通信可能に接続される。又は、電子機器120と画像表示装置110とは、無線によって通信可能に接続されてもよい。
In this case, the electronic device 120 further includes an interface unit 126.
The interface unit 126 is communicably connected to the image display device 110 disposed outside. For example, the electronic device 120 and the image display device 110 are communicably connected by a cable 128 connected to the interface unit 126 and the image display device 110. Alternatively, the electronic device 120 and the image display device 110 may be connected so as to be able to communicate wirelessly.

そして、制御部125は、次のような制御を行う。制御部125は、照準141の画像を表示部122に表示させる。照準141の画像は、例えば、表示部122の中央部に表示される。画像表示装置110には標的142の画像が表示されているため、ユーザから見て画像表示装置110と表示部122とを重ねると、表示部122を透過して標的142が見えることになる。制御部125は、画像表示装置110に表示される標的142の位置と検知部124の検知結果とに基づいて、照準141が標的142に合っているか否かを判断する。制御部125は、照準141が標的142に合っていると判断した場合に、照準141に対しての動作が行われると、標的142が破壊される画像に対応する画像データを、インターフェイス部126を介して画像表示装置110に送信させる。画像表示装置110は、画像データを受信すると、標的142が破壊される画像を表示させる。照準141に対しての動作は、例えば、表示部122をタッチする動作である。   Then, the control unit 125 performs the following control. The control unit 125 causes the display unit 122 to display an image of the aiming 141. The image of the aiming 141 is displayed at the center of the display unit 122, for example. Since the image of the target 142 is displayed on the image display device 110, when the image display device 110 and the display unit 122 are overlapped when viewed from the user, the target 142 can be seen through the display unit 122. Based on the position of the target 142 displayed on the image display device 110 and the detection result of the detection unit 124, the control unit 125 determines whether or not the aiming target 141 is aligned with the target 142. When the control unit 125 determines that the aiming target 141 is in alignment with the target 142, when the operation with respect to the aiming target 141 is performed, image data corresponding to an image in which the target 142 is destroyed is displayed on the interface unit 126. Via the image display device 110. When receiving the image data, the image display device 110 displays an image in which the target 142 is destroyed. The operation with respect to the aiming 141 is an operation of touching the display unit 122, for example.

また、制御部125は、次のような制御を行ってもよい。次のような制御を行う場合、電子機器120は、撮像部127をさらに備える。撮像部127は、画像を取得する。撮像部127は、画像表示装置110に表示される画像をリアルタイムで取得することが可能である。   Further, the control unit 125 may perform the following control. When performing the following control, the electronic device 120 further includes an imaging unit 127. The imaging unit 127 acquires an image. The imaging unit 127 can acquire an image displayed on the image display device 110 in real time.

そして、制御部125は、画像表示装置110に表示される第3画像に基づく画像が撮像部127(アウトカメラ)によって取得された場合、撮像部127で取得された画像に基づいて、被写体の少なくとも一部に対しての第4画像を表示部122に表示させる。制御部125は、第4画像に対して所定の動作が行われると、所定の動作に基づく第5画像を画像表示装置110に表示させるよう第5画像に対応する画像データを、インターフェイス部126を介して送信させる。   Then, when an image based on the third image displayed on the image display device 110 is acquired by the imaging unit 127 (out camera), the control unit 125 determines at least the subject based on the image acquired by the imaging unit 127. A fourth image for a part is displayed on the display unit 122. When a predetermined operation is performed on the fourth image, the control unit 125 displays image data corresponding to the fifth image on the interface unit 126 so that the image display device 110 displays the fifth image based on the predetermined operation. To send through.

第3画像は、シューティングゲームの標的142である。第4画像は、シューティングゲームの照準141である。制御部125は、撮像部127がリアルタイムに取得した画像について画像認識を行い、画像認識を行った結果に基づいて第4画像(照準141)を移動させる。一例としては、制御部125は、画像認識として色の認識を行い、認識した色のうち特定の色を有するものを標的142として認識する。制御部125は、認識した標的142に第4画像が重なるように、第4画像を移動させる。所定の動作は、例えば、第3画像と第4画像とが重なる場合に、第4画像をタッチする動作である。第5画像は、第3画像に関連する画像である。例えば、第5画像は、標的142が破壊される画像である。   The third image is a target 142 of the shooting game. The fourth image is the aim 141 of the shooting game. The control unit 125 performs image recognition on the image acquired by the imaging unit 127 in real time, and moves the fourth image (aiming 141) based on the result of the image recognition. As an example, the control unit 125 performs color recognition as image recognition, and recognizes a recognized color having a specific color as the target 142. The control unit 125 moves the fourth image so that the fourth image overlaps the recognized target 142. The predetermined operation is, for example, an operation of touching the fourth image when the third image and the fourth image overlap. The fifth image is an image related to the third image. For example, the fifth image is an image in which the target 142 is destroyed.

制御部125は、第3画像(標的142)と第4画像(照準141)とが重なる場合に、第4画像がタッチされたことを検出部123で検出すると、標的142が破壊される画像に対応する画像データを、インターフェイス部126を介して画像表示装置110に送信させる。画像表示装置110は、画像データを受信すると、標的142が破壊される画像を表示させる。   When the detection unit 123 detects that the fourth image has been touched when the third image (target 142) and the fourth image (sighting 141) overlap, the control unit 125 changes the target 142 to an image that is destroyed. Corresponding image data is transmitted to the image display device 110 via the interface unit 126. When receiving the image data, the image display device 110 displays an image in which the target 142 is destroyed.

システム100は、キャリブレーションが利用されるアプリケーションをユーザに提供することができる。よって、システム100は、ユーザの利便性を向上させることができる。   The system 100 can provide a user with an application in which calibration is utilized. Therefore, the system 100 can improve user convenience.

図10は、電子機器の他の形態について説明するための図である。
上述した実施形態では、電子機器1,120は、携帯電話機又はタブレット型のコンピュータの例について説明した。しかしながら、電子機器の筐体は、図10に示すように、めがね型であってもよい。この場合、電子機器は、通常のメガネにおいてはレンズが装着される部分に、表示部201が配される。表示部201は、上述した実施形態では表示部12,122に対応する。また、撮像部11、制御部13、検出部14、記憶部15、検出部123、検知部124、制御部125、インターフェイス部126又は撮像部127(図10には図示せず)等は、筐体(フレーム202)に配される。
FIG. 10 is a diagram for explaining another embodiment of the electronic device.
In the above-described embodiment, the electronic devices 1 and 120 have been described as examples of mobile phones or tablet computers. However, the casing of the electronic device may be a glasses type as shown in FIG. In this case, in the electronic device, the display unit 201 is arranged in a portion where the lens is mounted in normal glasses. The display unit 201 corresponds to the display units 12 and 122 in the above-described embodiment. In addition, the imaging unit 11, the control unit 13, the detection unit 14, the storage unit 15, the detection unit 123, the detection unit 124, the control unit 125, the interface unit 126, the imaging unit 127 (not illustrated in FIG. 10), and the like are included in the housing. Arranged in the body (frame 202).

なお、システムは、以下のような構成であってもよい。すなわち、システムは、画像表示装置と、その画像表示装置に表示を指示する制御装置と、電子機器と、を備える。電子機器は、インターフェイス部と、撮像部と、表示部と、制御部と、を備える。インターフェイス部は、画像表示装置(制御装置)と通信可能に接続される。そのインターフェイス部は、上述したインターフェイス部126と同様の構成である。撮像部は、画像を取得する。その撮像部は、上述した撮像部127と同様の構成である。制御部は、画像表示装置に表示される第3画像に基づく画像が撮像部によって取得された場合、撮像部で取得された画像を認識し、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を表示部に表示させる。制御部は、第4画像に対して所定の動作が行われると、所定の動作に基づく第5画像を画像表示装置に表示させるよう第5画像に対応する画像データを、インターフェイス部を介して制御装置に送信させる。その制御部は、上述した制御部125と同様の構成である。制御装置は、電子機器から送信された画像データに基づいて画像表示装置に表示させるよう指示する。制御装置は、例えば、セットトップボックスである。このようなシステムによれば、キャリブレーションが利用されるアプリケーションをユーザに提供することができる。よって、システムは、ユーザの利便性を向上させることができる。   The system may be configured as follows. That is, the system includes an image display device, a control device that instructs the image display device to display, and an electronic device. The electronic device includes an interface unit, an imaging unit, a display unit, and a control unit. The interface unit is communicably connected to an image display device (control device). The interface unit has the same configuration as the interface unit 126 described above. The imaging unit acquires an image. The imaging unit has the same configuration as the imaging unit 127 described above. When an image based on the third image displayed on the image display device is acquired by the imaging unit, the control unit recognizes the image acquired by the imaging unit, and determines at least a part of the subject based on the recognized image. The fourth image is displayed on the display unit. When a predetermined operation is performed on the fourth image, the control unit controls the image data corresponding to the fifth image via the interface unit so that the fifth image based on the predetermined operation is displayed on the image display device. Send to device. The control unit has the same configuration as the control unit 125 described above. The control device instructs the image display device to display based on the image data transmitted from the electronic device. The control device is, for example, a set top box. According to such a system, an application using calibration can be provided to the user. Thus, the system can improve user convenience.

1 電子機器
11 撮像部
12 表示部
13 制御部
14 検出部
100 システム
110 画像表示装置
121 筐体
122 表示部
123 検知部
125 制御部
126 インターフェイス部
127 撮像部
DESCRIPTION OF SYMBOLS 1 Electronic device 11 Imaging part 12 Display part 13 Control part 14 Detection part 100 System 110 Image display apparatus 121 Case 122 Display part 123 Detection part 125 Control part 126 Interface part 127 Imaging part

Claims (12)

被写体の画像を取得する撮像部と、
一方の面側から透過して他方の面側を視認可能な透過型の表示部と、
前記撮像部で取得された被写体の画像に基づいて、当該被写体の少なくとも一部に対するオブジェクトを前記表示部に表示させる制御部と、
を備える電子機器。
An imaging unit for acquiring an image of a subject;
A transmissive display unit that can be seen from the other side and visible from the other side;
A control unit that displays an object for at least a part of the subject on the display unit based on the image of the subject acquired by the imaging unit;
Electronic equipment comprising.
前記制御部は、前記表示部を介して視認される被写体の一部に対応させて前記オブジェクトを表示させる
請求項1に記載の電子機器。
The electronic device according to claim 1, wherein the control unit displays the object in correspondence with a part of a subject visually recognized through the display unit.
前記オブジェクトは、色の濃度が所定の閾値より高い
請求項1又は2に記載の電子機器。
The electronic device according to claim 1, wherein the object has a color density higher than a predetermined threshold value.
前記オブジェクトは、当該被写体の一部と同色若しくはそれに近い色である
請求項1又は2に記載の電子機器。
The electronic device according to claim 1, wherein the object has the same color as a part of the subject or a color close thereto.
前記表示部に重ね合わせた検出部をさらに備え、
前記制御部は、前記検出部によって前記オブジェクトに対応する位置への接触を検出した場合には、前記オブジェクトの表示を解除するよう前記表示部を制御する
請求項1から4のいずれか一項に記載の電子機器。
A detection unit superimposed on the display unit;
The said control part controls the said display part so that the display of the said object may be cancelled | released, when the contact to the position corresponding to the said object is detected by the said detection part. The electronic device described.
被写体の画像を取得する撮像部と、
一方の面側から透過して他方の面側を視認可能な透過型の表示部と、
前記撮像部で取得された被写体の画像に基づいて、当該被写体の少なくとも一部に対応する位置における前記表示部の透過率を下げる制御部と、
を備える電子機器。
An imaging unit for acquiring an image of a subject;
A transmissive display unit that can be seen from the other side and visible from the other side;
A control unit that lowers the transmittance of the display unit at a position corresponding to at least a part of the subject based on the image of the subject acquired by the imaging unit;
Electronic equipment comprising.
筐体と、
一方の面側から透過して他方の面側を視認可能な透過型の表示部と、
加速度及び地磁気を検知する検知部と、
画像表示装置に表示される第1画像と、前記表示部に表示される第2画像とが重なるように前記筐体が配置された場合の前記筐体の向きを基準方向又は前記筐体の位置を基準位置として設定し、前記検知部で検知された加速度及び地磁気に基づいて、前記基準方向に対する前記筐体の向き若しくは前記基準位置に対する位置を取得する制御部と、
を備える電子機器。
A housing,
A transmissive display unit that can be seen from the other side and visible from the other side;
A detector for detecting acceleration and geomagnetism;
The orientation of the case when the case is arranged so that the first image displayed on the image display device and the second image displayed on the display unit overlap with each other is a reference direction or the position of the case A control unit for setting the orientation of the housing with respect to the reference direction or the position with respect to the reference position based on the acceleration and geomagnetism detected by the detection unit,
Electronic equipment comprising.
外部に配される画像表示装置と通信可能に接続されるインターフェイス部と、
画像を取得する撮像部と、
表示部と、
前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させて、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して送信させる制御部と、
を備える電子機器。
An interface unit communicably connected to an image display device arranged outside;
An imaging unit for acquiring an image;
A display unit;
When an image based on a third image displayed on the image display device is acquired by the imaging unit, a fourth image for at least a part of a subject is acquired based on the image acquired by the imaging unit. When the predetermined operation is performed on the fourth image by displaying on the display unit, image data corresponding to the fifth image is displayed so that the fifth image based on the predetermined operation is displayed on the image display device. A control unit for transmitting via the interface unit;
Electronic equipment comprising.
前記表示部は、一方の面側から透過して他方の面側及び他方の面側から透過して一方の面側を視認可能な透過型の表示部である
請求項8に記載の電子機器。
The electronic device according to claim 8, wherein the display unit is a transmissive display unit that is transmissive from one surface side and is transmissive from the other surface side and the other surface side and is visible on the one surface side.
画像表示装置と、電子機器とを備えるシステムであって、
電子機器は、
筐体と、
一方の面側から透過して他方の面側を視認可能な透過型の表示部と、
加速度及び地磁気を検知する検知部と、
前記画像表示装置に表示される第1画像と、前記表示部に表示される第2画像とが重なるように前記筐体が配置された場合の前記筐体の向きを基準方向として設定し、前記検知部で検知された加速度及び地磁気に基づいて、前記基準方向に対する前記筐体の向きを取得する制御部と、を備える
システム。
A system comprising an image display device and an electronic device,
Electronic equipment
A housing,
A transmissive display unit that can be seen from the other side and visible from the other side;
A detector for detecting acceleration and geomagnetism;
Setting the direction of the case when the case is arranged so that the first image displayed on the image display device and the second image displayed on the display unit overlap as a reference direction; A control unit that acquires the orientation of the housing with respect to the reference direction based on the acceleration and geomagnetism detected by the detection unit.
画像表示装置と、電子機器とを備えるシステムであって、
前記電子機器は、
前記画像表示装置と通信可能に接続されるインターフェイス部と、
画像を取得する撮像部と、
表示部と、
前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像を認識し、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させて、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して送信させる制御部と、を備える
システム。
A system comprising an image display device and an electronic device,
The electronic device is
An interface unit communicably connected to the image display device;
An imaging unit for acquiring an image;
A display unit;
When an image based on a third image displayed on the image display device is acquired by the imaging unit, the image acquired by the imaging unit is recognized, and based on the recognized image, at least a part of the subject When the fourth image is displayed on the display unit and a predetermined operation is performed on the fourth image, the fifth image based on the predetermined operation is displayed on the image display device. A control unit that transmits image data corresponding to the above-described image data via the interface unit.
画像表示装置と、当該画像表示装置に表示を指示する制御装置と、電子機器とを備えるシステムであって、
前記電子機器は、
前記画像表示装置と通信可能に接続されるインターフェイス部と、
画像を取得する撮像部と、
表示部と、
前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像を認識し、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させて、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して前記制御装置に送信させる制御部と、を備え、
前記制御装置は、前記電子機器から送信された画像データに基づいて前記画像表示装置に表示させるよう指示する
システム。
A system comprising an image display device, a control device that instructs display to the image display device, and an electronic device,
The electronic device is
An interface unit communicably connected to the image display device;
An imaging unit for acquiring an image;
A display unit;
When an image based on a third image displayed on the image display device is acquired by the imaging unit, the image acquired by the imaging unit is recognized, and based on the recognized image, at least a part of the subject When the fourth image is displayed on the display unit and a predetermined operation is performed on the fourth image, the fifth image based on the predetermined operation is displayed on the image display device. A control unit that causes the control device to transmit image data corresponding to the control unit via the interface unit,
The control device instructs the image display device to display based on image data transmitted from the electronic device.
JP2013094687A 2013-04-26 2013-04-26 Electronic equipment and system Expired - Fee Related JP6133673B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013094687A JP6133673B2 (en) 2013-04-26 2013-04-26 Electronic equipment and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013094687A JP6133673B2 (en) 2013-04-26 2013-04-26 Electronic equipment and system

Publications (2)

Publication Number Publication Date
JP2014216962A true JP2014216962A (en) 2014-11-17
JP6133673B2 JP6133673B2 (en) 2017-05-24

Family

ID=51942266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013094687A Expired - Fee Related JP6133673B2 (en) 2013-04-26 2013-04-26 Electronic equipment and system

Country Status (1)

Country Link
JP (1) JP6133673B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107229400A (en) * 2016-03-23 2017-10-03 精工爱普生株式会社 The support method of display device, the support system of display device and electronic equipment
US10242428B2 (en) 2016-06-07 2019-03-26 Samsung Display Co., Ltd. Transparent display apparatus and driving method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166629A (en) * 2010-02-12 2011-08-25 Kyocera Corp Portable electronic device
JP2011227644A (en) * 2010-04-19 2011-11-10 Sony Corp Image processing device, image processing method and program
JP2012155655A (en) * 2011-01-28 2012-08-16 Sony Corp Information processing device, notification method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166629A (en) * 2010-02-12 2011-08-25 Kyocera Corp Portable electronic device
JP2011227644A (en) * 2010-04-19 2011-11-10 Sony Corp Image processing device, image processing method and program
JP2012155655A (en) * 2011-01-28 2012-08-16 Sony Corp Information processing device, notification method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107229400A (en) * 2016-03-23 2017-10-03 精工爱普生株式会社 The support method of display device, the support system of display device and electronic equipment
US10242428B2 (en) 2016-06-07 2019-03-26 Samsung Display Co., Ltd. Transparent display apparatus and driving method thereof

Also Published As

Publication number Publication date
JP6133673B2 (en) 2017-05-24

Similar Documents

Publication Publication Date Title
US10591729B2 (en) Wearable device
KR102411100B1 (en) Method and appratus for processing screen using device
CN109683716B (en) Visibility improvement method based on eye tracking and electronic device
JP6595597B2 (en) Wearable device, control method, and control program
JP6510648B2 (en) Wearable device, control method and control program
EP2956843B1 (en) Human-body-gesture-based region and volume selection for hmd
EP2979154B1 (en) Display device and control method thereof
US10254847B2 (en) Device interaction with spatially aware gestures
US9225896B2 (en) Mobile terminal device, storage medium, and display control method
US20140015794A1 (en) Electronic device, control method, and control program
KR20140095635A (en) A cover,an electronic device using the same and operating method thereof
US20230139775A1 (en) User interface manipulation in a flexible screen device
KR102544320B1 (en) Electronic apparatus and controlling method thereof
WO2014147715A1 (en) Information processing device, control method, and program
JP6133673B2 (en) Electronic equipment and system
KR102039948B1 (en) Mobile terminal for rendering virtual organs in augmented/virtual reality and system thereof
US9300908B2 (en) Information processing apparatus and information processing method
KR20150141048A (en) Mobile terminal and method of controlling the same
KR20160068534A (en) Mobile terminal and method for controlling the same
JP6686319B2 (en) Image projection device and image display system
KR101397812B1 (en) Input system of touch and drag type in remote
JP6968689B2 (en) Electronic devices, wearable devices and display control methods
US11842119B2 (en) Display system that displays virtual object, display device and method of controlling same, and storage medium
KR20200041090A (en) Mobile device and, the method thereof
US20220374145A1 (en) Electronic device for outputting keyboard interface and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170420

R150 Certificate of patent or registration of utility model

Ref document number: 6133673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees