JP2014216962A - Electronic apparatus and system - Google Patents
Electronic apparatus and system Download PDFInfo
- Publication number
- JP2014216962A JP2014216962A JP2013094687A JP2013094687A JP2014216962A JP 2014216962 A JP2014216962 A JP 2014216962A JP 2013094687 A JP2013094687 A JP 2013094687A JP 2013094687 A JP2013094687 A JP 2013094687A JP 2014216962 A JP2014216962 A JP 2014216962A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display
- electronic device
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、透過型の表示部を備える電子機器、及び、その電子機器を備えるシステムに関する。 The present invention relates to an electronic device including a transmissive display unit and a system including the electronic device.
電子機器の一例には、携帯電話機が挙げられる。携帯電話機には、2つの筐体をヒンジ部で接続して、折り畳み可能としたタイプがある。折り畳み型の携帯電話機には、2つの筐体が閉状態になる場合でも容易に操作できるようにするために、透明ディスプレイを備えるタイプがある(特許文献1参照)。 An example of the electronic device is a mobile phone. There is a type of mobile phone that can be folded by connecting two casings with a hinge portion. A type of foldable mobile phone includes a transparent display so that it can be easily operated even when two housings are closed (see Patent Document 1).
上述したように、電子機器には、透明ディスプレイを備えるタイプがある。近年は、透明ディスプレイが光透過性を有するという利点を生かして、さらにユーザにとって利便性の高い電子機器の登場が望まれている。 As described above, there are types of electronic devices that include a transparent display. In recent years, there has been a demand for the appearance of electronic devices that are more convenient for users by taking advantage of the transparency of transparent displays.
本発明は、ユーザの利便性を向上させた電子機器及びシステムを提供することを目的とする。 It is an object of the present invention to provide an electronic device and a system that improve user convenience.
本発明の電子機器は、撮像部と、表示部と、制御部と、を備える。前記撮像部は、被写体の画像を取得する。前記表示部は、透過型である。前記表示部は、一方の面側から透過して他方の面側を視認可能である。前記制御部は、前記撮像部で取得された被写体の画像に基づいて、当該被写体の少なくとも一部に対するオブジェクトを前記表示部に表示させる。 The electronic device of the present invention includes an imaging unit, a display unit, and a control unit. The imaging unit acquires an image of a subject. The display unit is a transmissive type. The said display part can permeate | transmit from the one surface side and can visually recognize the other surface side. The control unit causes the display unit to display an object for at least a part of the subject based on the image of the subject acquired by the imaging unit.
前記制御部は、前記表示部を介して視認される被写体の一部に対応させて前記オブジェクトを表示させることが好ましい。 It is preferable that the control unit displays the object corresponding to a part of the subject visually recognized through the display unit.
前記オブジェクトは、色の濃度が所定の閾値より高いことが好ましい。 The object preferably has a color density higher than a predetermined threshold.
前記オブジェクトは、当該被写体の一部と同色若しくはそれに近い色であることが好ましい。 It is preferable that the object has the same color as a part of the subject or a color close thereto.
電子機器は、検出部をさらに備える。前記検出部は、前記表示部に重ね合わせてある。この場合、前記制御部は、前記検出部によって前記オブジェクトに対応する位置への接触を検出した場合には、前記オブジェクトの表示を解除するよう前記表示部を制御する。 The electronic device further includes a detection unit. The detection unit is superimposed on the display unit. In this case, when the detection unit detects contact with a position corresponding to the object, the control unit controls the display unit to cancel the display of the object.
本発明の電子機器は、撮像部と、表示部と、制御部と、を備える。前記撮像部は、被写体の画像を取得する。前記表示部は、透過型である。前記表示部は、一方の面側から透過して他方の面側を視認可能である。前記制御部は、前記撮像部で取得された被写体の画像に基づいて、当該被写体の少なくとも一部に対応する位置における前記表示部の透過率を下げる。 The electronic device of the present invention includes an imaging unit, a display unit, and a control unit. The imaging unit acquires an image of a subject. The display unit is a transmissive type. The said display part can permeate | transmit from the one surface side and can visually recognize the other surface side. The control unit lowers the transmittance of the display unit at a position corresponding to at least a part of the subject based on the image of the subject acquired by the imaging unit.
本発明の電子機器は、筐体と、表示部と、検知部と、制御部と、を備える。前記表示部は、透過型である。前記表示部は、一方の面側から透過して他方の面側を視認可能である。前記検知部は、加速度及び地磁気を検知する。前記制御部は、画像表示装置に表示される第1画像と、前記表示部に表示される第2画像とが重なるように前記筐体が配置された場合の前記筐体の向きを基準方向又は前記筐体の位置を基準位置として設定する。前記制御部は、前記検知部で検知された加速度及び地磁気に基づいて、前記基準方向に対する前記筐体の向き若しくは前記基準位置に対する位置を取得する。 The electronic device of the present invention includes a housing, a display unit, a detection unit, and a control unit. The display unit is a transmissive type. The said display part can permeate | transmit from the one surface side and can visually recognize the other surface side. The detection unit detects acceleration and geomagnetism. The controller controls the orientation of the housing when the housing is arranged such that the first image displayed on the image display device and the second image displayed on the display portion overlap with each other. The position of the housing is set as a reference position. The control unit acquires an orientation of the housing with respect to the reference direction or a position with respect to the reference position based on the acceleration and geomagnetism detected by the detection unit.
本発明の電子機器は、インターフェイス部と、撮像部と、表示部と、制御部と、を備える。前記インターフェイス部は、外部に配される画像表示装置と通信可能に接続される。前記撮像部は、画像を取得する。前記制御部は、前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させる。前記制御部は、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して送信させる。 The electronic device of the present invention includes an interface unit, an imaging unit, a display unit, and a control unit. The interface unit is communicably connected to an image display device arranged outside. The imaging unit acquires an image. When an image based on a third image displayed on the image display device is acquired by the imaging unit, the control unit applies to at least a part of the subject based on the image acquired by the imaging unit. A fourth image is displayed on the display unit. When a predetermined operation is performed on the fourth image, the control unit outputs image data corresponding to the fifth image so that a fifth image based on the predetermined operation is displayed on the image display device. To be transmitted through the section.
前記表示部は、一方の面側から透過して他方の面側及び他方の面側から透過して一方の面側を視認可能な透過型の表示部であることが好ましい。 It is preferable that the display unit is a transmissive display unit that can be transmitted from one surface side and transmitted from the other surface side and the other surface side to visually recognize the one surface side.
本発明のシステムは、画像表示装置と、電子機器とを備える。前記電子機器は、筐体と、表示部と、検知部と、制御部と、を備える。前記表示部は、透過型である。前記表示部は、一方の面側から透過して他方の面側を視認可能である。前記検知部は、加速度及び地磁気を検知する。前記制御部は、前記画像表示装置に表示される第1画像と、前記表示部に表示される第2画像とが重なるように前記筐体が配置された場合の前記筐体の向きを基準方向として設定する。前記制御部は、前記検知部で検知された加速度及び地磁気に基づいて、前記基準方向に対する前記筐体の向きを取得する。 The system of the present invention includes an image display device and an electronic device. The electronic device includes a housing, a display unit, a detection unit, and a control unit. The display unit is a transmissive type. The said display part can permeate | transmit from the one surface side and can visually recognize the other surface side. The detection unit detects acceleration and geomagnetism. The control unit sets a direction of the housing when the first image displayed on the image display device and the second image displayed on the display unit overlap with each other in a reference direction. Set as. The control unit acquires the orientation of the housing with respect to the reference direction based on the acceleration and geomagnetism detected by the detection unit.
本発明のシステムは、画像表示装置と、電子機器とを備える。前記電子機器は、インターフェイス部と、撮像部と、表示部と、制御部と、を備える。前記インターフェイス部は、前記画像表示装置と通信可能に接続される。前記撮像部は、画像を取得する。前記制御部は、前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像を認識する。前記制御部は、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させる。前記制御部は、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して送信させる。 The system of the present invention includes an image display device and an electronic device. The electronic device includes an interface unit, an imaging unit, a display unit, and a control unit. The interface unit is communicably connected to the image display device. The imaging unit acquires an image. The control unit recognizes an image acquired by the imaging unit when an image based on a third image displayed on the image display device is acquired by the imaging unit. The control unit causes the display unit to display a fourth image for at least a part of the subject based on the recognized image. When a predetermined operation is performed on the fourth image, the control unit outputs image data corresponding to the fifth image so that a fifth image based on the predetermined operation is displayed on the image display device. To be transmitted through the section.
本発明のシステムは、画像表示装置と、当該画像表示装置に表示を指示する制御装置と、電子機器と、を備える。前記電子機器は、インターフェイス部と、撮像部と、表示部を、制御部と、を備える。前記インターフェイス部は、前記画像表示装置と通信可能に接続される。前記撮像部は、画像を取得する。前記制御部は、前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像を認識する。前記制御部は、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させる。前記制御部は、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して前記制御装置に送信させる。前記制御装置は、前記電子機器から送信された画像データに基づいて前記画像表示装置に表示させるよう指示する。 The system of the present invention includes an image display device, a control device that instructs the image display device to display, and an electronic device. The electronic device includes an interface unit, an imaging unit, a display unit, and a control unit. The interface unit is communicably connected to the image display device. The imaging unit acquires an image. The control unit recognizes an image acquired by the imaging unit when an image based on a third image displayed on the image display device is acquired by the imaging unit. The control unit causes the display unit to display a fourth image for at least a part of the subject based on the recognized image. When a predetermined operation is performed on the fourth image, the control unit outputs image data corresponding to the fifth image so that a fifth image based on the predetermined operation is displayed on the image display device. To the control device via the unit. The control device instructs the image display device to display based on image data transmitted from the electronic device.
本発明によれば、ユーザの利便性を向上させた電子機器及びシステムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the electronic device and system which improved the user's convenience can be provided.
[第1実施形態]
以下、本発明の第1実施形態について説明する。図1は、第1実施形態の電子機器1について説明するためのブロック図である。
[First Embodiment]
The first embodiment of the present invention will be described below. FIG. 1 is a block diagram for explaining an
電子機器1は、例えば、携帯電話機、又はタブレット型のコンピュータ等である。電子機器1は、撮像部11と、表示部12と、検出部14と、記憶部15と、制御部13と、を備える。
The
撮像部11は、被写体の画像を取得する。すなわち、撮像部11は、カメラ部である。撮像部11は、アウトカメラ(図示せず)を備える。撮像部11は、インカメラ11a(図5参照)を備えていてもよい。電子機器1がユーザによって操作可能な状態でそのユーザに保持された場合、撮像部11としてのアウトカメラは、ユーザとは反対側に配置される被写体を撮像する。電子機器1がユーザによって操作可能な状態でそのユーザに保持された場合、撮像部11としてのインカメラ11aは、ユーザ側に配置される被写体を撮像する。インカメラ11aは、ユーザを撮像することが可能である。撮像部11(アウトカメラ及びインカメラ11a)は、表示部12に近接した位置に配置される。
The
表示部12は、透過型である。表示部12は、一方の面側から透過して他方の面側を視認可能である。表示部12は、他方の面側から透過して一方の面側を視認可能である。表示部12は、例えば、液晶パネル、又は有機EL(electroluminescence)パネル等を備える。
The
検出部14は、表示部12に重ね合わされている。検出部14は、例えば、透明タッチパネルである。
The
制御部13は、撮像部11で取得された被写体の画像に基づいて、その被写体の少なくとも一部に対するオブジェクトを表示部12に表示させる。撮像部11が起動された場合、制御部13は、撮像部11によってリアルタイムで取得される画像に基づいて、画像認識又は文字認識を行う。認識される画像は、例えば、オブジェクトを表示させるためのトリガとなる所定の画像である。認識される文字は、例えば、オブジェクトを表示させるためのトリガとなる所定の文字である。所定の文字とは、例えば、キーワードである。
Based on the subject image acquired by the
オブジェクトは、例えば、文字、線、図形又は画像である。オブジェクトは、例えば、画像を認識した結果又は文字を認識した結果に対応付けられている。オブジェクトは、例えば、記憶部15に記憶される。制御部13は、画像認識を行った結果又は文字認識を行った結果に基づいて、オブジェクトを表示部12に表示させる。詳細な一例としては、制御部13は、画像認識を行った結果又は文字認識を行った結果に基づいて記憶部15からオブジェクトを読み出し、そのオブジェクトを表示部12に表示させる。なお、撮像部11によって取得された画像は、表示部12に表示されない。
The object is, for example, a character, a line, a figure, or an image. The object is associated with, for example, a result of recognizing an image or a result of recognizing characters. The object is stored in the
制御部13は、表示部12を介して視認される被写体の一部に対応させてオブジェクトを表示させる。表示部12を介して視認される被写体の一部とは、表示部12を透過して見ることのできる物体のことである。物体は、撮像部11によって取得される画像に含まれる被写体の一部に対応するものである。
撮像部11は、表示部12に近接して配置される。このため、撮像部11によって取得される画像の範囲と、表示部12を透過して見ることができる範囲とは、対応する。制御部13は、撮像部11によって取得された画像に基づいてオブジェクトの位置を決定して、そのオブジェクトを表示部12に表示させる。これにより、オブジェクトは、表示部12を透過して視認される被写体の近くに配置(表示)されることになる。オブジェクトが被写体の一部に対するものである場合には、オブジェクトは、被写体の一部に対応して配置(表示)されることになる。すなわち、オブジェクトは、被写体の一部の近くに配置(表示)される。
The
The
これにより、電子機器1は、オブジェクトを表示させるので、ユーザの利便性を向上させることができる。
Thereby, since the
ここで、具体的な例について説明する。
まず、第1の具体例について説明する。図2は、第1の具体例について説明するための図である。図2(A)は、英単語を暗記するための単語帳21を示す。第1の具体例では、英単語を覚える場合に電子機器1が利用される。単語帳21には、日本語の単語及び英単語の他に、英単語が記載されていることを示す所定の図形(図示せず)が記載されている。制御部13は、撮像部11(図2には図示せず)によって取得された単語帳21の画像に基づいて画像認識を行い、画像認識の結果、所定の画像としての所定の図形が含まれていると判断する。この場合、制御部13は、撮像部11によって取得された画像、及び所定の図形に基づいて、英単語を隠す画像をオブジェクト22として表示部12に表示する(図2(B)参照)。図2(B)のオブジェクト22は、英単語の位置よりも広い位置を覆うような画像を表示しているが、オブジェクト22はこれに限られず、英単語の位置に限定してオブジェクトを表示してもよい。また、この図では、オブジェクト22は、透過率0にし、単語が全く見えない状態になっているが、この実施形態に限られず、透過率が0の近傍値であってもよく、それならば、単語が見えにくいので、透過率0の場合と同様に学習の効率が向上する。
Here, a specific example will be described.
First, a first specific example will be described. FIG. 2 is a diagram for explaining the first specific example. FIG. 2A shows a
また、オブジェクト22は、色の濃度が所定の閾値よりも高いものであってもよい。オブジェクト22の色の濃度を所定の閾値(所定の濃度)よりも高くすることにより、単語帳21の英単語は、ユーザにとって表示部12を介して視認し難くなる。これにより、電子機器1は、ユーザの学習効率を向上させることができる。
なお、制御部13は、時間の経過に応じて、オブジェクト22の色の濃度を低下させてもよい。すなわち、制御部13は、時間の経過に応じて、英単語を見易くするように表示部12を制御してもよい。
The
Note that the
なお、制御部13は、上述した制御の代わりに、次のような制御を行ってもよい。すなわち、制御部13は、撮像部11で取得された被写体の画像に基づいて、その被写体の少なくとも一部に対応する位置における表示部12の透過率を下げる。例えば、制御部13は、撮像部11(図2には図示せず)によって取得された単語帳21の画像に基づいて画像認識を行い、画像認識の結果、所定の画像としての所定の図形が含まれていると判断する。この場合、制御部13は、撮像部11によって取得された画像、及び所定の図形に基づいて、英単語に対応する部分における表示部12の透過率を下げる。透過率を下げるとは、透過率を0%にするか、又は、透過率を0%の近傍の値にすることである。透過率を下げることは、例えば、表示部12が液晶パネルを備える場合、液晶に対する電圧の印加を調整すること等により行われる。これにより、日本語の単語の部分が表示部12を透過して視認することが可能になるが、英単語の部分が表示部12を透過して視認でき難くなる。これにより、電子機器1は、ユーザの学習効率を向上させることができる。
なお、この場合の制御部13は、時間の経過に応じて、表示部12において透過率を下げた部分のその透過率を向上させることもできる。すなわち、制御部13は、時間の経過に応じて英単語を見易くするように表示部12を制御してもよい。
In addition, the
In addition, the
次に、第2の具体例について説明する。第2の具体例では、英単語を覚える場合に電子機器1が利用される。単語帳では、例えば、日本語の単語が黒色で記載され、英単語が赤色で記載されている。まず、撮像部11によって単語帳の画像が取得される。制御部13は、撮像部11によって取得された単語帳の画像に基づいて文字認識を行い、文字認識の結果、上述した所定の文字としての英単語が含まれていると判断する。この場合、制御部13は、オブジェクトして、表示部12全体について赤色の表示を行う。これにより、表示部12を介して単語帳を視認した場合、日本語の単語が視認され、英単語は視認されない。
Next, a second specific example will be described. In the second specific example, the
ここで、オブジェクト22は、被写体の一部と同色若しくはそれに近い色であってもよい。この場合、制御部13は、撮像部11によって取得された画像から被写体の文字の色を認識して、その文字の色と同様の色のオブジェクト22を表示部12に表示させる。例えば、制御部13は、撮像部11によって単語帳の画像が取得された場合、英単語の文字の色(赤色)を認識して、その文字の色と同様の色(赤色)のオブジェクト22を表示部12に表示させる。これにより、電子機器1は、英単語を視認し難くすることができ、学習効率を向上させることができる。
Here, the
次に、第3の具体例について説明する。図3は、第3の具体例について説明するための図である。第3の具体例では、新聞又は書籍等に対してコメント等を残す場合に電子機器1が利用される。まず、ユーザによって表示部12を介して新聞23が視認される場合に、記事に対応するようにユーザの指等によって表示部12がなぞられたりコメントが記入されたりする。この場合、制御部13は、検出部14による接触の検出に基づいて、その接触された部分に対応させて線24又は文字等を表示部12に表示させる。そして、撮像部11によって新聞23が撮像されると、その新聞23の画像と共に、表示部12に表示される線24又は文字等のデータが記憶部15に記憶される。その後、新聞23を再度閲覧するときに表示部12が新聞23にかざされたことを撮像部11等によって検出した場合、制御部13は、撮像部11によって取得された新聞23の画像について画像認識を行う。この場合の画像認識としては、撮像部11によって取得された新聞23の画像と、記憶部15に記憶された新聞23の画像とが対応するか否かの判断が行われる。画像認識の結果、撮像部11によって取得された新聞23の画像と、記憶部15に記憶された新聞23の画像とが対応する場合には、制御部13は、記憶部15に記憶されるデータを読み出し、そのデータに基づく線又は文字等をオブジェクトとして表示部12に表示させる。この場合、制御部13は、撮像部11によって取得される画像に基づいて、表示部12を介して視認される被写体とオブジェクトとが対応するように、そのオブジェクトを表示部12に表示する。
Next, a third specific example will be described. FIG. 3 is a diagram for explaining a third specific example. In the third specific example, the
次に、第4の具体例について説明する。図4は、第4の具体例について説明するための図である。第4の具体例では、スケジュール帳として電子機器1が利用される。まず、ユーザによって表示部12を介してカレンダ25が視認される場合に、日にちに対応するようにユーザの指等によって表示部12上でなぞられることを検出部14によって検出することにより予定が記入される。制御部13は、検出部14による接触の検出に基づいて、その接触された部分に対応させて予定26を表示部12に表示させる。そして、撮像部11によってカレンダ25が撮像されると、そのカレンダ25の画像と共に、表示部12に表示される予定26のデータが記憶部15に記憶される。その後、スケジュールを確認するために表示部12がカレンダ25にかざされたことを撮像部11等によって検出した場合、制御部13は、撮像部11によって取得されたカレンダ25の画像について画像認識を行う。この場合の画像認識としては、例えば、撮像部11によって取得されたカレンダ25の画像と、記憶部15に記憶されたカレンダ25の画像とが対応するか否かの判断が行われる。画像認識の結果、撮像部11によって取得されたカレンダ25の画像と、記憶部15に記憶されたカレンダ25の画像とが対応する場合には、制御部13は、記憶部15に記憶されるデータを読み出し、そのデータに基づく予定26をオブジェクトとして表示部12に表示させる。この場合、制御部13は、撮像部11によって取得される画像に基づいて、表示部12を介して視認される被写体とオブジェクトとが対応するように、そのオブジェクトを表示部12に表示する。なお、スケジュールは、会社用(図4(A)参照)と、プライベート用(図4(B)参照)とを別々に管理されることが可能である。
Next, a fourth specific example will be described. FIG. 4 is a diagram for explaining a fourth specific example. In the fourth specific example, the
なお、電子機器1が右方向に移動する場合には、制御部13は、表示部12を介して視認することができる被写体の一部(物体)が電子機器1に対して相対的に左方向へ移動するため、当該左方向への移動に対応させてオブジェクトを左方向へ移動させる。同様に、電子機器1が左方向に移動する場合には、制御部13は、表示部12を介して視認することができる被写体の一部(物体)が電子機器1に対して相対的に右方向へ移動するため、当該右方向への移動に対応させてオブジェクトを右方向へ移動させる。同様に、電子機器1が右方向又は左方向以外の他の方向に移動する場合でも、制御部13は、表示部12を介して視認することができる被写体の一部(物体)が電子機器1に対して相対的に移動するため、その移動の方向に対応させてオブジェクトをその方向に移動させる。同様に、電子機器1が前後方向に移動する場合には、制御部13は、表示部12を介して視認することができる被写体の一部(物体)の大きさが変化するため、その大きさの変化に対応させてオブジェクトの大きさを変更する。
When the
上記の具体例の他にも、以下の例の場合に電子機器1を利用することができる。
例えば、オブジェクトが文字又は図形を隠すタイプの場合には、電子機器1は、写真合成等に利用される。写真合成は、写真撮影を行う場合に、被写体の邪魔をするような物体を消去したり、メガネを消去して、メガネを消去した部分の色を周囲の肌の色から推定したりするものである。
In addition to the specific examples described above, the
For example, when the object is of a type that hides characters or figures, the
また、例えば、オブジェクトとしての文字又は図形を表示部12に表示させるタイプの場合には、電子機器1は、回路図の履歴チェック、服の着せ替えアプリ、変身アプリ、又は、動物若しくはキャラクタを表示するアプリ等に利用される。回路図の履歴チェックは、回路図にペン等で直接記入することなく、時系列ごとに電子機器1をかざすことで変更履歴が見えるようになるものである。服の着せ替えアプリは、服の画像データを合成するものである。変身アプリは、髪の毛、ヒゲ、シワ、メガネ等を合成するものである。動物若しくはキャラクタを表示するアプリは、撮像部11で周囲環境の画像を取得して、状況に合わせて動物又はキャラクタを表示させるものである。
For example, in the case of a type in which characters or figures as objects are displayed on the
制御部13は、検出部14によってオブジェクトに対応する位置への接触を検出した場合には、オブジェクトの表示を解除するよう表示部12を制御する。すなわち、表示部12に表示されるオブジェクトがユーザによってタッチされたことを検出部14で検出した場合には、制御部13は、オブジェクトを表示部12から消去させる。
電子機器1は、ユーザにとってオブジェクトが不要になった場合には、オブジェクトの表示を解除するので、ユーザの利便性を向上させることができる。
When the
Since the
図5は、オブジェクトの位置を調整する場合について説明するための図である。
オブジェクトの位置を調整する場合には、まず、撮像部11としてのインカメラ11aによって、ユーザの顔(目)の画像をリアルタイムで取得する。制御部13は、例えば、取得した画像に基づいて瞳孔及び角膜反射を検知し、その検知の結果に基づいてユーザの視線Aを求める。制御部13は、求められたユーザの視線Aと、撮像部11としてのアウトカメラ(図示せず)によってリアルタイムで取得された被写体の画像とに基づいて、ユーザが表示部12を介して視認していると推測される被写体を特定する。制御部13は、被写体を特定すると、アウトカメラによって取得される画像に基づいて、推測された被写体に対応するようにオブジェクトの位置を移動させる。
このようにして、電子機器1は、オブジェクトの位置を調整することができる。
FIG. 5 is a diagram for explaining a case where the position of an object is adjusted.
When adjusting the position of the object, first, an image of the user's face (eyes) is acquired in real time by the in-
In this way, the
なお、電子機器1は、パスワードの入力、指紋認証又は画像認証が行われた後に、オブジェクトを表示部12に表示させてもよい。
また、電子機器1は、予め設定した時間内のみ、オブジェクトを表示部12に表示させてもよい。
The
Further, the
[第2実施形態]
以下、本発明の第2実施形態について説明する。図6は、本実施形態のシステム100について説明するためのブロック図である。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described. FIG. 6 is a block diagram for explaining the
システム100は、画像表示装置110と、電子機器120と、を備える。
画像表示装置110と電子機器120とは、相互に通信が可能となっている。画像表示装置110は、例えば、テレビである。
The
The
第2実施形態の電子機器120は、例えば、携帯電話機、又はタブレット型のコンピュータ等である。電子機器120は、筐体121と、表示部122と、検出部123と、検知部124と、制御部125と、を備える。
The
表示部122は、透過型である。表示部122は、一方の面側から透過して他方の面側を視認可能である。表示部122は、他方の面側から透過して一方の面側を視認可能である。表示部122は、例えば、液晶パネル、又は有機EL(electroluminescence)パネル等を備える。
検出部123は、表示部122に重なるように配置される。検出部123は、透過型のタッチパネルである。
The
The
筐体121は、検知部124と、制御部125と、を収容する。
検知部124は、加速度及び地磁気を検知する。検知部124は、加速度センサ及び地磁気センサを備える。
The
The
図7は、キャリブレーションが行われるときに、画像表示装置110に表示される画像と、電子機器120に表示される画像と、を説明するための図である。図7(A)は、画像表示装置110を示す。図7(B)は、電子機器120を示す。
FIG. 7 is a diagram for explaining an image displayed on the
制御部125は、キャリブレーションを行う。すなわち、制御部125は、画像表示装置110に表示される第1画像131と、表示部122に表示される第2画像132とが重なるように筐体121が配置された場合の筐体121の向きを基準方向又は筐体121の位置を基準位置として設定する。制御部125は、検知部124で検知された加速度及び地磁気に基づいて、基準方向に対する筐体121の向き若しくは基準位置に対する位置を取得する。
The
具体的には、キャリブレーションが行われる場合、図7(A)に示すように、画像表示装置110の中央部に第1画像131が表示される。第1画像131は、例えば、「+」の図形である。また、画像表示装置110の各角部にも、図7(A)に一例を示す「+」の図形が表示される。キャリブレーションが行われる場合、図7(B)に示すように、表示部122の中央部に第2画像132が表示される。第2画像132は、例えば、「+」の図形である。
Specifically, when calibration is performed, the
そして、ユーザによって表示部122を透過して画像表示装置110を視認できるようにした場合に、画像表示装置110の中央部に表示される「+」の図形(第1画像131)と、表示部122に表示される「+」の図形(第2画像132)とが重なるように電子機器120(筐体121)を移動させると、制御部125は、その時の筐体121の向きを、電子機器120(筐体121)の基準方向として設定する。さらに、画像表示装置110の各角部に表示される「+」の図形と、表示部122に表示される「+」の図形とが重なるように電子機器120(筐体121)の向きを変えた場合、制御部125は、検知部124の検知結果を取得し、その検知結果に基づいて可動範囲を設定する。
Then, when the
又は、画像表示装置110の中央部に表示される「+」の図形(第1画像131)と、表示部に表示される「+」の図形(第2画像132)とが重なり、且つ、第1画像131の大きさと第2画像132の大きさとが等しくなるように電子機器120(筐体121)を移動させると、制御部125は、そのときの筐体121の位置を基準位置として設定する。第1画像131のサイズが第2画像132よりも大きい場合、電子機器120は、画像表示装置110に近づいていることになる。第1画像131のサイズが第2画像132よりも小さい場合、電子機器120は、画像表示装置110から離れていることになる。第1画像131と第2画像132とのサイズが等しくなるように電子機器120を移動させれば、画像表示装置110と電子機器120との距離が適切になる。
これにより、キャリブレーションは、終了する。
Alternatively, the “+” graphic (first image 131) displayed in the center of the
This completes the calibration.
キャリブレーションが終了した場合、制御部125は、検知部124で検知された加速度及び地磁気に基づいて、基準方向に対する筐体121の向きを取得することが可能になる。すなわち、制御部125は、電子機器120が向いている方向を取得することができる。また、キャリブレーションが終了した場合、制御部125は、検知部124で検知された加速度及び地磁気に基づいて、基準位置に対する位置を取得することが可能になる。すなわち、制御部125は、画像表示装置110と電子機器120との距離を取得することが可能になる。
When the calibration is completed, the
また、キャリブレーションは、上記の例のように実行されるばかりでなく、以下のように実行されてもよい。図8は、キャリブレーションの他の例について説明するための図である。キャリブレーションが行われる場合、制御部125は、所定の図形133を表示部122に表示させる。所定の図形133は、電子機器120に対する画像表示装置110の位置を決定するための図形である。そして、ユーザによって表示部122を透過して画像表示装置110を視認できるようにした場合に、所定の図形133と画像表示装置110とが対応するように電子機器120(筐体121)を移動させると、電子機器120(筐体121)の基準方向と、電子機器120の可動範囲を設定することができる。図8に示す場合では、所定の図形133と画像表示装置110の角部を対応させて、所定の図形133の内側に画像表示装置110を配置させれば、キャリブレーションは、終了する。この場合、電子機器120の可動範囲は、予め決められている。
Further, the calibration may be executed not only as in the above example but also as follows. FIG. 8 is a diagram for explaining another example of calibration. When calibration is performed, the
システム100は、キャリブレーションを実行することにより、キャリブレーションが利用されるアプリケーションをユーザに提供することができる。よって、システム100は、ユーザの利便性を向上させることができる。
The
システム100及び電子機器120は、上記のようなキャリブレーションを必要とするアプリケーションを実行することができる。そのアプリケーションの一例は、シューティングゲームである。図9は、シューティングゲームが行われる場合について説明するための図である。
The
この場合、電子機器120は、インターフェイス部126をさらに備える。
インターフェイス部126は、外部に配される画像表示装置110と通信可能に接続される。例えば、インターフェイス部126と画像表示装置110とに接続されたケーブル128によって、電子機器120と画像表示装置110とは、通信可能に接続される。又は、電子機器120と画像表示装置110とは、無線によって通信可能に接続されてもよい。
In this case, the
The
そして、制御部125は、次のような制御を行う。制御部125は、照準141の画像を表示部122に表示させる。照準141の画像は、例えば、表示部122の中央部に表示される。画像表示装置110には標的142の画像が表示されているため、ユーザから見て画像表示装置110と表示部122とを重ねると、表示部122を透過して標的142が見えることになる。制御部125は、画像表示装置110に表示される標的142の位置と検知部124の検知結果とに基づいて、照準141が標的142に合っているか否かを判断する。制御部125は、照準141が標的142に合っていると判断した場合に、照準141に対しての動作が行われると、標的142が破壊される画像に対応する画像データを、インターフェイス部126を介して画像表示装置110に送信させる。画像表示装置110は、画像データを受信すると、標的142が破壊される画像を表示させる。照準141に対しての動作は、例えば、表示部122をタッチする動作である。
Then, the
また、制御部125は、次のような制御を行ってもよい。次のような制御を行う場合、電子機器120は、撮像部127をさらに備える。撮像部127は、画像を取得する。撮像部127は、画像表示装置110に表示される画像をリアルタイムで取得することが可能である。
Further, the
そして、制御部125は、画像表示装置110に表示される第3画像に基づく画像が撮像部127(アウトカメラ)によって取得された場合、撮像部127で取得された画像に基づいて、被写体の少なくとも一部に対しての第4画像を表示部122に表示させる。制御部125は、第4画像に対して所定の動作が行われると、所定の動作に基づく第5画像を画像表示装置110に表示させるよう第5画像に対応する画像データを、インターフェイス部126を介して送信させる。
Then, when an image based on the third image displayed on the
第3画像は、シューティングゲームの標的142である。第4画像は、シューティングゲームの照準141である。制御部125は、撮像部127がリアルタイムに取得した画像について画像認識を行い、画像認識を行った結果に基づいて第4画像(照準141)を移動させる。一例としては、制御部125は、画像認識として色の認識を行い、認識した色のうち特定の色を有するものを標的142として認識する。制御部125は、認識した標的142に第4画像が重なるように、第4画像を移動させる。所定の動作は、例えば、第3画像と第4画像とが重なる場合に、第4画像をタッチする動作である。第5画像は、第3画像に関連する画像である。例えば、第5画像は、標的142が破壊される画像である。
The third image is a
制御部125は、第3画像(標的142)と第4画像(照準141)とが重なる場合に、第4画像がタッチされたことを検出部123で検出すると、標的142が破壊される画像に対応する画像データを、インターフェイス部126を介して画像表示装置110に送信させる。画像表示装置110は、画像データを受信すると、標的142が破壊される画像を表示させる。
When the
システム100は、キャリブレーションが利用されるアプリケーションをユーザに提供することができる。よって、システム100は、ユーザの利便性を向上させることができる。
The
図10は、電子機器の他の形態について説明するための図である。
上述した実施形態では、電子機器1,120は、携帯電話機又はタブレット型のコンピュータの例について説明した。しかしながら、電子機器の筐体は、図10に示すように、めがね型であってもよい。この場合、電子機器は、通常のメガネにおいてはレンズが装着される部分に、表示部201が配される。表示部201は、上述した実施形態では表示部12,122に対応する。また、撮像部11、制御部13、検出部14、記憶部15、検出部123、検知部124、制御部125、インターフェイス部126又は撮像部127(図10には図示せず)等は、筐体(フレーム202)に配される。
FIG. 10 is a diagram for explaining another embodiment of the electronic device.
In the above-described embodiment, the
なお、システムは、以下のような構成であってもよい。すなわち、システムは、画像表示装置と、その画像表示装置に表示を指示する制御装置と、電子機器と、を備える。電子機器は、インターフェイス部と、撮像部と、表示部と、制御部と、を備える。インターフェイス部は、画像表示装置(制御装置)と通信可能に接続される。そのインターフェイス部は、上述したインターフェイス部126と同様の構成である。撮像部は、画像を取得する。その撮像部は、上述した撮像部127と同様の構成である。制御部は、画像表示装置に表示される第3画像に基づく画像が撮像部によって取得された場合、撮像部で取得された画像を認識し、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を表示部に表示させる。制御部は、第4画像に対して所定の動作が行われると、所定の動作に基づく第5画像を画像表示装置に表示させるよう第5画像に対応する画像データを、インターフェイス部を介して制御装置に送信させる。その制御部は、上述した制御部125と同様の構成である。制御装置は、電子機器から送信された画像データに基づいて画像表示装置に表示させるよう指示する。制御装置は、例えば、セットトップボックスである。このようなシステムによれば、キャリブレーションが利用されるアプリケーションをユーザに提供することができる。よって、システムは、ユーザの利便性を向上させることができる。
The system may be configured as follows. That is, the system includes an image display device, a control device that instructs the image display device to display, and an electronic device. The electronic device includes an interface unit, an imaging unit, a display unit, and a control unit. The interface unit is communicably connected to an image display device (control device). The interface unit has the same configuration as the
1 電子機器
11 撮像部
12 表示部
13 制御部
14 検出部
100 システム
110 画像表示装置
121 筐体
122 表示部
123 検知部
125 制御部
126 インターフェイス部
127 撮像部
DESCRIPTION OF
Claims (12)
一方の面側から透過して他方の面側を視認可能な透過型の表示部と、
前記撮像部で取得された被写体の画像に基づいて、当該被写体の少なくとも一部に対するオブジェクトを前記表示部に表示させる制御部と、
を備える電子機器。 An imaging unit for acquiring an image of a subject;
A transmissive display unit that can be seen from the other side and visible from the other side;
A control unit that displays an object for at least a part of the subject on the display unit based on the image of the subject acquired by the imaging unit;
Electronic equipment comprising.
請求項1に記載の電子機器。 The electronic device according to claim 1, wherein the control unit displays the object in correspondence with a part of a subject visually recognized through the display unit.
請求項1又は2に記載の電子機器。 The electronic device according to claim 1, wherein the object has a color density higher than a predetermined threshold value.
請求項1又は2に記載の電子機器。 The electronic device according to claim 1, wherein the object has the same color as a part of the subject or a color close thereto.
前記制御部は、前記検出部によって前記オブジェクトに対応する位置への接触を検出した場合には、前記オブジェクトの表示を解除するよう前記表示部を制御する
請求項1から4のいずれか一項に記載の電子機器。 A detection unit superimposed on the display unit;
The said control part controls the said display part so that the display of the said object may be cancelled | released, when the contact to the position corresponding to the said object is detected by the said detection part. The electronic device described.
一方の面側から透過して他方の面側を視認可能な透過型の表示部と、
前記撮像部で取得された被写体の画像に基づいて、当該被写体の少なくとも一部に対応する位置における前記表示部の透過率を下げる制御部と、
を備える電子機器。 An imaging unit for acquiring an image of a subject;
A transmissive display unit that can be seen from the other side and visible from the other side;
A control unit that lowers the transmittance of the display unit at a position corresponding to at least a part of the subject based on the image of the subject acquired by the imaging unit;
Electronic equipment comprising.
一方の面側から透過して他方の面側を視認可能な透過型の表示部と、
加速度及び地磁気を検知する検知部と、
画像表示装置に表示される第1画像と、前記表示部に表示される第2画像とが重なるように前記筐体が配置された場合の前記筐体の向きを基準方向又は前記筐体の位置を基準位置として設定し、前記検知部で検知された加速度及び地磁気に基づいて、前記基準方向に対する前記筐体の向き若しくは前記基準位置に対する位置を取得する制御部と、
を備える電子機器。 A housing,
A transmissive display unit that can be seen from the other side and visible from the other side;
A detector for detecting acceleration and geomagnetism;
The orientation of the case when the case is arranged so that the first image displayed on the image display device and the second image displayed on the display unit overlap with each other is a reference direction or the position of the case A control unit for setting the orientation of the housing with respect to the reference direction or the position with respect to the reference position based on the acceleration and geomagnetism detected by the detection unit,
Electronic equipment comprising.
画像を取得する撮像部と、
表示部と、
前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させて、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して送信させる制御部と、
を備える電子機器。 An interface unit communicably connected to an image display device arranged outside;
An imaging unit for acquiring an image;
A display unit;
When an image based on a third image displayed on the image display device is acquired by the imaging unit, a fourth image for at least a part of a subject is acquired based on the image acquired by the imaging unit. When the predetermined operation is performed on the fourth image by displaying on the display unit, image data corresponding to the fifth image is displayed so that the fifth image based on the predetermined operation is displayed on the image display device. A control unit for transmitting via the interface unit;
Electronic equipment comprising.
請求項8に記載の電子機器。 The electronic device according to claim 8, wherein the display unit is a transmissive display unit that is transmissive from one surface side and is transmissive from the other surface side and the other surface side and is visible on the one surface side.
電子機器は、
筐体と、
一方の面側から透過して他方の面側を視認可能な透過型の表示部と、
加速度及び地磁気を検知する検知部と、
前記画像表示装置に表示される第1画像と、前記表示部に表示される第2画像とが重なるように前記筐体が配置された場合の前記筐体の向きを基準方向として設定し、前記検知部で検知された加速度及び地磁気に基づいて、前記基準方向に対する前記筐体の向きを取得する制御部と、を備える
システム。 A system comprising an image display device and an electronic device,
Electronic equipment
A housing,
A transmissive display unit that can be seen from the other side and visible from the other side;
A detector for detecting acceleration and geomagnetism;
Setting the direction of the case when the case is arranged so that the first image displayed on the image display device and the second image displayed on the display unit overlap as a reference direction; A control unit that acquires the orientation of the housing with respect to the reference direction based on the acceleration and geomagnetism detected by the detection unit.
前記電子機器は、
前記画像表示装置と通信可能に接続されるインターフェイス部と、
画像を取得する撮像部と、
表示部と、
前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像を認識し、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させて、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して送信させる制御部と、を備える
システム。 A system comprising an image display device and an electronic device,
The electronic device is
An interface unit communicably connected to the image display device;
An imaging unit for acquiring an image;
A display unit;
When an image based on a third image displayed on the image display device is acquired by the imaging unit, the image acquired by the imaging unit is recognized, and based on the recognized image, at least a part of the subject When the fourth image is displayed on the display unit and a predetermined operation is performed on the fourth image, the fifth image based on the predetermined operation is displayed on the image display device. A control unit that transmits image data corresponding to the above-described image data via the interface unit.
前記電子機器は、
前記画像表示装置と通信可能に接続されるインターフェイス部と、
画像を取得する撮像部と、
表示部と、
前記画像表示装置に表示される第3画像に基づく画像が前記撮像部によって取得された場合、前記撮像部で取得された画像を認識し、認識した画像に基づいて、被写体の少なくとも一部に対しての第4画像を前記表示部に表示させて、前記第4画像に対して所定の動作が行われると、前記所定の動作に基づく第5画像を画像表示装置に表示させるよう前記第5画像に対応する画像データを、前記インターフェイス部を介して前記制御装置に送信させる制御部と、を備え、
前記制御装置は、前記電子機器から送信された画像データに基づいて前記画像表示装置に表示させるよう指示する
システム。 A system comprising an image display device, a control device that instructs display to the image display device, and an electronic device,
The electronic device is
An interface unit communicably connected to the image display device;
An imaging unit for acquiring an image;
A display unit;
When an image based on a third image displayed on the image display device is acquired by the imaging unit, the image acquired by the imaging unit is recognized, and based on the recognized image, at least a part of the subject When the fourth image is displayed on the display unit and a predetermined operation is performed on the fourth image, the fifth image based on the predetermined operation is displayed on the image display device. A control unit that causes the control device to transmit image data corresponding to the control unit via the interface unit,
The control device instructs the image display device to display based on image data transmitted from the electronic device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013094687A JP6133673B2 (en) | 2013-04-26 | 2013-04-26 | Electronic equipment and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013094687A JP6133673B2 (en) | 2013-04-26 | 2013-04-26 | Electronic equipment and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014216962A true JP2014216962A (en) | 2014-11-17 |
JP6133673B2 JP6133673B2 (en) | 2017-05-24 |
Family
ID=51942266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013094687A Expired - Fee Related JP6133673B2 (en) | 2013-04-26 | 2013-04-26 | Electronic equipment and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6133673B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107229400A (en) * | 2016-03-23 | 2017-10-03 | 精工爱普生株式会社 | The support method of display device, the support system of display device and electronic equipment |
US10242428B2 (en) | 2016-06-07 | 2019-03-26 | Samsung Display Co., Ltd. | Transparent display apparatus and driving method thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011166629A (en) * | 2010-02-12 | 2011-08-25 | Kyocera Corp | Portable electronic device |
JP2011227644A (en) * | 2010-04-19 | 2011-11-10 | Sony Corp | Image processing device, image processing method and program |
JP2012155655A (en) * | 2011-01-28 | 2012-08-16 | Sony Corp | Information processing device, notification method, and program |
-
2013
- 2013-04-26 JP JP2013094687A patent/JP6133673B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011166629A (en) * | 2010-02-12 | 2011-08-25 | Kyocera Corp | Portable electronic device |
JP2011227644A (en) * | 2010-04-19 | 2011-11-10 | Sony Corp | Image processing device, image processing method and program |
JP2012155655A (en) * | 2011-01-28 | 2012-08-16 | Sony Corp | Information processing device, notification method, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107229400A (en) * | 2016-03-23 | 2017-10-03 | 精工爱普生株式会社 | The support method of display device, the support system of display device and electronic equipment |
US10242428B2 (en) | 2016-06-07 | 2019-03-26 | Samsung Display Co., Ltd. | Transparent display apparatus and driving method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP6133673B2 (en) | 2017-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10591729B2 (en) | Wearable device | |
KR102411100B1 (en) | Method and appratus for processing screen using device | |
CN109683716B (en) | Visibility improvement method based on eye tracking and electronic device | |
JP6595597B2 (en) | Wearable device, control method, and control program | |
JP6510648B2 (en) | Wearable device, control method and control program | |
EP2956843B1 (en) | Human-body-gesture-based region and volume selection for hmd | |
EP2979154B1 (en) | Display device and control method thereof | |
US10254847B2 (en) | Device interaction with spatially aware gestures | |
US9225896B2 (en) | Mobile terminal device, storage medium, and display control method | |
US20140015794A1 (en) | Electronic device, control method, and control program | |
KR20140095635A (en) | A cover,an electronic device using the same and operating method thereof | |
US20230139775A1 (en) | User interface manipulation in a flexible screen device | |
KR102544320B1 (en) | Electronic apparatus and controlling method thereof | |
WO2014147715A1 (en) | Information processing device, control method, and program | |
JP6133673B2 (en) | Electronic equipment and system | |
KR102039948B1 (en) | Mobile terminal for rendering virtual organs in augmented/virtual reality and system thereof | |
US9300908B2 (en) | Information processing apparatus and information processing method | |
KR20150141048A (en) | Mobile terminal and method of controlling the same | |
KR20160068534A (en) | Mobile terminal and method for controlling the same | |
JP6686319B2 (en) | Image projection device and image display system | |
KR101397812B1 (en) | Input system of touch and drag type in remote | |
JP6968689B2 (en) | Electronic devices, wearable devices and display control methods | |
US11842119B2 (en) | Display system that displays virtual object, display device and method of controlling same, and storage medium | |
KR20200041090A (en) | Mobile device and, the method thereof | |
US20220374145A1 (en) | Electronic device for outputting keyboard interface and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6133673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |