JP5623238B2 - Electronic device, display control method, and display control program - Google Patents

Electronic device, display control method, and display control program Download PDF

Info

Publication number
JP5623238B2
JP5623238B2 JP2010241557A JP2010241557A JP5623238B2 JP 5623238 B2 JP5623238 B2 JP 5623238B2 JP 2010241557 A JP2010241557 A JP 2010241557A JP 2010241557 A JP2010241557 A JP 2010241557A JP 5623238 B2 JP5623238 B2 JP 5623238B2
Authority
JP
Japan
Prior art keywords
display
unit
display unit
image
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010241557A
Other languages
Japanese (ja)
Other versions
JP2012094014A (en
Inventor
上野 泰弘
泰弘 上野
茂輝 田辺
茂輝 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010241557A priority Critical patent/JP5623238B2/en
Publication of JP2012094014A publication Critical patent/JP2012094014A/en
Application granted granted Critical
Publication of JP5623238B2 publication Critical patent/JP5623238B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B11/00Teaching hand-writing, shorthand, drawing, or painting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • General Engineering & Computer Science (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)

Description

本発明は、ハガキ等の投影対象物に画像を投影可能な電子機器、表示制御方法および表示制御プログラムに関する。   The present invention relates to an electronic device capable of projecting an image onto a projection target such as a postcard, a display control method, and a display control program.

文字の書き方の練習のために、手本となる文字を表示面に表示させるとともに、利用者が手本となる文字をなぞった筆跡を、表示面に設けられた座標検出板を用いて検出する技術が知られている。この技術では、検出された筆跡と、手本となる文字との類似度に基づいて、文字の書き方についての評価がなされる(例えば、特許文献1参照)。   In order to practice writing, the model character is displayed on the display surface, and the handwriting traced by the user using the coordinate detection plate provided on the display surface is detected. Technology is known. In this technique, the character writing is evaluated based on the similarity between the detected handwriting and a model character (see, for example, Patent Document 1).

特開平10−63174号公報Japanese Patent Laid-Open No. 10-63174

しかしながら、上記の従来技術は、手書き入力の対象物として一般的な紙等に対して手本を表示させるものではない。このため、ユーザは、筆記道具を用いて紙に実際に文字を書く感触を得ることができない。   However, the above-described conventional technology does not display a model on general paper or the like as an object to be handwritten. For this reason, the user cannot obtain the feeling of actually writing a character on paper using a writing tool.

本発明は、ハガキ等の投影対象物に画像を投影可能な電子機器、表示制御方法および表示制御プログラムを提供することを目的とする。   An object of the present invention is to provide an electronic device, a display control method, and a display control program that can project an image onto a projection target such as a postcard.

上述した課題を解決し、目的を達成するために、本発明に係る電子機器は、表示部と、前記表示部の上に置かれた対象物を検出する検出部と、前記検出部によって検出された前記対象物に応じて、前記表示部の明るさを制御する表示制御部とを備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an electronic device according to the present invention is detected by a display unit, a detection unit that detects an object placed on the display unit, and the detection unit. And a display control unit that controls the brightness of the display unit according to the object.

ここで、前記表示制御部は、前記表示部に表示される画像が前記対象物を透過するように前記表示部の明るさを制御することが好ましい。   Here, it is preferable that the display control unit controls the brightness of the display unit so that an image displayed on the display unit passes through the object.

また、前記検出部は、前記表示部のどの範囲に前記対象物が置かれているかを検出し、前記表示制御部は、前記対象物が置かれている範囲以外の部分を黒く表示させることが好ましい。   The detection unit may detect in which range of the display unit the object is placed, and the display control unit may display a portion other than the range in which the object is placed in black. preferable.

また、前記検出部は、前記表示部のどの範囲に前記対象物が置かれているかを検出し、前記表示制御部は、前記対象物が置かれている範囲以外の部分の明るさを、前記対象物が置かれている範囲よりも低く設定することが好ましい。   Further, the detection unit detects in which range of the display unit the object is placed, and the display control unit determines the brightness of a portion other than the range in which the object is placed, It is preferable to set it lower than the range where the object is placed.

また、前記検出部は、前記対象物に対して描かれた線を検出することが好ましい。   Moreover, it is preferable that the said detection part detects the line drawn with respect to the said target object.

また、前記検出部は、前記表示部に設けられた光センサであることが好ましい。   Moreover, it is preferable that the said detection part is an optical sensor provided in the said display part.

また、前記検出部は、前記表示部を撮影する撮像装置であることが好ましい。   Moreover, it is preferable that the said detection part is an imaging device which image | photographs the said display part.

また、前記検出部は、前記表示部に重畳されたタッチセンサを含むことが好ましい。   The detection unit preferably includes a touch sensor superimposed on the display unit.

また、前記検出部は、前記表示部の上に置かれた対象物の厚さを検出し、前記表示制御部は、前記検出部によって検出された前記対象物の厚さに応じて、前記表示部の明るさを制御することが好ましい。   Further, the detection unit detects a thickness of an object placed on the display unit, and the display control unit displays the display according to the thickness of the object detected by the detection unit. It is preferable to control the brightness of the part.

また、上述した課題を解決し、目的を達成するために、本発明は、表示部を有する電子機器によって実行される表示制御方法であって、前記表示部の上に置かれた対象物を検出するステップと、検出された前記対象物に応じて、前記表示部の明るさを制御するステップとを含むことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a display control method executed by an electronic apparatus having a display unit, and detects an object placed on the display unit. And a step of controlling the brightness of the display unit in accordance with the detected object.

また、上述した課題を解決し、目的を達成するために、本発明は、表示制御プログラムであって、表示部を有する電子機器に、前記表示部の上に置かれた対象物を検出するステップと、検出された前記対象物に応じて、前記表示部の明るさを制御するステップとを実行させることを特徴とする。   Further, in order to solve the above-described problems and achieve the object, the present invention is a display control program for detecting an object placed on the display unit in an electronic device having the display unit. And controlling the brightness of the display unit in accordance with the detected object.

本発明の電子機器、表示制御方法および表示制御プログラムによれば、ハガキ等の投影対象物に画像を投影できる。   According to the electronic device, the display control method, and the display control program of the present invention, an image can be projected onto a projection target such as a postcard.

図1は、実施形態1に係る電子機器を備える通信システムの概略構成を示す模式図である。FIG. 1 is a schematic diagram illustrating a schematic configuration of a communication system including the electronic device according to the first embodiment. 図2は、実施形態1に係る電子機器の外観を示す図である。FIG. 2 is a diagram illustrating an external appearance of the electronic apparatus according to the first embodiment. 図3は、ディスプレイの断面を概略的に示す図である。FIG. 3 is a diagram schematically showing a cross section of the display. 図4は、対象物が置かれた場合のディスプレイを示す図である。FIG. 4 is a diagram illustrating a display when an object is placed. 図5は、図2に示す電子機器の機能の概略構成を示すブロック図である。FIG. 5 is a block diagram illustrating a schematic configuration of functions of the electronic device illustrated in FIG. 2. 図6は、ディスプレイに表示させた投影画像の一例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of a projected image displayed on the display. 図7は、投影画像と描写画像との位置ズレ状態を示す説明図である。FIG. 7 is an explanatory diagram illustrating a positional shift state between the projected image and the drawn image. 図8は、投影画像の投影位置を補正した後の状態を示す説明図である。FIG. 8 is an explanatory diagram showing a state after correcting the projection position of the projection image. 図9は、電子機器の処理部がディスプレイの明るさを調整する処理のフローチャートである。FIG. 9 is a flowchart of processing in which the processing unit of the electronic device adjusts the brightness of the display. 図10は、電子機器の処理部が投影画像の表示位置を補正する処理のフローチャートである。FIG. 10 is a flowchart of processing in which the processing unit of the electronic device corrects the display position of the projection image. 図11は、電子機器の処理部が投影画像の重複部分を削除補正する処理のフローチャートである。FIG. 11 is a flowchart of processing in which the processing unit of the electronic device deletes and corrects an overlapping portion of the projection image. 図12は、ハガキの表面に投影した投影画像の一例を示す説明図である。FIG. 12 is an explanatory diagram showing an example of a projected image projected on the surface of the postcard. 図13は、ハガキの裏面に投影した投影画像の一例を示す説明図である。FIG. 13 is an explanatory diagram illustrating an example of a projected image projected on the back surface of the postcard. 図14は、塗り絵画像の一例を示す説明図である。FIG. 14 is an explanatory diagram illustrating an example of a coloring picture image. 図15は、実施形態2に係る電子機器の外観を示す図である。FIG. 15 is a diagram illustrating an appearance of the electronic apparatus according to the second embodiment. 図16は、実施形態3に係る電子機器の外観を示す図である。FIG. 16 is a diagram illustrating an appearance of an electronic apparatus according to the third embodiment. 図17は、図16に示す電子機器のA−A’断面を概略的に示す図である。17 is a diagram schematically showing an A-A ′ cross section of the electronic apparatus shown in FIG. 16.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、下記の発明を実施するための形態(以下実施形態という)により本発明が限定されるものではない。また、下記の実施形態における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。   Hereinafter, the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by the form (henceforth embodiment) for implementing the following invention. In addition, constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range.

(実施形態1)
図1は、実施形態に係る電子機器を備える通信システムの概略構成を示す模式図である。本実施形態の電子機器10aは、通信システム1に組み込まれている。通信システム1は、ネットワーク上に設けられた各種サーバと通信端末としての電子機器10aとの間が通信可能に構成されている。
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating a schematic configuration of a communication system including the electronic device according to the embodiment. The electronic device 10a of this embodiment is incorporated in the communication system 1. The communication system 1 is configured to be able to communicate between various servers provided on a network and an electronic device 10a as a communication terminal.

図1に示す通信システム1は、サーバ2と、インターネット通信網3と、データベース4と、サーバ5と、無線通信装置6と、GPS衛星7と、電子機器10aとを有する。なお、通信システム1を構成する各部の数は、特に限定されず、各部ともに複数の装置を備えていてもよい。例えば、電子機器10aは、1つのサーバ2に対して複数設けられていてもよい。   A communication system 1 shown in FIG. 1 includes a server 2, an Internet communication network 3, a database 4, a server 5, a wireless communication device 6, a GPS satellite 7, and an electronic device 10a. In addition, the number of each part which comprises the communication system 1 is not specifically limited, Each part may be provided with the some apparatus. For example, a plurality of electronic devices 10a may be provided for one server 2.

サーバ2は、各通信装置を特定する情報(電話番号、アドレス)等の種々のデータを有し、通信網を介して電子機器10aと通信し、種々の情報を供給する。なお、サーバ2と電子機器10aは、基地局、中継局で形成され、無線で通信波を送受信する通信網により、通信を行う。また、通信網は、サーバ2と電子機器10aとの間で通信を行うことができれば、種々の通信方法を用いることができる。例えば、衛星回線を利用して通信を行ってもよい。   The server 2 has various data such as information (telephone number, address) specifying each communication device, and communicates with the electronic device 10a via the communication network to supply various information. The server 2 and the electronic device 10a communicate with each other through a communication network that is formed by a base station and a relay station and that wirelessly transmits and receives communication waves. The communication network can use various communication methods as long as communication can be performed between the server 2 and the electronic device 10a. For example, communication may be performed using a satellite line.

また、サーバ2は、電子機器10aから情報を受信し、その情報に基づいて、インターネット通信網3を介して、他の通信装置に情報を通信する、情報の中継も行う。つまり、サーバ2は、各通信装置から送られてくる情報を集約して記憶し、集約した情報を必要に応じて通信装置に供給(提供)する。なお、サーバ2は、集約した情報を加工(処理)して通信装置に供給することもできる。   The server 2 also receives information from the electronic device 10a, and based on the information, communicates information to other communication devices via the Internet communication network 3, and also relays information. That is, the server 2 collects and stores information sent from each communication device, and supplies (provides) the collected information to the communication device as necessary. The server 2 can also process (process) the collected information and supply it to the communication device.

インターネット通信網(以下「インターネット」ともいう)3は、交換機や、有線・無線の通信回線で構成されている。インターネット通信網3は、有線・無線の通信回線を用いて通信装置と他の通信装置との間での情報通信を行う。具体的には、インターネット3は、サーバ2とサーバ5との間での情報通信や、サーバ2とデータベース4との間での情報通信を行う。   The Internet communication network (hereinafter also referred to as “Internet”) 3 includes an exchange and a wired / wireless communication line. The Internet communication network 3 performs information communication between a communication device and another communication device using a wired / wireless communication line. Specifically, the Internet 3 performs information communication between the server 2 and the server 5 and information communication between the server 2 and the database 4.

データベース4は、記憶装置であり、各種画像情報等、電子機器10aでの処理に必要な種々のデータを記憶している。データベース4は、インターネット3を介して、記憶している各種情報をサーバ2またはサーバ5に供給する。   The database 4 is a storage device and stores various data necessary for processing in the electronic device 10a such as various image information. The database 4 supplies various stored information to the server 2 or the server 5 via the Internet 3.

サーバ5は、無線通信装置6を介して電子機器10aと通信し、種々の情報を受信し、供給する。なお、サーバ5は、電子機器10aとの通信方法が異なるのみで、他の構成は、基本的にサーバ2と同様である。   The server 5 communicates with the electronic device 10a via the wireless communication device 6 to receive and supply various information. Note that the server 5 is different only in the communication method with the electronic device 10a, and other configurations are basically the same as those of the server 2.

無線通信装置6は、電子機器10aと直接無線通信を行う通信機器である。無線通信装置6としては、例えば、近距離無線通信技術を用いて、他の通信装置と通信を行う通信部を用いることができる。なお、近距離無線通信技術としては、赤外線通信(IrDA(登録商標)、IrMC(登録商標)、IrSimple(登録商標))や、可視光通信や、Bluetooth(登録商標)や、磁界通信(RFID、Radio Frequency Identification)技術を用いることができる。   The wireless communication device 6 is a communication device that performs direct wireless communication with the electronic device 10a. As the wireless communication device 6, for example, a communication unit that communicates with another communication device using a short-range wireless communication technology can be used. As short-range wireless communication technologies, infrared communication (IrDA (registered trademark), IrMC (registered trademark), IrSimple (registered trademark)), visible light communication, Bluetooth (registered trademark), magnetic field communication (RFID, Radio Frequency Identification) technology can be used.

GPS衛星7は、GPS(Global Positioning System、全地球測位システム)の通信機能を備える通信装置(通信端末、通信機器)に、該通信機器の位置情報を送信(提供)する衛星である。なお、図1でGPS衛星7を1つのみ示したが、GPS衛星7は、通信装置の位置を特定するために必要な数(主として3つ、4つ)が配置されている。複数のGPS衛星7は、それぞれ電子機器10aに位置情報を送信する。   The GPS satellite 7 is a satellite that transmits (provides) position information of the communication device to a communication device (communication terminal, communication device) having a GPS (Global Positioning System) communication function. Although only one GPS satellite 7 is shown in FIG. 1, the GPS satellites 7 are arranged in a number (mainly three or four) necessary for specifying the position of the communication device. Each of the plurality of GPS satellites 7 transmits position information to the electronic device 10a.

電子機器10aは、例えば、表示部に画像を表示する機能を備える携帯通信機器である。なお、以下では、電子機器10aの一例として携帯通信機器を説明するが、本発明の適用対象は携帯通信機器に限定されず、例えば、PHS(Personal Handy phone System)、パソコン、携帯ゲーム機等にも本発明を適用できる。以下、電子機器10aについて、詳細に説明する。   The electronic device 10a is, for example, a portable communication device having a function of displaying an image on a display unit. Hereinafter, a portable communication device will be described as an example of the electronic device 10a. However, the application target of the present invention is not limited to the portable communication device. For example, the present invention is applied to a PHS (Personal Handy phone System), a personal computer, a portable game machine, and the like. The present invention can also be applied. Hereinafter, the electronic device 10a will be described in detail.

図2は、実施形態1に係る電子機器の外観を示す図である。図2に示すように、電子機器10aは、1つの箱型形状の筐体11の内部に各部が収納されたストレート式のものである。なお、電子機器10aとして、例えば、ヒンジで連結された2つの筐体を開閉可能に折り畳んだ、折り畳み式の電子機器を適用してもよい。また、電子機器10aとして、例えば、2つの筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の電子機器であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して両方の筐体を連結したものでもよい。   FIG. 2 is a diagram illustrating an external appearance of the electronic apparatus according to the first embodiment. As shown in FIG. 2, the electronic device 10 a is a straight type in which each part is housed in one box-shaped housing 11. As the electronic device 10a, for example, a foldable electronic device in which two housings connected by hinges are folded so as to be opened and closed may be applied. Further, the electronic device 10a may be, for example, a sliding electronic device in which one housing and the other housing can be slid from each other in a state where two housings are overlapped, A rotary type in which one casing is rotated around an axis along the direction, or both casings connected via a biaxial hinge may be used.

筐体11には、タッチパネル式のディスプレイ12aが設けられる。ディスプレイ12aは、各種画面を表示する表示部として機能するとともに、電子機器10aを操作する操作部として機能する。表示部として機能するディスプレイ12aは、電子機器10aが受信を待機している状態のときに待ち受け画像を表示したり、電子機器10aの操作を補助するために用いられるメニュー画像を表示したりする。操作部として機能するディスプレイ12aは、メール作成時等に文字を入力するために操作されたり、ディスプレイ12aに表示されるメニューの選択および決定や画面のスクロール等を行うために操作されたりする。   The housing 11 is provided with a touch panel display 12a. The display 12a functions as a display unit that displays various screens, and also functions as an operation unit that operates the electronic device 10a. The display 12a functioning as a display unit displays a standby image when the electronic device 10a is waiting for reception, or displays a menu image used to assist the operation of the electronic device 10a. The display 12a functioning as an operation unit is operated to input characters when creating an e-mail, etc., and is operated to select and determine a menu displayed on the display 12a, scroll the screen, and the like.

筐体11の内部には、アンテナが設けられている。アンテナは、無線通信に用いる送受信アンテナであり、電子機器10aと基地局との間で電子メール等に係る電波(電磁波)の送受信に用いられる。   An antenna is provided inside the housing 11. The antenna is a transmission / reception antenna used for wireless communication, and is used for transmission / reception of a radio wave (electromagnetic wave) related to an electronic mail or the like between the electronic device 10a and a base station.

図3は、ディスプレイ12aの断面を概略的に示す図であり、図4は、上に対象物Tが置かれた場合のディスプレイ12aを示す図である。図3に示すように、ディスプレイ12aは、表示パネル102の上に、タッチセンサ101を重畳して構成される。タッチセンサ101は、表面に対する接触を、接触された位置とともに検出する。なお、タッチセンサ101が接触を検出する方式としては、静電容量式、感圧式等の任意の方式を用いてよい。   FIG. 3 is a diagram schematically showing a cross section of the display 12a, and FIG. 4 is a diagram showing the display 12a when the object T is placed thereon. As shown in FIG. 3, the display 12 a is configured by superimposing a touch sensor 101 on a display panel 102. The touch sensor 101 detects contact with the surface together with the touched position. In addition, as a method for the touch sensor 101 to detect contact, an arbitrary method such as a capacitance type or a pressure-sensitive type may be used.

表示パネル102は、液晶ディスプレイ(LCD、Liquid Crystal Display)であり、光源であるバックライト104の上に、光センサ付き液晶パネル103を重畳して構成される。バックライト104は、例えば、冷陰極蛍光ランプやLED(Light Emitting Diode)が発する光を光センサ付き液晶パネル103へ供給する。   The display panel 102 is a liquid crystal display (LCD), and is configured by superimposing a liquid crystal panel 103 with an optical sensor on a backlight 104 which is a light source. For example, the backlight 104 supplies light emitted from a cold cathode fluorescent lamp or an LED (Light Emitting Diode) to the liquid crystal panel 103 with an optical sensor.

光センサ付き液晶パネル103には、複数の赤色画素105と、複数の緑色画素106と、複数の青色画素107と、複数の光センサ108とが配列される。赤色画素105は、バックライト104から供給される光を、赤い光として外部へ露出されるか、あるいは、遮断する。緑色画素106は、バックライト104から供給される光を、緑の光として外部へ露出されるか、あるいは、遮断する。青色画素107は、バックライト104から供給される光を、青い光として外部へ露出されるか、あるいは、遮断する。光センサ付き液晶パネル103は、例えば、1つの赤色画素105と、1つの緑色画素106と、1つの青色画素107との組み合わせを1つの画素として、カラー表示を行う。   A plurality of red pixels 105, a plurality of green pixels 106, a plurality of blue pixels 107, and a plurality of photosensors 108 are arranged on the liquid crystal panel 103 with photosensors. The red pixel 105 exposes or blocks light supplied from the backlight 104 as red light to the outside. The green pixel 106 exposes or blocks the light supplied from the backlight 104 as green light to the outside. The blue pixel 107 exposes or blocks the light supplied from the backlight 104 as blue light to the outside. The optical sensor-equipped liquid crystal panel 103 performs color display using, for example, a combination of one red pixel 105, one green pixel 106, and one blue pixel 107 as one pixel.

光センサ108は、外光、すなわち、バックライト104が設けられている側とは反対側から入射する光の強さを検出する。なお、図3では、1画素ごとに1つの光センサ108が設けられるように図示されているが、光センサ108をどのような密度で配置するかは適宜変更してよい。   The optical sensor 108 detects the intensity of external light, that is, light incident from the side opposite to the side where the backlight 104 is provided. Although FIG. 3 illustrates that one photosensor 108 is provided for each pixel, the density at which the photosensors 108 are arranged may be appropriately changed.

ここで、図4に示すように、紙等の対象物Tがディスプレイ12aの上に置かれたものとする。このとき、対象物Tが重なっていない部分では、光センサ108は、対象物Tに遮断されることなく外光を受光する。一方、対象物Tが重なっている部分では、対象物Tに遮られて、光センサ108に到達する外光は減光される。また、対象物Tが重なっている部分では、バックライト104が発光している場合には、赤色画素105等を通過した光の一部が対象物Tに反射して光センサ108に入射する。また、対象物Tが重なっている部分のうち、インク等で描かれた文字Lの下の部分では、文字Lに遮られて、光センサ108に到達する外光は大きく減光される。   Here, as shown in FIG. 4, it is assumed that an object T such as paper is placed on the display 12a. At this time, in a portion where the object T does not overlap, the optical sensor 108 receives outside light without being blocked by the object T. On the other hand, in the part where the target T overlaps, the external light that is blocked by the target T and reaches the optical sensor 108 is attenuated. In the portion where the object T overlaps, when the backlight 104 emits light, part of the light that has passed through the red pixel 105 is reflected by the object T and enters the optical sensor 108. Further, in the portion where the object T overlaps, the portion below the character L drawn with ink or the like is blocked by the character L, and the external light reaching the optical sensor 108 is greatly reduced.

このように、紙等の対象物Tがディスプレイ12aの上に置かれた場合、それぞれの光センサ108が検出する光の強さには差が生じる。この差を利用することで、対象物Tに関して、様々な情報を取得することができる。   Thus, when the object T such as paper is placed on the display 12a, a difference occurs in the intensity of light detected by the respective optical sensors 108. By using this difference, various information regarding the object T can be acquired.

例えば、バックライト104の発光を停止させて、それぞれの光センサ108が検出する光の強さを比較することにより、比較的弱い光を検出している光センサ108が存在する部分が対象物Tと重なっている部分であると判定できる。また、室内のように外光が弱い環境では、バックライト104を強く発光させて、それぞれの光センサ108が検出する光の強さを比較することにより、比較的強い光を検出している光センサ108が存在する部分が対象物Tと重なっている部分であると判定できる。   For example, by stopping the light emission of the backlight 104 and comparing the intensity of light detected by each of the optical sensors 108, the portion where the optical sensor 108 detecting relatively weak light is present is the target T. It can be determined that it is a part that overlaps. In an environment where the outside light is weak, such as in a room, the backlight 104 emits light strongly, and the intensity of light detected by each of the optical sensors 108 is compared to detect light that detects relatively strong light. It can be determined that the portion where the sensor 108 exists is a portion overlapping the object T.

また、対象物Tと重なっている部分の光センサ108が検出する光の強さL1と、対象物Tと重なっていない部分の光センサ108が検出する光の強さL2との比率から、対象物Tの光の透過度を取得することができる。対象物Tの光の透過度は、対象物Tの厚みを示す。例えば、L1/L2が、1に近い場合、対象物Tは光の透過度が高く、薄い物体であることを示す。そして、L1/L2が、1からより遠くなるほど、対象物Tは光の透過度がより低く、より厚い物体であることを示す。   Further, from the ratio of the light intensity L1 detected by the optical sensor 108 in the portion overlapping the target T and the light intensity L2 detected by the optical sensor 108 in the portion not overlapping the target T, the target The light transmittance of the object T can be acquired. The light transmittance of the object T indicates the thickness of the object T. For example, when L1 / L2 is close to 1, it indicates that the object T is a thin object with high light transmittance. Then, as L1 / L2 is further away from 1, it indicates that the object T is a thicker object with lower light transmittance.

また、対象物Tと重なっている部分と判定された部分に存在する光センサ108の中に、他の光センサ108よりも検出する光の強さが弱いものがあれば、その光センサ108は、文字Lのように何かが描かれた部分の下に位置していると判定できる。すなわち、光センサ108の検出結果に基づいて、ユーザが対象物Tの上に書いた文字の筆跡や、ユーザが対象物Tの上に描いた線等を検出することができる。   In addition, if there is an optical sensor 108 present in a portion determined to be overlapped with the object T that has a weaker light intensity than other optical sensors 108, the optical sensor 108 is , It can be determined that the object is located under a portion where something is drawn, such as the letter L. That is, based on the detection result of the optical sensor 108, it is possible to detect a handwriting of a character written on the object T by the user, a line drawn on the object T, or the like by the user.

図5は、図2に示す電子機器10aの機能の概略構成を示すブロック図である。図5に示すように、電子機器10aは、処理部22と、記憶部24と、外部記憶部25と、送受信部26と、操作部13と、表示部32と、近距離通信部36と、位置情報取得部42と、を有する。処理部22は、電子機器10aの全体的な動作を統括的に制御する機能を有する。すなわち、処理部22は、電子機器10aの各種の処理が、操作部13の操作や電子機器10aの記憶部24に記憶されるソフトウェアに応じて適切な手順で実行されるように、送受信部26、表示部32、近距離通信部36、位置情報取得部42等の動作を制御する。   FIG. 5 is a block diagram showing a schematic configuration of functions of the electronic apparatus 10a shown in FIG. As shown in FIG. 5, the electronic device 10a includes a processing unit 22, a storage unit 24, an external storage unit 25, a transmission / reception unit 26, an operation unit 13, a display unit 32, a short-range communication unit 36, A position information acquisition unit 42. The processing unit 22 has a function of comprehensively controlling the overall operation of the electronic device 10a. That is, the processing unit 22 transmits / receives the transmission / reception unit 26 so that various processes of the electronic device 10a are executed in an appropriate procedure according to the operation of the operation unit 13 and the software stored in the storage unit 24 of the electronic device 10a. The operation of the display unit 32, the short-range communication unit 36, the position information acquisition unit 42, and the like is controlled.

電子機器10aの各種の処理としては、例えば、電子メールの作成および送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、送受信部26、表示部32等の動作としては、例えば、送受信部26による信号の送受信、表示部32による画像の表示等がある。   Various processes of the electronic device 10a include, for example, creation and transmission / reception of an electronic mail, browsing of a Web (World Wide Web) site on the Internet, and the like. Examples of operations of the transmission / reception unit 26 and the display unit 32 include transmission / reception of signals by the transmission / reception unit 26 and display of images by the display unit 32.

処理部22は、記憶部24に記憶されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。処理部22は、例えば、マイクロプロセッサユニット(MPU:Micro Processing Unit)で構成され、ソフトウェアで指示された手順にしたがって上述した電子機器10aの各種の処理を実行する。すなわち、処理部22は、記憶部24に記憶されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。   The processing unit 22 executes processing based on a program (for example, an operating system program, application program, etc.) stored in the storage unit 24. The processing unit 22 is configured by, for example, a microprocessor unit (MPU: Micro Processing Unit), and executes various processes of the electronic device 10a described above according to procedures instructed by software. That is, the processing unit 22 sequentially reads instruction codes from an operating system program, application program, or the like stored in the storage unit 24 and executes processing.

処理部22は、複数のアプリケーションプログラムを実行する機能を有する。処理部22が実行するアプリケーションプログラムとしては、例えば、各種の画像ファイル(画像情報)を記憶部24から読み出してデコードするアプリケーションプログラム、およびデコードして得られる画像を表示部32に表示させるアプリケーションプログラム等の複数のアプリケーションプログラムがある。   The processing unit 22 has a function of executing a plurality of application programs. Examples of application programs executed by the processing unit 22 include an application program that reads various image files (image information) from the storage unit 24 and decodes them, and an application program that causes the display unit 32 to display images obtained by decoding. There are multiple application programs.

本実施形態において、処理部22は、表示部32の動作を制御する表示制御部22a、表示部32に置かれた対象物を判定する対象物判定部22b、対象物判定部22bの判定結果に基づいて対象物の対象物情報を取得する対象物情報取得部22c、表示部32に表示される画像の姿勢、位置を演算して算出する姿勢・位置演算部22d、表示部32に表示させる画像を加工し、生成する画像処理部22e、を有する。表示制御部22a、対象物判定部22b、対象物情報取得部22c、姿勢・位置演算部22d、画像処理部22eがそれぞれ有する機能は、処理部22および記憶部24で構成されるハードウェア資源が、処理部22の制御部が割り当てるタスクを実行することにより実現される。ここで、タスクとは、アプリケーションソフトウェアが行っている処理全体、または同じアプリケーションソフトウェアが行っている処理のうち、同時に実行できない処理単位である。   In the present embodiment, the processing unit 22 displays the determination result of the display control unit 22a that controls the operation of the display unit 32, the target determination unit 22b that determines the target placed on the display unit 32, and the target determination unit 22b. An object information acquisition unit 22c that acquires object information of an object based on the image, an attitude / position calculation unit 22d that calculates and calculates the attitude and position of an image displayed on the display unit 32, and an image that is displayed on the display unit 32 An image processing unit 22e for processing and generating the image. The functions of the display control unit 22a, the object determination unit 22b, the object information acquisition unit 22c, the posture / position calculation unit 22d, and the image processing unit 22e are hardware resources configured by the processing unit 22 and the storage unit 24, respectively. This is realized by executing a task assigned by the control unit of the processing unit 22. Here, a task is a processing unit that cannot be executed at the same time among the entire processing performed by the application software or the processing performed by the same application software.

記憶部24には、処理部22での処理に利用されるソフトウェアやデータが記憶されており、上述した、各種の画像ファイルを読み出してデコードするアプリケーションプログラムを作動させるタスクや、画像処理用プログラムを作動させるタスクが記憶されている。また、記憶部24には、これらのタスク以外にも、例えば、通信、ダウンロードされた音声データ、あるいは記憶部24に対する制御に処理部22が用いるソフトウェア、発信音や着信音等の音声ファイル、ソフトウェアの処理過程で用いられる一時的なデータ等が記憶されている。さらに、記憶部24は、紙等の対象物に関する対象物情報を記憶する対象物情報記憶部24aと、通信相手の電話番号やメールアドレス等が記述されて管理するアドレス帳や、操作部13により入力された文章を記憶するテキストデータ記憶部24bと、を有する。   The storage unit 24 stores software and data used for processing in the processing unit 22, and stores the above-described task for operating the application program for reading and decoding various image files, and the image processing program. The task to be activated is stored. In addition to these tasks, the storage unit 24 includes, for example, communication, downloaded voice data, software used by the processing unit 22 to control the storage unit 24, voice files such as dial tone and ringtone, software Temporary data used in the process is stored. Further, the storage unit 24 includes an object information storage unit 24a that stores object information related to an object such as paper, an address book that describes and manages a communication partner's telephone number and mail address, and the operation unit 13. A text data storage unit 24b for storing the input sentence.

なお、ソフトウェアの処理過程で用いられるコンピュータプログラムや一時的なデータは、処理部22によって記憶部24に割り当てられた作業領域へ一時的に記憶される。記憶部24は、例えば、不揮発性の記憶デバイス(ROM:Read Only Memory等の不揮発性半導体メモリ、ハードディスク装置等)や、読み書き可能な記憶デバイス(例えば、SRAM:Static Random Access Memory、DRAM:Dynamic Random Access Memory)等で構成される。   Note that computer programs and temporary data used in the software processing process are temporarily stored in the work area assigned to the storage unit 24 by the processing unit 22. The storage unit 24 includes, for example, a nonvolatile storage device (nonvolatile semiconductor memory such as ROM: Read Only Memory, a hard disk device, etc.), and a readable / writable storage device (for example, SRAM: Static Random Access Memory, DRAM: Dynamic Random Access Memory).

外部記憶部25は、外部メモリと、接続端子で構成され、外部メモリが筐体11に対して着脱可能な記憶装置である。外部メモリには、記憶部24と同様に各種ソフトウェアやデータが記憶されている。外部記憶部25は、接続端子を介して外部メモリと処理部22とを接続させることで、記憶部24と同様に、外部メモリに対して、情報の書き込み、読み取りを行う。なお、外部記憶部25は、外部メモリが着脱可能であるため、処理部22に接続する外部メモリを交換することができる。なお、外部メモリとしては、SDカード(登録商標)、メモリースティック(登録商標)、スマートメディア、USBメモリ等の各種記憶媒体を用いることができる。   The external storage unit 25 is a storage device that includes an external memory and connection terminals, and the external memory is detachable from the housing 11. Various software and data are stored in the external memory in the same manner as the storage unit 24. The external storage unit 25 connects the external memory and the processing unit 22 via a connection terminal, and writes and reads information to and from the external memory, similarly to the storage unit 24. In addition, since the external memory is detachable from the external storage unit 25, the external memory connected to the processing unit 22 can be exchanged. As the external memory, various storage media such as an SD card (registered trademark), a memory stick (registered trademark), smart media, and a USB memory can be used.

送受信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式等による無線信号回線を確立し、基地局との間で電話通信および情報通信を行う。操作部13は、上述したタッチパネル式のディスプレイ12aで構成され、ディスプレイ12aには、例えば、通話キー、数字キー、文字キー、方向キー、決定キー、発信キー等、各種の機能が割り当てられた操作画面が表示される。そして、操作画面上において、これらのキーがユーザの操作により入力されると、その操作内容に対応する信号を発生させる。発生した信号は、ユーザの指示として処理部22へ入力される。   The transmission / reception unit 26 has an antenna 26a, establishes a radio signal line by a CDMA (Code Division Multiple Access) method or the like with the base station via a channel assigned by the base station, and makes a telephone call with the base station. Perform communication and information communication. The operation unit 13 includes the touch panel display 12a described above, and the display 12a is assigned with various functions such as a call key, a numeric key, a character key, a direction key, a determination key, and a call key. A screen is displayed. When these keys are input by a user operation on the operation screen, a signal corresponding to the operation content is generated. The generated signal is input to the processing unit 22 as a user instruction.

表示部32は、上述したディスプレイ12aで構成され、処理部22から供給される映像データに応じた映像や画像データに応じた画像を表示パネル102に表示させる。   The display unit 32 includes the display 12a described above, and causes the display panel 102 to display a video corresponding to the video data supplied from the processing unit 22 and an image corresponding to the image data.

近距離通信部36は、近距離無線通信技術を用いて、他の通信装置と通信を行う通信部である。なお、近距離無線通信技術としては、赤外線通信(IrDA(登録商標)、IrMC(登録商標)、IrSimple(登録商標))や、可視光通信や、Bluetooth(登録商標)や、磁界通信(RFID、Radio Frequency Identification)技術を用いることができる。例えば、近距離通信部36は、磁界通信を用いる場合、自身を特定するICタグと、他の通信装置が有するICタグを読み取る読取部とを有する。   The short-range communication unit 36 is a communication unit that communicates with other communication devices using a short-range wireless communication technique. As short-range wireless communication technologies, infrared communication (IrDA (registered trademark), IrMC (registered trademark), IrSimple (registered trademark)), visible light communication, Bluetooth (registered trademark), magnetic field communication (RFID, Radio Frequency Identification) technology can be used. For example, when using the magnetic field communication, the short-range communication unit 36 includes an IC tag that identifies itself and a reading unit that reads an IC tag included in another communication device.

また、位置情報取得部42は、GPS衛星7から発信されるGPS信号を受信する通信部である。また、位置情報取得部42は、受信したGPS信号から電子機器10aの緯度経度を算出し、算出した緯度経度の情報を処理部22に送る。   The position information acquisition unit 42 is a communication unit that receives a GPS signal transmitted from the GPS satellite 7. Further, the position information acquisition unit 42 calculates the latitude and longitude of the electronic device 10 a from the received GPS signal, and sends the calculated latitude and longitude information to the processing unit 22.

次に、図6から図8を用いて、電子機器10aの動作の一例を説明する。図6は、ディスプレイ12aに表示させた投影画像の一例を示す説明図である。図7は、投影画像と描写画像との位置ズレ状態を示す説明図である。図8は、投影画像の投影位置を補正した後の状態を示す説明図である。   Next, an example of the operation of the electronic device 10a will be described with reference to FIGS. FIG. 6 is an explanatory diagram showing an example of a projected image displayed on the display 12a. FIG. 7 is an explanatory diagram illustrating a positional shift state between the projected image and the drawn image. FIG. 8 is an explanatory diagram showing a state after correcting the projection position of the projection image.

まず、電子機器10aは、記憶部24のテキストデータ記憶部24bに記憶された「横浜市都筑区」なるテキストデータを読み出し、読み出したテキストデータを、画像処理部22eにおいて投影画像P1として生成する。電子機器10aは、投影画像P1を生成したら、対象物Tが置かれたディスプレイ12aに投影画像P1を表示させる。対象物Tは、例えば、紙である。このとき、電子機器10aは、投影画像P1が対象物Tを透過して外部から視認できるように、対象物Tの光の透過度に応じて、ディスプレイ12aの明るさを調整する。   First, the electronic device 10a reads the text data “Tsuzuki Ward, Yokohama City” stored in the text data storage unit 24b of the storage unit 24, and generates the read text data as the projection image P1 in the image processing unit 22e. After generating the projection image P1, the electronic device 10a displays the projection image P1 on the display 12a on which the object T is placed. The object T is, for example, paper. At this time, the electronic device 10a adjusts the brightness of the display 12a according to the light transmittance of the target T so that the projection image P1 can be seen from the outside through the target T.

図9は、電子機器の処理部がディスプレイの明るさを調整する処理のフローチャートである。まず、対象物判定部22bが、ディスプレイ12aに対象物Tが置かれたことを検出する(ステップS1)。対象物Tが置かれたことの検出は、例えば、ユーザが対象物Tをディスプレイ12aに置いた後に操作部13に対して行う所定の操作に基づいて行うこととしてもよい。また、タッチセンサ101の検出結果に基づいて行うこととしてもよい。また、光センサ108の検出結果に基づいて行うこととしてもよい。   FIG. 9 is a flowchart of processing in which the processing unit of the electronic device adjusts the brightness of the display. First, the object determination unit 22b detects that the object T is placed on the display 12a (step S1). The detection that the target T is placed may be performed based on a predetermined operation performed on the operation unit 13 after the user places the target T on the display 12a, for example. Moreover, it is good also as performing based on the detection result of the touch sensor 101. FIG. Further, it may be performed based on the detection result of the optical sensor 108.

タッチセンサ101の検出結果を用いる場合、例えば、比較的広い範囲で、比較的弱い接触が検出された場合に、ディスプレイ12aに対象物Tが置かれたと判断すればよい。また、光センサ108の検出結果を用いる場合、例えば、光センサ108によって検出される光の強さが比較的強い領域と、比較的弱い領域とができ、一方の領域の形が矩形等の所定の形状であり、その面積が所定の範囲である場合に、ディスプレイ12aに対象物Tが置かれたと判断すればよい。   When the detection result of the touch sensor 101 is used, for example, when a relatively weak contact is detected in a relatively wide range, it may be determined that the object T is placed on the display 12a. When the detection result of the optical sensor 108 is used, for example, an area where the intensity of light detected by the optical sensor 108 is relatively strong and an area where the intensity is relatively weak can be formed, and the shape of one area is a predetermined shape such as a rectangle. If the area is within a predetermined range, it may be determined that the object T is placed on the display 12a.

続いて、対象物判定部22bは、光センサ108の検出結果に基づいて、ディスプレイ12aのどの範囲に対象物Tが置かれているかを判定する(ステップS2)。例えば、各光センサ108が検出する光の強さを二値化処理することによって、対象物Tが置かれている範囲を判定することができる。なお、対象物Tが置かれている部分と置かれていない部分での光センサ108の検出結果の差が顕著になるように、バックライト104の発光量を段階的に変化させ、差が最も大きく表れた際の検出結果を用いて判定を行うこととしてもよい。   Subsequently, the object determination unit 22b determines in which range of the display 12a the object T is placed based on the detection result of the optical sensor 108 (step S2). For example, the range in which the object T is placed can be determined by binarizing the light intensity detected by each optical sensor 108. Note that the amount of light emitted from the backlight 104 is changed stepwise so that the difference between the detection results of the optical sensor 108 between the portion where the target T is placed and the portion where the target T is not placed becomes significant. It is good also as determining using the detection result at the time of appearing large.

続いて、対象物判定部22bは、光センサ108の検出結果に基づいて、対象物Tの光の透過度を判定する(ステップS3)。対象物Tの光の透過度は、例えば、対象物Tが置かれている部分の光センサ108によって検出される光の強さと置かれていない部分の光センサ108によって検出される光の強さとの比率に基づいて判定される。なお、バックライト104の発光量を何段階かに段階的に変化させ、各段階での検出結果を用いて判定を行うこととしてもよい。   Subsequently, the object determination unit 22b determines the light transmittance of the object T based on the detection result of the optical sensor 108 (step S3). The light transmittance of the object T is, for example, the intensity of light detected by the optical sensor 108 in the portion where the object T is placed and the intensity of light detected by the optical sensor 108 in the portion where the object T is not placed. It is determined based on the ratio. Note that the amount of light emitted from the backlight 104 may be changed in stages, and the determination may be performed using the detection results in each stage.

続いて、表示制御部22aは、対象物Tの光の透過度に応じてバックライト104の発光量を変化させることにより、投影画像P1が対象物Tを透過して外部から視認できるようにディスプレイ12aの明るさを調整する(ステップS4)。通常、ディスプレイ12aの明るさは、50から200cdの範囲で変化するように制御されるが、ここでは、投影画像P1が対象物Tを透過するようにするために、通常の上限の2倍以上の500cd以上の明るさにされることもある。   Subsequently, the display control unit 22a changes the light emission amount of the backlight 104 in accordance with the light transmittance of the object T so that the projection image P1 can be seen from the outside through the object T. The brightness of 12a is adjusted (step S4). Normally, the brightness of the display 12a is controlled so as to change in the range of 50 to 200 cd, but here, in order to allow the projection image P1 to pass through the object T, it is at least twice the normal upper limit. The brightness may be more than 500 cd.

なお、ユーザがまぶしく感じることがないように、ディスプレイ12aの表示領域のうち、対象物Tが置かれていない部分については、黒または濃いグレーを表示させることが好ましい。また、バックライト104が、LEDのように部分的に点滅可能な光源を有する場合は、対象物Tが置かれていない部分については、光源を発光させない等して明るさを下げることが好ましい。   In order to prevent the user from feeling dazzling, it is preferable to display black or dark gray in the display area of the display 12a where the object T is not placed. In addition, when the backlight 104 has a light source that can be partially flashed, such as an LED, it is preferable to lower the brightness of a portion where the object T is not placed by not causing the light source to emit light.

図6に示すように、ディスプレイ12aの明るさを調整することにより、対象物Tを透過して、ユーザが、投影画像P1が視認できる状態となる。この状態において、ユーザは、投影画像P1を指標として描写画像P2を描く(図7参照)。つまり、ユーザは、投影画像P1である「横浜市都筑区」なる文章に倣って、対象物Tに「横浜市都筑区」なる文章を描くことで、対象物Tに対しバランスのよい描写画像P2を描くことが可能となる。   As shown in FIG. 6, by adjusting the brightness of the display 12 a, the projection image P <b> 1 can be visually recognized by the user through the target T. In this state, the user draws a depiction image P2 using the projection image P1 as an index (see FIG. 7). That is, the user draws the text “Yokohama City Tsuzuki Ward” on the target object T, following the text “Yokohama City Tsuzuki Ward” that is the projection image P1, so that the depiction image P2 is well balanced with respect to the target object T. Can be drawn.

このとき、図7に示すように、ユーザによって描かれた描写画像P2が投影画像P1に対して位置ズレする場合がある。この場合、ユーザは、投影画像P1と描写画像P2とが位置ズレした状態のままで、投影画像P1を指標としながら描写画像P2を描くと、バランスのよい描写画像P2を描くことは難しい。このため、電子機器10aは、投影画像P1に対し描写画像P2が位置ズレした場合、投影画像P1の表示位置を補正する。   At this time, as shown in FIG. 7, the depiction image P2 drawn by the user may be misaligned with respect to the projection image P1. In this case, if the user draws the depiction image P2 while using the projection image P1 as an index with the projection image P1 and the depiction image P2 being misaligned, it is difficult to draw the depiction image P2 having a good balance. For this reason, the electronic device 10a corrects the display position of the projection image P1 when the depiction image P2 is displaced from the projection image P1.

図10は、電子機器の処理部が投影画像の表示位置を補正する処理のフローチャートである。電子機器10aは、画像処理部22eにおいて生成された投影画像P1を取得する(ステップS10)。また、電子機器10aは、光センサ108の検出結果に基づいて、描写画像P2を取得する(ステップS11)。なお、描写画像P2を取得するに際して、外光が大きく減光して入射している部分を判別しやすいように、ユーザに気付かれないような短い期間だけ、ディスプレイ12aの明るさを調整してもよい。   FIG. 10 is a flowchart of processing in which the processing unit of the electronic device corrects the display position of the projection image. The electronic device 10a acquires the projection image P1 generated in the image processing unit 22e (step S10). Moreover, the electronic device 10a acquires the depiction image P2 based on the detection result of the optical sensor 108 (step S11). It should be noted that when acquiring the depiction image P2, the brightness of the display 12a is adjusted for a short period of time that is not noticed by the user so that it is easy to determine the portion where the external light is greatly diminished and incident. Also good.

処理部22は、ステップS10で投影画像P1を取得し、ステップS11で描写画像P2を取得すると、投影画像P1と描写画像P2との位置の差分をとり、投影画像P1に対し、描写画像P2が位置ズレしているか否かを判定する(ステップS12)。処理部22は、位置ズレしていると判定した場合(Yes)、位置の差分がなくなり描写画像P2に投影画像P1が合致するように、投影画像P1の表示位置を補正する(ステップS13)。一方で、処理部22は、位置ズレしていないと判定した場合(No)、再度、ステップS10に進んで、同様のフローを繰り返す。   When the processing unit 22 acquires the projection image P1 in step S10 and acquires the depiction image P2 in step S11, the processing unit 22 obtains a difference in position between the projection image P1 and the description image P2, and the description image P2 is compared with the projection image P1. It is determined whether or not the position is shifted (step S12). If it is determined that the position is shifted (Yes), the processing unit 22 corrects the display position of the projection image P1 so that the difference in position disappears and the projection image P1 matches the depiction image P2 (step S13). On the other hand, when it determines with the process part 22 not having misaligned (No), it progresses to step S10 again and repeats the same flow.

図8に示すように、投影画像P1の表示位置が補正されると、対象物Tに描かれた描写画像P2に対し、投影画像P1が合致する。これにより、ユーザは、補正後の投影画像P1を指標として描写画像P2を描くことができる。   As shown in FIG. 8, when the display position of the projection image P1 is corrected, the projection image P1 matches the depiction image P2 drawn on the object T. Thereby, the user can draw the depiction image P2 using the corrected projection image P1 as an index.

また、図8に示すように、投影画像P1は、ユーザによって描かれた描写画像P2と重複する重複部分P1aと、描写画像P2と重複しない非重複部分P1bとを有する。この場合、処理部22は、画像処理部22eにより投影画像P1の重複部分P1aを削除補正する。これにより、ディスプレイ12aでは、投影画像P1の重複部分P1aは表示されなくなり、一方、投影画像P1の非重複部分P1bは表示されたままとなる。   As shown in FIG. 8, the projection image P1 has an overlapping portion P1a that overlaps with the depiction image P2 drawn by the user, and a non-overlapping portion P1b that does not overlap with the description image P2. In this case, the processing unit 22 deletes and corrects the overlapping portion P1a of the projection image P1 by the image processing unit 22e. As a result, the overlapping portion P1a of the projection image P1 is not displayed on the display 12a, while the non-overlapping portion P1b of the projection image P1 remains displayed.

図11は、電子機器の処理部が投影画像の重複部分を削除補正する処理のフローチャートである。ステップS10と同様にして、投影画像P1を取得する(ステップS20)。また、電子機器10aは、ステップS11と同様にして、描写画像P2を取得する(ステップS21)。   FIG. 11 is a flowchart of processing in which the processing unit of the electronic device deletes and corrects an overlapping portion of the projection image. Similar to step S10, a projection image P1 is acquired (step S20). Moreover, the electronic device 10a acquires the depiction image P2 in the same manner as in step S11 (step S21).

処理部22は、ステップS20で投影画像P1を取得し、ステップS21で描写画像P2を取得すると、投影画像P1と描写画像P2との位置の差分をとり、投影画像P1が描写画像P2との重複部分P1aを有しているか否かを判定する(ステップS22)。処理部22は、投影画像P1が重複部分P1aを有していると判定した場合(Yes)、画像処理部22eにより投影画像P1の重複部分P1aを削除補正する(ステップS23)。一方で、処理部22は、投影画像P1が重複部分P1aを有していないと判定した場合(No)、再度、ステップS20に進んで、同様のフローを繰り返す。   When the processing unit 22 acquires the projection image P1 in step S20 and acquires the depiction image P2 in step S21, the processing unit 22 obtains a difference in position between the projection image P1 and the description image P2, and the projection image P1 overlaps the description image P2. It is determined whether or not the portion P1a is present (step S22). If the processing unit 22 determines that the projection image P1 has the overlapping portion P1a (Yes), the image processing unit 22e deletes and corrects the overlapping portion P1a of the projection image P1 (step S23). On the other hand, when it determines with the projection image P1 not having the duplication part P1a (No), the process part 22 progresses to step S20 again and repeats the same flow.

次に、図12および図13を用いて、電子機器10aの動作の他の一例を説明する。図12は、ハガキの表面に投影した投影画像の一例を示す説明図である。図13は、ハガキの裏面に投影した投影画像の一例を示す説明図である。   Next, another example of the operation of the electronic device 10a will be described with reference to FIGS. FIG. 12 is an explanatory diagram showing an example of a projected image projected on the surface of the postcard. FIG. 13 is an explanatory diagram illustrating an example of a projected image projected on the back surface of the postcard.

まず、電子機器10aは、投影対象物であるハガキHの表面に投影する「山田太郎」のアドレスデータを、記憶部24のテキストデータ記憶部24bから読み出す。「山田太郎」のアドレスデータには、郵便番号、住所、名前、電話番号およびメールアドレス等のテキストデータが記憶されている。   First, the electronic device 10 a reads the address data of “Taro Yamada” projected onto the surface of the postcard H, which is the projection target, from the text data storage unit 24 b of the storage unit 24. The address data of “Taro Yamada” stores text data such as a postal code, an address, a name, a telephone number, and an e-mail address.

続いて、電子機器10aは、ハガキHがディスプレイ12aに置かれたことを検出すると、ハガキHの置かれている範囲と、ハガキHの光の透過度とを判定する。そして、対象物情報取得部22cが、ハガキHの置かれている範囲の判定結果が示すハガキHの寸法と、ハガキHの光の透過度とに基づいて、対象物情報記憶部24aから対象物情報を取得する。その結果、処理部22は、ディスプレイ12aに置かれた対象物がハガキであることを認識する。   Subsequently, when the electronic device 10a detects that the postcard H is placed on the display 12a, the electronic device 10a determines the range in which the postcard H is placed and the light transmittance of the postcard H. And the target object information acquisition part 22c is based on the dimension of the postcard H which the determination result of the range in which the postcard H is set | placed, and the light transmittance of the postcard H from the target object information storage part 24a Get information. As a result, the processing unit 22 recognizes that the object placed on the display 12a is a postcard.

この後、処理部22は、取得したハガキHの対象物情報と、「山田太郎」のアドレスデータとに基づいて、アドレスデータをハガキHの表面に応じたレイアウトとする。つまり、ハガキHの表面の対象物情報は、郵便番号を記載する領域と、住所を記載する領域と、名前を記載する領域とを割付したレイアウト情報を有している。そして、処理部22は、アドレスデータの郵便番号をハガキHの郵便番号の領域に割付し、アドレスデータの住所をハガキHの住所の領域に割付し、アドレスデータの名前をハガキHの名前の領域に割付する。処理部22は、画像処理部22eによりレイアウト後のアドレスデータを投影画像P1として生成する。電子機器10aは、画像処理部22eで生成した投影画像P1を、ディスプレイ12aの明るさをハガキHの光の透過度に合わせて調整した上で、ディスプレイ12aに表示させることで、図12に示すように、「山田太郎」のアドレスデータを、ハガキHの表面のレイアウトに合わせて投影することができる。   Thereafter, the processing unit 22 sets the address data according to the surface of the postcard H based on the acquired object information of the postcard H and the address data of “Taro Yamada”. That is, the object information on the surface of the postcard H has layout information in which an area for describing a zip code, an area for describing an address, and an area for describing a name are allocated. Then, the processing unit 22 assigns the zip code of the address data to the postal code H area, assigns the address of the address data to the postcard H address area, and assigns the address data name to the postcard H name area. Assigned to. The processing unit 22 generates post-layout address data as the projection image P1 by the image processing unit 22e. The electronic device 10a displays the projection image P1 generated by the image processing unit 22e on the display 12a after adjusting the brightness of the display 12a in accordance with the light transmittance of the postcard H, as shown in FIG. Thus, the address data of “Taro Yamada” can be projected in accordance with the layout of the surface of the postcard H.

なお、ハガキHが、表面を上にしているか表面を下にしているかは、切手や郵便番号用の枠を光センサ108が検出しているか否かに基づいて判定することとしてもよい。また、ユーザの指定に基づいて判定することとしてもよい。また、ディスプレイ12aに置かれた対象物を撮影可能なカメラを電子機器10aに設け、カメラが撮影した画像に基づいて判定することとしてもよい。   Whether the postcard H faces up or down may be determined based on whether the optical sensor 108 detects a stamp or postal code frame. Moreover, it is good also as determining based on a user's designation | designated. Moreover, it is good also as determining based on the image which the camera which can image | photograph the target object put on the display 12a is provided in the electronic device 10a, and the camera image | photographed.

続いて、ハガキHが裏返されると、電子機器10aは、投影対象物であるハガキHの裏面に投影するテキストデータを、記憶部24のテキストデータ記憶部24bから読み出す。テキストデータには、所定の文章が予め記憶されている。   Subsequently, when the postcard H is turned over, the electronic device 10a reads text data to be projected on the back surface of the postcard H, which is a projection target, from the text data storage unit 24b of the storage unit 24. A predetermined sentence is stored in advance in the text data.

続いて、電子機器10aは、ハガキHがディスプレイ12aに置かれたことを検出すると、ハガキHの置かれている範囲と、ハガキHの光の透過度とを判定する。そして、対象物情報取得部22cが、ハガキHの置かれている範囲の判定結果が示すハガキHの寸法と、ハガキHの光の透過度とに基づいて、対象物情報記憶部24aから対象物情報を取得する。その結果、処理部22は、ディスプレイ12aに置かれた対象物がハガキであることを認識する。ハガキHが、表面を上にしていることは、例えば、切手や郵便番号用の枠を光センサ108が検出することによって判定される。   Subsequently, when the electronic device 10a detects that the postcard H is placed on the display 12a, the electronic device 10a determines the range in which the postcard H is placed and the light transmittance of the postcard H. And the target object information acquisition part 22c is based on the dimension of the postcard H which the determination result of the range in which the postcard H is set | placed, and the light transmittance of the postcard H from the target object information storage part 24a Get information. As a result, the processing unit 22 recognizes that the object placed on the display 12a is a postcard. Whether the postcard H faces up is determined, for example, by the optical sensor 108 detecting a stamp or postal code frame.

この後、処理部22は、取得したハガキHの対象物情報と、テキストデータとに基づいて、アドレスデータをハガキHの裏面に応じたレイアウトとする。つまり、ハガキHの裏面の対象物情報は、所定の領域に区分けされたレイアウト情報を有している。そして、処理部22は、テキストデータを所定の領域に割付し、画像処理部22eによりレイアウト後のテキストデータを投影画像P1として生成する。電子機器10aは、画像処理部22eで生成した投影画像P1を、ディスプレイ12aの明るさをハガキHの光の透過度に合わせて調整した上で、ディスプレイ12aに表示させることで、図13に示すように、所定のテキストデータを、ハガキHの裏面のレイアウトに合わせて投影することができる。   Thereafter, the processing unit 22 sets the address data according to the back surface of the postcard H based on the acquired object information of the postcard H and the text data. That is, the object information on the back side of the postcard H includes layout information divided into predetermined areas. Then, the processing unit 22 assigns the text data to a predetermined area, and the post-layout text data is generated as the projection image P1 by the image processing unit 22e. The electronic device 10a displays the projection image P1 generated by the image processing unit 22e on the display 12a after adjusting the brightness of the display 12a in accordance with the light transmittance of the postcard H, as shown in FIG. Thus, predetermined text data can be projected in accordance with the layout of the back side of the postcard H.

次に、図14を用いて、電子機器の動作の他の一例を説明する。図14は、塗り絵画像の一例を示す説明図である。電子機器10aは、記憶部24に記憶された投影画像P1である、塗り絵画像P1cと塗り絵画像P1cの色情報P1dとを、対象物Tを透過するようにディスプレイ12aに表示させている。塗り絵画像P1cは線画であり、色情報P1dは、塗り絵画像P1cに対応する色彩の情報である。色情報P1dは、色彩を表現する文字であるが、対応する色彩を表示してもよい。   Next, another example of the operation of the electronic device will be described with reference to FIG. FIG. 14 is an explanatory diagram illustrating an example of a coloring picture image. The electronic device 10a causes the display 12a to display the coloring image P1c and the color information P1d of the coloring image P1c, which are the projection images P1 stored in the storage unit 24, so as to pass through the object T. The coloring picture image P1c is a line drawing, and the color information P1d is color information corresponding to the coloring picture image P1c. The color information P1d is a character expressing a color, but a corresponding color may be displayed.

図14に示すように、塗り絵画像P1cおよび色情報P1dが対象物Tを透過するようにディスプレイ12aに表示されると、対象物Tには、塗り絵画像P1cおよび色情報P1dが投影される。この状態において、ユーザは、塗り絵画像P1cおよび色情報P1dを指標として、着色を行うことで描写画像P2を描く。   As shown in FIG. 14, when the coloring image P1c and the color information P1d are displayed on the display 12a so as to pass through the object T, the coloring image P1c and the color information P1d are projected onto the object T. In this state, the user draws the depiction image P2 by coloring using the coloring image P1c and the color information P1d as indices.

このとき、処理部22は、描いた描写画像P2が塗り絵画像P1cに対して位置ズレした場合、上記したように塗り絵画像P1cおよび色情報P1dの表示位置を補正することとしてもよい。また、処理部22は、描写画像P2と重複する塗り絵画像P1cの重複部分P1aを削除補正し、塗り絵画像P1cの非重複部分P1bを投影することとしてもよい。   At this time, when the drawn depiction image P2 is displaced from the coloring image P1c, the processing unit 22 may correct the display positions of the coloring image P1c and the color information P1d as described above. In addition, the processing unit 22 may delete and correct the overlapping part P1a of the coloring picture image P1c that overlaps the depiction image P2, and project the non-overlapping part P1b of the coloring picture image P1c.

上述してきたように、本実施形態では、ディスプレイ12a上に置かれた紙等の対象物の位置や光の透過度等を判定し、判定結果に基づいてディスプレイ12aの明るさを調整することとしたので、紙等を透過させて任意の画像を表示させることができる。   As described above, in the present embodiment, the position of a target object such as paper placed on the display 12a, the light transmittance, and the like are determined, and the brightness of the display 12a is adjusted based on the determination result. Therefore, an arbitrary image can be displayed through paper or the like.

(実施形態2)
実施形態1では、ディスプレイ12a上に置かれた紙等の対象物の位置や光の透過度等を判定するために光センサ108を用いることとしたが、光センサ108を用いなくても同様の効果を得ることができる。そこで、実施形態2では、光センサ108を用いない例について説明する。なお、以下の説明では、既に説明した部分と同様の部分には同一の符号を付して、重複する説明を省略することがある。
(Embodiment 2)
In the first embodiment, the optical sensor 108 is used to determine the position of a target object such as paper placed on the display 12a, the light transmittance, and the like. An effect can be obtained. In the second embodiment, an example in which the optical sensor 108 is not used will be described. In the following description, the same parts as those already described may be denoted by the same reference numerals, and redundant description may be omitted.

図15は、実施形態2に係る電子機器の外観を示す図である。図15に示すように、電子機器10bは、1つの箱型形状の筐体11の内部に各部が収納されたストレート式のものである。なお、電子機器10bは、折り畳み式、スライド式、回転式または2軸回転式等の筐体を有していてもよい。   FIG. 15 is a diagram illustrating an appearance of the electronic apparatus according to the second embodiment. As shown in FIG. 15, the electronic device 10 b is a straight type in which each part is housed in one box-shaped housing 11. The electronic device 10b may have a foldable, slidable, rotating, or biaxial rotating housing.

筐体11には、タッチパネル式のディスプレイ12bが設けられる。ディスプレイ12bは、各種画面を表示する表示部として機能するとともに、電子機器10bを操作する操作部として機能する。ディスプレイ12bは、光センサ108を備えない点を除いて、実施形態1で説明したディスプレイ12aと同様の装置である。   The housing 11 is provided with a touch panel display 12b. The display 12b functions as a display unit that displays various screens, and also functions as an operation unit that operates the electronic device 10b. The display 12b is the same device as the display 12a described in the first embodiment, except that the optical sensor 108 is not provided.

筐体11には、カメラ40が設けられる。カメラ40は、ディスプレイ12bに表示される画像を撮影することができるように、ディスプレイ12bの面とは離れた位置に設けられる。   The housing 11 is provided with a camera 40. The camera 40 is provided at a position away from the surface of the display 12b so that an image displayed on the display 12b can be taken.

電子機器10bは、カメラ40が撮影する画像に基づいて、ディスプレイ12b上に置かれた紙等の対象物を透過させて投影画像を表示させるための制御を行う。すなわち、電子機器10bは、カメラ40によって撮影される画像に基づいて、ディスプレイ12b上に対象物が置かれたことを検出するとともに、ディスプレイ12b上での対象物の位置と大きさとを検出する。   The electronic device 10b performs control for displaying a projection image by transmitting an object such as paper placed on the display 12b based on an image captured by the camera 40. That is, the electronic device 10b detects that the object is placed on the display 12b based on the image taken by the camera 40, and detects the position and size of the object on the display 12b.

また、電子機器10bは、カメラ40によって撮影される画像に基づいて、対象物を透過して投影画像が表示されるように、ディスプレイ12bの明るさを調整する。例えば、電子機器10bは、ディスプレイ12bの明るさを段階的に上げていきつつ、各段階において、カメラ40によって撮影される画像とディスプレイ12bに表示している投影画像とを比較する。そして、電子機器10bは、投影画像と合致する画像がカメラ40によって撮影された段階でディスプレイ12bの明るさを固定する。   In addition, the electronic device 10b adjusts the brightness of the display 12b based on the image captured by the camera 40 so that the projection image is displayed through the object. For example, the electronic device 10b compares the image captured by the camera 40 with the projected image displayed on the display 12b at each step while gradually increasing the brightness of the display 12b. Then, the electronic device 10b fixes the brightness of the display 12b at the stage when the camera 40 captures an image that matches the projected image.

また、電子機器10bは、カメラ40によって撮影される画像に基づいて、ユーザが対象物のどこに文字等を描いたかを検出し、検出結果に基づいて、位置ズレにともなう投影画像の表示位置の調整、投影画像の重複部分を削除補正等の処理を実行する。   Further, the electronic device 10b detects where the user has drawn a character or the like on the object based on the image captured by the camera 40, and adjusts the display position of the projection image due to the positional deviation based on the detection result. Then, processing such as deletion correction is performed on the overlapped portion of the projection image.

上述してきたように、本実施形態では、カメラ40を設けることとしたので、光センサ108を用いることなく、実施形態1と同様の効果を得ることができる。   As described above, in this embodiment, since the camera 40 is provided, the same effect as that of the first embodiment can be obtained without using the optical sensor 108.

(実施形態3)
実施形態1および2では、表示部として、バックライトを光源とする液晶ディスプレイを用いることとしたが、表示部の構成は、これに限定されない。例えば、表示部として、有機EL(Organic Electro−Luminescence)パネル等の自発光型の表示パネルを用いることもできる。また、表示部として、プロジェクタを用いることもできる。そこで、実施形態3では、表示部としてプロジェクタを用いる例について説明する。
(Embodiment 3)
In Embodiments 1 and 2, a liquid crystal display using a backlight as a light source is used as the display unit, but the configuration of the display unit is not limited to this. For example, a self-luminous display panel such as an organic EL (Organic Electro-Luminescence) panel may be used as the display unit. A projector can also be used as the display unit. In the third embodiment, an example in which a projector is used as the display unit will be described.

図16は、実施形態3に係る電子機器の外観を示す図である。図17は、図16に示す電子機器のA−A’断面を概略的に示す図である。図16に示すように、電子機器10cは、1つの箱型形状の筐体11の内部に各部が収納されたストレート式のものである。なお、電子機器10cは、折り畳み式、スライド式、回転式または2軸回転式等の筐体を有していてもよい。   FIG. 16 is a diagram illustrating an appearance of an electronic apparatus according to the third embodiment. 17 is a diagram schematically showing an A-A ′ cross section of the electronic apparatus shown in FIG. 16. As shown in FIG. 16, the electronic device 10 c is a straight type in which each part is housed in one box-shaped housing 11. The electronic device 10c may have a foldable, slidable, rotary, or biaxial rotary housing.

筐体11には、タッチパネル式のディスプレイ12cが設けられる。ディスプレイ12cは、各種画面を表示する表示部として機能するとともに、電子機器10cを操作する操作部として機能する。ディスプレイ12cは、光源と、画像データに基づいて、光源から射出された光を投影するか否かを切り換える光学系とで構成されている。本実施形態において、ディスプレイ12cは、光源である可視光照射装置110と、光学系である描画装置111とを含む。   The housing 11 is provided with a touch panel display 12c. The display 12c functions as a display unit that displays various screens, and also functions as an operation unit that operates the electronic device 10c. The display 12c includes a light source and an optical system that switches whether to project the light emitted from the light source based on the image data. In the present embodiment, the display 12c includes a visible light irradiation device 110 that is a light source and a drawing device 111 that is an optical system.

可視光照射装置110は、可視光のレーザー光を照射する。可視光領域の光は、短波長側が360nm以上400nm以下、長波長側が760nm以上830nm以下の光であり、本実施形態において、可視光照射装置110は、R(Red)、G(Green)、B(Blue)の3色の光を照射する。   The visible light irradiation device 110 emits visible laser light. The light in the visible light region is light of 360 nm to 400 nm on the short wavelength side and light of 760 nm to 830 nm on the long wavelength side. In this embodiment, the visible light irradiation device 110 has R (Red), G (Green), B Irradiate light of three colors (Blue).

描画装置111は、可視光照射装置110から照射される3色の光を合成するとともに、画像投影対象に照射する。描画装置111は、光源から射出された光を透過させるか否かを切り換える切り換え素子、および当該切り換え素子を通過した光をラスター走査させるミラーを含んで構成される。そして、描画装置111は、ミラーによって可視光照射装置110から射出されたレーザー光の角度を変えて、画像投影対象にレーザー光を走査させることで、画像投影対象に画像を投影させる。   The drawing device 111 combines the three colors of light emitted from the visible light irradiation device 110 and irradiates the image projection target. The drawing apparatus 111 includes a switching element that switches whether to transmit light emitted from a light source, and a mirror that performs raster scanning of light that has passed through the switching element. Then, the drawing device 111 changes the angle of the laser light emitted from the visible light irradiation device 110 by a mirror and causes the image projection target to scan the laser light, thereby projecting an image onto the image projection target.

ミラーとしては、例えば、MEMS(Micro Electro Mechanical System)ミラーが用いられる。MEMSミラーは、圧電素子を利用してミラーを駆動して、可視光照射装置110から照射される可視光を走査し、可視画像や不可視画像を生成する。この場合は、ミラーによって光源から照射された光の角度を変えて、画像投影対象の全面に光源から照射された光を走査させることで、投影対象物に可視画像や不可視画像を投影させることができる。このように、ディスプレイ12cは、スキャン方式のプロジェクタである。   As the mirror, for example, a micro electro mechanical system (MEMS) mirror is used. A MEMS mirror drives a mirror using a piezoelectric element, scans the visible light irradiated from the visible light irradiation apparatus 110, and produces | generates a visible image and an invisible image. In this case, by changing the angle of light emitted from the light source by the mirror and scanning the light emitted from the light source over the entire surface of the image projection target, a visible image or an invisible image can be projected onto the projection target. it can. As described above, the display 12c is a scanning projector.

なお、ディスプレイ12cの構成は、上述したレーザーを光源とするものに限定されるものではない。例えば、ディスプレイ12cは、ハロゲンライトや、LED光源、LD光源を光源とし、LCD(Liquid Crystal Display)や、DMD(Digital Micro-mirror Device)を光学系に備える構成のプロジェクタを用いてもよい。   In addition, the structure of the display 12c is not limited to what uses the laser mentioned above as a light source. For example, the display 12c may be a projector that uses a halogen light, an LED light source, or an LD light source as a light source and includes an LCD (Liquid Crystal Display) or DMD (Digital Micro-mirror Device) in an optical system.

また、ディスプレイ12cは、タッチセンサ101が重畳されるフィルタ109に複数の光センサ108を有する。ディスプレイ12cが有する光センサ108は、実施形態1における光センサ108と同様に機能する。なお、光センサ108に替えて、カメラ40を備えるように電子機器10cを構成してもよい。   In addition, the display 12c includes a plurality of optical sensors 108 on a filter 109 on which the touch sensor 101 is superimposed. The optical sensor 108 included in the display 12c functions in the same manner as the optical sensor 108 in the first embodiment. Instead of the optical sensor 108, the electronic device 10c may be configured to include the camera 40.

上述してきたように、表示部として、液晶ディスプレイ以外の装置を用いても、実施形態1および2と同様の効果を得ることができる。   As described above, even when an apparatus other than the liquid crystal display is used as the display unit, the same effect as in the first and second embodiments can be obtained.

(その他の実施形態)
なお、上記の各実施形態で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができ、また、任意に組み合わせることができる。例えば、上記の各実施形態では、表示部がカラー表示可能であることとしていたが、表示部はモノクロ表示であってもよい。
(Other embodiments)
In addition, the aspect of this invention shown by said each embodiment can be arbitrarily changed in the range which does not deviate from the summary of this invention, and can be combined arbitrarily. For example, in each of the embodiments described above, the display unit is capable of color display, but the display unit may be monochrome display.

また、上記の各実施形態では、ユーザが対象物に書いた文字等を光センサ108やカメラ40を用いて検出することとしたが、タッチセンサ101の検出結果に基づいて、ユーザが書いた文字等を検出することとしてもよい。また、光センサ108、カメラ40およびタッチセンサ101を組み合わせて用いることにより、ユーザが書いた文字等の検出精度を向上させることもできる。   In each of the above embodiments, the character or the like written on the object by the user is detected using the optical sensor 108 or the camera 40. However, the character written by the user based on the detection result of the touch sensor 101 is used. Etc. may be detected. In addition, by using the optical sensor 108, the camera 40, and the touch sensor 101 in combination, it is possible to improve the detection accuracy of characters written by the user.

また、光センサ108が色を検出することができるようにしてもよい。例えば、3つの光センサ108を組み合わせて用いることとし、組み合わされる各光センサ108に、R(Red)、G(Green)、B(Blue)のフィルタをそれぞれ設ける。こうして、光センサ108が色を検出することができるようにすることで、対象物の識別精度を向上させることができる。具体的には、対象物の種別ごとに色に関する情報を対象物情報記憶部24aに記憶させておき、光センサ108が検出した対象物の色を、対象物情報記憶部24aの情報と照合することで、対象物をより高精度に識別することが可能になる。その結果、表示部の明るさの制御等もより適切に行われるようになる。   Further, the optical sensor 108 may be able to detect the color. For example, three optical sensors 108 are used in combination, and R (Red), G (Green), and B (Blue) filters are respectively provided in the combined optical sensors 108. Thus, by allowing the optical sensor 108 to detect the color, the identification accuracy of the object can be improved. Specifically, information on the color for each type of object is stored in the object information storage unit 24a, and the color of the object detected by the optical sensor 108 is collated with the information in the object information storage unit 24a. This makes it possible to identify the object with higher accuracy. As a result, the brightness of the display unit is more appropriately controlled.

以上のように、本発明に係る電子機器、表示制御方法および表示制御プログラムは、ハガキ等の投影対象物に画像を投影する場合に適している。   As described above, the electronic device, the display control method, and the display control program according to the present invention are suitable for projecting an image on a projection target such as a postcard.

10a、10b、10c 電子機器
11 筐体
12a、12b、12c ディスプレイ
13 操作部
22 処理部
22a 表示制御部
22b 対象物判定部
22c 対象物情報取得部
22d 姿勢・位置演算部
22e 画像処理部
24 記憶部
24a 対象物情報記憶部
24b テキストデータ記憶部
25 外部記憶部
26 送受信部
32 表示部
36 近距離通信部
40 カメラ
101 タッチセンサ
102 表示パネル
103 光センサ付き液晶パネル
104 バックライト
108 光センサ
109 フィルタ
110 可視光照射装置
111 描画装置
10a, 10b, 10c Electronic device 11 Housing 12a, 12b, 12c Display 13 Operation unit 22 Processing unit 22a Display control unit
22b Object determination unit 22c Object information acquisition unit 22d Posture / position calculation unit 22e Image processing unit 24 Storage unit 24a Object information storage unit 24b Text data storage unit 25 External storage unit 26 Transmission / reception unit 32 Display unit 36 Short-range communication unit 40 Camera 101 Touch sensor 102 Display panel 103 Liquid crystal panel with optical sensor 104 Backlight 108 Optical sensor 109 Filter 110 Visible light irradiation device 111 Drawing device

Claims (10)

表示部と、
前記表示部の上に置かれた対象物を検出する検出部と、
前記検出部によって検出された前記対象物に応じて、前記表示部の明るさを制御する表示制御部とを備え
前記表示制御部は、前記表示部に表示される画像が前記対象物を透過するように前記表示部の明るさを制御することを特徴とする電子機器。
A display unit;
A detection unit for detecting an object placed on the display unit;
A display control unit that controls the brightness of the display unit according to the object detected by the detection unit ;
The display controller, an electronic apparatus in which the image to be displayed on the display unit is characterized that you control the brightness of the display unit so as to transmit the object.
表示部と、
前記表示部の上に置かれた対象物を検出する検出部と、
前記検出部によって検出された前記対象物に応じて、前記表示部の明るさを制御する表示制御部とを備え、
前記検出部は、前記表示部のどの範囲に前記対象物が置かれているかを検出し、
前記表示制御部は、前記対象物が置かれている範囲以外の部分を黒く表示させることを特徴とする電子機器。
A display unit;
A detection unit for detecting an object placed on the display unit;
A display control unit that controls the brightness of the display unit according to the object detected by the detection unit;
The detection unit detects in which range of the display unit the object is placed,
The display controller, a child device electrostatic you characterized by displaying in black the portion other than the range where the object is located.
前記検出部は、前記表示部のどの範囲に前記対象物が置かれているかを検出し、
前記表示制御部は、前記対象物が置かれている範囲以外の部分の明るさを、前記対象物が置かれている範囲よりも低く設定することを特徴とする請求項1に記載の電子機器。
The detection unit detects in which range of the display unit the object is placed,
The electronic device according to claim 1, wherein the display control unit sets a brightness of a portion other than a range where the object is placed lower than a range where the object is placed. .
表示部と、
前記表示部の上に置かれた対象物を検出する検出部と、
前記検出部によって検出された前記対象物に応じて、前記表示部の明るさを制御する表示制御部とを備え、
前記検出部は、前記対象物に対して描かれた線を検出することを特徴とする電子機器。
A display unit;
A detection unit for detecting an object placed on the display unit;
A display control unit that controls the brightness of the display unit according to the object detected by the detection unit;
The detector shall be the characteristic electronic device to detect a line drawn relative to the object.
表示部と、
前記表示部の上に置かれた対象物を検出する検出部と、
前記検出部によって検出された前記対象物に応じて、前記表示部の明るさを制御する表示制御部とを備え、
前記検出部は、前記表示部を撮影する撮像装置であることを特徴とする電子機器。
A display unit;
A detection unit for detecting an object placed on the display unit;
A display control unit that controls the brightness of the display unit according to the object detected by the detection unit;
Wherein the detection unit, wherein the to that electronic equipment that is an imaging device for photographing the display unit.
表示部と、
前記表示部の上に置かれた対象物を検出する検出部と、
前記検出部によって検出された前記対象物に応じて、前記表示部の明るさを制御する表示制御部とを備え、
前記検出部は、前記表示部の上に置かれた対象物の厚さを検出し、
前記表示制御部は、前記検出部によって検出された前記対象物の厚さに応じて、前記表示部の明るさを制御することを特徴とする電子機器。
A display unit;
A detection unit for detecting an object placed on the display unit;
A display control unit that controls the brightness of the display unit according to the object detected by the detection unit;
The detection unit detects a thickness of an object placed on the display unit,
The display controller, in response to said thickness of said object detected by the detecting unit, wherein the to that electronic devices to control the brightness of the display unit.
前記検出部は、前記表示部に設けられた光センサであることを特徴とする請求項1からのいずれか1項に記載の電子機器。 Wherein the detection unit, an electronic device according to any one of claims 1 4, characterized in that a light sensor provided on the display unit. 前記検出部は、前記表示部に重畳されたタッチセンサを含むことを特徴とする請求項またはに記載の電子機器。 Wherein the detection unit, the electronic device according to claim 5 or 7, characterized in that it comprises a touch sensor superimposed on the display unit. 表示部を有する電子機器によって実行される表示制御方法であって、
前記表示部の上に置かれた対象物を検出するステップと、
検出された前記対象物を前記表示部に表示される画像が透過するように、前記表示部の明るさを制御するステップと
を含むことを特徴とする表示制御方法。
A display control method executed by an electronic device having a display unit,
Detecting an object placed on the display unit;
Controlling the brightness of the display unit so that an image displayed on the display unit is transmitted through the detected object.
表示部を有する電子機器に、
前記表示部の上に置かれた対象物を検出するステップと、
検出された前記対象物を前記表示部に表示される画像が透過するように、前記表示部の明るさを制御するステップと
を実行させることを特徴とする表示制御プログラム。
For electronic devices with a display
Detecting an object placed on the display unit;
And a step of controlling the brightness of the display unit so that an image displayed on the display unit is transmitted through the detected object.
JP2010241557A 2010-10-27 2010-10-27 Electronic device, display control method, and display control program Active JP5623238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010241557A JP5623238B2 (en) 2010-10-27 2010-10-27 Electronic device, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010241557A JP5623238B2 (en) 2010-10-27 2010-10-27 Electronic device, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2012094014A JP2012094014A (en) 2012-05-17
JP5623238B2 true JP5623238B2 (en) 2014-11-12

Family

ID=46387254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010241557A Active JP5623238B2 (en) 2010-10-27 2010-10-27 Electronic device, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP5623238B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102138349B1 (en) * 2013-09-02 2020-07-27 삼성전자주식회사 Method for controlling brightness of a display and an electronic device implementing the same
JP6769391B2 (en) * 2017-05-26 2020-10-14 京セラドキュメントソリューションズ株式会社 Data management system, data management method, data management device and data management program
WO2023234062A1 (en) * 2022-05-31 2023-12-07 京セラ株式会社 Data acquisition apparatus, data acquisition method, and data acquisition stand

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6113870U (en) * 1984-06-29 1986-01-27 貞男 小林 Copying base
JPS6167880A (en) * 1984-09-11 1986-04-08 田辺 和子 Writing teaching aid
JPH04168473A (en) * 1990-10-31 1992-06-16 Sanyo Electric Co Ltd Device for training in character
JP2001100629A (en) * 1999-09-30 2001-04-13 Toshiyuki Suzuki Penmanship and painting self-learning system with desktop plane-setting liquid crystal display device
JP2001235704A (en) * 2000-02-24 2001-08-31 Totoku Electric Co Ltd Medical picture display device
JP2004246117A (en) * 2003-02-14 2004-09-02 Matsushita Electric Ind Co Ltd Backlight device
JP4552484B2 (en) * 2004-03-31 2010-09-29 ブラザー工業株式会社 Image input / output device
JP2006113424A (en) * 2004-10-18 2006-04-27 Seiko Epson Corp Display apparatus
JP2007011233A (en) * 2005-07-04 2007-01-18 Toshiba Matsushita Display Technology Co Ltd Flat display device and imaging method using same
JP4761523B2 (en) * 2005-09-06 2011-08-31 学校法人 関西大学 Writing practice system and writing practice program
CN101657826B (en) * 2007-02-15 2013-05-29 S·卡尔 Note capture device
CN101627350A (en) * 2007-03-26 2010-01-13 夏普株式会社 Pointing device and display device using the same
JP2010224404A (en) * 2009-03-25 2010-10-07 Seiko Epson Corp Display device

Also Published As

Publication number Publication date
JP2012094014A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
US9927223B2 (en) Distance image acquisition apparatus and distance image acquisition method
US8942769B2 (en) Mobile electronic device
JP5259010B2 (en) Portable electronic device and projection system
JP5420365B2 (en) Projection device
US20160173840A1 (en) Information output control device
JP5520517B2 (en) Portable electronic devices
JP2014157482A (en) Operation display system
US9097966B2 (en) Mobile electronic device for projecting an image
JP2006523067A (en) How to display an output image on an object
WO2010047256A1 (en) Imaging device, display image device, and electronic device
US20130169678A1 (en) Mobile electronic device and control method of mobile electronic device
CN105100590A (en) Image display and photographing system, photographing device, and display device
JP2011065348A (en) Conference system, display device, display control method, and display control program
JP5623238B2 (en) Electronic device, display control method, and display control program
JP5615651B2 (en) Electronic equipment and projection system
JP6597259B2 (en) Program, information processing apparatus, image display method, and image processing system
JP2011248149A (en) Portable electronic device and image projection unit
JP5665570B2 (en) Electronics
US20230188855A1 (en) Installation assistance apparatus, installation assistance method, and non-transitory computer-readable storage medium
JP5606888B2 (en) Portable electronic devices
JP5774294B2 (en) Portable electronic devices
JP2013070218A (en) Projection apparatus
JP2011253325A (en) Input support device, input support method and program
JP2010062938A (en) Image display/image detection apparatus
JP5646886B2 (en) Portable electronic device and image projection unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140924

R150 Certificate of patent or registration of utility model

Ref document number: 5623238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150