JP2010028412A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2010028412A
JP2010028412A JP2008186838A JP2008186838A JP2010028412A JP 2010028412 A JP2010028412 A JP 2010028412A JP 2008186838 A JP2008186838 A JP 2008186838A JP 2008186838 A JP2008186838 A JP 2008186838A JP 2010028412 A JP2010028412 A JP 2010028412A
Authority
JP
Japan
Prior art keywords
unit
correction
projection
image
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008186838A
Other languages
Japanese (ja)
Inventor
Tomoyuki Nakai
智至 仲井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008186838A priority Critical patent/JP2010028412A/en
Publication of JP2010028412A publication Critical patent/JP2010028412A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Telephone Function (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Set Structure (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic device such as a cellular phone which carries a projector function capable of performing appropriate correction corresponding to a surface on which an image is projected according to an operating condition. <P>SOLUTION: The cellular phone 100 having the function as a projector detects relation between an installation position of the cellular phone 100 and a projection surface by determining whether to perform wall surface projection or to perform desk surface projection based on detection by a pair of proximity object sensors 36a, 36b and also considering a detection result for a rotation angle of a display part 1 and an operation part 2 by detection by an angle sensor 37. Thus, since the cellular phone 100 corrects an image from a detected result, appropriate correction is performed corresponding to the surface on which the image is projected according to the operating condition as the projector. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、投射画像を形成することのできるプロジェクタ機能を有する携帯型の電子機器に関する。   The present invention relates to a portable electronic device having a projector function capable of forming a projected image.

携帯電話にプロジェクタ機能が搭載されたものが知られており、特に、折りたたみ可能な構造を有した携帯電話において、投射像の台形状の歪みを補正するものが知られている(特許文献1参照)。
特開2006−91111号公報
A mobile phone having a projector function is known, and in particular, a mobile phone having a foldable structure is known that corrects trapezoidal distortion of a projected image (see Patent Document 1). ).
JP 2006-91111 A

しかしながら、例えば携帯電話のような携帯型のプロジェクタ機能を有する電子機器によって画像を投射する場合、画像を投射する面が使用状況等に応じて変える必要が生じることや、ユーザの意思により画像を投射する面を変更することが考えられる。   However, when an image is projected by an electronic apparatus having a portable projector function such as a mobile phone, the image projection surface needs to be changed according to the usage situation, or the image is projected by the user's intention. It is conceivable to change the surface to be used.

そこで、本発明は、使用状況に応じて、画像を投射する面に対応して適切な補正を行うことが可能なプロジェクタ機能を搭載する携帯電話等の電子機器を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an electronic device such as a mobile phone equipped with a projector function capable of performing an appropriate correction corresponding to a surface on which an image is projected in accordance with a use situation.

上記課題を解決するため、本発明に係る電子機器は、(a)投射画像を形成するプロジェクタ機能を有する電子機器であって、(b)当該電子機器の設置位置と投射面との関係を検出する検出部と、(c)検出部からの検出情報に応じて、投射画像に対応する映像信号に対して互いに異なる複数の補正のうちいずれか1つを実行できる補正部と、(d)補正部により補正された映像信号に基づいて投射画像を投射する画像投射部とを備える。   In order to solve the above problems, an electronic device according to the present invention is (a) an electronic device having a projector function for forming a projection image, and (b) detecting a relationship between the installation position of the electronic device and a projection surface. (C) a correction unit capable of executing any one of a plurality of different corrections on the video signal corresponding to the projection image in accordance with detection information from the detection unit, and (d) correction And an image projection unit that projects a projection image based on the video signal corrected by the unit.

上記電子機器では、検出部により当該電子機器の設置位置と投射面との関係が検出され、検出部からの検出情報に応じて異なるタイプの補正を行うため、プロジェクタとして用いる電子機器の使用状況に応じた画像を形成させ投射させることができる。この際、検出部による検出結果を利用すれば、投射面に応じた補正を自動的に実行させることができる。   In the above electronic device, the detection unit detects the relationship between the installation position of the electronic device and the projection surface, and performs different types of correction according to the detection information from the detection unit. A corresponding image can be formed and projected. At this time, if the detection result by the detection unit is used, correction according to the projection surface can be automatically executed.

また、本発明の別の態様によれば、(a)複数の補正が、設置位置の基準面に対して垂直な面に投射する垂直面投射に対応する台形補正である第1の補正と、基準面に対して平行な面に投射する平行面投射に対応する台形補正である第2の補正とを含み、(b)補正部が、検出部からの検出情報に基づいて、第1及び第2の補正のいずれか一方を行う決定をする。この場合、補正部により、投射角度に応じた画像の補正を行うことができる。なお、基準面に対して平行な面には、基準面と同一の平面上に存在する面も含まれるものとする。   According to another aspect of the present invention, (a) a plurality of corrections are first corrections that are trapezoidal corrections corresponding to vertical plane projections that project onto a plane perpendicular to the reference plane of the installation position; A second correction that is a trapezoidal correction corresponding to parallel plane projection that projects onto a plane parallel to the reference plane, and (b) the correction unit performs first and first corrections based on detection information from the detection unit. Decide to perform one of the two corrections. In this case, the correction unit can correct the image according to the projection angle. The plane parallel to the reference plane includes a plane that exists on the same plane as the reference plane.

また、本発明の別の態様によれば、(a)電子機器は、(a1)画像投射部を有するとともに画像を表示する表示画面を有する表示部と、(a2)入力用の操作キーを有するとともに表示部を支持して設置位置に配置される操作部と、(a3)表示部と操作部とを回動可能に連結する連結部とをさらに備え、(b)検出部が、表示部と操作部との位置関係から設置位置と投射面との関係を検出する。この場合、検出部により、表示部と操作部との位置関係を把握することで、電子機器の設置位置と投射面との関係を認識して、これらに基づく適切な画像の補正が可能となる。   According to another aspect of the present invention, (a) an electronic device has (a1) a display unit having an image projection unit and a display screen for displaying an image, and (a2) an operation key for input. And an operation unit that supports the display unit and is disposed at the installation position; and (a3) a coupling unit that rotatably couples the display unit and the operation unit, and (b) the detection unit includes the display unit and The relationship between the installation position and the projection surface is detected from the positional relationship with the operation unit. In this case, by detecting the positional relationship between the display unit and the operation unit by the detection unit, it is possible to recognize the relationship between the installation position of the electronic device and the projection surface, and to perform appropriate image correction based on these. .

また、本発明の別の態様によれば、検出部が、画像投射部を挟むように表示部にそれぞれ配置され投射方向側での近接物の有無を検出する一対の近接物センサを有する。この場合、一対の近接物センサにより、投射方向側に存する投射の対象となるべき面の状況を捉えることが可能となる。   According to another aspect of the present invention, the detection unit has a pair of proximity object sensors that are respectively arranged on the display unit so as to sandwich the image projection unit and detect the presence or absence of a proximity object on the projection direction side. In this case, it is possible to capture the situation of the surface to be projected on the projection direction side by the pair of proximity object sensors.

また、本発明の別の態様によれば、(a)一対の近接物センサは、連結部までの距離が互いに異なるように配置されており、(b)補正部が、一対の近接物センサのうち連結部に遠い方に位置するセンサ側に近接物があると検出された場合に第1の補正を行い、連結部に近い方に位置するセンサ側に近接物があると検出された場合に第2の補正を行う。この場合、連結部までの距離が互いに異なる一対の近接物センサでの検出結果に基づいて、投射の対象となるべき面と判断された投射面の状況を把握して、当該投射面に対応するように第1及び第2の補正のうちいずれの補正を行うかの判断を行うことができる。   Further, according to another aspect of the present invention, (a) the pair of proximity object sensors are arranged such that the distances to the connecting portions are different from each other, and (b) the correction unit is a pair of proximity object sensors. When it is detected that there is an adjacent object on the sensor side located far from the connecting part, the first correction is performed, and when it is detected that there is an adjacent object on the sensor side located closer to the connecting part. A second correction is performed. In this case, based on the detection results of a pair of proximity object sensors having different distances to the connecting portion, the situation of the projection surface determined to be a projection target surface is grasped, and the projection surface is handled. As described above, it is possible to determine which of the first and second corrections is to be performed.

また、本発明の別の態様によれば、(a)検出部が、連結部を回転軸とする操作部に対する表示部の回転角度を検出する角度センサを有し、(b)補正部が、角度センサでの検出に基づいて第1及び第2の補正における補正量を定める。この場合、操作部に対する表示部の回転角度から、必要となる補正量を定めることができる。   According to another aspect of the present invention, (a) the detection unit includes an angle sensor that detects a rotation angle of the display unit with respect to the operation unit having the connection unit as a rotation axis, and (b) the correction unit includes: Correction amounts for the first and second corrections are determined based on detection by the angle sensor. In this case, a necessary correction amount can be determined from the rotation angle of the display unit with respect to the operation unit.

また、本発明の別の態様によれば、画像投射部が、角度センサにおいて回転角度が0°であると判断されたときは画像投射を停止する制御を行う。回転角度が0°であるときには、通常電子機器による投射動作の維持を意図しない者と考えられ、プロジェクタとしての画像投射を自動的に終了させることで、無駄な照射を行わせないようにすることができる。   According to another aspect of the present invention, the image projection unit performs control to stop image projection when the angle sensor determines that the rotation angle is 0 °. When the rotation angle is 0 °, it is usually considered that the person does not intend to maintain the projection operation by the electronic device, and the image projection as a projector is automatically terminated to prevent unnecessary irradiation. Can do.

また、本発明の別の態様によれば、補正部が、検出部からの検出情報に基づいて第1及び第2の補正のいずれを実行するかを定めるとともに、設置位置と投射面との関係から各補正における映像信号の補正量を定める。この場合、検出部からの検出情報から的確な映像信号の補正量を定めることができる。   According to another aspect of the present invention, the correction unit determines which of the first correction and the second correction is performed based on the detection information from the detection unit, and the relationship between the installation position and the projection surface. To determine the correction amount of the video signal in each correction. In this case, an accurate video signal correction amount can be determined from detection information from the detection unit.

また、上記課題を解決するため、本発明に係る電子機器は、(a)投射画像を形成するプロジェクタ機能を有する電子機器であって、(b)ユーザの選択に基づき、それぞれ異なる対象面への投射に対応した複数の補正モードのうち、いずれか1つの補正モードを設定できるモード設定部と、(c)モード設定部で設定された補正モードに応じて、投射画像に対応する映像信号に対して互いに異なる複数の補正のうちいずれか1つを実行できる補正部と、(d)補正部により補正された映像信号に基づいて投射画像を投射する画像投射部とを備える。   In order to solve the above problem, an electronic device according to the present invention is (a) an electronic device having a projector function for forming a projection image, and (b) based on a user's selection, A mode setting unit that can set any one correction mode among a plurality of correction modes corresponding to projection, and (c) a video signal corresponding to a projection image according to the correction mode set in the mode setting unit. A correction unit that can execute any one of a plurality of different corrections, and (d) an image projection unit that projects a projection image based on the video signal corrected by the correction unit.

上記電子機器では、投射画像を異なる対象面に投射させる際に、反映したモード設定をユーザが選択できる。この場合、プロジェクタとしての電子機器から投射される画像をユーザが投射させたい対象面上に所望の状態で投影させることができる。   In the said electronic device, when projecting a projection image on a different object surface, the user can select the reflected mode setting. In this case, the image projected from the electronic device as a projector can be projected in a desired state on the target surface that the user wants to project.

また、本発明の別の態様によれば、(a)複数の補正モードが、設置位置の基準面に対して垂直な面に投射する垂直面投射に対応する台形補正である第1の補正が実行される第1の補正モードと、基準面に対して平行な面に投射する平行面投射に対応する台形補正である第2の補正が実行される第2の補正モードとを含み、(b)補正部が、モード設定部における第1及び第2の補正モードのいずれか一方の設定により、第1及び第2の補正のいずれか一方を行う決定をする。この場合、補正部により、投射の対象となるべき面に応じた画像の補正を行うことができる。   According to another aspect of the present invention, (a) the first correction is a trapezoidal correction corresponding to vertical surface projection in which the plurality of correction modes project onto a surface perpendicular to the reference surface of the installation position. A first correction mode to be executed, and a second correction mode in which a second correction that is a trapezoidal correction corresponding to parallel plane projection projected onto a plane parallel to the reference plane is executed (b) ) The correction unit determines to perform one of the first and second corrections by setting one of the first and second correction modes in the mode setting unit. In this case, the correction unit can correct the image according to the surface to be projected.

また、本発明の別の態様によれば、(a)電子機器は、(a1)画像投射部を有するとともに画像を表示する表示画面を有する表示部と、(a2)入力用の操作キーを有するとともに表示部を支持して設置位置に配置される操作部と、(a3)表示部と操作部とを回動可能に連結する連結部と、(a4)連結部を回転軸とする操作部に対する表示部の回転角度を検出する角度センサとをさらに備え、(b)補正部が、角度センサでの検出に基づいて第1及び第2の補正における補正量を定める。この場合、操作部に対する表示部の回転角度から、必要となる補正量を定めることができる。   According to another aspect of the present invention, (a) an electronic device has (a1) a display unit having an image projection unit and a display screen for displaying an image, and (a2) an operation key for input. And (a3) a connection unit that rotatably connects the display unit and the operation unit, and (a4) an operation unit that uses the connection unit as a rotation axis. An angle sensor that detects a rotation angle of the display unit; and (b) a correction unit determines a correction amount in the first and second corrections based on detection by the angle sensor. In this case, a necessary correction amount can be determined from the rotation angle of the display unit with respect to the operation unit.

また、本発明の別の態様によれば、画像投射部が、角度センサにおいて回転角度が0°であると判断されたときは画像投射を停止する制御を行う。回転角度が0°であるときには、通常電子機器による投射動作の維持を意図しないものと考えられ、プロジェクタとしての画像投射を自動的に終了させることで、無駄な照射を行わせないようにすることができる。   According to another aspect of the present invention, the image projection unit performs control to stop image projection when the angle sensor determines that the rotation angle is 0 °. When the rotation angle is 0 °, it is usually not intended to maintain the projection operation by the electronic device, and the image projection as a projector is automatically terminated to prevent unnecessary irradiation. Can do.

〔第1実施形態〕
図1(A)〜1(C)は、第1実施形態に係る電子機器を説明するための図であり、プロジェクタ機能を組み込んだ携帯電話機についての外観図である。本実施形態に係る携帯電話機100は、画像を表示する表示画面を表面の表示領域に形成するディスプレイ26等を有する表示部1と、入力のための操作キー12等を有する操作部2と、表示部1と操作部2とを回動可能な状態で連結する連結部3とを備え、図1(A)〜1(C)に示すように連結部3を回転軸として開閉が可能な折りたたみ式となっている。つまり、図1(B)に示すように、非使用時には連結部3の回動角が0°となっており、図1(C)に示すように、連結部3の回動角の範囲を0°〜160°として表示部1と操作部2とが開閉可能な構造となっている。
[First Embodiment]
1A to 1C are diagrams for explaining the electronic apparatus according to the first embodiment, and are external views of a mobile phone incorporating a projector function. A mobile phone 100 according to the present embodiment includes a display unit 1 having a display 26 and the like that form a display screen for displaying an image in a display area on the surface, an operation unit 2 having operation keys 12 and the like for input, and a display. 1 is provided with a connecting part 3 that connects the part 1 and the operating part 2 in a rotatable state, and can be opened and closed with the connecting part 3 as a rotation axis as shown in FIGS. It has become. That is, as shown in FIG. 1B, the rotation angle of the connecting portion 3 is 0 ° when not in use, and the range of the turning angle of the connecting portion 3 is set as shown in FIG. The display unit 1 and the operation unit 2 can be opened and closed at 0 ° to 160 °.

図2は、携帯電話機100をプロジェクタとして用いた状態の一例を示す図である。携帯電話機100による画像投射時には、投射部14からの光束が投射面である壁面WF上に向けて射出される。投射部14の上端側と下端側とには、投射の対象となるべき面(図2の場合壁面WF)を投射面として把握するための一対の近接物センサ36a、36bが投射部14を挟むように配置されている。従って、この場合、一対の近接物センサ36a、36bのうち、連結部3から遠い方にセンサ36aが配置され、連結部3に近い方にセンサ36bが配置されており、連結部3からの距離が互いに異なるものとなっている。一対の近接物センサ36a、36bは、例えば光を射出し、この光が反射されて戻ってきたことを検出すれば、投射部14からの射出方向に近接物が存在する、とする検出を行う。この際、戻り光の強度等を判定することにより近接物までの距離の遠近を測ることができる。プロジェクタとして機能する携帯電話機100は、例えば、センサ36aとセンサ36bとのそれぞれでの近接物についての検出結果を比較することにより、表示部1の上端側と下端側とのどちらが投射光の被照射対象となるべき面に対して近い側となっているかを判断することができる。つまり、一対の近接物センサ36a、36bを用いることにより、投射部14から射出される投射の対象となるべき面の状況を把握することが可能となる。例えば、図2の場合では、各センサ36a、36bにより、投射の対象となるべき面までの距離が略等しいことが検出され、この検出結果に基づいて、基準面となる携帯電話機100の設置された水平な面PFに対して垂直な面である壁面WFが投射の対象となるべき面、つまり、投射面であると判別される。   FIG. 2 is a diagram illustrating an example of a state in which the mobile phone 100 is used as a projector. When the mobile phone 100 projects an image, the light beam from the projection unit 14 is emitted toward the wall surface WF that is the projection surface. A pair of proximity object sensors 36a and 36b for grasping a surface to be projected (wall surface WF in FIG. 2) as a projection surface sandwiches the projection unit 14 between the upper end side and the lower end side of the projection unit 14. Are arranged as follows. Therefore, in this case, the sensor 36a is disposed farther from the connecting portion 3 and the sensor 36b is disposed closer to the connecting portion 3 of the pair of proximity object sensors 36a and 36b. Are different from each other. The pair of proximity object sensors 36a and 36b, for example, detects that a proximity object exists in the emission direction from the projection unit 14 if it detects that the light is emitted and the light is reflected and returned. . At this time, the distance to the proximity object can be measured by determining the intensity of the return light or the like. The mobile phone 100 functioning as a projector, for example, compares the detection results of the proximity objects in the sensors 36a and 36b, so that either the upper end side or the lower end side of the display unit 1 is irradiated with the projection light. It can be determined whether the side is close to the surface to be the target. That is, by using the pair of proximity object sensors 36a and 36b, it is possible to grasp the situation of the surface to be projected from the projection unit 14. For example, in the case of FIG. 2, it is detected by the sensors 36a and 36b that the distances to the surfaces to be projected are substantially equal, and based on the detection results, the mobile phone 100 serving as the reference surface is installed. It is determined that the wall surface WF, which is a surface perpendicular to the horizontal surface PF, is a surface to be projected, that is, a projection surface.

図3は、図1(A)〜1(C)等に示す携帯電話機100の内部構造を概念的に説明するブロック図である。携帯電話機100は、移動しながらの通話を可能にする移動通話機能と、データ通信を可能にするデジタルデータ通信機能とを有しており、基本回路部分20として、通信制御部21と、スピーカ22と、マイク23と、キー操作部25と、ディスプレイ26と、表示駆動部27と、記憶部28と、主制御部29とを備える。また、この携帯電話機100は、プロジェクタとしての機能を実現するため、プロジェクタ部分30を備える。   FIG. 3 is a block diagram conceptually illustrating the internal structure of the mobile phone 100 shown in FIGS. 1 (A) to 1 (C) and the like. The mobile phone 100 has a mobile call function that enables a call while moving, and a digital data communication function that enables data communication. As a basic circuit portion 20, a communication control unit 21 and a speaker 22 are provided. A microphone 23, a key operation unit 25, a display 26, a display drive unit 27, a storage unit 28, and a main control unit 29. In addition, the cellular phone 100 includes a projector portion 30 in order to realize a function as a projector.

基本回路部分20において、通信制御部21は、無線通信を可能にするアンテナを備えており、通話信号やデータ信号を無線で送受信することができる。また、スピーカ22は、通信制御部21で受信した通話信号を復調した音声信号等を音声として出力し、マイク23は、ユーザの声を電気信号に変換して通信制御部21に出力する。キー操作部25は、携帯電話機100を操作するユーザの意思を反映した指令信号を主制御部29に出力する。 ディスプレイ26は、液晶表示パネル等により構成され、表示駆動部27から入力される駆動信号に基づいてユーザに対して必要な表示を行う。なお、表示駆動部27は、主制御部29から入力されるデータに基づく駆動信号を生成して、ディスプレイ26の表示動作の制御を行う。記憶部28は、携帯電話機100を動作させるプログラム等を記憶しているROMと、アプリケーションプログラム、入力指示、入力データ、処理結果等を一時格納するワークメモリ等のRAMとを備える。なお、記憶部28は、通信制御部21で取り込んだデータ信号を保存することができ、例えばプロジェクタ部分30を画像投射モードで動作させる際に表示すべき画像データを保管することもできる。   In the basic circuit portion 20, the communication control unit 21 includes an antenna that enables wireless communication, and can transmit and receive a call signal and a data signal wirelessly. The speaker 22 outputs a voice signal or the like obtained by demodulating the call signal received by the communication control unit 21 as voice, and the microphone 23 converts the user's voice into an electrical signal and outputs the electrical signal to the communication control unit 21. The key operation unit 25 outputs a command signal reflecting the user's intention to operate the mobile phone 100 to the main control unit 29. The display 26 is configured by a liquid crystal display panel or the like, and performs necessary display for the user based on a drive signal input from the display drive unit 27. The display driving unit 27 generates a driving signal based on data input from the main control unit 29 and controls the display operation of the display 26. The storage unit 28 includes a ROM that stores a program for operating the mobile phone 100 and a RAM such as a work memory that temporarily stores application programs, input instructions, input data, processing results, and the like. The storage unit 28 can store the data signal captured by the communication control unit 21, and can store image data to be displayed when the projector unit 30 is operated in the image projection mode, for example.

プロジェクタ部分30は、照明光を射出する照明装置31と、光変調部としての液晶ライトバルブ32と、表示制御部33と、投射部としての投射レンズ装置35と、一対の近接物センサ36a、36bと、角度センサ37と、プロジェクタ制御部38とを備える。   The projector portion 30 includes an illumination device 31 that emits illumination light, a liquid crystal light valve 32 as a light modulation unit, a display control unit 33, a projection lens device 35 as a projection unit, and a pair of proximity object sensors 36a and 36b. And an angle sensor 37 and a projector control unit 38.

ここで、照明装置31は、照明光を発生する光源部31aと、照明光の液晶ライトバルブ32への入射角を調整するコンデンサレンズ31bとを備える。光源部31aは、像光形成の必要に足る光源光を発生させる発光素子31dやその駆動回路等を備える。発光素子31dは、白色で発光する単一のLEDで構成することもできるが、赤色、青色、及び緑色で発光する3つ以上のLEDで構成することもできる。   Here, the illumination device 31 includes a light source unit 31 a that generates illumination light, and a condenser lens 31 b that adjusts an incident angle of the illumination light to the liquid crystal light valve 32. The light source unit 31a includes a light emitting element 31d that generates light source light sufficient to form image light, a drive circuit thereof, and the like. The light emitting element 31d can be composed of a single LED that emits white light, but can also be composed of three or more LEDs that emit light in red, blue, and green.

液晶ライトバルブ32は、画像生成部として、偏光変調用の液晶パネル本体32aと、液晶パネル本体32aの入射側に配置される入射偏光フィルタ32bと、液晶パネル本体32aの射出側に配置される射出偏光フィルタ32cとを備える。なお、表示制御部33は、プロジェクタ制御部38から入力されるデータに基づく駆動信号を生成して、液晶パネル本体32aの動作状態の制御を行う。液晶ライトバルブ32において、液晶パネル本体32aは、例えば画素単位でカラーフィルタを備えており、カラー表示を可能にする。入射偏光フィルタ32bは、液晶パネル本体32aに入射する照明光の偏光方向を調整する偏光板であり、射出偏光フィルタ32cは、液晶パネル本体32aから射出される光束から所定の偏光方向の変調光を取り出す偏光板である。   The liquid crystal light valve 32 serves as an image generating unit as a liquid crystal panel main body 32a for polarization modulation, an incident polarizing filter 32b arranged on the incident side of the liquid crystal panel main body 32a, and an emission arranged on the emission side of the liquid crystal panel main body 32a. And a polarizing filter 32c. The display control unit 33 generates a drive signal based on data input from the projector control unit 38 and controls the operation state of the liquid crystal panel main body 32a. In the liquid crystal light valve 32, the liquid crystal panel main body 32a includes a color filter, for example, in units of pixels, and enables color display. The incident polarization filter 32b is a polarizing plate that adjusts the polarization direction of illumination light incident on the liquid crystal panel body 32a, and the exit polarization filter 32c emits modulated light having a predetermined polarization direction from a light beam emitted from the liquid crystal panel body 32a. This is a polarizing plate to be taken out.

投射レンズ装置35は、1枚以上のレンズ又はレンズ群からなる投射レンズ35aと、液晶ライトバルブ32を経た像光を携帯電話機100の一端正面に配置されたスクリーン等に投射するための投射部14とを備える。なお、液晶ライトバルブ32の画像形成領域の中心位置の法線と投射レンズ35aの光軸とは、光軸OA上で一致しており、投射光は光軸OAに沿って、正面方向に射出される。   The projection lens device 35 is a projection lens 35 a composed of one or more lenses or lens groups, and a projection unit 14 for projecting image light that has passed through the liquid crystal light valve 32 onto a screen or the like disposed in front of one end of the mobile phone 100. With. The normal line of the center position of the image forming area of the liquid crystal light valve 32 and the optical axis of the projection lens 35a coincide on the optical axis OA, and the projection light is emitted in the front direction along the optical axis OA. Is done.

以上のように、携帯電話機100は、照明装置31、液晶ライトバルブ32及び投射レンズ装置35によって構成される画像投射部40を備えることにより照明光から投射光を形成して投射する、プロジェクタとして機能する。   As described above, the mobile phone 100 functions as a projector that forms and projects projection light from illumination light by including the image projection unit 40 including the illumination device 31, the liquid crystal light valve 32, and the projection lens device 35. To do.

さらに、携帯電話機100は、一対の近接物センサ36a、36bと、角度センサ37とを備える。一対の近接物センサ36a、36bは、既に説明したように、投射部14から射出される投射の対象となるべき面の状況を把握するため、例えば光を射出し、その戻り光を検出して、その検出結果をプロジェクタ制御部38へ送出する。また、角度センサ37は、連結部3の回動角、つまり携帯電話機100の折りたたみ角度を検出して、その検出結果をプロジェクタ制御部38へ送出する。プロジェクタとして機能する携帯電話機100は、各センサ36a、36b、37での検出結果に基づき、携帯電話機100の投射角度等の設置状況に応じた投射画像の補正を行う。   Furthermore, the mobile phone 100 includes a pair of proximity sensor 36 a and 36 b and an angle sensor 37. As already described, the pair of proximity sensor 36a, 36b emits light and detects its return light, for example, in order to grasp the situation of the surface to be projected from the projection unit 14. The detection result is sent to the projector control unit 38. Further, the angle sensor 37 detects the rotation angle of the connecting unit 3, that is, the folding angle of the mobile phone 100, and sends the detection result to the projector control unit 38. The mobile phone 100 functioning as a projector corrects the projected image according to the installation status such as the projection angle of the mobile phone 100 based on the detection results of the sensors 36a, 36b, and 37.

図4は、画像信号の処理について説明するためのプロジェクタ制御部38について示すブロック図である。プロジェクタ制御部38は、各センサ36a、36b、37で感知された結果を検出するとともに投射光の被照明部分となるべき面を投射面として判別し、当該投射面に対する携帯電話機100の設置位置及び投射方向を算定して検出信号として送信する検出回路38aと、検出回路38aからの検出信号に応じて画像の補正を行う補正部38bとを備える。さらに、補正部38bは、画像の補正内容を決定する補正決定部38cと、図3の主制御部29から送信された映像信号を補正決定部38cでの決定結果に応じて変換する画像補正部38dとを備える。   FIG. 4 is a block diagram showing the projector control unit 38 for explaining the processing of the image signal. The projector control unit 38 detects a result sensed by each of the sensors 36a, 36b, and 37, determines a surface to be an illuminated portion of the projection light as a projection surface, and sets the installation position of the mobile phone 100 with respect to the projection surface and A detection circuit 38a that calculates a projection direction and transmits it as a detection signal, and a correction unit 38b that corrects an image in accordance with the detection signal from the detection circuit 38a are provided. Further, the correction unit 38b includes a correction determination unit 38c that determines the correction content of the image, and an image correction unit that converts the video signal transmitted from the main control unit 29 in FIG. 3 according to the determination result of the correction determination unit 38c. 38d.

検出回路38aは、まず、一対の近接物センサ36a、36bによる投射の対象となるべき面についての検出結果と、角度センサ37による連結部3を回転軸とする表示部1の回転角度についての検出結果とを受信する。そして、検出回路38aは、各センサ36a、36b、37から受信した検出結果から、投射の対象となるべき面を投射面として把握するとともに、当該投射面に対する携帯電話機100の設置位置を検出して、補正部38b内の補正決定部38cに送信する。つまり、各センサ36a、36b、37と、検出回路38aとは、一連の検出を行うための検出部として機能している。補正決定部38cは、検出回路38aからの検出信号に基づき画像の台形補正を行う際の補正量を決定し、補正の決定結果を画像補正部38dに送信する。画像補正部38dは、図3の主制御部29から送信される映像信号を画像補正部38dでの決定結果に基づいて補正画像信号に変換して図3の表示制御部33に送信する。本実施形態では、特に、補正決定部38cでの補正内容の決定は、一対の近接物センサ36a、36bでの検出結果に基づいて行う。つまり、検出回路38aが、一対の近接物センサ36a、36bでの検出結果から投射の対象となるべき面である投射面を判別し、当該投射面に応じた投射方法の選択がなされる。より具体的には、検出回路38aにおいて、投射面が、基準面となる水平な面PFに対して垂直で、かつ表示部1に対向する壁面WF(図5(A)参照)であると判別されると、垂直面投射(以下、壁面投射と言う。)を行うものとする。一方、投射面が、面PFに水平な机上面DF(図6(A)参照)であると判別されると、平行面投射(以下、机上面投射と言う。)を行うものとする。補正決定部38cは、以上の判断結果に従い、壁面投射に対応した第1の補正を行うか、机上面投射に対応した第2の補正を行うかを決定する。   First, the detection circuit 38a detects the detection result of the surface to be projected by the pair of proximity sensor 36a and 36b and the rotation angle of the display unit 1 having the connecting unit 3 as the rotation axis by the angle sensor 37. Receive the results. Then, the detection circuit 38a grasps the surface to be projected as a projection surface from the detection results received from the sensors 36a, 36b, and 37, and detects the installation position of the mobile phone 100 with respect to the projection surface. And transmitted to the correction determination unit 38c in the correction unit 38b. That is, each sensor 36a, 36b, 37 and the detection circuit 38a function as a detection unit for performing a series of detections. The correction determination unit 38c determines a correction amount for performing keystone correction of the image based on the detection signal from the detection circuit 38a, and transmits the correction determination result to the image correction unit 38d. The image correction unit 38d converts the video signal transmitted from the main control unit 29 in FIG. 3 into a corrected image signal based on the determination result in the image correction unit 38d, and transmits the corrected image signal to the display control unit 33 in FIG. In the present embodiment, in particular, the determination of the correction content in the correction determination unit 38c is performed based on the detection results of the pair of proximity object sensors 36a and 36b. That is, the detection circuit 38a discriminates a projection surface that is a surface to be projected from the detection results of the pair of proximity object sensors 36a and 36b, and a projection method is selected according to the projection surface. More specifically, in the detection circuit 38a, it is determined that the projection surface is a wall surface WF (see FIG. 5A) that is perpendicular to the horizontal surface PF serving as a reference surface and faces the display unit 1. Then, vertical projection (hereinafter referred to as wall projection) is performed. On the other hand, if it is determined that the projection surface is a desk surface DF (see FIG. 6A) horizontal to the surface PF, parallel surface projection (hereinafter referred to as desk surface projection) is performed. The correction determination unit 38c determines whether to perform the first correction corresponding to the wall surface projection or the second correction corresponding to the desk surface projection according to the above determination result.

図5(A)、5(B)は、壁面投射を行う場合の携帯電話機100による投射の一例について説明するための図である。まず、ここでは、図5(A)に示すように、携帯電話機100の操作部2は、基準面となる水平な面PF上に設置されている。また、表示部1と操作部2とは、回転軸である連結部3の回動角を角度θ(θは90°以上)として広がった状態となっているものとする。   FIGS. 5A and 5B are diagrams for explaining an example of projection by the mobile phone 100 when performing wall surface projection. First, as shown in FIG. 5A, the operation unit 2 of the mobile phone 100 is installed on a horizontal surface PF serving as a reference surface. Further, it is assumed that the display unit 1 and the operation unit 2 are in a state where the rotation angle of the connecting unit 3 which is a rotation axis is widened as an angle θ (θ is 90 ° or more).

図5(A)において、まず、一対の近接物センサ36a、36bは、それぞれ投射部14を含む射出面ESに垂直な方向を中心として一定の広がり角を有した状態の光を射出する。次に、各センサ36a、36bは、一定の広がり角をもって拡がった状態で近接する対象物に反射し戻ってきた光の強度を検出する。以上による検出の結果を用いることにより、近接する対象物即ち被照射対象となるべき面(図5(A)の場合壁面WF)の状況を把握することができる。ここで、図5(A)において往復矢印で示すように、角度θが90°以上に開いた状態で壁面投射を行う場合、各センサ36a、36bから壁面WFまでの距離を比べると、投射部14の上側にあるセンサ36aから壁面WFまでの距離の方が、投射部14の下側にあるセンサ36bから壁面WFまでの距離よりも短い。従って、角度θが90°以上の状態において、各センサ36a、36bからの距離を相対的に比較したときに、連結部3から遠い方に位置するセンサ36a側に近接物があると判断されれば、投射する対象となる面は水平な面PFに対して垂直な壁面WFであると判別することができる、即ち投射面は壁面WFであると決定される。また、この場合、水平な面PFに対して垂直な壁面WFにそのまま壁面投射を行うと、図5(B)に実線で示すような、下側に広い台形状の投影画像P1が形成されることになり、当該台形は、角度θの値が大きくなるほど変形の度合いが大きいものとなり、図5(B)往復矢印で示す必要な補正量も多くなる。   5A, first, the pair of proximity object sensors 36a and 36b each emit light in a state having a certain spread angle centered on a direction perpendicular to the emission surface ES including the projection unit 14. Next, each sensor 36a, 36b detects the intensity of the light reflected and returned to the adjacent object in a state of being spread with a certain spread angle. By using the result of the detection described above, it is possible to grasp the state of the object to be approached, that is, the surface to be irradiated (the wall surface WF in the case of FIG. 5A). Here, as shown by a reciprocating arrow in FIG. 5A, when performing wall surface projection in a state where the angle θ is 90 ° or more, comparing the distance from each sensor 36a, 36b to the wall surface WF, the projection unit The distance from the sensor 36a on the upper side of 14 to the wall surface WF is shorter than the distance from the sensor 36b on the lower side of the projection unit 14 to the wall surface WF. Therefore, in the state where the angle θ is 90 ° or more, when the distances from the sensors 36a and 36b are relatively compared, it is determined that there is an adjacent object on the side of the sensor 36a located farther from the connecting portion 3. For example, it is possible to determine that the surface to be projected is a wall surface WF perpendicular to the horizontal surface PF, that is, the projection surface is determined to be the wall surface WF. Further, in this case, when the wall surface projection is performed as it is on the wall surface WF perpendicular to the horizontal surface PF, a wide trapezoidal projection image P1 is formed on the lower side as shown by a solid line in FIG. In other words, the degree of deformation of the trapezoid increases as the value of the angle θ increases, and the necessary correction amount indicated by the reciprocating arrow in FIG. 5B also increases.

図6(A)、6(B)は、机上面投射を行う場合の携帯電話機100による投射の一例について説明するための図である。まず、ここでは、図6(A)に示すように、携帯電話機100の操作部2は、基準面となる水平な面PF上に設置され、投射する対象となる面が面PFと同一の平面上にある机上面DFとなっている。また、表示部1と操作部2とは、連結部3を回転軸として角度θ(θは90°以上)に広がった状態となっているものとする。   FIGS. 6A and 6B are diagrams for explaining an example of projection by the mobile phone 100 in the case of performing desk surface projection. First, as shown in FIG. 6A, the operation unit 2 of the mobile phone 100 is installed on a horizontal surface PF serving as a reference surface, and the surface to be projected is the same plane as the surface PF. It is the desk surface DF on the top. Further, it is assumed that the display unit 1 and the operation unit 2 are in a state of spreading at an angle θ (θ is 90 ° or more) with the connecting unit 3 as a rotation axis.

図6(A)のように、角度θが90°以上開いた状態で机上面投射を行う場合、各センサ36a、36bから机上面DFまでの距離を比べると、投射部14の上側にあるセンサ36aから机上面DFまでの距離の方が、投射部14の下側にあるセンサ36bから机上面DFまでの距離よりも長い。従って、角度θが90°以上の状態において、各センサ36a、36bからの距離を相対的に比較したときに、連結部3から近い方に位置するセンサ36b側に近接物があると判断されれば、投射する対象となる面は水平な面PFと同一の平面上にある机上面DFであると判別することができる、即ち投射面は机上面DFであると決定される。また、この場合、水平な面PFと同一上にある即ち平行な机上面DFにそのまま机上面投射を行うと、図6(B)に実線で示すような、上側に広い台形状の投影画像P2が形成されることになり、当該台形は、角度θの値が大きくなるほど変形の度合いが小さいものとなり、図6(B)往復矢印で示す必要な補正量も少なくなる。   As shown in FIG. 6A, when performing desk surface projection with the angle θ opened 90 ° or more, when the distances from the sensors 36a and 36b to the desk surface DF are compared, the sensor on the upper side of the projection unit 14 The distance from 36a to the desk surface DF is longer than the distance from the sensor 36b on the lower side of the projection unit 14 to the desk surface DF. Therefore, in a state where the angle θ is 90 ° or more, when the distances from the sensors 36a and 36b are relatively compared, it is determined that there is an approaching object on the side of the sensor 36b located closer to the connecting portion 3. For example, it can be determined that the surface to be projected is the desk surface DF on the same plane as the horizontal surface PF, that is, the projection surface is determined to be the desk surface DF. Further, in this case, if the desk top projection is performed directly on the desk top surface DF which is the same as the horizontal plane PF, that is, parallel to the desk top surface DF, as shown by the solid line in FIG. Therefore, the degree of deformation of the trapezoid becomes smaller as the value of the angle θ increases, and the necessary correction amount indicated by the reciprocating arrow in FIG.

図7は、画像投射のプロセスを説明するためのフローチャートである。まず、ユーザによるキー操作部27の操作等により、画像投射を開始する旨の指令がなされると(ステップS1)、プロジェクタ制御部38の検出回路38aによって各センサ36a、36b、37での検出結果に基づき検出信号が形成され、補正決定部38cに送信される(ステップS2)。補正決定部38cでは、検出信号に基づき、補正内容が決定される。より具体的には、まず、角度センサ37での検出結果から、角度θの値の判定(角度θが90°以上であるか否かの判定を含む)を行い、一対の近接物センサ36a、36bでの検出結果から、連結部3に遠い方に位置するセンサ36a側に近接物があるか、連結部3に近い方に位置するセンサ36b側に近接物があるかを判定する(ステップS3)。ステップS3において、センサ36a側に近接物があると判定された場合、垂直面投射に対応する台形補正である第1のモードによる補正を行うための処理がなされ(ステップS4)、センサ36b側に近接物があると判定された場合、水平面投射に対応する台形補正である第2のモードによる補正を行うための処理がなされる(ステップS5)。つまり、ステップS3において、垂直面投射即ち壁面投射を行うか平行面投射即ち机上面投射を行うかが決定され、ステップS4、S5において、決定された各モードによる補正における角度センサ37で検出された角度θの値に応じた補正量が定められる。以上のようにして台形補正での補正量等の補正内容が決定され、決定結果に基づいて画像補正部38dで補正された画像信号による画像投射がなされる(ステップS6)。   FIG. 7 is a flowchart for explaining the image projection process. First, when an instruction to start image projection is given by the user operating the key operation unit 27 or the like (step S1), the detection results of the sensors 36a, 36b, and 37 are detected by the detection circuit 38a of the projector control unit 38. A detection signal is formed based on the above and transmitted to the correction determination unit 38c (step S2). The correction determination unit 38c determines the correction content based on the detection signal. More specifically, first, determination of the value of the angle θ (including determination of whether or not the angle θ is 90 ° or more) is performed from the detection result of the angle sensor 37, and the pair of proximity sensor 36a, From the detection result at 36b, it is determined whether there is an adjacent object on the sensor 36a side farther from the connecting part 3 or an adjacent object on the sensor 36b side closer to the connecting part 3 (step S3). ). In step S3, when it is determined that there is a proximity object on the sensor 36a side, a process for correcting in the first mode, which is a trapezoidal correction corresponding to vertical projection, is performed (step S4), and the sensor 36b side is processed. When it is determined that there is an approaching object, a process for performing correction in the second mode, which is trapezoidal correction corresponding to horizontal projection, is performed (step S5). That is, in step S3, it is determined whether to perform vertical surface projection, that is, wall surface projection, or parallel surface projection, that is, desk surface projection, and in steps S4 and S5, the angle sensor 37 in the correction in each determined mode is detected. A correction amount corresponding to the value of the angle θ is determined. As described above, correction contents such as the correction amount in the keystone correction are determined, and image projection is performed using the image signal corrected by the image correction unit 38d based on the determination result (step S6).

以上のように、本実施形態に係る携帯電話機100は、一対の近接物センサ36a、36bでの検出に基づいて投射面を把握し、これに応じて壁面投射を行うか机上面投射を行うかを判断し、さらに角度センサ37での検出により表示部1と操作部2との回転角度についての検出結果をも加味することで、携帯電話機100の設置位置と投射面との関係を検出する。携帯電話機100は、検出された結果から投射角度に応じた画像の補正を行うので、プロジェクタとしての使用状況に応じて、画像を投射する面に対応して適切な補正が可能となる。また、一対の近接物センサ36a、36b及び角度センサ37を自動検出とすることにより、携帯電話機100は、自動的に画像補正を行うものとなっている。この場合、補正のためにキャリブレーション画像の投射及びその撮像が不要であり、簡易な構成で台形歪みを補正することができるものとなっている。   As described above, the mobile phone 100 according to the present embodiment grasps the projection surface based on the detection by the pair of proximity object sensors 36a and 36b, and performs wall surface projection or desk surface projection according to this. Further, the relationship between the installation position of the mobile phone 100 and the projection surface is detected by taking into account the detection result of the rotation angle between the display unit 1 and the operation unit 2 by the detection by the angle sensor 37. Since the mobile phone 100 corrects the image according to the projection angle based on the detected result, it is possible to perform appropriate correction corresponding to the surface on which the image is projected, according to the usage situation as the projector. Further, by automatically detecting the pair of proximity sensor 36a, 36b and the angle sensor 37, the cellular phone 100 automatically performs image correction. In this case, it is not necessary to project and image a calibration image for correction, and the trapezoidal distortion can be corrected with a simple configuration.

また、携帯電話機100のプロジェクタとしての使用において、角度θの値が0°であると判断された場合には、携帯電話機100が閉じられ、プロジェクタとしての使用が終了したものと判断し、画像投射を停止する制御を行う処理を行い、自動的に終了させるものとしてもよい。例えば、角度θの値が90°未満であるときには、天井に投射の対象となるべき面があるものと判断して、これに対応するための第3のモードによる補正を行う態様としてもよい。   Further, when the mobile phone 100 is used as a projector, when it is determined that the value of the angle θ is 0 °, it is determined that the mobile phone 100 is closed and the use as the projector is finished, and image projection is performed. It is also possible to perform a process for performing control to stop and automatically end the process. For example, when the value of the angle θ is less than 90 °, it may be determined that there is a surface to be projected on the ceiling, and correction in the third mode is performed to cope with this.

なお、上記では、角度θの取りうる範囲の上限を160°としているが、回転角度の上限を160°に限ることはない。   In the above description, the upper limit of the range that the angle θ can take is 160 °, but the upper limit of the rotation angle is not limited to 160 °.

また、一対の近接物センサ36a、36b及び角度センサ37での検出結果の画像投射のプロセスにおける用い方についても、上記のほかに、さらに、細かな規定を設けてもよい。例えば、図7のステップS3において、センサ36aとセンサ36bとでの検出結果に差がない場合には、角度θの値が90°に近い場合と、回転角度の上限に近い場合とに分け、角度θの値が90°に近い場合には壁面投射を行うための処理を行い、回転角度の上限に近い場合には机上面投射のための処理を行うものとしてもよい。また、図7のステップS3において、一対の近接物センサ36a、36bの一方のみからしか検出結果が得られない場合には、例えば他方は無限遠にあると判断して強制的に壁面投射及び机上面投射のいずれか一方を行うものとしてもよい。また、センサ36a、36bのいずれからも検出結果が得られない場合には、投影不能と判断し、画像投射を行わないものとしてもよい。   Further, in addition to the above, finer regulations may be provided for using the detection results of the pair of proximity object sensors 36a and 36b and the angle sensor 37 in the image projection process. For example, in step S3 of FIG. 7, when there is no difference between the detection results of the sensor 36a and the sensor 36b, the angle θ is close to 90 ° and the rotation angle is close to the upper limit. When the value of the angle θ is close to 90 °, the process for performing the wall surface projection may be performed, and when the value of the rotation angle is close to the upper limit, the process for the desk surface projection may be performed. In addition, in step S3 in FIG. 7, when a detection result can be obtained only from one of the pair of proximity object sensors 36a and 36b, for example, it is determined that the other is at infinity and the wall projection and the desk are forcibly determined. Any one of the upper surface projections may be performed. If no detection result is obtained from any of the sensors 36a and 36b, it may be determined that projection is impossible, and image projection may not be performed.

また、一対の近接物センサ36a、36bから射出される光は、一定の広がり角を有するものではなく、指向性の強い光(例えばレーザ光等)を用いることにより、各センサ36a、36bから射出面ESに垂直な方向についてピンポイントな距離の測定を行うものであってもよい。   In addition, the light emitted from the pair of proximity object sensors 36a and 36b does not have a constant spread angle, and is emitted from each of the sensors 36a and 36b by using highly directional light (for example, laser light). You may measure a pinpoint distance about the direction perpendicular | vertical to the surface ES.

また、一対の近接物センサ36a、36bは、それぞれ光を射出し、この戻り光を検出することにより距離の測定を行っているが、各センサ36a、36bは、光に代えて超音波を射出し、射出されてから戻ってくるまでの超音波の往復時間を検出することにより距離の測定を行うものとしてもよい。   The pair of proximity sensor 36a, 36b emits light and measures the distance by detecting the return light, but each sensor 36a, 36b emits ultrasonic waves instead of light. Then, the distance may be measured by detecting the reciprocation time of the ultrasonic wave from the injection to the return.

また、一対の近接物センサ36a、36bを設けず、角度センサ37での検出結果のみから投射の方法を定めてもよい。例えば、基準となる角度の値を所定値(例えば135°)として定め、検出回路38aにおいて、角度θの値が当該所定値以上であるか否かを判断することによって壁面投射を行うか、机上面投射を行うかを決定するものとしてもよい。   Further, the projection method may be determined from only the detection result of the angle sensor 37 without providing the pair of proximity object sensors 36a and 36b. For example, a reference angle value is set as a predetermined value (for example, 135 °), and the detection circuit 38a determines whether or not the angle θ is equal to or greater than the predetermined value, or performs wall surface projection. It is good also as what determines whether upper surface projection is performed.

また、検出回路38aにおいて、角度θの値が90°未満であるときには、机上面投射を行う可能性はなく壁面投射を行うものと判断し、角度センサ37のみの検出結果を用いて第1のモードによる補正のみを行い、角度θの値が90°以上の場合にのみ、壁面投射と机上面投射のいずれを行うかを決定するために、一対の近接物センサ36a及び36bによる検出結果も用いた補正を行うこととしてもよい。   Further, in the detection circuit 38a, when the value of the angle θ is less than 90 °, it is determined that the wall surface projection is performed without the possibility of performing the desk surface projection, and the first detection is performed using the detection result of only the angle sensor 37. Only the correction by the mode is performed, and the detection result by the pair of proximity object sensors 36a and 36b is also used to determine whether to perform the wall surface projection or the desk surface projection only when the value of the angle θ is 90 ° or more. Correction may be performed.

〔第2実施形態〕
図8は、第2実施形態に係る携帯電話機の内部構造を概念的に説明するブロック図であり、図9は、プロジェクタ制御部の構造を説明するためのブロック図である。なお、その外観については、本実施形態の携帯電話機200が、一対の近接物センサ36a、36bを有さないことを除いて、第1実施形態において図1(A)〜1(C)等に示すものと同様であるので図示を省略する。また、図8及び図9に示す内部構造についても、基本回路部分220及びプロジェクタ部分230のうち、図3及び図4と同符号のものについては、特に説明しない限り同様の機能を有するものである。
[Second Embodiment]
FIG. 8 is a block diagram conceptually illustrating the internal structure of the mobile phone according to the second embodiment, and FIG. 9 is a block diagram illustrating the structure of the projector control unit. Note that the external appearance of the mobile phone 200 according to the present embodiment is the same as that of the first embodiment shown in FIGS. 1A to 1C except that the pair of proximity sensor 36a and 36b is not included. Since it is the same as that shown, the illustration is omitted. 8 and 9, the basic circuit portion 220 and the projector portion 230 having the same reference numerals as those in FIGS. 3 and 4 have the same functions unless otherwise described. .

携帯電話機200では、基本回路部分220のキー操作部225がユーザ選択部として機能することにより、ユーザによる壁面投射を行うか机上面投射を行うかのモード選択が可能となっている。つまり、図8のユーザ選択部としてのキー操作部225から壁面投射を行うか机上面投射を行うかの選択の操作がなされると、選択情報についての指令信号が、主制御部29を介して図9の補正決定部38cに送信される。補正決定部38cは、検出回路38aから送信される角度センサ37での検出結果についての検出信号と、当該選択情報とに基づき画像の台形補正を行う際の補正量を決定し、補正の決定結果を画像補正部38dに送信する。画像補正部38dは、図8の主制御部29から送信される映像信号を画像補正部38dでの決定結果に基づいて補正画像信号に変換して図8の表示制御部33に送信する。以上のように、携帯電話機200では、投射画像の投影される投射面の候補である異なる対象面のうち、1つの対象面を投射面としてユーザが選択する。キー操作部225は、ユーザの選択を反映した第1の補正モードと第2の補正モードとのうちのいずれか1つの補正モードを設定するモード設定部として機能する。なお、異なる対象面とは、基準面となる水平な面PFに対して垂直で、かつ表示部1に対向する壁面WFと、面PFに水平な机上面DFとを言う(図5(A)及び図6(A)参照)。また、各補正モードは、それぞれ壁面WFと机上面DFとに対応して定められるものである。つまり、各補正モードでの補正において、角度センサ37により検出された表示部1と操作部2との回転角度から、壁面WFへの投射(壁面投射)及び机上面DFへの投射(机上面投射)のそれぞれに対応する適切な補正量を判断することができるものとなっている。   In the mobile phone 200, the key operation unit 225 of the basic circuit portion 220 functions as a user selection unit, so that a user can select a mode for performing wall surface projection or desk surface projection. That is, when an operation for selecting whether to perform wall surface projection or desk surface projection is performed from the key operation unit 225 as the user selection unit in FIG. 8, a command signal for selection information is sent via the main control unit 29. It is transmitted to the correction determination unit 38c in FIG. The correction determination unit 38c determines a correction amount for performing the keystone correction of the image based on the detection signal about the detection result of the angle sensor 37 transmitted from the detection circuit 38a and the selection information, and the correction determination result Is transmitted to the image correction unit 38d. The image correction unit 38d converts the video signal transmitted from the main control unit 29 in FIG. 8 into a corrected image signal based on the determination result in the image correction unit 38d, and transmits the corrected image signal to the display control unit 33 in FIG. As described above, in the mobile phone 200, the user selects one target surface as a projection surface among different target surfaces that are candidates for the projection surface on which the projection image is projected. The key operation unit 225 functions as a mode setting unit that sets one of the first correction mode and the second correction mode reflecting the user's selection. The different target surfaces refer to a wall surface WF that is perpendicular to the horizontal surface PF serving as a reference surface and faces the display unit 1, and a desk surface DF that is horizontal to the surface PF (FIG. 5A). And FIG. 6 (A)). Each correction mode is determined corresponding to the wall surface WF and the desk surface DF. That is, in correction in each correction mode, projection on the wall surface WF (wall surface projection) and projection on the desk surface DF (desk surface projection) from the rotation angle between the display unit 1 and the operation unit 2 detected by the angle sensor 37. ) Can be determined as appropriate correction amounts.

図10は、画像投射のプロセスを説明するためのフローチャートである。まず、ユーザによるキー操作部27の操作等により、画像投射を開始する旨の指令がなされると(ステップS101)、プロジェクタ制御部38の検出回路38aによって角度センサ37での検出結果に基づき検出信号が形成され、補正決定部38cに送信される(ステップS102)。また、補正決定部38cでは、ユーザによるモード選択を確認する(ステップS103)。つまり、ユーザ選択部としてのキー操作部225から壁面投射を行うか机上面投射を行うかのモード選択がなされているかを確認する。ユーザによるモード選択を確認すると、選択されたモードが、それが第1のモードであるか、第2のモードであるかを判定する(ステップS104)。なお、ここでは、第1のモードを選択する場合を壁面投射のためのモード選択とし、第2のモードを選択する場合を机上面投射のためのモード選択とする。ステップS104において、第1のモードが選択されたと判断した場合、壁面投射に対応する台形補正である第1のモードによる補正を行うための処理がなされ(ステップS105)、第2のモードが選択されたと判断した場合、机上面投射に対応する台形補正である第2のモードによる補正を行うための処理がなされる(ステップS106)。つまり、ステップS104において、壁面投射を行うか机上面投射を行うかが決定され、ステップS105、S106において、決定された各モードによる補正における角度センサ37で検出された角度θの値に応じた補正量が定められる。以上により補正量等の補正内容が決定されると、決定結果に基づいて画像補正部38dで補正された画像信号による画像投射がなされる(ステップS107)。   FIG. 10 is a flowchart for explaining the image projection process. First, when a command to start image projection is given by the user's operation of the key operation unit 27 or the like (step S101), a detection signal based on the detection result of the angle sensor 37 is detected by the detection circuit 38a of the projector control unit 38. Is formed and transmitted to the correction determination unit 38c (step S102). Further, the correction determination unit 38c confirms the mode selection by the user (step S103). That is, it is confirmed whether the mode selection of whether to perform wall surface projection or desk surface projection is performed from the key operation unit 225 as a user selection unit. When the mode selection by the user is confirmed, it is determined whether the selected mode is the first mode or the second mode (step S104). Here, the case where the first mode is selected is the mode selection for wall surface projection, and the case where the second mode is selected is the mode selection for desk surface projection. If it is determined in step S104 that the first mode has been selected, a process for correcting in the first mode, which is a trapezoidal correction corresponding to wall projection, is performed (step S105), and the second mode is selected. If it is determined that the correction has been made, a process for performing correction in the second mode, which is a trapezoidal correction corresponding to the desktop projection, is performed (step S106). That is, in step S104, it is determined whether to perform wall surface projection or desk surface projection, and in steps S105 and S106, the correction according to the value of the angle θ detected by the angle sensor 37 in the correction in each determined mode. The amount is determined. When the correction content such as the correction amount is determined as described above, image projection is performed using the image signal corrected by the image correction unit 38d based on the determination result (step S107).

以上のように、本実施形態にかかるプロジェクタとしての機能を有する携帯電話機200は、ユーザの選択によって壁面投射を行うか机上面投射を行うかを決定することができる。つまり、プロジェクタとしての携帯電話機200から投射される画像をユーザが投射させたい対象面上に投影させることができる。   As described above, the mobile phone 200 having a function as a projector according to the present embodiment can determine whether to perform wall surface projection or desk surface projection according to the user's selection. That is, an image projected from the mobile phone 200 as a projector can be projected onto a target surface that the user wants to project.

なお、本実施形態において、携帯電話機200は、第1実施形態の携帯電話機100に示す一対の近接物センサ36a、36bをさらに搭載していてもよい。この場合、例えば、一対の近接物センサ36a、36bに基づいて行われた決定により壁面投射あるいは机上面投射がなされた後においても、ユーザの選択によって強制的に投射方法を変更するという態様をとることが可能となる。   In the present embodiment, the mobile phone 200 may further include a pair of proximity sensor 36a, 36b shown in the mobile phone 100 of the first embodiment. In this case, for example, after the wall surface projection or the desk surface projection is performed by the determination made based on the pair of proximity object sensors 36a and 36b, the projection method is forcibly changed by the user's selection. It becomes possible.

〔第3実施形態〕
図11(A)、11(B)は、第3実施形態に係る携帯電話機について説明するための図である。本実施形態の携帯電話機300は、第1及び第2実施形態の変形例であり、図11(A)、11(B)は、机上面投射における携帯電話機300の使用態様を示している。
[Third Embodiment]
FIGS. 11A and 11B are views for explaining a mobile phone according to the third embodiment. A mobile phone 300 according to the present embodiment is a modification of the first and second embodiments, and FIGS. 11A and 11B show how the mobile phone 300 is used for desk-top projection.

図11(A)、11(B)では、対面する人物αと人物βとの間に置かれた方形のテーブルTの表面を机上面DFとして机上面投射がなされ、机上面DF上に、文字「A」が画像として表示された投影画像Pが形成されている。図11(A)では、携帯電話機300のユーザである人物αにとって文字「A」が見やすい状態となっている。ここで、携帯電話機300では、キー操作部12を適宜操作することにより、画面の切換えが可能となっている。つまり、例えば、図11(B)に示すように、画像信号を切り換えることにより、投影画像P´に示すように画像を180°回転させることができる。この場合、投影画像P´は、人物αに対面する人物βにとって見やすい状態となる。また、画像の回転角度については、180°に限らず、多様なものであってもよい。例えば、180°回転に加え、さらに90°回転、270°回転も可能であるものとすれば、方形のテーブルTを4人で囲んだ場合に、各人にとって見やすいように適宜画像を切り換える態様とすることができる。以上の場合において、画像を回転させる毎に、これに応じた台形補正を行うことで、画像を歪めることなく投射することができる。つまり、図8、図9を用いてより具体的に説明すると、まず、ユーザ選択部としてのキー操作部225から上記のような画像の切換えのための指令信号(即ち何度回転させた画像とするかを決定する信号)が、主制御部29を介して図9の補正決定部38cに送信される。次に、補正決定部38cは、当該指令信号に応じた画像の台形補正を行う際の補正量を決定する。次に、画像補正部38dは、主制御部29から送信される映像信号を画像補正部38dでの決定結果に基づいて補正に変換して図8の表示制御部33に送信する。以上のようにして、画像を回転させる切換え表示を行うことができる。   11 (A) and 11 (B), the surface of the rectangular table T placed between the person α and the person β facing each other is projected on the desk surface DF, and characters are projected on the desk surface DF. A projection image P in which “A” is displayed as an image is formed. In FIG. 11A, the character “A” is easy to see for the person α who is the user of the mobile phone 300. Here, in the mobile phone 300, the screen can be switched by appropriately operating the key operation unit 12. That is, for example, as shown in FIG. 11B, by switching the image signal, the image can be rotated 180 ° as shown in the projection image P ′. In this case, the projection image P ′ is easy to see for the person β facing the person α. Further, the rotation angle of the image is not limited to 180 ° and may be various. For example, in addition to 180 ° rotation, if 90 ° rotation and 270 ° rotation are also possible, when the rectangular table T is surrounded by four people, the image is switched appropriately so that each person can easily see the image. can do. In the above case, every time the image is rotated, the image can be projected without being distorted by performing the trapezoidal correction corresponding to the rotation. That is, in more detail using FIG. 8 and FIG. 9, first, a command signal for switching images as described above (ie, an image rotated several times) from the key operation unit 225 as a user selection unit. 9 is transmitted to the correction determination unit 38c in FIG. 9 via the main control unit 29. Next, the correction determination unit 38c determines a correction amount when performing the keystone correction of the image according to the command signal. Next, the image correction unit 38d converts the video signal transmitted from the main control unit 29 into correction based on the determination result in the image correction unit 38d, and transmits the correction to the display control unit 33 in FIG. As described above, the switching display for rotating the image can be performed.

〔第4実施形態〕
図12(A)〜12(C)は、第4実施形態に係る携帯電話機100について説明するための外観図であり、図13は、内部構造を概念的に説明するブロック図である。本実施形態の携帯電話機400は、第1実施形態等の変形例である。ここで、特に、携帯電話機400において、画像を表示する表示画面を形成するディスプレイ440は、画像投射部としての機能も兼ねている。つまり、携帯電話機400がプロジェクタとして機能する際には、ディスプレイ440を画像投射のための画像投射部として用いる。このため、ディスプレイ440の投射部414の上端側と下端側とには、投射面を把握するための一対の近接物センサ36a、36bが投射部414を挟むように配置されている。また、図12(A)〜12(C)に示すように、携帯電話機400では、表示部401のうち、投射部414と一対の近接物センサ36a、36bとを含む上部401aが、表示部401の中心軸AXを軸として180°回転可能となっている。つまり、表示部401は、連結部3を軸として回動可能となっている下部401bと、ディスプレイ440及び各センサ36a、36bとを含む上部401aとにより構成されており、上部401aは、中心軸AXを軸として回転する。これにより、ディスプレイ440の投射部414を壁面あるいは机上面に向けることが可能となり、ディスプレイ440を画像投射部として用いたプロジェクタとしての画像投射を行うことができる。
[Fourth Embodiment]
FIGS. 12A to 12C are external views for explaining the mobile phone 100 according to the fourth embodiment, and FIG. 13 is a block diagram conceptually illustrating the internal structure. A mobile phone 400 according to this embodiment is a modification of the first embodiment. Here, in particular, in mobile phone 400, display 440 that forms a display screen for displaying an image also functions as an image projection unit. That is, when the mobile phone 400 functions as a projector, the display 440 is used as an image projection unit for image projection. For this reason, a pair of proximity sensor 36a, 36b for grasping the projection plane is arranged on the upper end side and the lower end side of the projection unit 414 of the display 440 so as to sandwich the projection unit 414. 12A to 12C, in the mobile phone 400, the display unit 401 includes an upper part 401a including a projection unit 414 and a pair of proximity object sensors 36a and 36b. It is possible to rotate 180 ° around the center axis AX. That is, the display unit 401 includes a lower part 401b that can be rotated about the connecting part 3 and an upper part 401a that includes the display 440 and the sensors 36a and 36b. The upper part 401a has a central axis. Rotate around AX. Thereby, the projection unit 414 of the display 440 can be directed to the wall surface or the desk surface, and image projection as a projector using the display 440 as an image projection unit can be performed.

図13は、携帯電話機400の内部構造を概念的に説明するブロック図である。なお、基本回路部分420については、第1実施形態において図3に示す基本回路部分20内のディスプレイ26及び表示駆動部27が、プロジェクタ部分430によって兼用されるため不要であることを除いて同様であるので、説明を省略する。また、プロジェクタ部分430のうち、図3と同符号のものについては、特に説明しない限り同様の機能を有するものであるので、説明を省略する。   FIG. 13 is a block diagram conceptually illustrating the internal structure of the mobile phone 400. The basic circuit portion 420 is the same except that the display 26 and the display driving unit 27 in the basic circuit portion 20 shown in FIG. 3 in the first embodiment are not necessary because they are shared by the projector portion 430. Since there is, description is abbreviate | omitted. Further, the projector portion 430 having the same reference numeral as that in FIG. 3 has the same function unless otherwise described, and thus the description thereof is omitted.

プロジェクタ部分430において、照明装置431は、光源部31aの後段に光拡散装置450を備える。光拡散装置450は、光拡散部材450aと、ガイド部材450bと、拡散板駆動部450fとを備える。光拡散部材450aは、プラスチック等の光透過性の板材を例えばすりガラス状に加工したものである。具体的には、例えば樹脂シートの表面に拡散処理等を施し、若しくは樹脂に顔料等を混入させて板状に成形することによって光拡散部材450aを得ることができる。ガイド部材450bは、光拡散部材450aを、光路上と投射光の光路上から退避した退避位置との間でスライド移動可能に保持する。拡散板駆動部450fは、プロジェクタ制御部38の制御下で動作し、光拡散部材450aを光軸OA上のディスプレイ位置と光軸OA上からずれたプロジェクタ位置との間で進退移動させる。つまり、プロジェクタとして利用しない場合、破線で示すように光拡散部材450aを光路上の動作位置(ディスプレイ位置)に配置し、光拡散部材450aの光拡散効果によって光源部31aから発生する照明光を拡散して液晶ライトバルブ32に入射させる。液晶ライトバルブ32に入射した照明光を変調し、投射部414付近において画像表示を行うことで、ディスプレイ440は、通常の直視型の表示画面を形成するものとして機能する。また、プロジェクタとして利用する場合、実線に示すように光拡散部材450aを光路上から外れた退避位置(プロジェクタ位置)に配置し、光源部31aから発生する照明光から投射光が形成される。形成された照明光を投射部414から射出することで、ディスプレイ440は、プロジェクタとして機能する。なお、ディスプレイ440が通常の表示画面として機能するとき、ユーザは投射部414から直視することになるのに対して、ディスプレイ440がプロジェクタとして機能するとき、ユーザは投射部414から投射面に映し出された投影画像を見ることになる。従って、ディスプレイ440を通常の表示画面として用いるときの画像とプロジェクタとして用いるときの画像とでは、左右反転したものとなるように本体の使用態様の切換えとともに画像の切換え処理がなされる。つまり、例えばユーザ選択部としてのキー操作部25等から本体の使用態様の切換えのための指令信号が主制御部29を介してプロジェクタ制御部38に送信されると、プロジェクタ制御部38は、当該指令信号に応じて映像信号を切り換えて表示制御部33に送信する。以上のようにして、本体の使用態様の切換えとともに画像の切換え表示を行うことができる。   In the projector portion 430, the illumination device 431 includes a light diffusing device 450 at the rear stage of the light source unit 31a. The light diffusion device 450 includes a light diffusion member 450a, a guide member 450b, and a diffusion plate driving unit 450f. The light diffusion member 450a is obtained by processing a light-transmitting plate material such as plastic into a ground glass shape, for example. Specifically, for example, the light diffusing member 450a can be obtained by performing a diffusion treatment or the like on the surface of the resin sheet, or by mixing a pigment or the like into the resin and forming it into a plate shape. The guide member 450b holds the light diffusion member 450a so as to be slidable between the light path and the retracted position retracted from the optical path of the projection light. The diffusion plate driving unit 450f operates under the control of the projector control unit 38, and moves the light diffusion member 450a forward and backward between a display position on the optical axis OA and a projector position shifted from the optical axis OA. That is, when not used as a projector, the light diffusing member 450a is disposed at the operating position (display position) on the optical path as shown by the broken line, and the illumination light generated from the light source unit 31a is diffused by the light diffusing effect of the light diffusing member 450a. Then, the light is incident on the liquid crystal light valve 32. By modulating the illumination light incident on the liquid crystal light valve 32 and displaying an image in the vicinity of the projection unit 414, the display 440 functions as one that forms a normal direct-view display screen. Further, when used as a projector, the light diffusing member 450a is disposed at a retracted position (projector position) off the optical path as shown by a solid line, and projection light is formed from illumination light generated from the light source unit 31a. By injecting the formed illumination light from the projection unit 414, the display 440 functions as a projector. When the display 440 functions as a normal display screen, the user views directly from the projection unit 414, whereas when the display 440 functions as a projector, the user is projected from the projection unit 414 on the projection surface. You will see the projected image. Therefore, the image switching process is performed together with the switching of the usage mode of the main body so that the image when the display 440 is used as a normal display screen and the image when the display 440 is used as a projector are reversed left and right. That is, for example, when a command signal for switching the usage mode of the main body is transmitted from the key operation unit 25 as a user selection unit to the projector control unit 38 via the main control unit 29, the projector control unit 38 The video signal is switched according to the command signal and transmitted to the display control unit 33. As described above, image switching display can be performed together with switching of the usage mode of the main body.

以上、実施形態に即して本発明を説明したが、本発明は上記実施形態に限定されるものではない。例えば、上記実施形態では、液晶ライトバルブ32によって投射像を形成したが、走査機構を含む画像生成部によって投射像を形成することもできる。この場合、図14に示すように、光源部331aは、例えば各色のレーザ光源81a,81b,81cと、光合成用のミラー82a,82b,82cとを備える。また、走査機構は、走査ミラー83とアクチュエータ84とを備える。走査ミラー83及びアクチュエータ84で構成される走査手段は、表示画像の投射光を形成する光束L1を光軸OA及びその周辺の正面方向に射出させる。   As described above, the present invention has been described according to the embodiment, but the present invention is not limited to the above embodiment. For example, in the above-described embodiment, the projection image is formed by the liquid crystal light valve 32, but the projection image can also be formed by an image generation unit including a scanning mechanism. In this case, as shown in FIG. 14, the light source unit 331a includes, for example, laser light sources 81a, 81b, and 81c for each color and mirrors 82a, 82b, and 82c for photosynthesis. The scanning mechanism includes a scanning mirror 83 and an actuator 84. The scanning means composed of the scanning mirror 83 and the actuator 84 emits a light beam L1 that forms the projection light of the display image in the front direction of the optical axis OA and its periphery.

また、以上では、プロジェクタ部分30を携帯電話機100に組み込んでいるが、携帯電話機100に代えて、ノート型のPC、PDA(Personal Data Assistance)、フォトビューワー等の携帯型の電子機器にも、上記と同様のプロジェクタ部分30を組み込むことができる。   In the above description, the projector unit 30 is incorporated in the mobile phone 100. However, in place of the mobile phone 100, portable electronic devices such as notebook PCs, PDAs (Personal Data Assistance), and photo viewers are also described above. A similar projector portion 30 can be incorporated.

(A)〜(C)は、第1実施形態に係る電子機器である携帯電話機の図である。(A)-(C) are figures of the mobile telephone which is an electronic device which concerns on 1st Embodiment. プロジェクタとしての携帯電話機の使用態様の図である。It is a figure of the usage condition of the mobile telephone as a projector. 携帯電話機の内部構造のブロック図である。It is a block diagram of the internal structure of a mobile phone. プロジェクタ制御部についてのブロック図である。It is a block diagram about a projector control part. (A)、(B)は、携帯電話機による壁面投射についての図である。(A), (B) is a figure about the wall surface projection by a mobile telephone. (A)、(B)は、携帯電話機による机上面投射についての図である。(A), (B) is a figure about the desk surface projection by a mobile telephone. 画像投影のフローチャート図である。It is a flowchart figure of an image projection. 第2実施形態に係る携帯電話機の内部構造のブロック図である。6 is a block diagram of an internal structure of a mobile phone according to a second embodiment. FIG. 第2実施形態に係るプロジェクタ制御部についてのブロック図である。FIG. 10 is a block diagram of a projector control unit according to a second embodiment. 第2実施形態に係る画像投影のフローチャート図である。FIG. 10 is a flowchart of image projection according to the second embodiment. (A)、(B)は、第3実施形態に係る画像投射について説明する図である。(A), (B) is a figure explaining the image projection which concerns on 3rd Embodiment. (A)〜(C)は、第4実施形態に係る携帯電話機の図である。(A)-(C) is a figure of the mobile phone concerning a 4th embodiment. 第4実施形態に係る画像投射について説明する図である。FIG. 10 is a diagram for describing image projection according to a fourth embodiment. 直描型の画像投射方法を説明する図である。It is a figure explaining the direct-drawing type image projection method.

符号の説明Explanation of symbols

100…携帯電話機、 14、414…投射部、 20、220、420…基本回路部分、 25、225…キー操作部、 26、440…ディスプレイ、 29…主制御部、 30…プロジェクタ部分、 31…照明装置、 31a…光源部、 32…液晶ライトバルブ、 35…投射レンズ装置、 36a、36b…近接物センサ、 37…角度センサ、 38…プロジェクタ制御部、 38a…検出回路、 38b…補正部、 OA…光軸   DESCRIPTION OF SYMBOLS 100 ... Mobile phone 14, 414 ... Projection part 20, 220, 420 ... Basic circuit part 25, 225 ... Key operation part 26, 440 ... Display, 29 ... Main control part 30 ... Projector part 31 ... Illumination Device 31a ... Light source unit 32 ... Liquid crystal light valve 35 ... Projection lens device 36a 36b ... Proximity sensor 37 ... Angle sensor 38 ... Projector control unit 38a ... Detection circuit 38b ... Correction unit OA ... optical axis

Claims (12)

投射画像を形成するプロジェクタ機能を有する電子機器であって、
当該電子機器の設置位置と投射面との関係を検出する検出部と、
前記検出部からの検出情報に応じて、投射画像に対応する映像信号に対して互いに異なる複数の補正のうちいずれか1つを実行できる補正部と、
前記補正部により補正された映像信号に基づいて前記投射画像を投射する画像投射部と
を備える電子機器。
An electronic device having a projector function for forming a projected image,
A detection unit for detecting the relationship between the installation position of the electronic device and the projection surface;
A correction unit capable of executing any one of a plurality of different corrections on the video signal corresponding to the projection image in accordance with detection information from the detection unit;
An electronic device comprising: an image projection unit that projects the projection image based on the video signal corrected by the correction unit.
前記複数の補正は、前記設置位置の基準面に対して垂直な面に投射する垂直面投射に対応する台形補正である第1の補正と、前記基準面に対して平行な面に投射する平行面投射に対応する台形補正である第2の補正とを含み、
前記補正部は、前記検出部からの検出情報に基づいて、前記第1及び第2の補正のいずれか一方を行う決定をする、請求項1記載の電子機器。
The plurality of corrections are a first correction that is a trapezoidal correction corresponding to a vertical plane projection that projects onto a plane perpendicular to the reference plane at the installation position, and a parallel projection that projects onto a plane parallel to the reference plane. A second correction which is a trapezoidal correction corresponding to the surface projection,
The electronic device according to claim 1, wherein the correction unit determines to perform any one of the first and second corrections based on detection information from the detection unit.
前記画像投射部を有するとともに画像を表示する表示画面を有する表示部と、入力用の操作キーを有するとともに前記表示部を支持して前記設置位置に配置される操作部と、前記表示部と前記操作部とを回動可能に連結する連結部とをさらに備え、
前記検出部は、前記表示部と前記操作部との位置関係から前記設置位置と投射面との関係を検出する、請求項1及び請求項2のいずれか一項記載の電子機器。
A display unit having the image projection unit and a display screen for displaying an image; an operation unit having an input operation key and supporting the display unit and arranged at the installation position; the display unit; A connecting portion that rotatably connects the operating portion;
The electronic device according to claim 1, wherein the detection unit detects a relationship between the installation position and a projection surface from a positional relationship between the display unit and the operation unit.
前記検出部は、前記画像投射部を挟むように前記表示部にそれぞれ配置され投射方向側での近接物の有無を検出する一対の近接物センサを有する、請求項3記載の電子機器。   The electronic device according to claim 3, wherein the detection unit includes a pair of proximity object sensors that are respectively disposed on the display unit so as to sandwich the image projection unit and detect presence or absence of a proximity object on the projection direction side. 前記一対の近接物センサは、前記連結部までの距離が互いに異なるように配置されており、
前記補正部は、前記一対の近接物センサのうち前記連結部に遠い方に位置するセンサ側に近接物があると検出された場合に前記第1の補正を行い、前記連結部に近い方に位置するセンサ側に近接物があると検出された場合に前記第2の補正を行う、請求項4記載の電子機器。
The pair of proximity object sensors are arranged such that distances to the connecting portions are different from each other.
The correction unit performs the first correction when it is detected that there is a proximity object on the sensor side that is located farther from the connection part of the pair of proximity object sensors, and the correction part is closer to the connection part. The electronic device according to claim 4, wherein the second correction is performed when it is detected that there is an adjacent object on the sensor side.
前記検出部は、前記連結部を回転軸とする前記操作部に対する前記表示部の回転角度を検出する角度センサを有し、
前記補正部は、前記角度センサでの検出に基づいて前記第1及び第2の補正における補正量を定める、請求項3から請求項5までのいずれか一項記載の電子機器。
The detection unit includes an angle sensor that detects a rotation angle of the display unit with respect to the operation unit with the connection unit as a rotation axis.
The electronic device according to claim 3, wherein the correction unit determines a correction amount in the first and second corrections based on detection by the angle sensor.
前記画像投射部は、前記角度センサにおいて回転角度が0°であると判断されたときは画像投射を停止する制御を行う、請求項6記載の電子機器。   The electronic device according to claim 6, wherein the image projection unit performs control to stop image projection when the angle sensor determines that the rotation angle is 0 °. 前記補正部は、前記検出部からの検出情報に基づいて前記第1及び第2の補正のいずれを実行するかを定めるとともに、前記設置位置と投射面との関係から各補正における映像信号の補正量を定める、請求項1から請求項7までのいずれか一項記載の電子機器。   The correction unit determines which of the first and second corrections is to be executed based on detection information from the detection unit, and corrects the video signal in each correction based on the relationship between the installation position and the projection plane. The electronic device according to any one of claims 1 to 7, wherein the amount is determined. 投射画像を形成するプロジェクタ機能を有する電子機器であって、
ユーザの選択に基づき、それぞれ異なる対象面への投射に対応した複数の補正モードのうち、いずれか1つの補正モードを設定できるモード設定部と、
前記モード設定部で設定された前記補正モードに応じて、前記投射画像に対応する映像信号に対して互いに異なる複数の補正のうちいずれか1つを実行できる補正部と、
前記補正部により補正された映像信号に基づいて前記投射画像を投射する画像投射部と
を備える電子機器。
An electronic device having a projector function for forming a projected image,
Based on the user's selection, a mode setting unit that can set any one correction mode among a plurality of correction modes corresponding to projections on different target surfaces,
A correction unit capable of executing any one of a plurality of different corrections on a video signal corresponding to the projection image according to the correction mode set by the mode setting unit;
An electronic device comprising: an image projection unit that projects the projection image based on the video signal corrected by the correction unit.
前記複数の補正モードは、前記設置位置の基準面に対して垂直な面に投射する垂直面投射に対応する台形補正である第1の補正が実行される第1の補正モードと、前記基準面に対して平行な面に投射する平行面投射に対応する台形補正である第2の補正が実行される第2の補正モードとを含み、
前記補正部は、前記モード設定部における前記第1及び第2の補正モードのいずれか一方の設定により、前記第1及び第2の補正のいずれか一方を行う決定をする、請求項9記載の電子機器。
The plurality of correction modes include a first correction mode in which a first correction that is a trapezoidal correction corresponding to a vertical plane projection that projects onto a plane perpendicular to the reference plane of the installation position, and the reference plane A second correction mode in which a second correction, which is a trapezoidal correction corresponding to parallel plane projection that projects onto a plane parallel to
The said correction | amendment part determines to perform any one of the said 1st and 2nd correction by the setting of any one of the said 1st and 2nd correction mode in the said mode setting part. Electronics.
前記画像投射部を有するとともに画像を表示する表示画面を有する表示部と、入力用の操作キーを有するとともに前記表示部を支持して前記設置位置に配置される操作部と、前記表示部と前記操作部とを回動可能に連結する連結部と、前記連結部を回転軸とする前記操作部に対する前記表示部の回転角度を検出する角度センサとをさらに備え、
前記補正部は、前記角度センサでの検出に基づいて前記第1及び第2の補正における補正量を定める、請求項9及び請求項10のいずれか一項記載の電子機器。
A display unit having the image projection unit and a display screen for displaying an image; an operation unit having an input operation key and supporting the display unit and arranged at the installation position; the display unit; A connection unit that rotatably connects the operation unit; and an angle sensor that detects a rotation angle of the display unit with respect to the operation unit with the connection unit as a rotation axis.
The electronic device according to claim 9, wherein the correction unit determines a correction amount for the first and second corrections based on detection by the angle sensor.
前記画像投射部は、前記角度センサにおいて回転角度が0°であると判断されたときは画像投射を停止する制御を行う、請求項11記載の電子機器。   The electronic device according to claim 11, wherein the image projection unit performs control to stop image projection when the angle sensor determines that the rotation angle is 0 °.
JP2008186838A 2008-07-18 2008-07-18 Electronic device Withdrawn JP2010028412A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008186838A JP2010028412A (en) 2008-07-18 2008-07-18 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008186838A JP2010028412A (en) 2008-07-18 2008-07-18 Electronic device

Publications (1)

Publication Number Publication Date
JP2010028412A true JP2010028412A (en) 2010-02-04

Family

ID=41733829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008186838A Withdrawn JP2010028412A (en) 2008-07-18 2008-07-18 Electronic device

Country Status (1)

Country Link
JP (1) JP2010028412A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4763092B1 (en) * 2010-12-02 2011-08-31 パナソニック株式会社 Image display device and portable information processing device
JP4772917B1 (en) * 2010-12-02 2011-09-14 パナソニック株式会社 Portable information processing device
WO2012070503A1 (en) * 2010-11-26 2012-05-31 京セラ株式会社 Portable electronic apparatus
JP2012113255A (en) * 2010-11-26 2012-06-14 Kyocera Corp Mobile electronic device
JP2012114863A (en) * 2010-11-26 2012-06-14 Kyocera Corp Portable electronic apparatus
JP2012181473A (en) * 2011-03-03 2012-09-20 Nikon Corp Image projection device
JP2013029533A (en) * 2011-07-26 2013-02-07 Rohm Co Ltd Projector
CN103809354A (en) * 2012-11-13 2014-05-21 联想(北京)有限公司 Electronic device
CN106331666A (en) * 2015-07-03 2017-01-11 中兴通讯股份有限公司 Trapezoidal projection terminal correction method and device, and projection terminal
US9686388B2 (en) 2011-05-13 2017-06-20 Rohm Co., Ltd. Projector
JP2017533456A (en) * 2014-09-25 2017-11-09 インテル コーポレイション Integrated and adjustable image projection with automatic image correction in electronic devices using inward or outward image projectors
JP2020106739A (en) * 2018-12-28 2020-07-09 セイコーエプソン株式会社 Method for controlling projector, and projector
JP2021092638A (en) * 2019-12-10 2021-06-17 パナソニックIpマネジメント株式会社 projector

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012070503A1 (en) * 2010-11-26 2012-05-31 京セラ株式会社 Portable electronic apparatus
JP2012113255A (en) * 2010-11-26 2012-06-14 Kyocera Corp Mobile electronic device
JP2012114863A (en) * 2010-11-26 2012-06-14 Kyocera Corp Portable electronic apparatus
US9097966B2 (en) 2010-11-26 2015-08-04 Kyocera Corporation Mobile electronic device for projecting an image
EP2461593A3 (en) * 2010-12-02 2014-09-17 Panasonic Corporation Image display apparatus and information processing apparatus having the same and method of controlling image display apparatus
JP4772917B1 (en) * 2010-12-02 2011-09-14 パナソニック株式会社 Portable information processing device
JP4763092B1 (en) * 2010-12-02 2011-08-31 パナソニック株式会社 Image display device and portable information processing device
US8690350B2 (en) 2010-12-02 2014-04-08 Panasonic Corporation Image display apparatus and information processing apparatus having the same and method of controlling image display apparatus
JP2012181473A (en) * 2011-03-03 2012-09-20 Nikon Corp Image projection device
US9686388B2 (en) 2011-05-13 2017-06-20 Rohm Co., Ltd. Projector
US9942368B2 (en) 2011-05-13 2018-04-10 Rohm Co., Ltd. Projector
JP2013029533A (en) * 2011-07-26 2013-02-07 Rohm Co Ltd Projector
CN103809354A (en) * 2012-11-13 2014-05-21 联想(北京)有限公司 Electronic device
CN108495103A (en) * 2012-11-13 2018-09-04 联想(北京)有限公司 A kind of electronic equipment
JP2017533456A (en) * 2014-09-25 2017-11-09 インテル コーポレイション Integrated and adjustable image projection with automatic image correction in electronic devices using inward or outward image projectors
EP3306919A4 (en) * 2015-07-03 2018-07-18 ZTE Corporation Projection terminal keystone correction method and device, and projection terminal and storage medium
CN106331666A (en) * 2015-07-03 2017-01-11 中兴通讯股份有限公司 Trapezoidal projection terminal correction method and device, and projection terminal
US10645354B2 (en) 2015-07-03 2020-05-05 Zte Corporation Projection terminal keystone correction method and device, and projection terminal and storage medium
JP2020106739A (en) * 2018-12-28 2020-07-09 セイコーエプソン株式会社 Method for controlling projector, and projector
JP7180372B2 (en) 2018-12-28 2022-11-30 セイコーエプソン株式会社 Projector control method and projector
JP2021092638A (en) * 2019-12-10 2021-06-17 パナソニックIpマネジメント株式会社 projector
JP7349625B2 (en) 2019-12-10 2023-09-25 パナソニックIpマネジメント株式会社 projector

Similar Documents

Publication Publication Date Title
JP2010028412A (en) Electronic device
US8702244B2 (en) Multimedia player displaying projection image
JP5259010B2 (en) Portable electronic device and projection system
JP5047058B2 (en) Mobile terminal device
US20140118704A1 (en) Mobile Device, Case and Attachment with Retractable Optic
US20120182307A1 (en) Projector device and projecting method
US8876300B2 (en) Image projecting apparatus having function of changing light emission direction for emitting obliquely inclined light
JP2009258569A (en) Electronic device
KR20100027715A (en) Projection display device
US20110069242A1 (en) Projection desplay apparatus
WO2016052030A1 (en) Projection-type display device
JP2009159364A (en) Terminal with image projecting function
JP5320754B2 (en) Projector and portable device equipped with the same
JP2009135622A (en) Display device and portable terminal device
CN104658462A (en) Porjector and method of controlling projector
US20090257031A1 (en) Multiple projector image overlay systems
KR101654723B1 (en) Mobile terminal
EP2728850B1 (en) Close-up photography method and terminal supporting the same
JP4047822B2 (en) Electronics
US20130155113A1 (en) Image display device and mobile device
JP2017129767A (en) Reflector, method of adjusting light-emitting device, and detection system
KR20010024002A (en) Video display device and method of adjustment thereof
JP5665570B2 (en) Electronics
JP4480387B2 (en) Projector, projector focus automatic adjustment system, projector focus automatic adjustment method
CN114374827A (en) Display method and display device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111004