JP2014044369A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2014044369A
JP2014044369A JP2012187933A JP2012187933A JP2014044369A JP 2014044369 A JP2014044369 A JP 2014044369A JP 2012187933 A JP2012187933 A JP 2012187933A JP 2012187933 A JP2012187933 A JP 2012187933A JP 2014044369 A JP2014044369 A JP 2014044369A
Authority
JP
Japan
Prior art keywords
image
size
image data
distance information
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012187933A
Other languages
Japanese (ja)
Other versions
JP5987557B2 (en
Inventor
Taro Kikuchi
太郎 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012187933A priority Critical patent/JP5987557B2/en
Publication of JP2014044369A publication Critical patent/JP2014044369A/en
Application granted granted Critical
Publication of JP5987557B2 publication Critical patent/JP5987557B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Character Input (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device capable of providing many viewers with a screen that is easy to watch.SOLUTION: A image display device comprises: image input means 12 for receiving image data including one kind or more of image component objects; image processing means 14 for processing the image data inputted by the image input means to generate an image for display; image display means 13 for displaying the image data inputted by the image input means in an image display surface 200; distance information acquisition means 11 for detecting distance information between each of the plurality of viewers and the image display surface or acquiring the distance information from a distance detection device; object discrimination means 24 for discriminating an object included in the image data; and image processing means 25 for performing processing which improves visibility of the image data on the image display surface on the image data in accordance with the kind of the object discriminated by the object discrimination means and the distance information acquired by the distance information acquisition means.

Description

本発明は、入力された画像データを表示する画像表示装置に関する。   The present invention relates to an image display device that displays input image data.

会議などでは視聴者が共通の情報を視聴して議論することなどが多く行われる。情報の表示には、大きな画面を有する表示装置が好ましく、プロジェクタ、大画面フラットパネルディスプレイ、又は、電子黒板などが使用される。   In meetings and the like, viewers often view and discuss common information. For display of information, a display device having a large screen is preferable, and a projector, a large screen flat panel display, an electronic blackboard, or the like is used.

表示装置の画面の大きさは視認性に影響を与えるため、画面の大きさから適正な視聴者数を提示する技術が提案されている(例えば、特許文献1参照。)。特許文献1には、ユーザが、プロジェクタの機種、スクリーンサイズ、視聴者の机の配置を入力すると、投影画像を視聴するのに推奨される視聴エリア、視聴者の人数、画像投影時の環境の明るさ(室内を点灯できるか否か)、などの情報を視覚的に表示するプロジェクタ選択支援サーバが開示されている。   Since the size of the screen of the display device affects the visibility, a technique for presenting an appropriate number of viewers based on the size of the screen has been proposed (for example, see Patent Document 1). In Patent Document 1, when a user inputs a projector model, a screen size, and an arrangement of a viewer's desk, a viewing area recommended for viewing a projected image, the number of viewers, and an environment at the time of image projection are described. A projector selection support server that visually displays information such as brightness (whether or not the room can be lit) is disclosed.

また、良好な視認性が得られるように画面の大きさを調整する技術が提案されている(例えば、特許文2参照。)。特許文献2には、スクリーンとプロジェクタとの距離、又は、視聴者とスクリーンとの距離が変わっても文字のサイズが一定の大きさになるように画像を投影する投影装置が開示されている。   In addition, a technique for adjusting the size of the screen so as to obtain good visibility has been proposed (see, for example, Patent Document 2). Patent Document 2 discloses a projection device that projects an image so that the character size is constant even when the distance between the screen and the projector or the distance between the viewer and the screen changes.

しかしながら、特許文献1に開示されたプロジェクタ選択支援サーバは、机の配置等に応じて視聴エリアを通知する技術に過ぎず、視聴者の人数が変わった場合に画面や文字のサイズなどを調整することができない。   However, the projector selection support server disclosed in Patent Document 1 is merely a technique for notifying a viewing area according to the arrangement of a desk or the like, and adjusts the screen, character size, and the like when the number of viewers changes. I can't.

また、特許文献2に開示された投影装置では、一人の視聴者に対しては、文字のサイズを適切に維持するとしても、多人数の視聴者に対しては最適な画像を提供できないという問題がある。   In addition, the projection device disclosed in Patent Document 2 cannot provide an optimal image to a large number of viewers even if the character size is appropriately maintained for a single viewer. There is.

また、特許文献2では、文字以外のオブジェクトについて考慮されていないという問題がある。文字以外のオブジェクトを一定サイズに調整すると、多人数の視聴者のうちスクリーンに近い視聴者にはジャギーやノイズが目立つおそれがある。   Moreover, in patent document 2, there exists a problem that it is not considered about objects other than a character. When objects other than characters are adjusted to a certain size, jaggy and noise may be noticeable among viewers close to the screen among a large number of viewers.

このように、従来の画面の表示方法では、多人数の視聴者に対しオブジェクトを考慮して最適な画像を提供することができないという問題があった。   As described above, the conventional screen display method has a problem in that an optimal image cannot be provided to a large number of viewers in consideration of objects.

本発明は、上記課題に鑑み、多人数の視聴者に対し見やすい画面を提供できる画像表示装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an image display device that can provide an easy-to-view screen for a large number of viewers.

上記課題に鑑み、本発明は、画像構成要素のオブジェクトを一種類以上含む画像データが入力される画像入力手段と、前記画像入力手段より入力された前記画像データに処理を施して表示用の画像を生成する画像処理手段と、前記画像入力手段が入力した前記画像データを画像表示面に表示する画像表示手段と、複数の視聴者のそれぞれと前記画像表示面との距離情報を検出するか、又は、前記距離情報を距離検出装置から取得する距離情報取得手段と、前記画像データに含まれるオブジェクトの種類を判別するオブジェクト判別手段と、前記オブジェクト判別手段が判別したオブジェクトの種類及び前記距離情報取得手段が取得した距離情報に応じて、前記画像表示面の前記画像データの視認性を向上させる加工を前記画像データに施す画像加工手段と、を有することを特徴とする。   In view of the above problems, the present invention provides an image input means for inputting image data including one or more types of objects of image components, and an image for display by processing the image data input from the image input means. Detecting the distance information between each of a plurality of viewers and the image display surface, the image processing means for generating the image data, the image display means for displaying the image data input by the image input means on the image display surface, Or distance information acquisition means for acquiring the distance information from a distance detection device, object determination means for determining the type of object included in the image data, and the object type and distance information acquisition determined by the object determination means An image to be processed to improve the visibility of the image data on the image display surface according to the distance information acquired by the means And processing means, characterized by having a.

多人数の視聴者に対し見やすい画面を提供できる画像表示装置を提供することができる。   An image display device that can provide an easy-to-view screen for a large number of viewers can be provided.

本実施形態のプロジェクタの概略的な動作を説明する図の一例である。It is an example of the figure explaining schematic operation | movement of the projector of this embodiment. 画像投影システムの概略構成図の一例である。It is an example of the schematic block diagram of an image projection system. プロジェクタの機能ブロック図の一例である。It is an example of the functional block diagram of a projector. 3LCD方式の画像投影を模式的に説明する図の一例である。It is an example of the figure which illustrates image projection of 3LCD system typically. 距離の検出方法を模式的に説明する図の一例である。It is an example of the figure which illustrates the detection method of distance typically. 距離の検出方法を模式的に説明する図の一例であるIt is an example of the figure which illustrates the detection method of distance typically 距離の検出方法を模式的に説明する図の一例であるIt is an example of the figure which illustrates the detection method of distance typically 位置情報管理システムの概略構成図の一例である。It is an example of a schematic block diagram of a positional information management system. 図8において無線ネットワークを構成する通信装置、無線端末、管理装置を抜き出して示す図の一例である。It is an example of the figure which extracts and shows the communication apparatus, wireless terminal, and management apparatus which comprise a wireless network in FIG. 画像処理部の機能ブロック図の一例である。It is an example of a functional block diagram of an image processing unit. プロジェクタと視聴者を模式的に示す図の一例である。It is an example of the figure which shows a projector and a viewer typically. 主に文字が含まれる画像データが入力された場合の、画像加工部の処理手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the process sequence of the image process part when the image data mainly containing a character are input. 図11の視聴者と、拡大される文字サイズの関係を説明する図の一例である。It is an example of the figure explaining the relationship between the viewer of FIG. 11, and the character size expanded. 主に写真又はグラフィックス画像が含まれる画像データが入力された場合の、画像加工部の処理手順を示すフローチャート図の一例である(実施例2)。(Example 2) which is an example of the flowchart figure which shows the process sequence of the image process part when the image data mainly containing a photograph or a graphics image are input. 画像加工部の処理手順を示すフローチャート図の一例である(実施例3)。(Example 3) which is an example of the flowchart figure which shows the process sequence of an image process part. ノイズ画素の割合と距離の最小値に対し許容倍率が求められた許容倍率決定テーブルの一例を示す図である。It is a figure which shows an example of the allowable magnification determination table by which the allowable magnification was calculated | required with respect to the ratio of a noise pixel, and the minimum value of distance. 図11の視聴者と、拡大されるオブジェクトのサイズの関係を説明する図の一例である。FIG. 12 is an example of a diagram illustrating a relationship between the viewer of FIG. 11 and the size of an object to be enlarged. 画像加工部の処理手順を示すフローチャート図の一例である(実施例4)。(Example 4) which is an example of the flowchart figure which shows the process sequence of an image process part. 投影限界拡大サイズの決定方法を模式的に説明する図の一例である。It is an example of the figure which illustrates typically the determination method of a projection limit enlarged size. 投影限界拡大サイズの決定方法を模式的に説明する図の一例である。It is an example of the figure which illustrates typically the determination method of a projection limit enlarged size. 画像加工部の処理手順を示すフローチャート図の一例である(実施例5)。(Example 5) which is an example of the flowchart figure which shows the process sequence of an image process part. 拡大・縮小処理を模式的に説明する図の一例である。It is an example of the figure which illustrates an expansion / reduction process typically. 画像加工部の処理手順を示すフローチャート図の一例である(実施例6)。(Example 6) which is an example of the flowchart figure which shows the process sequence of an image process part. 削除文字サイズの決定を説明する図の一例である。It is an example of the figure explaining determination of the deletion character size.

以下、本発明を実施するための形態について図面を参照しながら実施例を挙げて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

図1は、本実施形態のプロジェクタの概略的な動作を説明する図の一例である。プロジェクタにはコンピュータ、MFP(Multi Function Printer)、又は、可搬型のメモリなどから画像データが入力される。   FIG. 1 is an example of a diagram illustrating a schematic operation of the projector according to the present embodiment. Image data is input to the projector from a computer, an MFP (Multi Function Printer), or a portable memory.

プロジェクタは、画像データを解析して含まれるオブジェクトの種類を判別する。オブジェクトには、写真、グラフィック、文字、動画などがある。また、プロジェクタは、視聴者を検出すると共に、スクリーンから各視聴者までの距離を検出する。   The projector determines the type of object included by analyzing the image data. Objects include photographs, graphics, text, and animation. Further, the projector detects the viewer and also detects the distance from the screen to each viewer.

そして、プロジェクタは、オブジェクトの種類及びスクリーンから視聴者a、cまでの距離に応じて、例えば、以下のように表示するオブジェクト又は画面のサイズを制御する。
(i) オブジェクトが例えば文字の場合
視聴者cまでの距離に応じて文字サイズを拡大とする。文字の場合、視聴者cまでの距離が長いほど文字サイズを大きくする。これにより、遠方の視聴者cが文字を判読することができ、近くの視聴者aも文字を判読することができる。
(ii) オブジェクトが写真やグラフィックの場合
視聴者cまでの距離に応じて写真の大きさを拡大するが、近くの視聴者aまでの距離により設定した上限以上には大きくしない。写真の場合、ある程度の大きさがあれば、遠方の視聴者cでも撮影物を判別可能である。また、写真を大きくしすぎてしまうと、近くの視聴者aによってジャギーやノイズが目立ち違和感を与えてしまうが、上限を設けることで近くの視聴者に対する画像品質を維持できる。
Then, the projector controls the size of the object or screen to be displayed as follows, for example, according to the type of the object and the distance from the screen to the viewers a and c.
(i) When the object is, for example, a character The character size is enlarged according to the distance to the viewer c. In the case of characters, the character size is increased as the distance to the viewer c is longer. Thereby, the distant viewer c can read the characters, and the near viewer a can also read the characters.
(ii) When the object is a photograph or graphic The size of the photograph is enlarged according to the distance to the viewer c, but not larger than the upper limit set by the distance to the nearby viewer a. In the case of a photograph, if there is a certain size, a distant viewer c can discriminate the photographed object. Also, if the photograph is made too large, jaggy and noise will be noticeable by the nearby viewer a, but by setting an upper limit, the image quality for the nearby viewer can be maintained.

このように、本実施形態のプロジェクタは、オブジェクトを判別し、かつ、各視聴者との距離を検出する。これにより、視聴者が多人数であってもオブジェクトに応じて遠方と近傍の視聴者それぞれが見やすい最適なサイズに画面やオブジェクトのサイズを調整することができる。   As described above, the projector according to the present embodiment determines an object and detects a distance from each viewer. Thereby, even if there are a large number of viewers, it is possible to adjust the size of the screen or the object to an optimal size that is easy for a remote viewer and a nearby viewer to easily see according to the object.

〔構成例〕
図2は、画像投影システムの概略構成図の一例を示す。プロジェクタ100には外部PC端末300、又は、MFP400がネットワークを介して(又は直接)接続されている。プロジェクタ100には、外部PC端末300やMFP400から画像データが入力される。ネットワークは、有線又は無線のいずれでもよい。
[Configuration example]
FIG. 2 shows an example of a schematic configuration diagram of the image projection system. An external PC terminal 300 or an MFP 400 is connected to the projector 100 via a network (or directly). Image data is input to the projector 100 from the external PC terminal 300 or the MFP 400. The network may be either wired or wireless.

外部PC端末300は、HDMIやD−SUBなどの映像出力端子をプロジェクタ100に接続する他、LANなどを介して電子ファイル形式(例えば、JPEG、GIF、MPEG2等)の画像データをプロジェクタ100に送信する。   In addition to connecting video output terminals such as HDMI and D-SUB to the projector 100, the external PC terminal 300 transmits image data in an electronic file format (for example, JPEG, GIF, MPEG2, etc.) to the projector 100 via a LAN or the like. To do.

MFP400は多機能プリンタであるが、本実施形態では画像読取装置としてスキャナ機能を備えていることが好ましい。MFP400は原稿を読み取った上で紙出力に最適な(原稿画像を忠実に転写紙上に再現するような)画像処理を行い、複写画像を印刷する。また、読取画像に対してディスプレイ表示に最適な画像処理を加えた上でJPEG等の画像フォーマットに変換した画像データを、LANなどを介してプロジェクタ100に送信する。   The MFP 400 is a multi-function printer, but in the present embodiment, it is preferable to have a scanner function as an image reading apparatus. The MFP 400 scans the original, performs image processing optimal for paper output (such as faithfully reproducing the original image on the transfer paper), and prints a copy image. Further, the image data that has been subjected to image processing optimal for display on the read image and converted into an image format such as JPEG is transmitted to the projector 100 via a LAN or the like.

外部PC端末300とMFP400はプロジェクタ100に画像データを提供する装置の一例であり、ユーザがUSBメモリのような不揮発メモリをプロジェクタ100に装着しても、プロジェクタ100は記憶されている画像データを読み出すことができる。   The external PC terminal 300 and the MFP 400 are examples of devices that provide image data to the projector 100, and the projector 100 reads stored image data even if a user attaches a nonvolatile memory such as a USB memory to the projector 100. be able to.

プロジェクタ100は、プロジェクタ100に入力された画像データに対して、画像投影に最適な画像処理を施した上で画像投影面200へ投影を行う。画像投影面200の典型例はスクリーン(プロジェクタ投影専用のスクリーン。高品質な投影画像が可能になる。)であるが、ユーザは白色あるいは淡いパステルカラーを有する会議室の壁面、ホワイトボード等を画像投影面200として代替使用することができる。   The projector 100 projects the image data input to the projector 100 onto the image projection plane 200 after performing image processing optimal for image projection. A typical example of the image projection surface 200 is a screen (a screen dedicated to projector projection; enables high-quality projection images). However, the user can image a wall or whiteboard in a conference room having white or light pastel colors. The projection surface 200 can be used alternatively.

プロジェクタ100は特許請求の範囲の画像表示装置の一例であり、大画面フラットパネルディスプレイでも本実施例のオブジェクトの拡大方法を適用できる。この場合、投影面のサイズに物理的な制限があるが、画像データのうち投影できない部分は、スクロール操作などで表示可能である。   The projector 100 is an example of the image display device in the claims, and the object enlargement method of the present embodiment can be applied to a large screen flat panel display. In this case, although there is a physical limitation on the size of the projection plane, a portion of the image data that cannot be projected can be displayed by a scroll operation or the like.

図3は、プロジェクタ100の機能ブロック図の一例を示す。プロジェクタ100は、コントローラ12により制御され、コントローラ12に距離算出部11、画像投影部13、画像処理部14、及び、操作入力部15が接続されている。   FIG. 3 shows an example of a functional block diagram of the projector 100. The projector 100 is controlled by a controller 12, and a distance calculation unit 11, an image projection unit 13, an image processing unit 14, and an operation input unit 15 are connected to the controller 12.

操作入力部15は、使用者の操作を受け付けるハードキー、タッチパネル式の液晶などに表示されたソフトキー、又は、音声入力装置などである。また、外部PC端末300やMFP400からコマンドを受信して操作を受け付けることができる。   The operation input unit 15 is a hard key that receives a user's operation, a soft key displayed on a touch panel type liquid crystal, or a voice input device. In addition, a command can be received from the external PC terminal 300 or the MFP 400 to accept an operation.

外部PC端末等より入力された画像データは、コントローラ12を介して画像処理部14へ入力される。画像処理部14は、画像投影用に画像データに処理を施す。例えば、画像データの解像度をプロジェクタ100が対応する解像度に変換したり、RGBの各色の画像への分解、所定の色信号を強調・減衰したり、画像の周辺の先鋭度を高くするなどの処理を行う。   Image data input from an external PC terminal or the like is input to the image processing unit 14 via the controller 12. The image processing unit 14 processes the image data for image projection. For example, the resolution of the image data is converted to a resolution that the projector 100 supports, the image is decomposed into RGB images, the predetermined color signal is emphasized / attenuated, and the sharpness around the image is increased. I do.

なお、画像処理部14は、本実施例の特徴部の1つとして、画像データに含まれるオブジェクトを判別する。   Note that the image processing unit 14 determines an object included in the image data as one of the characteristic portions of the present embodiment.

<画像投影部>
画像投影部13は、画像投影面200に画像を投影する。画像の投影方式には透過型液晶を使用するLCD方式、反射型液晶を使用するLCOS方式、マイクロミラーを使用するDLP方式などがある。本実施形態では3枚の反射型液晶を使用する3LCD(液晶透過型3板式)について説明するが、投影方式はどのようなものでもよい。
<Image projection unit>
The image projection unit 13 projects an image on the image projection surface 200. Image projection methods include an LCD method using transmissive liquid crystal, an LCOS method using reflective liquid crystal, and a DLP method using micromirrors. In this embodiment, a 3LCD (liquid crystal transmission type 3 plate type) using three reflection type liquid crystals will be described, but any projection method may be used.

図4は、3LCD方式の画像投影部13を模式的に説明する図の一例である。
光源131は高圧水銀ランプなどであり、白色光を照射する。1つ目のダイクロックミラー132は、例えば、R(レッド)の波長の光を透過させ、G(グリーン)とB(ブルー)の波長の光を反射する。
FIG. 4 is an example of a diagram schematically illustrating the 3LCD image projection unit 13.
The light source 131 is a high-pressure mercury lamp or the like and emits white light. The first dichroic mirror 132 transmits, for example, light of R (red) wavelength and reflects light of G (green) and B (blue) wavelengths.

R(レッド)の光はミラー135で全反射され、レンズ140で集光された後、LCD(R)1381に入射する。G(グリーン)とB(ブルー)の波長の光は2つ目のダイクロックミラー133に入射する。2つ目のダイクロックミラー133はG(グリーン)の波長の光を反射して、B(ブルー)の波長の光を透過させる。G(グリーン)の光はレンズ141で集光されLCD(G)1382に入射する。B(ブルー)の波長の光は、ミラー134,138で全反射され、レンズ142で集光された後、LCD(B)1383に入射する。   The R (red) light is totally reflected by the mirror 135, collected by the lens 140, and then enters the LCD (R) 1381. Light of G (green) and B (blue) wavelengths is incident on the second dichroic mirror 133. The second dichroic mirror 133 reflects light of G (green) wavelength and transmits light of B (blue) wavelength. The G (green) light is collected by the lens 141 and enters the LCD (G) 1382. Light having a wavelength of B (blue) is totally reflected by the mirrors 134 and 138, collected by the lens 142, and then enters the LCD (B) 1383.

各LCDは、投影対象の画像データによりコントローラ12により制御される。すなわち、画像データのR成分に基づきLCD(R)1381の各画素の透過量が制御されR(レッド)の階調制御が行われる。同様に、G成分に基づきLCD(G)1382の各画素の透過量が制御されG(グリーン)の階調制御が行われ、B成分に基づきLCD(B)1383の各画素の透過量が制御されB(ブルー)の階調制御が行われる。   Each LCD is controlled by the controller 12 by image data to be projected. That is, the transmission amount of each pixel of the LCD (R) 1381 is controlled based on the R component of the image data, and gradation control of R (red) is performed. Similarly, the transmission amount of each pixel of the LCD (G) 1382 is controlled based on the G component to perform G (green) gradation control, and the transmission amount of each pixel of the LCD (B) 1383 is controlled based on the B component. Then, gradation control of B (blue) is performed.

各LCDを通過した各色の光は、ダイクロックプリズム139に入射する。ダイクロックプリズム139は、R(レッド)の波長の光を90度反射し、G(グリーン)の波長の光を透過し、B(ブルー)の波長の光を90度反射する。これにより、各LCDを通過した各色の波長の光が合成され、合成された光が投射光学系136で集光・変倍され画像投影面200に投影される。   The light of each color that has passed through each LCD enters the dichroic prism 139. The dichroic prism 139 reflects light of R (red) wavelength by 90 degrees, transmits light of G (green) wavelength, and reflects light of B (blue) wavelength by 90 degrees. As a result, the light of each color wavelength that has passed through each LCD is combined, and the combined light is condensed and scaled by the projection optical system 136 and projected onto the image projection plane 200.

コントローラ12は、投射光学系136のレンズをアクチュエータを駆動して光軸に沿って移動することで、投影する画像を拡大・縮小し、投影サイズを調整することができる。また、コントローラ12は光学系に設定した(制御した)倍率を常に把握し管理しているものとする。   The controller 12 can adjust the projection size by enlarging / reducing the projected image by moving the lens of the projection optical system 136 along the optical axis by driving the actuator. Further, it is assumed that the controller 12 always grasps and manages the magnification set (controlled) in the optical system.

<距離算出部>
距離算出部11は、プロジェクタ100が投影する画像投影面200と複数の視聴者それぞれとの距離を検出する。以下、距離算出の例として、以下の(i)〜(v)の方法と構成を説明する。
<Distance calculation unit>
The distance calculation unit 11 detects the distance between the image projection plane 200 projected by the projector 100 and each of a plurality of viewers. Hereinafter, the following methods and configurations (i) to (v) will be described as examples of distance calculation.

(i) プロジェクタ100に全方位魚眼レンズカメラを用いたステレオの全方位カメラを搭載する場合
図5は、距離の検出方法を模式的に説明する図の一例である。プロジェクタ100には「全方位魚眼レンズ+CMOSセンサ」が上部に設置されている。全方位魚眼レンズはプロジェクタ100の周囲360度を全てから集光して焦点を合わせることができるので、CMOSセンサにより周囲360度の被写体を撮影することができる。
(i) When a stereo omnidirectional camera using an omnidirectional fisheye lens camera is installed in the projector 100 FIG. 5 is an example of a diagram schematically illustrating a distance detection method. The projector 100 is provided with “omnidirectional fisheye lens + CMOS sensor” at the top. Since the omnidirectional fisheye lens can focus and focus on all 360 degrees around the projector 100, a CMOS sensor can shoot an object around 360 degrees.

また、この全方位魚眼レンズを上下に二枚重ね、CMOSセンサも二つ利用することで、全方位カメラ112はプロジェクタ100の全周で視差の異なる一対の視差画像を得ることが可能となる。よって、ステレオカメラの原理を利用すれば、焦点距離や画素ピッチなどのカメラパラメータなどを用いてプロジェクタ100から被写体までの距離を測定することができる。なお、全方位カメラ112による撮影画像はレンズの歪曲などが非常に大きいため、画像処理にて歪曲補正などを実施する。   In addition, by superimposing two omnidirectional fisheye lenses on the top and bottom and using two CMOS sensors, the omnidirectional camera 112 can obtain a pair of parallax images having different parallaxes around the entire circumference of the projector 100. Therefore, if the principle of the stereo camera is used, the distance from the projector 100 to the subject can be measured using camera parameters such as a focal length and a pixel pitch. Note that the image captured by the omnidirectional camera 112 has a very large lens distortion and the like, and thus distortion correction and the like are performed by image processing.

被写体としての視聴者は、例えば顔認識技術を利用して認識する。具体的な顔認識技術としては公知の手法を用いればよく以下は一例である。
a. 顔に特徴的な陰影に着目して、その部分毎に陰影を白黒の画像に置き換えた検出用のテンプレート画像を多数、準備しておく。例えば、鼻の頂点は明るいので白画素で表し、その周りは暗くなるので黒画素で表す。
b. 顔の検出対象の画像データを2値化する。
c. 画像データとテンプレート画像をマッチングさせ、画像データのうち一致した画素に投票する。これを全てのテンプレート画像で行う。
d. 顔が映っている領域は、投票数が多くなるはずなので、画素毎に投票数と閾値を比較して、閾値以上の画素が連続した領域を顔が映っている領域であると判定する。視聴者の顔を認識できれば、視聴者の方向も特定できる。
A viewer as a subject is recognized using, for example, face recognition technology. As a specific face recognition technique, a known method may be used, and the following is an example.
a. Prepare a number of detection template images in which the shadow is replaced with a black and white image for each portion, focusing on the shadow characteristic of the face. For example, the apex of the nose is bright and is represented by white pixels, and the surrounding area is dark and is represented by black pixels.
b. Binarize the face detection target image data.
c. Match the image data with the template image and vote for the matched pixels in the image data. This is performed for all template images.
d. Since the area where the face is reflected should have a large number of votes, the number of votes is compared with the threshold value for each pixel, and the area where pixels equal to or greater than the threshold value are consecutive is determined to be the area where the face is reflected. . If the viewer's face can be recognized, the viewer's direction can also be specified.

画像投影面200は例えば以下のようにして検出される。画像の投影方向は固定なので全方位カメラ112で撮影された画像のうち投影画像が撮影されたおよその画素範囲は既知となる。また、画像が撮影された範囲は所定値以上の輝度でその形状が長方形なので二値化とパターンマッチングにより容易に検出できる。光学系の倍率は制御値なので、倍率が所定値であるとすれば、画像のサイズと画像投影面200までの距離には一定の関係がある。したがって、画像のサイズが分かれば、距離を求めることができる。また、より正確には、プロジェクタ100により任意のテストパターンを表示させることで画像の検出精度が高くなる。例えば、テストパターンを市松模様とすれば、画像の検出が容易になり、距離の検出精度も向上する。   The image projection plane 200 is detected as follows, for example. Since the projection direction of the image is fixed, an approximate pixel range in which the projection image is photographed among the images photographed by the omnidirectional camera 112 is known. In addition, since the range where the image is taken has a luminance of a predetermined value or more and a rectangular shape, it can be easily detected by binarization and pattern matching. Since the magnification of the optical system is a control value, if the magnification is a predetermined value, there is a certain relationship between the image size and the distance to the image projection plane 200. Therefore, if the size of the image is known, the distance can be obtained. More precisely, displaying the arbitrary test pattern by the projector 100 increases the image detection accuracy. For example, if the test pattern is a checkered pattern, the image can be easily detected and the distance detection accuracy can be improved.

以上のようにして、図5に示すようにプロジェクタ100と視聴者まで距離B1、B2、及び、プロジェクタ100と画像投影面200までの距離Aを検出できる。また、視聴者の方向が特定されているので、プロジェクタ100と画像投影面200を結ぶ直線と、プロジェクタ100と視聴者を結ぶ直線とのなす角C1、C2が明らかになる。したがって、余弦定理により画像投影面200と視聴者の距離を求めることができる。
S1=√(A+B1−2A・B1・CosC1)
S2=√(A+B2−2A・B2・CosC2)
(ii) 画像投影面200にステレオカメラを搭載する場合
図6は、距離の検出方法を模式的に説明する図の一例である。画像投影面200にはステレオカメラ113が設置されている。ステレオカメラ113は、画素毎に視差情報を取得するので、画素毎に距離を検出できる。また、顔認識技術により、視聴者を検出できるので、各視聴者までの距離も取得できる。
As described above, the distances B1 and B2 between the projector 100 and the viewer and the distance A between the projector 100 and the image projection plane 200 can be detected as shown in FIG. Further, since the viewer's direction is specified, the angles C1 and C2 formed by the straight line connecting the projector 100 and the image projection plane 200 and the straight line connecting the projector 100 and the viewer become clear. Therefore, the distance between the image projection plane 200 and the viewer can be obtained by the cosine theorem.
S1 = √ (A 2 + B1 2 −2A · B1 · CosC1)
S2 = √ (A 2 + B2 2 −2A · B2 · CosC2)
(ii) When a stereo camera is mounted on the image projection plane 200 FIG. 6 is an example of a diagram schematically illustrating a distance detection method. A stereo camera 113 is installed on the image projection plane 200. Since the stereo camera 113 acquires parallax information for each pixel, the distance can be detected for each pixel. In addition, since the viewer can be detected by the face recognition technology, the distance to each viewer can also be acquired.

(iii) 短焦点のプロジェクタ100にステレオカメラを搭載する構成
図7(a)は、距離の検出方法を模式的に説明する図の一例である。短焦点プロジェクタにより画像を投影する場合、基本的に、プロジェクタ100の後方にしか視聴者は存在しないと考えてよい。したがって、短焦点プロジェクタの後部にステレオカメラ114を配置すれば、ほぼ全ての視聴者を撮影できる。したがって、プロジェクタ100から視聴者までの距離を検出できる。
(iii) Configuration in which Stereo Camera is Mounted on Short-Focus Projector 100 FIG. 7A is an example of a diagram schematically illustrating a distance detection method. When an image is projected by a short focus projector, it may be considered that a viewer basically exists only behind the projector 100. Therefore, if the stereo camera 114 is disposed at the rear of the short focus projector, almost all viewers can be photographed. Therefore, the distance from the projector 100 to the viewer can be detected.

画像投影面200までの距離は、例えば超音波センサなどで算出する。超音波センサは超音波を発してから戻るまでの時間で距離を算出するセンサである。また、短焦点プロジェクタの投影距離は短い固定値であることが多いので、画像投影面200までの距離を推奨される投影距離であると見なしても画像投影面200から視聴者までの距離に対し大きな誤差とならない。   The distance to the image projection plane 200 is calculated by, for example, an ultrasonic sensor. An ultrasonic sensor is a sensor that calculates a distance from the time it takes an ultrasonic wave to return. In addition, since the projection distance of the short focus projector is often a short fixed value, even if the distance to the image projection plane 200 is regarded as the recommended projection distance, the distance from the image projection plane 200 to the viewer is limited. There is no big error.

(iv) ステレオカメラ+モータの構成
図7(b)は、距離の検出方法を模式的に説明する図の一例である。プロジェクタ100に、ステレオカメラ115と、ステレオカメラ115を水平に一周回転させるモータ116を配置しても、(i)の全方位カメラが得られる。プロジェクタがモータ116の回転量を制御・検出することで、ステレオカメラ115の光軸の向き(画像投影面がどの方向にあるか)を特定できる。したがって、画像投影面200までの距離を求めることができる。
(iv) Configuration of Stereo Camera + Motor FIG. 7B is an example of a diagram schematically illustrating a distance detection method. Even if a stereo camera 115 and a motor 116 that rotates the stereo camera 115 horizontally once are arranged in the projector 100, the omnidirectional camera of (i) can be obtained. When the projector controls and detects the rotation amount of the motor 116, the direction of the optical axis of the stereo camera 115 (which direction the image projection plane is in) can be specified. Therefore, the distance to the image projection plane 200 can be obtained.

また、上記と同様に、顔検出により視聴者を検出し、人とプロジェクタ間の距離を算出する。モータの回転量は検出されているので、視聴者の方向も特定できる。したがって、(i)と同様にプロジェクタ100と視聴者の距離を算出できる。   Similarly to the above, the viewer is detected by face detection, and the distance between the person and the projector is calculated. Since the rotation amount of the motor is detected, the direction of the viewer can also be specified. Accordingly, the distance between the projector 100 and the viewer can be calculated as in (i).

(v) 室内における七畳法管理システムを使用する構成
図8は、位置情報管理システムの概略構成図の一例を示す。位置情報管理システムは、通信装置101、102、104、106、無線端末120、122、124、126、128、管理装置140、管理サーバ160、通信装置と無線端末と管理装置とから構成されるネットワーク180及びネットワーク190を有する。ここで、ネットワーク180は、管理装置140によって管理される無線ネットワークである。図9は、図8において無線ネットワークを構成する通信装置101、102、104、106、無線端末120、122、124、126、128、管理装置140を抜き出して示したものである。
(v) Configuration using the indoor tatami mat management system FIG. 8 shows an example of a schematic configuration diagram of the location information management system. The location information management system includes communication devices 101, 102, 104, 106, wireless terminals 120, 122, 124, 126, 128, a management device 140, a management server 160, a network composed of communication devices, wireless terminals, and management devices. 180 and a network 190. Here, the network 180 is a wireless network managed by the management device 140. FIG. 9 shows the communication devices 101, 102, 104, and 106, the wireless terminals 120, 122, 124, 126, and 128, and the management device 140 that constitute the wireless network in FIG.

通信装置101、102、104、106は、例えば部屋の天井等に固定され、固定された位置に係る、経緯情報、建物の階数及び棟番号のような位置情報(以下「位置情報」とする)そのものを連続的又は断続的に無線送信する。通信装置は、それぞれ独立した筐体を有し、予め設置された電源から給電されて動作するか、あるいはLED蛍光管のような照明器具に組み込まれ、該照明器具から給電されて動作する。通信装置101、102、104、106は、それぞれが保持する位置情報を、無線信号により所定の範囲に送信する。所定の範囲は、用いられる無線信号の信号強度によって定められる。通信装置は、位置の管理対象となる領域をカバーするように配置され、それぞれの領域が重複しないように構成される。あるいは、重複する場合であっても、位置情報を受信する側において、受信電波の強度に基づいて、何れか一つの通信装置が決定できるよう構成される。図8の例では、それぞれの通信装置の下方に示される円錐型の点線が、所定の範囲を表している。位置情報を送信する通信方式として、例えば地上補完信号(Indoor Messaging System;IMES)を用いることができる。   The communication apparatuses 101, 102, 104, and 106 are fixed to, for example, the ceiling of a room, and position information (hereinafter referred to as “position information”) such as history information, the number of floors of a building, and a building number relating to the fixed position. This is transmitted wirelessly continuously or intermittently. Each communication device has an independent casing and operates by being supplied with power from a pre-installed power source, or is incorporated in a lighting fixture such as an LED fluorescent tube and operates with power supplied from the lighting fixture. Each of the communication devices 101, 102, 104, and 106 transmits position information held by each of the communication devices 101, 102, 104, and 106 to a predetermined range using a radio signal. The predetermined range is determined by the signal strength of the radio signal used. The communication device is arranged so as to cover an area that is a position management target, and is configured so that the respective areas do not overlap. Or even if it is a case where it overlaps, in the side which receives a positional information, it is comprised so that any one communication apparatus can be determined based on the intensity | strength of a received radio wave. In the example of FIG. 8, a conical dotted line shown below each communication device represents a predetermined range. As a communication method for transmitting position information, for example, a ground complementary signal (Indoor Messaging System; IMES) can be used.

無線端末120、122、124、126、128は、通信装置101、102、104、106のうち、最寄の通信装置が送信する無線信号を受信することができる。図8の例では、それぞれの無線端末は、位置を管理する対象である直方体の管理対象物に付されている。無線端末120、122、124、126、128は、自らも電波を送信可能な、例えばアクティブタグのような端末である。以下、無線端末120について説明する。   The wireless terminals 120, 122, 124, 126, and 128 can receive wireless signals transmitted by the nearest communication device among the communication devices 101, 102, 104, and 106. In the example of FIG. 8, each wireless terminal is attached to a rectangular parallelepiped management target that is a target whose position is to be managed. The wireless terminals 120, 122, 124, 126, and 128 are terminals such as active tags that can transmit radio waves themselves. Hereinafter, the wireless terminal 120 will be described.

無線端末120は、通信装置101からの無線信号を受信できる範囲にあり、通信装置101の位置情報を受信する。通信装置101の位置情報の受信は、例えばIMESを用いて行われる。無線端末120は、受信した位置情報と共に、例えばネットワークアドレスのような自らの識別情報を含む情報を通信装置101へ送信する。該送信は、例えばIEEE802.15.4及びZigBee(登録商標)のような近距離無線通信によるネットワーク180を通じて行われる。この場合には、無線端末120の識別情報として、IEEE802.15.4の短縮アドレスまたはIEEE拡張(MAC)アドレスを用いることができる。通信装置101へ送信された識別情報と位置情報は、次に、隣接する通信装置102を経由して、管理装置140に送信される。なお、無線端末120における送受信の動作は、当該無線端末120において予め定められたタイミングか、あるいは、当該無線端末120の備える加速度センサによる加速度の変化が検出されたタイミングで行われる。   The wireless terminal 120 is in a range where it can receive a wireless signal from the communication device 101 and receives position information of the communication device 101. The position information of the communication apparatus 101 is received using, for example, IMES. The wireless terminal 120 transmits information including its own identification information such as a network address to the communication apparatus 101 together with the received position information. The transmission is performed through a network 180 by short-range wireless communication such as IEEE802.15.4 and ZigBee (registered trademark). In this case, IEEE802.15.4 abbreviated address or IEEE extended (MAC) address can be used as identification information of the wireless terminal 120. The identification information and position information transmitted to the communication device 101 are then transmitted to the management device 140 via the adjacent communication device 102. The transmission / reception operation in the wireless terminal 120 is performed at a timing determined in advance in the wireless terminal 120 or at a timing when a change in acceleration by the acceleration sensor included in the wireless terminal 120 is detected.

管理装置140は、ネットワーク180とネットワーク190とを相互に接続し、ネットワーク180側から送信されたデータをネットワーク190にブリッジする。管理装置140は、例えば建物のフロア毎、または壁などで仕切られた部屋毎に設置される。ネットワーク180がIEEE802.15.4及びZigBee(登録商標)によるPAN(Personal Area Network)であり、ネットワーク190がIEEE802.3規格に基づくLANである場合には、それらの間での通信方式の変換を行う。また、無線端末120の識別情報がIEEE802.15.4の短縮アドレスで表されている場合には、PAN構成時の情報に基づきIEEE拡張アドレスに変換し、管理サーバ160に送信する。   The management device 140 connects the network 180 and the network 190 to each other, and bridges data transmitted from the network 180 side to the network 190. The management device 140 is installed, for example, for each floor of a building or for each room partitioned by walls. When the network 180 is a PAN (Personal Area Network) based on IEEE802.15.4 and ZigBee (registered trademark) and the network 190 is a LAN based on the IEEE802.3 standard, the communication system is converted between them. If the identification information of the wireless terminal 120 is represented by an IEEE 802.15.4 abbreviated address, it is converted into an IEEE extended address based on the information at the time of PAN configuration and transmitted to the management server 160.

管理サーバ160は、管理装置140を経由して受信された識別情報と位置情報とを、受信日時と共に記録し、通信装置の位置を管理する。管理サーバ160では、無線端末に係る管理対象物が予め記録されている。よって、これらの情報を用いて、管理対象物の所在を探索することができる。   The management server 160 records the identification information and position information received via the management apparatus 140 together with the reception date and time, and manages the position of the communication apparatus. In the management server 160, management objects related to wireless terminals are recorded in advance. Therefore, the location of the management target can be searched using these pieces of information.

ネットワーク180は、それぞれの通信装置101、102、104、106と、無線端末120、122、124、126、128と、管理装置140とを接続する、例えばIEEE802.15.4及びZigBee(登録商標)規格によって構成されるPANである。PANがIEEE802.15.4及びZigBee(登録商標)規格で構成される場合は、無線端末、通信装置、管理装置は、それぞれZigBee(登録商標)規格で定められるエンドデバイス機能、ルータ機能及びコーディネータ機能を有する。そして、それぞれの通信装置及び無線端末は、起動時に管理装置の管理下に入り、PANを構成し、管理装置への最小経路が決定される。   The network 180 connects each communication device 101, 102, 104, 106, the wireless terminal 120, 122, 124, 126, 128, and the management device 140, for example, according to IEEE802.15.4 and ZigBee (registered trademark) standards. It is a configured PAN. When the PAN is configured with IEEE802.15.4 and ZigBee (registered trademark) standards, the wireless terminal, the communication device, and the management device each have an end device function, a router function, and a coordinator function defined by the ZigBee (registered trademark) standard. . Each communication device and wireless terminal enters the management of the management device at the time of activation, forms a PAN, and determines the minimum path to the management device.

ネットワーク190は、管理装置140と管理サーバ160とを接続するネットワークであり、例えばIEEE802.3規格で定められるLANである。   The network 190 is a network that connects the management apparatus 140 and the management server 160, and is, for example, a LAN defined by the IEEE 802.3 standard.

上記の通り、本発明の一実施形態における位置情報管理システム1において、無線端末は、最寄の通信装置と通信できるだけの電力を用いて、識別情報と位置情報とを管理サーバへ送信することができる。また、通信装置を設置するための新たなインフラの敷設が不要であり、導入コストを低減することができる。   As described above, in the location information management system 1 according to the embodiment of the present invention, the wireless terminal can transmit the identification information and the location information to the management server using power that can be communicated with the nearest communication device. it can. In addition, it is not necessary to install a new infrastructure for installing the communication device, and the introduction cost can be reduced.

なお、通信装置の位置情報は、ネットワーク180を通じて提供されてもよい。これにより、IMESのような位置情報を送信するための送信手段が不要となる。   Note that the location information of the communication device may be provided through the network 180. This eliminates the need for transmission means for transmitting position information such as IMES.

また、無線端末は、位置情報を送信した通信装置よりさらに近傍に管理装置が存在する場合には、識別情報と位置情報とを管理装置140に送信してもよい。これにより、最短経路で識別情報と位置情報が管理サーバに送信できる。   Further, the wireless terminal may transmit the identification information and the position information to the management apparatus 140 when the management apparatus is present in the vicinity of the communication apparatus that transmitted the position information. Thereby, identification information and position information can be transmitted to the management server by the shortest path.

また、管理サーバに、管理装置の機能を統合してもよい。これにより、個別の管理装置が不要となる。   Further, the management server function may be integrated into the management server. This eliminates the need for a separate management device.

また、無線端末は、スマートフォン、PDA、PC又はスマートメータのような、アクティブタグと同等の機能を有する無線端末であってもよい。これにより、タグを付することなく、既存の無線端末の位置情報の管理が可能となる。   The wireless terminal may be a wireless terminal having a function equivalent to an active tag, such as a smartphone, PDA, PC, or smart meter. As a result, it is possible to manage the position information of the existing wireless terminal without attaching a tag.

また、上述の位置情報に加えて、例えば部屋の中の区画を表す情報のような、より細かな位置を特定する情報を含んでもよい。これにより、より細かな位置管理が可能となる。   Further, in addition to the above-described position information, information for specifying a finer position, such as information representing a section in the room, may be included. As a result, finer location management is possible.

また、位置管理対象が人であってもよい。これにより、当該システム1によって人の所在を管理することができる。   The location management target may be a person. Thereby, the location of a person can be managed by the system 1.

また、ネットワーク180は、例えばBluetooth LE、ANT、Z-Wave等の近距離無線通信を用いて構成されてもよい。これにより、多様な無線端末の位置情報を管理することが可能となる。   The network 180 may be configured using short-range wireless communication such as Bluetooth LE, ANT, Z-Wave, and the like. This makes it possible to manage position information of various wireless terminals.

また、ネットワーク190は、例えばインターネットのような、複数の種類のネットワークを含んでもよい。これにより、ネットワーク180と管理サーバ160との間の物理的な位置に関係なく、無線端末の位置情報を管理することが可能となる。   The network 190 may include a plurality of types of networks such as the Internet. This makes it possible to manage the location information of the wireless terminal regardless of the physical location between the network 180 and the management server 160.

図9に示すように、プロジェクタ100に無線端末126が、画像投影面(スクリーン)200に無線端末122が付加されており、視聴者が携帯している携帯電話やPDA,タブレット端末などが無線端末124、128と同等の機能を有する。   As shown in FIG. 9, a wireless terminal 126 is added to the projector 100, and a wireless terminal 122 is added to the image projection plane (screen) 200. A mobile phone, PDA, tablet terminal, etc. carried by the viewer are wireless terminals. It has the same function as 124 and 128.

この場合、プロジェクタ100、画像投影面(スクリーン)、視聴者全員の位置情報が全て管理サーバ140に送信される。その位置情報を管理サーバ140はネットワーク経由でプロジェクタ100に通知するので、距離算出部11も画像投影面(スクリーン)及び視聴者全員の位置情報を取得できる。   In this case, the projector 100, the image projection plane (screen), and the position information of all viewers are all transmitted to the management server 140. Since the management server 140 notifies the projector 100 of the position information via the network, the distance calculation unit 11 can also acquire the position information of the image projection plane (screen) and all the viewers.

距離算出部11は、各々の位置情報より、画像投影面(スクリーン)と各視聴者間の距離を算出する(プロジェクタと画像投影面、プロジェクタと視聴者との距離も算出できる)。   The distance calculation unit 11 calculates the distance between the image projection plane (screen) and each viewer from each position information (the distance between the projector and the image projection plane and between the projector and the viewer can also be calculated).

なお、プロジェクタ100が算出するのでなく、管理サーバ140が距離情報を算出して、それをプロジェクタ100に送信してもよい。   Instead of calculation by projector 100, management server 140 may calculate distance information and transmit it to projector 100.

<オブジェクトの判別>
図10は、画像処理部14の機能ブロック図の一例を示す。画像処理部14は、画像処理コントローラ23により制御され、プロジェクタ100のコントローラ12と通信を行っている。画像処理コントローラ23には、ROM21、RAM22、画像認識部24、及び、画像加工部25が接続されている。画像処理コントローラ23は、距離算出部11が検出した各視聴者の距離情報をRAM22に記憶し、外部入力された画像データを取得し、必要に応じてRAM22領域に展開する。
<Distinguishing objects>
FIG. 10 shows an example of a functional block diagram of the image processing unit 14. The image processing unit 14 is controlled by the image processing controller 23 and communicates with the controller 12 of the projector 100. A ROM 21, a RAM 22, an image recognition unit 24, and an image processing unit 25 are connected to the image processing controller 23. The image processing controller 23 stores the distance information of each viewer detected by the distance calculation unit 11 in the RAM 22, acquires externally input image data, and develops it in the RAM 22 area as necessary.

画像認識部24は、外部PC端末等から入力された画像データについて、文字、写真、グラフィック等のオブジェクトを判別し、その位置と大きさを認識する。これらの認識内容を画像領域における特徴量という。   The image recognition unit 24 discriminates an object such as a character, a photograph, or a graphic from image data input from an external PC terminal or the like, and recognizes its position and size. These recognition contents are called feature amounts in the image area.

画像認識部24は、例えば、画像データと共に送信されるヘッダ部のオブジェクト情報を利用してオブジェクトの属性を判定する。つまり、外部PC端末300上で動作するアプリケーションが作成するファイルから画像データを作成する場合、アプリケーションが管理するオブジェクトの属性を利用する。属性には、文字や写真などのオブジェクトの種類だけでなく、文字サイズ、フォント種類、色、位置なども含まれている。   For example, the image recognizing unit 24 determines the attribute of the object using the object information of the header part transmitted together with the image data. That is, when creating image data from a file created by an application that runs on the external PC terminal 300, an attribute of an object managed by the application is used. The attributes include not only the types of objects such as characters and photos, but also the character size, font type, color, position, and the like.

また、画像データのみでレイアウト解析などを行い、オブジェクトの属性を認識してもよい。この場合のオブジェクトの判定方法は、周知の技術、又はこれを組み合わせて使用すればよい。写真を検出する場合、まず、背景色を求め、背景色以外の画素の連結成分を求めて写真領域の候補領域とする。この、背景色以外の画素のうち、同色とみなせる画素をグループ化した候補領域の外接矩形を求め、外接矩形の数及び重なり方から写真領域を決定する。背景色の決定には、画素値をクラスタリングして最大のクラスタ色を背景色に決定する方法などがある。   In addition, the object attributes may be recognized by performing layout analysis or the like using only the image data. The object determination method in this case may be a known technique or a combination thereof. When detecting a photograph, first, a background color is obtained, and a connected component of pixels other than the background color is obtained as a candidate area of the photograph area. A circumscribed rectangle of a candidate area obtained by grouping pixels that can be regarded as the same color among the pixels other than the background color is obtained, and a photographic area is determined from the number of circumscribed rectangles and the overlapping method. For example, the background color is determined by clustering pixel values and determining the maximum cluster color as the background color.

また、文字を検出する場合、画像データを二値化してその連結成分の外接矩形を求める。そして、外接矩形のサイズとサイズのヒストグラムから文字サイズを推定し、外接矩形の密集度などを参考に文字の領域とそれ以外とに分離する。なお、文字には、数字、アルファベット、記号、などが含まれるものとする。   When detecting a character, the image data is binarized to obtain a circumscribed rectangle of the connected component. Then, the character size is estimated from the size of the circumscribed rectangle and the histogram of the size, and is separated into the character region and the rest with reference to the density of the circumscribed rectangle. Note that the characters include numbers, alphabets, symbols, and the like.

同じ画像データ内に文字領域と写真領域が混在している場合、画像認識部24は、領域の外接矩形を求めその対角頂点の位置情報で領域の位置を特定する。   When a character area and a photographic area are mixed in the same image data, the image recognition unit 24 obtains a circumscribed rectangle of the area and specifies the position of the area by the position information of the diagonal vertex.

なお、グラフィックは、線や曲線と色の塗り分けで表現された画像なので、写真と同様の方法で検出される。写真領域のうち、色数や外接矩形の大きさなどでグラフィックを判別する。写真とグラフィックは区別しなくてもよい。   Since the graphic is an image expressed by separately painting lines and curves and colors, it is detected by a method similar to that for photographs. In the photo area, the graphic is discriminated based on the number of colors and the size of the circumscribed rectangle. There is no need to distinguish between photos and graphics.

また、動画の検出は、写真領域と判定され領域の画素値が絶えず変動することから検出される。   The moving image is detected because it is determined as a photo area and the pixel value of the area constantly fluctuates.

画像加工部25は、距離算出部11が検出した距離情報、及び、画像認識部24が認識した特徴量を取得して、必要に応じて入力画像を加工する。加工には、拡大/縮小、オブジェクトのレイアウト変更、鮮鋭性や色味の調整などがある。   The image processing unit 25 acquires the distance information detected by the distance calculation unit 11 and the feature amount recognized by the image recognition unit 24, and processes the input image as necessary. The processing includes enlargement / reduction, object layout change, sharpness and color adjustment.

オブジェクト種と距離情報に応じて画像加工部25が行う画像データの加工について説明する。なお、距離算出部11の構成としては、上記(i)〜(v)のどの構成でも実施可能であるが、特に宣言しない限り(i)の構成を使用して距離を検出したとして説明する。   Processing of image data performed by the image processing unit 25 according to the object type and distance information will be described. The configuration of the distance calculation unit 11 can be implemented by any of the configurations (i) to (v) described above, but will be described assuming that the distance is detected using the configuration (i) unless otherwise specified.

図11は、プロジェクタ100と視聴者を模式的に示す図の一例である。図6に示したように、プロジェクタ上に全方位カメラ112が取り付けられており、全方位カメラ112によりプロジェクタ100の周りの視聴者やスクリーンを撮影し、各視聴者のスクリーンからの距離が検出されている。   FIG. 11 is an example of a diagram schematically showing the projector 100 and the viewer. As shown in FIG. 6, an omnidirectional camera 112 is mounted on the projector, and the omnidirectional camera 112 captures a viewer and a screen around the projector 100, and the distance from the screen of each viewer is detected. ing.

図12は、主に文字が含まれる画像データが入力された場合の、画像加工部25の処理手順を示すフローチャート図の一例である。   FIG. 12 is an example of a flowchart illustrating a processing procedure of the image processing unit 25 when image data mainly including characters is input.

まず、コントローラ12が画像データの入力を受け付ける(S10)。画像データは画像処理部14に転送される。画像データは画像処理コントローラ23を介して画像認識部24に転送され、画像認識部24でオブジェクトの属性(文字なのか、グラフィックスなのかなど)が判定される。   First, the controller 12 receives input of image data (S10). The image data is transferred to the image processing unit 14. The image data is transferred to the image recognition unit 24 via the image processing controller 23, and the image recognition unit 24 determines the attribute of the object (whether it is a character or graphics).

今回は文字画像が入力されたとする(S11)。なお、画像認識部24が判別するのでなく、ユーザが選択する映像モードを用意し、ユーザが操作入力部15で映像モードとして文字映像モードを選択した場合に、文字画像と判定してもよい。   It is assumed that a character image is input this time (S11). Instead of the image recognition unit 24 discriminating, a video mode selected by the user may be prepared, and when the user selects the character video mode as the video mode using the operation input unit 15, it may be determined as a character image.

文字画像が入力されたと判断されたため、画像認識部24は画像データにおける文字サイズ(フォントサイズ) を特定する(S12)。文字サイズ〔pt(ポイント)〕は、画像データのファイルのヘッダ部のオブジェクト情報に記述されている。または、文字画像であること判定するために用いた外接矩形をより特定する。   Since it is determined that a character image has been input, the image recognition unit 24 specifies a character size (font size) in the image data (S12). The character size [pt (point)] is described in the object information of the header portion of the image data file. Alternatively, the circumscribed rectangle used to determine that the image is a character image is specified more.

次に、画像認識部24は、スクリーン上での実際の文字サイズを算出する(S13)。実際の文字サイズは、スクリーンとプロジェクタ100との距離情報、画像投影部13の投射光学系の倍率情報、S12の文字サイズから求めることができる。   Next, the image recognition unit 24 calculates the actual character size on the screen (S13). The actual character size can be obtained from the distance information between the screen and the projector 100, the magnification information of the projection optical system of the image projection unit 13, and the character size in S12.

まず、予め設定されている、外部PC端末300などで設定されているdpiの値(例えば、96dpi又は120dpi)をRAM22に記憶されている値から読み出す。これは、文字サイズをポイント数で特定できても、画像データ内の文字の大きさはdpiの値で異なるためである。   First, a preset dpi value (for example, 96 dpi or 120 dpi) set in the external PC terminal 300 or the like is read from the value stored in the RAM 22. This is because even if the character size can be specified by the number of points, the size of the characters in the image data differs depending on the dpi value.

また、画像認識部24は、距離に応じて投影サイズを算出する投影サイズ式f(L,V)を予め有している。f(L,V)は、Lをプロジェクタ100とスクリーンとの間の距離、Vを投射光学系の倍率として、投影サイズの対角線の大きさを求める式である。   Further, the image recognition unit 24 has a projection size formula f (L, V) for calculating a projection size according to the distance in advance. f (L, V) is an equation for obtaining the diagonal size of the projection size, where L is the distance between the projector 100 and the screen, and V is the magnification of the projection optical system.

例えば、画像データの画面の設定がdpi=96dpiとすると画像データ内の文字の大きさは、下式で求められる。なお、「1 / 72」は1ポイントの長さである。
画像データ内の文字の大きさ〔ドット〕=1 / 72×文字サイズs×96
この文字の大きさは縦の長さなので、平均的な1文字の縦横の比を5:3とすると、対角線の長さは、「1.16×画像データ内の文字の大きさ」である。
For example, if the screen setting of the image data is dpi = 96 dpi, the character size in the image data can be obtained by the following equation. “1/72” is the length of one point.
Character size [dot] in image data = 1/72 x character size s x 96
Since the size of this character is vertical, the length of the diagonal line is “1.16 × size of character in image data” when the average aspect ratio of one character is 5: 3.

投影解像度をVGA(1024x768)とすると、対角線のドット数は1280ドットになる。1280ドットがf(L,V)に対応するので、投影面上での文字サイズSは次式で求められる。
S=(f/1280)×1.16×画像データ内の文字の大きさ
またこのように算出するのでなく、距離算出部11の全方位カメラ112が撮影した画像から領域判別を行い、スクリーン上の文字サイズを算出してもよい。
When the projection resolution is VGA (1024x768), the number of diagonal dots is 1280 dots. Since 1280 dots correspond to f (L, V), the character size S on the projection plane is obtained by the following equation.
S = (f / 1280) × 1.16 × size of characters in the image data In addition, instead of calculating in this way, region determination is performed from the image taken by the omnidirectional camera 112 of the distance calculation unit 11, and the characters on the screen are determined. The size may be calculated.

次に画像加工部25は、RAM22に格納されている複数の距離情報のうち、最大値の距離情報を特定する(S14)。最大値とは、スクリーンから最も離れている視聴者とスクリーンとの距離情報である。   Next, the image processing unit 25 specifies the maximum distance information among the plurality of distance information stored in the RAM 22 (S14). The maximum value is information on the distance between the viewer who is farthest from the screen and the screen.

基本的に文字画像は判読性が最も重視されるが、最も判読性が悪い位置にいると考えられる視聴者が、スクリーンから最も離れている視聴者と考えられる。スクリーンから最も離れている視聴者の判読性を確保するために、画像加工部25はスクリーンから最も離れている人の距離情報をもとに文字サイズを決める。   Basically, the legibility of text images is most important, but the viewer who is considered to be in the position with the lowest legibility is considered the viewer who is farthest from the screen. In order to ensure the legibility of the viewer farthest from the screen, the image processing unit 25 determines the character size based on the distance information of the person farthest from the screen.

画像加工部25はS14で算出した最大の距離情報に基づき、文字判読に最低限必要な許容文字サイズを算出する(S15)。
文字判読に必要なサイズの求め方としては、基本的には実験などを行ってスクリーンからの距離に応じてどの程度の大きさが必要なのかをテストして決めてやり、その情報を用いて算出する。
The image processing unit 25 calculates the minimum allowable character size necessary for character interpretation based on the maximum distance information calculated in S14 (S15).
As a method of obtaining the size required for character interpretation, basically, experiment is performed to determine what size is required according to the distance from the screen, and the information is used. calculate.

一例として、フォントサイズ20ポイントで投影される文字の高さの250倍までが視聴エリアであるという試算がある。これから逆算するとスクリーンからの距離の1/250の投影上の文字サイズ(高さ)がなければならないとなる。
例:20m離れている場合は、20000[mm]×1/250=80mmの高さが必要
よって、ステップS15で決定した許容文字サイズとステップS13で算出したスクリーン上の文字サイズを比較し、画像加工処理が必要か不要か判断する。
As an example, there is a trial calculation that the viewing area is up to 250 times the height of characters projected with a font size of 20 points. From this calculation, the character size (height) on the projection must be 1/250 of the distance from the screen.
Example: If the distance is 20 m, the height of 20000 [mm] x 1/250 = 80 mm is required. Therefore, the allowable character size determined in step S15 is compared with the character size on the screen calculated in step S13. Determine whether processing is necessary or not.

S15で決定した許容文字サイズよりもS13で算出した文字サイズの方が大きい又は同一の場合(S16のNo)、画像加工部25は特に何もしない(S17)。   If the character size calculated in S13 is larger or the same as the allowable character size determined in S15 (No in S16), the image processing unit 25 does nothing in particular (S17).

S15で決定した許容文字サイズよりもS13で算出した文字サイズの方が小さい場合(S16のYes)、画像加工部25は、ステップS15で求めた許容文字サイズになるように、画像データ内の文字を拡大する(S18)。画像加工部25が拡大する文字フォントのサイズXは以下の式により算出される。
X=A×C÷B
但し、S12で求めた入力画像の文字サイズをA、
S13で求めたスクリーン上での実際の文字サイズをB、
S15で求まった許容文字サイズをC
画像加工部25にて、画像データの文字のサイズを上式のXサイズに加工すれば、スクリーンの文字のサイズが許容文字サイズのCの大きさとなり、最もスクリーンから遠い視聴者でも判読可能となる。
When the character size calculated in S13 is smaller than the allowable character size determined in S15 (Yes in S16), the image processing unit 25 causes the characters in the image data to have the allowable character size obtained in step S15. Is enlarged (S18). The size X of the character font enlarged by the image processing unit 25 is calculated by the following equation.
X = A × C ÷ B
However, the character size of the input image obtained in S12 is A,
The actual character size on the screen obtained in S13 is B,
The allowable character size obtained in S15 is C.
If the image processing unit 25 processes the character size of the image data into the above X size, the character size on the screen becomes C, which is the allowable character size, and can be read by viewers farthest from the screen. Become.

画像加工部25が入力画像のX未満の文字サイズの文字はサイズXに拡大を行い、その加工を行った画像データを、コントローラ12を介して画像投影部13に送信する。画像投影部13は文字が拡大された画像データを画像投影面200に投影する。   The image processing unit 25 enlarges the character having a character size less than X in the input image to the size X, and transmits the processed image data to the image projection unit 13 via the controller 12. The image projection unit 13 projects the image data with the enlarged characters on the image projection plane 200.

なお、画像処理部14の中の画像加工部25にて拡大処理を実施するのでなく、画像投影部13の投射光学系でも光学的に拡大可能であるため、光学的に拡大を行ってもよい。つまり、文字単位で画像データを加工するのでなく、上式の「C÷B」を変倍率として投射光学系で画像データの全体を拡大する。また、画像加工部25の拡大と光学的な拡大を組み合わせて許容サイズ以上の文字サイズに拡大してもよい。   Note that the enlargement process is not performed by the image processing unit 25 in the image processing unit 14, but the projection optical system of the image projection unit 13 can also perform optical enlargement, so that optical enlargement may be performed. . In other words, the image data is not processed in character units, but the entire image data is enlarged by the projection optical system using “C ÷ B” in the above equation as a variable magnification. Further, the enlargement of the image processing unit 25 and the optical enlargement may be combined to enlarge the character size to an allowable size or more.

図13は、図11の視聴者と、拡大される文字サイズの関係を説明する図の一例である。図13(a)は視聴者aがスクリーンから最も離れている場合の投影画像を、図13(b)は視聴者bがスクリーンから最も離れている場合の投影画像を、図13(c)は視聴者cがスクリーンから最も離れている場合の投影画像をそれぞれ示す。図13(a)〜(c)に示すように、スクリーンと視聴者との距離が遠くなればなるほど、判読性を向上させるために、文字サイズが大きくなる。   FIG. 13 is an example of a diagram illustrating the relationship between the viewer of FIG. 11 and the enlarged character size. FIG. 13A shows a projected image when the viewer a is farthest from the screen, FIG. 13B shows a projected image when the viewer b is farthest from the screen, and FIG. The projection images when the viewer c is farthest from the screen are shown. As shown in FIGS. 13A to 13C, the longer the distance between the screen and the viewer, the larger the character size in order to improve the legibility.

したがって、本実施例のプロジェクタ100によれば、投影画像が文字の場合、複数の視聴者の内、プロジェクタ100から最も遠くの視聴者との距離に応じて文字サイズを拡大できる。   Therefore, according to the projector 100 of the present embodiment, when the projection image is a character, the character size can be increased according to the distance from the viewer 100 farthest from the projector 100 among the plurality of viewers.

本実施例では、写真又はグラフィックス画像が入力された場合に、画像加工部25が行う画像データの加工について説明する。実施例1と同様の処理については主要部のみ説明し、主に差分のみを説明する。   In the present embodiment, processing of image data performed by the image processing unit 25 when a photograph or a graphics image is input will be described. For the same processing as in the first embodiment, only the main part will be described, and only the difference will be mainly described.

図14は、主に写真又はグラフィックス画像が含まれる画像データが入力された場合の、画像加工部25の処理手順を示すフローチャート図の一例である。   FIG. 14 is an example of a flowchart illustrating a processing procedure of the image processing unit 25 when image data mainly including a photograph or a graphics image is input.

ステップS20、S21については実施例1のS10,S11と同様である。本実施例では、写真又はグラフィックスが主に含まれると認識された。   Steps S20 and S21 are the same as S10 and S11 of the first embodiment. In this example, it was recognized that photographs or graphics were mainly included.

ステップS22では、実施例1のステップS13と同様の方法で、投影画面における投影サイズを算出する(S22)。例えば、写真又はグラフィックスの場合、画像データのファイルのヘッダからドット数で写真又はグラフィックスの対角線の長さが得られる。したがって、投影面上での写真又はグラフィックスのサイズSは次式で求められる。
S=(f/1280)×1 / 72×写真又はグラフィックスの大きさ×96
またこのように算出するのでなく、距離算出部11の全方位カメラが撮影した画像から領域判別を行い、スクリーン上の写真又はグラフィックスのサイズを算出してもよい。
In step S22, the projection size on the projection screen is calculated by the same method as in step S13 of the first embodiment (S22). For example, in the case of a photograph or graphics, the length of the diagonal line of the photograph or graphics is obtained from the header of the image data file by the number of dots. Therefore, the size S of the photograph or graphics on the projection surface is obtained by the following equation.
S = (f / 1280) x 1/72 x photo or graphics size x 96
Instead of calculating in this way, it is also possible to determine the area from the image taken by the omnidirectional camera of the distance calculation unit 11 and calculate the size of the picture or graphics on the screen.

ステップS23で、画像加工部25はスクリーンとプロジェクタ100の距離情報が最も小さい距離情報を特定する(S23)。   In step S23, the image processing unit 25 specifies distance information having the smallest distance information between the screen and the projector 100 (S23).

画像加工部25は、ステップS23で特定した最小値に基づき、投影面の投影許容最大サイズを算出する(S24)。これは、スクリーンから近い人にとって、投影画像をあまりに大きくしてしまうと、1画素1画素の粒状感が目立ち、写真や動画などの見栄えが悪くなってしまうことを考慮したためである。すなわち、最もスクリーンから近い人の距離情報を基準にして視聴する人が限界と感じる許容最大サイズを決めている。   The image processing unit 25 calculates the projection allowable maximum size of the projection plane based on the minimum value specified in step S23 (S24). This is because, for a person close to the screen, if the projected image is made too large, the graininess of each pixel is conspicuous, and the appearance of photographs, moving images, etc. will be deteriorated. That is, the maximum allowable size that the viewer sees as a limit is determined based on the distance information of the person closest to the screen.

許容最大サイズはプロジェクタ100の解像度やアスペクト比などにも依存するため、基本的には実験などを行い、実際に許容限界値を算出してその値をセットするのがよい。   Since the allowable maximum size also depends on the resolution, aspect ratio, and the like of the projector 100, it is preferable to basically perform an experiment, actually calculate the allowable limit value, and set the value.

一例として実験を行ったところ、スクリーンからの距離に対して同等な高さの投影サイズであると、粒状感が目立ってしまった。そのため、S24では参照した距離情報の最小値を投影許容最大サイズとする。   When an experiment was conducted as an example, the graininess was conspicuous when the projection size was equivalent to the distance from the screen. Therefore, in S24, the minimum value of the referenced distance information is set as the maximum allowable projection size.

ステップS25は実施例1のS14と同様である。   Step S25 is the same as S14 of the first embodiment.

次に、画像加工部25はステップS25で算出した距離の最大値を利用して、投影画像を最も見にくいと推察される最も遠い人にとって最適な投影最適サイズを決定する(S26)。最適な投影サイズは実験によって算出したパラメータを利用する。パラメータの一例としては、ホームシアターを見る際には、一般的に画面サイズ(対角線。単位はインチ。)の0.025〜0.03倍の距離〔メートル〕が最適とされる。これから逆算すると、最適な投影サイズ〔インチ〕は、距離〔メートル〕を0.025〜0.03で割った値となる。例えば、スクリーンからの距離を3〔m〕とすると、3/0.025=120〔インチ〕が最適な画面サイズである。   Next, the image processing unit 25 uses the maximum distance calculated in step S25 to determine the optimal projection optimal size for the farthest person who is estimated to be the most difficult to see the projection image (S26). The optimum projection size uses parameters calculated by experiments. As an example of a parameter, when viewing a home theater, a distance [meter] that is generally 0.025 to 0.03 times the screen size (diagonal line, unit is inch) is optimal. From this calculation, the optimum projection size [inches] is a value obtained by dividing the distance [meters] by 0.025 to 0.03. For example, if the distance from the screen is 3 [m], 3 / 0.025 = 120 [inch] is the optimum screen size.

投影最適サイズは画面サイズであるが、画面の全体を占めるようにグラフィック又は写真が含まれていると仮定した場合、最適な画面サイズが最適なグラフィック又は写真のサイズである。   The optimal projection size is the screen size, but assuming that the graphic or photo is included so as to occupy the entire screen, the optimal screen size is the optimal graphic or photo size.

スクリーンから一番遠い人を基準とするのでなく、各視聴者のスクリーンからの距離の平均値を算出して、その平均値に基づいて最適なサイズを決定してもよい。視聴者のスクリーンから方位(散らばり方)によっては、この方が多くの視聴者にとって最適なサイズとなる。   Instead of using the person farthest from the screen as a reference, an average value of distances from the screens of the viewers may be calculated, and an optimum size may be determined based on the average value. Depending on the direction (scattering) from the viewer's screen, this is the optimum size for many viewers.

また、投影最適サイズは、許容文字サイズを求めるために使用した1/250のような適当な定数から求めてもよい。この定数を10とすれば、距離10[m]離れている場合は、10[m]×1/10=1 mの高さが投影最適サイズである。   The optimum projection size may be obtained from an appropriate constant such as 1/250 used for obtaining the allowable character size. When this constant is set to 10, when the distance is 10 [m], the height of 10 [m] × 1/10 = 1 m is the optimum projection size.

次に、画像加工部25はS24で決定した投影許容最大サイズとステップS26で決定した投影最適サイズとを比較する(S27)。比較により、投影許容最大サイズと投影最適サイズのうち小さい方のサイズが選択される。   Next, the image processing unit 25 compares the maximum allowable projection size determined in S24 with the optimal projection size determined in Step S26 (S27). By comparison, the smaller one of the maximum allowable projection size and the optimal projection size is selected.

両者が等しいか投影許容最大サイズのほうが大きい場合(S27のNo)、画像加工部25は投影最適サイズに投影画像を拡大すると決定する(S28)。よって、ステップS22で算出した投影サイズと投影最適サイズを比較して変倍率を求める。   When both are equal or the projection allowable maximum size is larger (No in S27), the image processing unit 25 determines to enlarge the projection image to the optimum projection size (S28). Therefore, the scaling factor is obtained by comparing the projection size calculated in step S22 with the optimum projection size.

一方、投影最適サイズのほうが大きい場合(S27のYes)、画像加工部25は投影許容最大サイズに投影画像を拡大すると決定する(S29)。よって、ステップS22で算出した投影サイズと投影許容最大サイズを比較して変倍率を求める。   On the other hand, when the optimal projection size is larger (Yes in S27), the image processing unit 25 determines to enlarge the projection image to the maximum allowable projection size (S29). Therefore, the scaling factor is obtained by comparing the projection size calculated in step S22 with the maximum allowable projection size.

実際に投影画像を拡大するのは、画像加工部25ではなく画像投影部13の投射光学系である。画像加工部25は変換する投影画像の変倍率又は投影サイズをRAM22に格納し、画像処理コントローラ23経由でコントローラ12に転送し、最終的に画像データとともに画像投影部13に入力される。   What actually enlarges the projection image is not the image processing unit 25 but the projection optical system of the image projection unit 13. The image processing unit 25 stores the scaling factor or projection size of the projection image to be converted in the RAM 22, transfers it to the controller 12 via the image processing controller 23, and finally inputs it together with the image data to the image projection unit 13.

ここで、投射光学系136により変倍処理を行うが、画像投影部13は、画像処理コントローラ23より転送されてきた投影サイズの変倍率を設定し投影を行う。   Here, the scaling process is performed by the projection optical system 136, but the image projecting unit 13 performs projection by setting the scaling factor of the projection size transferred from the image processing controller 23.

このように、本実施例では、実施例1と同様に基本的には最も投影画像が見えにくいスクリーンから一番遠い人に対して、一番スクリーンから近い人にとって大きすぎない範囲で、最適なサイズで画像を投影することができる。したがって、投影対象のオブジェクトが写真又はグラフィックス画像の場合、
・一番スクリーンから近い視聴者にとってあまりに画面が大きいため粒状感で画質を悪く感じるというデメリットが低減すると共に、
・一番スクリーンから近い人が許容される画面サイズの中で、一番スクリーンから遠い人が最も最適に感じるサイズの投影画像を提供できる。
As described above, in this embodiment, as in the first embodiment, it is basically optimal for the person farthest from the screen where the projected image is most difficult to see, in a range that is not too large for the person closest to the screen. Images can be projected in size. Therefore, when the object to be projected is a photograph or a graphics image,
・ For viewers closest to the screen, the screen is so large that it reduces the demerit that the image quality is poor due to the graininess,
-It is possible to provide a projection image having a size that is most optimally perceived by a person farthest from the screen among the screen sizes allowed by the person closest to the screen.

なお、本実施例は写真やグラフィックに限ったものではなく、ムービーのような動画情報に対しても同様に適用できる。   Note that this embodiment is not limited to photographs and graphics, but can be similarly applied to moving image information such as movies.

本実施例では、実施例2と同様に写真やグラフィックスなどを入力画像とするが、投影画像の全体を拡大するのではなく、画像データ内のオブジェクトを選択的に拡大するプロジェクタ100について説明する。   In the present embodiment, as in the second embodiment, a photograph, graphics, or the like is used as an input image, but the projector 100 that selectively enlarges an object in image data instead of enlarging the entire projection image will be described. .

図15は、本実施例の画像加工部25の処理手順を示すフローチャート図の一例である。ステップS40,S41については実施例1のS10,S11と同様である。本実施例では、写真又はグラフィックスが主に含まれると認識された。   FIG. 15 is an example of a flowchart illustrating a processing procedure of the image processing unit 25 of the present embodiment. Steps S40 and S41 are the same as S10 and S11 of the first embodiment. In this example, it was recognized that photographs or graphics were mainly included.

ステップS42では、実施例2のS22と同様に、画像データにおける写真又はグラフィックスのサイズ、投影面上での写真又はグラフィックスのサイズを算出する(S42)。   In step S42, as in S22 of the second embodiment, the size of the photograph or graphics in the image data and the size of the photograph or graphics on the projection surface are calculated (S42).

次に、画像認識部24は、画像に起因するノイズの大きさを算出する(S43)。ノイズとは、例えばジャギーやJPEGなどのモスキートノイズ、ブロックノイズなどをいう。
例えば、ジャギーの場合は、斜めのエッジ部に対してどの程度のジャギーが存在するのかを確認する。ジャギーはエッジ部で階段状に画素値が急激に変化する現象である。よって、例えば、ある階調値と同程度の画素(黒画素)が所定方向にN個連続し、かつ、その画素の階調値に対して、所定以上離れている階調値を有する画素(白画素)が同じ方向にM個連続していることを検出する。黒画素が途切れたら、所定方向と垂直方向に一段シフトして同様の処理を行う。これにより、白黒の画素が平行に並んでいる領域が階段状に存在することを検出できる。
Next, the image recognition unit 24 calculates the magnitude of noise caused by the image (S43). Noise refers to, for example, mosquito noise such as jaggy and JPEG, block noise, and the like.
For example, in the case of jaggy, it is confirmed how much jaggy exists with respect to an oblique edge portion. Jaggy is a phenomenon in which pixel values change steeply at the edge. Therefore, for example, a pixel (black pixel) having the same degree as a certain gradation value is continuously N pixels in a predetermined direction and has a gradation value that is more than a predetermined distance from the gradation value of the pixel ( It is detected that M white pixels) continue in the same direction. If the black pixels are interrupted, the same process is performed by shifting one step in a direction perpendicular to the predetermined direction. Thereby, it can be detected that a region in which black and white pixels are arranged in parallel exists in a staircase pattern.

また、モスキートノイズの場合は、どの程度のモスキートノイズが発生するかを把握する。例えば、デコードされた画像に対して、再び周波数変換を施して孤立している周波数係数を探し、孤立している係数があればモスキートノイズを発生させやすいものとし、孤立係数が無いものよりを拡大を控えめにさせる必要がある。孤立している係数とは、その係数の高域の係数よりも数値が低くて、絶対値もある閾値以下のものである。量子化テーブルにより量子化した際に剰余が大きかったものがモスキートノイズになりやすいので、その性質を利用している。   In the case of mosquito noise, it is understood how much mosquito noise is generated. For example, the decoded image is subjected to frequency conversion again to find an isolated frequency coefficient, and if there is an isolated coefficient, it will be easy to generate mosquito noise, and it will be expanded from those without an isolated coefficient. Need to be discreet. An isolated coefficient has a numerical value lower than that of a high-frequency coefficient and has an absolute value equal to or less than a certain threshold value. Since the one with a large remainder when quantized by the quantization table is likely to become mosquito noise, this property is utilized.

ついで、ステップS44は、実施例2のS23と同じである。   Next, step S44 is the same as S23 of the second embodiment.

ステップS45では、画像加工部25が距離の最小値に基づき、オブジェクトの許容最大拡大サイズを求める(S45)。投影サイズを拡大するのではなく、画像中のオブジェクトのみを拡大する場合は、画像を拡大すればするほどジャギーやモスキートノイズなどが目立ってくる。そのため、これらのノイズ要因は、どの程度の拡大まで許容可能であるかを実験など行い求める必要がある。   In step S45, the image processing unit 25 obtains an allowable maximum enlargement size of the object based on the minimum distance (S45). When enlarging only the object in the image instead of enlarging the projection size, jaggy and mosquito noise become more noticeable as the image is enlarged. For this reason, it is necessary to determine how much of these noise factors can be tolerated through experiments.

簡易な実施方法の一例としては、画像認識部24は、S43で算出したジャギーとなる対象画素及びモスキートノイズとなる対象ブロックの個数の合計が全体の画素数に対してどの程度あるかを求める。そして、スクリーンからの距離をもとに、オブジェクトの許容倍率を一様に決める。   As an example of a simple implementation method, the image recognition unit 24 determines how much the total number of target pixels that are jaggy and target blocks that are mosquito noise calculated in S43 is relative to the total number of pixels. Then, the allowable magnification of the object is uniformly determined based on the distance from the screen.

図16は、ノイズ画素の割合と距離の最小値に対し許容倍率が求められた許容倍率決定テーブルの一例を示す図である。ジャギーやモスキートノイズが全くなければスクリーンからの距離に関係なくオブジェクトの倍率は8倍まで拡大可能とする(原理的にはいくら拡大してもよい)。ノイズの要因が両者合わせて1%以下であれば、スクリーンからの距離が1〜3mまでだと3倍まで拡大可能、3〜6mの間であれば4倍まで拡大可能、6〜10mであれば5倍まで拡大可能、10m〜15mであれば6倍まで拡大可能となる。   FIG. 16 is a diagram illustrating an example of an allowable magnification determination table in which an allowable magnification is obtained for the noise pixel ratio and the minimum distance value. If there is no jaggy or mosquito noise, the magnification of the object can be expanded up to 8 times regardless of the distance from the screen (in principle, it can be expanded as much as possible). If the cause of noise is 1% or less in both cases, the distance from the screen can be expanded up to 3 times when the distance is 1 to 3 m, and if it is between 3 and 6 m, it can be expanded up to 4 times, or 6 to 10 m. If it is 10m to 15m, it can be expanded up to 6 times.

スクリーンからの距離が遠ければ遠いほどオブジェクトを拡大されてもモスキートノイズやジャギーなどがわかりにくくなってくるため、距離が遠いほど拡大許容率も大きくなっている。また、ノイズ要因の割合が大きくなればなるほど、拡大するとノイズが目立つ画像であることがわかるので、同じ最小距離で比較した場合、許容拡大率は小さい数値となる。   The further the distance from the screen, the more difficult it becomes to understand mosquito noise and jaggy even if the object is enlarged, so the greater the distance, the greater the enlargement tolerance. Further, as the ratio of the noise factor increases, it can be seen that when the image is enlarged, the noise becomes conspicuous. Therefore, when compared at the same minimum distance, the allowable enlargement rate becomes a smaller value.

これは、JPEGなど圧縮伸張をして投影するものであれば、圧縮率が高いものほどモスキートノイズやジャギーが発生しやすいので、圧縮率の高いものほど許容拡大率を小さくし、圧縮率の低いものほど許容拡大率を大きくしているのと同じことである。   This is because if JPEG or other compressed images are projected, the higher the compression rate, the more likely mosquito noise and jaggy will occur. Therefore, the higher the compression rate, the smaller the allowable enlargement ratio and the lower the compression rate. This is the same as increasing the permissible enlargement ratio as the object increases.

そのため、モスキートノイズやジャギーなどを求めることなく、入力画像がJPEGの場合、ファイルのヘッダ部に含まれる量子化テーブルを参照し、どの程度の圧縮率を狙っているのかを推定してもよい。量子化テーブルの各値はDCTの結果の数値を割る値なので、量子化テーブルの各値が大きい程、データは小さな値になる。すなわち、高圧縮される。よって、量子化テーブルのゼロの数や平均値などから圧縮率を推定できる。推定した圧縮率の大きさに応じて許容拡大率を決定することができる。   For this reason, if the input image is JPEG without obtaining mosquito noise or jaggy, the compression table included in the header portion of the file may be referred to estimate the degree of compression. Since each value in the quantization table is a value that divides the numerical value of the DCT result, the larger the value in the quantization table, the smaller the data. That is, it is highly compressed. Therefore, the compression rate can be estimated from the number of zeros and the average value of the quantization table. The allowable enlargement ratio can be determined according to the estimated size of the compression ratio.

このようにして、拡大率の上限値を算出し、S42で求めたオブジェクトのサイズに対して拡大率の上限値で変倍処理を行った場合、画像認識部24はスクリーン上ではどの程度の大きさになるかを計算する。これを許容最大拡大サイズと呼ぶことにする。許容最大拡大サイズは、実施例2のS22においてf(L,V)の投射光学系の倍率に許容拡大率を適用することで求められる。   In this way, when the upper limit value of the enlargement ratio is calculated and the scaling process is performed with the upper limit value of the enlargement ratio with respect to the size of the object obtained in S42, the image recognizing unit 24 determines how large on the screen. Calculate what happens. This is called the allowable maximum enlargement size. The allowable maximum enlargement size is obtained by applying the allowable enlargement ratio to the magnification of the projection optical system of f (L, V) in S22 of the second embodiment.

ついで、S46は実施例2のS25と同様である。   Next, S46 is the same as S25 of the second embodiment.

次に、画像加工部25はS46で得られたスクリーンから一番遠い人の距離情報を利用し、オブジェクトの適切なサイズを決定する(S47)。オブジェクトの適切なサイズは、文字サイズと同様に、スクリーンからの距離の1/250の投影上のオブジェクトサイズ(高さ)であるとする。これにより、写真やグラフィックスなどのオブジェクトがよく見えるようになる。   Next, the image processing unit 25 uses the distance information of the person farthest from the screen obtained in S46 to determine an appropriate size of the object (S47). The appropriate size of the object is assumed to be the object size (height) on the projection of 1/250 of the distance from the screen, like the character size. This makes it easier to see objects such as photos and graphics.

次に、画像加工部25はS47で決定したオブジェクトの最適なサイズと、S45で決定した許容最大拡大サイズとを比較する(S48)。オブジェクトの最適なサイズと許容最大拡大サイズのうち小さい方が選択される。   Next, the image processing unit 25 compares the optimum size of the object determined in S47 with the allowable maximum enlargement size determined in S45 (S48). The smaller of the optimal size of the object and the maximum allowable enlargement size is selected.

オブジェクトの最適なサイズのほうが大きい場合(S48のYes)、画像加工部25にて、許容最大拡大サイズに対象のオブジェクトを変換する(S50)。   When the optimum size of the object is larger (Yes in S48), the image processing unit 25 converts the target object to the allowable maximum enlargement size (S50).

オブジェクトの最適なサイズのほうが小さいか等しい場合(S48のNo)、画像加工部25にて、オブジェクトの最適なサイズに対象のオブジェクトを変換する(S49)。   If the optimal size of the object is smaller or equal (No in S48), the image processing unit 25 converts the target object to the optimal size of the object (S49).

なお、画像加工部25による所定のサイズへの拡大は、実施例1のS18と同様となる。   The enlargement to a predetermined size by the image processing unit 25 is the same as S18 in the first embodiment.

画像加工部25は、S49又はS50で拡大処理を実施した画像データを画像処理コントローラ23とコントローラ12を経由して、画像投影部13に転送する。これにより、画像データがスクリーンに投影される(S51)。   The image processing unit 25 transfers the image data subjected to the enlargement process in S49 or S50 to the image projection unit 13 via the image processing controller 23 and the controller 12. Thus, the image data is projected on the screen (S51).

図17は、図11の視聴者と、拡大されるオブジェクトのサイズの関係を説明する図の一例である。図17(a)は視聴者aがスクリーンから最も離れている場合の投影画像を、図17(b)は視聴者bがスクリーンから最も離れている場合の投影画像を、図17(c)は視聴者cがスクリーンから最も離れている場合の投影画像をそれぞれ示す。   FIG. 17 is an example of a diagram for explaining the relationship between the viewer of FIG. 11 and the size of the object to be enlarged. FIG. 17A shows a projected image when the viewer a is farthest from the screen, FIG. 17B shows a projected image when the viewer b is farthest from the screen, and FIG. The projection images when the viewer c is farthest from the screen are shown.

図17(a)(b)に示すように、スクリーンと視聴者との距離が遠くなれば、判読性を向上させるために、オブジェクトのサイズは大きくなる。しかし、図17(b)(c)に示すように、視聴者bより距離が遠くなりすぎても、オブジェクトは拡大されない。図17(b)以上サイズを大きくすると、円形のタイヤ部や車体の斜め線部でジャギーやモスキートノイズなどが目立ってしまうためである。これ以上、拡大しなくても車の写真ということは把握可能であり、許容最大拡大サイズを設けることで写真の細部よりも全体的な見栄えを重視することができる。   As shown in FIGS. 17A and 17B, as the distance between the screen and the viewer increases, the size of the object increases in order to improve legibility. However, as shown in FIGS. 17B and 17C, even if the distance is too far from the viewer b, the object is not enlarged. This is because when the size is increased as shown in FIG. 17 (b), jaggy, mosquito noise and the like become conspicuous in the circular tire portion and the oblique line portion of the vehicle body. The photograph of the car can be grasped without further enlargement, and the overall appearance can be emphasized rather than the details of the photograph by providing an allowable maximum enlargement size.

このように、本実施例では、最も投影画像が見えにくいスクリーンから一番遠い人に対して、一番スクリーンから近い人にとって大きすぎない、最適なサイズでオブジェクトを拡大して投影することができる。   As described above, in this embodiment, an object can be enlarged and projected at an optimal size that is not too large for the person closest to the screen to the person farthest from the screen where the projected image is most difficult to see. .

本実施例では、文字と文字以外(写真やグラフィックス)のオブジェクトが混在した画像が入力された場合に、画像加工部25が行う画像データの加工について説明する。   In this embodiment, processing of image data performed by the image processing unit 25 when an image in which characters and objects other than characters (photographs or graphics) are mixed is input will be described.

図18は、本実施例の画像加工部25の処理手順を示すフローチャート図の一例である。ステップS60は、実施例1のS10と同様である。ステップS61も実施例1のS11と同様であるが、本実施例では文字と文字以外(グラフィックス・写真)のオブジェクトが混在している場合を想定しているので、それぞれの位置とオブジェクト種を特定する。   FIG. 18 is an example of a flowchart illustrating a processing procedure of the image processing unit 25 of the present embodiment. Step S60 is the same as S10 of the first embodiment. Step S61 is the same as S11 in the first embodiment. However, in this embodiment, it is assumed that characters and objects other than characters (graphics / photos) are mixed. Identify.

ステップS62にて、画像加工部25は、文字オブジェクトに関しては、実施例1のS12〜S15の方法により、許容文字サイズを決定する。文字以外のグラフィックス等のオブジェクトについては、実施例3のS42〜S47の方法により、オブジェクトごとに最適サイズと許容最大拡大サイズを決定する(S46)。   In step S62, the image processing unit 25 determines the allowable character size for the character object by the method of S12 to S15 of the first embodiment. For objects such as graphics other than characters, the optimum size and allowable maximum enlargement size are determined for each object by the method of S42 to S47 of the third embodiment (S46).

なお、最小の文字サイズに合わせて、それ以上大きな文字サイズの文字の許容文字サイズを決定すればよいので、許容文字サイズは1個のみでよい。   Note that it is only necessary to determine the allowable character size of a character having a larger character size according to the minimum character size, so that only one allowable character size is required.

ステップS63は実施例1のS16と同じである。   Step S63 is the same as S16 of the first embodiment.

ここで、文字について拡大する必要がない場合(S63のNo)、グラフィックスオブジェクトについての比較処理(S70〜76)の処理に移行する(S64)。   If it is not necessary to enlarge the character (No in S63), the process proceeds to the comparison process (S70 to 76) for the graphics object (S64).

一方、ステップS63にて、文字サイズを拡大する必要がある場合(S64のYes)、画像加工部25は投影限界拡大サイズを算出する(S65)。   On the other hand, if it is necessary to enlarge the character size in step S63 (Yes in S64), the image processing unit 25 calculates the projection limit enlargement size (S65).

投影限界拡大サイズを算出するのは、画像データが、文字以外のオブジェクトを含んでいるためである。文字オブジェクトを許容文字サイズまで拡大した場合、他のオブジェクトと重なったり、画像データのサイズ(投影サイズ)を超えてしまうことがある。このため、どのサイズまで拡大しても問題ないかを確認し、問題ない上限の拡大サイズを投影限界拡大サイズとして決定する。   The projection limit enlargement size is calculated because the image data includes objects other than characters. When a character object is enlarged to an allowable character size, it may overlap other objects or exceed the size (projection size) of image data. For this reason, it is confirmed whether there is no problem in enlarging to any size, and an upper limit enlargement size that is not problematic is determined as the projection limit enlargement size.

図19は、投影限界拡大サイズの決定方法を模式的に説明する図の一例である。投影限界拡大サイズの算出方法としては、入力された画像データをRAM22に格納し、拡大率を100%から110%、120%、130%と10%刻みで拡大していき、文字以外のオブジェクトとの重複又は投影サイズをはみ出す(画像データの外縁に達する)か否かを判定する。   FIG. 19 is an example of a diagram schematically illustrating a method for determining a projection limit enlargement size. As a calculation method of the projection limit enlargement size, the input image data is stored in the RAM 22 and the enlargement rate is enlarged from 100% to 110%, 120%, 130% and 10% increments, It is determined whether or not the overlap or projection size of the image data is projected (reach the outer edge of the image data).

図19(a)は拡大率100%、図19(b)は拡大率110%、図19(c)は拡大率120%、図19(d)は拡大率130%、図19(e)は拡大率140%、図19(f)は拡大率150%、の画像データである。   19 (a) shows an enlargement ratio of 100%, FIG. 19 (b) shows an enlargement ratio of 110%, FIG. 19 (c) shows an enlargement ratio of 120%, FIG. 19 (d) shows an enlargement ratio of 130%, and FIG. Image data with an enlargement ratio of 140% and FIG. 19F is an enlargement ratio of 150%.

拡大率が150%の場合、文字が投影サイズをはみ出すことが検出される。このように重複などが検出されたら拡大処理を中止し、現在の拡大率に対して10%減算した拡大率で拡大した場合のサイズを投影限界拡大サイズとする。この例では、拡大率140%で拡大した場合のサイズを投影限界拡大サイズに決定する。   When the enlargement ratio is 150%, it is detected that the characters exceed the projection size. When an overlap is detected in this way, the enlargement process is stopped, and the size when the image is enlarged at an enlargement rate obtained by subtracting 10% from the current enlargement rate is set as the projection limit enlargement size. In this example, the size when the image is enlarged at an enlargement ratio of 140% is determined as the projection limit enlargement size.

次に、画像加工部25はS65で算出した投影限界拡大サイズと許容文字サイズとを比較する(S66)。投影限界拡大サイズと許容文字サイズのうち小さい方が選択される。   Next, the image processing unit 25 compares the projection limit enlargement size calculated in S65 with the allowable character size (S66). The smaller one of the projection limit enlargement size and the allowable character size is selected.

許容文字サイズのほうが大きい場合(S66のYes)、画像加工部25は投影限界拡大サイズに拡大処理を実施する(S67)。このように許容限界拡大サイズに達した場合、他のグラフィックスのオブジェクトは拡大するのが難しいと考えられるため、ここで処理を終了する。すなわち、S70以降のグラフィックスオブジェクトの拡大処理ステップには移行せず、画像加工部25から画像処理コントローラ23、コントローラ12を経由して、画像投影部13に拡大した画像データを転送し、画像を投影する(S68)。   When the allowable character size is larger (Yes in S66), the image processing unit 25 performs the enlargement process to the projection limit enlargement size (S67). When the allowable limit enlargement size is reached in this way, it is considered difficult to enlarge other graphics objects, so the processing ends here. That is, instead of proceeding to the graphic object enlargement processing step after S70, the enlarged image data is transferred from the image processing unit 25 to the image projection unit 13 via the image processing controller 23 and the controller 12, and the image is transferred. Projecting is performed (S68).

ステップS66で許容文字サイズよりも投影限界拡大サイズのほうが大きいか等しい場合(S66のNo)、許容文字サイズまで拡大処理を行ってもグラフィックと重複したり投光画像をはみ出さないので、画像加工部25は文字のオブジェクトを許容文字サイズまで拡大処理する(S69)。   If the projection limit enlargement size is greater than or equal to the allowable character size in step S66 (No in S66), the image processing does not overlap with the graphic or protrude the projected image even if the enlargement processing is performed up to the allowable character size. The unit 25 enlarges the character object to an allowable character size (S69).

次に、文字以外のオブジェクトの拡大処理を行う。
まず、文字以外のオブジェクトが複数あった場合は、基本的に一番小さいサイズのオブジェクトが一番見難くなっているので、オブジェクトの小さい順番に、S70〜S76の処理を全てのオブジェクトに対し行う。
Next, an enlargement process for objects other than characters is performed.
First, when there are a plurality of objects other than characters, the object of the smallest size is basically the most difficult to see, so the processes of S70 to S76 are performed on all objects in the order of the smallest object. .

まず、実施例3のS48〜S50と同じように、オブジェクトの最適サイズと許容最大拡大サイズを比較し(S70)、オブジェクトの最適サイズ又は許容最大サイズのどちらかを拡大サイズを選択する(S71,S72)。   First, as in S48 to S50 of the third embodiment, the optimum size of the object and the allowable maximum enlargement size are compared (S70), and either the optimal size or the allowable maximum size of the object is selected as the enlargement size (S71, S71). S72).

次に、ステップS65と同じように着目している文字以外のオブジェクトの投影限界拡大サイズを算出する(S73)。   Next, as in step S65, the projection limit enlargement size of an object other than the focused character is calculated (S73).

図20は、投影限界拡大サイズの決定方法を模式的に説明する図の一例である。ここでは、図19で文字の拡大率が120%の場合を例にする。したがって、文字の拡大率はいずれも120%である。   FIG. 20 is an example of a diagram schematically illustrating a method for determining the projection limit enlargement size. Here, the case where the enlargement ratio of characters is 120% in FIG. 19 is taken as an example. Therefore, the enlargement ratio of the characters is 120%.

図20(a)は拡大率100%、図20(b)は拡大率110%、図20(c)は拡大率120%、図20(d)は拡大率130%、図20(e)は拡大率140%、の画像データである。   20 (a) shows an enlargement ratio of 100%, FIG. 20 (b) shows an enlargement ratio of 110%, FIG. 20 (c) shows an enlargement ratio of 120%, FIG. 20 (d) shows an enlargement ratio of 130%, and FIG. Image data with an enlargement ratio of 140%.

拡大率が140%の場合、グラフィックが文字と重複することが検出される。このように重複などが検出されたら拡大処理をやめ、現在の拡大率に対して10%減算した拡大率で拡大した場合のサイズを投影限界拡大サイズとする。この例では、拡大率130%で拡大した場合のサイズを投影限界拡大サイズに決定する。   When the enlargement ratio is 140%, it is detected that the graphic overlaps with the character. When an overlap or the like is detected in this way, the enlargement process is stopped, and the size when the image is enlarged at an enlargement rate obtained by subtracting 10% from the current enlargement rate is set as the projection limit enlargement size. In this example, the size when enlarged at an enlargement ratio of 130% is determined as the projection limit enlargement size.

次に、このようにして算出した文字以外のオブジェクトの投影限界拡大サイズと、S71又はS72のどちらかで選択したサイズ(許容最大サイズ又はオブジェクトの最適サイズ)とでどちらかが大きいかを比較する(S74)。ここでも、比較対象の内、小さい方が選択される。   Next, the projection limit enlargement size of the object other than the character calculated in this way is compared with the size selected in either S71 or S72 (the maximum allowable size or the optimum object size). (S74). Again, the smaller of the comparison targets is selected.

S71又はS72のどちらかで選択したサイズ(許容最大サイズ又はオブジェクトの最適サイズ)のほうが小さいか等しい場合(S74のNo)、画像加工部25は、文字以外のオブジェクトの選択したサイズ通りのサイズに拡大処理を行う(S76)。   When the size selected in either S71 or S72 (allowable maximum size or optimal object size) is smaller or equal (No in S74), the image processing unit 25 sets the size of the object other than characters to the selected size. Enlargement processing is performed (S76).

S71又はS72のどちらかで選択したサイズ(許容最大サイズ又はオブジェクトの最適サイズ)のほうが大きい場合(S74のYes)、文字以外のオブジェクトを投影限界拡大サイズまで拡大処理する(S75)。   If the size selected in either S71 or S72 (the maximum allowable size or the optimum size of the object) is larger (Yes in S74), objects other than characters are enlarged to the projection limit enlargement size (S75).

このS70〜S76を文字以外のオブジェクトの数だけ実施して、全てのオブジェクトについて拡大処理が実施されたら、画像が投影される(S77)。画像データは画像処理コントローラ23及びコントローラ12を介して画像投影部13に転送され、スクリーンに画像が投影される。   When S70 to S76 are performed for the number of objects other than characters and enlargement processing is performed for all objects, an image is projected (S77). The image data is transferred to the image projection unit 13 via the image processing controller 23 and the controller 12, and an image is projected on the screen.

本実施例で、図18のように、まず、文字のオブジェクトを拡大してから、文字以外のオブジェクトのサイズを定めているのは、プロジェクタ100の投影画像の場合、文字の判読性の方が優先度が高いと考えられるためである。写真やグラフィックスなどは多少小さくてもある程度の内容は把握できる。しかし、処理順に制約があるわけではないので、写真やグラフィックスの優先度が高ければ、先に文字以外のオブジェクトを拡大してから、文字のオブジェクトのサイズを定めてもよい。どちらのオブジェクトを優先するかは、ユーザによりプロジェクタ100に設定可能である。   In this embodiment, as shown in FIG. 18, the character object is first enlarged and then the size of the object other than the character is determined in the case of the projected image of the projector 100 because the character is legible. This is because the priority is considered high. Pictures and graphics can be grasped to some extent even if they are a little small. However, since the processing order is not limited, if the priority of a photograph or graphics is high, the size of the character object may be determined after first enlarging the object other than the character. Which object is given priority can be set in the projector 100 by the user.

このように、本実施例では、文字と文字以外のオブジェクトが混在する画像データにおいて、文字を可能な限り大きくし、さらに、文字以外のオブジェクトを一番スクリーンから近い人にとって大きすぎない、最適なサイズでオブジェクトを拡大して投影することができる。   Thus, in this embodiment, in image data in which characters and objects other than characters are mixed, the characters are made as large as possible, and the objects other than characters are not too large for the person closest to the screen. You can enlarge and project objects by size.

本実施例では、文字と文字以外のオブジェクトが混在している画像データにおいて、文字の判読性を向上させるために文字以外のオブジェクトのサイズを縮小するプロジェクタ100について説明する。   In this embodiment, a projector 100 that reduces the size of an object other than a character in order to improve the legibility of the character in image data in which characters and objects other than the character are mixed will be described.

本実施例では、説明を簡単にするために文字以外のオブジェクトが一つしかない場合を例にして説明する。ただし、以下の手法は、文字以外のオブジェクトが2つ以上の場合にも適用可能である。   In this embodiment, in order to simplify the description, a case where there is only one object other than a character will be described as an example. However, the following method is applicable even when there are two or more objects other than characters.

図21は、本実施例の画像加工部25の処理手順を示すフローチャート図の一例である。
ステップS80〜S86の処理は、実施例4のS60〜S66と同じである。ただし、S86の符号が異なっている。
FIG. 21 is an example of a flowchart illustrating a processing procedure of the image processing unit 25 according to the present embodiment.
The processing of steps S80 to S86 is the same as S60 to S66 of the fourth embodiment. However, the sign of S86 is different.

投影限界拡大サイズの方が大きいか等しい場合(S86のNo)、画像加工部25は許容文字大サイズを拡大サイズに選択する(S87)。この場合、投影限界拡大サイズよりも許容文字サイズの方が小さいので、許容文字サイズまで拡大できる。   When the projection limit enlargement size is larger or equal (No in S86), the image processing unit 25 selects the allowable character size as the enlargement size (S87). In this case, since the allowable character size is smaller than the projection limit enlargement size, it can be enlarged to the allowable character size.

この後、許容限界サイズまで余裕があるはずなので、画像加工部25はステップS70〜S77までの処理を実行する。   Thereafter, since there should be a margin up to the allowable limit size, the image processing unit 25 executes the processing from step S70 to S77.

許容文字サイズの方が小さい場合(S86のYes)、画像加工部25は許容文字サイズを拡大サイズに選択する(S88)。すなわち、S87とS88は同じである。ステップS88は、投影限界拡大サイズよりも大きなサイズである許容文字サイズに拡大処理を実施しているので、文字オブジェクトが写真オブジェクトと重なってしまう。そこで、文字以外のオブジェクトを縮小する。   When the allowable character size is smaller (Yes in S86), the image processing unit 25 selects the allowable character size as an enlarged size (S88). That is, S87 and S88 are the same. In step S88, since the enlargement process is performed to the allowable character size that is larger than the projection limit enlargement size, the character object overlaps the photo object. Therefore, objects other than characters are reduced.

図22は、本実施例の拡大・縮小処理を模式的に説明する図の一例である。
図22(a)は入力画像を示し、図22(b)は文字を許容サイズである130%に拡大した画像データを示す。図22(b)に示すように、許容文字サイズは投影限界拡大サイズよりも大きいので、文字が写真のオブジェクトと重なってしまう。
FIG. 22 is an example of a diagram schematically illustrating the enlargement / reduction processing of the present embodiment.
FIG. 22A shows an input image, and FIG. 22B shows image data obtained by enlarging characters to an allowable size of 130%. As shown in FIG. 22B, since the allowable character size is larger than the projection limit enlargement size, the character overlaps the object of the photograph.

そこで、画像加工部25は、ステップS89、S90に示すように、文字は許容文字サイズを保ったまま、文字オブジェクトと重なっている写真オブジェクトを縮小する。   Therefore, as shown in steps S89 and S90, the image processing unit 25 reduces the photo object that overlaps the character object while maintaining the allowable character size of the character.

図22(c)(d)は縮小処理を模式的に説明する図の一例である。文字オブジェクトはそのまま(許容文字サイズ)の大きさにしたまま、重なっている写真オブジェクトを10%刻みで縮小していく。図22(c)では、写真オブジェクトを90%の大きさにしているが、90%でもまだ文字オブジェクトと重なっている。次に図22(d)に示すように、写真オブジェクトを80%に縮小する。そうすると、文字オブジェクトと写真オブジェクトとの重なりが解消されるため、写真オブジェクトはこのまま80%の大きさで決定する(S89)。   22C and 22D are examples of diagrams for schematically explaining the reduction process. While keeping the text object as it is (allowable text size), the overlapping photo objects are reduced in 10% increments. In FIG. 22C, the size of the photo object is 90%, but 90% still overlaps with the character object. Next, as shown in FIG. 22D, the photo object is reduced to 80%. Then, since the overlap between the character object and the photo object is eliminated, the photo object is determined as 80% as it is (S89).

画像加工部25は画像データの写真オブジェクトのサイズを縮小する(S90)。画像加工部25が写真オブジェクトの大きさを確定させたら、その画像データを他の実施例と同様に画像投影部13に転送し、スクリーンに出力させる(S91)。   The image processing unit 25 reduces the size of the photographic object of the image data (S90). When the image processing unit 25 determines the size of the photographic object, the image data is transferred to the image projection unit 13 and output to the screen in the same manner as in the other embodiments (S91).

本実施例のプロジェクタ100は、文字の判読性を最も優先し、文字以外の写真やグラフィックスなどの見栄えが多少悪くなっても、文字が確実に視聴者全ての人に読めるような投影画像を投影できる。   The projector 100 according to the present embodiment gives priority to the legibility of characters, and even if the appearance of photographs and graphics other than characters is somewhat deteriorated, a projected image in which characters can be surely read by all viewers. Can project.

本実施例では、実施例1と同様に文字画像が入力された場合であり、さらに画像データに所定の閾値よりも小さい文字情報があるときには、それを消去するプロジェクタ100について説明する。   In the present embodiment, a character image is input as in the first embodiment, and when there is character information smaller than a predetermined threshold in the image data, the projector 100 that erases the character information will be described.

図23は、本実施例の画像加工部25の処理手順を示すフローチャート図の一例である。ステップS100〜S104は実施例1のS10〜S14と同様である。   FIG. 23 is an example of a flowchart illustrating a processing procedure of the image processing unit 25 of the present embodiment. Steps S100 to S104 are the same as S10 to S14 of the first embodiment.

次に、画像加工部25は許容文字サイズと削除文字サイズを決定する(S105)。なお、許容文字サイズの決定に関しては実施例1のS15と同様である。   Next, the image processing unit 25 determines an allowable character size and a deleted character size (S105). The determination of the allowable character size is the same as S15 in the first embodiment.

図24は削除文字サイズの決定を説明する図の一例である。図24(a)では、全画面に対する文字領域の割合とS104で得られた距離の最大値に対応づけて、どの程度のフォントサイズまでは削除すべきかが登録されている。すなわち、図24(a)に示された数値の文字サイズまで削除対象となる。   FIG. 24 is an example for explaining the determination of the deleted character size. In FIG. 24A, the font size to be deleted is registered in association with the ratio of the character area to the entire screen and the maximum value of the distance obtained in S104. That is, even the character size of the numerical value shown in FIG.

図24(a)では、文字領域の割り合いが高いほどより大きな文字サイズまで削除対象となる。これは、文字領域の割り合いが大きければ大きいほど、投影画像が情報過多であるため、画面の見栄えをよくするためには、文字の削除対象をさらに広げて、積極的に文字を削除するためである。一方、文字領域の割合が小さい場合は、許容サイズまで拡大できる可能性が高いため、基本的に文字の削除を行わない。   In FIG. 24A, the larger the character area ratio, the larger the character size that is to be deleted. This is because the larger the percentage of the character area, the more information the projection image has, so in order to improve the appearance of the screen, the characters to be deleted are further expanded and the characters are actively deleted. It is. On the other hand, when the ratio of the character area is small, there is a high possibility that the character area can be expanded to an allowable size, and therefore the character is not basically deleted.

また、スクリーンからの距離に応じて、距離が遠ければ遠いほど文字画面が見難くなるため、削除対象の文字サイズの閾値も大きくなる。   Also, according to the distance from the screen, the longer the distance, the harder it is to see the character screen, so the character size threshold to be deleted also increases.

なお、文字データの削除は全体に対する10%未満の領域とし、S105で決定した文字データのサイズだと削除する領域が10%を超えてしまう場合は、S105で決定したサイズに対して1pt小さくして削除を行う。10%を超えなくなるまで、1ptずつ小さくして削除文字サイズを決定する。   It should be noted that the deletion of character data should be less than 10% of the entire area, and if the area to be deleted exceeds 10% if the size of the character data determined in S105, it should be 1pt smaller than the size determined in S105. To delete. Decrease the character size by 1pt until it does not exceed 10%.

次に、画像加工部25はステップS105で決定した削除文字サイズ以下の文字データを削除する(S106)。   Next, the image processing unit 25 deletes character data that is equal to or smaller than the deleted character size determined in step S105 (S106).

図24(b)は文字データの削除を模式的に説明する図の一例である。図24(b)では、文字データA、B、Cがあるが、文字データBが削除文字サイズ以下の文字データである。このため、画像加工部25は文字データBを削除する。画像データは図24(b)の中央のようになる。   FIG. 24B is an example of a diagram for schematically explaining deletion of character data. In FIG. 24B, there are character data A, B, and C, but the character data B is character data having a size equal to or smaller than the deleted character size. For this reason, the image processing unit 25 deletes the character data B. The image data is as shown in the center of FIG.

ステップS107〜S110は実施例1のS16〜S19と同様である。
ステップS109で、文字データBが削除された画像データの文字データA,Cを拡大する。これにより、画像データは図24(b)の右端のようになる。
Steps S107 to S110 are the same as S16 to S19 in the first embodiment.
In step S109, the character data A and C of the image data from which the character data B has been deleted are enlarged. As a result, the image data becomes as shown at the right end of FIG.

本実施例のプロジェクタ100によれば、最大距離に応じて小さい文字を積極的に削除することで、より大きいサイズの文字を拡大できるので、画面の情報量を制御して、文字画像を拡大できる。   According to the projector 100 of the present embodiment, it is possible to enlarge a character having a larger size by positively deleting small characters according to the maximum distance. Therefore, it is possible to enlarge the character image by controlling the amount of information on the screen. .

以上、実施例1〜6を説明したが、本実施例で使用されている処理フローや閾値、データ例はあくまで一例に過ぎず、決してこれに限定されるものではない。   The first to sixth embodiments have been described above. However, the processing flow, threshold values, and data examples used in the present embodiment are merely examples, and are not limited to these.

また、本実施例では、画像加工部25の加工を拡大縮小処理としていたが、文字の判読性を上げるためであれば、拡大縮小処理ではなく、コントラストの強度を変更することでもよい。例えば、視聴者が遠い位置に居ない場合はなるべくオリジナルの画像に忠実に画像を投影し、視聴者が遠ければ遠いほどコントラストを強めて判読性をあげていくという方法も考えられる。   In this embodiment, the processing of the image processing unit 25 is an enlargement / reduction process. However, in order to improve the legibility of characters, the contrast intensity may be changed instead of the enlargement / reduction process. For example, if the viewer is not far away, the image can be projected as faithfully as possible on the original image, and the farther the viewer is, the stronger the contrast and the better the legibility.

さらに、実施例1〜6の処理はプロジェクタ本体で処理することを前提に記載したが、位置情報システムのように画像処理部14がプロジェクタ100上でなく、サーバ上で動作しても不都合がない。例えば、ネットワークストレージに保管されている画像データに対して、画像処理をサーバ上で行って、その処理後の画像データをネットワーク経由でプロジェクタ100に転送して、それをプロジェクタ100が投影のみ実施するという構成も可能である。処理手順は実施例1〜6とほぼ同じになる。   Furthermore, the processing of the first to sixth embodiments has been described on the assumption that the processing is performed by the projector main body, but there is no problem even if the image processing unit 14 operates on the server instead of the projector 100 as in the position information system. . For example, image processing is performed on the image data stored in the network storage on the server, the processed image data is transferred to the projector 100 via the network, and the projector 100 performs only the projection. A configuration such as this is also possible. The processing procedure is almost the same as in the first to sixth embodiments.

11 距離算出部
12 コントローラ
13 画像投影部
14 画像処理部
15 操作入力部
21 ROM
22 RAM
23 画像処理コントローラ
24 画像認識部
25 画像加工部
100 プロジェクタ
200 画像投影面
DESCRIPTION OF SYMBOLS 11 Distance calculation part 12 Controller 13 Image projection part 14 Image processing part 15 Operation input part 21 ROM
22 RAM
23 Image processing controller 24 Image recognition unit 25 Image processing unit 100 Projector 200 Image projection plane

特許2003-295309号公報Japanese Patent No. 2003-295309 特開2007-108462号公報JP 2007-108462

Claims (10)

画像構成要素のオブジェクトを一種類以上含む画像データが入力される画像入力手段と、
前記画像入力手段より入力された前記画像データに処理を施して表示用の画像を生成する画像処理手段と、
前記画像入力手段が入力した前記画像データを画像表示面に表示する画像表示手段と、
複数の視聴者のそれぞれと前記画像表示面との距離情報を検出するか、又は、前記距離情報を距離検出装置から取得する距離情報取得手段と、
前記画像データに含まれるオブジェクトの種類を判別するオブジェクト判別手段と、
前記オブジェクト判別手段が判別したオブジェクトの種類及び前記距離情報取得手段が取得した距離情報に応じて、前記画像表示面の前記画像データの視認性を向上させる加工を前記画像データに施す画像加工手段と、を有する画像表示装置。
Image input means for inputting image data including one or more types of image component objects;
Image processing means for processing the image data input from the image input means to generate an image for display;
Image display means for displaying the image data input by the image input means on an image display surface;
Distance information acquisition means for detecting distance information between each of a plurality of viewers and the image display surface, or acquiring the distance information from a distance detection device;
Object discriminating means for discriminating the type of object included in the image data;
Image processing means for performing processing on the image data to improve the visibility of the image data on the image display surface according to the type of object determined by the object determination means and the distance information acquired by the distance information acquisition means; And an image display device.
前記オブジェクト判別手段が、前記画像データに含まれるオブジェクトが文字であると判別した場合、
前記画像加工手段は、前記距離情報取得手段が取得した複数の視聴者のそれぞれと前記画像表示面との前記距離情報のうち、最大の前記距離情報に基づき前記画像データの文字に加工を施す、
ことを特徴とする請求項1記載の画像表示装置。
When the object determining means determines that the object included in the image data is a character,
The image processing means processes the characters of the image data based on the maximum distance information among the distance information between each of the plurality of viewers acquired by the distance information acquisition means and the image display surface.
The image display device according to claim 1.
前記オブジェクト判別手段が、前記画像データに含まれるオブジェクトが文字以外であると判別した場合、
前記画像加工手段は、
前記距離情報取得手段が取得した複数の視聴者のそれぞれと前記画像表示面との前記距離情報のうち、最小の前記距離情報に基づき前記画像データに施す上限加工量を決定し、
前記距離情報取得手段が取得した複数の視聴者のそれぞれと前記画像表示面との前記距離情報のうち、最大の前記距離情報により前記画像データに要求される要求加工量を決定し、
前記上限加工量と前記要求加工量のうち、小さいほうの加工量により前記画像データに加工を施す、
ことを特徴とする請求項1記載の画像表示装置。
When the object determining means determines that the object included in the image data is other than characters,
The image processing means includes
Determining the upper limit processing amount to be applied to the image data based on the minimum distance information among the distance information between each of the plurality of viewers acquired by the distance information acquisition means and the image display surface;
Of the distance information between each of the plurality of viewers acquired by the distance information acquisition means and the image display surface, a required processing amount required for the image data is determined by the maximum distance information,
Among the upper limit processing amount and the required processing amount, the image data is processed with a smaller processing amount,
The image display device according to claim 1.
前記画像入力手段より入力された前記画像データの画質を評価して画質情報を作成する画像認識手段と、
前記画質情報と前記距離情報に対応づけて前記上限加工量を登録した上限加工量テーブルと、を有し、
前記画像加工手段は、最小の前記距離情報と前記画質情報に基づき前記上限加工量テーブルを参照して、前記上限加工量を決定する、
ことを特徴とする請求項3記載の画像表示装置。
Image recognition means for evaluating image quality of the image data input from the image input means and creating image quality information;
An upper limit processing amount table in which the upper limit processing amount is registered in association with the image quality information and the distance information;
The image processing means determines the upper limit processing amount with reference to the upper limit processing amount table based on the minimum distance information and the image quality information.
The image display device according to claim 3.
前記オブジェクト判別手段が、前記画像入力手段より入力された前記画像データが文字と文字以外のオブジェクトを含むと判別した場合、
前記画像加工手段は、優先するオブジェクトとして予め設定されているオブジェクトの種類に応じて、文字のオブジェクトを文字以外のオブジェクトよりも優先するか、又は、文字以外のオブジェクトを文字のオブジェクトよりも優先して加工する、
ことを特徴とする請求項1〜4いずれか1項記載の画像表示装置。
When the object determining means determines that the image data input from the image input means includes characters and objects other than characters,
The image processing means gives priority to a character object over an object other than a character, or prioritizes an object other than a character over a character object, depending on the type of the object preset as a priority object. Processing
The image display apparatus according to claim 1, wherein:
前記画像加工手段は、優先されるオブジェクトに対し最大の前記距離情報により決定される要求拡大量を算出する機能と、
優先されるオブジェクトを拡大した場合に、優先されないオブジェクト及び画像データの外縁と接触しない範囲の限界拡大量を算出する機能と、を有し、
前記要求拡大量と前記限界拡大量のうち小さい方の拡大量で優先されるオブジェクトを拡大する、
ことを特徴とする請求項5記載の画像表示装置。
The image processing means has a function of calculating a requested enlargement amount determined by the maximum distance information for a priority object;
A function of calculating a limit enlargement amount of a range that does not contact the outer edge of the object and the non-prioritized object and the image data when the object to be prioritized is enlarged,
Enlarging an object to be prioritized by a smaller enlargement amount of the requested enlargement amount and the limit enlargement amount,
The image display device according to claim 5.
前記画像加工手段は、優先されないオブジェクトに対し最大の前記距離情報により決定される前記要求拡大量と、優先されないオブジェクトに対し最小の前記距離情報により決定される適切拡大量、のうち小さい方を優先されないオブジェクトの拡大量に決定し、
優先されるオブジェクトを優先されるオブジェクトの前記要求拡大量で拡大した場合、拡大された優先されるオブジェクト及び画像データの外縁と接触しない範囲の前記限界拡大量で、優先されないオブジェクトを拡大する、
ことを特徴とする請求項6記載の画像表示装置。
The image processing means gives priority to a smaller one of the requested enlargement amount determined by the maximum distance information for an object not prioritized and an appropriate enlargement amount determined by the minimum distance information for an object not prioritized. To determine the amount of object enlargement,
When the priority object is enlarged by the requested enlargement amount of the priority object, the non-priority object is enlarged by the limit enlargement amount in a range that does not contact the enlarged priority object and the outer edge of the image data.
The image display device according to claim 6.
前記画像加工手段は、
前記要求拡大量の方が前記限界拡大量よりも大きい場合、前記要求拡大量で優先されるオブジェクトを拡大し、
優先されないオブジェクトを、拡大された優先されるオブジェクトと接触しない大きさまで縮小する、
ことを特徴とする請求項6記載の画像表示装置。
The image processing means includes
When the requested enlargement amount is larger than the limit enlargement amount, the object prioritized by the requested enlargement amount is enlarged,
Reduce non-priority objects to a size that does not touch the enlarged priority object,
The image display device according to claim 6.
前記距離情報に対応づけて文字のオブジェクトの削除対象サイズが登録されたサイズ決定テーブルを有し、
前記要求加工手段は、最大の前記距離情報に基づき前記サイズ決定テーブルを参照して前記削除対象サイズを決定し、
前記画像入力手段より入力された前記画像データから、前記削除対象サイズ以下の文字のオブジェクトを削除する、
ことを特徴とする請求項1〜8いずれか1項記載の画像表示装置。
A size determination table in which deletion target sizes of character objects are registered in association with the distance information;
The requested processing means determines the deletion target size with reference to the size determination table based on the maximum distance information,
Deleting a character object having a size equal to or smaller than the deletion target size from the image data input from the image input means;
The image display device according to claim 1, wherein:
前記画像加工手段は、前記画像データを光学的に拡大することで、前記画像データに加工を施す、
ことを特徴とする請求項1〜3いずれか1項記載の画像表示装置。
The image processing means processes the image data by optically expanding the image data.
The image display device according to claim 1, wherein
JP2012187933A 2012-08-28 2012-08-28 Image display device Expired - Fee Related JP5987557B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012187933A JP5987557B2 (en) 2012-08-28 2012-08-28 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012187933A JP5987557B2 (en) 2012-08-28 2012-08-28 Image display device

Publications (2)

Publication Number Publication Date
JP2014044369A true JP2014044369A (en) 2014-03-13
JP5987557B2 JP5987557B2 (en) 2016-09-07

Family

ID=50395661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012187933A Expired - Fee Related JP5987557B2 (en) 2012-08-28 2012-08-28 Image display device

Country Status (1)

Country Link
JP (1) JP5987557B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463154A (en) * 2013-09-16 2015-03-25 联想(北京)有限公司 Information processing method and electronic device
JP2016502316A (en) * 2012-10-31 2016-01-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Automatically adjust the size of the content rendered on the display
JP2017072795A (en) * 2015-10-09 2017-04-13 セイコーエプソン株式会社 Projector and control method therefor
WO2018008128A1 (en) * 2016-07-07 2018-01-11 マクセル株式会社 Video display device and method
JP2020030859A (en) * 2015-12-25 2020-02-27 シャープ株式会社 Content display device, display method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165079A (en) * 2000-11-27 2002-06-07 Minolta Co Ltd Image processing unit and method
JP2003076355A (en) * 2001-08-31 2003-03-14 Sharp Corp Picture display device, picture display method, recording medium, and program
JP2003140632A (en) * 2001-11-05 2003-05-16 Hitachi Ltd Method and unit for image display
JP2003271283A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Information display apparatus
JP2012027324A (en) * 2010-07-26 2012-02-09 Canon Inc Display device, display device control method and display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165079A (en) * 2000-11-27 2002-06-07 Minolta Co Ltd Image processing unit and method
JP2003076355A (en) * 2001-08-31 2003-03-14 Sharp Corp Picture display device, picture display method, recording medium, and program
JP2003140632A (en) * 2001-11-05 2003-05-16 Hitachi Ltd Method and unit for image display
JP2003271283A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Information display apparatus
JP2012027324A (en) * 2010-07-26 2012-02-09 Canon Inc Display device, display device control method and display system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502316A (en) * 2012-10-31 2016-01-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Automatically adjust the size of the content rendered on the display
CN104463154A (en) * 2013-09-16 2015-03-25 联想(北京)有限公司 Information processing method and electronic device
CN104463154B (en) * 2013-09-16 2017-12-29 联想(北京)有限公司 A kind of information processing method and electronic equipment
JP2017072795A (en) * 2015-10-09 2017-04-13 セイコーエプソン株式会社 Projector and control method therefor
CN106851234A (en) * 2015-10-09 2017-06-13 精工爱普生株式会社 The control method of projecting apparatus and projecting apparatus
US10431131B2 (en) 2015-10-09 2019-10-01 Seiko Epson Corporation Projector and control method for projector
CN106851234B (en) * 2015-10-09 2021-03-05 精工爱普生株式会社 Projector and control method of projector
JP2020030859A (en) * 2015-12-25 2020-02-27 シャープ株式会社 Content display device, display method, and program
WO2018008128A1 (en) * 2016-07-07 2018-01-11 マクセル株式会社 Video display device and method

Also Published As

Publication number Publication date
JP5987557B2 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
US20130162688A1 (en) Image projecting apparatus, image processing method, and computer-readable storage medium
JP5987557B2 (en) Image display device
JP2014192808A (en) Projection apparatus and program
US10379610B2 (en) Information processing device and information processing method
US9774835B2 (en) Image projection system and image projection apparatus
US20120069045A1 (en) Drawn image sharing apparatus
JP4816704B2 (en) Instruction system, instruction program
JP6753049B2 (en) Projector and projector control method.
CN101103635A (en) White balance correction in digital camera images
JP6793483B2 (en) Display devices, electronic devices and their control methods
US20150055835A1 (en) Image Processing Apparatus and Storage Medium
JP2012027687A (en) Image processing apparatus and program
JP2011023886A (en) Teleconferencing device and image display processing method
US8007111B2 (en) Projector having image pickup unit, distance measuring unit, image signal processing unit, and projection unit and projection display method
JP2018125819A (en) Control device, control method, program, and storage medium
JP2014123881A (en) Information processing device, information processing method, and computer program
CN109391769A (en) Control equipment, control method and storage medium
JP6464834B2 (en) Display device and display method
CN110780513B (en) Projector, projection system, and projection method
JP2015060162A (en) Projection device, projection method, and projection processing program
JP2015220478A (en) projector
JP2015059972A (en) Projector device, and image projection system
JPH10333247A (en) Projection type display device
JP3393168B2 (en) Image input device
US11818517B2 (en) Projector and projector controlling method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R151 Written notification of patent or utility model registration

Ref document number: 5987557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees