JP2008262302A - Projector, imaging device, projection control method and program - Google Patents

Projector, imaging device, projection control method and program Download PDF

Info

Publication number
JP2008262302A
JP2008262302A JP2007103231A JP2007103231A JP2008262302A JP 2008262302 A JP2008262302 A JP 2008262302A JP 2007103231 A JP2007103231 A JP 2007103231A JP 2007103231 A JP2007103231 A JP 2007103231A JP 2008262302 A JP2008262302 A JP 2008262302A
Authority
JP
Japan
Prior art keywords
image
projection
photographing
character string
subject image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007103231A
Other languages
Japanese (ja)
Other versions
JP5061696B2 (en
Inventor
Atsushi Sukenori
篤志 助則
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007103231A priority Critical patent/JP5061696B2/en
Publication of JP2008262302A publication Critical patent/JP2008262302A/en
Application granted granted Critical
Publication of JP5061696B2 publication Critical patent/JP5061696B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily create a table while freely changing each component, and to project it. <P>SOLUTION: This projector has: a photographing part (2b, 52, 48) for photographing a photographic object image; a control part 46, 47 for recognizing a character string position inside the photographic object image obtained by the photographing, and producing ruled line data constituting the table from a recognition result thereof; and a projection part (34-44, 2a) creating an optical image of the table based on the ruled line data produced in the control part 46, and projecting it toward the photographed photographic object image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、例えばプレゼンテーションを行なうのに好適な投影装置、撮像装置、投影制御方法及びプログラムに関する。   The present invention relates to a projection apparatus, an imaging apparatus, a projection control method, and a program suitable for performing a presentation, for example.

従来のプロジェクタ装置では、紙面あるいはコンピュータで作成した編集済みの図表をスクリーンに投影することができる。   In a conventional projector apparatus, an edited chart created on a paper surface or a computer can be projected on a screen.

また別の技術としては、予め作成されたテンプレートとして保持した表をスクリーンに投影する投影装置が考えられていた。(例えば、特許文献1)
特開2004−198858号公報
As another technique, a projection apparatus for projecting a table held as a template created in advance onto a screen has been considered. (For example, Patent Document 1)
JP 2004-198858 A

上述した如く、上記特許文献1の技術も含め、従来のプロジェクタ装置では、予め用意されている表を投影することはできるものの、その表の構成、具体的には行の数、列の数、表を形成する罫線の種類や各セルの大きさ等を変更することができない。   As described above, the conventional projector apparatus including the technique of Patent Document 1 can project a table prepared in advance, but the configuration of the table, specifically the number of rows, the number of columns, The type of ruled lines forming the table and the size of each cell cannot be changed.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、各構成要素を自由に変更しながら手軽に表を作成して投影させることが可能な投影装置、撮像装置、投影制御方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a projection apparatus and an imaging apparatus capable of easily creating and projecting a table while freely changing each component. Another object is to provide a projection control method and program.

請求項1記載の発明は、被写体像を撮影する撮影手段と、上記撮影手段で得た被写体像に対し、像中の文字列位置を認識してその認識結果から表を構成する罫線データを作成する表作成手段と、上記表作成手段で作成した罫線データと上記文字列位置に基づいた表の画像を作成し、上記撮像手段で撮影した被写体像に向けて投影する投影手段とを具備したことを特徴とする。   According to the first aspect of the present invention, a photographing unit for photographing a subject image and a ruled line data constituting a table from the recognition result of the character string position in the image obtained from the photographing unit obtained by the photographing unit. A table creation unit that creates a table image based on the ruled line data created by the table creation unit and the character string position, and projects the image onto a subject image photographed by the imaging unit. It is characterized by.

請求項2記載の発明は、上記請求項1記載の発明において、上記表作成手段は、上記撮影手段で得た被写体像中の文字列位置を行及び列の各項目名位置として表を構成する罫線データを作成することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the table creating means constructs a table with character string positions in the subject image obtained by the photographing means as item name positions of rows and columns. It is characterized by creating ruled line data.

請求項3記載の発明は、上記請求項1記載の発明において、上記撮影手段は、上記被写体像中で上記投影手段で投影した表を構成するセルに対応して新たに追加された文字列を撮影し、上記撮影手段で得た被写体像中、上記セルに追加された文字列が当該セルの範囲をはみ出したか否かを判断する判断手段をさらに具備し、上記表作成手段は、上記判断手段でセルの範囲をはみ出したと判断した文字列の画像を縮小して当該セル中に嵌め込んだ表のデータを作成し、上記投影手段は、上記表作成手段で作成した、セル中に文字列画像を嵌め込んだ表の画像を作成し、上記撮像手段で撮影した被写体像に向けて投影することを特徴とする。   According to a third aspect of the present invention, in the first aspect of the present invention, the photographing unit may include a character string newly added corresponding to a cell constituting a table projected by the projection unit in the subject image. The table creation means further comprises a judgment means for judging whether or not a character string added to the cell is out of the range of the cell in the subject image obtained by the photographing means. The image of the character string that has been determined to have protruded from the cell range is reduced to create table data that is fitted in the cell, and the projection means creates the character string image in the cell created by the table creation means. An image of a table in which is inserted is created and projected toward a subject image photographed by the imaging means.

請求項4記載の発明は、上記請求項1記載の発明において、上記撮影手段により上記被写体像中で上記投影手段で投影した表を構成するセルに対応して新たに追加された文字列を撮影し、得た被写体像中の、上記セルに追加された文字列画像に対し、文字認識処理により当該文字列に対応するテキストデータを取得する第1の文字認識手段と、上記第1の文字認識手段で取得したテキストデータを登録した辞書登録手段と、上記撮影手段により上記被写体像中で上記投影手段で投影した表を構成するセルに対応して新たに追加された文字を撮影し、得た被写体像中の、上記セルに追加された文字画像に対し、文字認識処理により当該文字に対応するテキストデータを取得する第2の文字認識手段と、この第2の文字認識手段で取得したテキストデータにより上記辞書登録手段で登録したテキストデータを検索し、少なくとも一部が一致するテキストデータを選出する予測変換手段とをさらに具備し、上記表作成手段は、上記予測変換手段で選出したテキストデータの画像を当該セル中に嵌め込んだ表のデータを作成し、上記投影手段は、上記表作成手段で作成した、セル中にテキストデータの画像を嵌め込んだ表の画像を作成し、上記撮像手段で撮影した被写体像に向けて投影することを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the present invention, a character string newly added corresponding to a cell constituting a table projected by the projection unit in the subject image by the photographing unit is photographed. First character recognition means for acquiring text data corresponding to the character string by character recognition processing for the character string image added to the cell in the obtained subject image; and the first character recognition The dictionary registration means for registering the text data acquired by the means and the newly added characters corresponding to the cells constituting the table projected by the projection means in the subject image by the photographing means were obtained and obtained. Second character recognition means for obtaining text data corresponding to the character by character recognition processing for the character image added to the cell in the subject image, and the text obtained by the second character recognition means. Text data registered by the dictionary registration means by data, and further comprising predictive conversion means for selecting text data at least partially matching, the table creating means is the text data selected by the predictive conversion means The table is created by fitting the image of the image into the cell, and the projection unit creates the image of the table created by the table creation unit and the image of the text data fitted in the cell. Projecting toward the subject image photographed by the means.

請求項5記載の発明は、上記請求項1記載の発明において、上記投影手段で投影した表を被写体像として上記撮影手段により撮影させる撮影制御手段と、上記撮影制御手段により撮影した表を記録する記録手段とをさらに具備したことを特徴とする。   According to a fifth aspect of the present invention, in the first aspect of the present invention, the photographing control means for photographing the table projected by the projection means as a subject image by the photographing means, and the table photographed by the photographing control means are recorded. And a recording means.

請求項6記載の発明は、上記請求項1記載の発明において、被写体像を撮影する撮影手段と、上記撮影手段で得た被写体像に対し、像中の文字列位置を認識してその認識結果から表を構成する罫線データを作成する表作成手段と、上記表作成手段で作成した罫線データと上記撮影手段で得た上記文字列に基づいた表の画像を記憶する記憶手段とを具備したことを特徴とする。   According to a sixth aspect of the present invention, in the first aspect of the present invention, with respect to the photographing means for photographing the subject image and the subject image obtained by the photographing means, the character string position in the image is recognized and the recognition result is obtained. Table creating means for creating ruled line data constituting the table from the table, storage means for storing the ruled line data created by the table creating means and the table image based on the character string obtained by the photographing means It is characterized by.

請求項7記載の発明は、画像データに対応した光像を形成し、投影対象に向けて投影する投影部、及びこの投影部での投影領域を被写体像として撮影可能な撮影部を備えた投影装置での投影制御方法であって、上記撮影部で得た被写体像に対し、像中の文字列位置を認識してその認識結果から表を構成する罫線データを作成する表作成工程と、上記表作成工程で作成した罫線データと上記文字列位置に基づいた表の画像を作成し、上記撮像部で撮影した被写体像に向けて上記投影部により投影させる投影制御工程とを有したことを特徴とする。   The invention according to claim 7 is a projection provided with a projection unit that forms an optical image corresponding to the image data and projects the light image toward a projection target, and a photographing unit capable of photographing the projection area of the projection unit as a subject image. A projection control method in the apparatus, for a subject image obtained by the imaging unit, a table creation step of recognizing a character string position in the image and creating ruled line data constituting a table from the recognition result; A projection control step of creating a table image based on the ruled line data created in the table creation step and the character string position, and projecting the image on the subject image captured by the imaging unit; And

請求項8記載の発明は、画像データに対応した光像を形成し、投影対象に向けて投影する投影部、及びこの投影部での投影領域を被写体像として撮影可能な撮影部を備えた投影装置または同投影装置を制御可能な外部装置に内蔵されたコンピュータが実行するプログラムであって、上記撮影部で得た被写体像に対し、像中の文字列位置を認識してその認識結果から表を構成する罫線データを作成する表作成ステップと、上記表作成ステップで作成した罫線データと上記文字列位置に基づいた表の画像を作成し、上記撮像部で撮影した被写体像に向けて上記投影部により投影させる投影制御ステップとをコンピュータに実行させることを特徴とする。   The invention described in claim 8 is a projection provided with a projection unit that forms an optical image corresponding to the image data and projects it toward the projection target, and a photographing unit capable of photographing the projection area of the projection unit as a subject image. This is a program executed by a computer incorporated in an apparatus or an external device that can control the projection apparatus, and recognizes the position of a character string in the subject image obtained by the photographing unit and displays it from the recognition result. A table creating step for creating ruled line data constituting the image, a table image based on the ruled line data created in the table creating step and the character string position, and the projection toward the subject image photographed by the imaging unit And a projection control step of causing the computer to execute projection.

本発明によれば、各構成要素を自由に変更しながら手軽に表を作成して投影させることが可能となる。   According to the present invention, it is possible to easily create and project a table while freely changing each component.

以下本発明に係る投影システムをパーソナルコンピュータとデータプロジェクタ装置を用いた投影システムに適用した場合の実施の一形態について図面を参照して説明する。   An embodiment in which the projection system according to the present invention is applied to a projection system using a personal computer and a data projector apparatus will be described below with reference to the drawings.

(構成)
図1は、システム全体の外観と接続構成を示すものである。パーソナルコンピュータ1とデータプロジェクタ装置2とが無線LAN技術、例えばIEEE802.11g規格に従って無線接続され、パーソナルコンピュータ1で再生されるプレゼンテーションプログラムの画像データが適宜データプロジェクタ装置2へ送られて、データプロジェクタ装置2によりスクリーンSCとして使用されるホワイトボードに向けて投影される。
(Constitution)
FIG. 1 shows the appearance and connection configuration of the entire system. The personal computer 1 and the data projector device 2 are wirelessly connected according to wireless LAN technology, for example, the IEEE802.11g standard, and the image data of the presentation program reproduced by the personal computer 1 is appropriately sent to the data projector device 2, and the data projector device 2 is projected toward the white board used as the screen SC.

ここでは、パーソナルコンピュータ1及びデータプロジェクタ装置2が共に予め無線LAN機能を有するものとし、プレゼンテーションプログラム等の各種アプリケーションプログラムでパーソナルコンピュータ1とデータプロジェクタ装置2との間でアドホックモードに基づいた子機間どうしでの直接通信を行なうことが可能であるものとする。   Here, it is assumed that both the personal computer 1 and the data projector apparatus 2 have a wireless LAN function in advance, and between the personal computers 1 and the data projector apparatus 2 based on the ad hoc mode using various application programs such as a presentation program. It is assumed that direct communication between each other is possible.

データプロジェクタ装置2は、パーソナルコンピュータ1から送られてきた画像データを基に、例えばマイクロミラー素子を用いて画像データに対応する光像を形成し、筐体前面に配置された投影レンズユニット2aを介して、投影対象のスクリーンSCとして使用されるホワイトボード上の投影範囲PA内に対し、各種画像を投影表示する。   The data projector device 2 forms a light image corresponding to the image data using, for example, a micromirror element based on the image data sent from the personal computer 1, and includes a projection lens unit 2a disposed on the front surface of the housing. Thus, various images are projected and displayed within the projection range PA on the whiteboard used as the screen SC to be projected.

また、データプロジェクタ装置2の前面には、上記投影レンズユニット2aに近接して撮影レンズユニット2bを配置する。この撮影レンズユニット2bは、投影レンズユニット2aの投影(ズーム)画角に連動した撮影画角となるようなズーム機能を有し、且つ、投影レンズユニット2aの投影光軸に合致するように撮影光軸が予め調整されるもので、投影レンズユニット2aでの投影内容と略一致する撮影範囲となり、結果として投影レンズユニット2aでの投影内容を撮影レンズユニット2bを介して撮影可能となる。   In addition, on the front surface of the data projector apparatus 2, a photographing lens unit 2b is disposed in the vicinity of the projection lens unit 2a. The photographic lens unit 2b has a zoom function so that the photographic field angle is linked to the projection (zoom) field angle of the projection lens unit 2a, and shoots so as to match the projection optical axis of the projection lens unit 2a. The optical axis is adjusted in advance, and the photographing range is substantially the same as the projection content of the projection lens unit 2a. As a result, the projection content of the projection lens unit 2a can be photographed via the photographing lens unit 2b.

次に図2によりパーソナルコンピュータ1の構成について説明する。図2はこのパーソナルコンピュータ1のハードウェア構成を示すものであり、各種処理制御を司るCPU11とフロントサイドバスFSBを介してノースブリッジ12が接続される。   Next, the configuration of the personal computer 1 will be described with reference to FIG. FIG. 2 shows a hardware configuration of the personal computer 1, and a north bridge 12 is connected to the CPU 11 that controls various processes and a front side bus FSB.

このノースブリッジ12は、さらにメモリバスMBを介してメインメモリ13と、またグラフィクスインタフェースAGPを介してグラフィックコントローラ14及びグラフィックメモリ15と接続される他、サウスブリッジ16とも接続され、主としてこれらの間での入出力制御を実行する。   The north bridge 12 is further connected to the main memory 13 via the memory bus MB and to the graphic controller 14 and the graphic memory 15 via the graphics interface AGP, and is also connected to the south bridge 16 mainly between them. Execute I / O control.

サウスブリッジ16は、PCIバス17、キーボード/マウス18、ビデオエンコーダ19、無線LANインタフェース20、マルチディスクドライブ21、ハードディスク装置(HDD)22と接続され、主としてこれら周辺回路とノースブリッジ12との間の入出力制御を行なう。   The south bridge 16 is connected to a PCI bus 17, a keyboard / mouse 18, a video encoder 19, a wireless LAN interface 20, a multi-disk drive 21, and a hard disk device (HDD) 22, and mainly between these peripheral circuits and the north bridge 12. Performs input / output control.

なお、これらパーソナルコンピュータ1を構成する個々の要素は、きわめて一般的な周知の技術であるのでその説明は省略するものとする。   It should be noted that the individual elements constituting the personal computer 1 are extremely common and well-known techniques, and therefore description thereof is omitted.

なお、ビデオエンコーダ19は、与えられたデジタル値の画像信号からアナログ値の画像信号であるRGBビデオ信号を生成して出力し、ここでは図示しないカラーTFT(薄膜トランジスタ)液晶表示パネルで構成されるディスプレイ部を表示駆動する。   The video encoder 19 generates and outputs an RGB video signal, which is an analog image signal, from a given digital image signal, and displays a color TFT (thin film transistor) liquid crystal display panel (not shown). The display is driven.

無線LANインタフェース20は、無線LANアンテナ23を介し、IEEE802.11b/11g規格に則って他の機器と無線LANを構築し、各種データを送受可能となる。   The wireless LAN interface 20 can establish a wireless LAN with other devices via the wireless LAN antenna 23 in accordance with the IEEE 802.11b / 11g standard, and can transmit and receive various data.

次いで図3を用いて上記データプロジェクタ装置2の回路構成について説明する。
同図で、入出力コネクタ部31より入力される各種規格の画像信号が、入出力インタフェース(I/F)32、システムバスSBを介して画像変換部33で所定のフォーマットの画像信号に統一された後に、投影駆動部34へ送られる。
Next, the circuit configuration of the data projector device 2 will be described with reference to FIG.
In the figure, image signals of various standards input from the input / output connector unit 31 are unified into image signals of a predetermined format by the image conversion unit 33 via the input / output interface (I / F) 32 and the system bus SB. Is sent to the projection drive unit 34.

この際、OSD(On Screen Display)用の画像等も必要に応じて画像信号上に重畳加工された状態で投影駆動部34へ送られる。   At this time, an OSD (On Screen Display) image or the like is also sent to the projection drive unit 34 in a state of being superimposed on the image signal as necessary.

投影駆動部34は、送られてきた画像信号をビデオRAM35に展開して記憶させた上でこのビデオRAM35の記憶内容からビデオ信号を生成する。投影駆動部34は、このビデオ信号のフレームレート、例えば60[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、空間的光変調素子(SOM)である例えばマイクロミラー素子36を表示駆動する。   The projection drive unit 34 develops and stores the transmitted image signal in the video RAM 35, and then generates a video signal from the stored contents of the video RAM 35. The projection driver 34 multiplies the frame rate of this video signal, for example, 60 [frames / second] by the number of color component divisions and the number of display gradations, thereby performing a spatial light modulator ( For example, the micromirror element 36 that is SOM) is driven to display.

一方、リフレクタ37内に配置された、例えば超高圧水銀灯を用いた光源ランプ38が高輝度の白色光を出射する。光源ランプ38の出射した白色光は、カラーホイール39を介して時分割で原色R(赤),G(緑),B(青)に着色され、インテグレータ40で輝度分布が均一な光束とされた後にミラー41で全反射して上記マイクロミラー素子36に照射される。   On the other hand, a light source lamp 38 using, for example, an ultra-high pressure mercury lamp disposed in the reflector 37 emits white light with high luminance. The white light emitted from the light source lamp 38 is colored in the primary colors R (red), G (green), and B (blue) in a time-division manner via the color wheel 39, and is converted into a luminous flux having a uniform luminance distribution by the integrator 40. Later, the light is totally reflected by the mirror 41 and irradiated to the micromirror element 36.

しかして、マイクロミラー素子36での反射光で光像が形成され、形成された光像が上記投影レンズユニット2aを介して、投影対象となるここでは図示しないスクリーンに投影表示される。   Thus, an optical image is formed by the reflected light from the micromirror element 36, and the formed optical image is projected and displayed on the screen (not shown) to be projected through the projection lens unit 2a.

投影レンズユニット2aは、マイクロミラー素子36で形成された光像を拡大してスクリーン等の対象に投影するものであり、合焦位置及びズーム位置(投影画角)を任意に可変できるものとする。   The projection lens unit 2a enlarges and projects the optical image formed by the micromirror element 36 onto a target such as a screen, and can change the focus position and the zoom position (projection angle of view) arbitrarily. .

しかるに投影レンズユニット2a中の図示しないフォーカスレンズ及びズームレンズが光軸方向に沿って前後に移動することで制御されるもので、当該各レンズはステッピングモータ(M)42の回動駆動により移動する。   However, the focus lens and the zoom lens (not shown) in the projection lens unit 2a are controlled by moving back and forth along the optical axis direction, and each lens is moved by the rotational drive of the stepping motor (M) 42. .

しかるに、上記光源ランプ38の点灯駆動、及び上記カラーホイール39を回転させるモータ(M)43の回転駆動、及び上記ステッピングモータ42の回動駆動等をいずれも投影光駆動部44が実行する。   However, the projection light drive unit 44 executes the lighting drive of the light source lamp 38, the rotation drive of the motor (M) 43 that rotates the color wheel 39, the rotation drive of the stepping motor 42, and the like.

この投影光駆動部44はまた、リフレクタ37に取付けられて光源ランプ38の温度を検出する温度センサ45からの温度データを入力する。   The projection light driving unit 44 is also attached to the reflector 37 and receives temperature data from a temperature sensor 45 that detects the temperature of the light source lamp 38.

上記各回路の動作すべてを制御部46が制御する。この制御部46は、CPU、ワークメモリ等により構成され、EEPROM等の不揮発性メモリでなるプログラムメモリ47に固定記憶された動作プログラムや各種定型データ等を用いて制御動作を実行する。   The controller 46 controls all the operations of the above circuits. The control unit 46 includes a CPU, a work memory, and the like, and executes a control operation using an operation program, various fixed data, and the like that are fixedly stored in a program memory 47 that is a nonvolatile memory such as an EEPROM.

上記制御部46にはさらに、上記システムバスSBを介してA/D・プロセス回路48、大容量メモリ49、無線処理部50、及び音声処理部51が接続される。   Further, an A / D / process circuit 48, a large-capacity memory 49, a wireless processing unit 50, and an audio processing unit 51 are connected to the control unit 46 via the system bus SB.

上記A/D・プロセス回路48は、上記撮影レンズユニット2bを介して投影画像範囲を撮影する撮像素子であるCCD(Charge Coupled Device:電荷結合素子)52を走査駆動する。   The A / D / process circuit 48 scans and drives a CCD (Charge Coupled Device) 52, which is an imaging device that captures a projected image range via the photographing lens unit 2b.

なお、ここでは詳細を図示しないが、投影レンズユニット2aは上記投影レンズユニット2aと同様に撮影画角を可変する光学ズーム機能を有し、常に投影レンズユニット2aでの投影範囲と撮影レンズユニット2bでの撮影範囲とが略一致するよう連動してズーム機能が動作するものとする。   Although not shown in detail here, the projection lens unit 2a has an optical zoom function for changing the shooting angle of view similarly to the projection lens unit 2a, and always projects the projection range in the projection lens unit 2a and the shooting lens unit 2b. It is assumed that the zoom function operates in conjunction with the shooting range at.

しかして、A/D・プロセス回路48は、撮影レンズユニット2bにより結像され、CCD52で得られるアナログ値の画像信号をAGC(自動利得制御)、サンプリングしてデジタル化した後にγ補正処理、ホワイトバランス調整処理、補間処理、マトリックス変換等のプロセス処理を施すことで記録に適した輝度色差系のカラー画像データを取得し、出力する。   Thus, the A / D / process circuit 48 forms an image by the photographing lens unit 2b, and the analog image signal obtained by the CCD 52 is AGC (automatic gain control), sampled and digitized, and then subjected to gamma correction processing, white By performing process processing such as balance adjustment processing, interpolation processing, matrix conversion, etc., luminance color-difference color image data suitable for recording is acquired and output.

大容量メモリ49は、例えばこのプロジェクタ装置1に設けられるメモリカードスロットに着脱自在に装着された、フラッシュメモリを封入した大容量、例えばGB(ギガバイト)オーダーのメモリカードでなり、上記撮影レンズユニット2b、CCD52を介して撮影した画像データや後述する予測変換用の辞書データ等を記憶する。   The large-capacity memory 49 is a large-capacity memory card, for example, GB (gigabyte) order, which is detachably mounted in a memory card slot provided in the projector device 1 and encloses a flash memory, for example. Then, image data photographed via the CCD 52, dictionary data for predictive conversion described later, and the like are stored.

無線処理部50は、例えばIEEE802.11b/11g規格に則った無線LAN規格のインタフェースであり、無線LANアンテナ53を介して上記パーソナルコンピュータ1等と無線接続してデータの送受を行なう。   The wireless processing unit 50 is a wireless LAN standard interface conforming to, for example, the IEEE 802.11b / 11g standard, and wirelessly connects to the personal computer 1 or the like via the wireless LAN antenna 53 to transmit and receive data.

音声処理部51は、PCM音源等の音源回路を備え、投影動作時に与えられる音声データをアナログ化し、プロジェクタ装置1の本体ケーシングの例えば背面に設けられるスピーカ54を駆動して拡声放音させ、あるいは必要によりビープ音等を発生させる。   The sound processing unit 51 includes a sound source circuit such as a PCM sound source, converts the sound data given at the time of projection operation into analog, and drives a speaker 54 provided, for example, on the back surface of the main body casing of the projector device 1 to emit sound, or If necessary, beep sound is generated.

なお、制御部46に対して、キースイッチ部55から直接ユーザのキー操作に応じた操作信号が入力される。
このキースイッチ部55としては、例えば電源キー、ズームキー、フォーカスキー、入力選択キー、モードキー、カーソル(「↑」「↓」「←」「→」)キー、「Enter」キー、「Cancel」キー等からなる。
Note that an operation signal corresponding to a user's key operation is directly input to the control unit 46 from the key switch unit 55.
Examples of the key switch unit 55 include a power key, a zoom key, a focus key, an input selection key, a mode key, a cursor (“↑”, “↓”, “←”, “→”) key, an “Enter” key, and a “Cancel” key. Etc.

次に上記実施の形態の動作について説明する。
(第1の動作例・表罫線の投影)
図5は、スクリーンSCとして使用されるホワイトボードに直接手書きで「4月」「5月」「6月」「品名」「単価」「個数」の各項目名がマーカーペンで筆記された状態を例示するものである。
Next, the operation of the above embodiment will be described.
(First operation example: Table ruled line projection)
FIG. 5 shows a state in which each item name of “April”, “May”, “June”, “product name”, “unit price”, and “number” is written with a marker pen on a white board used as a screen SC. This is just an example.

この時点でスクリーンSCを含むように投影レンズユニット2aによる投影範囲PAが設定されており、且つ何も具体的な画像は投影されていないため、光源ランプ38からの白色光がそのままカラーホイール39を介してマイクロミラー素子36の全面でフル階調で反射され、投影レンズユニット2aを介して投影範囲PAの全体に渡って均一に照射されている状態となる。   At this time, the projection range PA by the projection lens unit 2a is set so as to include the screen SC, and no specific image is projected, so the white light from the light source lamp 38 passes through the color wheel 39 as it is. Then, the light is reflected at full gradation on the entire surface of the micromirror element 36 and is irradiated uniformly over the entire projection range PA via the projection lens unit 2a.

図4は、キースイッチ部55のモードキーで予め用意された複数の動作モード中から「表作成」モードを選択した場合に、制御部46がプログラムメモリ47に記憶される動作プログラムに基づいて実行するサブルーチンの処理内容である。   FIG. 4 shows that the control unit 46 executes based on the operation program stored in the program memory 47 when the “table creation” mode is selected from a plurality of operation modes prepared in advance with the mode key of the key switch unit 55. This is the processing content of the subroutine to be executed.

なお、上記「表作成」モードを指定した時点で、上記図5に示した内容に加えて、投影範囲PAの下端側に、例えば
「表罫線作成を実行する場合は「Enter」キーを操作して下さい」
のようなガイドメッセージを併せて投影することで、ユーザによる表作成の指示操作がなされるのを促す。
When the “table creation” mode is designated, in addition to the contents shown in FIG. 5 above, on the lower end side of the projection range PA, for example,
“Please operate the“ Enter ”key to create a table ruled line”
By projecting a guide message like this, the user is prompted to perform a table creation instruction operation.

しかして、図4の処理当初には、実際にユーザにより表罫線作成の指示操作がなされたか否かを繰返し判断することで(ステップS101)、当該操作がなされるのを待機する。   Therefore, at the beginning of the process of FIG. 4, by repeatedly determining whether or not the user has actually performed a table ruled line creation instruction operation (step S101), the system waits for the operation.

ユーザにより表罫線作成の指示操作がなされると、キースイッチ部55からの入力によりこれを判断し、上記ガイドメッセージの投影を停止すると共に、撮影レンズユニット2b、CCD52、及びA/D・プロセス回路48を駆動してその時点でのスクリーンSCの画像を撮影させる(ステップS102)。   When the user performs an instruction to create a table ruled line, this is determined by input from the key switch unit 55, and the projection of the guide message is stopped, and the photographing lens unit 2b, the CCD 52, and the A / D / process circuit are stopped. 48 is driven to take an image of the screen SC at that time (step S102).

上述した如く撮影レンズユニット2bは、投影レンズユニット2aによる投影範囲PAと略一致する撮影範囲となるように連動したズーム動作を行なうため、投影レンズユニット2aでの投影範囲PA内の画像が正確に取得できる。   As described above, the photographic lens unit 2b performs a zoom operation in conjunction with the photographic range that substantially matches the projection range PA by the projection lens unit 2a. Therefore, the image in the projection range PA of the projection lens unit 2a is accurately displayed. You can get it.

制御部46では、CCD52で撮影し、A/D・プロセス回路48を経てプロセス処理を施した投影範囲PAの画像データを一旦内部のワークメモリに保持した上で、その画像データに対して文字単位での切出し処理を行ない、画像中に位置する文字部分の文字単位での位置の認識を行なう(ステップS103)。   In the control unit 46, the image data of the projection range PA, which has been photographed by the CCD 52 and processed through the A / D / process circuit 48, is temporarily held in the internal work memory, and the image data is character-unit-wise. The cut-out process is performed at step S103 to recognize the position of the character portion located in the image in character units (step S103).

次いで、切出した各文字と隣接する文字との相互間の間隔から、一連の文字列部分の切出し処理を行なうことで、表を構成する行と列の認識を行なう(ステップS104)。   Next, a series of character string portions are extracted from the interval between each extracted character and adjacent characters, thereby recognizing the rows and columns constituting the table (step S104).

図5に示した投影範囲PAでの画像中では、「4月」「5月」「6月」「品名」「単価」「個数」がそれぞれ一連の文字列であると認識し、それら文字列相互のXY座標範囲から、上記各項目名に応じた3行×3列の表を作成するべきものと認識される。   In the image in the projection range PA shown in FIG. 5, “April”, “May”, “June”, “Product name”, “Unit price”, and “Number” are recognized as a series of character strings, respectively. From the mutual XY coordinate range, it is recognized that a 3 × 3 table corresponding to each item name should be created.

しかして、行と列の認識を行なうと、各項目名の位置、間隔に対応する表罫線の投影画像データを作成し(ステップS105)、その画像データをビデオRAM35に展開して記憶させた上でマイクロミラー素子36、投影レンズユニット2aにより当該表罫線の画像を投影範囲PA内に投影させ(ステップS106)、以上でこの図4でのサブルーチンに基づく処理を終了する。   When the row and column are recognized, projection image data of a table ruled line corresponding to the position and interval of each item name is created (step S105), and the image data is developed and stored in the video RAM 35. Thus, the image of the ruled line is projected within the projection range PA by the micromirror element 36 and the projection lens unit 2a (step S106), and the processing based on the subroutine in FIG.

図6は、このとき投影範囲PA内のスクリーンSCで上記図5での内容に併せて投影される表罫線を例示するものである。図示する如く、マーカーペンにより手書きでスクリーンSCとなるホワイトボードに記入した項目名の位置に対応し、自動的に表罫線を作成して画像として投影することで、結果としてスクリーンSC上に項目名に適した表が表示されることとなる。   FIG. 6 exemplifies a table ruled line that is projected along with the contents in FIG. 5 on the screen SC in the projection range PA at this time. As shown in the figure, by automatically creating a table ruled line and projecting it as an image corresponding to the position of the item name entered on the whiteboard that becomes the screen SC by handwriting with a marker pen, the item name is displayed on the screen SC as a result. A table suitable for the above will be displayed.

したがって、その後は空欄となっている各セル内に必要なデータを入力することにより、容易に表が完成することとなる。   Therefore, after that, by inputting necessary data into each blank cell, the table can be easily completed.

このように、各構成要素を自由に変更しながらその時点で必要な項目名を配列するべく手書き筆記し、あるいは各項目名を記入した付箋などの紙片をスクリーンSCであるホワイトボード上に貼着していくなどの簡単な手間により、手軽に整った表罫線を作成して投影させることが可能となる。   In this way, while freely changing each component, handwritten writing to arrange the required item names at that time, or sticking a piece of paper such as a sticky note with each item name written on the white board which is the screen SC It is possible to easily create and project a table ruled line with a simple effort, such as doing.

また、上記表罫線の作成に当たっては、スクリーンSC上に配置された項目名位置をそれぞれ先頭とする行及び列の配置を決定するものとしたので、比較的簡易な位置認識処理により表罫線を適切に作成することが可能となる。   In creating the table ruled line, the arrangement of the row and the column starting from the item name position arranged on the screen SC is determined. Therefore, the table ruled line is appropriately determined by relatively simple position recognition processing. Can be created.

(第2の動作例・セル内への記入1)
次いで、上記第1の動作例のように表罫線を投影した後の、空欄となっている各セル内への記入時の動作について説明する。
(Second operation example, entry in cell 1)
Next, an operation at the time of filling in each blank cell after projecting a table ruled line as in the first operation example will be described.

図7は、上記図4で示した表罫線の作成と投影の動作に継続して実施される、セル内への記入に対応した第1の動作を示すもので、制御部46がプログラムメモリ47に記憶される動作プログラムに基づいて実行するサブルーチンの処理内容である。   FIG. 7 shows the first operation corresponding to the entry in the cell, which is performed following the creation and projection operations of the table ruled lines shown in FIG. The processing contents of a subroutine to be executed based on the operation program stored in FIG.

その処理当初には、上記図4での処理により作成した表罫線を投影する状態を維持した上で(ステップS301)、上記CCD52により撮影レンズユニット2bを介して投影範囲PAのスクリーンSCを撮影させる(ステップS302)。   At the beginning of the process, the state of projecting the ruled line created by the process of FIG. 4 is maintained (step S301), and the screen SC of the projection range PA is photographed by the CCD 52 via the photographing lens unit 2b. (Step S302).

こうして得た投影範囲PAの画像データに関し、特に上記投影している表中の各セル位置に対応して、その範囲をはみ出すような記入(ユーザによるマーカーペンでの記入)がなされていないかどうかを判断し(ステップS303)、なされていなければ上記ステップS302の処理に戻る、という処理を繰返し実行することで、セルからはみ出すような記入がなされるのを監視する。   Regarding the image data of the projection range PA thus obtained, whether or not there is an entry (filling with a marker pen by the user) that protrudes from the range corresponding to each cell position in the projected table. (Step S303), and if it is not done, the process of returning to the process of step S302 is repeatedly executed, thereby monitoring the entry that goes out of the cell.

このステップS302,S303の処理は、所定周期、例えば2秒に1回の周期で実行する。   The processes in steps S302 and S303 are executed at a predetermined cycle, for example, once every 2 seconds.

いま、図8(A)に示すように項目名「5月」及び「品名」に対応するセルで当該セルをはみ出すような「デジタルカメラ」なる記入がユーザによってマーカーペンでなされた場合を考える。   Now, consider a case where the user has made a “digital camera” entry with a marker pen that protrudes from the cells corresponding to the item names “May” and “product name” as shown in FIG.

この場合、セルからのはみ出しをステップS303で判断した時点で制御部46は、直前のステップS302で撮影した画像データ中からはみ出しを生じた一連の文字列部分「デジタルカメラ」を切出し、ここではその横幅を基準として正しく元のセルに収まるような縮小率を算出した上で当該部分の画像データの縮小処理を行なう(ステップS304)。   In this case, at the time when the protrusion from the cell is determined in step S303, the control unit 46 cuts out a series of character string portions “digital camera” that has protruded from the image data photographed in the immediately preceding step S302. After calculating a reduction ratio that fits correctly in the original cell on the basis of the width, the image data of that portion is reduced (step S304).

そして、その縮小した文字列部分の画像を正しいセル位置に対応してそれまでの表罫線の画像に重畳した画像データを作成して投影させた上で(ステップS305)、上記ステップS302からの処理に復帰する。なお、この時点ではユーザによってマーカーペンでなされた記入と縮小した文字列部分の投影画像とが重畳している。   Then, after creating and projecting image data in which the reduced image of the character string portion is superimposed on the image of the table ruled line corresponding to the correct cell position (step S305), the processing from step S302 is performed. Return to. At this point, the entry made by the user with the marker pen and the projected image of the reduced character string portion are superimposed.

このように、投影される表罫線に対し、セルからはみ出してしまうような記入を行ってしまった場合でも、その記入に要した手間を無駄にすることなく、さらに表の作成を続行することができる。   In this way, even if the table ruled line to be projected is entered so as to protrude from the cell, it is possible to continue creating the table without wasting the effort required for the entry. it can.

したがってユーザは、上記ステップS305のような投影が行われた時点で、その投影内容から、はみ出しを生じたマーカーペンによる一連の文字列の記入部分をホワイトボード用のイレーサで消去するだけの手間で、当該セルは正しい内容となり、次のセルへの記入動作に移行できることになる。   Therefore, at the time when the projection as in step S305 is performed, the user only has to erase the portion of the character string entered by the marker pen that has protruded from the projection content with the eraser for the whiteboard. The cell has the correct contents, and can move to the next cell entry operation.

図8(B)は、同図(A)に対応して制御部46が上記ステップS304,S305での処理を実行し、その後にユーザがマーカーペンによる記入部分をホワイトボード用のイレーサで消去した場合の投影状態を示すものである。   In FIG. 8B, the control unit 46 executes the processing in steps S304 and S305 corresponding to FIG. 8A, and then the user erases the entry portion with the marker pen with the whiteboard eraser. The projection state in the case is shown.

同図に示す如く、ユーザがはみ出しを生じた記入に要した手間を無駄にすることなく、その記入内容を有効に活用することができ、不必要となった元の記入をイレーサで消去するだけの手間を加えるのみで、次のセルの記入動作に移行できる。   As shown in the figure, the user can effectively use the contents of the entry without overloading the entry that caused the protrusion, and the eraser erases the original entry that is no longer needed. It is possible to shift to the next cell entry operation only by adding the trouble.

なお、上記イレーサでの消去に関しては、表を構成する複数のセルへの記入を一通り終えた後に、はみ出しを生じたセルが複数あれば一括してそれらを消去するものとしてもよく、そうすることで、作成途中での表はやや繁雑な内容となるものの、より効率的に表を完成させることができる。   As for erasing with the above eraser, it is also possible to erase all of the cells that have protruded after completing the entry to a plurality of cells constituting the table. As a result, the table in the middle of creation is somewhat complicated, but the table can be completed more efficiently.

(第3の動作例・セル内への記入2)
次いで、上記第1の動作例のように表罫線を投影した後の、空欄となっている各セル内への記入時の他の動作について説明する。
(Third example of operation / entry in cell 2)
Next, another operation at the time of filling in each blank cell after projecting the table ruled line as in the first operation example will be described.

図9は、上記図4で示した表罫線の作成と投影の動作に継続して実施される、セル内への記入に対応した第2の動作を示すもので、制御部46がプログラムメモリ47に記憶される動作プログラムに基づいて実行するサブルーチンの処理内容である。   FIG. 9 shows a second operation corresponding to the entry in the cell, which is performed subsequent to the creation and projection operation of the table ruled lines shown in FIG. The processing contents of a subroutine to be executed based on the operation program stored in FIG.

その処理当初には、上記図4での処理により作成した表罫線を投影する状態を維持した上で(ステップS501)、上記CCD52により撮影レンズユニット2bを介して投影範囲PAのスクリーンSCを撮影させる(ステップS502)。   At the beginning of the process, the state of projecting the ruled line created by the process of FIG. 4 is maintained (step S501), and the screen 52 of the projection range PA is photographed by the CCD 52 via the photographing lens unit 2b. (Step S502).

こうして得た投影範囲PAの画像データに関し、ユーザから登録の指示操作があるか否か(ステップS503)、予測変換の指示操作があるか否か(ステップS504)を判断し、なければ上記ステップS502の処理に戻る、という処理を繰返し実行することで、これらの指示操作のいずれかがなされるのを待機する。   With respect to the image data of the projection range PA obtained in this way, it is determined whether there is a registration instruction operation from the user (step S503) and whether there is a prediction conversion instruction operation (step S504). By repeatedly executing the process of returning to the above process, it waits for any of these instruction operations to be performed.

このステップS502〜S504の処理は、所定周期、例えば2秒に1回の周期で実行する。   The processes in steps S502 to S504 are executed at a predetermined cycle, for example, once every 2 seconds.

しかるに、ステップS503で登録の指示操作がなされたと判断した場合、その直前のステップS502で撮影した画像データ中には、表を構成するセルのいずれかにユーザによる文字列の記入がなされていることになるので、その該当するセルを選出した上で当該セル内の画像に対してOCR(光学的文字読取り)処理を施して文字認識を行なう(ステップS505)。   However, if it is determined in step S503 that a registration instruction operation has been performed, the user has entered a character string in one of the cells constituting the table in the image data captured in step S502 immediately before that. Therefore, after selecting the corresponding cell, the image in the cell is subjected to OCR (optical character reading) processing to perform character recognition (step S505).

そして、認識の結果得られた文字列を大容量メモリ49に後述する予測変換用の辞書データとして登録する(ステップS506)。さらに、認識結果からテキストデータの画像を作成し、当該セルに嵌め込んだ画像データを投影させた上で(ステップS507)、上記ステップS502からの処理に復帰する。   Then, the character string obtained as a result of recognition is registered in the large-capacity memory 49 as dictionary data for predictive conversion to be described later (step S506). Further, an image of text data is created from the recognition result, the image data inserted in the cell is projected (step S507), and the process returns to step S502.

この際、投影範囲PAのスクリーンSC上では、当該セル位置でユーザがマーカーペンにより記入した文字列と、文字認識結果として投影されるテキストデータの文字列が重なった状態となるので、ユーザはホワイトボード用のイレーサで当該セル位置を消去するだけの手間で、手書きによる文字に代えて、文字認識後の活字体での文字列が当該セルに記入されることとなる。   At this time, on the screen SC of the projection range PA, the character string entered by the user with the marker pen at the cell position overlaps with the character string of the text data projected as the character recognition result. Instead of handwritten characters, a character string in a typeface after character recognition is entered in the cells by simply erasing the cell position with a board eraser.

図10(B)は、こうしてユーザの登録指示により大容量メモリ49に辞書データとして登録された複数の文字列を例示するものである。   FIG. 10B illustrates a plurality of character strings registered as dictionary data in the large-capacity memory 49 in accordance with a user registration instruction.

また、上記ステップS504で予測変換の指示操作がなされたと判断した場合、その直前のステップS502で撮影した画像データ中には、表を構成するセルのいずれかにユーザによる少なくとも1文字分の文字の記入がなされていることになるので、その該当するセルを選出した上で当該セル内の画像に対してOCR(光学的文字読取り)処理を施して文字認識を行なう(ステップS508)。   If it is determined in step S504 that a predictive conversion instruction operation has been performed, the image data captured in step S502 immediately before that includes at least one character by the user in one of the cells constituting the table. Since the entry has been made, the corresponding cell is selected, and the image in the cell is subjected to OCR (optical character reading) processing to perform character recognition (step S508).

図10(A)は、表を構成する複数中の1つのセルCに対し、ユーザがマーカーペンで文字「デ」を記入した状態を示す。この状態からユーザが予測変換の指示操作を行なうと、上記ステップS508にて文字認識を行ない、その結果である文字「デ」を用いて大容量メモリ49の辞書データを検索し(ステップS509)、該当語句として文字列の先頭部分が一致するものがあったか否かを判断する(ステップS510)。   FIG. 10A shows a state in which the user has entered the character “de” with a marker pen in one of the plurality of cells C constituting the table. When the user performs an operation for predictive conversion from this state, character recognition is performed in step S508, and the dictionary data in the large-capacity memory 49 is searched using the resulting character “de” (step S509). It is determined whether or not there is a matching word / phrase at the beginning of the character string (step S510).

ここでないと判断した場合には、予測変換を実行することができなかったものとして、上記予測変換の指示操作を無効とし、再度上記ステップS502からの処理に戻る。   If it is determined that this is not the case, it is determined that the predictive conversion could not be executed, the predictive conversion instruction operation is invalidated, and the process returns to step S502 again.

また、図10(B)に示すように、辞書データ中に文字「デ」を先頭に配置した例えば「デジタルカメラ」なる語句があった場合には、ステップS510でこれを判断し、該当するテキストデータの画像を作成し、当該セルに嵌め込んだ画像データを投影させる(ステップS511)。   Also, as shown in FIG. 10B, if there is a phrase such as “digital camera” with the character “de” at the head in the dictionary data, this is determined in step S510, and the corresponding text An image of the data is created, and the image data inserted in the cell is projected (step S511).

その後、新たに投影した内容をキャンセルするための指示操作が一定時間内、例えば2秒の間になされたか否かを判断する(ステップS512)。ここでキャンセルを指示する操作がなされた場合には、上記予測変換はユーザの意図するものではなかったこととなるので、当該変換をキャンセルするものとし、そのセルC内に作成したテキストデータの画像を消去した上で(ステップS513)、上記ステップS502からの処理に復帰する。   Thereafter, it is determined whether or not an instruction operation for canceling the newly projected content has been performed within a predetermined time, for example, 2 seconds (step S512). If an operation for instructing cancellation is performed, the prediction conversion is not intended by the user, so the conversion is canceled and the image of the text data created in the cell C is cancelled. Is erased (step S513), and the process returns to the process from step S502.

また、上記ステップS512で特にキャンセルを指示する操作がなされなかった場合には、予測変換は有効であったものとして、予測変換結果のテキストデータの投影を維持したまま、次の記入に備えるべく上記ステップS502からの処理に復帰する。   In addition, when the operation for instructing cancellation is not performed in step S512, the prediction conversion is assumed to be effective, and the above-described preparation for the next entry is made while maintaining the projection of the text data of the prediction conversion result. The processing returns from step S502.

このとき、投影範囲PAのスクリーンSC上では、当該セルCの位置でユーザがマーカーペンにより記入した文字と、予測変換による結果として投影されるテキストデータの文字列が重なった状態となるので、ユーザはホワイトボード用のイレーサで当該セルCの位置を消去するだけの手間で、手書きした文字に代えて、予測変換後の活字体でのより長い文字列が当該セルCに記入されることとなる。   At this time, on the screen SC of the projection range PA, the character entered by the user with the marker pen at the position of the cell C and the character string of the text data projected as a result of the prediction conversion are overlapped. Is a time and effort to erase the position of the cell C with a whiteboard eraser, and a longer character string in a typeface after predictive conversion is entered in the cell C instead of a handwritten character. .

このように、作成しようとする表中で何度も使用すると思われる文字列に関しては、予測変換のための辞書データとして適宜登録しておくことにより、辞書データを有効に活用して2回目以降の記入を予測変換機能を用いて大幅に簡略化することができるため、表作成を効率的に実施できるようになる。   In this way, for character strings that are likely to be used many times in the table to be created, by appropriately registering them as dictionary data for predictive conversion, the dictionary data is effectively used for the second and subsequent times. Can be greatly simplified using the predictive conversion function, so that the table can be efficiently created.

なお、上記のような動作過程によりスクリーンSC上で作成した表に関しては、例えばモードキーの操作により記録モードを指定して撮影を指示することにより、撮影レンズユニット2b及びCCD52でスクリーンSC上の画像を撮影し、A/D・プロセス回路48でプロセス処理を施した後に、画像変換部33で所定のデータファイル形式、例えばJPEG(Joint Photograph coding Experts Group)に則ったデータ圧縮を施した画像データを記憶媒体としての大容量メモリ49に記憶させるものとしてもよい。   For the table created on the screen SC by the above-described operation process, for example, by specifying the recording mode by operating the mode key and instructing photographing, the image on the screen SC is taken by the photographing lens unit 2b and the CCD 52. After the image is processed and processed by the A / D / process circuit 48, the image data is compressed by the image conversion unit 33 according to a predetermined data file format, for example, JPEG (Joint Photographic Coding Experts Group). It is good also as what is memorize | stored in the mass memory 49 as a storage medium.

こうして大容量メモリ49に所定のデータファイル形式で作成した表の画像を記録しておくことにより、プレゼンテーションや会議等で表を作成した後もその内容を適宜読出して参照することができる。   By recording an image of a table created in a predetermined data file format in the large-capacity memory 49 in this way, the contents can be appropriately read and referenced even after the table is created at a presentation or a meeting.

この場合、本実施の形態では、大容量メモリ49をデータプロジェクタ装置2に対して着脱可能なメモリカードで構成するものとしたので、例えばそのメモリカードをプリンタにセットすることで、パーソナルコンピュータなしに作成した表をプリントアウトするなど、より手軽に作成した表の画像を利用することができる。   In this case, in the present embodiment, the large-capacity memory 49 is constituted by a memory card that can be attached to and detached from the data projector device 2. For example, by setting the memory card in a printer, there is no personal computer. You can use the images of the created table more easily, such as printing out the created table.

なお、上記動作はいずれもデータプロジェクタ装置2の制御部46が実行するものとしたが、本発明はこれに限らず、データプロジェクタ装置2を介して無線接続されているパーソナルコンピュータ1側が、事前にインストールされたプログラムにより同様の処理を実行するものとしてもよい。   Note that all the above operations are executed by the control unit 46 of the data projector device 2, but the present invention is not limited to this, and the personal computer 1 side wirelessly connected via the data projector device 2 may The same processing may be executed by the installed program.

また、上記第3の動作例では、大容量メモリ49に作成する辞書データとしてテキストデータを一律に登録するものとして説明したが、セルの存在する行または列の先頭の項目名を文字認識処理してジャンルを読取り、ジャンル別の辞書、例えば人名専用の辞書や品目専用の辞書などを作成するものとしてもよい。   In the third operation example described above, text data is uniformly registered as dictionary data created in the large-capacity memory 49. However, character recognition processing is performed on the item name at the beginning of a row or column in which a cell exists. It is also possible to read the genre and create a genre-specific dictionary, for example, a dictionary dedicated to names or a dictionary dedicated to items.

さらに、作成する辞書は文字に限らず、画像も保持可能として、画像名を文字で記入することにより、その画像名に関連付けられた画像を読出して表のセルに貼り付けるようにしてもよい。   Furthermore, the dictionary to be created is not limited to characters, and images can also be held, and by writing the image name in characters, the image associated with the image name may be read and pasted into a table cell.

また、上記実施の形態は投影装置に適用した場合について説明したが、本発明はこれに限ることなく、例えばホワイトボード等にマーカーペンで記入された文字列の画像を撮影するだけで、その画像中の文字列位置に対応した罫線の画像を生成し、撮影した画像中に合成して表の画像とした上で記憶することが可能なデジタルカメラ、あるいはカメラ機能を有する携帯電話端末などの撮像装置に適用することも容易に考えられる。   Although the above embodiment has been described with respect to a case where the present invention is applied to a projection apparatus, the present invention is not limited to this. For example, the image of a character string written with a marker pen on a whiteboard or the like can be captured. An image of a digital camera that can generate a ruled line image corresponding to the character string position in the image, synthesize it in the captured image, and store it as a table image, or a mobile phone terminal having a camera function It can be easily applied to the apparatus.

このように本発明を撮像装置に適用した場合、例えば記憶した画像をプリントアウトし、あるいは電子データの状態で電子メールに添付するなど、記憶した画像の配布、取扱いが容易となる。   As described above, when the present invention is applied to an imaging apparatus, the stored image can be easily distributed and handled, for example, by printing out the stored image or attaching it to an e-mail in the state of electronic data.

その他、本発明は上述した実施の形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施の形態で実行される機能は可能な限り適宜組合わせて実施しても良い。上述した実施の形態には種々の段階が含まれており、開示される複数の構成要件により適宜の組合せにより種々の発明が抽出され得る。例えば、実施の形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention in the implementation stage. In addition, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination according to a plurality of disclosed structural requirements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect can be obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

本発明の実施の一形態に係る投影システム全体の装置構成を示す図。The figure which shows the apparatus structure of the whole projection system which concerns on one Embodiment of this invention. 同実施の形態に係るパーソナルコンピュータのハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of the personal computer which concerns on the embodiment. 同実施の形態に係るデータプロジェクタ装置の電子回路の機能構成を示すブロック図。The block diagram which shows the function structure of the electronic circuit of the data projector apparatus which concerns on the same embodiment. 同実施の形態に係る第1の動作例で表作成処理時に実行する処理内容を示すフローチャート。The flowchart which shows the processing content performed at the time of a table preparation process in the 1st operation example which concerns on the embodiment. 同実施の形態に係る表罫線作成処理前の投影範囲の状態を例示する図。The figure which illustrates the state of the projection range before the table ruled line creation process which concerns on the embodiment. 同実施の形態に係る表罫線作成処理後の投影範囲の状態を例示する図。The figure which illustrates the state of the projection range after the table ruled line creation process which concerns on the embodiment. 同実施の形態に係る第2の動作例でセル記入処理時に実行する処理内容を示すフローチャート。The flowchart which shows the processing content performed at the time of cell entry processing in the 2nd operation example which concerns on the embodiment. 同実施の形態に係る表罫線作成後のセル記入動作を例示する図。The figure which illustrates cell entry operation after table ruled line creation concerning the embodiment. 同実施の形態に係る第3の動作例でセル記入処理時に実行する処理内容を示すフローチャート。The flowchart which shows the processing content performed at the time of cell entry processing in the 3rd operation example which concerns on the embodiment. 同実施の形態に係る表罫線作成後のセル記入動作を例示する図。The figure which illustrates cell entry operation after table ruled line creation concerning the embodiment.

符号の説明Explanation of symbols

1…パーソナルコンピュータ、2…データプロジェクタ装置、2a…投影レンズユニット、2b…撮影レンズユニット、11…CPU、12…ノースブリッジ、13…メインメモリ、14…グラフィックコントローラ、15…グラフィックメモリ、16…サウスブリッジ、17…PCIバス、18…キーボード/マウス、19…ビデオエンコーダ、20…無線LANインタフェース(I/F)、21…マルチディスクドライブ、22…ハードディスク装置(HDD)、23…無線LANアンテナ、31…入出力コネクタ部、32…入出力インタフェース(I/F)、33…画像変換部、34…投影駆動部、35…ビデオRAM、36…マイクロミラー素子、37…リフレクタ、38…光源ランプ、39…カラーホイール、40…インテグレータ、41…ミラー、42…ステッピングモータ(M)、43…モータ(M)、44…投影光駆動部、45…温度センサ、46…制御部、47…プログラムメモリ、48…A/D・プロセス回路、49…大容量メモリ、50…無線処理部、51…音声処理部、52…CCD、53…無線LANアンテナ、54…スピーカ、55…キースイッチ部、AGP…グラフィクスインタフェース、C…セル、FSB…フロントサイドバス、MB…メモリバス、PA…投影範囲、SB…システムバス、SC…スクリーン。   DESCRIPTION OF SYMBOLS 1 ... Personal computer, 2 ... Data projector apparatus, 2a ... Projection lens unit, 2b ... Shooting lens unit, 11 ... CPU, 12 ... North bridge, 13 ... Main memory, 14 ... Graphic controller, 15 ... Graphic memory, 16 ... South Bridge, 17 ... PCI bus, 18 ... Keyboard / mouse, 19 ... Video encoder, 20 ... Wireless LAN interface (I / F), 21 ... Multi-disk drive, 22 ... Hard disk device (HDD), 23 ... Wireless LAN antenna, 31 Input / output connector unit 32 Input / output interface (I / F) 33 Image conversion unit 34 Projection drive unit 35 Video RAM 36 Micromirror element 37 Reflector 38 Light source lamp 39 ... color wheel, 40 ... integrate , 41 ... Mirror, 42 ... Stepping motor (M), 43 ... Motor (M), 44 ... Projection light drive unit, 45 ... Temperature sensor, 46 ... Control unit, 47 ... Program memory, 48 ... A / D / process circuit 49 ... Mass memory, 50 ... Wireless processing unit, 51 ... Audio processing unit, 52 ... CCD, 53 ... Wireless LAN antenna, 54 ... Speaker, 55 ... Key switch unit, AGP ... Graphics interface, C ... Cell, FSB ... Front side bus, MB ... memory bus, PA ... projection range, SB ... system bus, SC ... screen.

Claims (8)

被写体像を撮影する撮影手段と、
上記撮影手段で得た被写体像に対し、像中の文字列位置を認識してその認識結果から表を構成する罫線データを作成する表作成手段と、
上記表作成手段で作成した罫線データと上記文字列位置に基づいた表の画像を作成し、上記撮像手段で撮影した被写体像に向けて投影する投影手段と
を具備したことを特徴とする投影装置。
Photographing means for photographing a subject image;
Table creation means for recognizing a character string position in the image for the subject image obtained by the photographing means and creating ruled line data constituting the table from the recognition result;
A projection apparatus comprising: projection means for creating an image of a table based on the ruled line data created by the table creation means and the character string position, and projecting the image onto a subject image photographed by the imaging means .
上記表作成手段は、上記撮影手段で得た被写体像中の文字列位置を行及び列の各項目名位置として表を構成する罫線データを作成することを特徴とする請求項1記載の投影装置。   2. The projection apparatus according to claim 1, wherein the table creating means creates ruled line data constituting the table using the character string position in the subject image obtained by the photographing means as the item name position of each row and column. . 上記撮影手段は、上記被写体像中で上記投影手段で投影した表を構成するセルに対応して新たに追加された文字列を撮影し、
上記撮影手段で得た被写体像中、上記セルに追加された文字列が当該セルの範囲をはみ出したか否かを判断する判断手段をさらに具備し、
上記表作成手段は、上記判断手段でセルの範囲をはみ出したと判断した文字列の画像を縮小して当該セル中に嵌め込んだ表のデータを作成し、
上記投影手段は、上記表作成手段で作成した、セル中に文字列画像を嵌め込んだ表の画像を作成し、上記撮像手段で撮影した被写体像に向けて投影する
ことを特徴とする請求項1記載の投影装置。
The photographing means photographs a character string newly added corresponding to a cell constituting a table projected by the projecting means in the subject image,
A judgment means for judging whether or not the character string added to the cell in the subject image obtained by the photographing means exceeds the range of the cell;
The table creating means reduces the image of the character string determined to have protruded the range of the cell by the determining means, and creates the data of the table fitted in the cell,
The projection means creates an image of a table created by the table creation means, in which a character string image is inserted into a cell, and projects the image onto a subject image photographed by the imaging means. The projection apparatus according to 1.
上記撮影手段により上記被写体像中で上記投影手段で投影した表を構成するセルに対応して新たに追加された文字列を撮影し、得た被写体像中の、上記セルに追加された文字列画像に対し、文字認識処理により当該文字列に対応するテキストデータを取得する第1の文字認識手段と、
上記第1の文字認識手段で取得したテキストデータを登録した辞書登録手段と、
上記撮影手段により上記被写体像中で上記投影手段で投影した表を構成するセルに対応して新たに追加された文字を撮影し、得た被写体像中の、上記セルに追加された文字画像に対し、文字認識処理により当該文字に対応するテキストデータを取得する第2の文字認識手段と、
この第2の文字認識手段で取得したテキストデータにより上記辞書登録手段で登録したテキストデータを検索し、少なくとも一部が一致するテキストデータを選出する予測変換手段とをさらに具備し、
上記表作成手段は、上記予測変換手段で選出したテキストデータの画像を当該セル中に嵌め込んだ表のデータを作成し、
上記投影手段は、上記表作成手段で作成した、セル中にテキストデータの画像を嵌め込んだ表の画像を作成し、上記撮像手段で撮影した被写体像に向けて投影する
ことを特徴とする請求項1記載の投影装置。
The character string added to the cell in the subject image obtained by photographing the newly added character string corresponding to the cell constituting the table projected by the projection means in the subject image by the photographing means. First character recognition means for acquiring text data corresponding to the character string by character recognition processing on the image;
Dictionary registration means for registering the text data acquired by the first character recognition means;
A character newly added corresponding to the cell constituting the table projected by the projection unit in the subject image is photographed by the photographing unit, and the character image added to the cell in the obtained subject image is captured. On the other hand, second character recognition means for acquiring text data corresponding to the character by character recognition processing;
Further comprising: predictive conversion means for searching text data registered by the dictionary registration means from text data acquired by the second character recognition means, and selecting text data at least partially matching;
The table creation means creates data of a table in which an image of text data selected by the prediction conversion means is fitted in the cell,
The projection unit creates an image of a table created by the table creation unit, in which an image of text data is inserted in a cell, and projects the image onto a subject image photographed by the imaging unit. Item 4. The projection device according to Item 1.
上記投影手段で投影した表を被写体像として上記撮影手段により撮影させる撮影制御手段と、
上記撮影制御手段により撮影した表を記録する記録手段と
をさらに具備したことを特徴とする請求項1記載の投影装置。
Photographing control means for photographing the table projected by the projection means as a subject image by the photographing means;
The projection apparatus according to claim 1, further comprising recording means for recording a table photographed by the photographing control means.
被写体像を撮影する撮影手段と、
上記撮影手段で得た被写体像に対し、像中の文字列位置を認識してその認識結果から表を構成する罫線データを作成する表作成手段と、
上記表作成手段で作成した罫線データと上記撮影手段で得た上記文字列に基づいた表の画像を記憶する記憶手段と
を具備したことを特徴とする撮像装置。
Photographing means for photographing a subject image;
Table creation means for recognizing a character string position in the image for the subject image obtained by the photographing means and creating ruled line data constituting the table from the recognition result;
An image pickup apparatus comprising: storage means for storing ruled line data created by the table creating means and a table image based on the character string obtained by the photographing means.
画像データに対応した光像を形成し、投影対象に向けて投影する投影部、及びこの投影部での投影領域を被写体像として撮影可能な撮影部を備えた投影装置での投影制御方法であって、
上記撮影部で得た被写体像に対し、像中の文字列位置を認識してその認識結果から表を構成する罫線データを作成する表作成工程と、
上記表作成工程で作成した罫線データと上記文字列位置に基づいた表の画像を作成し、上記撮像部で撮影した被写体像に向けて上記投影部により投影させる投影制御工程と
を有したことを特徴とする投影制御方法。
This is a projection control method in a projection apparatus that includes a projection unit that forms an optical image corresponding to image data and projects it toward a projection target, and a photographing unit that can photograph a projection area in the projection unit as a subject image. And
A table creation step for recognizing the character string position in the image for the subject image obtained by the photographing unit and creating ruled line data constituting the table from the recognition result;
A projection control step of creating a table image based on the ruled line data created in the table creation step and the character string position, and projecting the image onto the subject image captured by the imaging unit; A characteristic projection control method.
画像データに対応した光像を形成し、投影対象に向けて投影する投影部、及びこの投影部での投影領域を被写体像として撮影可能な撮影部を備えた投影装置または同投影装置を制御可能な外部装置に内蔵されたコンピュータが実行するプログラムであって、
上記撮影部で得た被写体像に対し、像中の文字列位置を認識してその認識結果から表を構成する罫線データを作成する表作成ステップと、
上記表作成ステップで作成した罫線データと上記文字列位置に基づいた表の画像を作成し、上記撮像部で撮影した被写体像に向けて上記投影部により投影させる投影制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
Can control a projection device or projection device that has a projection unit that forms an optical image corresponding to image data and projects it toward the projection target, and a photographing unit that can shoot the projection area of this projection unit as a subject image A program that is executed by a computer built in an external device,
A table creating step for recognizing the character string position in the image for the subject image obtained by the photographing unit and creating ruled line data constituting the table from the recognition result;
Create a table image based on the ruled line data created in the table creation step and the character string position, and cause the computer to execute a projection control step of projecting by the projection unit toward the subject image captured by the imaging unit A program characterized by that.
JP2007103231A 2007-04-10 2007-04-10 Projection apparatus, projection control method, and program Expired - Fee Related JP5061696B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007103231A JP5061696B2 (en) 2007-04-10 2007-04-10 Projection apparatus, projection control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007103231A JP5061696B2 (en) 2007-04-10 2007-04-10 Projection apparatus, projection control method, and program

Publications (2)

Publication Number Publication Date
JP2008262302A true JP2008262302A (en) 2008-10-30
JP5061696B2 JP5061696B2 (en) 2012-10-31

Family

ID=39984748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007103231A Expired - Fee Related JP5061696B2 (en) 2007-04-10 2007-04-10 Projection apparatus, projection control method, and program

Country Status (1)

Country Link
JP (1) JP5061696B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130316A (en) * 2009-12-21 2011-06-30 Seiko Epson Corp Projector, and image projection method
JP2011141411A (en) * 2010-01-07 2011-07-21 Seiko Epson Corp Projector and method of controlling the same
JP2012234538A (en) * 2011-05-06 2012-11-29 Ricoh Co Ltd Interactive whiteboard using disappearing writing medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061590A (en) 2017-09-28 2019-04-18 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04181857A (en) * 1990-11-16 1992-06-29 Seiko Epson Corp Recording system
JPH07334625A (en) * 1994-06-06 1995-12-22 Nec Corp Character string input device
JPH09223181A (en) * 1996-02-19 1997-08-26 Ee I Soft Kk Ruled line preparing device, matrix data recognizing device and character recognizing device provided with these devices
JPH10207873A (en) * 1997-01-17 1998-08-07 Casio Comput Co Ltd Ruled line processor and storage medium
JP2001312001A (en) * 2000-04-28 2001-11-09 Nippon Avionics Co Ltd Projected image storage system in multimedia projector
JP2007017543A (en) * 2005-07-05 2007-01-25 Ricoh Elemex Corp Device, system, method and program for presentation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04181857A (en) * 1990-11-16 1992-06-29 Seiko Epson Corp Recording system
JPH07334625A (en) * 1994-06-06 1995-12-22 Nec Corp Character string input device
JPH09223181A (en) * 1996-02-19 1997-08-26 Ee I Soft Kk Ruled line preparing device, matrix data recognizing device and character recognizing device provided with these devices
JPH10207873A (en) * 1997-01-17 1998-08-07 Casio Comput Co Ltd Ruled line processor and storage medium
JP2001312001A (en) * 2000-04-28 2001-11-09 Nippon Avionics Co Ltd Projected image storage system in multimedia projector
JP2007017543A (en) * 2005-07-05 2007-01-25 Ricoh Elemex Corp Device, system, method and program for presentation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130316A (en) * 2009-12-21 2011-06-30 Seiko Epson Corp Projector, and image projection method
KR101214107B1 (en) 2009-12-21 2012-12-20 세이코 엡슨 가부시키가이샤 Projector and method for projecting image
JP2011141411A (en) * 2010-01-07 2011-07-21 Seiko Epson Corp Projector and method of controlling the same
JP2012234538A (en) * 2011-05-06 2012-11-29 Ricoh Co Ltd Interactive whiteboard using disappearing writing medium

Also Published As

Publication number Publication date
JP5061696B2 (en) 2012-10-31

Similar Documents

Publication Publication Date Title
CN103197778B (en) Display device, projector, display system, and method of switching device
JP2004198858A (en) Projector
JP2018163234A (en) Display device, display method, and program
JP2006236195A (en) Presentation control device
JP5061696B2 (en) Projection apparatus, projection control method, and program
JP5407381B2 (en) Image input device, image display device, and image display system
JP4458155B2 (en) Projection apparatus, projection method, and program
JP3832132B2 (en) Display system and presentation system
JP5443085B2 (en) Document presentation device
JP6759752B2 (en) Display device, display method and program
JP2004239967A (en) Projector
JP5152317B2 (en) Presentation control apparatus and program
JP5408175B2 (en) Projection apparatus, projection method, and program
CN110677631A (en) Projection apparatus, computer-readable storage medium, and display system
CN104735431B (en) Content output system, content output apparatus and content outputting method
JP5194723B2 (en) Projection apparatus, projection method, and program
JP2009200846A (en) Indication system, indication program and indication device
JP2006184333A (en) Projection system and additional information recording method used for the same
JP5250962B2 (en) Projection apparatus, projection method, and program
JP2009115985A (en) Projection device, projection method and program
JP2009008752A (en) Projection device, method and program
JP5061762B2 (en) Document camera apparatus, image processing method and program
JP2010061433A (en) Projector, projecting method, and program
JP5218687B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JP2017085234A (en) Portable terminal, projector, projection system, projection system control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120723

R150 Certificate of patent or registration of utility model

Ref document number: 5061696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees