JP2006041624A - Print control apparatus and method thereof - Google Patents
Print control apparatus and method thereof Download PDFInfo
- Publication number
- JP2006041624A JP2006041624A JP2004214614A JP2004214614A JP2006041624A JP 2006041624 A JP2006041624 A JP 2006041624A JP 2004214614 A JP2004214614 A JP 2004214614A JP 2004214614 A JP2004214614 A JP 2004214614A JP 2006041624 A JP2006041624 A JP 2006041624A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- information
- embedded
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Record Information Processing For Printing (AREA)
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、たとえばプリントアウトおよびイメージスキャン機能を有する、あるいはそれら機能を有するユニットに接続された情報処理装置に係り、特に、電子ドキュメントが持つ関連情報を紙面上で認識可能となるように画像を形成するとともに、紙面に形成された画像を読み取った際に、その画像で示される関連情報を持つ電子ドキュメントを利用可能とする情報処理装置に関する。 The present invention relates to an information processing apparatus having, for example, a printout and image scanning function, or connected to a unit having such functions, and in particular, relates to an image so that related information possessed by an electronic document can be recognized on paper. The present invention relates to an information processing apparatus that enables an electronic document having related information indicated by an image to be used when an image formed on a paper surface is read.
従来、電子データが持つ様々な付加価値情報が、電子データの紙面への印刷を行う際に失われてしまい、再び紙面から画像スキャンして取得したデータに対しては、元の電子データ同様の編集や利用を実現することが出来ないという問題があった。その問題に対し、電子データの保持する情報の格納場所と、その情報を処理することが可能なアプリケーション識別情報を、ドキュメントの所定の位置にマークとして挿入し、この挿入されたマークを読み取ることで、紙面に印刷された画像から元の電子情報を取得する技術が知られている(特許文献1等参照)。
3次元データ(3Dデータ)を紙面に印刷すると、3次元の情報が失われてしまい、その紙面をスキャンして画像を読み取っても2次元の画像情報しか取得することができず、紙面から取得した情報の再利用を効果的に行うことが出来なかった。 When 3D data (3D data) is printed on paper, 3D information is lost, and only 2D image information can be acquired even if the image is scanned by scanning the paper. It was not possible to effectively reuse the information.
さらに、印刷された3Dデータの描画オブジェクトに対して、その視点とは異なる視点からの画像が必要な場合であっても、印刷された画像からは3次元情報は紙面から取得することが出来ない。そのため、元の3次元画像データを用いて、当該オブジェクトを回転させるなどして視点を所望の位置に移動し、その結果得られる2次元画像を印刷する必要がある。このため作業に非常に手間がかかり、生産性も低い。また、3次元画像データの入手先も明らかであるとは限らない。 Furthermore, even when an image from a viewpoint different from the viewpoint is required for a printed object of 3D data, 3D information cannot be obtained from the printed image. . Therefore, it is necessary to use the original three-dimensional image data to move the viewpoint to a desired position by rotating the object or the like, and to print the resulting two-dimensional image. For this reason, work is very troublesome and productivity is low. In addition, the source of the three-dimensional image data is not always clear.
また、紙面に印刷された画像から元の電子情報を取得する技術として、特許文献1が存在するのは既に説明したとおりである。この技術を用いることにより、元の電子データが持つ付加価値情報や再編集等が可能なアプリケーション情報は取得できるが、更なる処理の高速化、効率化、操作性および生産性の向上が望まれる。 As described above, Patent Document 1 exists as a technique for acquiring original electronic information from an image printed on a paper surface. By using this technology, it is possible to acquire value-added information and re-editable application information that the original electronic data has, but further processing speed, efficiency, operability and productivity are desired. .
本発明は上記従来例に鑑みてなされたもので、印刷により失われてしまう3次元画像情報を、印刷された紙面上に付加することを可能とし、したがって、紙面の画像スキャンでは従来取得できなかった3次元画像情報を紙面に形成された画像を読み取ることで容易に取得することが可能となり、紙面から取得した情報をさらに有効利用することが可能となる印刷制御装置及び方法を提供することを目的とする。 The present invention has been made in view of the above-described conventional example, and makes it possible to add the three-dimensional image information lost by printing onto the printed paper, and thus cannot be obtained conventionally by image scanning on the paper. It is possible to easily acquire 3D image information by reading an image formed on a paper surface, and to provide a printing control apparatus and method that can further effectively use information acquired from the paper surface. Objective.
また、紙面に形成された画像を読み取って、読み取った画像から得られた所在より3次元画像情報を獲得して所望の方向からの2次元画像を印刷させることができる印刷制御装置及び方法を提供することを目的とする。 Also provided is a printing control apparatus and method capable of reading an image formed on a paper surface, acquiring three-dimensional image information from a location obtained from the read image, and printing a two-dimensional image from a desired direction. The purpose is to do.
上記目的を達成するために本発明は以下に示す構成を備える。 In order to achieve the above object, the present invention has the following configuration.
3次元画像データが格納されている所在を示す所在情報を獲得する獲得手段と、
前記所在情報を、その内容を読み取り可能な形式の埋め込み画像データに変換する変換手段と、
前記3次元画像データを投影した2次元画像データを生成し、前記埋め込み画像データと関連付けた合成画像データを合成する合成画像生成手段と、
前記合成画像データに従って印刷させる手段とを備える印刷処理装置。
Acquisition means for acquiring location information indicating the location where the 3D image data is stored;
Conversion means for converting the location information into embedded image data in a format in which the contents can be read;
Composite image generation means for generating two-dimensional image data obtained by projecting the three-dimensional image data and combining composite image data associated with the embedded image data;
A printing processing apparatus comprising: means for printing according to the composite image data.
あるいは、
原稿画像を読み取らせる読み取り手段と、
前記原稿画像の中から埋め込み画像を抽出する埋め込み画像抽出手段と、
前記埋め込み画像から埋め込まれた情報を復元する埋め込み情報復元手段と、
復元された埋め込み情報で示される3次元画像データの所在に基づいて、3次元画像データを獲得する獲得手段と、
前記3次元画像データを投影した2次元画像データを生成する生成手段と、
前記2次元画像データに従って印刷させる手段とを備える印刷処理装置。
Or
Reading means for reading a document image;
Embedded image extraction means for extracting an embedded image from the document image;
Embedded information restoring means for restoring information embedded from the embedded image;
Acquisition means for acquiring three-dimensional image data based on the location of the three-dimensional image data indicated by the restored embedded information;
Generating means for generating two-dimensional image data obtained by projecting the three-dimensional image data;
A printing processing apparatus comprising: means for printing according to the two-dimensional image data.
本発明によれば、印刷により失われてしまう3次元描画情報を、印刷された紙面上に付加することを可能とし、したがって、紙面の画像スキャンでは従来取得できなかった3次元描画情報を紙面に形成された画像を読み取ることで容易に取得することが可能となり、紙面から取得した情報をさらに有効利用することが可能となる。 According to the present invention, it is possible to add three-dimensional drawing information lost by printing onto a printed paper surface. Therefore, three-dimensional drawing information that could not be obtained conventionally by image scanning on a paper surface is added to the paper surface. By reading the formed image, it can be easily acquired, and the information acquired from the paper surface can be used more effectively.
また、紙面に形成された画像を読み取って、読み取った画像から得られた所在より3次元画像情報を獲得して所望の方向からの2次元画像を印刷させることができる。 Further, it is possible to read an image formed on a paper surface, acquire three-dimensional image information from a location obtained from the read image, and print a two-dimensional image from a desired direction.
<プリンタの概要>
以下、本発明をレーザービームプリンタ(以下、LBPと略す)に適用した例を、図面を用いて更に詳細に説明する。この実施形態では本発明をプリンタ制御システムに適用した場合の例を示す。まず本実施形態を適用するに好適なプリンタの構成について、図を参照しながら説明する。
<Overview of printer>
Hereinafter, an example in which the present invention is applied to a laser beam printer (hereinafter abbreviated as LBP) will be described in more detail with reference to the drawings. In this embodiment, an example in which the present invention is applied to a printer control system is shown. First, a configuration of a printer suitable for applying this embodiment will be described with reference to the drawings.
なお、本実施形態を適用するプリンタは、レーザービームプリンタに限られるものではなく、他のプリント方式のプリンタ、たとえばインクジェットプリンタでも良い。また更に、本発明を適用するソフトウェアは、プリンタ制御システムに限ったものではなく、ワープロ(ワードプロセッサ)系ソフトウェア、表計算系ソフトウェア、作図系ソフトウェア等に幅広く応用可能であるも併せて補足しておく。 The printer to which this embodiment is applied is not limited to a laser beam printer, but may be a printer of another printing method, such as an ink jet printer. Furthermore, the software to which the present invention is applied is not limited to the printer control system, but is also supplemented in addition to being widely applicable to word processor (word processor) software, spreadsheet software, plotting software, and the like. .
図1は、本発明の1つの実施形態に係る画像記録装置(プリンタ)のシステム構成の概略を示す図である。図において、データ処理装置101は、例えば、コンピュータであり、画像処理装置制御コードの供給源、あるいはプリンタの制御装置として機能する。この実施の形態においては、画像記録装置102として、LBPを用いている。本実施形態において適用される画像記録装置は、LBPに限られるものではなく、インクジェットプリンタ等他のプリント方式のプリンタでもよい。
FIG. 1 is a diagram showing an outline of a system configuration of an image recording apparatus (printer) according to an embodiment of the present invention. In the figure, a
プリンタコントローラ103は、データ処理装置101から供給される画像処理装置制御コード(例えば、ESCコード、ページ記述言語、バンド記述言語等)中の画像情報に基づいて、ページ毎にラスタデータを生成し、プリンタエンジン105に送出する。プリンタエンジン105は、プリンタコントローラ103から供給されるラスタデータに基づいて、感光ドラム上に潜像を形成し、その潜像を記録媒体上に転写・定着(電子写真方式)することにより画像を記録する。パネル部104は、ユーザインタフェースとして使用される。ユーザは、パネル部104を操作することにより、所望の動作を指示することができる。また、パネル部104には、プリンタ102の処理内容や、ユーザへの警告内容が表示される。
The
図2は、タンデム方式のカラープリンタ102の構成を説明する断面図である。図において、201はプリンタ筐体である。202は、ユーザが各種指示を与えるためのスイッチや、メッセージやプリンタの設定内容等を表示するためのLED表示器あるいはLCD表示器等が配された操作パネルであり、図1に示すパネル部104の一態様である。203はボード収容部であり、プリンタコントローラ103及びプリンタエンジン105の電子回路部分を構成するボードを収容する。
FIG. 2 is a cross-sectional view illustrating the configuration of the
220は用紙(記録媒体)Sを保持する用紙カセットであり、不図示の仕切り板によって電気的に用紙サイズを検知する機構を有する。221はカセットクラッチであり、用紙カセット220上に載置された用紙Sの最上位の一枚を取り出して、取り出した用紙Sを不図示の駆動手段から伝達される駆動力によって給紙ローラ222まで搬送するカムを有する。このカムは、給紙の度に間欠的に回転し、1回転に対応して1枚の用紙Sを給紙する。223は用紙検知センサで、それぞれ用紙カセット220に保持されている用紙Sの量を検知する。
A
給紙ローラ222は、用紙Sの先端部をレジストシャッタ224まで搬送するローラである。224は、レジストシャッタであり、用紙Sを押圧することにより給紙を停止することができる。230は手差しトレイであり、231は手差し給紙クラッチである。手差し給紙クラッチ231は、用紙Sの先端を手差し給紙ローラ232まで搬送するために使用され、手差し給紙ローラ232は、用紙Sの先端をレジストシャッタ224まで搬送するために使用される。画像記録に供する用紙Sは、用紙カセット220及び手差しトレイ230のいずれかの給紙手段を選択して給紙される。
The
プリンタエンジン105は、プリンタコントローラ103と所定の通信プロトコルにしたがって通信を行い、プリンタコントローラ部103からの指示にしたがって用紙カセット220手差しトレイ230の中からいずれかの給紙手段を選択し、印刷の開始指示に応じて該当する給紙手段よりレジストシャッタ224まで用紙Sを搬送する。なお、プリンタエンジン105は、給紙手段、潜像の形成、転写、定着等の電子写真プロセスに関する機構、排紙手段及びそれらの制御手段を含む。
The
204a、204b、204c、204dは、感光ドラム205a、205b、205c、205dやトナー保持部等を有する画像記録部であり、電子写真プロセスにより、用紙S上にトナー像を形成する。一方、206a、206b、206c、206dは、レーザスキャナ部であり、画像記録部にレーザビームによる画像情報を供給する。画像記録部204a、204b、204c、204dには、用紙Sを搬送する用紙搬送ベルト250が複数の回転ローラ251〜254によって用紙搬送方向(図の下から上方向)に扁平に張設され、その最上流部においては、バイアスを印加した吸着ローラ225によって、用紙を用紙搬送ベルト250に静電吸着させる。またこのベルト搬送面に対向して4個の感光ドラム205a、205b、205c、205dが直線状に配設されており、画像形成手段を構成している。画像記録部204a、204b、204c、204dのそれぞれには、感光ドラムの周辺近傍を順次取り囲んで、帯電器、現像器が配置されている。
204a, 204b, 204c, and 204d are image recording units having
レーザスキャナ部206a、206b、206c、206dにおいて、207a、207b、207c、207dは、レーザユニットであり、プリンタコントローラ103から送出される画像信号(/VIDEO信号)に応じて、内蔵の半導体レーザを駆動し、レーザビームを発射する。レーザユニット207a、207b、207c、207dから発せられたレーザビームは、ポリゴンミラー(回転多面鏡)208a、208b、208c、208dにより走査され、感光ドラム205a、205b、205c、205d上に潜像を形成する。
In the
260は定着器で、画像記録部204a、204b、204c、204dにより用紙Sに形成されたトナー画像を記録紙Sに熱定着させる。261は搬送ローラで、用紙Sを排紙搬送する。262は排紙センサで、用紙Sの排紙状態を検知する。263は排紙ローラ兼両面印刷用搬送路切替えローラで、用紙Sを排紙方向へ搬送し、用紙Sの搬送指示が排紙の場合はそのまま排紙トレイ264に排紙し、搬送指示が両面搬送の場合は、用紙Sの後端が排紙センサ262を通過した直後に回転方向を逆向きに変え、スイッチバックすることにより用紙Sを両面印刷用搬送路270へ搬送する。265は排紙積載量検知センサで、排紙トレイ264上に積載された用紙Sの積載量を検知する。
A fixing
270は両面印刷用搬送路であり、排紙ローラ兼両面印刷用搬送路切替えローラ263により両面印刷用に搬送された用紙Sは、両面搬送ローラ271〜274によって再びレジストシャッタ224まで搬送されて画像記録部204a、204b、204c、204dへの搬送指示を待つ。なお、プリンタ102には、さらにオプションカセットや封筒フィーダ等のオプションユニットを装備することができる。
図3は、プリンタコントローラ103の構成例を示すブロック図である。図において、301はパネル部104とのデータ通信を行うパネルインタフェース部である。CPU309は、パネルインタフェース部301を介して、ユーザがパネル部104において設定・指示した内容を確認することができる。302はネットワークを介してホストコンピュータ等のデータ処理装置101と双方向に通信接続するためのホストインタフェース部である。306はプリンタエンジン105と通信接続するためのエンジンインタフェース部である。CPU309は、エンジンインタフェース部306を介して、プリンタエンジン105の状態を認識することができる。
FIG. 3 is a block diagram illustrating a configuration example of the
303はデータ処理装置101より供給された画像処理装置制御コードに基づいて、プリンタエンジン105に供給するラスタデータを生成(ラスタライズ)する画像データ発生部である。305は、生成したラスタデータを一時的に保持するための画像メモリである。309は、ROM304に保持された制御プログラムコードに基づいて、CPUバス320に接続されたデバイスを制御するCPUである。307は、CPU309が使用する一時記憶用メモリとしてのRAMであり、図示しない増設ポートに接続されるオプションRAMによりメモリ容量を拡張できるように構成されている。RAM307は、ROM304に保持された制御プログラムによって一時的に使用されるワークメモリ等に用いられる。310は、例えば、濃度補正テーブル等の制御情報を保持するための不揮発性メモリで構成されるEEPROMである。308は、DMA制御部であり、CPU309からの指示により画像メモリ305内のラスタデータをエンジンインタフェース部306に転送する。
An image
320は、アドレス、データ、コントロールバスを含むCPUバスである。パネルインタフェース部301、ホストインタフェース部302、画像データ発生部303、ROM304、画像メモリ305、エンジンインタフェース部306、RAM307、DMA制御部308、CPU309及びEEPROM310は、それぞれCPUバス320に接続されたすべてのデバイスにアクセス可能である。
A
<処理概要>
次に図面を参照してこの発明の実施形態について説明する。図4は、本発明の実施形態である情報処理システムの構成を示すブロック図である。この情報処理システムは、図1の構成を拡張したものであり、データ処理装置101に対して、プリンタ102に加えて、ネットワーク等を介してファイルサーバ408、PC(パーソナルコンピュータ)409、WS(ワークステーション)410を接続した構成を有する。なお、本実施形態ではプリンタを接続したデータ処理装置についてその構成や動作を説明をするが、プリンタやスキャナの機能を内蔵する複合機(MFP)によって本実施形態の機能を実現することもできる。その構成の場合、本実施形態の「データ処理装置」は「MFP」と読み替えられるべきである。
<Process overview>
Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a block diagram showing the configuration of the information processing system according to the embodiment of the present invention. This information processing system is an extension of the configuration shown in FIG. Station) 410 is connected. In the present embodiment, the configuration and operation of a data processing apparatus connected to a printer will be described. However, the functions of the present embodiment can also be realized by a multifunction peripheral (MFP) that incorporates printer and scanner functions. In the case of this configuration, “data processing apparatus” in the present embodiment should be read as “MFP”.
図4のデータ処理装置101において、入力部401は、キーボード、マウスなどのポインティングデバイスであり、ユーザからの動作指示や、ドキュメント編集(ドキュメント作成、情報の関連付けなど)指示を入力する。情報処理部402は、CPU402a、ROM,RAM等のメモリ402bなどから構成されてデータ処理装置本体に相当する。情報処理部402は、入力部401からのユーザ指示に応じて、ドキュメント作成やドキュメントに対する元情報の関連付け(埋め込み画像の生成、埋め込み画像のドキュメントへの合成)など、後述する図8や図10のフローの手順で処理を行う。また、情報処理部402は、イメージスキャナ406、FAX407を介して入力されたイメージデータとしてのドキュメントを画像処理等の技術を用いて電子データに変換し、ドキュメントにプリントアウトされているリンク情報および埋め込み情報を抽出して、それらリンク情報や埋め込み情報を表示可能とする。記憶部403は、ドキュメント自体、該ドキュメントに関連付けられる元情報のリンク先情報、該ドキュメントに添付される元情報(関連ドキュメント、画像情報、音声情報など)、などを記憶する。
In the
表示部404は、情報処理部402で作成あるいは編集(情報の関連付けを含む)されたドキュメントを表示する。イメージスキャナ406は、プリントアウトされた紙ドキュメントをスキャンし、イメージデータとして読み込み、情報処理部402へ供給する。また、FAX407は、2値化データ(イメージデータ)を受信して情報処理部402へ供給する。プリンタ405は、情報処理部402で作成・編集(情報の関連付けを含む)されたドキュメントを用紙にプリントアウトする。
The
上述したデータ処理装置101は、所定のインターフェース(図示略)を介して、LANなどのネットワークに接続されており、ネットワーク上のファイルサーバ408、PC(パーソナルコンピュータ)409、W/S(ワークステーション)410などと各種情報を授受する。特に、本実施形態では、電子情報としてのドキュメントや、元情報、リンク先情報などを、上記ネットワーク上のファイルサーバ408、PC409、W/S410などに保存しておくようにしてもよい。そして、PC409、W/S410がHTTP(ハイパーテキスト転送プロトコル)サーバとして機能する場合には、それらがHTTPにより提供するデータを、データ処理装置101からURL(ユニフォームリソースロケータ)により特定してアクセスすることができる。また、ファイルサーバ408がLAN(ローカルエリアネットワーク)などにより接続されている場合、オペレーティングシステムにより提供されるファイル共有の機能を用いて、あたかも自装置の管理下にあるファイルであるかのように、ファイルサーバ408が共有ファイルとして提供するデータにデータ処理装置からアクセスすることができる。このほか、FTP(ファイル転送プロトコル)サーバであれば、それが提供するファイルをFTPを通して取得できるし、種々のデータ共有のための仕組みにより、データ処理装置101から外部の装置の提供するデータにアクセスできる。
The
上述したように、情報処理部402は、ドキュメントに対して、リンク情報や埋め込み情報のドキュメントへの合成を行い、認識可能に出力するドキュメント編集機能と、入力されたイメージデータとしてのドキュメントを電子データに変換し、ドキュメント中のリンク情報や埋め込み情報を抽出して、その情報に従って、元のドキュメントが持つ付加価値(リンクされた元情報の表示、ドキュメントを作成したアプリケーションの起動・データ編集など)を再利用可能とするドキュメント再生機能とを有している。以下、ドキュメント編集機能とドキュメント再生機能とについて説明する。
As described above, the
ドキュメント編集機能を実現するために、データ処理装置101は、少なくとも図5に示す印刷ドキュメント解析手段(501)、印刷画像生成手段(502)、埋め込み情報生成手段(503)、画像情報マージ手段(504)、マージ画像印刷手段(505)、を有する。また、ドキュメント再生機能を実現するために、データ処理装置は、少なくとも図6に示す埋め込み情報抽出手段(601)、埋め込み情報解析手段(602)、3D画像表示手段(603)、回転指示受付手段(604)、3D画像回転手段(605)、3D画像印刷手段(606)を有する。
In order to realize the document editing function, the
それぞれの機能処理手段の役割を、図を元に説明する。図5は、3D情報を含むドキュメントを、3D情報を再生可能に印刷する機能を実現するための構成を示すブロック図である。印刷ドキュメント解析手段(501)は、印刷の指示を受けたドキュメントを取得し、印刷画像生成手段(502)と埋め込み情報生成手段(503)に必要な情報を引き渡し、各作業を開始させる。印刷画像生成手段(502)は、印刷の命令を受けたドキュメントの画像をレンダリングし、その画像をプリンタが処理可能な画像情報に変換する。埋め込み情報生成手段(503)は、印刷ドキュメント取得手段(501)から取得した印刷命令を受けたドキュメントの格納場所を検知し、その格納場所を示すURLを文字画像として生成する。また、文字画像としてではなく、URL情報を示す2次元バーコードを生成する方法や、文字と文字の間隔に情報を埋め込む方法、ハーフトーンの画像に埋め込む方法等直接可視化されない所謂電子透かしを生成する方法を用いても構わない。画像情報マージ手段(504)は、印刷画像生成手段(502)が生成した印刷画像と、埋め込み情報生成手段(503)が生成する印刷ドキュメントの格納場所を示す画像情報をマージし、一つの画像に変換する。マージ画像印刷手段(505)は、画像情報マージ手段(504)が生成したマージ画像を印刷する。 The role of each function processing means will be described with reference to the drawings. FIG. 5 is a block diagram illustrating a configuration for realizing a function of printing a document including 3D information so that the 3D information can be reproduced. The print document analysis unit (501) acquires a document for which a printing instruction has been received, passes necessary information to the print image generation unit (502) and the embedded information generation unit (503), and starts each operation. A print image generation unit (502) renders an image of a document that has received a print command, and converts the image into image information that can be processed by the printer. The embedded information generation unit (503) detects the storage location of the document that has received the print command acquired from the print document acquisition unit (501), and generates a URL indicating the storage location as a character image. Also, not a character image but a so-called digital watermark that is not directly visualized, such as a method of generating a two-dimensional barcode indicating URL information, a method of embedding information in the space between characters, a method of embedding in a halftone image, etc. You may use the method. The image information merging means (504) merges the print image generated by the print image generating means (502) and the image information indicating the storage location of the print document generated by the embedded information generating means (503) into one image. Convert. The merge image printing unit (505) prints the merge image generated by the image information merge unit (504).
これら各手段は、ハードウエアにより実現することもできるが、ソフトウエアにより実現することもできる。そして、ソフトウエアにより実現する場合には、データ処理装置101、特に情報処理部402により、後述の図8の手順を実現するためのプログラムを実行する。それにより、図5の構成が実現される。
Each of these means can be realized by hardware, but can also be realized by software. When implemented by software, the
図6は、紙面に印刷された3D情報を含むドキュメントを、3D情報も含めて再生する機能を実現するための構成を示すブロック図である。埋め込み情報抽出手段(601)は、紙面に印刷された画像情報をラスター状に走査し、画像を取得する。また、埋め込む情報の物理座標をあらかじめ決めておき、その座標で示される領域のみの埋め込み情報検知を行う方法を用いても良い。埋め込み情報解析手段(602)は、埋め込み情報抽出手段(601)が読み込んだ原稿画像から、付加情報として記録された2次元バーコード、或いはURLに該当するオブジェクトを検出しURLはOCRで文字認識し、或いは2次元バーコードならそのマークを解読して、原稿のオリジナル電子ファイルが格納されている記憶装置内の所在情報を検出する。尚、印刷対象となったドキュメントの所在情報を付加する手段は他に文字と文字の間隔に情報を埋め込む方法、ハーフトーンの画像に埋め込む方法等直接可視化されない所謂電子透かしによる方法なども有る。3D画像表示手段(603)は、埋め込み情報解析手段(602)が検出した紙面に印刷される画像の元電子データの所在情報を元に検索を行い、元電子データを読み込み、2Dにレンダリングを行い、ユーザに対して表示を行う。回転指示受付手段(604)は、3D画像表示手段(603)が表示した元電子データの画像を元に、ユーザが希望する視点からの画像を見るため、その視点の座標情報を取得し、3D画像回転手段(605)に回転命令と、取得した視点座標を引き渡す。3D画像回転手段(605)は、回転指示受付手段(604)から回転命令を受け、引き渡されてきた視点座標からの画像を可視的に表示できるように、元ドキュメント情報を元に、3D画像の回転を行う。3D画像印刷手段(606)は、ユーザから印刷命令を受けた際に、3D画像表示手段(603)が現在表示している画像を取得し、印刷を行う。3D画像表示手段603、3D画像回転手段605、3D画像印刷手段など、3D画像データを処理する各部は、最も簡単には、当該3D画像データを作成したアプリケーションプログラムにより実現できる。このほか、3D画像データのデータ形式が明らかであれば、特にそれを作成したアプリケーションプログラムでなくとも処理することができる。
FIG. 6 is a block diagram showing a configuration for realizing a function of reproducing a document including 3D information printed on a paper surface including 3D information. The embedded information extraction unit (601) scans image information printed on a paper surface in a raster pattern to obtain an image. Alternatively, a method may be used in which physical coordinates of information to be embedded are determined in advance and embedded information is detected only in the area indicated by the coordinates. The embedded information analyzing means (602) detects the object corresponding to the two-dimensional barcode or URL recorded as additional information from the original image read by the embedded information extracting means (601), and the URL recognizes the character by OCR. Alternatively, in the case of a two-dimensional bar code, the mark is decoded to detect location information in the storage device in which the original electronic file of the document is stored. Note that there are other means for adding the location information of the document to be printed, such as a method of embedding information in the space between characters, a method of embedding in a halftone image, and so-called digital watermarking that is not directly visualized. The 3D image display means (603) performs a search based on the location information of the original electronic data of the image printed on the paper surface detected by the embedded information analysis means (602), reads the original electronic data, and performs 2D rendering. Display to the user. Based on the original electronic data image displayed by the 3D image display means (603), the rotation instruction receiving means (604) acquires the coordinate information of the viewpoint in order to view the image from the viewpoint desired by the user. The rotation command and the acquired viewpoint coordinates are delivered to the image rotation means (605). The 3D image rotation means (605) receives the rotation command from the rotation instruction reception means (604), and based on the original document information, the 3D image of the 3D image is displayed so that the image from the received viewpoint coordinates can be visually displayed. Rotate. The 3D image printing unit (606) acquires the image currently displayed by the 3D image display unit (603) and performs printing when receiving a print command from the user. Each unit that processes 3D image data, such as the 3D
これら各手段は、ハードウエアにより実現することもできるが、ソフトウエアにより実現することもできる。そして、ソフトウエアにより実現する場合には、データ処理装置101、特に情報処理部402により、後述の図10の手順を実現するためのプログラムを実行する。それにより、図6の構成が実現される。
Each of these means can be realized by hardware, but can also be realized by software. When implemented by software, the
<印刷手順>
次に、図5、図7及、図8及び図15を参照し、3D情報を含む電子データを印刷する処理のフローを示す。以下の説明では、図5に即して、図5の各手段が主体となって図8、図15の処理を実行するものとして説明する。しかし、データ処理装置101がこれらの手順をソフトウエアで実現する場合、図8の各工程は、CPU402aにより実行される。なお図7は、処理されるデータに着目して処理の流れを示した図である。
<Printing procedure>
Next, a flow of processing for printing electronic data including 3D information will be described with reference to FIGS. 5, 7, 8, and 15. In the following description, it is assumed that each unit in FIG. 5 performs the processes in FIG. 8 and FIG. However, when the
まず、印刷ドキュメント解析手段(501)は、印刷命令を受けた3Dオブジェクトを含むアプリケーションデータ(701)を取得する(S801)。この工程は、たとえばデータ処理装置101が、指定された名称の文書ファイルなどを開くことに相当する。次に、埋め込み情報生成手段(503)は、取得したアプリケーションデータ(701)から、そのアプリケーションデータ(701)の内容である3次元画像データの所在情報すなわちデータが格納されている格納アドレス(702)を検出し、取り出す(S802)。たとえば、アプリケーションデータが文書データであれば、その中に種々のオブジェクトが挿入されている場合がある。それらオブジェクトは実際に文書データ中に含まれる場合もあるが、文書データにはリンク情報のみが含まれ、オブジェクトの実体であるデータはリンク情報で特定される場所、たとえばディレクトリ等に保存されている場合もある。また、HTMLデータであれば、refタグの内容として格納アドレスが既述されている。ステップS802ではこれらリンク情報である格納アドレスを取り出す。
First, the print document analysis unit (501) acquires application data (701) including a 3D object that has received a print command (S801). This process corresponds to, for example, the
そして、アプリケーションデータから抽出した格納アドレス(704)を、アドレスを示す文字画像や2次元バーコード等の埋め込み画像(706)に変換する(S803)。この埋め込み画像が、印刷対象の画像に付加される付加情報となる。 Then, the storage address (704) extracted from the application data is converted into an embedded image (706) such as a character image or a two-dimensional barcode indicating the address (S803). This embedded image becomes additional information added to the image to be printed.
印刷画像生成手段(502)は、印刷命令を受けた視点からの画像を、取り出した格納アドレスで特定される場所に保存された、たとえば3次元画像データ(703)を元にレンダリングし、印刷画像(705)として生成する(S804)。このためには3次元画像データの構造はあらかじめ定義されており、その定義に従ってステップS804では3次元画像データを平面に投影してレンダリングを行う。また、3次元画像データを生成したアプリケーションであれば、当然にステップS804の処理は可能である。 The print image generation means (502) renders the image from the viewpoint that received the print command based on, for example, the three-dimensional image data (703) stored in the location specified by the extracted storage address, and print image It is generated as (705) (S804). For this purpose, the structure of the three-dimensional image data is defined in advance. In step S804, the three-dimensional image data is projected onto a plane and rendered in accordance with the definition. Of course, the process of step S804 can be performed by any application that has generated three-dimensional image data.
次に、ステップS803で生成された埋め込み画像(706)と、ステップS804で生成された印刷画像(705)の二つの画像を一つの画像に合成(マージ)する(S805)。合成に際しては、合成後の画像全体においてあらかじめ決められた、埋め込み画像(706)が描画される座標領域(埋め込み画像領域と呼ぶ。)に、印刷画像(705)に関して描画されるピクセルが存在しなかった場合、そのまま埋め込み画像領域に埋め込み画像(706)が描画されるよう印刷画像と合成する。また、埋め込み画像領域に、印刷画像(705)も重ねて描画される場合、埋め込み画像(706)で印刷画像を上書きするよう、そのあらかじめ決められた位置に埋め込み画像を合成する。すなわち、いずれの場合でも、埋め込みが像領域については、埋め込み画像で印刷画像を覆うように、これら画像を合成する。 Next, the two images of the embedded image (706) generated in step S803 and the print image (705) generated in step S804 are combined (merged) into one image (S805). At the time of composition, there is no pixel to be drawn with respect to the print image (705) in a coordinate area (referred to as an embedded image area) in which the embedded image (706) is drawn in advance in the entire image after the composition. In this case, the image is combined with the print image so that the embedded image (706) is drawn in the embedded image area as it is. When the print image (705) is also drawn in the embedded image area, the embedded image is synthesized at a predetermined position so that the print image is overwritten with the embedded image (706). That is, in any case, for the image area where embedding is performed, these images are synthesized so that the print image is covered with the embedded image.
なお、画像を埋め込む方法としては、文字と文字の間隔に情報を埋め込む方式や、ハーフトーンの画像に埋め込む方式等、直接可視化されない所謂電子透かしなど、表示や印刷された画像からは肉眼で認識できないよう埋め込む方法もある。これら方法では、埋め込み画像を印刷画像とは別途作成することはできない。そこで、電子透かし等の直接可視化されない技術を用いて埋め込み画像(706)を作成する場合は、ステップS803で印刷画像を先に生成し、その印刷画像に、3次元画像データの格納アドレスを示す情報を埋め込む。 In addition, as a method of embedding an image, a method of embedding information in a space between characters or a method of embedding in a halftone image, such as a so-called digital watermark that is not directly visualized, cannot be recognized from the displayed or printed image with the naked eye. There is also a way to embed. In these methods, the embedded image cannot be created separately from the print image. Therefore, when the embedded image (706) is created using a technique that is not directly visualized such as a digital watermark, a print image is first generated in step S803, and information indicating the storage address of the three-dimensional image data is included in the print image. Embed.
<所在情報の付加>
次に、ステップS803で示す、所在情報付加処理について詳しく説明する。印刷するドキュメントを記録処理する場合においては、紙面への記録の際に所在情報も含めて記録することで、この文書を用いて再度各種処理を行う場合に簡単に元のドキュメントを取得できる。
<Add location information>
Next, the location information addition process shown in step S803 will be described in detail. In the case of recording a document to be printed, the original document can be easily acquired when various processes are performed again using this document by recording the location information including the location information.
図15は所在情報としてのデータ文字列を2次元バーコード(QRコード(登録商標)シンボル:JIS X0510)(図13参照)にて符号化して画像中に付加する過程を示すフローチャートである。2次元バーコード内に組み込むデータは、対応するファイル(3次元画像データファイル)の所在情報を表しており、例えばファイルサーバ名およびファイル名からなるパス情報で構成される。或いは、対応するファイルへのURLや、対応するファイルの格納されているデータベース内で管理されるファイルID等で構成される。あるいは、図4のサーバ類を除くシステム全体をディジタル複合装置(MFP)で実現している場合には、そのMFP自体が有する記憶装置内となる場合もある。 FIG. 15 is a flowchart showing a process of encoding a data character string as location information with a two-dimensional barcode (QR code (registered trademark) symbol: JIS X0510) (see FIG. 13) and adding it to an image. The data to be incorporated in the two-dimensional barcode represents the location information of the corresponding file (three-dimensional image data file), and is composed of, for example, path information including a file server name and a file name. Alternatively, it is composed of a URL to the corresponding file, a file ID managed in the database in which the corresponding file is stored, and the like. Alternatively, when the entire system excluding the servers shown in FIG. 4 is realized by a digital multifunction peripheral (MFP), the MFP itself may be in a storage device.
まず、符号化する種種の異なる文字を識別するため、入力データ列を分析する。また、誤り検出及び誤り訂正レベルを選択し、入力データが収容できる最小型番を選択する(S1501)。次に、入力データ列を所定のビット列に変換し、必要に応じてデータのモード(数字、英数字、8ビットバイト、漢字等)を表す指示子や、終端パターンを付加する。さらに所定のビットコード語に変換する(S1502)。この時、誤り訂正を行うため、コード語列を型番および誤り訂正レベルに応じて所定のブロック数に分割し、各ブロック毎に誤り訂正コード語を生成し、データコード語列の後に付加する(S1503)。そしてステップS1503で得られた各ブロックのデータコード語を接続し、各ブロックの誤り訂正コード語、必要に応じて剰余コード語を後続する(S1504)。 First, an input data string is analyzed in order to identify different characters to be encoded. Further, an error detection and error correction level is selected, and a minimum model number that can accommodate input data is selected (S1501). Next, the input data string is converted into a predetermined bit string, and an indicator indicating a data mode (numeric, alphanumeric, 8-bit byte, kanji, etc.) and a termination pattern are added as necessary. Further, it is converted into a predetermined bit code word (S1502). At this time, in order to perform error correction, the code word string is divided into a predetermined number of blocks according to the model number and the error correction level, an error correction code word is generated for each block, and is added after the data code word string ( S1503). Then, the data code words of the respective blocks obtained in step S1503 are connected, and the error correction code word of each block and, if necessary, the remainder code word are followed (S1504).
次に、マトリクスに位置検出パターン、分離パターン、タイミングパターンおよび位置合わせパターン等とともにコード語モジュールを配置する(S1505)。更に、シンボルの符号化領域に対して最適なマスクパターンを選択して、マスク処理パターンをステップS1505で得られたモジュールにXOR演算により変換する(S1506)。最後に、ステップS1506で得られたモジュールに形式情報および型番情報を生成して付加し、2次元コードシンボルを完成する(S1507)。 Next, the code word module is arranged in the matrix together with the position detection pattern, separation pattern, timing pattern, alignment pattern, and the like (S1505). Further, an optimal mask pattern is selected for the symbol coding region, and the mask processing pattern is converted into the module obtained in step S1505 by an XOR operation (S1506). Finally, format information and model number information are generated and added to the module obtained in step S1506 to complete a two-dimensional code symbol (S1507).
図15の手順はJIS X0510規格の2次元バーコードを生成するための手順であり、既に市販されたプログラムも存在している。図15としてはそのようなプログラムを用いることもできる。また上記説明の用語はJIS X0510に定義されている。型番はシンボルの大きさを表し、位置検出パターンはシンボルの3隅に配置される要素パターンである。また、マスク処理は、画像の高速処理の妨げとなるパターンの発生を抑えるために行われる。 The procedure of FIG. 15 is a procedure for generating a two-dimensional barcode of the JIS X0510 standard, and there are already commercially available programs. Such a program can also be used as FIG. The terminology described above is defined in JIS X0510. The model number represents the size of the symbol, and the position detection pattern is an element pattern arranged at the three corners of the symbol. The mask process is performed in order to suppress generation of a pattern that hinders high-speed image processing.
<印刷画像からの3次元画像の獲得>
次に、図6、図9、図10、図12、図14を参照し、図8の手順で紙面に印刷した3Dオブジェクトを含む画像のスキャニング及び、スキャニングにより読み取った画像の印刷処理のフローを示す。以下の説明では、図6に即して、図6の各手段が主体となって図10、図12、図14の処理を実行するものとして説明する。これに対して、データ処理装置101がこれらの手順をソフトウエアで実現する場合、図10、図12、図14の各工程は、CPU402aにより実行される。なお図9は、処理されるデータに着目して処理の流れを示した図である。
<Acquisition of 3D image from printed image>
Next, referring to FIGS. 6, 9, 10, 12, and 14, a flow of scanning of an image including a 3D object printed on a paper surface in the procedure of FIG. 8 and a printing process of an image read by scanning is shown. Show. In the following description, it is assumed that each unit in FIG. 6 performs the processing in FIGS. 10, 12, and 14 mainly according to FIG. On the other hand, when the
まず、埋め込み情報抽出手段(601)は、スキャン対象紙面(901)をラスター状に走査し、原稿画像を読み取る。実際にはイメージスキャナ(406)や、FAX(407)等で画像を読み取らせて原稿画像の画像データ(903)を取得する(S1001)。また、図8で説明したように埋め込み画像領域をあらかじめ決めておくことで、その埋め込み画像領域の画像に限って読みとる方法を用いても良い。 First, the embedded information extraction unit (601) scans the scan target paper surface (901) in a raster shape and reads a document image. In practice, the image is read by an image scanner (406), a FAX (407) or the like, and image data (903) of the original image is acquired (S1001). Further, as described with reference to FIG. 8, a method of reading out only the image of the embedded image area by determining the embedded image area in advance may be used.
埋め込み情報解析手段(602)は、埋め込み情報抽出手段(601)が読み込んだ原稿画像の画像データから、印刷画像の付加情報として記録された埋め込み画像を抽出する(S1002)。埋め込み画像は、たとえば2次元バーコード或いはURLに該当する文字列等のオブジェクト(906)である。埋め込み画像が文字列であればOCRで文字認識し、2次元バーコードならそのマークを解読して、原稿のオリジナル電子ファイル(元電子ファイル)が格納されている記憶装置内の所在情報(908)を検出する(907)(S1003)。尚、印刷対象となったドキュメントの所在情報を付加する手段としては、他に文字と文字との間隔に情報を埋め込む方法、ハーフトーンの画像に埋め込む方法等直接可視化されない所謂電子透かしによる方法も有る。もちろんこれらの場合には、埋め込み方法に対応した方法で埋め込まれた情報を復元する。 The embedded information analyzing unit (602) extracts an embedded image recorded as additional information of the print image from the image data of the original image read by the embedded information extracting unit (601) (S1002). The embedded image is an object (906) such as a character string corresponding to a two-dimensional barcode or URL, for example. If the embedded image is a character string, the character is recognized by OCR, and if it is a two-dimensional barcode, the mark is decoded, and the location information (908) in the storage device in which the original electronic file (original electronic file) of the document is stored Is detected (907) (S1003). In addition, as means for adding the location information of a document to be printed, there are other so-called digital watermark methods that are not directly visualized, such as a method of embedding information in the space between characters and a method of embedding in halftone images. . Of course, in these cases, the embedded information is restored by a method corresponding to the embedding method.
次に、3D画像表示手段(603)は、検出された所在情報、たとえばURLやパスなどの格納先アドレス(908)が示す場所を検索し、そこに格納された3次元画像の元電子データ(810)を読み込む(S1004)。次に、読み込んだ元電子データ(810)を元に、元電子データにより表される画像を、ディスプレイやプリンタのパネル等に表示する(S1005)。3Dオブジェクトの表示は、アプリケーションの仕様や、公知の3Dオブジェクトの2D変換処理及び、表示技術等を用いる。ユーザは表示された画像を参照しながら、自分の欲しい角度や視点からの画像を取得するため、回転操作を行う。ユーザによる回転操作に応じて、回転指示受付手段(604)は、回転処理命令を3D画像回転手段(605)に発行する。3D画像回転手段(605)は、回転処理命令が回転指示受付手段(604)から発行されたと識別された場合(S1006−YES)、ユーザによって指定された回転角度などをパラメータとする回転処理を、元電子データ(910)に対して施す。そしてその回転後の3次元画像について2次元画像データに変換し3D画像表示手段(603)に表示させる(S1007)。回転命令が発行されず(S1006−NO)、印刷命令が発行された場合(S1008−YES)、3Dオブジェクトを現在の視点から投影して2次元画像に変換し、その画像を印刷する(S1009)。 Next, the 3D image display means (603) searches the location indicated by the storage location address (908) such as the detected location information, for example, URL or path, and the original electronic data (3D image stored therein) 810) is read (S1004). Next, based on the read original electronic data (810), an image represented by the original electronic data is displayed on a display, a printer panel, or the like (S1005). The display of 3D objects uses application specifications, 2D conversion processing of known 3D objects, display technology, and the like. While referring to the displayed image, the user performs a rotation operation to acquire an image from the desired angle or viewpoint. In response to the rotation operation by the user, the rotation instruction reception unit (604) issues a rotation processing command to the 3D image rotation unit (605). When it is identified that the rotation processing command is issued from the rotation instruction receiving unit (604) (S1006-YES), the 3D image rotation unit (605) performs the rotation process using the rotation angle specified by the user as a parameter, This is applied to the original electronic data (910). Then, the rotated three-dimensional image is converted into two-dimensional image data and displayed on the 3D image display means (603) (S1007). When a rotation command is not issued (S1006-NO) and a print command is issued (S1008-YES), the 3D object is projected from the current viewpoint, converted into a two-dimensional image, and the image is printed (S1009). .
ステップS1005、S1007、S1009などにおける3次元画像データ処理のために、3次元画像データの構造はあらかじめ定義されており、その定義に従ってこれらステップでは3次元画像データ処理を行う。また、3次元画像データを生成したアプリケーションであれば、当然にこれらステップの処理は可能である。 For the three-dimensional image data processing in steps S1005, S1007, S1009, etc., the structure of the three-dimensional image data is defined in advance, and the three-dimensional image data processing is performed in these steps according to the definition. Of course, the process of these steps is possible if the application generates three-dimensional image data.
<ブロックセレクション処理>
ブロックセレクション処理とは、ステップS1002における埋め込み画像の抽出の際に、図11の右の(a)に示す、読み取った1ページのイメージデータを、左の(b)に示す様に、オブジェクト毎のブロックとして領域認識し、ブロック各々についてその属性を判定し、相異なる属性を持つ領域に分割する処理である。属性は、文字・図画・写真・線・表等のオブジェクトの種類に対応して定義される。ブロックセレクション処理の実施例を以下に説明する。
<Block selection processing>
In the block selection process, when the embedded image is extracted in step S1002, the read image data of one page shown in (a) on the right side of FIG. This is processing for recognizing a region as a block, determining the attribute of each block, and dividing the block into regions having different attributes. Attributes are defined corresponding to types of objects such as characters, drawings, photographs, lines, and tables. An example of the block selection process will be described below.
先ず、読み取った画像データを白黒に二値化し、輪郭線追跡をおこなって黒画素の輪郭で囲まれる画素の塊(同じ色の画素が連続した領域)を抽出する。面積の大きい黒画素の塊については、内部にある白画素に対しても輪郭線追跡をおこない白画素の塊を抽出し、さらに一定面積以上である白画素の塊の内部からは再帰的に黒画素の塊を抽出する。 First, the read image data is binarized into black and white, and outline tracking is performed to extract a block of pixels surrounded by the outline of black pixels (an area in which pixels of the same color are continuous). For a black pixel block with a large area, contour tracing is also performed for white pixels inside, and a white pixel block is extracted. Extract a block of pixels.
このようにして得られた黒画素の塊を、大きさおよび形状で分類し、異なる属性を持つ領域へ分類していく。たとえば、縦横比が1に近く、大きさが一定の範囲のものを文字相当の画素塊とし、さらに近接する文字が整列良くグループ化可能な部分を文字領域とする。また、扁平な画素塊を線領域、一定大きさ以上でかつ四角系の整列された白画素塊を内包する黒画素塊の占める範囲を表領域、不定形の画素塊が散在している領域を写真領域、それ以外の任意形状の画素塊を図画領域、などとする。ブロックセレクション処理で得られた各ブロックに対するブロック情報を表1に示す。また表1には含まれないが、図13に示す2次元バーコード1303は、それを識別するための特徴的パターンを含んでいる。図13の例では、3箇所の角部のパターンがそれであり、そのパターンを検出した場合にはそのブロックは2次元バーコードであると判定できる。その場合には、ブロック情報の該当箇所に2次元バーコードの属性値を格納する。またこれは通常の1次元バーコードについても同様である。
The black pixel blocks obtained in this way are classified by size and shape, and are classified into regions having different attributes. For example, a pixel block having an aspect ratio close to 1 and having a constant size is defined as a pixel block corresponding to a character, and a portion where adjacent characters can be grouped with good alignment is defined as a character region. In addition, a flat pixel block is a line region, a range occupied by a black pixel block that is larger than a certain size and includes a white pixel block aligned in a square system is a table region, and an area where irregular pixel blocks are scattered A picture area and a pixel block having any other shape are used as a picture area. Table 1 shows block information for each block obtained by the block selection process. Although not included in Table 1, the two-
このようにして、ブロックセレクション処理により、表1のブロック情報を作成する。このブロック情報に基づいて、この後に説明するベクトル化、或いは元電子データの所在を示すアドレス情報を抽出する。 In this way, the block information shown in Table 1 is created by the block selection process. Based on this block information, vectorization described later, or address information indicating the location of the original electronic data is extracted.
<所在情報の検出>
次に、ステップS1003で示す元電子データのファイルの格納位置を、イメージ情報から抽出する為のOCR/OMR処理について説明する。図12は原稿画像中に付加された2次元バーコード(QRコード(登録商標)シンボル)を復号して、データ文字列を出力する過程を示すフローチャートである。2次元バーコードの付加された原稿(1301)の一例を図13に示す。
<Detection of location information>
Next, the OCR / OMR process for extracting the storage location of the original electronic data file shown in step S1003 from the image information will be described. FIG. 12 is a flowchart showing a process of decoding a two-dimensional barcode (QR code (registered trademark) symbol) added to a document image and outputting a data character string. An example of a document (1301) to which a two-dimensional barcode is added is shown in FIG.
まず、ページメモリ(不図示)に格納された原稿(1301)を表すイメージ画像をCPU(不図示)で走査して、先に説明したブロックセレクション処理の結果から所定の2次元バーコードシンボル(1303)の位置を検出する。QRコードの位置検出パターンは、シンボルの4隅のうち、3済みに配置される同一の位置検出要素パターンから構成される(S1201)。 First, an image representing a document (1301) stored in a page memory (not shown) is scanned by a CPU (not shown), and a predetermined two-dimensional barcode symbol (1303) is obtained from the result of the block selection process described above. ) Position is detected. The QR code position detection pattern is composed of the same position detection element patterns arranged in three of the four corners of the symbol (S1201).
次に、位置検出パターンに隣接する形式情報を復元し、シンボルに適用されている誤り訂正レベルおよびマスクパターンを得る(S1202)。シンボルの型番を決定した(S1203)後、形式情報で得られたマスクパターンを使って符号化領域ビットパターンをXOR演算することによってマスク処理を解除する(S1204)。尚、モデルに対応する配置規則に従い、シンボルキャラクタを読み取り、メッセージのデータ及び誤り訂正コード語を復元する(S1205)。復元されたコード上に、誤りがあるかどうかの検出を行い(S1206)、誤りが検出された場合、(S1207)に分岐し、これを訂正する。誤り訂正されたデータより、モード指示子および文字数指示子に基づいて、データコード語をセグメントに分割する(S1208)。最後に、仕様モードに基づいてデータ文字を復号し、結果を出力する(S1209)。 Next, the format information adjacent to the position detection pattern is restored, and the error correction level and mask pattern applied to the symbol are obtained (S1202). After determining the symbol model number (S1203), the mask process is canceled by performing an XOR operation on the encoded area bit pattern using the mask pattern obtained from the format information (S1204). The symbol character is read in accordance with the arrangement rule corresponding to the model, and the message data and the error correction code word are restored (S1205). It is detected whether or not there is an error on the restored code (S1206). If an error is detected, the process branches to (S1207) and is corrected. Based on the mode indicator and the character number indicator, the data code word is divided into segments from the error-corrected data (S1208). Finally, the data character is decoded based on the specification mode, and the result is output (S1209).
2次元バーコード内に組み込まれたデータ、すなわちステップS1208で復号されたデータは、対応するファイルのアドレス情報(所在)を表しており、例えばファイルサーバ名およびファイル名からなるパス情報を構成する。或いは、対応するファイルへのURLを構成する。 The data incorporated in the two-dimensional barcode, that is, the data decoded in step S1208 represents the address information (location) of the corresponding file, and constitutes path information including, for example, a file server name and a file name. Alternatively, a URL to the corresponding file is constructed.
図12では所在情報が2次元バーコードを用いて付与された原稿(1301)について説明したが、文字列でアドレス情報が記録される場合は、所定のルールに従った文字列のブロックを先のブロックセレクション処理で検出し、その文字列の各文字を文字認識することで、直接元画像データファイルの格納アドレス情報を得る事が可能である。 In FIG. 12, the document (1301) in which the location information is given using a two-dimensional barcode has been described. However, when address information is recorded as a character string, a block of the character string in accordance with a predetermined rule is placed on the previous block. The storage address information of the original image data file can be obtained directly by detecting the block selection process and recognizing each character of the character string.
また、図13の文書(1301)の文字ブロック(1302)、或いはの文字列(1304)に対して隣接する文字と文字の間隔等に視認し難い程度の変調を加え、該文字間隔に情報を埋め込むことでも格納アドレス情報を付与できる。このような所謂透かし情報は、後述する文字認識処理を行う際に各文字の間隔を検出すれば、ポインター情報が得られる。また、自然画(1305)の中に電子透かしとしてポインター情報を付加する事も可能である。 Further, the character block (1302) of the document (1301) in FIG. 13 or the character string (1304) is modulated such that the distance between adjacent characters is difficult to see, and information is added to the character spacing. The storage address information can also be given by embedding. Such so-called watermark information can be obtained as pointer information by detecting an interval between characters when performing character recognition processing described later. It is also possible to add pointer information as a digital watermark in the natural image (1305).
<所在情報によるファイル検索>
次に、図10で先に説明したステップS1004で示す、所在情報からの電子ファイルの検索について、図14のフローチャートを使用して説明する。
<File search by location information>
Next, retrieval of an electronic file from location information shown in step S1004 described above with reference to FIG. 10 will be described using the flowchart of FIG.
まず、所在情報に含まれるアドレスに基づいて、ファイルサーバ(408)を特定する(S1401)。また、ファイルサーバのかわりに、PC(409)や、W/S(410)、データベースを内蔵する文書管理サーバや、記憶装置を内蔵するデータ処理装置自身でもよい。図4のデータ処理装置とプリンタとが一体となったMFPであれば、MFP自身であっても良い。ここで所在情報とは、元画像データの格納アドレス情報であり、URLや、サーバ名とファイル名からなるパス情報である。ファイルサーバ(408)が特定できたら、ファイルサーバ(408)に対して所在情報を転送する(S1402)。ファイルサーバ(408)は、所在情報を受信すると、該当するファイルを検索する(S1403)。ファイルが存在しない場合(S1404−N)には、データ処理装置あるいはMFPに対してその旨通知する。 First, the file server (408) is specified based on the address included in the location information (S1401). Instead of the file server, a PC (409), W / S (410), a document management server with a built-in database, or a data processing device with a built-in storage device may be used. As long as the data processing apparatus of FIG. 4 and the printer are integrated with each other, the MFP itself may be used. Here, the location information is storage address information of the original image data, and is path information including a URL and a server name and a file name. If the file server (408) can be specified, the location information is transferred to the file server (408) (S1402). Upon receiving the location information, the file server (408) searches for the corresponding file (S1403). If the file does not exist (S1404-N), the data processing apparatus or MFP is notified.
ファイルが存在した場合(S1404−Y)には、図10で説明した様に、ファイルの所在情報を通知すると共に、ユーザの希望する処理が画像ファイルデータの取得であれば、MFPに対してファイルを転送する。また、所在情報で示される場所にファイルが存在しなかった場合(S1404−N)、公知の技術を用いて、紙面上の画像と、ファイルサーバ・PC・W/S・MFP内に存在するドキュメントを比較して、類似する画像を含むドキュメントを、その紙面に印刷された画像の元電子データであると識別し、取得しても良い。 If the file exists (S1404-Y), as described in FIG. 10, the file location information is notified, and if the processing desired by the user is acquisition of image file data, the file is sent to the MFP. Forward. If the file does not exist at the location indicated by the location information (S1404-N), the image on the paper and the document existing in the file server / PC / W / S / MFP are used by using a known technique. And a document including a similar image may be identified and acquired as the original electronic data of the image printed on the paper.
このようにして、読み込んだ画像データに含まれる格納アドレス情報に基づいて、印刷された画像の元となった3次元画像データを獲得することができる。 In this way, the three-dimensional image data that is the basis of the printed image can be acquired based on the storage address information included in the read image data.
以上の構成により、印刷を行うことにより、失われてしまう3次元描画情報を紙面上に付加することが可能となる。したがって、紙面のスキャンのみでは今まで取得できなかった3次元描画情報を取得することが可能となり、紙面から取得した情報をさらに有効利用することが可能となる。 With the above configuration, three-dimensional drawing information that is lost by printing can be added on the sheet. Therefore, it is possible to acquire three-dimensional drawing information that could not be acquired up to now only by scanning the paper surface, and it is possible to further effectively use the information acquired from the paper surface.
また、印刷を行う際に失われてしまう3次元描画情報を、埋め込まれた所在情報の示す場所から、取得することが可能となる。 In addition, it is possible to acquire three-dimensional drawing information that is lost when printing is performed from the location indicated by the embedded location information.
また、印刷を行う3次元描画情報が、ドキュメント情報の保持するどの画像か識別が可能となり、3次元描画情報を取得することが可能となる。 In addition, it is possible to identify which image held by the document information is the three-dimensional drawing information to be printed, and it is possible to acquire the three-dimensional drawing information.
また、印刷を行う3次元描画情報が、ドキュメント情報の保持するどの画像か識別が可能となり、3次元描画情報を取得することが可能となる。 In addition, it is possible to identify which image held by the document information is the three-dimensional drawing information to be printed, and it is possible to acquire the three-dimensional drawing information.
また、埋め込み画像を探索する際に、規定の領域のみを検索すれば良くなるので、処理の高速化が実現できる。 In addition, when searching for an embedded image, it is only necessary to search for a specified area, so that the processing speed can be increased.
また、紙面上の画像をスキャンする際にも、印刷に伴って失われた3次元描画情報の再現が可能となり、また編集等の実現も可能となり、紙面から取得する情報のさらなる有効利用が可能となる。 In addition, when scanning an image on paper, it is possible to reproduce 3D drawing information lost with printing, and to enable editing, etc., enabling more effective use of information acquired from paper. It becomes.
また、2次元の描画情報に変換される前の元の3次元描画情報の取得が可能となり、スキャンして取得していた2次元描画情報だけでは実現できないスキャンした画像の編集や回転等の再利用が可能となる。 Also, it is possible to acquire the original three-dimensional drawing information before being converted into the two-dimensional drawing information, and it is possible to re-edit and rotate the scanned image that cannot be realized only by the two-dimensional drawing information acquired by scanning. It can be used.
また、特にスキャンして取得していた2次元描画情報だけでは実現できないスキャンした画像の編集や回転等の再利用が可能となる。 In addition, it is possible to reuse scanned images such as editing and rotation that cannot be realized only by the two-dimensional drawing information acquired by scanning.
また、スキャンして取得していた2次元描画情報だけでは実現できないスキャンした画像の編集や回転等の処理を行った画像を再度印刷することが可能となる。 In addition, it is possible to print again an image that has been subjected to processing such as editing and rotation of a scanned image that cannot be realized only by the two-dimensional drawing information acquired by scanning.
なお、本実施形態では3次元画像の操作として回転のみを説明したが、変形や色変換等、一般的な画像処理を行わせることもできる。 In the present embodiment, only rotation is described as the operation of the three-dimensional image, but general image processing such as deformation and color conversion can also be performed.
101 データ処理装置
102 画像記録装置
103 プリンタコントローラ
104 パネル部
105 プリンタエンジン
301 パネルI/F部
302 ホストI/F部
303 画像データ発生部
304 ROM
305 画像メモリ
306 エンジンI/F部
307 RAM
308 DMA制御部
309 CPU
310 EEPROM
311 ハードディスク
320 CPUバス
DESCRIPTION OF
305
308
310 EEPROM
311
Claims (10)
前記所在情報を、その内容を読み取り可能な形式の埋め込み画像データに変換する変換手段と、
前記3次元画像データを投影した2次元画像データを生成し、前記埋め込み画像データと関連付けた合成画像データを合成する合成画像生成手段と、
前記合成画像データに従って印刷させる手段と
を備えることを特徴とする印刷制御装置。 Acquisition means for acquiring location information indicating the location where the 3D image data is stored;
Conversion means for converting the location information into embedded image data in a format in which the contents can be read;
Composite image generation means for generating two-dimensional image data obtained by projecting the three-dimensional image data and combining composite image data associated with the embedded image data;
A printing control apparatus comprising: printing means according to the composite image data.
前記原稿画像の中から埋め込み画像を抽出する埋め込み画像抽出手段と、
前記埋め込み画像から埋め込まれた情報を復元する埋め込み情報復元手段と、
復元された埋め込み情報で示される3次元画像データの所在に基づいて、3次元画像データを獲得する獲得手段と、
前記3次元画像データを投影した2次元画像データを生成する生成手段と、
前記2次元画像データに従って印刷させる手段と
を備えることを特徴とする印刷制御装置。 Reading means for reading a document image;
Embedded image extraction means for extracting an embedded image from the document image;
Embedded information restoring means for restoring information embedded from the embedded image;
Acquisition means for acquiring three-dimensional image data based on the location of the three-dimensional image data indicated by the restored embedded information;
Generating means for generating two-dimensional image data obtained by projecting the three-dimensional image data;
A printing control apparatus comprising: means for printing according to the two-dimensional image data.
前記所在情報を、その内容を読み取り可能な形式の埋め込み画像データに変換する変換工程と、
前記3次元画像データを投影した2次元画像データを生成し、前記埋め込み画像データと関連付けた合成画像データを合成する合成画像生成工程と、
前記合成画像データに従って印刷させる工程と
を備えることを特徴とする印刷制御方法。 An acquisition step of acquiring location information indicating the location where the 3D image data is stored;
A conversion step for converting the location information into embedded image data in a format in which the content can be read;
Generating a two-dimensional image data obtained by projecting the three-dimensional image data, and combining a composite image data associated with the embedded image data;
And a step of printing according to the composite image data.
前記原稿画像の中から埋め込み画像を抽出する埋め込み画像抽出工程と、
前記埋め込み画像から埋め込まれた情報を復元する埋め込み情報復元工程と、
復元された埋め込み情報で示される3次元画像データの所在に基づいて、3次元画像データを獲得する獲得工程と、
前記3次元画像データを投影した2次元画像データを生成する生成工程と、
前記2次元画像データに従って印刷させる工程と
を備えることを特徴とする印刷制御方法。 A reading process for reading a document image;
An embedded image extraction step of extracting an embedded image from the document image;
An embedded information restoring step for restoring information embedded from the embedded image;
An acquisition step of acquiring 3D image data based on the location of the 3D image data indicated by the restored embedded information;
A generating step of generating two-dimensional image data obtained by projecting the three-dimensional image data;
Printing according to the two-dimensional image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004214614A JP2006041624A (en) | 2004-07-22 | 2004-07-22 | Print control apparatus and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004214614A JP2006041624A (en) | 2004-07-22 | 2004-07-22 | Print control apparatus and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006041624A true JP2006041624A (en) | 2006-02-09 |
Family
ID=35906182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004214614A Withdrawn JP2006041624A (en) | 2004-07-22 | 2004-07-22 | Print control apparatus and method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006041624A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008187599A (en) * | 2007-01-31 | 2008-08-14 | Fuji Xerox Co Ltd | Facsimile device, and its control program |
JP2009100262A (en) * | 2007-10-17 | 2009-05-07 | Fuji Xerox Co Ltd | Code information processing apparatus and code information processing program |
JP2009272796A (en) * | 2008-05-02 | 2009-11-19 | Canon Inc | Image forming apparatus |
US8705081B2 (en) | 2006-11-22 | 2014-04-22 | Fuji Xerox Co., Ltd. | System and method for including input method information on a printed document |
CN107031033A (en) * | 2017-05-10 | 2017-08-11 | 山东大学 | It is a kind of can 3D printing hollow out Quick Response Code model generating method and system |
CN108234800A (en) * | 2016-12-20 | 2018-06-29 | 株式会社东芝 | Image forming apparatus |
-
2004
- 2004-07-22 JP JP2004214614A patent/JP2006041624A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8705081B2 (en) | 2006-11-22 | 2014-04-22 | Fuji Xerox Co., Ltd. | System and method for including input method information on a printed document |
JP2008187599A (en) * | 2007-01-31 | 2008-08-14 | Fuji Xerox Co Ltd | Facsimile device, and its control program |
JP2009100262A (en) * | 2007-10-17 | 2009-05-07 | Fuji Xerox Co Ltd | Code information processing apparatus and code information processing program |
JP2009272796A (en) * | 2008-05-02 | 2009-11-19 | Canon Inc | Image forming apparatus |
CN108234800A (en) * | 2016-12-20 | 2018-06-29 | 株式会社东芝 | Image forming apparatus |
CN108234800B (en) * | 2016-12-20 | 2020-11-20 | 株式会社东芝 | Image forming apparatus with a toner supply device |
CN107031033A (en) * | 2017-05-10 | 2017-08-11 | 山东大学 | It is a kind of can 3D printing hollow out Quick Response Code model generating method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5195519B2 (en) | Document management apparatus, document processing system, and document management method | |
US8656276B2 (en) | Position information management system, image forming apparatus, position information management method and storage medium | |
JP2007174270A (en) | Image processing apparatus, image processing method, storage medium, and program | |
JP2006023945A (en) | Image processing system and image processing method | |
JP2007102545A (en) | Electronic document creation apparatus, electronic document creation method, and electronic document creation program | |
JP4502385B2 (en) | Image processing apparatus and control method thereof | |
JP2004265384A (en) | Image processing system, information processing device, control method, computer program, and computer-readable storage medium | |
JPH10285378A (en) | Copying device and control method therefor | |
JP2008146605A (en) | Image processor and its control method | |
JP2006270418A (en) | Image processor, and processing method | |
JP2009273025A (en) | Image processing apparatus, image processing method, image processing program, and recording medium with the same recorded | |
JP2008109394A (en) | Image processor, its method, and program | |
US20060221383A1 (en) | Electronic document management system, image forming device, printing medium, method of managing electronic document, and program | |
JP5006764B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP4673200B2 (en) | Print processing system and print processing method | |
JP2009271792A (en) | Image processor and method of controlling the same | |
JP2006041624A (en) | Print control apparatus and method thereof | |
JP2008148263A (en) | Image forming apparatus, and its control method | |
JP2005111852A (en) | Imaging device, printing control method and program | |
JP4692265B2 (en) | Printing instruction apparatus, printing apparatus, printing system, and program | |
JP2006202197A (en) | Image management system | |
JP2007142986A (en) | Image processor and image processing method | |
JP2007334437A (en) | Image processor and image processing method, program and storage medium | |
JP2006115461A (en) | Image forming apparatus, image composite method and program therefor | |
JP2006293970A (en) | Image processor, image processing method and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071002 |