JP2017004076A - Information processing apparatus, image formation system and image formation apparatus - Google Patents

Information processing apparatus, image formation system and image formation apparatus Download PDF

Info

Publication number
JP2017004076A
JP2017004076A JP2015114441A JP2015114441A JP2017004076A JP 2017004076 A JP2017004076 A JP 2017004076A JP 2015114441 A JP2015114441 A JP 2015114441A JP 2015114441 A JP2015114441 A JP 2015114441A JP 2017004076 A JP2017004076 A JP 2017004076A
Authority
JP
Japan
Prior art keywords
image
forming apparatus
image forming
image data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015114441A
Other languages
Japanese (ja)
Other versions
JP6507865B2 (en
Inventor
泰成 原田
Yasunari Harada
泰成 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015114441A priority Critical patent/JP6507865B2/en
Publication of JP2017004076A publication Critical patent/JP2017004076A/en
Application granted granted Critical
Publication of JP6507865B2 publication Critical patent/JP6507865B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Printers Characterized By Their Purpose (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Facsimiles In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus which can resume image formation even when a user erroneously floats a hand-held printer in printing, and which suppresses cost increase.SOLUTION: An information processing apparatus (image data output apparatus 11) which can communicate with an image formation apparatus (hand-held printer 20) forming an image on the basis of image data while moving on a recording medium comprises: an imaging unit 52 which acquires imaging data in which a position detection mark formed on the recording medium is imaged; a mark detection unit 53 which detects the image formation apparatus and formed image from the imaging data; a position decision unit 55 which estimates the position of the image formation apparatus on the recording medium by using the image data used for formation of the formed image and the relative position of the image formation apparatus with respect to the formed image detected by the mark detection unit; and a transmission/reception unit 51 which transmits the position estimated by the position estimation means to the image formation apparatus.SELECTED DRAWING: Figure 6

Description

本発明は、情報処理装置、画像形成システム及び画像形成装置に関する。   The present invention relates to an information processing apparatus, an image forming system, and an image forming apparatus.

用紙を搬送させて用紙が画像の形成位置に到達したタイミングでインクなどを吐出して画像を形成するプリンタ装置が知られている。これに対し、プリンタ装置から紙搬送システムを削除することで小型化されたプリンタ装置(以下、ハンドヘルドプリンタという)が実用化されつつある。   There is known a printer device that forms an image by ejecting ink or the like at a timing when the sheet is conveyed and the sheet reaches an image forming position. On the other hand, a printer device (hereinafter referred to as a handheld printer) reduced in size by deleting the paper transport system from the printer device is being put into practical use.

図1は、ハンドヘルドプリンタ20による画像形成を模式的に示す図の一例である。ハンドヘルドプリンタ20には、例えばスマートフォンやPC(Personal Computer)等の画像データ出力器11から画像データが送信される。ユーザはこのハンドヘルドプリンタ20を把持して、印刷媒体12(例えば定型用紙やノートなど)上をフリーハンドで走査させる。ハンドヘルドプリンタ20は位置検出機構を有しているため、ハンドヘルドプリンタ20が目標吐出位置に移動すると、目標吐出位置で吐出すべき色のインクを吐出する。すでにインクを吐出した場所はマスクされるので(インクの吐出の対象とならないので)、ユーザは印刷媒体12上で任意の方向にハンドヘルドプリンタ20を走査させることで画像を形成できる。   FIG. 1 is an example of a diagram schematically illustrating image formation by the handheld printer 20. Image data is transmitted to the handheld printer 20 from an image data output device 11 such as a smartphone or a PC (Personal Computer). The user holds the handheld printer 20 and scans the print medium 12 (for example, standard paper or notebook) with a freehand. Since the handheld printer 20 has a position detection mechanism, when the handheld printer 20 moves to the target discharge position, ink of a color to be discharged at the target discharge position is discharged. Since the area where ink has already been ejected is masked (because it is not a target for ink ejection), the user can form an image by scanning the handheld printer 20 in any direction on the print medium 12.

しかしながら、ハンドヘルドプリンタ20の走査はユーザに委ねられるため、ユーザが誤って印刷媒体12からハンドヘルドプリンタ20を浮かしてしまう場合がある。この場合、ハンドヘルドプリンタ20が検出する位置が正確でなくなるおそれがある。また、ユーザが仕様よりも高速にハンドヘルドプリンタ20を走査させる場合があり、この場合も上記位置が正確でなくなるおそれがある。これらの場合、ハンドヘルドプリンタ20が現在の位置を見失って、画像形成を再開することが困難になる。   However, since scanning of the handheld printer 20 is left to the user, the user may accidentally lift the handheld printer 20 from the print medium 12. In this case, the position detected by the handheld printer 20 may not be accurate. In addition, the user may scan the handheld printer 20 at a speed higher than the specification. In this case, the position may not be accurate. In these cases, it becomes difficult for the handheld printer 20 to lose sight of the current position and resume image formation.

このような不都合に対し、現在の位置を再認識するハンドヘルドプリンタ20が考案されている(例えば、特許文献1参照。)。特許文献1には、見えないインクで定期的に位置情報を印字し、現在の位置を見失った場合にはスキャナユニットで位置情報を読み取り、現在の位置を認識して画像形成を再開するハンドヘルドプリンタが開示されている。   For such inconvenience, a handheld printer 20 that re-recognizes the current position has been devised (see, for example, Patent Document 1). Patent Document 1 discloses a handheld printer that periodically prints position information with invisible ink, reads the position information with a scanner unit when the current position is lost, recognizes the current position, and resumes image formation. Is disclosed.

しかしながら、特許文献1に記載されたハンドヘルドプリンタでは、見えないインクを吐出するユニットやスキャナユニットを搭載する必要があるため、コスト増をもたらすという問題がある。また、重くなったり筐体が大きくなったりするため、操作性が低下するおそれもある。   However, the handheld printer described in Patent Document 1 has a problem of increasing costs because it is necessary to mount a unit for ejecting invisible ink and a scanner unit. In addition, the operability may be reduced due to the increase in weight and the size of the housing.

本発明は、上記課題に鑑み、コスト増等を抑制して画像形成を再開することができる情報処理装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an information processing apparatus capable of resuming image formation while suppressing an increase in cost.

上記課題に鑑み、本発明は、印刷媒体上の位置を移動しながら画像データに基づき画像を形成する画像形成装置と通信可能な情報処理装置であって、前記画像形成装置及び前記画像形成装置が印刷媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、前記撮像データから前記画像形成装置及び前記形成画像を検出する画像処理手段と、前記形成画像の形成に用いられた前記画像データ、及び、前記画像処理手段が検出した前記形成画像に対する前記画像形成装置の相対位置を用いて、前記画像形成装置の印刷媒体上の前記位置を推定する位置推定手段と、前記位置推定手段が推定した前記位置を前記画像形成装置に送信する送信手段と、を有する。   In view of the above problems, the present invention provides an information processing apparatus capable of communicating with an image forming apparatus that forms an image based on image data while moving a position on a print medium, wherein the image forming apparatus and the image forming apparatus are Used for forming the formed image, an acquisition unit that acquires imaging data in which a formed image formed on a print medium is captured, an image processing unit that detects the image forming apparatus and the formed image from the imaged data, and Position estimation means for estimating the position of the image forming apparatus on the print medium using the image data and a relative position of the image forming apparatus with respect to the formed image detected by the image processing means; and the position estimation Transmitting means for transmitting the position estimated by the means to the image forming apparatus.

コスト増等を抑制して画像形成を再開することができる情報処理装置を提供することができる。   It is possible to provide an information processing apparatus capable of suppressing the increase in cost and the like and restarting image formation.

ハンドヘルドプリンタによる画像形成を模式的に示す図の一例である。It is an example of the figure which shows typically image formation by a handheld printer. ハンドヘルドプリンタが見失った現在の位置を取得する手順の概略を説明する図の一例である。It is an example of the figure explaining the outline of the procedure which acquires the present position which the handheld printer lost sight of. 画像形成システムのシステム構成図の一例である。1 is an example of a system configuration diagram of an image forming system. 画像データ出力器とハンドヘルドプリンタのハードウェア構成図の一例である。It is an example of the hardware block diagram of an image data output device and a handheld printer. 制御部の構成を説明する図の一例である。It is an example of the figure explaining the structure of a control part. 画像データ出力器とハンドヘルドプリンタの機能ブロック図の一例である。It is an example of a functional block diagram of an image data output device and a handheld printer. IJ記録ヘッドにおけるノズル位置等を説明する図の一例である。FIG. 3 is an example of a diagram illustrating nozzle positions and the like in an IJ recording head. ハンドヘルドプリンタの位置を説明する図の一例である。It is an example of the figure explaining the position of a handheld printer. ハンドヘルドプリンタの上面図における位置検出マークの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the position detection mark in the top view of a handheld printer. 位置検出マークとナビゲーションセンサの相対位置を示す図の一例である。It is an example of the figure which shows the relative position of a position detection mark and a navigation sensor. 撮像データにおけるハンドヘルドプリンタの位置を説明する図の一例である。It is an example of the figure explaining the position of the handheld printer in imaging data. 画像データに対する照合用画像を用いたパターンマッチングを模式的に説明する図の一例である。It is an example of the figure which illustrates the pattern matching using the image for collation with respect to image data typically. 表示装置に表示された問い合わせ画面の一例を示す図である。It is a figure which shows an example of the inquiry screen displayed on the display apparatus. 照合用画像の辺の長さに着目したパターンマッチングの一例を示す図である。It is a figure which shows an example of the pattern matching which paid its attention to the length of the edge | side of the image for collation. 画像データにおけるハンドヘルドプリンタの位置を説明する図の一例である。It is an example of the figure explaining the position of the handheld printer in image data. 画像形成システムの動作手順を示すフローチャート図の一例である。FIG. 3 is an example of a flowchart illustrating an operation procedure of the image forming system. 画像データ出力器の機能ブロック図の一例である(実施例2)。(Example 2) which is an example of the functional block diagram of an image data output device. 撮像データの歪みを説明する図の一例である。It is an example of the figure explaining distortion of imaging data. 変換前と後の照合用画像をそれぞれ示す図の一例である。It is an example of the figure which each shows the image for collation before and after conversion. ハンドヘルドプリンタと配置された非正面マークの一例を示す図である。It is a figure which shows an example of the non-front mark arrange | positioned with a handheld printer. 画像データ出力器によるハンドヘルドプリンタの撮像を模式的に説明する図の一例である。It is an example of the figure which illustrates typically imaging of a handheld printer by an image data output device. 画像データ出力器の撮像手順を示すフローチャート図の一例である(実施例3)。(Example 3) which is an example of the flowchart figure which shows the imaging procedure of an image data output device. 画像データ出力器の撮像手順を示すフローチャート図の一例である(実施例4)。(Example 4) which is an example of the flowchart figure which shows the imaging procedure of an image data output device.

以下、本発明を実施するための形態について図面を参照しながら実施例を挙げて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<ハンドヘルドプリンタの位置の取得の概略>
まず、図2を用いてハンドヘルドプリンタ20が現在の位置を見失った際に、現在の位置を取得する手順の概略を説明する。図2は、ハンドヘルドプリンタ20が見失った現在の位置を取得する手順の概略を説明する図の一例である。
(i) 図2(a)に示すように、ユーザは印刷媒体(記録媒体の一例)上でハンドヘルドプリンタ20を走査させて画像を形成させる。そして、画像を全て形成するまでに、ハンドヘルドプリンタ20が現在の位置を見失ったものとする。
(ii)ユーザはハンドヘルドプリンタ20の状態をLEDランプや警報音で把握する。すると、ユーザは印刷媒体12の適当な場所にハンドヘルドプリンタ20を置いて、画像データ出力器11でハンドヘルドプリンタ20と印刷媒体12を撮像する(図2(b))。ここで、ハンドヘルドプリンタ20には予め位置検出マークM1,M2(第一マークの一例)が形成されている。
(iii) 図2(c)の左図は撮像されたハンドヘルドプリンタ20と印刷媒体12の撮像データ14である。画像データ出力器11は、撮像データ14からハンドヘルドプリンタ20の位置検出マークM1,M2を検出する。また、画像データ出力器11はハンドヘルドプリンタ20の周囲又は近くの画像(以下、照合用画像14aという)を撮像データ14から取得する。そして、画像データ出力器11は、画像形成に使用した画像データ13から照合用画像14aと一致する一致画像13aを探索する(パターンマッチングする)。
(iv) 図2(d)は画像データ13を示す。図2(c)に示したように撮像データ14において照合用画像14aに対する位置検出マークM1,M2の相対位置が分かっているので、画像データ13においても一致画像13aに対する位置検出マークM1,M2の相対位置を特定できる。つまり、画像データ13におけるハンドヘルドプリンタ20の位置を特定できる。
(v) 画像データ出力器11は、ハンドヘルドプリンタ20の位置(又は、位置検出マークM1,M2の位置のそのもの)をハンドヘルドプリンタ20に送信する。これにより、図2(e)に示すように、ハンドヘルドプリンタ20は現在の位置を取得して画像形成を再開できる。
<Outline of acquisition of handheld printer position>
First, an outline of a procedure for acquiring the current position when the handheld printer 20 loses sight of the current position will be described with reference to FIG. FIG. 2 is an example of a diagram illustrating an outline of a procedure for acquiring the current position that the handheld printer 20 has lost.
(i) As shown in FIG. 2A, the user scans the handheld printer 20 on a print medium (an example of a recording medium) to form an image. It is assumed that the handheld printer 20 has lost sight of the current position before all the images are formed.
(ii) The user grasps the state of the handheld printer 20 with an LED lamp or an alarm sound. Then, the user places the handheld printer 20 at an appropriate location on the print medium 12, and images the handheld printer 20 and the print medium 12 with the image data output device 11 (FIG. 2B). Here, position detection marks M1 and M2 (an example of a first mark) are formed in the handheld printer 20 in advance.
(iii) The left diagram in FIG. 2C shows the imaged data 14 of the handheld printer 20 and the print medium 12 that have been imaged. The image data output device 11 detects the position detection marks M1 and M2 of the handheld printer 20 from the imaging data 14. Further, the image data output unit 11 acquires an image around the handheld printer 20 or near the image (hereinafter referred to as a collation image 14 a) from the imaging data 14. Then, the image data output unit 11 searches for a matching image 13a that matches the matching image 14a from the image data 13 used for image formation (pattern matching).
(iv) FIG. 2D shows the image data 13. As shown in FIG. 2C, since the relative positions of the position detection marks M1, M2 with respect to the matching image 14a are known in the imaging data 14, the position detection marks M1, M2 with respect to the coincidence image 13a also in the image data 13. The relative position can be specified. That is, the position of the handheld printer 20 in the image data 13 can be specified.
(v) The image data output device 11 transmits the position of the handheld printer 20 (or the position of the position detection marks M1 and M2 itself) to the handheld printer 20. As a result, as shown in FIG. 2E, the handheld printer 20 can acquire the current position and resume image formation.

したがって、本実施形態のハンドヘルドプリンタ20は位置を見失っても、コスト増等を抑制して、位置を取得し画像形成を再開できる。   Therefore, even if the handheld printer 20 of the present embodiment loses sight of the position, it can suppress the increase in cost, acquire the position, and resume image formation.

<用語について>
本実施形態で使用される用語について説明する。
画像データは、画像形成に用いられるデータであり、画像データ出力器が保持している。
撮像データは、印刷媒体12とハンドヘルドプリンタ20が撮像されたデータである。
<Terminology>
Terms used in this embodiment will be described.
Image data is data used for image formation, and is held by an image data output device.
The imaging data is data obtained by imaging the print medium 12 and the handheld printer 20.

ハンドヘルドプリンタ20が位置を見失うとは、現在の位置を算出できないことや極度に不正確となることをいう。要因としては、用紙からハンドヘルドプリンタ20が浮いてしまうことや、ユーザが仕様よりも高速にハンドヘルドプリンタ20を走査させることなどがあるが、本実施形態では要因は制限されない。   The loss of the position of the handheld printer 20 means that the current position cannot be calculated or that the position is extremely inaccurate. Factors include the fact that the handheld printer 20 floats from the paper and that the user scans the handheld printer 20 at a speed higher than the specification. However, in this embodiment, the factor is not limited.

印刷媒体12は例えば定形用紙やノートなどであるが、これらに限られるわけではなく、机などの固定物を印刷媒体12としてもよいし、紙以外のシート状部材を印刷媒体12としてもよい。また、印刷媒体12は必ずしも水平に配置されていなくてもよい。   The print medium 12 is, for example, a standard paper or a notebook, but is not limited thereto, and a fixed object such as a desk may be used as the print medium 12, or a sheet-like member other than paper may be used as the print medium 12. Further, the print medium 12 is not necessarily arranged horizontally.

<構成例>
図3は、画像形成システム1のシステム構成図の一例を示す。図3(a)の画像形成システム1は、互いに通信可能な画像データ出力器11とハンドヘルドプリンタ20を有している。このようなシステム構成では、画像データ出力器11が画像データ13をハンドヘルドプリンタ20に送信し、さらにハンドヘルドプリンタ20が位置を見失った場合は画像データ出力器11がハンドヘルドプリンタ20と印刷媒体12を撮像する。画像データ出力器11は、撮像データ14からハンドヘルドプリンタ20の位置を検出してハンドヘルドプリンタ20に送信する。
<Configuration example>
FIG. 3 shows an example of a system configuration diagram of the image forming system 1. The image forming system 1 in FIG. 3A includes an image data output device 11 and a handheld printer 20 that can communicate with each other. In such a system configuration, the image data output unit 11 transmits the image data 13 to the handheld printer 20, and when the handheld printer 20 loses its position, the image data output unit 11 captures the handheld printer 20 and the print medium 12. To do. The image data output unit 11 detects the position of the handheld printer 20 from the imaging data 14 and transmits it to the handheld printer 20.

また、図3(a)のシステム構成において、ハンドヘルドプリンタ20がハンドヘルドプリンタ20の位置を検出してもよい。この場合、画像データ出力器11は撮像データ14をハンドヘルドプリンタ20に送信する。ハンドヘルドプリンタ20は少なくとも一部の画像データ13を保持しているが、必要であれば画像データ出力器11から画像データ13の全体を取得する。ハンドヘルドプリンタ20は、画像データ出力器11と同様にハンドヘルドプリンタ20の位置を検出する。   In the system configuration of FIG. 3A, the handheld printer 20 may detect the position of the handheld printer 20. In this case, the image data output device 11 transmits the imaging data 14 to the handheld printer 20. The handheld printer 20 holds at least a part of the image data 13, but acquires the entire image data 13 from the image data output unit 11 if necessary. The handheld printer 20 detects the position of the handheld printer 20 in the same manner as the image data output device 11.

図3(b)の画像形成システム1は画像データ出力器11、ハンドヘルドプリンタ20及び撮像装置8を有している。このようなシステム構成では、ハンドヘルドプリンタ20が位置を見失った場合、撮像装置8がハンドヘルドプリンタ20と印刷媒体12を撮像する。撮像装置8は撮像データ14を画像データ出力器11に送信するので、画像データ出力器11は、撮像データ14からハンドヘルドプリンタ20の位置を検出してハンドヘルドプリンタ20に送信する。   The image forming system 1 in FIG. 3B includes an image data output device 11, a handheld printer 20, and an imaging device 8. In such a system configuration, when the handheld printer 20 loses its position, the imaging device 8 images the handheld printer 20 and the print medium 12. Since the imaging device 8 transmits the imaging data 14 to the image data output device 11, the image data output device 11 detects the position of the handheld printer 20 from the imaging data 14 and transmits it to the handheld printer 20.

また、この場合もハンドヘルドプリンタ20がハンドヘルドプリンタ20の位置を検出してもよい。この場合、撮像装置8は撮像データ14をハンドヘルドプリンタ20に送信する(画像データ出力器11を経由して送信してもよい)。ハンドヘルドプリンタ20は図3(a)と同様にハンドヘルドプリンタ20の位置を検出する。   Also in this case, the handheld printer 20 may detect the position of the handheld printer 20. In this case, the imaging device 8 transmits the imaging data 14 to the handheld printer 20 (may be transmitted via the image data output unit 11). The handheld printer 20 detects the position of the handheld printer 20 as in FIG.

また、撮像装置8がハンドヘルドプリンタ20の位置を検出してもよい。この場合、撮像装置8は画像データ出力器11から画像データ13を取得して、ハンドヘルドプリンタ20の位置を検出する。撮像装置8は検出した位置をハンドヘルドプリンタ20に送信する。   Further, the imaging device 8 may detect the position of the handheld printer 20. In this case, the imaging device 8 acquires the image data 13 from the image data output device 11 and detects the position of the handheld printer 20. The imaging device 8 transmits the detected position to the handheld printer 20.

本実施形態の画像形成システム1では、このように画像データ13と撮像データ14を取得した装置であれば、ハンドヘルドプリンタ20の位置を検出できる。したがって、図3(c)に示すように、画像データ出力器11が画像データ13と撮像データ14をサーバ9に送信することで、サーバ9がハンドヘルドプリンタ20の位置を検出してもよい。サーバ9は検出した位置を画像データ出力器11に送信し、画像データ出力器11はこの位置をハンドヘルドプリンタ20に送信する。   In the image forming system 1 of the present embodiment, the position of the handheld printer 20 can be detected as long as the apparatus acquires the image data 13 and the imaging data 14 as described above. Therefore, as illustrated in FIG. 3C, the server 9 may detect the position of the handheld printer 20 by the image data output unit 11 transmitting the image data 13 and the imaging data 14 to the server 9. The server 9 transmits the detected position to the image data output unit 11, and the image data output unit 11 transmits this position to the handheld printer 20.

以下では、説明の便宜上、画像データ出力器11がハンドヘルドプリンタ20の位置を検出するものとして説明する。   Hereinafter, for convenience of explanation, it is assumed that the image data output unit 11 detects the position of the handheld printer 20.

なお、画像データ出力器11は、情報処理装置である。例えばスマートフォン、PC(Personal Computer)、タブレット端末、PDA(Personal Digital Assitant)、携帯電話又はウェアラブルPCなどである。あるいは、MFP(Multifunctional Peripheral/Printer/Product)、各種のカメラ、電子黒板、ゲーム機器、カーナビゲーション端末、プロジェクタなどでもよい。   Note that the image data output unit 11 is an information processing apparatus. For example, a smart phone, a PC (Personal Computer), a tablet terminal, a PDA (Personal Digital Assitant), a mobile phone, or a wearable PC. Alternatively, an MFP (Multifunctional Peripheral / Printer / Product), various cameras, an electronic blackboard, a game device, a car navigation terminal, a projector, or the like may be used.

<<ハードウェア構成>>
図4を用いて画像データ出力器11とハンドヘルドプリンタ20のハードウェア構成について説明する。画像データ出力器11は、例えば図4に示すようなハードウェア構成により実現される。画像データ出力器11は、入力装置101、表示装置102、外部I/F103、カメラ110、RAM104、ROM105、CPU106、通信I/F107、SSD(Solid State Drive)108、及び近距離無線通信装置109などを備え、それぞれがバスBで相互に接続されている。
<< Hardware configuration >>
The hardware configuration of the image data output device 11 and the handheld printer 20 will be described with reference to FIG. The image data output unit 11 is realized by a hardware configuration as shown in FIG. The image data output unit 11 includes an input device 101, a display device 102, an external I / F 103, a camera 110, a RAM 104, a ROM 105, a CPU 106, a communication I / F 107, an SSD (Solid State Drive) 108, a short-range wireless communication device 109, and the like. Are connected to each other via a bus B.

入力装置101は、例えば、タッチパネルであり、画像データ出力器11に各操作信号を入力するのに用いられる。なお、入力装置101は、キーボードやマウスなどであってもよい。表示装置102は、例えば、LCD(Liquid Crystal Display)などであり、画像データ出力器11による処理結果を表示する。   The input device 101 is a touch panel, for example, and is used to input each operation signal to the image data output unit 11. The input device 101 may be a keyboard or a mouse. The display device 102 is, for example, an LCD (Liquid Crystal Display) or the like, and displays a processing result by the image data output unit 11.

外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。記録媒体103aには、本実施形態の機能を実現するためのプログラム(後述する出力器用プログラム)を格納することができる。画像データ出力器11は外部I/F103を介して、記録媒体103aの読み取り及び/又は書き込みを行うことができる。   The external I / F 103 is an interface with an external device. The external device includes a recording medium 103a. The recording medium 103a can store a program (an output device program to be described later) for realizing the functions of the present embodiment. The image data output device 11 can read and / or write to the recording medium 103 a via the external I / F 103.

記録媒体103aは、例えば、SDメモリカード(SD Memory card)などの記録媒体である。記録媒体103aは、USBメモリ(Universal Serial Bus memory)、DVD(Digital Versatile Disk)、CD(Compact Disk)、フレキシブルディスクなどの記録媒体であってもよい。   The recording medium 103a is a recording medium such as an SD memory card. The recording medium 103a may be a recording medium such as a USB memory (Universal Serial Bus memory), a DVD (Digital Versatile Disk), a CD (Compact Disk), or a flexible disk.

カメラ110は、像を結像させるレンズ、絞り、CMOSやCCDなどの撮像素子などを備えた撮像装置である。静止画だけでなく動画を撮像できる。   The camera 110 is an image pickup apparatus including a lens for forming an image, an aperture, an image pickup device such as a CMOS or a CCD. It can capture moving images as well as still images.

RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。ROM105は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、画像データ出力器11の起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。   The RAM 104 is a volatile semiconductor memory (storage device) that temporarily stores programs and data. The ROM 105 is a nonvolatile semiconductor memory (storage device) that can retain programs and data even when the power is turned off. The ROM 105 stores programs and data such as BIOS (Basic Input / Output System), OS settings, and network settings that are executed when the image data output device 11 is started.

CPU106は、ROM105やSSD108などの記憶装置からプログラムやデータをRAM104上に読み出し、処理を実行することで、画像データ出力器11全体の制御や機能を実現する演算装置である。   The CPU 106 is an arithmetic unit that realizes control and functions of the entire image data output unit 11 by reading a program and data from a storage device such as the ROM 105 and the SSD 108 onto the RAM 104 and executing processing.

通信I/F107は、通信を行うためのインタフェースである。通信I/F107は、例えばBluetooth(登録商標)や無線LANなどの通信規格でハンドヘルドプリンタ20と通信する。なお、アクセスポイントを介さない無線LANの通信規格として、Wi−Fi Direct、アドホックモードなどがある。なお、通信I/F107は、携帯電話網に接続するためのインタフェースであってもよい。   The communication I / F 107 is an interface for performing communication. The communication I / F 107 communicates with the handheld printer 20 using a communication standard such as Bluetooth (registered trademark) or wireless LAN. Note that there are Wi-Fi Direct, ad hoc mode, and the like as wireless LAN communication standards that do not use an access point. The communication I / F 107 may be an interface for connecting to a mobile phone network.

SSD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、例えば画像データ出力器11全体を制御する基本ソフトウェアであるOS(Operating System)や、OS上において各種機能を提供するアプリケーションソフトウェア(後述する出力器用プログラムが含まれる)などがある。なお、画像データ出力器11は、SSD108の代わりに又はSSD108と併せて、HDD(Hard Disk Drive)等を備えていてもよい。   The SSD 108 is a nonvolatile storage device that stores programs and data. The stored programs and data include, for example, an OS (Operating System) that is basic software for controlling the entire image data output device 11, and application software that provides various functions on the OS (including an output device program to be described later). and so on. Note that the image data output device 11 may include an HDD (Hard Disk Drive) or the like instead of the SSD 108 or in combination with the SSD 108.

近距離無線通信装置109は、例えば、NFC(Near Field Communication)やTransferJet(登録商標)などのICチップを用いた通信規格にしたがって通信する。画像データ出力器11は、通信I/Fや近距離無線通信装置109を用いてハンドヘルドプリンタ20に画像データ13を送信する。この場合、ハンドヘルドプリンタ20もICチップによる通信が可能である。   The short-range wireless communication device 109 performs communication according to a communication standard using an IC chip such as NFC (Near Field Communication) or TransferJet (registered trademark), for example. The image data output device 11 transmits the image data 13 to the handheld printer 20 using the communication I / F or the short-range wireless communication device 109. In this case, the handheld printer 20 can also communicate with the IC chip.

続いて、図4を用いてハンドヘルドプリンタ20のハードウェア構成について説明する。ハンドヘルドプリンタ20は、印刷媒体12に画像を形成する画像形成装置の一例である。ハンドヘルドプリンタ20は、制御部25によって全体の動作が制御され、制御部25には通信I/F27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、及び、ナビゲーションセンサ30が電気的に接続されている。また、ハンドヘルドプリンタ20は電力により駆動されるため、電源22と電源回路21を有している。電源回路21が生成する電力は、点線22aで示す配線などにより、通信I/F27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、IJ記録ヘッド24、制御部25、及び、ナビゲーションセンサ30に供給されている。   Next, the hardware configuration of the handheld printer 20 will be described with reference to FIG. The handheld printer 20 is an example of an image forming apparatus that forms an image on the print medium 12. The entire operation of the handheld printer 20 is controlled by a control unit 25, and a communication I / F 27, an IJ recording head drive circuit 23, an OPU 26, a ROM 28, a DRAM 29, and a navigation sensor 30 are electrically connected to the control unit 25. ing. Further, since the handheld printer 20 is driven by electric power, it has a power supply 22 and a power supply circuit 21. The power generated by the power supply circuit 21 is transmitted to the communication I / F 27, the IJ recording head drive circuit 23, the OPU 26, the ROM 28, the DRAM 29, the IJ recording head 24, the control unit 25, and the navigation sensor 30 through a wiring indicated by a dotted line 22a. Have been supplied.

電源22は主に電池(バッテリー)が利用される。太陽電池や商用電源(交流電源)、燃料電池等が用いられてもよい。電源回路21は、電源22が供給する電力をハンドヘルドプリンタ20の各部に分配する。また、電源22の電圧を各部に適した電圧に降圧や昇圧する。また、電源22が電池で充電可能である場合、電源回路21は交流電源の接続を検出して電池の充電回路に接続し、電源22の充電を可能にする。   The power source 22 is mainly a battery. A solar cell, a commercial power source (AC power source), a fuel cell, or the like may be used. The power supply circuit 21 distributes the power supplied from the power supply 22 to each part of the handheld printer 20. Further, the voltage of the power supply 22 is stepped down or boosted to a voltage suitable for each part. In addition, when the power source 22 can be charged by a battery, the power source circuit 21 detects the connection of the AC power source and connects it to the battery charging circuit so that the power source 22 can be charged.

通信I/F27は、スマートフォンやPC等の画像データ出力器11から画像データの受信等を行う。通信I/F27は例えば無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、赤外線、3G(携帯電話)、又は、LTE(Long Term Evolution)等の通信規格に対応した通信装置である。また、このような無線通信の他、有線LAN、USBケーブルなどを用いた有線通信に対応した通信装置であってもよい。   The communication I / F 27 receives image data from the image data output device 11 such as a smartphone or a PC. The communication I / F 27 is a communication device that supports communication standards such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), infrared, 3G (mobile phone), or LTE (Long Term Evolution). In addition to such wireless communication, a communication device that supports wired communication using a wired LAN, a USB cable, or the like may be used.

ROM28は、ハンドヘルドプリンタ20のハードウェア制御を行うファームウェアや、IJ記録ヘッド24の駆動波形データ(液滴を吐出するための電圧変化を規定するデータ)や、ハンドヘルドプリンタ20の初期設定データ等を格納している。   The ROM 28 stores firmware for controlling the hardware of the handheld printer 20, drive waveform data of the IJ recording head 24 (data defining voltage change for discharging droplets), initial setting data of the handheld printer 20, and the like. doing.

DRAM29は通信I/F27が受信した画像データを記憶したり、ROM28から展開されたファームウェアの格納のために使用される。したがって、CPU31がファームウェアを実行する際のワークメモリとして使用される。   The DRAM 29 is used for storing image data received by the communication I / F 27 and storing firmware developed from the ROM 28. Therefore, it is used as a work memory when the CPU 31 executes firmware.

ナビゲーションセンサ30は、ハンドヘルドプリンタ20の位置を検出するセンサである。ナビゲーションセンサ30は、例えば、発光ダイオード(LED)やレーザ等の光源と、印刷媒体12を撮像する撮像センサ、又は、入反射光の干渉縞を撮像するセンサを有している。ハンドヘルドプリンタ20が印刷媒体12上を走査されると、印刷媒体12の微小なエッジが次々に検出され(撮像され)エッジ間の距離を解析することで移動量が得られる。ナビゲーションセンサ30は、ハンドヘルドプリンタ20の少なくとも2箇所に搭載されている。両者を区別する場合、ナビゲーションセンサS0,S1という。なお、ナビゲーションセンサ30として、さらに多軸の加速度センサやジャイロセンサ等を用いてもよく、加速度センサやジャイロセンサのみでハンドヘルドプリンタ20の位置を検出してもよい。   The navigation sensor 30 is a sensor that detects the position of the handheld printer 20. The navigation sensor 30 includes, for example, a light source such as a light emitting diode (LED) or a laser, an image sensor that images the print medium 12, or a sensor that images interference fringes of incident / reflected light. When the handheld printer 20 is scanned over the print medium 12, minute edges of the print medium 12 are detected (imaged) one after another, and the amount of movement is obtained by analyzing the distance between the edges. The navigation sensor 30 is mounted in at least two places of the handheld printer 20. When distinguishing both, it is called navigation sensor S0, S1. Further, as the navigation sensor 30, a multi-axis acceleration sensor, a gyro sensor, or the like may be used, or the position of the handheld printer 20 may be detected only by the acceleration sensor or the gyro sensor.

OPU(Operation panel Unit)26は、ハンドヘルドプリンタ20の状態を表示するLED、ユーザがハンドヘルドプリンタ20に画像形成を指示するためのスイッチ等を有している。ただし、これに限定するものではなく、液晶ディスプレイを有していてよく、さらにタッチパネルを有していてもよい。また、音声入力機能を有していてもよい。   An OPU (Operation panel Unit) 26 has an LED for displaying the state of the handheld printer 20, a switch for the user to instruct the handheld printer 20 to form an image, and the like. However, the present invention is not limited to this, and may have a liquid crystal display and may further have a touch panel. Further, it may have a voice input function.

IJ記録ヘッド駆動回路23は上記の駆動波形データを用いて、IJ記録ヘッド24を駆動するための駆動波形(電圧)を生成する。インクの液滴のサイズなどに応じた駆動波形を生成できる。   The IJ recording head driving circuit 23 generates a driving waveform (voltage) for driving the IJ recording head 24 using the above driving waveform data. A drive waveform corresponding to the ink droplet size can be generated.

IJ記録ヘッド24は、インクを吐出するためのヘッドである。図ではCMYKの4色のインクを吐出可能になっているが、単色でもよく5色以上の吐出が可能でもよい。各色ごとに一列(二列以上でもよい)に並んだ複数のインク吐出用のノズル(後述する)が配置されている。また、インクの吐出方式はピエゾ方式でもサーマル方式でもよく、この他の方式でもよい。   The IJ recording head 24 is a head for ejecting ink. In the figure, four colors of CMYK ink can be ejected, but it may be a single color or ejecting five or more colors. A plurality of ink ejection nozzles (described later) arranged in a row (may be two or more rows) for each color. Further, the ink ejection method may be a piezo method or a thermal method, or any other method.

制御部25は、ナビゲーションセンサ30が検出する移動量を元に、IJ記録ヘッド24の各ノズルの位置、該位置に応じて形成する画像の決定、吐出ノズル可否判定(ノズルの位置が目標吐出位置から所定範囲内かどうかの判定)等を行う。制御部25について詳細は次述する。   Based on the amount of movement detected by the navigation sensor 30, the control unit 25 determines the position of each nozzle of the IJ recording head 24, determines the image to be formed according to the position, determines whether or not the discharge nozzle is available (the nozzle position is the target discharge position). To determine whether it is within a predetermined range). Details of the control unit 25 will be described below.

図5は、制御部25の構成を説明する図の一例である。制御部25はSoC50とASIC/FPGA40を有している。SoC50とASIC/FPGA40はバス45,46を介して通信する。ASIC/FPGA40はどちらの実装技術で設計されてもよいことを意味し、ASIC/FPGA40以外の他の実装技術で構成されてよい。また、SoC50とASIC/FPGA40を別のチップにすることなく1つのチップや基盤で構成してもよい。あるいは、3つ以上のチップや基盤で実装してもよい。   FIG. 5 is an example of a diagram illustrating the configuration of the control unit 25. The control unit 25 has a SoC 50 and an ASIC / FPGA 40. The SoC 50 and the ASIC / FPGA 40 communicate via buses 45 and 46. This means that the ASIC / FPGA 40 may be designed by any mounting technology, and may be configured by other mounting technology other than the ASIC / FPGA 40. Further, the SoC 50 and the ASIC / FPGA 40 may be configured as a single chip or substrate without using separate chips. Alternatively, it may be implemented with three or more chips or substrates.

SoC50は、バス46を介して接続されたCPU31、位置算出回路32、メモリCTL(コントローラ)35、及び、ROM CTL(コントローラ)36等の機能を有している。なお、SoC50が有する構成要素はこれらに限られない。   The SoC 50 has functions such as a CPU 31, a position calculation circuit 32, a memory CTL (controller) 35, and a ROM CTL (controller) 36 connected via a bus 46. In addition, the component which SoC50 has is not restricted to these.

また、ASIC/FPGA40は、バス45を介して接続されたImage RAM37、DMAC38、回転器39、割込みコントローラ41、ナビゲーションセンサI/F42、印字/センサタイミング生成部43、及び、IJ記録ヘッド制御部44を有している。なお、ASIC/FPGA40が有する構成要素はこれらに限られない。   The ASIC / FPGA 40 includes an Image RAM 37, a DMAC 38, a rotator 39, an interrupt controller 41, a navigation sensor I / F 42, a print / sensor timing generation unit 43, and an IJ recording head control unit 44 connected via a bus 45. have. In addition, the component which ASIC / FPGA40 has is not restricted to these.

CPU31は、ROM28からDRAM29に展開されたファームウェア(プログラム)などを実行し、SoC50内の位置算出回路32、メモリCTL35、及び、ROM CTL36の動作を制御する。また、ASIC/FPGA40内のImage RAM37、DMAC38、回転器39、割込みコントローラ41、ナビゲーションセンサI/F42、印字/センサタイミング生成部43、及び、IJ記録ヘッド制御部44の動作を制御する。   The CPU 31 executes firmware (program) or the like developed from the ROM 28 to the DRAM 29, and controls operations of the position calculation circuit 32, the memory CTL 35, and the ROM CTL 36 in the SoC 50. Further, it controls the operations of the Image RAM 37, DMAC 38, rotator 39, interrupt controller 41, navigation sensor I / F 42, print / sensor timing generation unit 43, and IJ recording head control unit 44 in the ASIC / FPGA 40.

位置算出回路32は、ナビゲーションセンサ30が検出するサンプリング周期ごとの移動量に基づいてハンドヘルドプリンタ20の位置(座標情報)を算出する。ハンドヘルドプリンタ20の位置とは、厳密にはノズル61の位置であるが、ナビゲーションセンサ30のある位置が分かればノズル61の位置を算出できる。本実施例では、特に断らない限りナビゲーションセンサ30の位置としてナビゲーションセンサS0、S1の位置をいう。また、位置算出回路32は目標吐出位置を算出する。   The position calculation circuit 32 calculates the position (coordinate information) of the handheld printer 20 based on the movement amount for each sampling cycle detected by the navigation sensor 30. Strictly speaking, the position of the handheld printer 20 is the position of the nozzle 61. However, if the position of the navigation sensor 30 is known, the position of the nozzle 61 can be calculated. In this embodiment, the position of the navigation sensor 30 is the position of the navigation sensor S0, S1 unless otherwise specified. The position calculation circuit 32 calculates a target discharge position.

ナビゲーションセンサ30の位置は、後述するように例えば所定の原点(画像形成が開始される時のハンドヘルドプリンタ20の初期位置)を基準に算出されている。また、位置算出回路32は、過去の位置と最も新しい位置の差に基づいて移動速度や移動方向を推定し、例えば次回の算出タイミングにおける位置を予測する。こうすることで、ユーザの走査に対する遅れを抑制してインクを吐出できる。   As will be described later, the position of the navigation sensor 30 is calculated based on, for example, a predetermined origin (an initial position of the handheld printer 20 when image formation is started). Further, the position calculation circuit 32 estimates the moving speed and the moving direction based on the difference between the past position and the newest position, and predicts the position at the next calculation timing, for example. In this way, it is possible to discharge ink while suppressing a delay with respect to scanning by the user.

メモリCTL35は、DRAM29とのインタフェースであり、DRAM29に対しデータを要求し、取得したファームウェアをCPU31に送出したり、取得した画像データをASIC/FPGA40に送出する。   The memory CTL 35 is an interface with the DRAM 29, requests data from the DRAM 29, sends the acquired firmware to the CPU 31, and sends the acquired image data to the ASIC / FPGA 40.

ROM CTL36は、ROM28とのインタフェースであり、ROM28に対しデータを要求し、取得したデータをCPU31やASIC/FPGA40に送出する。   The ROM CTL 36 is an interface with the ROM 28, requests data from the ROM 28, and sends the acquired data to the CPU 31 and the ASIC / FPGA 40.

DMAC38は、位置算出回路32が算出した位置情報を元に、メモリCTL35を介してIJ記録ヘッド24の各ノズル周辺の画像データ13を取得する。つまり、印刷媒体12に対しハンドヘルドプリンタ20が存在する位置の周辺の画像データが取得される。   The DMAC 38 acquires the image data 13 around each nozzle of the IJ recording head 24 via the memory CTL 35 based on the position information calculated by the position calculation circuit 32. That is, image data around the position where the handheld printer 20 is present with respect to the print medium 12 is acquired.

回転器39は、DMAC38が取得した画像データを、インクを吐出するヘッド、及び、ヘッド内のノズル位置に応じて回転させる。DMAC38は回転後の画像データをIJ記録ヘッド制御部44へ出力する。回転器39は、例えば、位置算出回路32が位置を算出する際に算出した回転角θを取得し、その回転角θを用いて画像を回転させることができる。   The rotator 39 rotates the image data acquired by the DMAC 38 in accordance with the head that ejects ink and the nozzle position in the head. The DMAC 38 outputs the rotated image data to the IJ recording head control unit 44. For example, the rotator 39 can acquire the rotation angle θ calculated when the position calculation circuit 32 calculates the position, and can rotate the image using the rotation angle θ.

Image RAM37はDMAC38が取得した画像データ13を一時的に格納する。すなわち、ある程度の画像データ13がバッファリングされ、ハンドヘルドプリンタ20の位置に応じて読み出される。   The Image RAM 37 temporarily stores the image data 13 acquired by the DMAC 38. That is, a certain amount of image data 13 is buffered and read according to the position of the handheld printer 20.

IJ記録ヘッド制御部44は、画像データ(ビットマップデータ)にディザ処理などを施して大きさと密度で画像を表す点の集合に画像データ13を変換する。これにより、画像データ13は吐出位置と点のサイズのデータとなる。IJ記録ヘッド制御部44は点のサイズに応じた制御信号をIJ記録ヘッド駆動回路23に出力する。IJ記録ヘッド駆動回路23は上記のように制御信号に対応した駆動波形データを用いて、駆動波形(電圧)を生成する。   The IJ recording head control unit 44 performs dither processing on the image data (bitmap data) and converts the image data 13 into a set of points representing an image with size and density. As a result, the image data 13 becomes data of the ejection position and the dot size. The IJ recording head control unit 44 outputs a control signal corresponding to the dot size to the IJ recording head drive circuit 23. The IJ recording head drive circuit 23 generates a drive waveform (voltage) using the drive waveform data corresponding to the control signal as described above.

ナビゲーションセンサI/F42は、ナビゲーションセンサ30と通信し、ナビゲーションセンサ30からの情報として移動量ΔX´、ΔY´(これらについては後述する)を受信し、その値を内部レジスタに格納する。   The navigation sensor I / F 42 communicates with the navigation sensor 30, receives movement amounts ΔX ′ and ΔY ′ (which will be described later) as information from the navigation sensor 30, and stores the values in an internal register.

印字/センサタイミング生成部43は、ナビゲーションセンサI/F42にナビゲーションセンサ30の情報を読み取るタイミングを通知し、IJ記録ヘッド制御部44に駆動タイミングを通知する。IJ記録ヘッド制御部44は吐出ノズル可否判定を行い、インクを吐出すべき目標吐出位置があればインクを吐出し、目標吐出位置がなければ吐出しないと判定する。   The print / sensor timing generation unit 43 notifies the navigation sensor I / F 42 of the timing for reading the information of the navigation sensor 30 and notifies the IJ recording head control unit 44 of the drive timing. The IJ recording head control unit 44 determines whether or not the ejection nozzle is available, and determines that ink is ejected if there is a target ejection position where ink should be ejected, and that ejection is not performed if there is no target ejection position.

割込みコントローラ41は、ナビゲーションセンサI/F42がナビゲーションセンサ30との通信が完了したことを検知して、SoC50へそれを通知するための割り込み信号を出力する。CPU31はこの割り込みにより、ナビゲーションセンサI/F42が内部レジスタに記憶するΔX´、ΔY´を取得する。その他、エラー等のステータス通知機能も有する。   The interrupt controller 41 detects that the navigation sensor I / F 42 has completed communication with the navigation sensor 30, and outputs an interrupt signal for notifying the SoC 50 of the completion. By this interruption, the CPU 31 acquires ΔX ′ and ΔY ′ stored in the internal register by the navigation sensor I / F 42. In addition, it has a status notification function for errors and the like.

<画像データ出力器11とハンドヘルドプリンタの機能について>
続いて、図6を用いて画像データ出力器11とハンドヘルドプリンタ20の機能について説明する。図6は画像データ出力器11とハンドヘルドプリンタ20の機能ブロック図の一例である。
<Functions of image data output device 11 and handheld printer>
Next, functions of the image data output unit 11 and the handheld printer 20 will be described with reference to FIG. FIG. 6 is an example of a functional block diagram of the image data output device 11 and the handheld printer 20.

<<画像データ出力器>>
画像データ出力器11は、送受信部51、撮像部52、マーク検出部53、パターンマッチング部54、位置決定部55、及び記憶・読出部59を有している。画像データ出力器11が有するこれらの各部は、図4に示されている各構成要素のいずれかが、SSD108からRAM104上に展開された出力器用プログラム1001に従ったCPU106からの命令によって動作することで実現される機能、又は機能される手段である。
<< Image data output device >>
The image data output device 11 includes a transmission / reception unit 51, an imaging unit 52, a mark detection unit 53, a pattern matching unit 54, a position determination unit 55, and a storage / readout unit 59. Each of these units included in the image data output unit 11 operates according to an instruction from the CPU 106 according to the output unit program 1001 expanded from the SSD 108 onto the RAM 104. A function realized by or a means to be functioned.

また、画像データ出力器11は、図4に示されているSSD106、RAM104、又は記録媒体103aによって構築される記憶部1000を有している。記憶部1000には出力器用プログラム1001、撮像データ14、及び、画像データ13が記憶される。出力器用プログラム1001は記録媒体103aに記憶された状態で配布される他、プログラムを配信するサーバ装置から配信されてもよい。   Further, the image data output unit 11 has a storage unit 1000 constructed by the SSD 106, the RAM 104, or the recording medium 103a shown in FIG. The storage unit 1000 stores an output device program 1001, imaging data 14, and image data 13. The output device program 1001 may be distributed in a state stored in the recording medium 103a, or may be distributed from a server device that distributes the program.

送受信部51は、図4に示されているCPU106からの命令、及び通信I/F107によって実現され、ハンドヘルドプリンタ20と各種データの送受信を行う。   The transmission / reception unit 51 is realized by a command from the CPU 106 illustrated in FIG. 4 and a communication I / F 107, and transmits / receives various data to / from the handheld printer 20.

撮像部52は、図4に示されているCPU106からの命令、及びカメラ110によって実現され、印刷媒体12とハンドヘルドプリンタ20を撮像する。なお、撮像はユーザの操作を契機にする場合と、実施例3などで後述される条件を満たしたことを契機にする場合がある。   The imaging unit 52 is realized by the command from the CPU 106 illustrated in FIG. 4 and the camera 110, and images the print medium 12 and the handheld printer 20. Note that imaging may be triggered by a user operation, or triggered by a condition described later in the third embodiment.

マーク検出部53は、図4に示されているCPU106からの命令等により実現され、撮像データ14から位置検出マークM1,M2を検出し、撮像データ14において照合用画像14aに対する位置検出マークM1,M2の相対位置を特定する。   The mark detection unit 53 is realized by a command or the like from the CPU 106 shown in FIG. 4, detects the position detection marks M1 and M2 from the imaging data 14, and detects the position detection marks M1 and M1 with respect to the matching image 14a in the imaging data 14. The relative position of M2 is specified.

パターンマッチング部54は、図4に示されているCPU106からの命令等により実現され、画像データ13に対し照合用画像14aを用いてパターンマッチングを行い、照合用画像14aと一致する一致画像13aを検出する。   The pattern matching unit 54 is realized by a command or the like from the CPU 106 shown in FIG. 4, performs pattern matching on the image data 13 using the matching image 14 a, and generates a matching image 13 a that matches the matching image 14 a. To detect.

位置決定部55は、撮像データ14における照合用画像14aに対する位置検出マークM1,M2の相対位置に基づき、画像データ13の一致画像13aに対する位置検出マークM1,M2の位置を決定する。これを、画像データ13におけるハンドヘルドプリンタ20の現在の位置(撮像時の位置)とする。このハンドヘルドプリンタ20の位置は送受信部51を介してハンドヘルドプリンタ20に送信される。   The position determination unit 55 determines the positions of the position detection marks M1 and M2 with respect to the coincidence image 13a of the image data 13 based on the relative positions of the position detection marks M1 and M2 with respect to the verification image 14a in the imaging data 14. This is the current position of the handheld printer 20 in the image data 13 (position at the time of imaging). The position of the handheld printer 20 is transmitted to the handheld printer 20 via the transmission / reception unit 51.

記憶・読出部59は、図4に示されているCPU106からの命令、及ぶSSD108等によって実現され、記憶部1000に各種データを記憶したり、記憶部1000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 59 is realized by the instruction from the CPU 106 shown in FIG. 4 and the SSD 108, and stores various data in the storage unit 1000 and reads various data stored in the storage unit 1000. Process.

<<ハンドヘルドプリンタ>>
ハンドヘルドプリンタ20は、送受信部65、位置喪失検知部66、位置設定部67、及び記憶・読出部69を有している。ハンドヘルドプリンタ20が有するこれらの各部は、図4,5に示されている各構成要素のいずれかが、ROM28からDRAM29上に展開されたプリンタ用プログラム2001に従ったCPU31からの命令によって動作することで実現される機能、又は機能される手段である。
<< Handheld printer >>
The handheld printer 20 includes a transmission / reception unit 65, a position loss detection unit 66, a position setting unit 67, and a storage / reading unit 69. Each of these units included in the handheld printer 20 is operated by a command from the CPU 31 according to the printer program 2001 developed from the ROM 28 onto the DRAM 29 by any one of the components shown in FIGS. A function realized by or a means to be functioned.

また、ハンドヘルドプリンタ20は、図4に示されているROM28又はDRAM29によって構築される記憶部2000を有している。記憶部2000にはプリンタ用プログラム2001が記憶される。   The handheld printer 20 has a storage unit 2000 constructed by the ROM 28 or DRAM 29 shown in FIG. The storage unit 2000 stores a printer program 2001.

送受信部65は、図5に示されているCPU31からの命令、及び通信I/F27等によって実現され、画像データ出力器11と各種データの送受信を行う。   The transmission / reception unit 65 is realized by a command from the CPU 31 illustrated in FIG. 5, a communication I / F 27, and the like, and transmits / receives various data to / from the image data output unit 11.

位置喪失検知部66は、図5に示されているCPU31からの命令、ナビゲーションセンサI/F42及び位置算出回路32等によって実現され、ハンドヘルドプリンタ20が印刷媒体12から浮いたことや現在の位置を見失ったことを検知する。ナビゲーションセンサ30は光源の光が印刷媒体12で反射する反射光をレンズで集光しイメージアレイで撮像している。ハンドヘルドプリンタ20が印刷媒体12から浮くと、印刷媒体12とイメージアレイの距離が大きくなり、反射光を検出できなくなる。これにより、位置喪失検知部66は、ナビゲーションセンサ30が浮いたことや現在の位置を見失ったことを検知する。また、例えば、位置算出回路32により算出可能な最大の速度が連続して検出されることなどにより現在の位置を見失ったことを検知してもよい。   The position loss detection unit 66 is realized by a command from the CPU 31 shown in FIG. 5, a navigation sensor I / F 42, a position calculation circuit 32, and the like. Detect missing. The navigation sensor 30 collects the reflected light reflected from the print medium 12 by the light from the light source with a lens and takes an image with an image array. When the handheld printer 20 floats from the print medium 12, the distance between the print medium 12 and the image array becomes large, and the reflected light cannot be detected. As a result, the position loss detection unit 66 detects that the navigation sensor 30 has floated or that the current position has been lost. Further, for example, it may be detected that the current position is lost by continuously detecting the maximum speed that can be calculated by the position calculating circuit 32.

位置設定部67は、図5に示されているCPU31からの命令、及び位置算出回路32などによって実現され、画像データ出力器11から送信されたハンドヘルドプリンタ20の位置を位置算出回路32に設定する。   The position setting unit 67 is realized by the command from the CPU 31 shown in FIG. 5 and the position calculation circuit 32, and sets the position of the handheld printer 20 transmitted from the image data output unit 11 in the position calculation circuit 32. .

記憶・読出部69は、図5に示されているCPU31からの命令、ROM28及びDRAM29等によって実現され、記憶部2000に各種データを記憶したり、記憶部2000に記憶された各種データを読み出したりする処理を行う。   The storage / reading unit 69 is realized by the instruction from the CPU 31 shown in FIG. 5, the ROM 28, the DRAM 29, and the like, and stores various data in the storage unit 2000 and reads out various data stored in the storage unit 2000. Perform the process.

<IJ記録ヘッドにおけるノズル位置について>
次に、図7を用いて、IJ記録ヘッド24におけるノズル位置等について説明する。図7(a)は、ハンドヘルドプリンタ20の平面図の一例である。図7(b)はIJ記録ヘッド24のみを説明する図の一例である。図示されている面が印刷媒体12に対向する面である。
<Regarding the nozzle position in the IJ recording head>
Next, the nozzle position and the like in the IJ recording head 24 will be described with reference to FIG. FIG. 7A is an example of a plan view of the handheld printer 20. FIG. 7B is an example for explaining only the IJ recording head 24. The surface shown is the surface facing the print medium 12.

本実施形態のハンドヘルドプリンタ20は、2つ以上のナビゲーションセンサ30を有している。ナビゲーションセンサ30が2つ以上あることで、ナビゲーションセンサ30が画像形成中に印刷媒体12に対し回転しても回転角θを検出できる。図7(a)ではノズル61の配列方向に離間して2つのナビゲーションセンサS0,S1が配置されている。2つのナビゲーションセンサS0,S1の間の長さは距離Lである。距離Lは長いほどよい。これは、距離Lが長いほど検出可能な最小の回転角θが小さくなり、ハンドヘルドプリンタ20の位置の誤差が少なくなるからである。   The handheld printer 20 of the present embodiment has two or more navigation sensors 30. Since there are two or more navigation sensors 30, the rotation angle θ can be detected even if the navigation sensor 30 rotates relative to the print medium 12 during image formation. In FIG. 7A, two navigation sensors S0 and S1 are arranged apart from each other in the arrangement direction of the nozzles 61. The length between the two navigation sensors S0 and S1 is a distance L. The longer the distance L, the better. This is because the minimum rotation angle θ that can be detected becomes smaller as the distance L becomes longer, and the position error of the handheld printer 20 becomes smaller.

ナビゲーションセンサ30からIJ記録ヘッド24までの距離はそれぞれ距離a、bである。距離aと、距離bは等しくてもよい。また、図7(b)に示すように、IJ記録ヘッド24の端から最初のノズル61までの距離は距離d、隣接するノズル間の距離は距離eである。a〜eの値はROM28などに予め記憶されている。   The distances from the navigation sensor 30 to the IJ recording head 24 are distances a and b, respectively. The distance a and the distance b may be equal. Further, as shown in FIG. 7B, the distance from the end of the IJ recording head 24 to the first nozzle 61 is a distance d, and the distance between adjacent nozzles is a distance e. The values a to e are stored in advance in the ROM 28 or the like.

したがって、位置算出回路32などがナビゲーションセンサ30の位置を算出すれば、距離a、距離b、距離d、距離eを用いて、位置算出回路32はノズル61の位置を算出できる。   Therefore, if the position calculation circuit 32 or the like calculates the position of the navigation sensor 30, the position calculation circuit 32 can calculate the position of the nozzle 61 using the distance a, the distance b, the distance d, and the distance e.

本実施形態では、印刷媒体12に水平な方向をX軸、垂直な方向をY軸に設定する。この座標を印刷媒体座標と称することにする。これに対し、ナビゲーションセンサ30は次のような座標軸(X´軸、Y´軸)で位置を出力する。すなわち、ノズル61の配列方向(2つのナビゲーションセンサS0、S1を結ぶ方向)をY´軸、Y´軸に直交する方向をX´軸とする。位置の算出は位置算出回路32によって行われる。   In this embodiment, the horizontal direction to the print medium 12 is set as the X axis, and the vertical direction is set as the Y axis. These coordinates will be referred to as print medium coordinates. On the other hand, the navigation sensor 30 outputs a position on the following coordinate axes (X ′ axis, Y ′ axis). That is, the direction in which the nozzles 61 are arranged (the direction connecting the two navigation sensors S0 and S1) is the Y ′ axis, and the direction orthogonal to the Y ′ axis is the X ′ axis. The position is calculated by the position calculation circuit 32.

<印刷媒体におけるハンドヘルドプリンタの位置について>
次に、図8を用いて、ハンドヘルドプリンタ20の位置について説明する。図8(a)では、印刷媒体12に対しハンドヘルドプリンタ20が時計回りにθ回転している。全く回転していなければ、X=X´、Y=Y´である。しかし、ハンドヘルドプリンタ20が印刷媒体12に対し回転角θ、回転した場合、ナビゲーションセンサS0、S1の出力とハンドヘルドプリンタ20の印刷媒体12における実際の位置が一致しなくなる。
<About the position of the handheld printer on the print medium>
Next, the position of the handheld printer 20 will be described with reference to FIG. In FIG. 8A, the handheld printer 20 is rotated θ with respect to the print medium 12 clockwise. If there is no rotation, X = X ′ and Y = Y ′. However, when the handheld printer 20 rotates by the rotation angle θ with respect to the print medium 12, the outputs of the navigation sensors S0 and S1 and the actual position of the handheld printer 20 on the print medium 12 do not match.

このため、図8(a)に示すように、ナビゲーションセンサS0,S1が出力するΔX´、ΔY´は、印刷媒体座標のX、Yと以下のように対応する。図8(a)では回転角θのハンドヘルドプリンタ20がX方向にのみ同じ回転角θのまま移動した場合のナビゲーションセンサS0,S1(平行移動なので出力は等しい)が検出する移動量ΔX´、ΔY´とX,Yの対応を示している。ナビゲーションセンサS0,S1が出力するΔX´はX1に反映され、ΔY´はX2に反映される。   For this reason, as shown in FIG. 8A, ΔX ′ and ΔY ′ output from the navigation sensors S0 and S1 correspond to the print medium coordinates X and Y as follows. In FIG. 8A, the movement amounts ΔX ′ and ΔY detected by the navigation sensors S0 and S1 (the outputs are equal because of parallel movement) when the handheld printer 20 with the rotation angle θ moves in the X direction with the same rotation angle θ. The correspondence between 'and X, Y is shown. ΔX ′ output from the navigation sensors S0 and S1 is reflected in X1, and ΔY ′ is reflected in X2.

図8(b)では回転角θのハンドヘルドプリンタ20がY方向にのみ同じ回転角θのまま移動した場合のナビゲーションセンサS0,S1(平行移動なので出力は等しい)が検出する移動量ΔX´、ΔY´とX,Yの対応を示している。ナビゲーションセンサS0,S1が出力するΔY´はY1に反映され、−ΔX´はY2に反映される。   In FIG. 8B, the movement amounts ΔX ′ and ΔY detected by the navigation sensors S0 and S1 (the outputs are equal because of parallel movement) when the handheld printer 20 with the rotation angle θ moves in the Y direction with the same rotation angle θ. The correspondence between 'and X, Y is shown. ΔY ′ output from the navigation sensors S0 and S1 is reflected in Y1, and −ΔX ′ is reflected in Y2.

したがって、ハンドヘルドプリンタ20がX方向及びY方向に回転角θのまま移動した場合、ナビゲーションセンサS0,S1が出力するΔX´、ΔY´は印刷媒体座標のX,Yに以下のように変換できる。
X=ΔX´cosθ+ΔY´sinθ …(1)
Y=−ΔX´sinθ+ΔY´cosθ …(2)
このように、画像形成の開始位置を基点にして、回転角θが分かれば式(1)(2)からナビゲーションセンサS0,S1の印刷媒体座標の位置を求めることができる。画像形成の開始位置は、ユーザがハンドヘルドプリンタ20のボタンなどを押下して画像形成を開始する位置であり、例えば印刷媒体12の左上コーナーのやや内側などである。
Therefore, when the handheld printer 20 moves in the X direction and the Y direction with the rotation angle θ, ΔX ′ and ΔY ′ output from the navigation sensors S0 and S1 can be converted into X and Y of the print medium coordinates as follows.
X = ΔX′cos θ + ΔY′sin θ (1)
Y = −ΔX′sin θ + ΔY′cos θ (2)
As described above, if the rotation angle θ is known based on the starting position of image formation, the positions of the print medium coordinates of the navigation sensors S0 and S1 can be obtained from the equations (1) and (2). The image formation start position is a position at which the user starts image formation by pressing a button or the like of the handheld printer 20, for example, slightly inside the upper left corner of the print medium 12.

なお、ΔX´、ΔY´のサンプリング時間における回転角dθは2つのナビゲーションセンサS0,S1の出力(ΔX´0、ΔX´1)の差から以下のようにして求めることができる。dθが蓄積されることで回転角θを求めることができる。
dθ=arcsin{(ΔX´0−ΔX´1)/L} …(3)
<位置検出マーク>
図9を用いて位置検出マークM1、M2について説明する。図9では、ハンドヘルドプリンタ20の上面図における位置検出マークM1、M2の配置例を示している。ハンドヘルドプリンタ20の少なくとも2点の位置が分かれば、ハンドヘルドプリンタ20の位置と姿勢を推定可能である。このため、位置検出マークM1、M2は2点の位置を特定できるように二箇所に配置されている。
The rotation angle dθ during the sampling time of ΔX ′ and ΔY ′ can be obtained as follows from the difference between the outputs (ΔX ′ 0 , ΔX ′ 1 ) of the two navigation sensors S0 and S1. By accumulating dθ, the rotation angle θ can be obtained.
dθ = arcsin {(ΔX ′ 0 −ΔX ′ 1 ) / L} (3)
<Position detection mark>
The position detection marks M1 and M2 will be described with reference to FIG. FIG. 9 shows an arrangement example of the position detection marks M1 and M2 in the top view of the handheld printer 20. If the positions of at least two points of the handheld printer 20 are known, the position and orientation of the handheld printer 20 can be estimated. For this reason, the position detection marks M1 and M2 are arranged at two locations so that the positions of two points can be specified.

位置検出マークM1,M2は、HHP20に一体に形成されていてもよいし、シールのように貼付されたものでもよい。また、OPU26が液晶ディスプレイなどの場合、OPU26が表示してもよい。   The position detection marks M1, M2 may be formed integrally with the HHP 20, or may be affixed like a seal. Moreover, when OPU26 is a liquid crystal display etc., OPU26 may display.

図9(a)ではハンドヘルドプリンタ20の右上コーナーと左下コーナーにそれぞれ位置検出マークM1、M2が配置されている。どちらの位置検出マークM1,M2もハンドヘルドプリンタ20の1点の座標を示すため、撮像データ14からは、例えば位置検出マークM1の左上頂点P1の位置が検出され、位置検出マークM2の上側頂点P2の位置が検出される。これら以外の頂点が検出されてもよい。   In FIG. 9A, position detection marks M1 and M2 are arranged at the upper right corner and the lower left corner of the handheld printer 20, respectively. Since both the position detection marks M1 and M2 indicate the coordinates of one point of the handheld printer 20, for example, the position of the upper left vertex P1 of the position detection mark M1 is detected from the imaging data 14, and the upper vertex P2 of the position detection mark M2 is detected. The position of is detected. Vertices other than these may be detected.

また、図9(a)では位置検出マークM1とM2の向きが異なっているが(位置検出マークM2が菱形形状になっている)、図9(b)に示すように位置検出マークM1とM2の向きは同じでもよい。また、図9(c)に示すように、ハンドヘルドプリンタ20の右上コーナーと左上コーナーにそれぞれ位置検出マークM1、M2が配置されていてもよい。   9A, the position detection marks M1 and M2 have different directions (the position detection mark M2 has a rhombus shape), but the position detection marks M1 and M2 as shown in FIG. 9B. The direction may be the same. Further, as shown in FIG. 9C, position detection marks M <b> 1 and M <b> 2 may be arranged at the upper right corner and the upper left corner of the handheld printer 20, respectively.

また、図9(d)ではハンドヘルドプリンタ20の右上コーナーに1つのみ位置検出マークM1が配置されている。この位置検出マークM1は中央に長方形のベタ部とそれを囲む四角とを有している。このような位置検出マークM1では上下方向と左右方向で、横切る直線が通過する黒、白の画素の長さの比が異なる。例えば、上下方向に1(黒):1(白):3(黒):1(白):1(黒)、左右方向に1(黒):1(白):7(黒):1(白):1(黒)、になる。このような予め定められた白黒の画素の比率が、角度が90度異なる2本の直線で検出された場合、位置検出マークM1が検出されたと判定してよいので、位置検出マークM1の検出精度を向上させることができる。このため、位置検出マークM1が1つのみ配置された場合でも、例えば位置検出マークM1の左上頂点P3と右下頂点P4をそれぞれハンドヘルドプリンタ20の2点の位置として採用できる。   In FIG. 9D, only one position detection mark M1 is arranged in the upper right corner of the handheld printer 20. The position detection mark M1 has a rectangular solid portion at the center and a square surrounding it. In such a position detection mark M1, the ratio of the lengths of the black and white pixels through which a straight line passes is different in the vertical direction and the horizontal direction. For example, 1 (black) in the vertical direction: 1 (white): 3 (black): 1 (white): 1 (black), 1 (black) in the horizontal direction: 1 (white): 7 (black): 1 ( White): 1 (black). When such a predetermined ratio of black and white pixels is detected by two straight lines that are 90 degrees apart, it may be determined that the position detection mark M1 has been detected, and therefore the detection accuracy of the position detection mark M1 Can be improved. For this reason, even when only one position detection mark M1 is arranged, for example, the upper left vertex P3 and the lower right vertex P4 of the position detection mark M1 can be adopted as the two positions of the handheld printer 20, respectively.

同様に、図9(a)〜(c)の矩形状の位置検出マークM1、M2がいずれか1つのみが配置されていても、位置検出マークM1(又はM2)が長方形などの向きが分かる形状であれば、位置検出マークM1(又はM2)の任意の2つ以上の頂点の位置をハンドヘルドプリンタ20の2点の座標として採用してよい。   Similarly, even if only one of the rectangular position detection marks M1 and M2 in FIGS. 9A to 9C is arranged, the orientation of the position detection mark M1 (or M2) such as a rectangle is known. If it is a shape, the positions of two or more vertices of the position detection mark M1 (or M2) may be adopted as the coordinates of the two points of the handheld printer 20.

また、位置検出マークM1、M2は三角形、星形などでもよい。また、位置検出マークM1、M2の2つが配置される場合、位置検出マークM1、M2は円形でもよい。   Further, the position detection marks M1 and M2 may be triangular or star-shaped. When two position detection marks M1 and M2 are arranged, the position detection marks M1 and M2 may be circular.

続いて、位置検出マークM1、M2の検出方法について説明する。位置検出マークM1、M2は、ハンドヘルドプリンタ20の筐体の色と異なる色で形成されている。したがって、マーク検出部53は例えば以下のような手順で撮像データ14から位置検出マークM1、M2を検出できる。以下では、図9(a)〜(c)の位置検出マークM1,M2の検出方法を説明する。
(i) 画像を白又は黒に二値化する。
(ii) 連続した黒画素を探しだす。
(iii) 上下左右方向のエッジを検出する。
(iv) ハフ変換により直線を検出し、4つの直線で囲まれた黒画素を検出する。
(v) (iv)の黒画素が二箇所見つかった場合(二箇所より多く見つかった場合は矩形を囲む4つの直線の縦横比で判別する)、それぞれを位置検出マークM1,M2に決定する。
Next, a method for detecting the position detection marks M1 and M2 will be described. The position detection marks M1 and M2 are formed in a color different from the color of the housing of the handheld printer 20. Therefore, the mark detection unit 53 can detect the position detection marks M1 and M2 from the imaging data 14 by the following procedure, for example. Hereinafter, a method for detecting the position detection marks M1 and M2 in FIGS. 9A to 9C will be described.
(i) Binarize the image to white or black.
(ii) Find consecutive black pixels.
(iii) Detect edges in the vertical and horizontal directions.
(iv) A straight line is detected by the Hough transform, and a black pixel surrounded by four straight lines is detected.
(v) When two black pixels of (iv) are found (when more than two black pixels are found, they are determined by the aspect ratio of four straight lines surrounding the rectangle), and the position detection marks M1 and M2 are determined.

なお、このような位置検出マークの検出方法は一例に過ぎず、例えば(iv)でハリスのコーナー検出方法を用い、位置検出マークM1,M2の各頂点を検出してもよい。また、例えば、機械学習により位置検出マークM1,M2を学習した識別装置が位置検出マークを検出してもよい。   Note that such a detection method of the position detection mark is merely an example. For example, the vertex of the position detection marks M1 and M2 may be detected by using the Harris corner detection method in (iv). Further, for example, an identification device that has learned the position detection marks M1 and M2 by machine learning may detect the position detection marks.

図10は、位置検出マークM1、M2とナビゲーションセンサ30の相対位置を示す図の一例である。図10に示すように、位置検出マークM1の左上頂点P1からナビゲーションセンサS0までの距離αと距離βは既知である。したがって、位置検出マークM1,M2の位置が検出されれば、ナビゲーションセンサS0の位置を特定できる。   FIG. 10 is an example of a diagram illustrating the relative positions of the position detection marks M1 and M2 and the navigation sensor 30. FIG. As shown in FIG. 10, the distance α and the distance β from the upper left vertex P1 of the position detection mark M1 to the navigation sensor S0 are known. Therefore, if the positions of the position detection marks M1, M2 are detected, the position of the navigation sensor S0 can be specified.

なお、位置検出マークM2からナビゲーションセンサS0の位置を求めることも可能である。また、ナビゲーションセンサS0に対するS1の相対位置も既知なので、ナビゲーションセンサS0又はS1が分かれば、ナビゲーションセンサS1又はS0の位置も特定できる。   It is also possible to obtain the position of the navigation sensor S0 from the position detection mark M2. Since the relative position of S1 with respect to the navigation sensor S0 is also known, if the navigation sensor S0 or S1 is known, the position of the navigation sensor S1 or S0 can also be specified.

<撮像データからの照合用画像の取得>
次に、撮像データからの照合用画像の取得について説明する。まず、図11(a)を用いて、画像データ出力器11が有する画像データ13を説明する。図11(a)は画像データ13の一例を座標と共に示す図である。画像データ出力器はハンドヘルドプリンタ20へ図11(a)の画像データ13を送信する。また、画像データ出力器11は、画像データ13の全体を保持しているため、画像データ13の各画素の座標も特定できる。なお、説明の便宜上、画像データ13の左上コーナーを原点(0,0)とするが、原点はどこにとってもよい。
<Acquisition of verification image from imaging data>
Next, the acquisition of the verification image from the imaging data will be described. First, the image data 13 included in the image data output unit 11 will be described with reference to FIG. FIG. 11A shows an example of the image data 13 together with the coordinates. The image data output device transmits the image data 13 of FIG. 11A to the handheld printer 20. Further, since the image data output unit 11 holds the entire image data 13, the coordinates of each pixel of the image data 13 can also be specified. For convenience of explanation, the upper left corner of the image data 13 is the origin (0, 0), but the origin may be anywhere.

ハンドヘルドプリンタ20が途中まで画像を形成したが、画像形成の終了までに現在の位置を見失った場合、ユーザはハンドヘルドプリンタ20と印刷媒体12を撮像する。図11(b)は撮像時の画像データ出力器11の姿勢を示す図である。図11(b)に示すように、画像データ出力器11の光軸7は印刷媒体12に対し垂直であることが好ましい。これにより、撮像データ14に光軸7の傾きにより生じる歪み(射影変形)が生じないので、撮像データ14と画像データ13の比較が容易になる。   If the handheld printer 20 forms an image halfway, but the user loses sight of the current position by the end of the image formation, the user images the handheld printer 20 and the print medium 12. FIG. 11B is a diagram illustrating the posture of the image data output unit 11 at the time of imaging. As shown in FIG. 11 (b), the optical axis 7 of the image data output device 11 is preferably perpendicular to the print medium 12. Thereby, since distortion (projective deformation) caused by the inclination of the optical axis 7 does not occur in the imaging data 14, comparison between the imaging data 14 and the image data 13 is facilitated.

<<撮像データの変倍>>
ここで、撮像データ14の大きさは画像データ出力器11が印刷媒体12に対しどのくらいの距離で撮像したかや焦点距離(倍率)によって変動しうる。これに対し、画像データ13が印刷媒体12に形成された際の大きさは決まっている(例えばA4に収まる大きさ)。このため、パターンマッチング部54は、位置検出マークM1とM2の距離(位置検出マークが1つだけの場合は辺の長さ)が、画像形成時の実際の長さになるように撮像データ14を変倍する。例えば、1ピクセル(ピクセル間のピッチ間隔を含む)が実空間のs〔mm〕の長さに相当することが分かっているものとする。また、位置検出マークM1とM2の実際の長さが50mm、撮像データ14における位置検出マークM1とM2の距離が300ピクセルであるとする。この場合、画像形成時の位置検出マークM1とM2の距離は「s×300」の長さとなるので、これが50〔mm〕になるように撮像データ14を変倍する。したがって、sの値が焦点距離ごとに予め定められたテーブルなどを参照することで、パターンマッチング部54は撮像データ14が画像データ13と同じ大きさになるように変倍できる。なお、画像データ13を変倍することで撮像データ14が画像データ13と同じ大きさになるようしてもよい。
<< Scaling of imaging data >>
Here, the size of the imaging data 14 may vary depending on how far the image data output unit 11 has imaged the print medium 12 and the focal length (magnification). On the other hand, the size when the image data 13 is formed on the print medium 12 is determined (for example, a size that fits in A4). Therefore, the pattern matching unit 54 captures the imaging data 14 so that the distance between the position detection marks M1 and M2 (the length of the side when only one position detection mark is present) is the actual length at the time of image formation. Scaling For example, it is assumed that one pixel (including a pitch interval between pixels) corresponds to the length of s [mm] in real space. Further, it is assumed that the actual length of the position detection marks M1 and M2 is 50 mm, and the distance between the position detection marks M1 and M2 in the imaging data 14 is 300 pixels. In this case, since the distance between the position detection marks M1 and M2 at the time of image formation is a length of “s × 300”, the imaging data 14 is scaled so that this is 50 [mm]. Therefore, by referring to a table or the like in which the value of s is predetermined for each focal length, the pattern matching unit 54 can change the magnification so that the imaging data 14 has the same size as the image data 13. Note that the image data 13 may have the same size as the image data 13 by scaling the image data 13.

なお、パターンマッチング部54は位置検出マークM1とM2のピクセル数から画像データ出力器11と印刷媒体12の距離を算出してもよい。そして、この距離に応じて撮像データ14を変倍してよい。距離と変倍率の関係は、撮像データ14と画像データ13の大きさが合うように予め設定されている。   The pattern matching unit 54 may calculate the distance between the image data output unit 11 and the print medium 12 from the number of pixels of the position detection marks M1 and M2. Then, the imaging data 14 may be scaled according to this distance. The relationship between the distance and the variable magnification is set in advance so that the sizes of the imaging data 14 and the image data 13 match.

<<照合用画像の取得とパターンマッチング>>
図11(c)は、画像データ出力器11が撮像した撮像データ14の一例を示す。この撮像データ14には印刷媒体上に形成画像71とハンドヘルドプリンタ20が撮像されている。形成画像71とハンドヘルドプリンタ20の相対位置は明らかである。したがって、画像データ13から形成画像71を検出できれば、この相対位置を用いて画像データ13におけるハンドヘルドプリンタ20の位置を決定できる。
<< Acquisition image and pattern matching >>
FIG. 11C shows an example of the imaging data 14 captured by the image data output unit 11. In this image data 14, a formed image 71 and a handheld printer 20 are imaged on a print medium. The relative positions of the formed image 71 and the handheld printer 20 are clear. Therefore, if the formed image 71 can be detected from the image data 13, the position of the handheld printer 20 in the image data 13 can be determined using this relative position.

パターンマッチング部54は形成画像71のうち、ハンドヘルドプリンタ20の周囲又は近くの一部又は全部を照合用画像14aとして取り出す。まず、文字列が含まれる照合用画像14aについて説明する。文字列を用いるのは、説明の便宜によるものであり、照合用画像14aが画像(イメージ)であってもよい。   The pattern matching unit 54 extracts a part or the whole of the formed image 71 around or near the handheld printer 20 as a verification image 14a. First, the verification image 14a including a character string will be described. The use of the character string is for convenience of explanation, and the verification image 14a may be an image.

パターンマッチング部54は、画像処理により文字列を取り出す。文字領域は、例えば、空間周波数を求めてその高さが閾値以上の領域として抽出される。また、連続する黒画素の外接矩形を求め、ほぼ一定の高さの外接矩形がほぼ一定間隔で一方向に並んでいる場合に文字列であると判定できる。本実施例では、「HAND HELD PRIN」という文字を含む照合用画像14aを取り出したものとする。   The pattern matching unit 54 extracts a character string by image processing. For example, the character region is extracted as a region whose spatial frequency is obtained and whose height is equal to or higher than a threshold value. Further, a circumscribed rectangle of continuous black pixels is obtained, and it can be determined that the character string is a circumscribed rectangle having a substantially constant height arranged in one direction at substantially constant intervals. In this embodiment, it is assumed that the verification image 14a including the characters “HAND HELD PRIN” is extracted.

図12は画像データ13に対する照合用画像14aを用いたパターンマッチングを模式的に説明する図の一例である。図12(a)は照合用画像14aと画像データ13を示している。パターンマッチング部54は、例えば、原点(0,0)に照合用画像14aのお左上コーナーを合わせて1画素ごとに(又は画素ブロック毎に)差分を算出する。画像データ13と照合用画像14aのどちらも黒画素又は白画素ならその画素の差分はゼロである。一方、画像データ13と照合用画像14aの一方だけが黒画素又は白画素ならその画素の差分の絶対値は1である。したがって、照合用画像14aがしめる面積分の差分の合計が小さいほど照合用画像14aが画像データ13と一致していることを示す。   FIG. 12 is an example of a diagram for schematically explaining pattern matching using the matching image 14 a for the image data 13. FIG. 12A shows a collation image 14 a and image data 13. For example, the pattern matching unit 54 calculates the difference for each pixel (or for each pixel block) by aligning the upper left corner of the verification image 14a with the origin (0, 0). If both the image data 13 and the verification image 14a are black pixels or white pixels, the difference between the pixels is zero. On the other hand, if only one of the image data 13 and the verification image 14a is a black pixel or a white pixel, the absolute value of the difference between the pixels is 1. Therefore, the smaller the total difference for the area indicated by the verification image 14a is, the more the verification image 14a matches the image data 13.

図12(b)に示すように、パターンマッチング部54は画像データ13に対し照合用画像14aを1画素ずつずらしながら(又は画素ブロックずつずらしながら)、差分の合計を算出する。最も差分の合計が小さい時に照合用画像14aと重なっている領域が一致画像13aである。   As shown in FIG. 12B, the pattern matching unit 54 calculates the sum of the differences while shifting the image for comparison 14a pixel by pixel (or pixel blocks) with respect to the image data 13. When the sum of the differences is the smallest, the area overlapping the verification image 14a is the matching image 13a.

図12(c)では、照合用画像14aが画像データ13と一致している。このようにして、画像データ13から一致画像13aが特定される。   In FIG. 12C, the verification image 14 a matches the image data 13. In this way, the coincidence image 13a is specified from the image data 13.

なお、文字でなく画像(イメージ)の場合も同様にパターンマッチングすることができる。すなわち、ハンドヘルドプリンタ20の周囲又は近くの任意の矩形領域を照合用画像14aとしてパターンマッチングを行えばよい。   Note that pattern matching can be similarly performed for an image (image) instead of a character. That is, pattern matching may be performed using an arbitrary rectangular area around or near the handheld printer 20 as the matching image 14a.

ただし、照合用画像14aが文字又は画像(イメージ)のどちらであるかを特定することで、一致画像13aの検出に要する時間を短縮できる。すなわち、画像データ13においても文字領域又は画像領域のみでパターンマッチングを行えばよい。画像領域は、文字領域でない領域として判定してもよいし、画素を色空間へのクラスタリングすることなどにより検出できる。   However, the time required for detecting the coincidence image 13a can be shortened by specifying whether the collation image 14a is a character or an image (image). That is, pattern matching may be performed only in the character area or the image area in the image data 13. The image area may be determined as an area that is not a character area, or can be detected by clustering pixels into a color space.

また、文字でパターンマッチングを行う場合、パターンマッチング部54が画素単位でパターンマッチングするのでなく、文字単位でパターンマッチングしてもよい。例えば、パターンマッチング部54が照合用画像14aに対しOCR(Optical Character Reader)を行う。これにより、照合用画像14aに含まれる文字コードがわかるので、パターンマッチング部54は画像データ13に対してもOCRを行い、同じ文字コードが並んでいる文字列をさがす。これにより、画像データ13の一致画像13aの場所が分かる。   When pattern matching is performed using characters, the pattern matching unit 54 may perform pattern matching on a character basis, instead of pattern matching on a pixel basis. For example, the pattern matching unit 54 performs OCR (Optical Character Reader) on the verification image 14a. As a result, the character code included in the verification image 14a is known, and the pattern matching unit 54 performs OCR on the image data 13 to search for a character string in which the same character code is arranged. Thereby, the location of the coincidence image 13a of the image data 13 is known.

<<一致画像13aを一意に決定できない場合>>
ここで、一致画像13aを一意に決定できない場合を考える。すでに形成された画像データ13が極端に少ない(例えば2〜3文字しか形成されておらず同じ文字が画像データに複数ある)、又は、画像データ13に同一の文字パターンが複数ある場合、一致画像13aを特定できない。前者の場合、パターンマッチング部54は、画像形成開始位置に近い位置の文字であると判定する。後者の場合、パターンマッチング部54が複数の文字パターンを表示装置102に表示して、ユーザに選択してもらう。
<< When matching image 13a cannot be determined uniquely >>
Here, consider a case where the coincidence image 13a cannot be determined uniquely. If the image data 13 already formed is extremely small (for example, only 2 to 3 characters are formed and there are a plurality of the same characters in the image data), or the image data 13 has a plurality of the same character patterns, the matching image 13a cannot be specified. In the former case, the pattern matching unit 54 determines that the character is at a position close to the image formation start position. In the latter case, the pattern matching unit 54 displays a plurality of character patterns on the display device 102 and asks the user to select them.

図13は表示装置102に表示された問い合わせ画面1300の一例を示す図である。この問い合わせ画面1300には、画像データ13と撮像データ14とが表示されている。パターンマッチング部54は、撮像データ14から照合用画像14aを選択し、画像データ13から4つの一致画像13b1〜13b4を検出した。パターンマッチング部54はこの4つの一致画像13b1〜13b4を矩形で囲むなどして強調する。また、問い合わせ画面1300に「右の四角で囲まれた文字列に相当する文字列を選択してください。」などのメッセージ1301を表示する。ユーザは、撮像データ14の照合用画像14aが一致画像13b1〜13b4のうちどれに対応するかを判定し、4つの一致画像13b1〜13b4からいずれか1つを選択する(タッチする)。   FIG. 13 is a diagram showing an example of an inquiry screen 1300 displayed on the display device 102. The inquiry screen 1300 displays image data 13 and imaging data 14. The pattern matching unit 54 selects the matching image 14 a from the imaging data 14 and detects four matching images 13 b 1 to 13 b 4 from the image data 13. The pattern matching unit 54 emphasizes the four matching images 13b1 to 13b4 by surrounding them with a rectangle. Further, a message 1301 such as “Please select a character string corresponding to the character string enclosed in the right square” is displayed on the inquiry screen 1300. The user determines which of the matching images 13b1 to 13b4 corresponds to the matching image 14a of the imaging data 14, and selects (touches) one of the four matching images 13b1 to 13b4.

<<パターンマッチングの別の例>>
図14を用いてパターンマッチングの別の方法について説明する。図14は、照合用画像14aの辺の長さに着目したパターンマッチングの一例を示す図である。
<< Another example of pattern matching >>
Another method of pattern matching will be described with reference to FIG. FIG. 14 is a diagram illustrating an example of pattern matching focusing on the length of the side of the verification image 14a.

この方法は、文字を含む照合用画像14a(ここでは"HAND")の短辺(a-b)・長辺(b-c)・対角線(a-c)を結ぶ直線(又は各頂点)を検出する方法である。画素レベルでパターンマッチングするよりも、演算処理負荷を低減できる。   This method is a method of detecting a straight line (or each vertex) connecting a short side (a-b), a long side (b-c), and a diagonal line (a-c) of a matching image 14a including characters (here, "HAND"). Compared to pattern matching at the pixel level, the processing load can be reduced.

パターンマッチング部54は、撮像データ14から一定以上の余白で区切られている文字の集合体を取り出す。この集合体は照合用画像14aである。英語の場合は、単語ごとに切り出せばよい。日本語のように単語間にスペースがない言語では、句読点と句読点の間の文字を切り出す。これは、スペースを排除して文字列を取り出すためである。また、単語や句読点に着目することで、画像データ13からも同じ区切りで文字の集合体を取り出すことができる。この集合体は一致画像13bの候補となる。なお、改行により2行にわたった文字列は含まない。   The pattern matching unit 54 takes out a collection of characters delimited by a certain margin or more from the imaging data 14. This aggregate is a collation image 14a. In the case of English, it may be cut out for each word. In languages such as Japanese where there are no spaces between words, characters between punctuation marks are cut out. This is because the character string is taken out by eliminating the space. Further, by focusing on words and punctuation marks, a set of characters can be extracted from the image data 13 with the same delimiter. This aggregate becomes a candidate for the coincidence image 13b. It does not include character strings that extend over two lines due to line breaks.

画像データ13によっては、行間のスペースが少ない場合等もあるため、一概に文字の塊の区切りは決まっていないが、塊(集合体)として扱うために、一定の閾値を儲け、塊を検出すればよい。   Depending on the image data 13, there are cases where there is little space between lines, etc., so the division of character chunks is generally not decided, but in order to treat them as chunks (aggregates), a certain threshold is set to detect the chunks. That's fine.

図14(a)の例では、「HAND」という文字の集合体を含む照合用画像14aの各頂点abcにより三角形が構成される。図14(b)では、「HAND」という文字の集合体を含む一致画像13aの候補の矩形領域のうち、各頂点a',b',c'により三角形が構成されている。   In the example of FIG. 14A, a triangle is formed by the vertices abc of the verification image 14a including a collection of characters “HAND”. In FIG. 14B, among the candidate rectangular areas of the coincidence image 13a including the character set “HAND”, a triangle is formed by the vertices a ′, b ′, and c ′.

したがって、照合用画像14aの三角形abcと同じ長さの辺を持つ三角形が一致画像13aの候補から見つかれば、それが一致画像13aである可能性が高い。   Therefore, if a triangle having the same side as the triangle abc of the matching image 14a is found from the candidates for the matching image 13a, it is highly likely that it is the matching image 13a.

なお、本実施形態では撮像データ14は画像データ13に対し回転していないことが前提とされ、回転していても撮像部52が文字列などに着目し傾き補正することで、画像データ13と撮像データ14の角度の違いは考慮しなくてよい。   In the present embodiment, it is assumed that the imaging data 14 is not rotated with respect to the image data 13. Even if the imaging data 14 is rotated, the imaging unit 52 pays attention to a character string or the like and corrects the tilt, whereby the image data 13 and Differences in the angle of the imaging data 14 need not be considered.

しかし、図14(c)に示すように、撮像データ14が画像データ13に対し回転している場合、パターンマッチング部54は照合用画像14aを回転させて確認してもよい。まず、a点とa'点の座標を合わせ、c点、c'点の座標が合うように回転していく。代わりにb点、b'点を用いても構わないが、距離が長い方が演算精度を高めることができる。   However, as shown in FIG. 14C, when the imaging data 14 is rotated with respect to the image data 13, the pattern matching unit 54 may confirm by rotating the verification image 14 a. First, the coordinates of point a and point a ′ are matched, and rotation is performed so that the coordinates of point c and point c ′ match. Instead, the points b and b ′ may be used, but the calculation accuracy can be improved as the distance increases.

ここで、距離の長さが精度に起因するのは、プログラム上のbit数が関係する。演算上、扱われる値は有限なbit数である(例えばC言語のdouble型は16bit)。よって、最小単位の演算ズレが生じる。また、画像データ13が座標化される際も同様に有限bit数の影響を受ける。以上から、ずれ得る最小単位は同じであるが、表す距離が異なる場合、相対的に距離が長い方が、最小単位誤差の影響が低減することがわかる。   Here, the length of the distance is caused by the accuracy, which is related to the number of bits in the program. In terms of computation, the value handled is a finite number of bits (for example, the C language double type is 16 bits). Therefore, an operation deviation of the minimum unit occurs. Similarly, when the image data 13 is coordinated, it is affected by the finite number of bits. From the above, it can be seen that the minimum unit that can be shifted is the same, but when the distance to be expressed is different, the influence of the minimum unit error is reduced when the distance is relatively long.

<画像データにおけるハンドヘルドプリンタの位置>
図15は、画像データ13におけるハンドヘルドプリンタ20の位置を説明する図の一例である。図15(a)は撮像データ14におけるハンドヘルドプリンタ20の相対位置を示している。撮像データ14から位置検出マークM1,M2が検出されて、照合用画像14aとの相対位置も明らかになっている。例えば、照合用画像14aの左上頂点P5からの距離と方位φで位置検出マークM1,M2の位置を表す。
位置検出マークM1:距離k1、方位φ1
位置検出マークM2:距離k2、方位φ2
図15(b)は画像データ13における一致画像13aと推定される位置検出マークM1,M2の位置を示す。画像データ13において、位置検出マークM1は一致画像13aの左上頂点P6に対し距離k1、方位φ1にあり、位置検出マークM2は一致画像13aの左上頂点P6に対し距離k2、方位φ2にある。したがって、パターンマッチングにより検出された一致画像13の左上頂点P6を基点にして、画像データ13における位置検出マークM1、M2の位置(座標)を特定できる。
<Position of handheld printer in image data>
FIG. 15 is an example of a diagram illustrating the position of the handheld printer 20 in the image data 13. FIG. 15A shows the relative position of the handheld printer 20 in the imaging data 14. The position detection marks M1 and M2 are detected from the imaging data 14, and the relative position with the verification image 14a is also clarified. For example, the position of the position detection marks M1, M2 is represented by the distance from the upper left vertex P5 of the verification image 14a and the azimuth φ.
Position detection mark M1: distance k1, direction φ1
Position detection mark M2: distance k2, azimuth φ2
FIG. 15B shows the positions of the position detection marks M1 and M2 estimated as the coincidence image 13a in the image data 13. In the image data 13, the position detection mark M1 is at a distance k1 and an azimuth φ1 with respect to the upper left vertex P6 of the coincidence image 13a, and the position detection mark M2 is at a distance k2 and an azimuth φ2 with respect to the upper left vertex P6 of the coincidence image 13a. Therefore, the positions (coordinates) of the position detection marks M1 and M2 in the image data 13 can be specified using the upper left vertex P6 of the coincidence image 13 detected by pattern matching as a base point.

位置決定部55は、一致画像13の左上頂点P6から距離k1、方位φ1にある点P1の座標(M0x、M0y)を位置検出マークM1の座標に決定する。同様に、一致画像の左上頂点から距離k2、方位φ2にある点P2の座標(M1x、M1y)を位置検出マークM2の座標に決定する。位置決定部55はこのようにして決定した(M0x、M0y)(M1x、M1y)、又は、ナビゲーションセンサS0,S1の位置をハンドヘルドプリンタ20に送信する。   The position determination unit 55 determines the coordinates (M0x, M0y) of the point P1 at the distance k1 and the azimuth φ1 from the upper left vertex P6 of the coincidence image 13 as the coordinates of the position detection mark M1. Similarly, the coordinates (M1x, M1y) of the point P2 at the distance k2 and the azimuth φ2 from the upper left vertex of the coincidence image are determined as the coordinates of the position detection mark M2. The position determination unit 55 transmits (M0x, M0y) (M1x, M1y) determined in this way, or the positions of the navigation sensors S0, S1 to the handheld printer 20.

<動作手順>
図16は、本実施形態の画像形成システム1の動作手順を示すフローチャート図の一例である。
<Operation procedure>
FIG. 16 is an example of a flowchart illustrating an operation procedure of the image forming system 1 of the present embodiment.

まず、ユーザはハンドヘルドプリンタ20の電源ボタンを押下する(U01)。   First, the user presses the power button of the handheld printer 20 (U01).

ハンドヘルドプリンタ20は電源ONにより起動して、SoC50やASIC/FPGA40を初期化する(H01)。   The handheld printer 20 is activated when the power is turned on, and initializes the SoC 50 and the ASIC / FPGA 40 (H01).

この後、初期化を完了することで(H02のYes)、ハンドヘルドプリンタ20は画像形成の開始が可能である旨の意味するLEDを点灯させる(H03)。   Thereafter, when the initialization is completed (Yes in H02), the handheld printer 20 turns on an LED indicating that image formation can be started (H03).

次に、ユーザは画像データ出力器11を操作して印刷に使用する画像データ13を選択する(U02)。   Next, the user operates the image data output unit 11 to select image data 13 to be used for printing (U02).

また、ユーザは画像データ出力器11を操作して印刷ジョブを実行する(U03)。   Further, the user operates the image data output unit 11 to execute a print job (U03).

これに対し、画像データ出力器11の記憶・読出部59は記憶部1000に画像データ13を記憶させる(D01)。   On the other hand, the storage / reading unit 59 of the image data output device 11 stores the image data 13 in the storage unit 1000 (D01).

また、画像データ出力器11のパターンマッチング部54は画像データ13の座標を保持しておく(D02)。すなわち、画像データ13が印刷媒体12に形成された場合の各画素の座標を求めておく。なお、画像データ出力器11の送受信部51は画像データ13をハンドヘルドプリンタ20に送信する。   The pattern matching unit 54 of the image data output device 11 holds the coordinates of the image data 13 (D02). That is, the coordinates of each pixel when the image data 13 is formed on the print medium 12 are obtained. Note that the transmission / reception unit 51 of the image data output device 11 transmits the image data 13 to the handheld printer 20.

次に、ハンドヘルドプリンタ20は画像データ13を受信したことにより、LEDを点滅させる(H04)。これにより、ユーザは画像形成できることを把握する。   Next, the handheld printer 20 blinks the LED when it receives the image data 13 (H04). Thereby, the user grasps that the image can be formed.

ユーザはハンドヘルドプリンタ20の初期位置を決定する(U04)。そして、印字開始決定ボタンを押下して(U05)、フリーハンドで操作を行う(U06)。   The user determines the initial position of the handheld printer 20 (U04). Then, the print start determination button is pressed (U05), and the operation is performed freehand (U06).

ハンドヘルドプリンタ20は現在の位置に応じてインクを吐出して画像形成を行う(H05)。   The handheld printer 20 forms an image by ejecting ink according to the current position (H05).

そして、走査中にユーザがハンドヘルドプリンタ20を浮かせてしまったものとする(U07)。   Then, it is assumed that the user has lifted the handheld printer 20 during scanning (U07).

これにより、ハンドヘルドプリンタ20の位置喪失検知部66は位置情報と浮き情報を取得して内部メモリに記憶させる(H06)。   As a result, the position loss detection unit 66 of the handheld printer 20 acquires the position information and the floating information and stores them in the internal memory (H06).

以降、ユーザは位置の取得に必要な操作を行う。すなわち、すでに形成された画像データ13とハンドヘルドプリンタ20を1つの撮像データ14に撮像する(U08)。   Thereafter, the user performs an operation necessary for acquiring the position. That is, the already formed image data 13 and the handheld printer 20 are imaged into one imaging data 14 (U08).

画像データ出力器11のマーク検出部53は撮像データ14から位置検出マークM1,M2を検出する(D03)。   The mark detection unit 53 of the image data output unit 11 detects the position detection marks M1 and M2 from the imaging data 14 (D03).

そして、パターンマッチング部54が位置検出マークの周囲又は近くから照合用画像14aを取得し、画像データ13に対しパターンマッチングを行う(D04)。照合用画像14aは文字でも画像(イメージ)でもよい。   Then, the pattern matching unit 54 acquires the matching image 14a from around or near the position detection mark, and performs pattern matching on the image data 13 (D04). The verification image 14a may be a character or an image.

次に、位置決定部55は、画像データ13において照合用画像14aと一致した一致画像13aに対する位置検出マークM1,M2の相対位置を決定する(D05)。   Next, the position determination unit 55 determines the relative positions of the position detection marks M1, M2 with respect to the coincidence image 13a that coincides with the matching image 14a in the image data 13 (D05).

そして、ナビゲーションセンサS0,S1の位置又は位置検出マークM1,M2の位置をハンドヘルドプリンタ20に送信する(D06)。   Then, the positions of the navigation sensors S0, S1 or the positions of the position detection marks M1, M2 are transmitted to the handheld printer 20 (D06).

ハンドヘルドプリンタ20の位置設定部67は、ナビゲーションセンサS0,S1の位置を位置算出回路32に設定する(H07)。これにより、位置算出回路32はノズルの位置を算出できる。ハンドヘルドプリンタ20はLEDを点灯するなどして画像形成を再開できる旨をユーザに通知する。したがって、ユーザは画像形成を再開できる。   The position setting unit 67 of the handheld printer 20 sets the positions of the navigation sensors S0 and S1 in the position calculation circuit 32 (H07). Thereby, the position calculation circuit 32 can calculate the position of the nozzle. The handheld printer 20 notifies the user that the image formation can be resumed by turning on the LED. Therefore, the user can resume image formation.

以上説明したように、本実施例の画像形成システム1は、ハンドヘルドプリンタ20が位置を見失っても画像データ出力器11が位置を算出して画像形成を再開できる。見えないインクを吐出するユニットやスキャナユニットを搭載する必要もない。   As described above, in the image forming system 1 of this embodiment, even if the handheld printer 20 loses sight, the image data output unit 11 can calculate the position and resume image formation. There is no need to install a unit that ejects invisible ink or a scanner unit.

実施例1では、画像データ出力器11が印刷媒体12の正面から形成画像とハンドヘルドプリンタ20を撮像した。本実施例では、撮像時の光軸が印刷媒体12に対し傾いていてもハンドヘルドプリンタ20の位置を算出可能な画像データ出力器11について説明する。   In Example 1, the image data output device 11 captured the formed image and the handheld printer 20 from the front of the print medium 12. In this embodiment, an image data output unit 11 that can calculate the position of the handheld printer 20 even when the optical axis at the time of imaging is inclined with respect to the print medium 12 will be described.

図17は、本実施例の画像データ出力器11の機能ブロック図の一例を示す。なお、本実施例において、図6において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。本実施例の画像データ出力器11は行列算出部56を有している。   FIG. 17 shows an example of a functional block diagram of the image data output device 11 of the present embodiment. In the present embodiment, the components denoted by the same reference numerals in FIG. 6 perform the same function, and therefore, only the main components of the present embodiment may be mainly described. The image data output device 11 of this embodiment has a matrix calculation unit 56.

行列算出部56は、図4に示されているCPU106からの命令等によって実現され、後述する射影変換行列を算出する。   The matrix calculation unit 56 is realized by an instruction from the CPU 106 shown in FIG. 4 and calculates a projective transformation matrix to be described later.

<射影変換行列>
射影変換行列について説明する。画像データ出力器11の光軸が傾くことで印刷媒体や撮像データ14が歪んでしまうことを考える。図18は、撮像データ14の歪みを説明する図の一例である。図18(a)は画像データ出力器11が保持する画像データ13の一例を、図18(b)は画像データ出力器11により撮像された撮像データ14の一例を示す。
<Projection transformation matrix>
The projective transformation matrix will be described. Consider that the print medium and the imaging data 14 are distorted when the optical axis of the image data output unit 11 is tilted. FIG. 18 is an example of a diagram illustrating the distortion of the imaging data 14. 18A shows an example of the image data 13 held by the image data output unit 11, and FIG. 18B shows an example of the imaging data 14 captured by the image data output unit 11.

撮像データ14は画像データ13に基づき形成されているので、撮像データ14は画像データ13と対応する点を有している。画像データ13の座標をmp(xp、yp)、撮像データ14の座標をmc(xc、yc)とすると、mとmは射影変換行列H(補正情報の一例)を用いて以下のように表すことができる。mp(xp、yp)は画像データ13の左上頂点を原点とする座標系の座標であり、mc(xc、yc)は撮像データ14の左上頂点を原点とする座標系の座標である。 Since the imaging data 14 is formed based on the image data 13, the imaging data 14 has points corresponding to the image data 13. If the coordinates of the image data 13 are m p (x p , y p ) and the coordinates of the imaging data 14 are m c (x c , y c ), m p and m c are the projective transformation matrix H (an example of correction information). Can be expressed as follows. mp (xp, yp) is a coordinate system coordinate having the upper left vertex of the image data 13 as the origin, and mc (x c , y c ) is a coordinate system coordinate having the upper left vertex of the imaging data 14 as the origin. .

そして、mp(xp、yp)とmc(xc、yc)の1つの対応点から以下の拘束が得られる。 The following constraint is obtained from one corresponding point of m p (x p , y p ) and m c (x c , y c ).

1つの拘束で、8つの未知パラメータに対し2つの拘束式が得られる。したがって、画像データ13と撮像データ14で4つの対応点が得られれば、射影変換行列Hの全ての要素を決定できる。 With one constraint, two constraint equations are obtained for eight unknown parameters. Therefore, if four corresponding points are obtained from the image data 13 and the imaging data 14, all elements of the projective transformation matrix H can be determined.

図18において画像データ13と撮像データ14の対応は必ずしも明確でない。このため、画像データ出力器11が例えば、表示装置102に画像データ13と撮像データ14を表示して、対応点をユーザに入力させる。この場合、ユーザは例えば画像データ13と撮像データ14で対応する文字の同じ場所(例えばHの左上頂点、Nの右上頂点、Nの右下頂点、Hの左下頂点など)をそれぞれ指示する。   In FIG. 18, the correspondence between the image data 13 and the imaging data 14 is not necessarily clear. For this reason, for example, the image data output unit 11 displays the image data 13 and the imaging data 14 on the display device 102 and allows the user to input corresponding points. In this case, for example, the user designates the same location (for example, the upper left vertex of H, the upper right vertex of N, the lower right vertex of N, the lower left vertex of H, etc.) of the corresponding characters in the image data 13 and the imaging data 14, respectively.

あるいは、画像データ13のうち画像形成された画素を画像データ出力器11がハンドヘルドプリンタ20から取得して、以下のように対応点を抽出する。上記のように、ハンドヘルドプリンタ20はインクを吐出した画素を記録しているので、画像形成された画素は明らかである。   Alternatively, the image data output unit 11 acquires the image-formed pixels in the image data 13 from the handheld printer 20 and extracts corresponding points as follows. As described above, since the handheld printer 20 records the pixels from which the ink has been ejected, the pixels on which the image is formed are obvious.

図18の例では、画像データ13のうち「HAND HELD PRIN」という文字が形成済みである。行列算出部56はこの形成済みの領域の左上頂点、右上頂点、右下頂点、左下頂点を対応点として採用する。よって、行列算出部56は画像データ13の左上頂点mp1、Nの右上頂点mp2、Nの右下頂点mp3、Hの左下頂点mp4を対応点とする。したがって、行列算出部56は、ハンドヘルドプリンタ20から「HAND HELD PRIN」という画像を形成したことを座標データとして取得し、座標データから4つの頂点mp1、mp2、mp3、mp4を決定する(ハンドヘルドプリンタ20が有する点mp1〜mp4の座標は画像データ13の点mc1〜mc4の座標と同じものである。)。 In the example of FIG. 18, the characters “HAND HELD PRIN” have been formed in the image data 13. The matrix calculation unit 56 employs the upper left vertex, upper right vertex, lower right vertex, and lower left vertex of the formed area as corresponding points. Therefore, the matrix calculation unit 56 sets the upper left vertex m p1 , N upper right vertex m p2 , N lower right vertex m p3 , and H lower left vertex m p4 of the image data 13 as corresponding points. Therefore, the matrix calculation unit 56 acquires that the image “HAND HELD PRIN” has been formed from the handheld printer 20 as coordinate data, and determines four vertices m p1 , m p2 , m p3 , and m p4 from the coordinate data. (The coordinates of the points m p1 to m p4 of the handheld printer 20 are the same as the coordinates of the points m c1 to m c4 of the image data 13).

撮像データ14において点mp1、mp2、mp3、mp4と対応する点mc1、mc2、mc3、mc4は以下のように求められる。すなわち、点mc1は最も左上の画素、点mc2は最も右上の画素、点mc3は最も右下の画素、点mc4は最も左下の画素、を探索することで得られる。なお、単独点などノイズの影響を低減するため好ましくはフィルターなどで撮像データ14を平滑化しておく。 In the imaging data 14, the points m c1 , m c2 , m c3 , and m c4 corresponding to the points m p1 , m p2 , m p3 , and m p4 are obtained as follows. That is, the point m c1 is obtained by searching the upper left pixel, the point m c2 is the upper right pixel, the point m c3 is the lower right pixel, and the point m c4 is the lower left pixel. Note that the imaging data 14 is preferably smoothed by a filter or the like in order to reduce the influence of noise such as a single point.

以上は、照合用画像14aが文字列の場合を説明したが、画像(イメージ)が形成されている場合も、画像(イメージ)の左上頂点、右上頂点、右上頂点、左下頂点を特定できれば同様に対応点を求めることができる。なお、対応点で囲まれる面積が広い方がHを精度よく求めることができるため、可能な限り広範囲の対応点を決定することが好ましい。   In the above description, the case where the image for matching 14a is a character string has been described. Even when an image (image) is formed, the upper left vertex, the upper right vertex, the upper right vertex, and the lower left vertex of the image (image) can be specified in the same manner. Corresponding points can be obtained. In addition, since H can be calculated | required more accurately, the one where the area enclosed by a corresponding point is wider can determine | require the corresponding point of the wide range as much as possible.

<照合用画像の取得>
実施例1と同様に、マーク検出部53は位置検出マークM1,M2を検出できる。パターンマッチング部54は位置検出マークM1,M2の周囲又は近くの所定範囲の画像を照合用画像14aに決定する。
<Acquisition of verification image>
As in the first embodiment, the mark detection unit 53 can detect the position detection marks M1 and M2. The pattern matching unit 54 determines an image in a predetermined range around or near the position detection marks M1 and M2 as the matching image 14a.

<パターンマッチング>
パターンマッチングは歪みのない照合用画像14aで行うことが好ましいので、パターンマッチング部54は、照合用画像14aの画素の全てを式(4)に適用して歪みを補正する(正面から撮像された状態に変換する)。図19(a)は変換前の照合用画像14aを、図19(b)は変換後の照合用画像14aをそれぞれ示す。変換することで照合用画像14aの歪みが低減される。したがって、パターンマッチング部54は実施例1と同様にパターンマッチングすることが可能になる。なお、図19では射影変換行列Hを求めた画像データ13の範囲と照合用画像14aが同じであるが、異なっていてよい。
<Pattern matching>
Since the pattern matching is preferably performed on the matching image 14a without distortion, the pattern matching unit 54 corrects the distortion by applying all of the pixels of the matching image 14a to Equation (4) (imaged from the front). To state). FIG. 19A shows a collation image 14a before conversion, and FIG. 19B shows a collation image 14a after conversion. The distortion of the verification image 14a is reduced by the conversion. Therefore, the pattern matching unit 54 can perform pattern matching as in the first embodiment. In FIG. 19, the range of the image data 13 for which the projection transformation matrix H is obtained and the collation image 14a are the same, but they may be different.

照合用画像14aの座標系においてパターンマッチング部54は、位置検出マークM1,M2の座標を式(4)で変換しておく。これにより、照合用画像14aに対する位置検出マークM1,M2の距離と方位が、正面から撮像された場合に(すなわち画像データ13において)どの程度になるかを算出することができる。したがって、図19(b)に示すように、歪みが補正された照合用画像14aに対する歪みが補正された位置検出マークM1,M2の位置が分かる。   In the coordinate system of the verification image 14a, the pattern matching unit 54 converts the coordinates of the position detection marks M1 and M2 by the equation (4). Thereby, it is possible to calculate how much the distances and azimuths of the position detection marks M1 and M2 with respect to the verification image 14a become when they are captured from the front (that is, in the image data 13). Accordingly, as shown in FIG. 19B, the positions of the position detection marks M1 and M2 whose distortion is corrected with respect to the matching image 14a whose distortion is corrected are known.

<画像データにおけるハンドヘルドプリンタの位置>
パターンマッチング部54が画像データ13において一致画像13aを検出したものとする。位置決定部55は図19(b)のように求められた距離k1,k2と方位φ1、φ2を一致画像13aに適用して、画像データ13における位置検出マークM1,M2の位置を決定する。
<Position of handheld printer in image data>
It is assumed that the pattern matching unit 54 detects the coincidence image 13a in the image data 13. The position determination unit 55 applies the distances k1 and k2 and the orientations φ1 and φ2 obtained as shown in FIG. 19B to the coincidence image 13a to determine the positions of the position detection marks M1 and M2 in the image data 13.

このように、本実施例によれば、画像データ出力器11が印刷媒体12と形成された画像を正面から撮像していなくても、ハンドヘルドプリンタ20の位置を算出して画像形成を再開できる。   Thus, according to the present embodiment, the image data output device 11 can calculate the position of the handheld printer 20 and resume image formation even if the image formed with the print medium 12 is not picked up from the front.

本実施例では正面から撮像されるように非正面マークが配置されたハンドヘルドプリンタ20を用いた画像形成システム1について説明する。なお、本実施例の機能ブロック図は実施例1の図6と同様でよい。   In this embodiment, an image forming system 1 using a handheld printer 20 in which non-front marks are arranged so as to be imaged from the front will be described. The functional block diagram of the present embodiment may be the same as FIG. 6 of the first embodiment.

図20を用いて、ハンドヘルドプリンタ20に配置される非正面マークQ1〜Q4(第二マークの一例)について説明する。図20は、ハンドヘルドプリンタ20とハンドヘルドプリンタ20に配置された非正面マークQ1〜Q4の一例を示す図である。位置検出マークM1,M2については実施例1,2と同様である。これに対し、本実施例ではハンドヘルドプリンタ20の4つの側面に非正面マークQ1〜Q4が配置されている。非正面マークQ1〜Q4は厚みがないため、ハンドヘルドプリンタ20に対し画像データ出力器11の光軸が垂直になると撮像データ14に写らない。換言すれば、非正面マークQ1〜Q4が写っている間は、光軸が垂直でないことを意味する。   The non-front marks Q1 to Q4 (an example of the second mark) arranged on the handheld printer 20 will be described with reference to FIG. FIG. 20 is a diagram illustrating an example of the handheld printer 20 and the non-frontal marks Q1 to Q4 arranged on the handheld printer 20. The position detection marks M1 and M2 are the same as those in the first and second embodiments. In contrast, in this embodiment, non-frontal marks Q1 to Q4 are arranged on the four side surfaces of the handheld printer 20. Since the non-front marks Q <b> 1 to Q <b> 4 have no thickness, they are not captured in the imaging data 14 when the optical axis of the image data output device 11 is perpendicular to the handheld printer 20. In other words, it means that the optical axis is not vertical while the non-front marks Q1 to Q4 are shown.

非正面マークは位置検出マークM1,M2と同じ色であるとして説明するが、異なる色でもよい。異なる色の場合、非正面マークQ1〜Q4のみを検出できる。同じ色である場合、位置検出マークM1,M2から所定距離内に非正面マークQ1〜Q4があることを利用して非正面マークを特定する。   The non-front mark is described as being the same color as the position detection marks M1 and M2, but may be a different color. In the case of different colors, only the non-front marks Q1 to Q4 can be detected. In the case of the same color, the non-front mark is specified by using the non-front marks Q1 to Q4 within a predetermined distance from the position detection marks M1 and M2.

図21は、画像データ出力器11によるハンドヘルドプリンタ20の撮像を模式的に説明する図の一例であり、図22は画像データ出力器11の撮像手順を示すフローチャート図の一例である。   FIG. 21 is an example of a diagram for schematically explaining imaging of the handheld printer 20 by the image data output device 11, and FIG. 22 is an example of a flowchart showing an imaging procedure of the image data output device 11.

ユーザは画像データ出力器11が非正面マークQ1〜Q4を写さないように角度を調整しながら画角に収める。この間、画像データ出力器11の撮像部52は定期的に画像を撮像している(S10)。   The user keeps the angle of view while adjusting the angle so that the image data output unit 11 does not copy the non-frontal marks Q1 to Q4. During this time, the imaging unit 52 of the image data output device 11 regularly captures images (S10).

画像データ出力器11の撮像部52は、位置検出マークM1、M2と同様に非正面マークQ1〜Q4を検出する(S20)。   The imaging unit 52 of the image data output device 11 detects the non-frontal marks Q1 to Q4 similarly to the position detection marks M1 and M2 (S20).

撮像部52は、何らかのマークが2つだけ撮像されているか否かを判定する(S30)。位置検出マークM1、M2は正面に配置されているので必ず撮像される。したがって、マークが2つだけ撮像されている場合は、光軸が印刷媒体12に対し正面であると判定できる。   The imaging unit 52 determines whether only two marks are captured (S30). Since the position detection marks M1 and M2 are arranged in the front, they are always imaged. Therefore, when only two marks are captured, it can be determined that the optical axis is the front of the print medium 12.

何らかのマークが2つだけ撮像されている場合(非正面マークQ1〜Q4を検出できない場合)、撮像部52は撮像データ14を取得する(S40)。   When only two marks are captured (when the non-front marks Q1 to Q4 cannot be detected), the imaging unit 52 acquires the imaging data 14 (S40).

したがって、このように撮像された撮像データ14を用いて、実施例1と同様に拡大・縮小を行い、画像データ13とパターンマッチングすることで、ハンドヘルドプリンタ20の位置を算出できる。   Therefore, the position of the handheld printer 20 can be calculated by performing enlargement / reduction in the same manner as in the first embodiment using the imaging data 14 thus captured and pattern matching with the image data 13.

なお、非正面マークQ1〜Q4は厚みがないと説明したが、非正面マークQ1〜Q4に厚みがあってもよい。例えば、複数の非正面マークQ1〜Q4の厚みが同じであることを前提にすれば、撮像データ14において非正面マークQ1〜Q4の厚みが同じ場合に、光軸が垂直であることを確認できる。   Although the non-front marks Q1 to Q4 have been described as having no thickness, the non-front marks Q1 to Q4 may have a thickness. For example, assuming that the thicknesses of the plurality of non-front marks Q1 to Q4 are the same, it is possible to confirm that the optical axis is vertical when the thicknesses of the non-front marks Q1 to Q4 are the same in the imaging data 14. .

また、本実施例では非正面マークQ1〜Q4が撮像されていないことを撮像部52が自動的に判定しているが、ユーザが判断して撮像してもよい(シャッターボタンを押してもよい)。ただし、自動的に撮像することで手ぶれなどによる光軸のずれを抑制できる。   In this embodiment, the imaging unit 52 automatically determines that the non-frontal marks Q1 to Q4 are not captured, but the user may determine and capture the image (the shutter button may be pressed). . However, the optical axis shift due to camera shake or the like can be suppressed by automatically capturing an image.

本実施例では実施例3の構成に加え、画像データ出力器11が撮像データ14を拡大・縮小することが不要な画像形成システム1について説明する。なお、本実施例の機能ブロック図は実施例1の図6と同様でよい。   In the present embodiment, in addition to the configuration of the third embodiment, an image forming system 1 that does not require the image data output device 11 to enlarge / reduce the imaging data 14 will be described. The functional block diagram of the present embodiment may be the same as FIG. 6 of the first embodiment.

図21のように撮像部52がハンドヘルドプリンタ20を写す過程で、撮像データ14にはすでに画像形成された文字などが写っている。したがって、撮像部52は位置検出マークM1,M2の周囲又は近くの文字を撮像データ14から取得して、同じ文字を画像データ13から探し出す。ここではパターンマッチングしてもOCRしてもよい。例えば、撮像データ14から「HAND」という文字列を検出した場合、画像データ13から「HAND」という文字列を探し出す。両者のサイズが同じであれば、撮像後に撮像データ14を拡大・縮小することが不要である。   In the process in which the imaging unit 52 captures the handheld printer 20 as shown in FIG. 21, characters that have already been imaged are captured in the imaging data 14. Therefore, the imaging unit 52 acquires characters around or near the position detection marks M1 and M2 from the imaging data 14 and searches the image data 13 for the same characters. Here, pattern matching or OCR may be performed. For example, when the character string “HAND” is detected from the imaging data 14, the character string “HAND” is searched from the image data 13. If both sizes are the same, it is not necessary to enlarge or reduce the imaging data 14 after imaging.

画像(イメージ)の場合は照合用画像14aを取得しパターンマッチングにより一致画像を検出する。そして、両者のサイズが同じになるように撮像する。   In the case of an image (image), a matching image 14a is acquired and a matching image is detected by pattern matching. And it images so that both size may become the same.

図23は画像データ出力器11の撮像時のフローチャート図の一例である。図23の説明においては図22との相違点について主に説明する。   FIG. 23 is an example of a flowchart when the image data output unit 11 captures an image. In the description of FIG. 23, differences from FIG. 22 will be mainly described.

ステップS30でマークが2つだけ撮像されている場合、撮像部52は撮像データ14と画像データ13のサイズが同じになったかどうかを判定する(S35)。なお、撮像部52は、例えば撮像データ14と画像データ13のサイズが同じになるように、「カメラを高くしてください」又は「カメラを低くしてください」などの音声を出力してユーザを誘導することが好ましい。   When only two marks are imaged in step S30, the imaging unit 52 determines whether the sizes of the imaging data 14 and the image data 13 are the same (S35). The imaging unit 52 outputs a voice such as “Please raise the camera” or “Lower the camera” so that the sizes of the imaging data 14 and the image data 13 are the same. It is preferable to induce.

サイズが同じになった場合、撮像部52は撮像データ14を取得する(S40)。   When the sizes become the same, the imaging unit 52 acquires the imaging data 14 (S40).

したがって、本実施例の画像データ出力器11は、ハンドヘルドプリンタ20の位置の算出過程で、拡大・縮小を省略できる。また、撮像中に照合用画像14aと一致する一致画像を特定するので、ユーザの待ち時間を短縮できる。   Therefore, the image data output unit 11 of the present embodiment can omit enlargement / reduction in the process of calculating the position of the handheld printer 20. In addition, since a matching image that matches the matching image 14a is specified during imaging, the waiting time of the user can be shortened.

なお、本実施例では、文字列のサイズを比較したが、位置検出マークM1とM2の距離を撮像データ14と画像データ13で比較してもよい。すなわち、実施例1のようにピクセル数と形成される画像の長さの関係を利用して、撮像データ14における位置検出マークM1とM2の距離(ピクセル)が、予め定められた値(つまり画像形成時に50〔mm〕なるピクセル数)になった時に撮像データ14を取得する。   In the present embodiment, the character string sizes are compared, but the distance between the position detection marks M1 and M2 may be compared between the imaging data 14 and the image data 13. That is, using the relationship between the number of pixels and the length of the image to be formed as in the first embodiment, the distance (pixel) between the position detection marks M1 and M2 in the imaging data 14 is a predetermined value (that is, the image When the number of pixels reaches 50 [mm] at the time of formation, the imaging data 14 is acquired.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、図13の問い合わせ画面1300は、複数の一致画像13aが検出される場合に表示されると説明したが、照合用画像14aが検出された時点で問い合わせ画面1300が表示されてもよい。この場合、ユーザは照合用画像14aと一致する一致画像を候補がない状態の画像データ13から選択する。また、ユーザが撮像データ14から照合用画像14aを指定してもよい。   For example, although the inquiry screen 1300 in FIG. 13 has been described as being displayed when a plurality of matching images 13a are detected, the inquiry screen 1300 may be displayed when the matching image 14a is detected. In this case, the user selects a matching image that matches the matching image 14a from the image data 13 in a state where there is no candidate. In addition, the user may specify the verification image 14 a from the imaging data 14.

また、本実施形態では位置検出マークM1,M2によりハンドヘルドプリンタ20の位置を検出した。しかし、ハンドヘルドプリンタ20の全体の形状や模様が撮像された写真を教師信号として識別器の重みを学習した識別装置により撮像データからハンドヘルドプリンタ20を認識してもよい。この場合も、ハンドヘルドプリンタ20が写っている範囲が分かるので、ナビゲーションセンサ30の位置を特定できる。   In the present embodiment, the position of the handheld printer 20 is detected by the position detection marks M1 and M2. However, the handheld printer 20 may be recognized from the imaging data by an identification device that learns the weight of the classifier using a photograph of the entire shape or pattern of the handheld printer 20 as a teacher signal. Also in this case, since the range in which the handheld printer 20 is shown is known, the position of the navigation sensor 30 can be specified.

例えば、上記したSoC50、ASIC/FPGA40の構成要素は、CPU性能やASIC/FPGA40の回路規模等により、どちらに含まれていてもよい。   For example, the constituent elements of the SoC 50 and the ASIC / FPGA 40 described above may be included in any of them depending on the CPU performance, the circuit scale of the ASIC / FPGA 40, and the like.

また、図4,5等で説明されたハンドヘルドプリンタ20の機能は、CPU31がプログラムを実行することで実現してよい。   The functions of the handheld printer 20 described with reference to FIGS. 4 and 5 and the like may be realized by the CPU 31 executing a program.

また、本実施形態では、三方向(例えばX/Y/R軸、R:回転)の位置をそれぞれ検知し、平面上を自由に走査可能(フリーハンド走査)なハンドヘルドプリンタ20を例にして説明した。しかし、一方向(例えばX軸方向)の位置を検知し、一方向にのみ走査させて画像形成するハンドヘルドプリンタ20に対しても本実施形態を適用できる。また、二方向(例えばX/Y軸方向) の位置をそれぞれ検知し、二方向にのみ走査させて画像形成するハンドヘルドプリンタ20に対しても本実施形態を適用できる。   Further, in the present embodiment, a handheld printer 20 that detects positions in three directions (for example, X / Y / R axis, R: rotation) and can freely scan on a plane (free hand scanning) will be described as an example. did. However, the present embodiment can also be applied to the handheld printer 20 that detects a position in one direction (for example, the X-axis direction) and scans only in one direction to form an image. The present embodiment can also be applied to the handheld printer 20 that detects positions in two directions (for example, the X / Y axis directions) and scans only in two directions to form an image.

また、本実施形態ではインクを吐出して画像を形成すると説明したが、可視光、紫外線、赤外線、レーザなどを照射して画像を形成してもよい。この場合、印刷媒体12として例えば熱や光に反応するものが用いられる。また、透明な液体を吐出してもよい。この場合、特定の波長域の光が照射されると可視情報が得られる。すなわち、化学的・物理的な作用を経て最終的に肉眼で確認しうる視覚情報を形成できればよい。   In the present embodiment, it has been described that an image is formed by ejecting ink. However, an image may be formed by irradiation with visible light, ultraviolet light, infrared light, laser, or the like. In this case, for example, a print medium 12 that reacts to heat or light is used. Further, a transparent liquid may be discharged. In this case, visible information is obtained when light in a specific wavelength region is irradiated. That is, it is only necessary to form visual information that can be finally confirmed with the naked eye through chemical and physical actions.

また、本実施形態では、画像形成の際にフリーハンドでユーザが走査させると説明したが、ハンドヘルドプリンタ20がモータなどを動力にして印刷媒体上を自走してもよい。   Further, in the present embodiment, it has been described that the user scans with a freehand when forming an image. However, the handheld printer 20 may run on a print medium by using a motor or the like as power.

1 画像形成システム
11 画像データ出力器
12 印刷媒体
13 画像データ
14 撮像データ
20 ハンドヘルドプリンタ
52 撮像部
53 マーク検出部
54 パターンマッチング部
55 位置決定部
56 行列算出部
DESCRIPTION OF SYMBOLS 1 Image formation system 11 Image data output device 12 Print medium 13 Image data 14 Imaging data 20 Handheld printer 52 Imaging part 53 Mark detection part 54 Pattern matching part 55 Position determination part 56 Matrix calculation part

特許第5033247号公報Japanese Patent No. 5033247

Claims (14)

記録媒体上の位置を移動しながら画像データに基づき画像を形成する画像形成装置と通信可能な情報処理装置であって、
前記画像形成装置及び前記画像形成装置が記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、
前記撮像データから前記画像形成装置及び前記形成画像を検出する画像処理手段と、
前記形成画像の形成に用いられた前記画像データ、及び、前記画像処理手段が検出した前記形成画像に対する前記画像形成装置の相対位置を用いて、前記画像形成装置の記録媒体上の前記位置を推定する位置推定手段と、
前記位置推定手段が推定した前記位置を前記画像形成装置に送信する送信手段と、
を有する情報処理装置。
An information processing apparatus capable of communicating with an image forming apparatus that forms an image based on image data while moving a position on a recording medium,
An acquisition unit configured to acquire imaging data in which a formed image formed on a recording medium by the image forming apparatus and the image forming apparatus is captured;
An image processing unit for detecting the image forming apparatus and the formed image from the imaging data;
The position on the recording medium of the image forming apparatus is estimated using the image data used for forming the formed image and the relative position of the image forming apparatus with respect to the formed image detected by the image processing unit. Position estimation means for
Transmitting means for transmitting the position estimated by the position estimating means to the image forming apparatus;
An information processing apparatus.
前記位置推定手段は、前記形成画像の形成に用いられた前記画像データにおいて前記形成画像と一致する一致画像を特定し、前記一致画像を基準に前記相対位置により特定される前記位置を推定する請求項1に記載の情報処理装置。   The position estimating means specifies a matching image that matches the formed image in the image data used for forming the formed image, and estimates the position specified by the relative position based on the matching image. Item 4. The information processing apparatus according to Item 1. 前記位置推定手段は、前記画像形成装置の周囲の前記形成画像を抽出し、前記周囲の前記形成画像を用いて前記画像データに対しパターンマッチングを行うことで前記一致画像を特定する請求項2に記載の情報処理装置。   The position estimation unit extracts the formed image around the image forming apparatus, and specifies the matching image by performing pattern matching on the image data using the surrounding formed image. The information processing apparatus described. 前記位置推定手段は、文字列を含む前記形成画像を用いて前記画像データに対しパターンマッチングを行い、前記文字列と同じ文字列を含む前記一致画像を前記画像データから特定する請求項3に記載の情報処理装置。   The said position estimation means performs pattern matching with respect to the said image data using the said formation image containing a character string, The said matching image containing the same character string as the said character string is specified from the said image data. Information processing device. 前記位置推定手段は、前記形成画像に含まれる文字列の外接矩形の頂点を接続して得られる複数の直線の長さの組と、前記画像データに含まれる文字列の外接矩形の頂点を接続して得られる複数の直線の長さの組とを比較し、
複数の直線の長さの組が一致する前記一致画像を前記画像データから特定する請求項3に記載の情報処理装置。
The position estimating means connects a plurality of straight line lengths obtained by connecting vertices of circumscribed rectangles of character strings included in the formed image, and vertices of circumscribed rectangles of character strings included in the image data. And compare with a set of multiple straight line lengths
The information processing apparatus according to claim 3, wherein the matching image in which a plurality of sets of straight line lengths match is specified from the image data.
前記位置推定手段は、前記形成画像と前記画像データを表示装置に表示させ、前記形成画像に対応する前記一致画像の選択を受け付ける請求項2〜5いずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the position estimation unit displays the formed image and the image data on a display device and receives selection of the matching image corresponding to the formed image. 前記画像処理手段は、前記画像形成装置に配置された前記画像形成装置の位置と姿勢を推定可能な第一マークを前記撮像データから検出し、
前記位置推定手段は、前記形成画像に対する前記第一マークの相対位置を前記形成画像に対する前記画像形成装置の前記相対位置として決定する請求項1〜6のいずれか1項に記載の情報処理装置。
The image processing means detects a first mark that can estimate the position and orientation of the image forming apparatus arranged in the image forming apparatus from the imaging data,
The information processing apparatus according to claim 1, wherein the position estimation unit determines a relative position of the first mark with respect to the formed image as the relative position of the image forming apparatus with respect to the formed image.
前記画像形成装置及び前記画像形成装置が形成した前記形成画像を撮像する撮像手段を有し、
前記画像形成装置には第二マークが配置されており、
前記撮像手段は、前記撮像データにおいて前記第二マークが撮像されないこと又は前記第二マークが所定の状態で撮像されたことを契機に、前記画像形成装置及び前記画像形成装置が形成した前記形成画像を撮像する請求項1〜7いずれか1項に記載の情報処理装置。
The image forming apparatus and an imaging unit that captures the formed image formed by the image forming apparatus,
A second mark is arranged on the image forming apparatus,
The imaging unit is configured to form the image formed by the image forming apparatus and the image forming apparatus when the second mark is not captured in the captured image data or when the second mark is captured in a predetermined state. The information processing apparatus according to any one of claims 1 to 7,
前記撮像手段は、さらに、前記撮像データにおける前記形成画像のサイズと、前記画像データにおいて前記形成画像と一致する一致画像のサイズとがほぼ同じになったことを契機に、
前記画像形成装置及び前記画像形成装置が形成した前記形成画像を撮像する請求項8に記載の情報処理装置。
The imaging means is further triggered by the fact that the size of the formed image in the imaging data is substantially the same as the size of the coincidence image that matches the formed image in the image data.
The information processing apparatus according to claim 8, wherein the image forming apparatus and the formed image formed by the image forming apparatus are captured.
前記撮像手段は、さらに、前記撮像データにおいて、前記画像形成装置に配置された前記画像形成装置の位置と姿勢を推定可能な第一マークから得られる長さ情報が、予め定められたピクセル数になったことを契機に、前記画像形成装置及び前記画像形成装置が形成した前記形成画像を撮像する請求項8に記載の情報処理装置。   In the imaging data, the length information obtained from the first mark capable of estimating the position and orientation of the image forming apparatus arranged in the image forming apparatus is set to a predetermined number of pixels in the imaging data. The information processing apparatus according to claim 8, wherein the information forming apparatus captures the image forming apparatus and the formed image formed by the image forming apparatus. 撮像時に生じた前記形成画像の歪みを補正するための補正情報を算出する補正情報算出手段を有し、
前記位置推定手段は、前記補正情報算出手段により算出された前記補正情報を用いて歪みが補正された前記形成画像を用いて前記画像データに対しパターンマッチングを行い、前記一致画像を特定する請求項3に記載の情報処理装置。
Correction information calculating means for calculating correction information for correcting distortion of the formed image that has occurred during imaging;
The position estimation unit performs pattern matching on the image data using the formed image whose distortion has been corrected using the correction information calculated by the correction information calculation unit, and identifies the matching image. 3. The information processing apparatus according to 3.
記録媒体上の位置を移動しながら画像データに基づき画像を形成する画像形成装置と、前記画像形成装置と通信可能な情報処理装置とを有する画像形成システムであって、
前記画像形成装置及び前記画像形成装置が記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、
前記撮像データから前記画像形成装置及び前記形成画像を検出する画像処理手段と、
前記形成画像の形成に用いられた前記画像データ、及び、前記画像処理手段が検出した前記形成画像に対する前記画像形成装置の相対位置を用いて、前記画像形成装置の記録媒体上の前記位置を推定する位置推定手段と、
前記位置推定手段が推定した前記位置を前記画像形成装置に送信する送信手段と、
を有する画像形成システム。
An image forming system having an image forming apparatus that forms an image based on image data while moving a position on a recording medium, and an information processing apparatus that can communicate with the image forming apparatus,
An acquisition unit configured to acquire imaging data in which a formed image formed on a recording medium by the image forming apparatus and the image forming apparatus is captured;
An image processing unit for detecting the image forming apparatus and the formed image from the imaging data;
The position on the recording medium of the image forming apparatus is estimated using the image data used for forming the formed image and the relative position of the image forming apparatus with respect to the formed image detected by the image processing unit. Position estimation means for
Transmitting means for transmitting the position estimated by the position estimating means to the image forming apparatus;
An image forming system.
記録媒体の位置を移動しながら画像データに基づき画像を形成する画像形成装置であって、
前記記録媒体に対する位置を検出する位置検出手段と、
前記画像形成装置及び前記画像形成装置が前記記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、
前記取得手段が取得した前記撮像データから前記画像形成装置及び前記画像を検出する画像処理手段と、
前記形成画像の形成に用いられた前記画像データ、及び、前記画像処理手段が検出した前記形成画像に対する前記画像形成装置の相対位置を用いて、前記画像形成装置の記録媒体上の前記位置を推定する位置推定手段と、
前記位置推定手段が推定した前記位置を用いて前記形成画像を形成する画像形成手段と、を有する画像形成装置。
An image forming apparatus that forms an image based on image data while moving the position of a recording medium,
Position detecting means for detecting a position relative to the recording medium;
Acquisition means for acquiring imaging data in which a formed image formed on the recording medium by the image forming apparatus and the image forming apparatus is captured;
An image processing unit for detecting the image forming apparatus and the image from the imaging data acquired by the acquisition unit;
The position on the recording medium of the image forming apparatus is estimated using the image data used for forming the formed image and the relative position of the image forming apparatus with respect to the formed image detected by the image processing unit. Position estimation means for
And an image forming unit that forms the formed image using the position estimated by the position estimating unit.
記録媒体上の位置を移動しながら画像データに基づき画像を形成する画像形成装置と通信可能な情報処理装置を、
前記画像形成装置及び前記画像形成装置が記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、
前記撮像データから前記画像形成装置及び前記形成画像を検出する画像処理手段と、
前記形成画像の形成に用いられた前記画像データ、及び、前記画像処理手段が検出した前記形成画像に対する前記画像形成装置の相対位置を用いて、前記画像形成装置の記録媒体上の前記位置を推定する位置推定手段と、
前記位置推定手段が推定した前記位置を前記画像形成装置に送信する送信手段と、
として機能させるためのプログラム。
An information processing apparatus capable of communicating with an image forming apparatus that forms an image based on image data while moving a position on a recording medium,
An acquisition unit configured to acquire imaging data in which a formed image formed on a recording medium by the image forming apparatus and the image forming apparatus is captured;
An image processing unit for detecting the image forming apparatus and the formed image from the imaging data;
The position on the recording medium of the image forming apparatus is estimated using the image data used for forming the formed image and the relative position of the image forming apparatus with respect to the formed image detected by the image processing unit. Position estimation means for
Transmitting means for transmitting the position estimated by the position estimating means to the image forming apparatus;
Program to function as.
JP2015114441A 2015-06-05 2015-06-05 Information processing apparatus, image forming system, image forming apparatus Active JP6507865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015114441A JP6507865B2 (en) 2015-06-05 2015-06-05 Information processing apparatus, image forming system, image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015114441A JP6507865B2 (en) 2015-06-05 2015-06-05 Information processing apparatus, image forming system, image forming apparatus

Publications (2)

Publication Number Publication Date
JP2017004076A true JP2017004076A (en) 2017-01-05
JP6507865B2 JP6507865B2 (en) 2019-05-08

Family

ID=57752809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015114441A Active JP6507865B2 (en) 2015-06-05 2015-06-05 Information processing apparatus, image forming system, image forming apparatus

Country Status (1)

Country Link
JP (1) JP6507865B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019089240A (en) * 2017-11-14 2019-06-13 株式会社リコー Droplet discharge device and droplet discharge method
JP2020120299A (en) * 2019-01-24 2020-08-06 株式会社リコー Data processing apparatus, data processing method, and data processing program
JP2020128078A (en) * 2018-09-10 2020-08-27 株式会社リコー Printing device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1158844A (en) * 1997-08-08 1999-03-02 Hewlett Packard Co <Hp> Handy printer system
JP2010520087A (en) * 2007-03-02 2010-06-10 マーベル ワールド トレード リミテッド Handheld printer position correction
JP2010522650A (en) * 2007-02-23 2010-07-08 マーベル ワールド トレード リミテッド Positioning method of handheld image translation device
WO2013145268A1 (en) * 2012-03-30 2013-10-03 ピタフォー・モバイル・エルエルシー Printing device, information-processing device, printing method, information-processing program and information-recording medium
JP2014144514A (en) * 2013-01-30 2014-08-14 Sharp Corp Status display system, status display method, and robot apparatus
JP2014184721A (en) * 2013-03-22 2014-10-02 pita4 mobile LLC Self-propelled printer, printing system, printing method and printing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1158844A (en) * 1997-08-08 1999-03-02 Hewlett Packard Co <Hp> Handy printer system
JP2010522650A (en) * 2007-02-23 2010-07-08 マーベル ワールド トレード リミテッド Positioning method of handheld image translation device
JP2010520087A (en) * 2007-03-02 2010-06-10 マーベル ワールド トレード リミテッド Handheld printer position correction
WO2013145268A1 (en) * 2012-03-30 2013-10-03 ピタフォー・モバイル・エルエルシー Printing device, information-processing device, printing method, information-processing program and information-recording medium
JP2014144514A (en) * 2013-01-30 2014-08-14 Sharp Corp Status display system, status display method, and robot apparatus
JP2014184721A (en) * 2013-03-22 2014-10-02 pita4 mobile LLC Self-propelled printer, printing system, printing method and printing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019089240A (en) * 2017-11-14 2019-06-13 株式会社リコー Droplet discharge device and droplet discharge method
JP2020128078A (en) * 2018-09-10 2020-08-27 株式会社リコー Printing device
JP2020120299A (en) * 2019-01-24 2020-08-06 株式会社リコー Data processing apparatus, data processing method, and data processing program
JP7163792B2 (en) 2019-01-24 2022-11-01 株式会社リコー DATA PROCESSING SYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM

Also Published As

Publication number Publication date
JP6507865B2 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
US10744787B2 (en) Liquid droplet discharging apparatus, liquid droplet discharging method, and non-transitory computer readable medium
US10308014B2 (en) Non-transitory recording medium, image forming device, and image forming system
US10225428B2 (en) Image processing for handheld scanner
US20100296129A1 (en) Automatic sizing of images acquired by a handheld scanner
US8988745B2 (en) Image processing apparatus for processing photographed images
US20160344897A1 (en) Image processing apparatus
JP2016215472A (en) Image forming apparatus, image forming method and program
JP6507865B2 (en) Information processing apparatus, image forming system, image forming apparatus
JP2017010271A (en) Information processing apparatus, image forming system, image forming apparatus, and program
JP2017170634A (en) Position detector, droplet ejection device, and program
US9597896B2 (en) Handheld recording device, recording device position detection method, and recording medium
JP7298344B2 (en) IMAGE FORMING APPARATUS, INFORMATION PROCESSING APPARATUS, IMAGE FORMING METHOD, AND PROGRAM
JP7206997B2 (en) IMAGE FORMING APPARATUS, STATE CONTROL METHOD, AND PROGRAM
JP6717042B2 (en) Position detection device, droplet discharge device
US11102373B2 (en) Image forming apparatus, state control method, and non-transitory computer-readable storage medium
US10596813B2 (en) Liquid discharge apparatus and liquid discharge method
JP6308003B2 (en) Image forming apparatus, control program, and image forming system
US9268415B2 (en) Touch positioning method utilizing optical identification (OID) technology, OID positioning system and OID reader
CN110877487B (en) Image forming apparatus, image forming method, information processing apparatus, and storage medium
US11461056B2 (en) Printing device for printing while being manually moved, and method for producing printed matter using printing device
JP2021074955A (en) Image forming apparatus and program
JP4949942B2 (en) Image forming apparatus
JP2023005120A (en) Program and image formation method
JP2023039799A (en) Image processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R151 Written notification of patent or utility model registration

Ref document number: 6507865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250