JP6507865B2 - Information processing apparatus, image forming system, image forming apparatus - Google Patents

Information processing apparatus, image forming system, image forming apparatus Download PDF

Info

Publication number
JP6507865B2
JP6507865B2 JP2015114441A JP2015114441A JP6507865B2 JP 6507865 B2 JP6507865 B2 JP 6507865B2 JP 2015114441 A JP2015114441 A JP 2015114441A JP 2015114441 A JP2015114441 A JP 2015114441A JP 6507865 B2 JP6507865 B2 JP 6507865B2
Authority
JP
Japan
Prior art keywords
image
forming apparatus
image forming
image data
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015114441A
Other languages
Japanese (ja)
Other versions
JP2017004076A (en
Inventor
泰成 原田
泰成 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015114441A priority Critical patent/JP6507865B2/en
Publication of JP2017004076A publication Critical patent/JP2017004076A/en
Application granted granted Critical
Publication of JP6507865B2 publication Critical patent/JP6507865B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Facsimiles In General (AREA)
  • Printers Characterized By Their Purpose (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)

Description

本発明は、情報処理装置、画像形成システム及び画像形成装置に関する。   The present invention relates to an information processing apparatus, an image forming system, and an image forming apparatus.

用紙を搬送させて用紙が画像の形成位置に到達したタイミングでインクなどを吐出して画像を形成するプリンタ装置が知られている。これに対し、プリンタ装置から紙搬送システムを削除することで小型化されたプリンタ装置(以下、ハンドヘルドプリンタという)が実用化されつつある。   2. Description of the Related Art There is known a printer apparatus that discharges ink or the like at a timing when a sheet is conveyed and the sheet reaches a position where an image is formed, to form an image. On the other hand, a printer apparatus (hereinafter, referred to as a hand-held printer) which is miniaturized by removing the paper conveyance system from the printer apparatus is being put to practical use.

図1は、ハンドヘルドプリンタ20による画像形成を模式的に示す図の一例である。ハンドヘルドプリンタ20には、例えばスマートフォンやPC(Personal Computer)等の画像データ出力器11から画像データが送信される。ユーザはこのハンドヘルドプリンタ20を把持して、印刷媒体12(例えば定型用紙やノートなど)上をフリーハンドで走査させる。ハンドヘルドプリンタ20は位置検出機構を有しているため、ハンドヘルドプリンタ20が目標吐出位置に移動すると、目標吐出位置で吐出すべき色のインクを吐出する。すでにインクを吐出した場所はマスクされるので(インクの吐出の対象とならないので)、ユーザは印刷媒体12上で任意の方向にハンドヘルドプリンタ20を走査させることで画像を形成できる。   FIG. 1 is an example of a diagram schematically showing image formation by the hand-held printer 20. As shown in FIG. Image data is transmitted to the handheld printer 20 from an image data output unit 11 such as a smartphone or a PC (Personal Computer), for example. The user holds the hand-held printer 20 and scans the print medium 12 (for example, fixed paper, notebook, etc.) freehandedly. Since the hand-held printer 20 has a position detection mechanism, when the hand-held printer 20 moves to the target ejection position, it ejects ink of the color to be ejected at the target ejection position. The location where ink has already been ejected is masked (as it is not the target of ink ejection), so the user can form an image by scanning the hand-held printer 20 in any direction on the print medium 12.

しかしながら、ハンドヘルドプリンタ20の走査はユーザに委ねられるため、ユーザが誤って印刷媒体12からハンドヘルドプリンタ20を浮かしてしまう場合がある。この場合、ハンドヘルドプリンタ20が検出する位置が正確でなくなるおそれがある。また、ユーザが仕様よりも高速にハンドヘルドプリンタ20を走査させる場合があり、この場合も上記位置が正確でなくなるおそれがある。これらの場合、ハンドヘルドプリンタ20が現在の位置を見失って、画像形成を再開することが困難になる。   However, since the scanning of the hand-held printer 20 is left to the user, the user may accidentally float the hand-held printer 20 off the print medium 12. In this case, the position detected by the handheld printer 20 may not be accurate. In addition, the user may scan the hand-held printer 20 at a speed faster than the specification, and also in this case, the position may not be accurate. In these cases, the handheld printer 20 loses its current position, making it difficult to resume image formation.

このような不都合に対し、現在の位置を再認識するハンドヘルドプリンタ20が考案されている(例えば、特許文献1参照。)。特許文献1には、見えないインクで定期的に位置情報を印字し、現在の位置を見失った場合にはスキャナユニットで位置情報を読み取り、現在の位置を認識して画像形成を再開するハンドヘルドプリンタが開示されている。   To cope with such a disadvantage, a hand-held printer 20 has been devised which recognizes the current position again (see, for example, Patent Document 1). In Patent Document 1, a position information is periodically printed with invisible ink, and when the current position is lost, the scanner unit reads the position information, recognizes the current position, and resumes image formation. Is disclosed.

しかしながら、特許文献1に記載されたハンドヘルドプリンタでは、見えないインクを吐出するユニットやスキャナユニットを搭載する必要があるため、コスト増をもたらすという問題がある。また、重くなったり筐体が大きくなったりするため、操作性が低下するおそれもある。   However, the hand-held printer described in Patent Document 1 needs to be equipped with a unit that discharges invisible ink and a scanner unit, which causes a problem of cost increase. In addition, there is a possibility that the operability may be reduced because the housing becomes heavy and the housing becomes large.

本発明は、上記課題に鑑み、コスト増等を抑制して画像形成を再開することができる情報処理装置を提供することを目的とする。   An object of the present invention is to provide an information processing apparatus capable of resuming image formation while suppressing an increase in cost and the like in view of the above problems.

上記課題に鑑み、本発明は、記録媒体上の位置を移動しながら画像データに基づき画像を形成する画像形成装置と通信可能な情報処理装置であって、前記画像形成装置及び前記画像形成装置が記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、前記撮像データから前記画像形成装置及び前記形成画像を検出する画像処理手段と、前記形成画像の形成に用いられた前記画像データにおいて前記形成画像と一致する一致画像を特定し、前記撮像データにおける前記形成画像に対する前記画像形成装置の相対位置を決定し、前記画像データにおける前記一致画像を基準とする前記相対位置に基づいて前記画像データにおける前記画像形成装置の位置を推定する位置推定手段と、前記位置推定手段が推定した前記位置を前記画像形成装置に送信する送信手段と、を有する。 In view of the above problems, the present invention is an information processing apparatus capable of communicating with an image forming apparatus that forms an image based on image data while moving a position on a recording medium, and the image forming apparatus and the image forming apparatus An acquisition means for acquiring imaging data in which a formation image formed on a recording medium is imaged, an image processing means for detecting the image forming apparatus and the formation image from the imaging data, and the method is used for forming the formation image In the image data, a matched image that matches the formed image is specified, the relative position of the image forming apparatus with respect to the formed image in the captured data is determined, and the relative position based on the matched image in the image data is determined a position estimation means for estimating a position of the image forming apparatus in the image data on the basis of, the position of the position estimating unit has estimated And a transmission means for transmitting to the serial image forming apparatus.

コスト増等を抑制して画像形成を再開することができる情報処理装置を提供することができる。   It is possible to provide an information processing apparatus capable of resuming image formation while suppressing cost increase and the like.

ハンドヘルドプリンタによる画像形成を模式的に示す図の一例である。It is an example of the figure showing typically the image formation by a hand-held printer. ハンドヘルドプリンタが見失った現在の位置を取得する手順の概略を説明する図の一例である。FIG. 6 is an example of a diagram for explaining an outline of a procedure for acquiring a current position at which a handheld printer has lost sight. 画像形成システムのシステム構成図の一例である。FIG. 1 is an example of a system configuration diagram of an image forming system. 画像データ出力器とハンドヘルドプリンタのハードウェア構成図の一例である。It is an example of the hardware block diagram of an image data output device and a hand-held printer. 制御部の構成を説明する図の一例である。It is an example of the figure explaining the composition of a control part. 画像データ出力器とハンドヘルドプリンタの機能ブロック図の一例である。It is an example of a functional block diagram of an image data output device and a hand-held printer. IJ記録ヘッドにおけるノズル位置等を説明する図の一例である。FIG. 7 is an example of a diagram for explaining the nozzle position and the like in the IJ recording head. ハンドヘルドプリンタの位置を説明する図の一例である。It is an example of a figure explaining the position of a handheld printer. ハンドヘルドプリンタの上面図における位置検出マークの配置例を示す図である。FIG. 6 is a view showing an arrangement example of position detection marks in the top view of the hand-held printer. 位置検出マークとナビゲーションセンサの相対位置を示す図の一例である。It is an example of the figure which shows the relative position of a position detection mark and a navigation sensor. 撮像データにおけるハンドヘルドプリンタの位置を説明する図の一例である。FIG. 7 is an example of a diagram for explaining the position of a handheld printer in imaging data. 画像データに対する照合用画像を用いたパターンマッチングを模式的に説明する図の一例である。FIG. 7 is an example of a diagram schematically illustrating pattern matching using an image for matching on image data. 表示装置に表示された問い合わせ画面の一例を示す図である。It is a figure which shows an example of the inquiry screen displayed on the display apparatus. 照合用画像の辺の長さに着目したパターンマッチングの一例を示す図である。It is a figure which shows an example of the pattern matching which paid its attention to the side length of the image for collation. 画像データにおけるハンドヘルドプリンタの位置を説明する図の一例である。FIG. 2 is an example of a diagram for explaining the position of a handheld printer in image data. 画像形成システムの動作手順を示すフローチャート図の一例である。FIG. 6 is an example of a flowchart showing an operation procedure of the image forming system. 画像データ出力器の機能ブロック図の一例である(実施例2)。It is an example of the functional block diagram of an image data output device (Example 2). 撮像データの歪みを説明する図の一例である。It is an example of a figure explaining distortion of image pick-up data. 変換前と後の照合用画像をそれぞれ示す図の一例である。It is an example of the figure which shows the image for collation before and after conversion, respectively. ハンドヘルドプリンタと配置された非正面マークの一例を示す図である。It is a figure which shows an example of the non-front mark arrange | positioned with a hand-held printer. 画像データ出力器によるハンドヘルドプリンタの撮像を模式的に説明する図の一例である。It is an example of the figure which illustrates imaging of a handheld printer by an image data output machine typically. 画像データ出力器の撮像手順を示すフローチャート図の一例である(実施例3)。It is an example of the flowchart figure which shows the imaging procedure of an image data output device (Example 3). 画像データ出力器の撮像手順を示すフローチャート図の一例である(実施例4)。It is an example of the flowchart figure which shows the imaging procedure of an image data output device (Example 4).

以下、本発明を実施するための形態について図面を参照しながら実施例を挙げて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<ハンドヘルドプリンタの位置の取得の概略>
まず、図2を用いてハンドヘルドプリンタ20が現在の位置を見失った際に、現在の位置を取得する手順の概略を説明する。図2は、ハンドヘルドプリンタ20が見失った現在の位置を取得する手順の概略を説明する図の一例である。
(i) 図2(a)に示すように、ユーザは印刷媒体(記録媒体の一例)上でハンドヘルドプリンタ20を走査させて画像を形成させる。そして、画像を全て形成するまでに、ハンドヘルドプリンタ20が現在の位置を見失ったものとする。
(ii)ユーザはハンドヘルドプリンタ20の状態をLEDランプや警報音で把握する。すると、ユーザは印刷媒体12の適当な場所にハンドヘルドプリンタ20を置いて、画像データ出力器11でハンドヘルドプリンタ20と印刷媒体12を撮像する(図2(b))。ここで、ハンドヘルドプリンタ20には予め位置検出マークM1,M2(第一マークの一例)が形成されている。
(iii) 図2(c)の左図は撮像されたハンドヘルドプリンタ20と印刷媒体12の撮像データ14である。画像データ出力器11は、撮像データ14からハンドヘルドプリンタ20の位置検出マークM1,M2を検出する。また、画像データ出力器11はハンドヘルドプリンタ20の周囲又は近くの画像(以下、照合用画像14aという)を撮像データ14から取得する。そして、画像データ出力器11は、画像形成に使用した画像データ13から照合用画像14aと一致する一致画像13aを探索する(パターンマッチングする)。
(iv) 図2(d)は画像データ13を示す。図2(c)に示したように撮像データ14において照合用画像14aに対する位置検出マークM1,M2の相対位置が分かっているので、画像データ13においても一致画像13aに対する位置検出マークM1,M2の相対位置を特定できる。つまり、画像データ13におけるハンドヘルドプリンタ20の位置を特定できる。
(v) 画像データ出力器11は、ハンドヘルドプリンタ20の位置(又は、位置検出マークM1,M2の位置のそのもの)をハンドヘルドプリンタ20に送信する。これにより、図2(e)に示すように、ハンドヘルドプリンタ20は現在の位置を取得して画像形成を再開できる。
<Summary of Acquisition of Position of Handheld Printer>
First, an outline of a procedure for acquiring the current position when the handheld printer 20 loses the current position will be described with reference to FIG. FIG. 2 is an example of a diagram for explaining the outline of the procedure for acquiring the current position at which the handheld printer 20 has lost sight.
(i) As shown in FIG. 2A, the user scans the hand-held printer 20 on a print medium (an example of a recording medium) to form an image. Then, it is assumed that the handheld printer 20 has lost the current position by the time all the images are formed.
(ii) The user grasps the state of the hand-held printer 20 by the LED lamp and the alarm sound. Then, the user places the hand-held printer 20 at an appropriate place on the print medium 12 and picks up the hand-held printer 20 and the print medium 12 with the image data output unit 11 (FIG. 2 (b)). Here, in the handheld printer 20, position detection marks M1 and M2 (an example of a first mark) are formed in advance.
(iii) The left view of FIG. 2C shows the captured data 14 of the hand-held printer 20 and the print medium 12 captured. The image data output unit 11 detects the position detection marks M1 and M2 of the handheld printer 20 from the imaging data 14. Further, the image data output unit 11 acquires an image around the hand-held printer 20 (hereinafter, referred to as a verification image 14 a) from the imaging data 14. Then, the image data output unit 11 searches the image data 13 used for image formation for a matching image 13a that matches the image for matching 14a (pattern matching is performed).
(iv) FIG. 2 (d) shows the image data 13. As shown in FIG. 2C, the relative positions of the position detection marks M1 and M2 with respect to the verification image 14a in the imaging data 14 are known, so that the position detection marks M1 and M2 with respect to the matching image 13a in the image data 13 as well. The relative position can be identified. That is, the position of the handheld printer 20 in the image data 13 can be specified.
(v) The image data output unit 11 transmits the position of the hand-held printer 20 (or the position of the position detection marks M1 and M2 itself) to the hand-held printer 20. As a result, as shown in FIG. 2E, the handheld printer 20 can acquire the current position and resume image formation.

したがって、本実施形態のハンドヘルドプリンタ20は位置を見失っても、コスト増等を抑制して、位置を取得し画像形成を再開できる。   Therefore, even if the handheld printer 20 according to the present embodiment loses the position, it can acquire the position and resume the image formation while suppressing the cost increase and the like.

<用語について>
本実施形態で使用される用語について説明する。
画像データは、画像形成に用いられるデータであり、画像データ出力器が保持している。
撮像データは、印刷媒体12とハンドヘルドプリンタ20が撮像されたデータである。
<About terms>
The terms used in the present embodiment will be described.
Image data is data used for image formation, and is held by an image data output unit.
The imaging data is data obtained by imaging the print medium 12 and the handheld printer 20.

ハンドヘルドプリンタ20が位置を見失うとは、現在の位置を算出できないことや極度に不正確となることをいう。要因としては、用紙からハンドヘルドプリンタ20が浮いてしまうことや、ユーザが仕様よりも高速にハンドヘルドプリンタ20を走査させることなどがあるが、本実施形態では要因は制限されない。   If the handheld printer 20 loses position, it means that the current position can not be calculated or it is extremely inaccurate. The factors include that the hand-held printer 20 floats from the sheet, and the user causes the hand-held printer 20 to scan faster than the specifications, but the factors are not limited in this embodiment.

印刷媒体12は例えば定形用紙やノートなどであるが、これらに限られるわけではなく、机などの固定物を印刷媒体12としてもよいし、紙以外のシート状部材を印刷媒体12としてもよい。また、印刷媒体12は必ずしも水平に配置されていなくてもよい。   The print medium 12 is, for example, a fixed-size sheet or a notebook, but the invention is not limited thereto. A fixed object such as a desk may be used as the print medium 12 or a sheet-like member other than paper may be used as the print medium 12. Also, the print medium 12 may not necessarily be arranged horizontally.

<構成例>
図3は、画像形成システム1のシステム構成図の一例を示す。図3(a)の画像形成システム1は、互いに通信可能な画像データ出力器11とハンドヘルドプリンタ20を有している。このようなシステム構成では、画像データ出力器11が画像データ13をハンドヘルドプリンタ20に送信し、さらにハンドヘルドプリンタ20が位置を見失った場合は画像データ出力器11がハンドヘルドプリンタ20と印刷媒体12を撮像する。画像データ出力器11は、撮像データ14からハンドヘルドプリンタ20の位置を検出してハンドヘルドプリンタ20に送信する。
<Configuration example>
FIG. 3 shows an example of a system configuration diagram of the image forming system 1. The image forming system 1 of FIG. 3A includes an image data output unit 11 and a hand-held printer 20 that can communicate with each other. In such a system configuration, the image data output unit 11 transmits the image data 13 to the hand-held printer 20, and when the hand-held printer 20 loses position, the image data output unit 11 picks up the hand-held printer 20 and the print medium 12 Do. The image data output unit 11 detects the position of the hand-held printer 20 from the imaging data 14 and transmits the position to the hand-held printer 20.

また、図3(a)のシステム構成において、ハンドヘルドプリンタ20がハンドヘルドプリンタ20の位置を検出してもよい。この場合、画像データ出力器11は撮像データ14をハンドヘルドプリンタ20に送信する。ハンドヘルドプリンタ20は少なくとも一部の画像データ13を保持しているが、必要であれば画像データ出力器11から画像データ13の全体を取得する。ハンドヘルドプリンタ20は、画像データ出力器11と同様にハンドヘルドプリンタ20の位置を検出する。   Further, in the system configuration of FIG. 3A, the handheld printer 20 may detect the position of the handheld printer 20. In this case, the image data output unit 11 transmits the imaging data 14 to the hand-held printer 20. The hand-held printer 20 holds at least a part of the image data 13, but acquires the entire image data 13 from the image data output unit 11 if necessary. The handheld printer 20 detects the position of the handheld printer 20 in the same manner as the image data output unit 11.

図3(b)の画像形成システム1は画像データ出力器11、ハンドヘルドプリンタ20及び撮像装置8を有している。このようなシステム構成では、ハンドヘルドプリンタ20が位置を見失った場合、撮像装置8がハンドヘルドプリンタ20と印刷媒体12を撮像する。撮像装置8は撮像データ14を画像データ出力器11に送信するので、画像データ出力器11は、撮像データ14からハンドヘルドプリンタ20の位置を検出してハンドヘルドプリンタ20に送信する。   The image forming system 1 shown in FIG. 3B includes an image data output unit 11, a hand-held printer 20, and an imaging device 8. In such a system configuration, the imaging device 8 images the handheld printer 20 and the print medium 12 when the handheld printer 20 loses its position. Since the imaging device 8 transmits the imaging data 14 to the image data output unit 11, the image data output unit 11 detects the position of the handheld printer 20 from the imaging data 14 and transmits it to the handheld printer 20.

また、この場合もハンドヘルドプリンタ20がハンドヘルドプリンタ20の位置を検出してもよい。この場合、撮像装置8は撮像データ14をハンドヘルドプリンタ20に送信する(画像データ出力器11を経由して送信してもよい)。ハンドヘルドプリンタ20は図3(a)と同様にハンドヘルドプリンタ20の位置を検出する。   Also in this case, the handheld printer 20 may detect the position of the handheld printer 20. In this case, the imaging device 8 transmits the imaging data 14 to the handheld printer 20 (may be transmitted via the image data output unit 11). The hand-held printer 20 detects the position of the hand-held printer 20 as in FIG. 3 (a).

また、撮像装置8がハンドヘルドプリンタ20の位置を検出してもよい。この場合、撮像装置8は画像データ出力器11から画像データ13を取得して、ハンドヘルドプリンタ20の位置を検出する。撮像装置8は検出した位置をハンドヘルドプリンタ20に送信する。   Also, the imaging device 8 may detect the position of the hand-held printer 20. In this case, the imaging device 8 acquires the image data 13 from the image data output unit 11 and detects the position of the hand-held printer 20. The imaging device 8 transmits the detected position to the hand-held printer 20.

本実施形態の画像形成システム1では、このように画像データ13と撮像データ14を取得した装置であれば、ハンドヘルドプリンタ20の位置を検出できる。したがって、図3(c)に示すように、画像データ出力器11が画像データ13と撮像データ14をサーバ9に送信することで、サーバ9がハンドヘルドプリンタ20の位置を検出してもよい。サーバ9は検出した位置を画像データ出力器11に送信し、画像データ出力器11はこの位置をハンドヘルドプリンタ20に送信する。   In the image forming system 1 according to the present embodiment, the position of the hand-held printer 20 can be detected as long as the apparatus acquires the image data 13 and the imaging data 14 as described above. Therefore, as shown in FIG. 3C, the server 9 may detect the position of the handheld printer 20 by the image data output unit 11 transmitting the image data 13 and the imaging data 14 to the server 9. The server 9 transmits the detected position to the image data output unit 11, and the image data output unit 11 transmits this position to the hand-held printer 20.

以下では、説明の便宜上、画像データ出力器11がハンドヘルドプリンタ20の位置を検出するものとして説明する。   In the following, for convenience of explanation, the image data output unit 11 is described as detecting the position of the handheld printer 20.

なお、画像データ出力器11は、情報処理装置である。例えばスマートフォン、PC(Personal Computer)、タブレット端末、PDA(Personal Digital Assitant)、携帯電話又はウェアラブルPCなどである。あるいは、MFP(Multifunctional Peripheral/Printer/Product)、各種のカメラ、電子黒板、ゲーム機器、カーナビゲーション端末、プロジェクタなどでもよい。   The image data output unit 11 is an information processing apparatus. For example, a smartphone, a personal computer (PC), a tablet terminal, a personal digital assistant (PDA), a mobile phone, or a wearable PC may be used. Alternatively, MFP (Multifunctional Peripheral / Printer / Product), various cameras, electronic blackboards, game devices, car navigation terminals, projectors, etc. may be used.

<<ハードウェア構成>>
図4を用いて画像データ出力器11とハンドヘルドプリンタ20のハードウェア構成について説明する。画像データ出力器11は、例えば図4に示すようなハードウェア構成により実現される。画像データ出力器11は、入力装置101、表示装置102、外部I/F103、カメラ110、RAM104、ROM105、CPU106、通信I/F107、SSD(Solid State Drive)108、及び近距離無線通信装置109などを備え、それぞれがバスBで相互に接続されている。
<< Hardware Configuration >>
The hardware configuration of the image data output unit 11 and the hand-held printer 20 will be described with reference to FIG. The image data output unit 11 is realized by, for example, a hardware configuration as shown in FIG. The image data output unit 11 includes an input device 101, a display device 102, an external I / F 103, a camera 110, a RAM 104, a ROM 105, a CPU 106, a communication I / F 107, a solid state drive (SSD) 108, and a short distance wireless communication device 109. , And each is connected to one another by a bus B.

入力装置101は、例えば、タッチパネルであり、画像データ出力器11に各操作信号を入力するのに用いられる。なお、入力装置101は、キーボードやマウスなどであってもよい。表示装置102は、例えば、LCD(Liquid Crystal Display)などであり、画像データ出力器11による処理結果を表示する。   The input device 101 is, for example, a touch panel, and is used to input each operation signal to the image data output unit 11. The input device 101 may be a keyboard, a mouse or the like. The display device 102 is, for example, an LCD (Liquid Crystal Display) or the like, and displays the processing result by the image data output unit 11.

外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。記録媒体103aには、本実施形態の機能を実現するためのプログラム(後述する出力器用プログラム)を格納することができる。画像データ出力器11は外部I/F103を介して、記録媒体103aの読み取り及び/又は書き込みを行うことができる。   The external I / F 103 is an interface with an external device. The external device is, for example, a recording medium 103a. The recording medium 103a can store a program for realizing the function of the present embodiment (a program for an output device described later). The image data output unit 11 can read and / or write the recording medium 103 a via the external I / F 103.

記録媒体103aは、例えば、SDメモリカード(SD Memory card)などの記録媒体である。記録媒体103aは、USBメモリ(Universal Serial Bus memory)、DVD(Digital Versatile Disk)、CD(Compact Disk)、フレキシブルディスクなどの記録媒体であってもよい。   The recording medium 103a is, for example, a recording medium such as an SD memory card. The recording medium 103 a may be a recording medium such as a USB memory (Universal Serial Bus memory), a DVD (Digital Versatile Disk), a CD (Compact Disk), a flexible disk, or the like.

カメラ110は、像を結像させるレンズ、絞り、CMOSやCCDなどの撮像素子などを備えた撮像装置である。静止画だけでなく動画を撮像できる。   The camera 110 is an imaging device provided with a lens for forming an image, an aperture, and an imaging element such as a CMOS or a CCD. Not only still pictures but also moving pictures can be taken.

RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。ROM105は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、画像データ出力器11の起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。   The RAM 104 is a volatile semiconductor memory (storage device) that temporarily holds programs and data. The ROM 105 is a non-volatile semiconductor memory (storage device) capable of holding programs and data even after the power is turned off. The ROM 105 stores programs and data such as a BIOS (Basic Input / Output System), an OS setting, and a network setting which are executed when the image data output unit 11 is started.

CPU106は、ROM105やSSD108などの記憶装置からプログラムやデータをRAM104上に読み出し、処理を実行することで、画像データ出力器11全体の制御や機能を実現する演算装置である。   The CPU 106 is an arithmetic device that implements control and functions of the entire image data output unit 11 by reading programs and data from a storage device such as the ROM 105 or the SSD 108 onto the RAM 104 and executing processing.

通信I/F107は、通信を行うためのインタフェースである。通信I/F107は、例えばBluetooth(登録商標)や無線LANなどの通信規格でハンドヘルドプリンタ20と通信する。なお、アクセスポイントを介さない無線LANの通信規格として、Wi−Fi Direct、アドホックモードなどがある。なお、通信I/F107は、携帯電話網に接続するためのインタフェースであってもよい。   The communication I / F 107 is an interface for performing communication. The communication I / F 107 communicates with the handheld printer 20 according to a communication standard such as Bluetooth (registered trademark) or a wireless LAN, for example. In addition, Wi-Fi Direct, an ad hoc mode, etc. exist as a communication standard of wireless LAN which does not go through an access point. Communication I / F 107 may be an interface for connecting to a mobile telephone network.

SSD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、例えば画像データ出力器11全体を制御する基本ソフトウェアであるOS(Operating System)や、OS上において各種機能を提供するアプリケーションソフトウェア(後述する出力器用プログラムが含まれる)などがある。なお、画像データ出力器11は、SSD108の代わりに又はSSD108と併せて、HDD(Hard Disk Drive)等を備えていてもよい。   The SSD 108 is a non-volatile storage device storing programs and data. The stored programs and data include, for example, an OS (Operating System) which is basic software for controlling the entire image data output unit 11, and application software for providing various functions on the OS (including an output unit program to be described later) and so on. The image data output unit 11 may include an HDD (Hard Disk Drive) or the like instead of or in combination with the SSD 108.

近距離無線通信装置109は、例えば、NFC(Near Field Communication)やTransferJet(登録商標)などのICチップを用いた通信規格にしたがって通信する。画像データ出力器11は、通信I/Fや近距離無線通信装置109を用いてハンドヘルドプリンタ20に画像データ13を送信する。この場合、ハンドヘルドプリンタ20もICチップによる通信が可能である。   The short distance wireless communication device 109 communicates in accordance with a communication standard using an IC chip such as NFC (Near Field Communication) or TransferJet (registered trademark), for example. The image data output unit 11 transmits the image data 13 to the handheld printer 20 using the communication I / F or the short distance wireless communication device 109. In this case, the handheld printer 20 can also communicate with the IC chip.

続いて、図4を用いてハンドヘルドプリンタ20のハードウェア構成について説明する。ハンドヘルドプリンタ20は、印刷媒体12に画像を形成する画像形成装置の一例である。ハンドヘルドプリンタ20は、制御部25によって全体の動作が制御され、制御部25には通信I/F27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、及び、ナビゲーションセンサ30が電気的に接続されている。また、ハンドヘルドプリンタ20は電力により駆動されるため、電源22と電源回路21を有している。電源回路21が生成する電力は、点線22aで示す配線などにより、通信I/F27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、IJ記録ヘッド24、制御部25、及び、ナビゲーションセンサ30に供給されている。   Subsequently, the hardware configuration of the handheld printer 20 will be described with reference to FIG. The handheld printer 20 is an example of an image forming apparatus that forms an image on the print medium 12. The entire operation of the hand-held printer 20 is controlled by the control unit 25, and the communication I / F 27, the IJ recording head drive circuit 23, the OPU 26, the ROM 28, the DRAM 29 and the navigation sensor 30 are electrically connected to the control unit 25. ing. Further, since the hand-held printer 20 is driven by electric power, it has a power supply 22 and a power supply circuit 21. The power generated by the power supply circuit 21 is supplied to the communication I / F 27, the IJ recording head drive circuit 23, the OPU 26, the ROM 28, the DRAM 29, the IJ recording head 24, the control unit 25, and the navigation sensor 30. It is supplied.

電源22は主に電池(バッテリー)が利用される。太陽電池や商用電源(交流電源)、燃料電池等が用いられてもよい。電源回路21は、電源22が供給する電力をハンドヘルドプリンタ20の各部に分配する。また、電源22の電圧を各部に適した電圧に降圧や昇圧する。また、電源22が電池で充電可能である場合、電源回路21は交流電源の接続を検出して電池の充電回路に接続し、電源22の充電を可能にする。   The power source 22 mainly uses a battery. A solar cell, a commercial power source (AC power source), a fuel cell or the like may be used. The power supply circuit 21 distributes the power supplied by the power supply 22 to each part of the handheld printer 20. Further, the voltage of the power supply 22 is stepped down or boosted to a voltage suitable for each part. Further, when the power supply 22 can be charged by the battery, the power supply circuit 21 detects the connection of the AC power supply and connects it to the charging circuit of the battery to enable charging of the power supply 22.

通信I/F27は、スマートフォンやPC等の画像データ出力器11から画像データの受信等を行う。通信I/F27は例えば無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、赤外線、3G(携帯電話)、又は、LTE(Long Term Evolution)等の通信規格に対応した通信装置である。また、このような無線通信の他、有線LAN、USBケーブルなどを用いた有線通信に対応した通信装置であってもよい。   The communication I / F 27 receives image data from the image data output unit 11 such as a smartphone or a PC. The communication I / F 27 is, for example, a communication device compatible with a communication standard such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), infrared, 3G (mobile phone), or LTE (Long Term Evolution). Further, in addition to such wireless communication, a communication device compatible with wired communication using a wired LAN, a USB cable or the like may be used.

ROM28は、ハンドヘルドプリンタ20のハードウェア制御を行うファームウェアや、IJ記録ヘッド24の駆動波形データ(液滴を吐出するための電圧変化を規定するデータ)や、ハンドヘルドプリンタ20の初期設定データ等を格納している。   The ROM 28 stores firmware for performing hardware control of the hand-held printer 20, drive waveform data of the IJ recording head 24 (data defining a voltage change for discharging a droplet), initial setting data of the hand-held printer 20, etc. doing.

DRAM29は通信I/F27が受信した画像データを記憶したり、ROM28から展開されたファームウェアの格納のために使用される。したがって、CPU31がファームウェアを実行する際のワークメモリとして使用される。   The DRAM 29 is used to store image data received by the communication I / F 27 and to store firmware developed from the ROM 28. Therefore, it is used as a work memory when the CPU 31 executes the firmware.

ナビゲーションセンサ30は、ハンドヘルドプリンタ20の位置を検出するセンサである。ナビゲーションセンサ30は、例えば、発光ダイオード(LED)やレーザ等の光源と、印刷媒体12を撮像する撮像センサ、又は、入反射光の干渉縞を撮像するセンサを有している。ハンドヘルドプリンタ20が印刷媒体12上を走査されると、印刷媒体12の微小なエッジが次々に検出され(撮像され)エッジ間の距離を解析することで移動量が得られる。ナビゲーションセンサ30は、ハンドヘルドプリンタ20の少なくとも2箇所に搭載されている。両者を区別する場合、ナビゲーションセンサS0,S1という。なお、ナビゲーションセンサ30として、さらに多軸の加速度センサやジャイロセンサ等を用いてもよく、加速度センサやジャイロセンサのみでハンドヘルドプリンタ20の位置を検出してもよい。   The navigation sensor 30 is a sensor that detects the position of the handheld printer 20. The navigation sensor 30 has, for example, a light source such as a light emitting diode (LED) or a laser, an imaging sensor for imaging the print medium 12, or a sensor for imaging interference fringes of incident and reflected light. As the hand-held printer 20 is scanned over the print medium 12, minute edges of the print medium 12 are detected one after another (imaged), and the distance between the edges is analyzed to obtain the movement amount. The navigation sensor 30 is mounted on at least two places of the hand-held printer 20. When the two are distinguished, they are referred to as navigation sensors S0 and S1. A multi-axis acceleration sensor or a gyro sensor may be used as the navigation sensor 30, or the position of the hand-held printer 20 may be detected only by the acceleration sensor or the gyro sensor.

OPU(Operation panel Unit)26は、ハンドヘルドプリンタ20の状態を表示するLED、ユーザがハンドヘルドプリンタ20に画像形成を指示するためのスイッチ等を有している。ただし、これに限定するものではなく、液晶ディスプレイを有していてよく、さらにタッチパネルを有していてもよい。また、音声入力機能を有していてもよい。   An operation panel unit (OPU) 26 has an LED for displaying the state of the hand-held printer 20, a switch for the user to instruct the hand-held printer 20 to form an image, and the like. However, the present invention is not limited to this, and may have a liquid crystal display, and may further have a touch panel. In addition, it may have a voice input function.

IJ記録ヘッド駆動回路23は上記の駆動波形データを用いて、IJ記録ヘッド24を駆動するための駆動波形(電圧)を生成する。インクの液滴のサイズなどに応じた駆動波形を生成できる。   The IJ recording head drive circuit 23 generates a drive waveform (voltage) for driving the IJ recording head 24 using the above-described drive waveform data. It is possible to generate a drive waveform according to the size of the ink droplet and the like.

IJ記録ヘッド24は、インクを吐出するためのヘッドである。図ではCMYKの4色のインクを吐出可能になっているが、単色でもよく5色以上の吐出が可能でもよい。各色ごとに一列(二列以上でもよい)に並んだ複数のインク吐出用のノズル(後述する)が配置されている。また、インクの吐出方式はピエゾ方式でもサーマル方式でもよく、この他の方式でもよい。   The IJ recording head 24 is a head for ejecting ink. In the drawing, the four color inks of CMYK can be discharged, but a single color or five or more colors may be discharged. A plurality of ink discharge nozzles (described later) arranged in one line (or two or more lines) may be arranged for each color. Also, the ink ejection method may be a piezo method, a thermal method, or another method.

制御部25は、ナビゲーションセンサ30が検出する移動量を元に、IJ記録ヘッド24の各ノズルの位置、該位置に応じて形成する画像の決定、吐出ノズル可否判定(ノズルの位置が目標吐出位置から所定範囲内かどうかの判定)等を行う。制御部25について詳細は次述する。   The control unit 25 determines the position of each nozzle of the IJ recording head 24 based on the movement amount detected by the navigation sensor 30, and determines an image to be formed according to the position, and determines whether the discharge nozzle is possible (the position of the nozzle is the target discharge position And the like) and the like. The details of the control unit 25 will be described below.

図5は、制御部25の構成を説明する図の一例である。制御部25はSoC50とASIC/FPGA40を有している。SoC50とASIC/FPGA40はバス45,46を介して通信する。ASIC/FPGA40はどちらの実装技術で設計されてもよいことを意味し、ASIC/FPGA40以外の他の実装技術で構成されてよい。また、SoC50とASIC/FPGA40を別のチップにすることなく1つのチップや基盤で構成してもよい。あるいは、3つ以上のチップや基盤で実装してもよい。   FIG. 5 is an example of a diagram for explaining the configuration of the control unit 25. As shown in FIG. The control unit 25 includes a SoC 50 and an ASIC / FPGA 40. The SoC 50 and the ASIC / FPGA 40 communicate via buses 45 and 46. The ASIC / FPGA 40 means that it may be designed with either implementation technology, and may be configured with other implementation technologies other than the ASIC / FPGA 40. Also, the SoC 50 and the ASIC / FPGA 40 may be configured as one chip or base without being separate chips. Alternatively, it may be implemented with three or more chips or platforms.

SoC50は、バス46を介して接続されたCPU31、位置算出回路32、メモリCTL(コントローラ)35、及び、ROM CTL(コントローラ)36等の機能を有している。なお、SoC50が有する構成要素はこれらに限られない。   The SoC 50 has functions of a CPU 31, a position calculation circuit 32, a memory CTL (controller) 35, a ROM CTL (controller) 36, and the like connected via a bus 46. The components of SoC 50 are not limited to these.

また、ASIC/FPGA40は、バス45を介して接続されたImage RAM37、DMAC38、回転器39、割込みコントローラ41、ナビゲーションセンサI/F42、印字/センサタイミング生成部43、及び、IJ記録ヘッド制御部44を有している。なお、ASIC/FPGA40が有する構成要素はこれらに限られない。   The ASIC / FPGA 40 also includes an Image RAM 37, a DMAC 38, a rotator 39, an interrupt controller 41, a navigation sensor I / F 42, a print / sensor timing generator 43, and an IJ recording head controller 44 connected via a bus 45. have. The components of the ASIC / FPGA 40 are not limited to these.

CPU31は、ROM28からDRAM29に展開されたファームウェア(プログラム)などを実行し、SoC50内の位置算出回路32、メモリCTL35、及び、ROM CTL36の動作を制御する。また、ASIC/FPGA40内のImage RAM37、DMAC38、回転器39、割込みコントローラ41、ナビゲーションセンサI/F42、印字/センサタイミング生成部43、及び、IJ記録ヘッド制御部44の動作を制御する。   The CPU 31 executes firmware (program) or the like expanded from the ROM 28 to the DRAM 29, and controls the operation of the position calculation circuit 32, the memory CTL 35, and the ROM CTL 36 in the SoC 50. Further, it controls the operations of the image RAM 37, the DMAC 38, the rotator 39, the interrupt controller 41, the navigation sensor I / F 42, the print / sensor timing generator 43, and the IJ print head controller 44 in the ASIC / FPGA 40.

位置算出回路32は、ナビゲーションセンサ30が検出するサンプリング周期ごとの移動量に基づいてハンドヘルドプリンタ20の位置(座標情報)を算出する。ハンドヘルドプリンタ20の位置とは、厳密にはノズル61の位置であるが、ナビゲーションセンサ30のある位置が分かればノズル61の位置を算出できる。本実施例では、特に断らない限りナビゲーションセンサ30の位置としてナビゲーションセンサS0、S1の位置をいう。また、位置算出回路32は目標吐出位置を算出する。   The position calculation circuit 32 calculates the position (coordinate information) of the hand-held printer 20 based on the movement amount for each sampling cycle detected by the navigation sensor 30. The position of the hand-held printer 20 is strictly the position of the nozzle 61, but if the position of the navigation sensor 30 is known, the position of the nozzle 61 can be calculated. In this embodiment, the positions of the navigation sensors S0 and S1 are referred to as the position of the navigation sensor 30 unless otherwise specified. Further, the position calculation circuit 32 calculates a target discharge position.

ナビゲーションセンサ30の位置は、後述するように例えば所定の原点(画像形成が開始される時のハンドヘルドプリンタ20の初期位置)を基準に算出されている。また、位置算出回路32は、過去の位置と最も新しい位置の差に基づいて移動速度や移動方向を推定し、例えば次回の算出タイミングにおける位置を予測する。こうすることで、ユーザの走査に対する遅れを抑制してインクを吐出できる。   The position of the navigation sensor 30 is calculated based on, for example, a predetermined origin (the initial position of the hand-held printer 20 when the image formation is started) as described later. The position calculation circuit 32 estimates the moving speed and the moving direction based on the difference between the past position and the most recent position, and predicts, for example, the position at the next calculation timing. By doing this, it is possible to discharge the ink while suppressing the delay with respect to the scan of the user.

メモリCTL35は、DRAM29とのインタフェースであり、DRAM29に対しデータを要求し、取得したファームウェアをCPU31に送出したり、取得した画像データをASIC/FPGA40に送出する。   The memory CTL 35 is an interface with the DRAM 29, requests data from the DRAM 29, sends the obtained firmware to the CPU 31, and sends the obtained image data to the ASIC / FPGA 40.

ROM CTL36は、ROM28とのインタフェースであり、ROM28に対しデータを要求し、取得したデータをCPU31やASIC/FPGA40に送出する。   The ROM CTL 36 is an interface with the ROM 28, requests data from the ROM 28, and sends the acquired data to the CPU 31 or the ASIC / FPGA 40.

DMAC38は、位置算出回路32が算出した位置情報を元に、メモリCTL35を介してIJ記録ヘッド24の各ノズル周辺の画像データ13を取得する。つまり、印刷媒体12に対しハンドヘルドプリンタ20が存在する位置の周辺の画像データが取得される。   The DMAC 38 acquires the image data 13 around each nozzle of the IJ recording head 24 via the memory CTL 35 based on the position information calculated by the position calculation circuit 32. That is, image data around the position where the handheld printer 20 is present with respect to the print medium 12 is acquired.

回転器39は、DMAC38が取得した画像データを、インクを吐出するヘッド、及び、ヘッド内のノズル位置に応じて回転させる。DMAC38は回転後の画像データをIJ記録ヘッド制御部44へ出力する。回転器39は、例えば、位置算出回路32が位置を算出する際に算出した回転角θを取得し、その回転角θを用いて画像を回転させることができる。   The rotator 39 rotates the image data acquired by the DMAC 38 in accordance with the head that ejects ink and the position of the nozzle in the head. The DMAC 38 outputs the image data after rotation to the IJ recording head control unit 44. The rotator 39 can obtain, for example, the rotation angle θ calculated when the position calculation circuit 32 calculates the position, and can rotate the image using the rotation angle θ.

Image RAM37はDMAC38が取得した画像データ13を一時的に格納する。すなわち、ある程度の画像データ13がバッファリングされ、ハンドヘルドプリンタ20の位置に応じて読み出される。   The image RAM 37 temporarily stores the image data 13 acquired by the DMAC 38. That is, a certain amount of image data 13 is buffered and read out according to the position of the hand-held printer 20.

IJ記録ヘッド制御部44は、画像データ(ビットマップデータ)にディザ処理などを施して大きさと密度で画像を表す点の集合に画像データ13を変換する。これにより、画像データ13は吐出位置と点のサイズのデータとなる。IJ記録ヘッド制御部44は点のサイズに応じた制御信号をIJ記録ヘッド駆動回路23に出力する。IJ記録ヘッド駆動回路23は上記のように制御信号に対応した駆動波形データを用いて、駆動波形(電圧)を生成する。   The IJ recording head control unit 44 subjects the image data (bit map data) to dithering or the like to convert the image data 13 into a set of points representing the image in size and density. Thereby, the image data 13 becomes data of the ejection position and the size of the point. The IJ recording head control unit 44 outputs a control signal corresponding to the size of the point to the IJ recording head drive circuit 23. As described above, the IJ recording head drive circuit 23 generates a drive waveform (voltage) using the drive waveform data corresponding to the control signal.

ナビゲーションセンサI/F42は、ナビゲーションセンサ30と通信し、ナビゲーションセンサ30からの情報として移動量ΔX´、ΔY´(これらについては後述する)を受信し、その値を内部レジスタに格納する。   The navigation sensor I / F 42 communicates with the navigation sensor 30, receives movement amounts ΔX ′ and ΔY ′ (these will be described later) as information from the navigation sensor 30, and stores the values in an internal register.

印字/センサタイミング生成部43は、ナビゲーションセンサI/F42にナビゲーションセンサ30の情報を読み取るタイミングを通知し、IJ記録ヘッド制御部44に駆動タイミングを通知する。IJ記録ヘッド制御部44は吐出ノズル可否判定を行い、インクを吐出すべき目標吐出位置があればインクを吐出し、目標吐出位置がなければ吐出しないと判定する。   The print / sensor timing generation unit 43 notifies the navigation sensor I / F 42 of the timing for reading the information of the navigation sensor 30, and notifies the IJ recording head control unit 44 of the drive timing. The IJ print head control unit 44 determines whether or not the ejection nozzle is to be ejected, and when the target ejection position where the ink should be ejected is present, the ink is ejected, and when the target ejection position is not present, it is determined that ejection is not performed.

割込みコントローラ41は、ナビゲーションセンサI/F42がナビゲーションセンサ30との通信が完了したことを検知して、SoC50へそれを通知するための割り込み信号を出力する。CPU31はこの割り込みにより、ナビゲーションセンサI/F42が内部レジスタに記憶するΔX´、ΔY´を取得する。その他、エラー等のステータス通知機能も有する。   The interrupt controller 41 detects that the navigation sensor I / F 42 has completed communication with the navigation sensor 30, and outputs an interrupt signal for notifying the SoC 50 of it. The CPU 31 acquires ΔX ′ and ΔY ′ stored in the internal register by the navigation sensor I / F 42 by this interrupt. In addition, it also has a status notification function such as an error.

<画像データ出力器11とハンドヘルドプリンタの機能について>
続いて、図6を用いて画像データ出力器11とハンドヘルドプリンタ20の機能について説明する。図6は画像データ出力器11とハンドヘルドプリンタ20の機能ブロック図の一例である。
<Functions of Image Data Output Device 11 and Handheld Printer>
Subsequently, functions of the image data output unit 11 and the hand-held printer 20 will be described with reference to FIG. FIG. 6 is an example of a functional block diagram of the image data output unit 11 and the hand-held printer 20. As shown in FIG.

<<画像データ出力器>>
画像データ出力器11は、送受信部51、撮像部52、マーク検出部53、パターンマッチング部54、位置決定部55、及び記憶・読出部59を有している。画像データ出力器11が有するこれらの各部は、図4に示されている各構成要素のいずれかが、SSD108からRAM104上に展開された出力器用プログラム1001に従ったCPU106からの命令によって動作することで実現される機能、又は機能される手段である。
<< Image data output unit >>
The image data output unit 11 includes a transmission / reception unit 51, an imaging unit 52, a mark detection unit 53, a pattern matching unit 54, a position determination unit 55, and a storage / readout unit 59. Each of the units included in the image data output unit 11 operates according to an instruction from the CPU 106 according to the output unit program 1001 expanded on the RAM 104 from the SSD 108 and any one of the components shown in FIG. Function or means implemented.

また、画像データ出力器11は、図4に示されているSSD106、RAM104、又は記録媒体103aによって構築される記憶部1000を有している。記憶部1000には出力器用プログラム1001、撮像データ14、及び、画像データ13が記憶される。出力器用プログラム1001は記録媒体103aに記憶された状態で配布される他、プログラムを配信するサーバ装置から配信されてもよい。   Further, the image data output unit 11 has a storage unit 1000 constructed by the SSD 106, the RAM 104, or the recording medium 103a shown in FIG. The storage unit 1000 stores an output unit program 1001, imaging data 14, and image data 13. The output unit program 1001 may be distributed from the storage device 103 a as well as from the server device that distributes the program.

送受信部51は、図4に示されているCPU106からの命令、及び通信I/F107によって実現され、ハンドヘルドプリンタ20と各種データの送受信を行う。   The transmission / reception unit 51 is realized by an instruction from the CPU 106 shown in FIG. 4 and the communication I / F 107, and transmits / receives various data to / from the handheld printer 20.

撮像部52は、図4に示されているCPU106からの命令、及びカメラ110によって実現され、印刷媒体12とハンドヘルドプリンタ20を撮像する。なお、撮像はユーザの操作を契機にする場合と、実施例3などで後述される条件を満たしたことを契機にする場合がある。   The imaging unit 52 is realized by an instruction from the CPU 106 shown in FIG. 4 and the camera 110, and images the print medium 12 and the hand-held printer 20. The imaging may be triggered by the user's operation or triggered by satisfying the conditions described later in the third embodiment and the like.

マーク検出部53は、図4に示されているCPU106からの命令等により実現され、撮像データ14から位置検出マークM1,M2を検出し、撮像データ14において照合用画像14aに対する位置検出マークM1,M2の相対位置を特定する。   The mark detection unit 53 is realized by an instruction or the like from the CPU 106 shown in FIG. 4, detects the position detection marks M1 and M2 from the imaging data 14, and detects the position detection marks M1 and M2 with respect to the comparison image 14a in the imaging data 14. Identify the relative position of M2.

パターンマッチング部54は、図4に示されているCPU106からの命令等により実現され、画像データ13に対し照合用画像14aを用いてパターンマッチングを行い、照合用画像14aと一致する一致画像13aを検出する。   The pattern matching unit 54 is realized by an instruction or the like from the CPU 106 shown in FIG. 4, performs pattern matching on the image data 13 using the matching image 14a, and matches the matching image 13a that matches the matching image 14a. To detect.

位置決定部55は、撮像データ14における照合用画像14aに対する位置検出マークM1,M2の相対位置に基づき、画像データ13の一致画像13aに対する位置検出マークM1,M2の位置を決定する。これを、画像データ13におけるハンドヘルドプリンタ20の現在の位置(撮像時の位置)とする。このハンドヘルドプリンタ20の位置は送受信部51を介してハンドヘルドプリンタ20に送信される。   The position determination unit 55 determines the positions of the position detection marks M1 and M2 with respect to the matching image 13a of the image data 13 based on the relative positions of the position detection marks M1 and M2 with respect to the verification image 14a in the imaging data 14. This is taken as the current position (position at the time of imaging) of the handheld printer 20 in the image data 13. The position of the hand-held printer 20 is transmitted to the hand-held printer 20 via the transmission / reception unit 51.

記憶・読出部59は、図4に示されているCPU106からの命令、及ぶSSD108等によって実現され、記憶部1000に各種データを記憶したり、記憶部1000に記憶された各種データを読み出したりする処理を行う。   The storage / readout unit 59 is realized by an instruction from the CPU 106 shown in FIG. 4 and the SSD 108 etc., and stores various data in the storage unit 1000 and reads out various data stored in the storage unit 1000. Do the processing.

<<ハンドヘルドプリンタ>>
ハンドヘルドプリンタ20は、送受信部65、位置喪失検知部66、位置設定部67、及び記憶・読出部69を有している。ハンドヘルドプリンタ20が有するこれらの各部は、図4,5に示されている各構成要素のいずれかが、ROM28からDRAM29上に展開されたプリンタ用プログラム2001に従ったCPU31からの命令によって動作することで実現される機能、又は機能される手段である。
<< Handheld Printer >>
The hand-held printer 20 has a transmitting / receiving unit 65, a position loss detecting unit 66, a position setting unit 67, and a storage / reading unit 69. These units included in the hand-held printer 20 operate according to an instruction from the CPU 31 according to the printer program 2001 expanded on the DRAM 29 from the ROM 28 and any of the components shown in FIGS. Function or means implemented.

また、ハンドヘルドプリンタ20は、図4に示されているROM28又はDRAM29によって構築される記憶部2000を有している。記憶部2000にはプリンタ用プログラム2001が記憶される。   The hand-held printer 20 also has a storage unit 2000 constructed by the ROM 28 or the DRAM 29 shown in FIG. The storage unit 2000 stores a printer program 2001.

送受信部65は、図5に示されているCPU31からの命令、及び通信I/F27等によって実現され、画像データ出力器11と各種データの送受信を行う。   The transmission / reception unit 65 is realized by an instruction from the CPU 31 shown in FIG. 5 and the communication I / F 27 etc., and transmits / receives various data to / from the image data output unit 11.

位置喪失検知部66は、図5に示されているCPU31からの命令、ナビゲーションセンサI/F42及び位置算出回路32等によって実現され、ハンドヘルドプリンタ20が印刷媒体12から浮いたことや現在の位置を見失ったことを検知する。ナビゲーションセンサ30は光源の光が印刷媒体12で反射する反射光をレンズで集光しイメージアレイで撮像している。ハンドヘルドプリンタ20が印刷媒体12から浮くと、印刷媒体12とイメージアレイの距離が大きくなり、反射光を検出できなくなる。これにより、位置喪失検知部66は、ナビゲーションセンサ30が浮いたことや現在の位置を見失ったことを検知する。また、例えば、位置算出回路32により算出可能な最大の速度が連続して検出されることなどにより現在の位置を見失ったことを検知してもよい。   The position loss detection unit 66 is realized by an instruction from the CPU 31 shown in FIG. 5, the navigation sensor I / F 42, the position calculation circuit 32, and the like, and the handheld printer 20 floats from the print medium 12 or the current position. Detect lost sight. The navigation sensor 30 condenses the reflected light, which is the light of the light source reflected by the printing medium 12, with a lens, and captures an image with an image array. When the hand-held printer 20 floats from the print medium 12, the distance between the print medium 12 and the image array increases and the reflected light can not be detected. As a result, the position loss detection unit 66 detects that the navigation sensor 30 has floated or lost the current position. Also, for example, the current position may be detected by detecting the maximum speed that can be calculated by the position calculation circuit 32 continuously.

位置設定部67は、図5に示されているCPU31からの命令、及び位置算出回路32などによって実現され、画像データ出力器11から送信されたハンドヘルドプリンタ20の位置を位置算出回路32に設定する。   The position setting unit 67 is realized by an instruction from the CPU 31 and the position calculation circuit 32 shown in FIG. 5 and sets the position of the handheld printer 20 transmitted from the image data output unit 11 in the position calculation circuit 32. .

記憶・読出部69は、図5に示されているCPU31からの命令、ROM28及びDRAM29等によって実現され、記憶部2000に各種データを記憶したり、記憶部2000に記憶された各種データを読み出したりする処理を行う。   Storage / readout unit 69 is realized by an instruction from CPU 31 shown in FIG. 5, ROM 28 and DRAM 29 etc., stores various data in storage unit 2000, reads out various data stored in storage unit 2000, etc. Do the process.

<IJ記録ヘッドにおけるノズル位置について>
次に、図7を用いて、IJ記録ヘッド24におけるノズル位置等について説明する。図7(a)は、ハンドヘルドプリンタ20の平面図の一例である。図7(b)はIJ記録ヘッド24のみを説明する図の一例である。図示されている面が印刷媒体12に対向する面である。
<About the nozzle position in IJ recording head>
Next, nozzle positions and the like in the IJ recording head 24 will be described with reference to FIG. FIG. 7A is an example of a plan view of the hand-held printer 20. FIG. FIG. 7B is an example of a diagram for explaining only the IJ recording head 24. The surface shown is the surface facing the print medium 12.

本実施形態のハンドヘルドプリンタ20は、2つ以上のナビゲーションセンサ30を有している。ナビゲーションセンサ30が2つ以上あることで、ナビゲーションセンサ30が画像形成中に印刷媒体12に対し回転しても回転角θを検出できる。図7(a)ではノズル61の配列方向に離間して2つのナビゲーションセンサS0,S1が配置されている。2つのナビゲーションセンサS0,S1の間の長さは距離Lである。距離Lは長いほどよい。これは、距離Lが長いほど検出可能な最小の回転角θが小さくなり、ハンドヘルドプリンタ20の位置の誤差が少なくなるからである。   The handheld printer 20 of the present embodiment has two or more navigation sensors 30. With two or more navigation sensors 30, the rotation angle θ can be detected even if the navigation sensor 30 rotates with respect to the print medium 12 during image formation. In FIG. 7A, two navigation sensors S0 and S1 are disposed apart from each other in the direction in which the nozzles 61 are arranged. The length between the two navigation sensors S0, S1 is the distance L. The longer the distance L, the better. This is because the longer the distance L, the smaller the minimum detectable rotation angle θ, and the smaller the position error of the hand-held printer 20.

ナビゲーションセンサ30からIJ記録ヘッド24までの距離はそれぞれ距離a、bである。距離aと、距離bは等しくてもよい。また、図7(b)に示すように、IJ記録ヘッド24の端から最初のノズル61までの距離は距離d、隣接するノズル間の距離は距離eである。a〜eの値はROM28などに予め記憶されている。   The distances from the navigation sensor 30 to the IJ recording head 24 are distances a and b, respectively. The distance a and the distance b may be equal. Further, as shown in FIG. 7B, the distance from the end of the IJ recording head 24 to the first nozzle 61 is a distance d, and the distance between adjacent nozzles is a distance e. The values a to e are stored in advance in the ROM 28 or the like.

したがって、位置算出回路32などがナビゲーションセンサ30の位置を算出すれば、距離a、距離b、距離d、距離eを用いて、位置算出回路32はノズル61の位置を算出できる。   Therefore, if the position calculation circuit 32 or the like calculates the position of the navigation sensor 30, the position calculation circuit 32 can calculate the position of the nozzle 61 using the distances a, b, d, and e.

本実施形態では、印刷媒体12に水平な方向をX軸、垂直な方向をY軸に設定する。この座標を印刷媒体座標と称することにする。これに対し、ナビゲーションセンサ30は次のような座標軸(X´軸、Y´軸)で位置を出力する。すなわち、ノズル61の配列方向(2つのナビゲーションセンサS0、S1を結ぶ方向)をY´軸、Y´軸に直交する方向をX´軸とする。位置の算出は位置算出回路32によって行われる。   In the present embodiment, the direction horizontal to the print medium 12 is set to the X axis, and the direction perpendicular to the print medium 12 is set to the Y axis. This coordinate is referred to as print medium coordinate. On the other hand, the navigation sensor 30 outputs the position on the following coordinate axes (X 'axis, Y' axis). That is, the arrangement direction of the nozzles 61 (the direction connecting the two navigation sensors S0 and S1) is taken as the Y 'axis, and the direction orthogonal to the Y' axis is taken as the X 'axis. The calculation of the position is performed by the position calculation circuit 32.

<印刷媒体におけるハンドヘルドプリンタの位置について>
次に、図8を用いて、ハンドヘルドプリンタ20の位置について説明する。図8(a)では、印刷媒体12に対しハンドヘルドプリンタ20が時計回りにθ回転している。全く回転していなければ、X=X´、Y=Y´である。しかし、ハンドヘルドプリンタ20が印刷媒体12に対し回転角θ、回転した場合、ナビゲーションセンサS0、S1の出力とハンドヘルドプリンタ20の印刷媒体12における実際の位置が一致しなくなる。
<About the position of the handheld printer on the print medium>
Next, the position of the handheld printer 20 will be described with reference to FIG. In FIG. 8A, the handheld printer 20 rotates clockwise by θ with respect to the print medium 12. If it is not rotating at all, X = X 'and Y = Y'. However, when the hand-held printer 20 is rotated relative to the print medium 12 by the rotation angle θ, the outputs of the navigation sensors S 0, S 1 do not match the actual position of the hand-held printer 20 in the print medium 12.

このため、図8(a)に示すように、ナビゲーションセンサS0,S1が出力するΔX´、ΔY´は、印刷媒体座標のX、Yと以下のように対応する。図8(a)では回転角θのハンドヘルドプリンタ20がX方向にのみ同じ回転角θのまま移動した場合のナビゲーションセンサS0,S1(平行移動なので出力は等しい)が検出する移動量ΔX´、ΔY´とX,Yの対応を示している。ナビゲーションセンサS0,S1が出力するΔX´はX1に反映され、ΔY´はX2に反映される。   Therefore, as shown in FIG. 8A, ΔX ′ and ΔY ′ output by the navigation sensors S0 and S1 correspond to X and Y of the print medium coordinates as follows. In FIG. 8A, the movement amounts ΔX ′ and ΔY detected by the navigation sensors S0 and S1 (the output is equal because they are parallel movement) when the hand-held printer 20 with the rotation angle θ moves in the X direction only with the same rotation angle θ. 'Shows the correspondence between X and Y. ΔX ′ output from the navigation sensors S0 and S1 is reflected on X1, and ΔY ′ is reflected on X2.

図8(b)では回転角θのハンドヘルドプリンタ20がY方向にのみ同じ回転角θのまま移動した場合のナビゲーションセンサS0,S1(平行移動なので出力は等しい)が検出する移動量ΔX´、ΔY´とX,Yの対応を示している。ナビゲーションセンサS0,S1が出力するΔY´はY1に反映され、−ΔX´はY2に反映される。   In FIG. 8B, the movement amounts ΔX ′ and ΔY detected by the navigation sensors S0 and S1 (parallel displacements are equal) when the hand-held printer 20 with the rotation angle θ moves with the same rotation angle θ only in the Y direction. 'Shows the correspondence between X and Y. ΔY ′ output from the navigation sensors S0 and S1 is reflected in Y1, and −ΔX ′ is reflected in Y2.

したがって、ハンドヘルドプリンタ20がX方向及びY方向に回転角θのまま移動した場合、ナビゲーションセンサS0,S1が出力するΔX´、ΔY´は印刷媒体座標のX,Yに以下のように変換できる。
X=ΔX´cosθ+ΔY´sinθ …(1)
Y=−ΔX´sinθ+ΔY´cosθ …(2)
このように、画像形成の開始位置を基点にして、回転角θが分かれば式(1)(2)からナビゲーションセンサS0,S1の印刷媒体座標の位置を求めることができる。画像形成の開始位置は、ユーザがハンドヘルドプリンタ20のボタンなどを押下して画像形成を開始する位置であり、例えば印刷媒体12の左上コーナーのやや内側などである。
Therefore, when the hand-held printer 20 moves in the X direction and the Y direction with the rotation angle θ, ΔX ′ and ΔY ′ output by the navigation sensors S0 and S1 can be converted into X and Y of print medium coordinates as follows.
X = ΔX ′ cos θ + ΔY ′ sin θ (1)
Y = −ΔX ′ sin θ + ΔY ′ cos θ (2)
As described above, if the rotation angle θ is known based on the image formation start position, the position of the print medium coordinates of the navigation sensors S0 and S1 can be obtained from the equations (1) and (2). The start position of the image formation is a position where the user presses a button or the like of the hand-held printer 20 to start the image formation, and is, for example, slightly inside the upper left corner of the print medium 12.

なお、ΔX´、ΔY´のサンプリング時間における回転角dθは2つのナビゲーションセンサS0,S1の出力(ΔX´0、ΔX´1)の差から以下のようにして求めることができる。dθが蓄積されることで回転角θを求めることができる。
dθ=arcsin{(ΔX´0−ΔX´1)/L} …(3)
<位置検出マーク>
図9を用いて位置検出マークM1、M2について説明する。図9では、ハンドヘルドプリンタ20の上面図における位置検出マークM1、M2の配置例を示している。ハンドヘルドプリンタ20の少なくとも2点の位置が分かれば、ハンドヘルドプリンタ20の位置と姿勢を推定可能である。このため、位置検出マークM1、M2は2点の位置を特定できるように二箇所に配置されている。
The rotation angle dθ at the sampling time of ΔX ′ and ΔY ′ can be determined as follows from the difference between the outputs (ΔX ′ 0 , ΔX ′ 1 ) of the two navigation sensors S0 and S1. The rotation angle θ can be determined by accumulating dθ.
dθ = arcsin {(ΔX ′ 0 −ΔX ′ 1 ) / L} (3)
<Position detection mark>
The position detection marks M1 and M2 will be described with reference to FIG. FIG. 9 shows an arrangement example of the position detection marks M1 and M2 in the top view of the hand-held printer 20. If the positions of at least two points of the hand-held printer 20 are known, the position and attitude of the hand-held printer 20 can be estimated. For this reason, the position detection marks M1 and M2 are arranged at two positions so that the positions of the two points can be specified.

位置検出マークM1,M2は、HHP20に一体に形成されていてもよいし、シールのように貼付されたものでもよい。また、OPU26が液晶ディスプレイなどの場合、OPU26が表示してもよい。   The position detection marks M1 and M2 may be integrally formed on the HHP 20 or may be attached like a seal. Further, when the OPU 26 is a liquid crystal display or the like, the OPU 26 may display.

図9(a)ではハンドヘルドプリンタ20の右上コーナーと左下コーナーにそれぞれ位置検出マークM1、M2が配置されている。どちらの位置検出マークM1,M2もハンドヘルドプリンタ20の1点の座標を示すため、撮像データ14からは、例えば位置検出マークM1の左上頂点P1の位置が検出され、位置検出マークM2の上側頂点P2の位置が検出される。これら以外の頂点が検出されてもよい。   In FIG. 9A, position detection marks M1 and M2 are arranged at the upper right corner and lower left corner of the hand-held printer 20, respectively. Since both of the position detection marks M1 and M2 indicate the coordinates of one point of the hand-held printer 20, for example, the position of the upper left vertex P1 of the position detection mark M1 is detected from the imaging data 14, and the upper vertex P2 of the position detection mark M2 is detected. Position is detected. Other vertices may be detected.

また、図9(a)では位置検出マークM1とM2の向きが異なっているが(位置検出マークM2が菱形形状になっている)、図9(b)に示すように位置検出マークM1とM2の向きは同じでもよい。また、図9(c)に示すように、ハンドヘルドプリンタ20の右上コーナーと左上コーナーにそれぞれ位置検出マークM1、M2が配置されていてもよい。   Further, in FIG. 9A, the orientations of the position detection marks M1 and M2 are different (the position detection marks M2 are in a rhombus shape), but as shown in FIG. 9B, the position detection marks M1 and M2 are shown. The direction of may be the same. Further, as shown in FIG. 9C, position detection marks M1 and M2 may be arranged at the upper right corner and the upper left corner of the hand-held printer 20, respectively.

また、図9(d)ではハンドヘルドプリンタ20の右上コーナーに1つのみ位置検出マークM1が配置されている。この位置検出マークM1は中央に長方形のベタ部とそれを囲む四角とを有している。このような位置検出マークM1では上下方向と左右方向で、横切る直線が通過する黒、白の画素の長さの比が異なる。例えば、上下方向に1(黒):1(白):3(黒):1(白):1(黒)、左右方向に1(黒):1(白):7(黒):1(白):1(黒)、になる。このような予め定められた白黒の画素の比率が、角度が90度異なる2本の直線で検出された場合、位置検出マークM1が検出されたと判定してよいので、位置検出マークM1の検出精度を向上させることができる。このため、位置検出マークM1が1つのみ配置された場合でも、例えば位置検出マークM1の左上頂点P3と右下頂点P4をそれぞれハンドヘルドプリンタ20の2点の位置として採用できる。   Further, in FIG. 9D, only one position detection mark M1 is disposed at the upper right corner of the hand-held printer 20. The position detection mark M1 has a solid rectangular portion at the center and a square surrounding the solid portion. In such a position detection mark M1, the ratio of lengths of black and white pixels through which a straight line passes in the vertical direction and the horizontal direction is different. For example, 1 (black): 1 (white): 3 (black): 1 (black) in the vertical direction, 1 (black): 1 (white): 7 (black): 1 (black) in the left-right direction White): 1 (black). When such a predetermined ratio of black and white pixels is detected by two straight lines having different angles by 90 degrees, it may be determined that the position detection mark M1 has been detected, so the detection accuracy of the position detection mark M1 is Can be improved. Therefore, even when only one position detection mark M1 is disposed, for example, the upper left vertex P3 and the lower right vertex P4 of the position detection mark M1 can be adopted as the two positions of the handheld printer 20, respectively.

同様に、図9(a)〜(c)の矩形状の位置検出マークM1、M2がいずれか1つのみが配置されていても、位置検出マークM1(又はM2)が長方形などの向きが分かる形状であれば、位置検出マークM1(又はM2)の任意の2つ以上の頂点の位置をハンドヘルドプリンタ20の2点の座標として採用してよい。   Similarly, even if only one of the rectangular position detection marks M1 and M2 shown in FIGS. 9A to 9C is disposed, the position detection mark M1 (or M2) can recognize the direction such as a rectangle. If it is a shape, the position of any two or more vertices of the position detection mark M1 (or M2) may be adopted as the coordinates of two points of the handheld printer 20.

また、位置検出マークM1、M2は三角形、星形などでもよい。また、位置検出マークM1、M2の2つが配置される場合、位置検出マークM1、M2は円形でもよい。   The position detection marks M1 and M2 may be triangles, stars or the like. When two position detection marks M1 and M2 are arranged, the position detection marks M1 and M2 may be circular.

続いて、位置検出マークM1、M2の検出方法について説明する。位置検出マークM1、M2は、ハンドヘルドプリンタ20の筐体の色と異なる色で形成されている。したがって、マーク検出部53は例えば以下のような手順で撮像データ14から位置検出マークM1、M2を検出できる。以下では、図9(a)〜(c)の位置検出マークM1,M2の検出方法を説明する。
(i) 画像を白又は黒に二値化する。
(ii) 連続した黒画素を探しだす。
(iii) 上下左右方向のエッジを検出する。
(iv) ハフ変換により直線を検出し、4つの直線で囲まれた黒画素を検出する。
(v) (iv)の黒画素が二箇所見つかった場合(二箇所より多く見つかった場合は矩形を囲む4つの直線の縦横比で判別する)、それぞれを位置検出マークM1,M2に決定する。
Subsequently, a method of detecting the position detection marks M1 and M2 will be described. The position detection marks M 1 and M 2 are formed in a color different from the color of the housing of the handheld printer 20. Therefore, the mark detection unit 53 can detect the position detection marks M1 and M2 from the imaging data 14 in the following procedure, for example. Below, the detection method of position detection mark M1, M2 of FIG. 9 (a)-(c) is demonstrated.
(i) Binarize the image into white or black.
(ii) Search for continuous black pixels.
(iii) Detect edges in the vertical and horizontal directions.
(iv) A straight line is detected by the Hough transform, and a black pixel surrounded by four straight lines is detected.
(v) When two black pixels in (iv) are found (if it is found in more than two places, discrimination is made based on the aspect ratio of four straight lines surrounding the rectangle), each is determined as the position detection marks M1 and M2.

なお、このような位置検出マークの検出方法は一例に過ぎず、例えば(iv)でハリスのコーナー検出方法を用い、位置検出マークM1,M2の各頂点を検出してもよい。また、例えば、機械学習により位置検出マークM1,M2を学習した識別装置が位置検出マークを検出してもよい。   Note that such a method of detecting the position detection mark is only an example, and for example, each vertex of the position detection marks M1 and M2 may be detected using a corner detection method of Harris in (iv). Further, for example, the identification device which has learned the position detection marks M1 and M2 by machine learning may detect the position detection marks.

図10は、位置検出マークM1、M2とナビゲーションセンサ30の相対位置を示す図の一例である。図10に示すように、位置検出マークM1の左上頂点P1からナビゲーションセンサS0までの距離αと距離βは既知である。したがって、位置検出マークM1,M2の位置が検出されれば、ナビゲーションセンサS0の位置を特定できる。   FIG. 10 is an example of a diagram showing the relative positions of the position detection marks M 1 and M 2 and the navigation sensor 30. As shown in FIG. 10, the distance α and the distance β from the upper left vertex P1 of the position detection mark M1 to the navigation sensor S0 are known. Therefore, if the positions of the position detection marks M1 and M2 are detected, the position of the navigation sensor S0 can be identified.

なお、位置検出マークM2からナビゲーションセンサS0の位置を求めることも可能である。また、ナビゲーションセンサS0に対するS1の相対位置も既知なので、ナビゲーションセンサS0又はS1が分かれば、ナビゲーションセンサS1又はS0の位置も特定できる。   It is also possible to obtain the position of the navigation sensor S0 from the position detection mark M2. Further, since the relative position of S1 with respect to the navigation sensor S0 is also known, if the navigation sensor S0 or S1 is known, the position of the navigation sensor S1 or S0 can also be specified.

<撮像データからの照合用画像の取得>
次に、撮像データからの照合用画像の取得について説明する。まず、図11(a)を用いて、画像データ出力器11が有する画像データ13を説明する。図11(a)は画像データ13の一例を座標と共に示す図である。画像データ出力器はハンドヘルドプリンタ20へ図11(a)の画像データ13を送信する。また、画像データ出力器11は、画像データ13の全体を保持しているため、画像データ13の各画素の座標も特定できる。なお、説明の便宜上、画像データ13の左上コーナーを原点(0,0)とするが、原点はどこにとってもよい。
<Acquisition of image for comparison from imaging data>
Next, acquisition of a comparison image from imaging data will be described. First, with reference to FIG. 11A, the image data 13 included in the image data output unit 11 will be described. FIG. 11A shows an example of the image data 13 with coordinates. The image data output unit transmits the image data 13 of FIG. Further, since the image data output unit 11 holds the entire image data 13, the coordinates of each pixel of the image data 13 can also be specified. In addition, although the upper left corner of the image data 13 is made into origin (0, 0) for convenience of explanation, an origin is good for anywhere.

ハンドヘルドプリンタ20が途中まで画像を形成したが、画像形成の終了までに現在の位置を見失った場合、ユーザはハンドヘルドプリンタ20と印刷媒体12を撮像する。図11(b)は撮像時の画像データ出力器11の姿勢を示す図である。図11(b)に示すように、画像データ出力器11の光軸7は印刷媒体12に対し垂直であることが好ましい。これにより、撮像データ14に光軸7の傾きにより生じる歪み(射影変形)が生じないので、撮像データ14と画像データ13の比較が容易になる。   When the hand-held printer 20 forms an image halfway but loses the current position by the end of the image formation, the user picks up the hand-held printer 20 and the print medium 12. FIG. 11B is a view showing the attitude of the image data output unit 11 at the time of imaging. As shown in FIG. 11B, the optical axis 7 of the image data output unit 11 is preferably perpendicular to the print medium 12. As a result, distortion (projective deformation) caused by the tilt of the optical axis 7 does not occur in the imaging data 14, so that the comparison between the imaging data 14 and the image data 13 becomes easy.

<<撮像データの変倍>>
ここで、撮像データ14の大きさは画像データ出力器11が印刷媒体12に対しどのくらいの距離で撮像したかや焦点距離(倍率)によって変動しうる。これに対し、画像データ13が印刷媒体12に形成された際の大きさは決まっている(例えばA4に収まる大きさ)。このため、パターンマッチング部54は、位置検出マークM1とM2の距離(位置検出マークが1つだけの場合は辺の長さ)が、画像形成時の実際の長さになるように撮像データ14を変倍する。例えば、1ピクセル(ピクセル間のピッチ間隔を含む)が実空間のs〔mm〕の長さに相当することが分かっているものとする。また、位置検出マークM1とM2の実際の長さが50mm、撮像データ14における位置検出マークM1とM2の距離が300ピクセルであるとする。この場合、画像形成時の位置検出マークM1とM2の距離は「s×300」の長さとなるので、これが50〔mm〕になるように撮像データ14を変倍する。したがって、sの値が焦点距離ごとに予め定められたテーブルなどを参照することで、パターンマッチング部54は撮像データ14が画像データ13と同じ大きさになるように変倍できる。なお、画像データ13を変倍することで撮像データ14が画像データ13と同じ大きさになるようしてもよい。
<< Scaling of imaging data >>
Here, the size of the imaging data 14 may vary depending on the distance at which the image data output device 11 performs imaging with respect to the printing medium 12 and the focal distance (magnification). On the other hand, the size when the image data 13 is formed on the print medium 12 is fixed (for example, the size fits in A4). For this reason, the pattern matching unit 54 sets the imaging data 14 so that the distance between the position detection marks M1 and M2 (the length of the side when there is only one position detection mark) becomes the actual length at the time of image formation. Scale the For example, it is assumed that one pixel (including a pitch interval between pixels) is known to correspond to the length of s [mm] in real space. Further, it is assumed that the actual length of the position detection marks M1 and M2 is 50 mm, and the distance between the position detection marks M1 and M2 in the imaging data 14 is 300 pixels. In this case, since the distance between the position detection marks M1 and M2 at the time of image formation is “s × 300”, the imaging data 14 is scaled so as to be 50 [mm]. Therefore, by referring to a table or the like in which the value of s is predetermined for each focal length, the pattern matching unit 54 can perform scaling so that the imaging data 14 has the same size as the image data 13. The image data 13 may be scaled to have the same size as the image data 13 by scaling the image data 13.

なお、パターンマッチング部54は位置検出マークM1とM2のピクセル数から画像データ出力器11と印刷媒体12の距離を算出してもよい。そして、この距離に応じて撮像データ14を変倍してよい。距離と変倍率の関係は、撮像データ14と画像データ13の大きさが合うように予め設定されている。   The pattern matching unit 54 may calculate the distance between the image data output unit 11 and the print medium 12 from the number of pixels of the position detection marks M1 and M2. Then, the imaging data 14 may be scaled according to the distance. The relationship between the distance and the scaling factor is preset so that the sizes of the imaging data 14 and the image data 13 match.

<<照合用画像の取得とパターンマッチング>>
図11(c)は、画像データ出力器11が撮像した撮像データ14の一例を示す。この撮像データ14には印刷媒体上に形成画像71とハンドヘルドプリンタ20が撮像されている。形成画像71とハンドヘルドプリンタ20の相対位置は明らかである。したがって、画像データ13から形成画像71を検出できれば、この相対位置を用いて画像データ13におけるハンドヘルドプリンタ20の位置を決定できる。
<< Acquisition of matching image and pattern matching >>
FIG. 11C illustrates an example of the imaging data 14 captured by the image data output unit 11. In the imaging data 14, the formed image 71 and the hand-held printer 20 are imaged on a print medium. The relative position of the formed image 71 and the hand-held printer 20 is apparent. Therefore, if the formed image 71 can be detected from the image data 13, the relative position can be used to determine the position of the hand-held printer 20 in the image data 13.

パターンマッチング部54は形成画像71のうち、ハンドヘルドプリンタ20の周囲又は近くの一部又は全部を照合用画像14aとして取り出す。まず、文字列が含まれる照合用画像14aについて説明する。文字列を用いるのは、説明の便宜によるものであり、照合用画像14aが画像(イメージ)であってもよい。   The pattern matching unit 54 extracts a part or all of the periphery or near the hand-held printer 20 in the formed image 71 as a verification image 14 a. First, the verification image 14a including the character string will be described. The use of the character string is for the convenience of explanation, and the image for matching 14a may be an image (image).

パターンマッチング部54は、画像処理により文字列を取り出す。文字領域は、例えば、空間周波数を求めてその高さが閾値以上の領域として抽出される。また、連続する黒画素の外接矩形を求め、ほぼ一定の高さの外接矩形がほぼ一定間隔で一方向に並んでいる場合に文字列であると判定できる。本実施例では、「HAND HELD PRIN」という文字を含む照合用画像14aを取り出したものとする。   The pattern matching unit 54 extracts a character string by image processing. The character region is, for example, obtained as a region for which the spatial frequency is obtained and the height is equal to or more than a threshold. Further, a circumscribed rectangle of continuous black pixels is determined, and when the circumscribed rectangles of substantially constant height are arranged in one direction at substantially constant intervals, it can be determined as a character string. In this embodiment, it is assumed that the verification image 14a including the characters "HAND HELD PRIN" is extracted.

図12は画像データ13に対する照合用画像14aを用いたパターンマッチングを模式的に説明する図の一例である。図12(a)は照合用画像14aと画像データ13を示している。パターンマッチング部54は、例えば、原点(0,0)に照合用画像14aのお左上コーナーを合わせて1画素ごとに(又は画素ブロック毎に)差分を算出する。画像データ13と照合用画像14aのどちらも黒画素又は白画素ならその画素の差分はゼロである。一方、画像データ13と照合用画像14aの一方だけが黒画素又は白画素ならその画素の差分の絶対値は1である。したがって、照合用画像14aがしめる面積分の差分の合計が小さいほど照合用画像14aが画像データ13と一致していることを示す。   FIG. 12 is an example of a diagram schematically illustrating pattern matching using the matching image 14a on the image data 13. As shown in FIG. FIG. 12A shows the verification image 14 a and the image data 13. For example, the pattern matching unit 54 calculates the difference for each pixel (or for each pixel block) by aligning the upper left corner of the image for matching 14a with the origin (0, 0). If both the image data 13 and the verification image 14a are black pixels or white pixels, the difference between the pixels is zero. On the other hand, if only one of the image data 13 and the verification image 14a is a black pixel or a white pixel, the absolute value of the difference between the pixels is one. Therefore, the smaller the sum of the differences for the area included in the matching image 14a, the smaller the matching image 14a matches the image data 13.

図12(b)に示すように、パターンマッチング部54は画像データ13に対し照合用画像14aを1画素ずつずらしながら(又は画素ブロックずつずらしながら)、差分の合計を算出する。最も差分の合計が小さい時に照合用画像14aと重なっている領域が一致画像13aである。   As shown in FIG. 12B, the pattern matching unit 54 calculates the sum of differences while shifting the comparison image 14a with respect to the image data 13 by one pixel (or while shifting by pixel blocks). An area overlapping the image for comparison 14a when the sum of the differences is the smallest is the matched image 13a.

図12(c)では、照合用画像14aが画像データ13と一致している。このようにして、画像データ13から一致画像13aが特定される。   In FIG. 12C, the matching image 14a matches the image data 13. Thus, the matching image 13a is specified from the image data 13.

なお、文字でなく画像(イメージ)の場合も同様にパターンマッチングすることができる。すなわち、ハンドヘルドプリンタ20の周囲又は近くの任意の矩形領域を照合用画像14aとしてパターンマッチングを行えばよい。   In the case of an image (image) instead of a character, pattern matching can be similarly performed. That is, pattern matching may be performed using any rectangular area around or near the hand-held printer 20 as the verification image 14a.

ただし、照合用画像14aが文字又は画像(イメージ)のどちらであるかを特定することで、一致画像13aの検出に要する時間を短縮できる。すなわち、画像データ13においても文字領域又は画像領域のみでパターンマッチングを行えばよい。画像領域は、文字領域でない領域として判定してもよいし、画素を色空間へのクラスタリングすることなどにより検出できる。   However, the time required for detecting the matching image 13a can be shortened by specifying whether the image for matching 14a is a character or an image (image). That is, in the image data 13 as well, pattern matching may be performed only in the character area or the image area. The image area may be determined as an area that is not a character area, or can be detected by clustering pixels into a color space.

また、文字でパターンマッチングを行う場合、パターンマッチング部54が画素単位でパターンマッチングするのでなく、文字単位でパターンマッチングしてもよい。例えば、パターンマッチング部54が照合用画像14aに対しOCR(Optical Character Reader)を行う。これにより、照合用画像14aに含まれる文字コードがわかるので、パターンマッチング部54は画像データ13に対してもOCRを行い、同じ文字コードが並んでいる文字列をさがす。これにより、画像データ13の一致画像13aの場所が分かる。   When pattern matching is performed using characters, the pattern matching unit 54 may perform pattern matching in character units instead of performing pattern matching in pixel units. For example, the pattern matching unit 54 performs an optical character reader (OCR) on the comparison image 14a. As a result, since the character code included in the collation image 14a is known, the pattern matching unit 54 performs the OCR also on the image data 13, and searches for a character string in which the same character code is arranged. Thereby, the location of the matched image 13a of the image data 13 is known.

<<一致画像13aを一意に決定できない場合>>
ここで、一致画像13aを一意に決定できない場合を考える。すでに形成された画像データ13が極端に少ない(例えば2〜3文字しか形成されておらず同じ文字が画像データに複数ある)、又は、画像データ13に同一の文字パターンが複数ある場合、一致画像13aを特定できない。前者の場合、パターンマッチング部54は、画像形成開始位置に近い位置の文字であると判定する。後者の場合、パターンマッチング部54が複数の文字パターンを表示装置102に表示して、ユーザに選択してもらう。
<< When the match image 13a can not be determined uniquely >>
Here, it is assumed that the matching image 13a can not be determined uniquely. If the image data 13 already formed is extremely small (for example, only 2 or 3 characters are formed and the same character is plural in the image data) or if the image data 13 has a plurality of identical character patterns, a matching image 13a can not be identified. In the former case, the pattern matching unit 54 determines that the character is located near the image formation start position. In the latter case, the pattern matching unit 54 causes the display device 102 to display a plurality of character patterns for the user to select.

図13は表示装置102に表示された問い合わせ画面1300の一例を示す図である。この問い合わせ画面1300には、画像データ13と撮像データ14とが表示されている。パターンマッチング部54は、撮像データ14から照合用画像14aを選択し、画像データ13から4つの一致画像13b1〜13b4を検出した。パターンマッチング部54はこの4つの一致画像13b1〜13b4を矩形で囲むなどして強調する。また、問い合わせ画面1300に「右の四角で囲まれた文字列に相当する文字列を選択してください。」などのメッセージ1301を表示する。ユーザは、撮像データ14の照合用画像14aが一致画像13b1〜13b4のうちどれに対応するかを判定し、4つの一致画像13b1〜13b4からいずれか1つを選択する(タッチする)。   FIG. 13 is a view showing an example of the inquiry screen 1300 displayed on the display device 102. As shown in FIG. In the inquiry screen 1300, image data 13 and imaging data 14 are displayed. The pattern matching unit 54 selects the matching image 14 a from the imaging data 14 and detects four matching images 13 b 1 to 13 b 4 from the image data 13. The pattern matching unit 54 emphasizes the four matching images 13b1 to 13b4 by enclosing the four matching images 13b1 to 13b4 with a rectangle. Further, a message 1301 such as “Please select a character string corresponding to the character string surrounded by the right box” is displayed on the inquiry screen 1300. The user determines which of the matching images 13b1 to 13b4 the matching image 14a of the imaging data 14 corresponds to, and selects (touches) any one of the four matching images 13b1 to 13b4.

<<パターンマッチングの別の例>>
図14を用いてパターンマッチングの別の方法について説明する。図14は、照合用画像14aの辺の長さに着目したパターンマッチングの一例を示す図である。
<< Another example of pattern matching >>
Another method of pattern matching will be described with reference to FIG. FIG. 14 is a diagram showing an example of pattern matching focusing on the side length of the matching image 14a.

この方法は、文字を含む照合用画像14a(ここでは"HAND")の短辺(a-b)・長辺(b-c)・対角線(a-c)を結ぶ直線(又は各頂点)を検出する方法である。画素レベルでパターンマッチングするよりも、演算処理負荷を低減できる。   This method is a method of detecting a straight line (or each vertex) connecting short sides (ab), long sides (bc) and diagonals (ac) of the collation image 14a (here, "HAND") including characters. The arithmetic processing load can be reduced compared to pattern matching at the pixel level.

パターンマッチング部54は、撮像データ14から一定以上の余白で区切られている文字の集合体を取り出す。この集合体は照合用画像14aである。英語の場合は、単語ごとに切り出せばよい。日本語のように単語間にスペースがない言語では、句読点と句読点の間の文字を切り出す。これは、スペースを排除して文字列を取り出すためである。また、単語や句読点に着目することで、画像データ13からも同じ区切りで文字の集合体を取り出すことができる。この集合体は一致画像13bの候補となる。なお、改行により2行にわたった文字列は含まない。   The pattern matching unit 54 extracts, from the imaging data 14, a set of characters divided by a predetermined margin or more. This group is the verification image 14a. In the case of English, it may be cut out for each word. In languages such as Japanese where there is no space between words, the characters between punctuation marks are cut out. This is to remove the space and retrieve the string. In addition, by focusing on words and punctuation marks, it is possible to extract a set of characters from the image data 13 at the same division. This aggregate is a candidate for the matching image 13b. In addition, the character string which spread over 2 lines by line feed is not included.

画像データ13によっては、行間のスペースが少ない場合等もあるため、一概に文字の塊の区切りは決まっていないが、塊(集合体)として扱うために、一定の閾値を儲け、塊を検出すればよい。   Since some image data 13 may have little space between lines, etc., the division of character chunks is not generally decided, but a certain threshold is set to detect chunks in order to be treated as a chunk (aggregate). Just do it.

図14(a)の例では、「HAND」という文字の集合体を含む照合用画像14aの各頂点abcにより三角形が構成される。図14(b)では、「HAND」という文字の集合体を含む一致画像13aの候補の矩形領域のうち、各頂点a',b',c'により三角形が構成されている。   In the example of FIG. 14A, each vertex abc of the matching image 14a including a set of characters “HAND” forms a triangle. In FIG. 14B, a triangle is formed by the vertices a ′, b ′ and c ′ in the candidate rectangular regions of the matching image 13a including the character assembly “HAND”.

したがって、照合用画像14aの三角形abcと同じ長さの辺を持つ三角形が一致画像13aの候補から見つかれば、それが一致画像13aである可能性が高い。   Therefore, if a triangle having a side with the same length as the triangle abc in the matching image 14a is found from the candidates of the matching image 13a, it is highly likely that it is the matching image 13a.

なお、本実施形態では撮像データ14は画像データ13に対し回転していないことが前提とされ、回転していても撮像部52が文字列などに着目し傾き補正することで、画像データ13と撮像データ14の角度の違いは考慮しなくてよい。   In the present embodiment, it is assumed that the imaging data 14 is not rotated with respect to the image data 13, and even if it is rotated, the imaging unit 52 pays attention to a character string or the like and performs inclination correction. The difference in the angle of the imaging data 14 may not be taken into consideration.

しかし、図14(c)に示すように、撮像データ14が画像データ13に対し回転している場合、パターンマッチング部54は照合用画像14aを回転させて確認してもよい。まず、a点とa'点の座標を合わせ、c点、c'点の座標が合うように回転していく。代わりにb点、b'点を用いても構わないが、距離が長い方が演算精度を高めることができる。   However, as shown in FIG. 14C, when the imaging data 14 is rotated with respect to the image data 13, the pattern matching unit 54 may rotate the verification image 14a for confirmation. First, the coordinates of the point a and the point a ′ are aligned, and the coordinates of the points c and c ′ are rotated so as to match. Alternatively, points b and b 'may be used, but the longer the distance, the higher the calculation accuracy.

ここで、距離の長さが精度に起因するのは、プログラム上のbit数が関係する。演算上、扱われる値は有限なbit数である(例えばC言語のdouble型は16bit)。よって、最小単位の演算ズレが生じる。また、画像データ13が座標化される際も同様に有限bit数の影響を受ける。以上から、ずれ得る最小単位は同じであるが、表す距離が異なる場合、相対的に距離が長い方が、最小単位誤差の影響が低減することがわかる。   Here, it is related to the number of bits on the program that the distance length is due to the precision. Arithmetically, the value to be handled is a finite number of bits (for example, C language double type is 16 bits). Therefore, the operation deviation of the minimum unit occurs. In addition, when the image data 13 is co-ordinated, it is similarly influenced by the finite number of bits. From the above, it can be seen that although the minimum unit that can be shifted is the same, the influence of the minimum unit error is reduced as the distance is relatively longer when the distances to be represented are different.

<画像データにおけるハンドヘルドプリンタの位置>
図15は、画像データ13におけるハンドヘルドプリンタ20の位置を説明する図の一例である。図15(a)は撮像データ14におけるハンドヘルドプリンタ20の相対位置を示している。撮像データ14から位置検出マークM1,M2が検出されて、照合用画像14aとの相対位置も明らかになっている。例えば、照合用画像14aの左上頂点P5からの距離と方位φで位置検出マークM1,M2の位置を表す。
位置検出マークM1:距離k1、方位φ1
位置検出マークM2:距離k2、方位φ2
図15(b)は画像データ13における一致画像13aと推定される位置検出マークM1,M2の位置を示す。画像データ13において、位置検出マークM1は一致画像13aの左上頂点P6に対し距離k1、方位φ1にあり、位置検出マークM2は一致画像13aの左上頂点P6に対し距離k2、方位φ2にある。したがって、パターンマッチングにより検出された一致画像13の左上頂点P6を基点にして、画像データ13における位置検出マークM1、M2の位置(座標)を特定できる。
<Position of handheld printer in image data>
FIG. 15 is an example of a diagram for explaining the position of the hand-held printer 20 in the image data 13. FIG. 15A shows the relative position of the hand-held printer 20 in the imaging data 14. The position detection marks M1 and M2 are detected from the imaging data 14, and the relative position with the verification image 14a is also clarified. For example, the positions of the position detection marks M1 and M2 are represented by the distance from the upper left vertex P5 of the verification image 14a and the azimuth φ.
Position detection mark M1: distance k1, azimuth φ1
Position detection mark M2: distance k2, azimuth φ 2
FIG. 15B shows the positions of the position detection marks M1 and M2 estimated to be the coincident image 13a in the image data 13. In the image data 13, the position detection mark M1 is at a distance k1 and azimuth φ1 with respect to the upper left vertex P6 of the coincident image 13a, and the position detection mark M2 is at a distance k2 and azimuth φ2 with respect to the upper left vertex P6 of the coincidence image 13a. Therefore, the positions (coordinates) of the position detection marks M1 and M2 in the image data 13 can be specified based on the upper left vertex P6 of the matching image 13 detected by pattern matching.

位置決定部55は、一致画像13の左上頂点P6から距離k1、方位φ1にある点P1の座標(M0x、M0y)を位置検出マークM1の座標に決定する。同様に、一致画像の左上頂点から距離k2、方位φ2にある点P2の座標(M1x、M1y)を位置検出マークM2の座標に決定する。位置決定部55はこのようにして決定した(M0x、M0y)(M1x、M1y)、又は、ナビゲーションセンサS0,S1の位置をハンドヘルドプリンタ20に送信する。   The position determination unit 55 determines the coordinates (M0x, M0y) of the point P1 located at a distance k1 from the upper left vertex P6 of the matching image 13 and in the azimuth φ1 as the coordinates of the position detection mark M1. Similarly, the coordinates (M1x, M1y) of the point P2 at a distance k2 from the upper left vertex of the coincident image and in the orientation φ2 are determined as the coordinates of the position detection mark M2. The position determination unit 55 transmits the positions of (M0x, M0y) (M1x, M1y) thus determined or the positions of the navigation sensors S0 and S1 to the hand-held printer 20.

<動作手順>
図16は、本実施形態の画像形成システム1の動作手順を示すフローチャート図の一例である。
<Operation procedure>
FIG. 16 is an example of a flowchart showing an operation procedure of the image forming system 1 of the present embodiment.

まず、ユーザはハンドヘルドプリンタ20の電源ボタンを押下する(U01)。   First, the user presses the power button of the handheld printer 20 (U01).

ハンドヘルドプリンタ20は電源ONにより起動して、SoC50やASIC/FPGA40を初期化する(H01)。   The hand-held printer 20 is activated by power ON, and initializes the SoC 50 and the ASIC / FPGA 40 (H01).

この後、初期化を完了することで(H02のYes)、ハンドヘルドプリンタ20は画像形成の開始が可能である旨の意味するLEDを点灯させる(H03)。   Thereafter, when the initialization is completed (Yes in H02), the handheld printer 20 turns on an LED indicating that the image formation can be started (H03).

次に、ユーザは画像データ出力器11を操作して印刷に使用する画像データ13を選択する(U02)。   Next, the user operates the image data output unit 11 to select the image data 13 to be used for printing (U02).

また、ユーザは画像データ出力器11を操作して印刷ジョブを実行する(U03)。   The user operates the image data output unit 11 to execute a print job (U03).

これに対し、画像データ出力器11の記憶・読出部59は記憶部1000に画像データ13を記憶させる(D01)。   On the other hand, the storage / readout unit 59 of the image data output unit 11 stores the image data 13 in the storage unit 1000 (D01).

また、画像データ出力器11のパターンマッチング部54は画像データ13の座標を保持しておく(D02)。すなわち、画像データ13が印刷媒体12に形成された場合の各画素の座標を求めておく。なお、画像データ出力器11の送受信部51は画像データ13をハンドヘルドプリンタ20に送信する。   Further, the pattern matching unit 54 of the image data output unit 11 holds the coordinates of the image data 13 (D02). That is, the coordinates of each pixel when the image data 13 is formed on the print medium 12 are obtained. The transmitting and receiving unit 51 of the image data output unit 11 transmits the image data 13 to the handheld printer 20.

次に、ハンドヘルドプリンタ20は画像データ13を受信したことにより、LEDを点滅させる(H04)。これにより、ユーザは画像形成できることを把握する。   Next, the hand-held printer 20 blinks the LED upon receiving the image data 13 (H04). Thus, the user recognizes that the image can be formed.

ユーザはハンドヘルドプリンタ20の初期位置を決定する(U04)。そして、印字開始決定ボタンを押下して(U05)、フリーハンドで操作を行う(U06)。   The user determines the initial position of the handheld printer 20 (U04). Then, the printing start determination button is pressed (U05), and the operation is performed freehand (U06).

ハンドヘルドプリンタ20は現在の位置に応じてインクを吐出して画像形成を行う(H05)。   The handheld printer 20 discharges ink according to the current position to form an image (H05).

そして、走査中にユーザがハンドヘルドプリンタ20を浮かせてしまったものとする(U07)。   Then, it is assumed that the user floats the handheld printer 20 during scanning (U07).

これにより、ハンドヘルドプリンタ20の位置喪失検知部66は位置情報と浮き情報を取得して内部メモリに記憶させる(H06)。   Thereby, the position loss detection unit 66 of the handheld printer 20 acquires the position information and the floating information and stores the information in the internal memory (H06).

以降、ユーザは位置の取得に必要な操作を行う。すなわち、すでに形成された画像データ13とハンドヘルドプリンタ20を1つの撮像データ14に撮像する(U08)。   Thereafter, the user performs an operation necessary for acquiring the position. That is, the image data 13 already formed and the hand-held printer 20 are imaged into one image pickup data 14 (U08).

画像データ出力器11のマーク検出部53は撮像データ14から位置検出マークM1,M2を検出する(D03)。   The mark detection unit 53 of the image data output unit 11 detects the position detection marks M1 and M2 from the imaging data 14 (D03).

そして、パターンマッチング部54が位置検出マークの周囲又は近くから照合用画像14aを取得し、画像データ13に対しパターンマッチングを行う(D04)。照合用画像14aは文字でも画像(イメージ)でもよい。   Then, the pattern matching unit 54 acquires the verification image 14a from around or near the position detection mark, and performs pattern matching on the image data 13 (D04). The collation image 14a may be a character or an image (image).

次に、位置決定部55は、画像データ13において照合用画像14aと一致した一致画像13aに対する位置検出マークM1,M2の相対位置を決定する(D05)。   Next, the position determining unit 55 determines the relative positions of the position detection marks M1 and M2 with respect to the matching image 13a that matches the image for matching 14a in the image data 13 (D05).

そして、ナビゲーションセンサS0,S1の位置又は位置検出マークM1,M2の位置をハンドヘルドプリンタ20に送信する(D06)。   Then, the positions of the navigation sensors S0 and S1 or the positions of the position detection marks M1 and M2 are transmitted to the hand-held printer 20 (D06).

ハンドヘルドプリンタ20の位置設定部67は、ナビゲーションセンサS0,S1の位置を位置算出回路32に設定する(H07)。これにより、位置算出回路32はノズルの位置を算出できる。ハンドヘルドプリンタ20はLEDを点灯するなどして画像形成を再開できる旨をユーザに通知する。したがって、ユーザは画像形成を再開できる。   The position setting unit 67 of the hand-held printer 20 sets the positions of the navigation sensors S0 and S1 in the position calculation circuit 32 (H07). Thus, the position calculation circuit 32 can calculate the position of the nozzle. The hand-held printer 20 notifies the user that image formation can be resumed by turning on an LED or the like. Thus, the user can resume image formation.

以上説明したように、本実施例の画像形成システム1は、ハンドヘルドプリンタ20が位置を見失っても画像データ出力器11が位置を算出して画像形成を再開できる。見えないインクを吐出するユニットやスキャナユニットを搭載する必要もない。   As described above, in the image forming system 1 of the present embodiment, even if the position of the handheld printer 20 is lost, the image data output unit 11 can calculate the position and restart the image formation. There is no need to mount a unit or a scanner unit that ejects invisible ink.

実施例1では、画像データ出力器11が印刷媒体12の正面から形成画像とハンドヘルドプリンタ20を撮像した。本実施例では、撮像時の光軸が印刷媒体12に対し傾いていてもハンドヘルドプリンタ20の位置を算出可能な画像データ出力器11について説明する。   In the first embodiment, the image data output unit 11 captures the formed image and the hand-held printer 20 from the front of the print medium 12. In this embodiment, an image data output unit 11 capable of calculating the position of the hand-held printer 20 even when the optical axis at the time of imaging is inclined with respect to the print medium 12 will be described.

図17は、本実施例の画像データ出力器11の機能ブロック図の一例を示す。なお、本実施例において、図6において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。本実施例の画像データ出力器11は行列算出部56を有している。   FIG. 17 shows an example of a functional block diagram of the image data output unit 11 of this embodiment. Note that, in the present embodiment, the components given the same reference numerals in FIG. 6 perform the same functions, so only the main components of the present embodiment may be described. The image data output unit 11 of the present embodiment has a matrix calculation unit 56.

行列算出部56は、図4に示されているCPU106からの命令等によって実現され、後述する射影変換行列を算出する。   The matrix calculation unit 56 is realized by an instruction or the like from the CPU 106 shown in FIG. 4 and calculates a projection transformation matrix described later.

<射影変換行列>
射影変換行列について説明する。画像データ出力器11の光軸が傾くことで印刷媒体や撮像データ14が歪んでしまうことを考える。図18は、撮像データ14の歪みを説明する図の一例である。図18(a)は画像データ出力器11が保持する画像データ13の一例を、図18(b)は画像データ出力器11により撮像された撮像データ14の一例を示す。
<Projective transformation matrix>
The projective transformation matrix will be described. Consider that the print medium and the imaging data 14 are distorted when the optical axis of the image data output unit 11 is inclined. FIG. 18 is an example of a diagram for explaining distortion of the imaging data 14. 18 (a) shows an example of the image data 13 held by the image data output unit 11, and FIG. 18 (b) shows an example of the imaging data 14 imaged by the image data output unit 11. As shown in FIG.

撮像データ14は画像データ13に基づき形成されているので、撮像データ14は画像データ13と対応する点を有している。画像データ13の座標をmp(xp、yp)、撮像データ14の座標をmc(xc、yc)とすると、mとmは射影変換行列H(補正情報の一例)を用いて以下のように表すことができる。mp(xp、yp)は画像データ13の左上頂点を原点とする座標系の座標であり、mc(xc、yc)は撮像データ14の左上頂点を原点とする座標系の座標である。 Since the imaging data 14 is formed based on the image data 13, the imaging data 14 has a point corresponding to the image data 13. Assuming that the coordinates of the image data 13 are m p (x p , y p ) and the coordinates of the imaging data 14 are m c (x c , y c ), m p and m c are the projective transformation matrix H (an example of correction information) Can be expressed as follows. mp (xp, yp) is a coordinate of a coordinate system having the upper left vertex of the image data 13 as an origin, and m c (x c , y c ) is a coordinate of a coordinate system having an upper left vertex of the imaging data 14 as an origin .

そして、mp(xp、yp)とmc(xc、yc)の1つの対応点から以下の拘束が得られる。 Then, the following constraint is obtained from one corresponding point of m p (x p , y p ) and m c (x c , y c ).

1つの拘束で、8つの未知パラメータに対し2つの拘束式が得られる。したがって、画像データ13と撮像データ14で4つの対応点が得られれば、射影変換行列Hの全ての要素を決定できる。 With one constraint, two constraint equations are obtained for eight unknown parameters. Therefore, if four corresponding points are obtained by the image data 13 and the imaging data 14, all elements of the projective transformation matrix H can be determined.

図18において画像データ13と撮像データ14の対応は必ずしも明確でない。このため、画像データ出力器11が例えば、表示装置102に画像データ13と撮像データ14を表示して、対応点をユーザに入力させる。この場合、ユーザは例えば画像データ13と撮像データ14で対応する文字の同じ場所(例えばHの左上頂点、Nの右上頂点、Nの右下頂点、Hの左下頂点など)をそれぞれ指示する。   The correspondence between the image data 13 and the imaging data 14 in FIG. 18 is not necessarily clear. Therefore, for example, the image data output unit 11 displays the image data 13 and the imaging data 14 on the display device 102, and causes the user to input corresponding points. In this case, the user indicates, for example, the same place of the corresponding character in the image data 13 and the imaging data 14 (for example, the upper left vertex of H, the upper right vertex of N, the lower right vertex of N, the lower left vertex of H, etc.).

あるいは、画像データ13のうち画像形成された画素を画像データ出力器11がハンドヘルドプリンタ20から取得して、以下のように対応点を抽出する。上記のように、ハンドヘルドプリンタ20はインクを吐出した画素を記録しているので、画像形成された画素は明らかである。   Alternatively, the image data output unit 11 acquires the image-formed pixels of the image data 13 from the hand-held printer 20, and extracts corresponding points as follows. As described above, since the hand-held printer 20 records the pixels which have ejected ink, the pixels on which the image is formed are clear.

図18の例では、画像データ13のうち「HAND HELD PRIN」という文字が形成済みである。行列算出部56はこの形成済みの領域の左上頂点、右上頂点、右下頂点、左下頂点を対応点として採用する。よって、行列算出部56は画像データ13の左上頂点mp1、Nの右上頂点mp2、Nの右下頂点mp3、Hの左下頂点mp4を対応点とする。したがって、行列算出部56は、ハンドヘルドプリンタ20から「HAND HELD PRIN」という画像を形成したことを座標データとして取得し、座標データから4つの頂点mp1、mp2、mp3、mp4を決定する(ハンドヘルドプリンタ20が有する点mp1〜mp4の座標は画像データ13の点mc1〜mc4の座標と同じものである。)。 In the example of FIG. 18, the characters “HAND HELD PRIN” of the image data 13 have been formed. The matrix calculation unit 56 adopts the upper left vertex, the upper right vertex, the lower right vertex, and the lower left vertex of the formed area as corresponding points. Therefore, the matrix calculation unit 56 sets the upper left vertex m p1 of the image data 13, the upper right vertex m p2 of N, the lower right vertex m p3 of N, and the lower left vertex m 4 of H as corresponding points. Therefore, the matrix calculation unit 56 acquires, as coordinate data, that the image “HAND HELD PRIN” has been formed from the handheld printer 20, and determines four vertices m p1 , m p2 , m p3 and m p4 from the coordinate data. (The coordinates of the points m p1 to m p4 possessed by the hand-held printer 20 are the same as the coordinates of the points m c1 to m c4 of the image data 13).

撮像データ14において点mp1、mp2、mp3、mp4と対応する点mc1、mc2、mc3、mc4は以下のように求められる。すなわち、点mc1は最も左上の画素、点mc2は最も右上の画素、点mc3は最も右下の画素、点mc4は最も左下の画素、を探索することで得られる。なお、単独点などノイズの影響を低減するため好ましくはフィルターなどで撮像データ14を平滑化しておく。 The points m c1 , m c2 , m c3 and m c4 corresponding to the points m p1 , m p2 , m p3 and m p4 in the imaging data 14 are obtained as follows. That is, the point mc1 is obtained by searching for the top left pixel, the point mc2 the top right pixel, the point mc3 the right bottom pixel, and the point mc4 the bottom left pixel. In order to reduce the influence of noise such as a single point, preferably, the imaging data 14 is smoothed by a filter or the like.

以上は、照合用画像14aが文字列の場合を説明したが、画像(イメージ)が形成されている場合も、画像(イメージ)の左上頂点、右上頂点、右上頂点、左下頂点を特定できれば同様に対応点を求めることができる。なお、対応点で囲まれる面積が広い方がHを精度よく求めることができるため、可能な限り広範囲の対応点を決定することが好ましい。   Although the case where the matching image 14a is a character string has been described above, the upper left vertex, the upper right vertex, the upper right vertex, and the lower left vertex of the image (image) can be specified as well if the image (image) is formed. Corresponding points can be determined. In addition, since a larger area surrounded by the corresponding points can obtain H with high accuracy, it is preferable to determine the corresponding points as wide as possible.

<照合用画像の取得>
実施例1と同様に、マーク検出部53は位置検出マークM1,M2を検出できる。パターンマッチング部54は位置検出マークM1,M2の周囲又は近くの所定範囲の画像を照合用画像14aに決定する。
<Acquisition of image for comparison>
As in the first embodiment, the mark detection unit 53 can detect the position detection marks M1 and M2. The pattern matching unit 54 determines an image of a predetermined range around or near the position detection marks M1 and M2 as the verification image 14a.

<パターンマッチング>
パターンマッチングは歪みのない照合用画像14aで行うことが好ましいので、パターンマッチング部54は、照合用画像14aの画素の全てを式(4)に適用して歪みを補正する(正面から撮像された状態に変換する)。図19(a)は変換前の照合用画像14aを、図19(b)は変換後の照合用画像14aをそれぞれ示す。変換することで照合用画像14aの歪みが低減される。したがって、パターンマッチング部54は実施例1と同様にパターンマッチングすることが可能になる。なお、図19では射影変換行列Hを求めた画像データ13の範囲と照合用画像14aが同じであるが、異なっていてよい。
<Pattern matching>
Since pattern matching is preferably performed on the verification image 14a without distortion, the pattern matching unit 54 applies all of the pixels of the verification image 14a to Equation (4) to correct distortion (image taken from the front) Convert to state). FIG. 19A shows the collation image 14a before conversion, and FIG. 19B shows the collation image 14a after conversion. The transformation reduces the distortion of the verification image 14a. Therefore, the pattern matching unit 54 can perform pattern matching as in the first embodiment. In FIG. 19, the range of the image data 13 for which the projective transformation matrix H is obtained is the same as the matching image 14a, but may be different.

照合用画像14aの座標系においてパターンマッチング部54は、位置検出マークM1,M2の座標を式(4)で変換しておく。これにより、照合用画像14aに対する位置検出マークM1,M2の距離と方位が、正面から撮像された場合に(すなわち画像データ13において)どの程度になるかを算出することができる。したがって、図19(b)に示すように、歪みが補正された照合用画像14aに対する歪みが補正された位置検出マークM1,M2の位置が分かる。   The pattern matching unit 54 converts the coordinates of the position detection marks M1 and M2 in the coordinate system of the verification image 14a according to equation (4). This makes it possible to calculate how much the distance and orientation of the position detection marks M1 and M2 with respect to the verification image 14a are obtained from the front (that is, in the image data 13). Therefore, as shown in FIG. 19B, the positions of the position detection marks M1 and M2 whose distortion is corrected with respect to the distortion-corrected verification image 14a are known.

<画像データにおけるハンドヘルドプリンタの位置>
パターンマッチング部54が画像データ13において一致画像13aを検出したものとする。位置決定部55は図19(b)のように求められた距離k1,k2と方位φ1、φ2を一致画像13aに適用して、画像データ13における位置検出マークM1,M2の位置を決定する。
<Position of handheld printer in image data>
It is assumed that the pattern matching unit 54 detects the matching image 13 a in the image data 13. The position determination unit 55 applies the distances k1 and k2 and the azimuths φ1 and φ2 obtained as shown in FIG. 19B to the coincident image 13a to determine the positions of the position detection marks M1 and M2 in the image data 13.

このように、本実施例によれば、画像データ出力器11が印刷媒体12と形成された画像を正面から撮像していなくても、ハンドヘルドプリンタ20の位置を算出して画像形成を再開できる。   As described above, according to the present embodiment, even if the image data output unit 11 does not capture the image formed with the print medium 12 from the front, the position of the handheld printer 20 can be calculated to resume image formation.

本実施例では正面から撮像されるように非正面マークが配置されたハンドヘルドプリンタ20を用いた画像形成システム1について説明する。なお、本実施例の機能ブロック図は実施例1の図6と同様でよい。   In this embodiment, an image forming system 1 using a hand-held printer 20 in which non-front marks are arranged so as to be imaged from the front will be described. The functional block diagram of this embodiment may be the same as that of FIG. 6 of the first embodiment.

図20を用いて、ハンドヘルドプリンタ20に配置される非正面マークQ1〜Q4(第二マークの一例)について説明する。図20は、ハンドヘルドプリンタ20とハンドヘルドプリンタ20に配置された非正面マークQ1〜Q4の一例を示す図である。位置検出マークM1,M2については実施例1,2と同様である。これに対し、本実施例ではハンドヘルドプリンタ20の4つの側面に非正面マークQ1〜Q4が配置されている。非正面マークQ1〜Q4は厚みがないため、ハンドヘルドプリンタ20に対し画像データ出力器11の光軸が垂直になると撮像データ14に写らない。換言すれば、非正面マークQ1〜Q4が写っている間は、光軸が垂直でないことを意味する。   Non-front marks Q1 to Q4 (an example of a second mark) disposed on the hand-held printer 20 will be described with reference to FIG. FIG. 20 shows an example of the hand-held printer 20 and non-front marks Q1 to Q4 arranged on the hand-held printer 20. As shown in FIG. The position detection marks M1 and M2 are the same as in the first and second embodiments. On the other hand, in the present embodiment, non-front marks Q1 to Q4 are arranged on the four side surfaces of the hand-held printer 20. Since the non-front marks Q1 to Q4 have no thickness, they do not appear in the imaging data 14 when the optical axis of the image data output unit 11 is perpendicular to the handheld printer 20. In other words, it means that the optical axis is not vertical while the non-front marks Q1 to Q4 appear.

非正面マークは位置検出マークM1,M2と同じ色であるとして説明するが、異なる色でもよい。異なる色の場合、非正面マークQ1〜Q4のみを検出できる。同じ色である場合、位置検出マークM1,M2から所定距離内に非正面マークQ1〜Q4があることを利用して非正面マークを特定する。   Although the non-front mark is described as being the same color as the position detection marks M1 and M2, it may be a different color. In the case of different colors, only the non-front marks Q1 to Q4 can be detected. If the colors are the same, the non-front mark is identified using the non-front marks Q1 to Q4 within a predetermined distance from the position detection marks M1 and M2.

図21は、画像データ出力器11によるハンドヘルドプリンタ20の撮像を模式的に説明する図の一例であり、図22は画像データ出力器11の撮像手順を示すフローチャート図の一例である。   FIG. 21 is an example of a diagram schematically illustrating imaging of the hand-held printer 20 by the image data output unit 11. FIG. 22 is an example of a flowchart showing an imaging procedure of the image data output unit 11.

ユーザは画像データ出力器11が非正面マークQ1〜Q4を写さないように角度を調整しながら画角に収める。この間、画像データ出力器11の撮像部52は定期的に画像を撮像している(S10)。   The user adjusts the angle so that the image data output unit 11 does not capture the non-front marks Q1 to Q4 and the angle of view is reduced. During this time, the imaging unit 52 of the image data output unit 11 periodically captures an image (S10).

画像データ出力器11の撮像部52は、位置検出マークM1、M2と同様に非正面マークQ1〜Q4を検出する(S20)。   The imaging unit 52 of the image data output unit 11 detects the non-front marks Q1 to Q4 similarly to the position detection marks M1 and M2 (S20).

撮像部52は、何らかのマークが2つだけ撮像されているか否かを判定する(S30)。位置検出マークM1、M2は正面に配置されているので必ず撮像される。したがって、マークが2つだけ撮像されている場合は、光軸が印刷媒体12に対し正面であると判定できる。   The imaging unit 52 determines whether only two marks have been imaged (S30). Since the position detection marks M1 and M2 are disposed on the front, they are always imaged. Therefore, when only two marks are imaged, it can be determined that the optical axis is in front of the print medium 12.

何らかのマークが2つだけ撮像されている場合(非正面マークQ1〜Q4を検出できない場合)、撮像部52は撮像データ14を取得する(S40)。   When only some marks are imaged (when the non-front marks Q1 to Q4 can not be detected), the imaging unit 52 acquires the imaging data 14 (S40).

したがって、このように撮像された撮像データ14を用いて、実施例1と同様に拡大・縮小を行い、画像データ13とパターンマッチングすることで、ハンドヘルドプリンタ20の位置を算出できる。   Therefore, the position of the hand-held printer 20 can be calculated by performing enlargement / reduction as in the first embodiment and performing pattern matching with the image data 13 using the imaging data 14 imaged in this manner.

なお、非正面マークQ1〜Q4は厚みがないと説明したが、非正面マークQ1〜Q4に厚みがあってもよい。例えば、複数の非正面マークQ1〜Q4の厚みが同じであることを前提にすれば、撮像データ14において非正面マークQ1〜Q4の厚みが同じ場合に、光軸が垂直であることを確認できる。   Although it has been described that the non-front marks Q1 to Q4 have no thickness, the non-front marks Q1 to Q4 may have a thickness. For example, assuming that the thicknesses of the plurality of non-front marks Q1 to Q4 are the same, it can be confirmed that the optical axis is vertical when the thicknesses of the non-front marks Q1 to Q4 are the same in the imaging data 14 .

また、本実施例では非正面マークQ1〜Q4が撮像されていないことを撮像部52が自動的に判定しているが、ユーザが判断して撮像してもよい(シャッターボタンを押してもよい)。ただし、自動的に撮像することで手ぶれなどによる光軸のずれを抑制できる。   Further, in the present embodiment, the imaging unit 52 automatically determines that the non-front surface marks Q1 to Q4 are not captured, but the user may determine and may image (the shutter button may be pressed). . However, the automatic imaging can suppress the deviation of the optical axis due to camera shake or the like.

本実施例では実施例3の構成に加え、画像データ出力器11が撮像データ14を拡大・縮小することが不要な画像形成システム1について説明する。なお、本実施例の機能ブロック図は実施例1の図6と同様でよい。   In this embodiment, in addition to the configuration of the third embodiment, an image forming system 1 in which the image data output unit 11 does not need to enlarge or reduce the imaging data 14 will be described. The functional block diagram of this embodiment may be the same as that of FIG. 6 of the first embodiment.

図21のように撮像部52がハンドヘルドプリンタ20を写す過程で、撮像データ14にはすでに画像形成された文字などが写っている。したがって、撮像部52は位置検出マークM1,M2の周囲又は近くの文字を撮像データ14から取得して、同じ文字を画像データ13から探し出す。ここではパターンマッチングしてもOCRしてもよい。例えば、撮像データ14から「HAND」という文字列を検出した場合、画像データ13から「HAND」という文字列を探し出す。両者のサイズが同じであれば、撮像後に撮像データ14を拡大・縮小することが不要である。   As shown in FIG. 21, in the process in which the imaging unit 52 captures the hand-held printer 20, characters and the like on which an image has been formed are captured in the captured data 14. Therefore, the imaging unit 52 acquires characters around or near the position detection marks M1 and M2 from the imaging data 14, and searches for the same characters from the image data 13. Here, pattern matching or OCR may be performed. For example, when a character string “HAND” is detected from the imaging data 14, a character string “HAND” is searched from the image data 13. If the sizes of the two are the same, it is not necessary to enlarge or reduce the imaging data 14 after imaging.

画像(イメージ)の場合は照合用画像14aを取得しパターンマッチングにより一致画像を検出する。そして、両者のサイズが同じになるように撮像する。   In the case of an image (image), a matching image 14a is acquired, and a matching image is detected by pattern matching. Then, imaging is performed so that the sizes of both are the same.

図23は画像データ出力器11の撮像時のフローチャート図の一例である。図23の説明においては図22との相違点について主に説明する。   FIG. 23 is an example of a flowchart of the image data output unit 11 at the time of imaging. In the description of FIG. 23, differences from FIG. 22 will be mainly described.

ステップS30でマークが2つだけ撮像されている場合、撮像部52は撮像データ14と画像データ13のサイズが同じになったかどうかを判定する(S35)。なお、撮像部52は、例えば撮像データ14と画像データ13のサイズが同じになるように、「カメラを高くしてください」又は「カメラを低くしてください」などの音声を出力してユーザを誘導することが好ましい。   When only two marks are imaged in step S30, the imaging unit 52 determines whether the sizes of the imaging data 14 and the image data 13 are the same (S35). Note that the imaging unit 52 outputs a voice such as "Please raise the camera" or "Please lower the camera" so that the size of the imaging data 14 and the image data 13 are the same, for example. It is preferable to induce.

サイズが同じになった場合、撮像部52は撮像データ14を取得する(S40)。   If the sizes become the same, the imaging unit 52 acquires the imaging data 14 (S40).

したがって、本実施例の画像データ出力器11は、ハンドヘルドプリンタ20の位置の算出過程で、拡大・縮小を省略できる。また、撮像中に照合用画像14aと一致する一致画像を特定するので、ユーザの待ち時間を短縮できる。   Therefore, the image data output unit 11 of the present embodiment can omit enlargement / reduction in the process of calculating the position of the hand-held printer 20. In addition, since a matching image that matches the matching image 14a is specified during imaging, the user's waiting time can be shortened.

なお、本実施例では、文字列のサイズを比較したが、位置検出マークM1とM2の距離を撮像データ14と画像データ13で比較してもよい。すなわち、実施例1のようにピクセル数と形成される画像の長さの関係を利用して、撮像データ14における位置検出マークM1とM2の距離(ピクセル)が、予め定められた値(つまり画像形成時に50〔mm〕なるピクセル数)になった時に撮像データ14を取得する。   In the present embodiment, the sizes of the character strings are compared, but the distance between the position detection marks M1 and M2 may be compared between the imaging data 14 and the image data 13. That is, using the relationship between the number of pixels and the length of the image formed as in the first embodiment, the distance (pixel) between the position detection marks M1 and M2 in the imaging data 14 is a predetermined value (that is, the image). The imaging data 14 is acquired when the number of pixels becomes 50 [mm] at the time of formation.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
As described above, the best mode for carrying out the present invention has been described using the examples, but the present invention is not limited to these examples at all, and various modifications can be made without departing from the scope of the present invention. And substitution can be added.

例えば、図13の問い合わせ画面1300は、複数の一致画像13aが検出される場合に表示されると説明したが、照合用画像14aが検出された時点で問い合わせ画面1300が表示されてもよい。この場合、ユーザは照合用画像14aと一致する一致画像を候補がない状態の画像データ13から選択する。また、ユーザが撮像データ14から照合用画像14aを指定してもよい。   For example, although it has been described that the inquiry screen 1300 of FIG. 13 is displayed when a plurality of matching images 13a are detected, the inquiry screen 1300 may be displayed when the matching image 14a is detected. In this case, the user selects a matching image that matches the matching image 14a from the image data 13 in a state where there is no candidate. Further, the user may designate the image for comparison 14 a from the imaging data 14.

また、本実施形態では位置検出マークM1,M2によりハンドヘルドプリンタ20の位置を検出した。しかし、ハンドヘルドプリンタ20の全体の形状や模様が撮像された写真を教師信号として識別器の重みを学習した識別装置により撮像データからハンドヘルドプリンタ20を認識してもよい。この場合も、ハンドヘルドプリンタ20が写っている範囲が分かるので、ナビゲーションセンサ30の位置を特定できる。   Further, in the present embodiment, the position of the hand-held printer 20 is detected by the position detection marks M1 and M2. However, the handheld printer 20 may be recognized from the imaging data by the identification device that has learned the weights of the classifiers using a photograph in which the entire shape or pattern of the handheld printer 20 has been imaged as a teacher signal. Also in this case, since the range in which the hand-held printer 20 appears is known, the position of the navigation sensor 30 can be specified.

例えば、上記したSoC50、ASIC/FPGA40の構成要素は、CPU性能やASIC/FPGA40の回路規模等により、どちらに含まれていてもよい。   For example, the above-described components of SoC 50 and ASIC / FPGA 40 may be included in either of them depending on CPU performance, circuit size of ASIC / FPGA 40, and the like.

また、図4,5等で説明されたハンドヘルドプリンタ20の機能は、CPU31がプログラムを実行することで実現してよい。   The functions of the hand-held printer 20 described with reference to FIGS. 4 and 5 may be realized by the CPU 31 executing a program.

また、本実施形態では、三方向(例えばX/Y/R軸、R:回転)の位置をそれぞれ検知し、平面上を自由に走査可能(フリーハンド走査)なハンドヘルドプリンタ20を例にして説明した。しかし、一方向(例えばX軸方向)の位置を検知し、一方向にのみ走査させて画像形成するハンドヘルドプリンタ20に対しても本実施形態を適用できる。また、二方向(例えばX/Y軸方向) の位置をそれぞれ検知し、二方向にのみ走査させて画像形成するハンドヘルドプリンタ20に対しても本実施形態を適用できる。   Further, in the present embodiment, a description is given using a handheld printer 20 which detects positions in three directions (for example, X / Y / R axes, R: rotation) and can freely scan on a plane (free hand scan) as an example. did. However, the present embodiment can also be applied to a hand-held printer 20 that detects the position in one direction (for example, the X-axis direction) and scans only in one direction to form an image. The present embodiment can also be applied to a hand-held printer 20 that detects positions in two directions (for example, X / Y axis directions) and scans only in two directions to form an image.

また、本実施形態ではインクを吐出して画像を形成すると説明したが、可視光、紫外線、赤外線、レーザなどを照射して画像を形成してもよい。この場合、印刷媒体12として例えば熱や光に反応するものが用いられる。また、透明な液体を吐出してもよい。この場合、特定の波長域の光が照射されると可視情報が得られる。すなわち、化学的・物理的な作用を経て最終的に肉眼で確認しうる視覚情報を形成できればよい。   Further, although it has been described in the present embodiment that ink is ejected to form an image, the image may be formed by irradiating visible light, ultraviolet light, infrared light, laser, or the like. In this case, as the print medium 12, for example, one that responds to heat or light is used. Also, a transparent liquid may be discharged. In this case, visible light is obtained when light in a specific wavelength range is irradiated. That is, it is only necessary to form visual information that can be finally confirmed with the naked eye through chemical and physical actions.

また、本実施形態では、画像形成の際にフリーハンドでユーザが走査させると説明したが、ハンドヘルドプリンタ20がモータなどを動力にして印刷媒体上を自走してもよい。   Further, in the present embodiment, it has been described that the user scans freehand when forming an image, but the hand-held printer 20 may run on the print medium by using a motor or the like as power.

1 画像形成システム
11 画像データ出力器
12 印刷媒体
13 画像データ
14 撮像データ
20 ハンドヘルドプリンタ
52 撮像部
53 マーク検出部
54 パターンマッチング部
55 位置決定部
56 行列算出部
DESCRIPTION OF SYMBOLS 1 image forming system 11 image data output unit 12 printing medium 13 image data 14 imaging data 20 handheld printer 52 imaging unit 53 mark detection unit 54 pattern matching unit 55 position determination unit 56 matrix calculation unit

特許第5033247号公報Patent No. 5033247

Claims (13)

記録媒体上の位置を移動しながら画像データに基づき画像を形成する画像形成装置と通信可能な情報処理装置であって、
前記画像形成装置及び前記画像形成装置が記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、
前記撮像データから前記画像形成装置及び前記形成画像を検出する画像処理手段と、
前記形成画像の形成に用いられた前記画像データにおいて前記形成画像と一致する一致画像を特定し、前記撮像データにおける前記形成画像に対する前記画像形成装置の相対位置を決定し、
前記画像データにおける前記一致画像を基準とする前記相対位置に基づいて前記画像データにおける前記画像形成装置の位置を推定する位置推定手段と、
前記位置推定手段が推定した前記位置を前記画像形成装置に送信する送信手段と、
を有する情報処理装置。
An information processing apparatus capable of communicating with an image forming apparatus that forms an image based on image data while moving a position on a recording medium,
The image forming apparatus and an acquiring unit for acquiring imaging data obtained by imaging the formed image formed on the recording medium by the image forming apparatus;
An image processing unit that detects the image forming apparatus and the formed image from the imaging data;
In the image data used to form the formed image, a matching image that matches the formed image is specified, and the relative position of the image forming apparatus to the formed image in the imaging data is determined.
Position estimation means for estimating the position of the image forming apparatus in the image data based on the relative position based on the matching image in the image data ;
Transmission means for transmitting the position estimated by the position estimation means to the image forming apparatus;
An information processing apparatus having
前記位置推定手段は、前記画像形成装置の周囲に写っている前記形成画像を抽出し、前記画像形成装置の周囲の前記形成画像を用いて前記画像データに対しパターンマッチングを行うことで前記一致画像を特定する請求項1に記載の情報処理装置。 Wherein the position estimating means, the match by extracting the formed image that is reflected around the image forming apparatus performs pattern matching to the image data by using the formed image of the ambient of the image forming apparatus The information processing apparatus according to claim 1 , wherein the image is specified. 前記位置推定手段は、文字列を含む前記形成画像を用いて前記画像データに対しパターンマッチングを行い、前記文字列と同じ文字列を含む前記一致画像を前記画像データから特定する請求項2に記載の情報処理装置。 The position estimating unit performs pattern matching to the image data by using the formed image including a character string, wherein the matching image including the same character string as the character string to claim 2 for identifying from the image data Information processing equipment. 前記位置推定手段は、前記形成画像に含まれる文字列の外接矩形の頂点を接続して得られる複数の直線の長さの組と、前記画像データに含まれる文字列の外接矩形の頂点を接続して得られる複数の直線の長さの組とを比較し、
複数の直線の長さの組が一致する前記一致画像を前記画像データから特定する請求項2に記載の情報処理装置。
The position estimation means connects a set of lengths of a plurality of straight lines obtained by connecting vertices of a circumscribed rectangle of the character string included in the formed image and a vertex of the circumscribed rectangle of the character string included in the image data Compare the set of linear lengths obtained by
The information processing apparatus according to claim 2 , wherein the matching image in which a plurality of sets of straight line lengths match is specified from the image data.
前記位置推定手段は、前記形成画像と前記画像データを表示装置に表示させ、前記形成画像に対応する前記一致画像の選択を受け付ける請求項1〜4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, wherein the position estimation means causes the display device to display the formed image and the image data, and receives selection of the matched image corresponding to the formed image. 前記画像処理手段は、前記画像形成装置に配置された前記画像形成装置の位置と記録媒体上の向きに関する姿勢を推定可能な第一マークを前記撮像データから検出し、
前記位置推定手段は、前記撮像データにおける前記形成画像に対する前記第一マークの相対位置を、前記画像データにおける前記一致画像に対する前記画像形成装置の相対位置として決定する請求項1〜5のいずれか1項に記載の情報処理装置。
The image processing means detects, from the imaging data, a first mark capable of estimating a position of the image forming apparatus disposed in the image forming apparatus and an attitude on a recording medium .
The position estimation unit according to any one of claims 1 to 5 , wherein the relative position of the first mark to the formed image in the imaging data is determined as the relative position of the image forming apparatus to the coincident image in the image data. The information processing apparatus described in the item.
前記画像形成装置及び前記画像形成装置が形成した前記形成画像を撮像する撮像手段を有し、
前記画像形成装置には第二マークが配置されており、
前記撮像手段は、定期的に前記画像形成装置を撮像しながら前記第二マークが撮像されないこと又は複数の前記第二マークが同じ厚みで撮像されたことを契機に、前記画像形成装置及び前記画像形成装置が形成した前記形成画像を撮像して前記撮像データを生成する請求項1〜6のいずれか1項に記載の情報処理装置。
The image forming apparatus and an imaging unit configured to capture the formed image formed by the image forming apparatus;
A second mark is arranged on the image forming apparatus,
The image forming device and the image are triggered by the fact that the second mark is not imaged or the plurality of second marks are imaged with the same thickness while imaging the image forming apparatus periodically. The information processing apparatus according to any one of claims 1 to 6, wherein the formed image formed by the forming apparatus is imaged to generate the imaging data .
前記撮像手段は、さらに、前記撮像データにおける前記形成画像のサイズと、前記画像データにおいて前記形成画像と一致する前記一致画像のサイズとがほぼ同じになったことを契機に、
前記画像形成装置及び前記画像形成装置が形成した前記形成画像を撮像する請求項7に記載の情報処理装置。
The imaging means further in response to the size of the formed image in the imaging data, the size of the matching image to be consistent with the form image in the image data is almost the same,
The information processing apparatus according to claim 7 , wherein the formed image formed by the image forming apparatus and the image forming apparatus is captured.
前記撮像手段は、さらに、前記撮像データにおいて、前記画像形成装置に配置された前記画像形成装置の位置と記録媒体上の向きに関する姿勢を推定可能な第一マークから得られる長さ情報が、予め定められたピクセル数になったことを契機に、前記画像形成装置及び前記画像形成装置が形成した前記形成画像を撮像する請求項7に記載の情報処理装置。 In the imaging data, the imaging unit further predetermines, in advance, length information obtained from a first mark which can estimate the position of the image forming apparatus disposed in the image forming apparatus and the attitude on the recording medium. 8. The information processing apparatus according to claim 7 , wherein the formed image formed by the image forming apparatus and the image forming apparatus is captured when the number of pixels reaches a determined number. 撮像時に生じた前記形成画像の歪みを補正するための補正情報を算出する補正情報算出手段を有し、
前記位置推定手段は、前記補正情報算出手段により算出された前記補正情報を用いて歪みが補正された前記形成画像を用いて前記画像データに対しパターンマッチングを行い、前記一致画像を特定する請求項2に記載の情報処理装置。
It has correction information calculation means for calculating correction information for correcting the distortion of the formed image generated at the time of imaging,
Wherein the position estimating means, the claims distortion using the correction information calculated by the correction information calculating unit performs pattern matching to the image data by using the formed image corrected, identifying the matching image The information processing apparatus according to 2 .
記録媒体上の位置を移動しながら画像データに基づき画像を形成する画像形成装置と、前記画像形成装置と通信可能な情報処理装置とを有する画像形成システムであって、
前記画像形成装置及び前記画像形成装置が記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、
前記撮像データから前記画像形成装置及び前記形成画像を検出する画像処理手段と、
前記形成画像の形成に用いられた前記画像データにおいて前記形成画像と一致する一致画像を特定し、前記撮像データにおける前記形成画像に対する前記画像形成装置の相対位置を決定し、
前記画像データにおける前記一致画像を基準とする前記相対位置に基づいて前記画像データにおける前記画像形成装置の位置を推定する位置推定手段と、
前記位置推定手段が推定した前記位置を前記画像形成装置に送信する送信手段と、
を有する画像形成システム。
An image forming system comprising: an image forming apparatus for forming an image based on image data while moving a position on a recording medium; and an information processing apparatus capable of communicating with the image forming apparatus,
The image forming apparatus and an acquiring unit for acquiring imaging data obtained by imaging the formed image formed on the recording medium by the image forming apparatus;
An image processing unit that detects the image forming apparatus and the formed image from the imaging data;
In the image data used to form the formed image, a matching image that matches the formed image is specified, and the relative position of the image forming apparatus to the formed image in the imaging data is determined.
Position estimation means for estimating the position of the image forming apparatus in the image data based on the relative position based on the matching image in the image data ;
Transmission means for transmitting the position estimated by the position estimation means to the image forming apparatus;
An imaging system having:
記録媒体の位置を移動しながら画像データに基づき画像を形成する画像形成装置であって、
前記記録媒体に対する位置を検出する位置検出手段と、
前記画像形成装置及び前記画像形成装置が前記記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、
前記取得手段が取得した前記撮像データから前記画像形成装置及び前記画像を検出する画像処理手段と、
前記形成画像の形成に用いられた前記画像データにおいて前記形成画像と一致する一致画像を特定し、前記撮像データにおける前記形成画像に対する前記画像形成装置の相対位置を決定し、
前記画像データにおける前記一致画像を基準とする前記相対位置に基づいて前記画像データにおける前記画像形成装置の位置を推定する位置推定手段と、
前記位置推定手段が推定した前記位置を用いて前記形成画像を形成する画像形成手段と、を有する画像形成装置。
An image forming apparatus for forming an image based on image data while moving the position of a recording medium, comprising:
Position detection means for detecting the position relative to the recording medium;
The image forming apparatus and an acquisition unit for acquiring imaging data of the formed image formed on the recording medium by the image forming apparatus;
An image processing unit configured to detect the image forming apparatus and the image from the imaging data acquired by the acquisition unit;
In the image data used to form the formed image, a matching image that matches the formed image is specified, and the relative position of the image forming apparatus to the formed image in the imaging data is determined.
Position estimation means for estimating the position of the image forming apparatus in the image data based on the relative position based on the matching image in the image data ;
An image forming unit configured to form the formed image using the position estimated by the position estimating unit.
記録媒体上の位置を移動しながら画像データに基づき画像を形成する画像形成装置と通信可能な情報処理装置を、
前記画像形成装置及び前記画像形成装置が記録媒体に形成した形成画像が撮像されている撮像データを取得する取得手段と、
前記撮像データから前記画像形成装置及び前記形成画像を検出する画像処理手段と、
前記形成画像の形成に用いられた前記画像データにおいて前記形成画像と一致する一致画像を特定し、前記撮像データにおける前記形成画像に対する前記画像形成装置の相対位置を決定し、
前記画像データにおける前記一致画像を基準とする前記相対位置に基づいて前記画像データにおける前記画像形成装置の位置を推定する位置推定手段と、
前記位置推定手段が推定した前記位置を前記画像形成装置に送信する送信手段、
として機能させるためのプログラム。
An information processing apparatus capable of communicating with an image forming apparatus that forms an image based on image data while moving a position on a recording medium;
The image forming apparatus and an acquiring unit for acquiring imaging data obtained by imaging the formed image formed on the recording medium by the image forming apparatus;
An image processing unit that detects the image forming apparatus and the formed image from the imaging data;
In the image data used to form the formed image, a matching image that matches the formed image is specified, and the relative position of the image forming apparatus to the formed image in the imaging data is determined.
Position estimation means for estimating the position of the image forming apparatus in the image data based on the relative position based on the matching image in the image data ;
Transmission means for transmitting the position estimated by the position estimation means to the image forming apparatus;
Program to function as.
JP2015114441A 2015-06-05 2015-06-05 Information processing apparatus, image forming system, image forming apparatus Active JP6507865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015114441A JP6507865B2 (en) 2015-06-05 2015-06-05 Information processing apparatus, image forming system, image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015114441A JP6507865B2 (en) 2015-06-05 2015-06-05 Information processing apparatus, image forming system, image forming apparatus

Publications (2)

Publication Number Publication Date
JP2017004076A JP2017004076A (en) 2017-01-05
JP6507865B2 true JP6507865B2 (en) 2019-05-08

Family

ID=57752809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015114441A Active JP6507865B2 (en) 2015-06-05 2015-06-05 Information processing apparatus, image forming system, image forming apparatus

Country Status (1)

Country Link
JP (1) JP6507865B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6954026B2 (en) * 2017-11-14 2021-10-27 株式会社リコー Image forming device and image forming method
JP2020128078A (en) * 2018-09-10 2020-08-27 株式会社リコー Printing device
JP7163792B2 (en) * 2019-01-24 2022-11-01 株式会社リコー DATA PROCESSING SYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1158844A (en) * 1997-08-08 1999-03-02 Hewlett Packard Co <Hp> Handy printer system
EP2114688A1 (en) * 2007-02-23 2009-11-11 Marvell World Trade Ltd Determining positioning of a handheld image translation device
US9294649B2 (en) * 2007-03-02 2016-03-22 Marvell World Trade Ltd. Position correction in handheld image translation device
JP5987136B2 (en) * 2012-03-30 2016-09-07 ピタフォー モバイル エルエルシー Printing apparatus, information processing apparatus, printing method, information processing program, and information recording medium
JP2014144514A (en) * 2013-01-30 2014-08-14 Sharp Corp Status display system, status display method, and robot apparatus
US8922817B2 (en) * 2013-03-22 2014-12-30 pita4 mobile LLC Mobile Printing device

Also Published As

Publication number Publication date
JP2017004076A (en) 2017-01-05

Similar Documents

Publication Publication Date Title
US10744787B2 (en) Liquid droplet discharging apparatus, liquid droplet discharging method, and non-transitory computer readable medium
EP2254325B1 (en) Image processing for handheld scanner
US8582182B2 (en) Automatic sizing of images acquired by a handheld scanner
US10310675B2 (en) User interface apparatus and control method
JP2019003336A (en) Program, information processing apparatus, display method, liquid droplet discharge apparatus, and liquid droplet discharge system
WO2011011353A2 (en) Stereoscopic form reader
USRE49057E1 (en) Position detection apparatus, droplet discharging apparatus, method for detecting position, and medium
JP6507865B2 (en) Information processing apparatus, image forming system, image forming apparatus
US9554014B2 (en) Image processing apparatus for detecting and removing a document wrinkle area in a scanned image
JP2017010271A (en) Information processing apparatus, image forming system, image forming apparatus, and program
JP2016215472A (en) Image forming apparatus, image forming method and program
JP2017170634A (en) Position detector, droplet ejection device, and program
US9597896B2 (en) Handheld recording device, recording device position detection method, and recording medium
US11102373B2 (en) Image forming apparatus, state control method, and non-transitory computer-readable storage medium
JP6717042B2 (en) Position detection device, droplet discharge device
JP2019089240A (en) Droplet discharge device and droplet discharge method
US9268415B2 (en) Touch positioning method utilizing optical identification (OID) technology, OID positioning system and OID reader
US10596813B2 (en) Liquid discharge apparatus and liquid discharge method
JP6308003B2 (en) Image forming apparatus, control program, and image forming system
JP7206997B2 (en) IMAGE FORMING APPARATUS, STATE CONTROL METHOD, AND PROGRAM
JP7298344B2 (en) IMAGE FORMING APPARATUS, INFORMATION PROCESSING APPARATUS, IMAGE FORMING METHOD, AND PROGRAM
CN110877487B (en) Image forming apparatus, image forming method, information processing apparatus, and storage medium
US11461056B2 (en) Printing device for printing while being manually moved, and method for producing printed matter using printing device
JP7380250B2 (en) Information processing device, information processing system, and information processing program
WO2022097408A1 (en) Image processing device and image forming device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R151 Written notification of patent or utility model registration

Ref document number: 6507865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250