JP6582873B2 - Image forming apparatus, program, and method - Google Patents

Image forming apparatus, program, and method

Info

Publication number
JP6582873B2
JP6582873B2 JP2015212170A JP2015212170A JP6582873B2 JP 6582873 B2 JP6582873 B2 JP 6582873B2 JP 2015212170 A JP2015212170 A JP 2015212170A JP 2015212170 A JP2015212170 A JP 2015212170A JP 6582873 B2 JP6582873 B2 JP 6582873B2
Authority
JP
Japan
Prior art keywords
sensor
image
forming apparatus
height
image forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015212170A
Other languages
Japanese (ja)
Other versions
JP2017081012A (en
Inventor
泰成 原田
泰成 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015212170A priority Critical patent/JP6582873B2/en
Publication of JP2017081012A publication Critical patent/JP2017081012A/en
Application granted granted Critical
Publication of JP6582873B2 publication Critical patent/JP6582873B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Printers Characterized By Their Purpose (AREA)

Description

本発明は、画像形成装置、プログラム及び方法に関する。   The present invention relates to an image forming apparatus, a program, and a method.

ユーザが装置を把持し、装置を走査させ、画像形成位置に到達したタイミングで装置からインクを吐出することで用紙に画像を形成するハンドヘルドプリンタ(以下、HHP(Hand Held Printer)という)が実用化されつつある。HHPは、用紙搬送部を有しないため、ユーザが携帯可能なサイズである。   A handheld printer (hereinafter referred to as HHP (Hand Held Printer)) that forms an image on paper by ejecting ink from the device when the user grips the device, scans the device, and reaches the image forming position is put into practical use. It is being done. Since the HHP does not have a paper transport unit, it is a size that can be carried by the user.

図1は、HHP1による画像形成を模式的に示す図の一例である。HHP1は、例えば、スマートフォンやPC(Personal Computer)等の画像データ出力器9から画像データを受信する。ユーザは、HHP1を把持し、HHP1をフリーハンドで走査させる。HHP1は、用紙表面と接する底面に位置を検出するためのセンサとIJ(Ink Jet)記録ヘッドを備える。HHP1は、センサにより用紙上の位置を検出しており、IJ記録ヘッドが吐出位置に到達した際、IJ記録ヘッドからインクを吐出する。既にインクが吐出された部分はマスクされるため、HHP1は、一度吐出した部分に再度到達してもインクを吐出しない。   FIG. 1 is an example of a diagram schematically illustrating image formation by the HHP 1. The HHP 1 receives image data from an image data output device 9 such as a smartphone or a PC (Personal Computer). The user grips HHP1 and scans HHP1 freehand. The HHP 1 includes a sensor for detecting a position on a bottom surface in contact with the paper surface and an IJ (Ink Jet) recording head. The HHP 1 detects the position on the paper by a sensor, and ejects ink from the IJ recording head when the IJ recording head reaches the ejection position. Since the portion where ink has already been ejected is masked, the HHP 1 does not eject ink even if it reaches the once ejected portion again.

HHPはセンサからの出力値により現在の位置情報を算出するが、算出した位置情報に誤差が発生する場合がある。そこで、HHPが求めた位置情報の誤差を計測し、誤差に応じて位置情報を修正する技術がある。   The HHP calculates the current position information based on the output value from the sensor, but an error may occur in the calculated position information. Therefore, there is a technique for measuring an error in position information obtained by the HHP and correcting the position information in accordance with the error.

例えば、ナビゲーション測定値から検出した移動パスと実際の移動パスとの差異に基づいてスケールファクタを生成し、装置が検出した位置データの誤差を、スケールファクタを使用して修正する方法が知られている(例えば、特許文献1参照)。   For example, a method is known in which a scale factor is generated based on a difference between a movement path detected from a navigation measurement value and an actual movement path, and an error in position data detected by the apparatus is corrected using the scale factor. (For example, refer to Patent Document 1).

しかしながら、従来の技術では、HHPに対するセンサの位置のズレによって発生した位置情報の誤差を修正することができなかった。例えば、製造時に生じるHHPの個体差によりHHP間で、センサの位置が本来配置されるべき位置からずれることがある。また、HHPの経年劣化により、HHPの使用開始時と比較して、センサの位置が本来配置されるべき位置からずれることがある。この結果、センサから得られる位置情報に誤差が生じ、印字位置がずれるという問題があった。   However, the conventional technique cannot correct the error of the position information generated due to the displacement of the position of the sensor with respect to the HHP. For example, the position of the sensor may deviate from the position where it should originally be placed between HHPs due to individual differences in HHP that occur during manufacturing. In addition, due to aging of HHP, the position of the sensor may deviate from the position where it should be originally placed as compared to when HHP is used. As a result, there is a problem that an error occurs in the position information obtained from the sensor and the printing position is shifted.

そこで、本実施形態では、上記課題に鑑み、センサが検出した位置情報に基づき、適正な印字位置を決定することを目的とする。   Therefore, in view of the above problems, the present embodiment aims to determine an appropriate print position based on position information detected by a sensor.

一つの案では、媒体に画像を形成する画像形成装置であって、媒体を読み取り表面情報を取得する検出手段と、取得した前記表面情報に基づき前記画像形成装置の移動量を算出する移動量算出部と、前記検出手段が、所定のパターンを読み取って取得した基本表面情報に基づき、前記移動量を補正する補正手段と、を有する画像形成装置が提供される。   In one proposal, an image forming apparatus for forming an image on a medium, the detection means for reading the medium and acquiring surface information, and the movement amount calculation for calculating the movement amount of the image forming apparatus based on the acquired surface information An image forming apparatus is provided that includes a correction unit that corrects the amount of movement based on basic surface information acquired by the detection unit reading a predetermined pattern.

センサが検出した位置情報に基づき、適正な印字位置を決定できる。   An appropriate printing position can be determined based on the position information detected by the sensor.

HHPによる画像形成を模式的に示す図の一例である。It is an example of the figure which shows the image formation by HHP typically. センサの高さ及び傾斜角度の検出を説明するための図である。It is a figure for demonstrating the detection of the height and inclination | tilt angle of a sensor. HHPのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of HHP. 制御部の構成を説明する図の一例である。It is an example of the figure explaining the structure of a control part. センサのブロック図である。It is a block diagram of a sensor. センサによる直線方向の移動成分の検出を説明するための図である。It is a figure for demonstrating the detection of the movement component of the linear direction by a sensor. センサによる回転成分の検出を説明するための図である。It is a figure for demonstrating the detection of the rotation component by a sensor. キャリブレーションを実行する際に使用する装置を示す図である。It is a figure which shows the apparatus used when performing calibration. 高さ方向のズレの計測を行う場合の説明図である。It is explanatory drawing in the case of measuring the shift | offset | difference of a height direction. センサの高さ方向のズレを計測する第1の例における元画像と取得された画像を示す図である。It is a figure which shows the original image and acquired image in the 1st example which measures the shift | offset | difference of the height direction of a sensor. キャプチャ画像のサイズと解像度との関係表の一例を示す図である。It is a figure which shows an example of the relationship table of the size and resolution of a captured image. 解像度とセンサ30の高さとの関係を示す図である。It is a figure which shows the relationship between the resolution and the height of the sensor. センサの高さ方向のズレを計測する第2の例における元画像と取得された画像を示す図である。It is a figure which shows the original image and acquired image in the 2nd example which measures the shift | offset | difference of the height direction of a sensor. センサの高さ方向のズレを計測する第3の例における画面と取得された画像を示す図である。It is a figure which shows the screen and the acquired image in the 3rd example which measures the shift | offset | difference of the height direction of a sensor. センサの高さ方向のズレを計測する第4の例における元画像と取得された画像を示す図である。It is a figure which shows the original image and acquired image in the 4th example which measures the shift | offset | difference of the height direction of a sensor. センサのXZ方向の傾きを計測する例を示す図である。It is a figure which shows the example which measures the inclination of the XZ direction of a sensor. HHPの底面の各部位の位置関係を示す図である。It is a figure which shows the positional relationship of each site | part of the bottom face of HHP. センサのXY方向の傾きによる影響を示す図である。It is a figure which shows the influence by the inclination of a XY direction of a sensor. キャリブレーションに使用される図形のパターン例を示す第1の図である。It is a 1st figure which shows the example of a pattern of the figure used for a calibration. キャリブレーションに使用される図形のパターン例を示す第2の図である。It is a 2nd figure which shows the example of the pattern of the figure used for calibration. キャリブレーション処理の全体のフローを示す図である。It is a figure which shows the whole flow of a calibration process. センサの位置算出方法を説明するための図である。It is a figure for demonstrating the position calculation method of a sensor. 先頭のノズル位置の算出を説明するための第1の図である。It is a 1st figure for demonstrating calculation of the head nozzle position. 先頭のノズル位置の算出を説明するための第2の図である。It is a 2nd figure for demonstrating calculation of the head nozzle position. 先頭及び後尾ノズルの中間にあるノズルの位置の算出を説明するための第1の図である。It is a 1st figure for demonstrating calculation of the position of the nozzle in the middle of a head and a tail nozzle. 先頭及び後尾ノズルの中間にあるノズルの位置の算出を説明するための第2の図である。It is a 2nd figure for demonstrating calculation of the position of the nozzle in the middle of a head and a tail nozzle.

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することによって重複した説明を省く。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has substantially the same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[実施形態1]
<キャリブレーション処理の概略>
図2は、センサの高さ及び傾斜角度の検出を説明するための図である。用紙上にHHP20を載置した場合の用紙に対するセンサの高さ及び傾斜角度のズレを計測するために、キャリブレーションを実行する。キャリブレーションは、例えば、HHP20の製造時のテスト工程及びユーザがHHP20を使用する前などに実行される。表示デバイス10は、例えば、スマートフォン、タブレット端末等の機器であってもよい。
[Embodiment 1]
<Outline of calibration process>
FIG. 2 is a diagram for explaining detection of sensor height and tilt angle. Calibration is performed in order to measure the deviation of the sensor height and the tilt angle with respect to the paper when the HHP 20 is placed on the paper. The calibration is executed, for example, in a test process at the time of manufacturing the HHP 20 and before the user uses the HHP 20. The display device 10 may be a device such as a smartphone or a tablet terminal.

キャリブレーションを実行する際は、ユーザは、図2(a)に示すように表示デバイス10の画面11上にHHP20を載置し、キャリブレーションボタン5を押下する。キャリブレーションボタン5が押下されると、LED6が点灯する。なお、LED6は、キャリブレーション処理が完了するまで点灯する。続いて、HHP20は、キャリブレーション処理を開始する。   When executing the calibration, the user places the HHP 20 on the screen 11 of the display device 10 and presses the calibration button 5 as shown in FIG. When the calibration button 5 is pressed, the LED 6 is turned on. The LED 6 is lit until the calibration process is completed. Subsequently, the HHP 20 starts a calibration process.

図2(b)の左側は、HHP20を載置した場合の表示デバイス10の画面11を示す。例えば、表示デバイス10は、画面11に棒状の図形12を表示する。画面11の面をXY平面としたとき、キャリブレーション開始時には、例えば、棒状の図形12はY軸に平行に画面11の左側の位置に表示される。続いて、表示デバイス10は、棒状の図形12をX軸に平行に右側に移動させる。   The left side of FIG. 2B shows the screen 11 of the display device 10 when the HHP 20 is placed. For example, the display device 10 displays a bar-shaped figure 12 on the screen 11. When the surface of the screen 11 is the XY plane, at the start of calibration, for example, the bar-shaped figure 12 is displayed at a position on the left side of the screen 11 parallel to the Y axis. Subsequently, the display device 10 moves the bar-shaped figure 12 to the right side parallel to the X axis.

図2(b)の右側は、HHP20の底面を示す。HHP20の底面には、センサ30a及びセンサ30bがIJ記録ヘッド24の上部及び下部に配置されている。キャリブレーションが開始されると、センサ30a及びセンサ30bは、それぞれ棒状の図形12の位置を検知し、棒状の図形12の移動量ΔXを計測する。なお、表示デバイス10は、さらにX軸に平行な棒状の図形12をY軸方向に平行に移動させ、センサ30a及びセンサ30bに移動量ΔYを計測させてもよい。   The right side of FIG. 2B shows the bottom surface of the HHP 20. On the bottom surface of the HHP 20, sensors 30 a and 30 b are arranged above and below the IJ recording head 24. When calibration is started, the sensor 30a and the sensor 30b each detect the position of the bar-shaped figure 12 and measure the movement amount ΔX of the bar-shaped figure 12. Note that the display device 10 may further move the bar-shaped figure 12 parallel to the X axis in parallel to the Y axis direction, and cause the sensor 30a and the sensor 30b to measure the movement amount ΔY.

図2(c)は、HHP20を載置する位置を表示した場合の画面11を示す。点線で表示されるガイド13は、HHP20の底面と同じ形状となっている。ユーザは、HHP20の底面をガイド13に合わせて載置することでHHP20を正確な位置に載置することができる。   FIG. 2C shows the screen 11 when the position where the HHP 20 is placed is displayed. The guide 13 displayed with a dotted line has the same shape as the bottom surface of the HHP 20. The user can place the HHP 20 at an accurate position by placing the bottom surface of the HHP 20 in accordance with the guide 13.

図2(d)の左側は、センサ30bが正しく配置されている場合に計測される移動量を示す。センサ30aとセンサ30bを通る線は、X軸に垂直かつY軸に平行であるものとする。センサ30bが傾きなく正しい位置に配置されている場合、センサ30bは、HHP20のX軸方向の移動量ΔXとY軸方向の移動量ΔYとを正しく計測する。   The left side of FIG. 2D shows the amount of movement measured when the sensor 30b is correctly arranged. A line passing through the sensors 30a and 30b is assumed to be perpendicular to the X axis and parallel to the Y axis. When the sensor 30b is arranged at a correct position without tilting, the sensor 30b correctly measures the movement amount ΔX of the HHP 20 in the X-axis direction and the movement amount ΔY in the Y-axis direction.

図2(d)の右側は、センサ30bがXY方向に傾いて配置されている場合に計測される移動量を示す。センサ30bがXY方向かつ反時計方向に角度θ傾いて配置されているものとする。センサ30bが正しく配置されている場合と比較して、センサ30bは、ΔXの計測値が大きくなり、ΔYの計測値が小さくなり、計測した移動量に誤差が発生する。また、センサ30bの高さのズレ、XZ方向及びYZ方向の傾きによってもΔX及びΔYに誤差が発生する。   The right side of FIG. 2D shows the amount of movement measured when the sensor 30b is tilted in the XY direction. It is assumed that the sensor 30b is disposed at an angle θ in the XY direction and the counterclockwise direction. Compared with the case where the sensor 30b is correctly arranged, the sensor 30b has a larger measured value of ΔX, a smaller measured value of ΔY, and an error occurs in the measured movement amount. Further, errors in ΔX and ΔY also occur due to the height deviation of the sensor 30b and the inclination in the XZ direction and the YZ direction.

HHP20は、例えば、図2(d)の右側のような場合に、キャリブレーション処理であらかじめ算出された補正係数を用いて、センサ30bが正しく配置されている場合と同じになるように移動量ΔX及びΔYを補正する。これにより、HHP20の個体差及び経年劣化等によってセンサ30の配置にずれが生じても、HHP20の移動量を正しく計測し、装置の正確な位置を検出することができる。   For example, in the case of the right side of FIG. 2D, the HHP 20 uses the correction coefficient calculated in advance by the calibration process so that the movement amount ΔX is the same as when the sensor 30b is correctly arranged. And ΔY are corrected. Thereby, even if the displacement of the sensor 30 occurs due to individual differences of the HHP 20 and aging, etc., the movement amount of the HHP 20 can be correctly measured and the accurate position of the apparatus can be detected.

<ハードウェア構成>
図3は、HHP20のハードウェア構成を示す図である。HHP20は、印刷媒体に画像を形成する画像形成装置の一例である。HHP20は、制御部25によって全体の動作が制御され、制御部25には通信I/F(Interface)27、IJ記録ヘッド駆動回路23、OPU(Operation Unit)26、ROM(Read Only Memory)28、DRAM(Dynamic Random Memory)29、及び、センサ30が電気的に接続されている。また、HHP20は電力により駆動されるため、電源22と電源回路21を有している。電源回路21が生成する電力は、点線で示す配線により、通信I/F27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、IJ記録ヘッド24、制御部25、及び、センサ30に供給されている。
<Hardware configuration>
FIG. 3 is a diagram illustrating a hardware configuration of the HHP 20. The HHP 20 is an example of an image forming apparatus that forms an image on a print medium. The overall operation of the HHP 20 is controlled by the control unit 25. The control unit 25 includes a communication I / F (Interface) 27, an IJ recording head drive circuit 23, an OPU (Operation Unit) 26, a ROM (Read Only Memory) 28, A DRAM (Dynamic Random Memory) 29 and a sensor 30 are electrically connected. Further, since the HHP 20 is driven by electric power, it has a power source 22 and a power source circuit 21. The electric power generated by the power supply circuit 21 is supplied to the communication I / F 27, the IJ recording head drive circuit 23, the OPU 26, the ROM 28, the DRAM 29, the IJ recording head 24, the control unit 25, and the sensor 30 by wiring shown by dotted lines. Yes.

電源22は主に電池(バッテリー)が利用される。太陽電池や商用電源(交流電源)、燃料電池等が用いられてもよい。電源回路21は、電源22が供給する電力をHHP20の各部に分配する。また、電源22の電圧を各部に適した電圧に降圧や昇圧する。また、電源22が電池で充電可能である場合、電源回路21は交流電源の接続を検出して電池の充電回路に接続し、電源22の充電を可能にする。   The power source 22 is mainly a battery. A solar cell, a commercial power source (AC power source), a fuel cell, or the like may be used. The power supply circuit 21 distributes the power supplied from the power supply 22 to each part of the HHP 20. Further, the voltage of the power supply 22 is stepped down or boosted to a voltage suitable for each part. In addition, when the power source 22 can be charged by a battery, the power source circuit 21 detects the connection of the AC power source and connects it to the battery charging circuit so that the power source 22 can be charged.

通信I/F27は、スマートフォンやPC等の画像データ出力器9から画像データの受信等を行う。通信I/F27は例えば無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、赤外線、3G(携帯電話)、又は、LTE(Long Term Evolution)等の通信規格に対応した通信装置である。また、このような無線通信の他、有線LAN、USBケーブルなどを用いた有線通信に対応した通信装置であってもよい。   The communication I / F 27 receives image data from the image data output device 9 such as a smartphone or a PC. The communication I / F 27 is a communication device corresponding to a communication standard such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), infrared, 3G (mobile phone), or LTE (Long Term Evolution). In addition to such wireless communication, a communication device that supports wired communication using a wired LAN, a USB cable, or the like may be used.

ROM28は、HHP20のハードウェア制御を行うファームウェアや、IJ記録ヘッド24の駆動波形データ(液滴を吐出するための電圧変化を規定するデータ)や、HHP20の初期設定データ等を格納している。   The ROM 28 stores firmware that performs hardware control of the HHP 20, drive waveform data of the IJ recording head 24 (data that defines voltage changes for ejecting droplets), initial setting data of the HHP 20, and the like.

DRAM29は通信I/F27が受信した画像データを記憶したり、ROM28から展開されたファームウェアを格納したりするために使用される。従って、CPU31がファームウェアを実行する際のワークメモリとして使用される。   The DRAM 29 is used for storing image data received by the communication I / F 27 and storing firmware developed from the ROM 28. Therefore, it is used as a work memory when the CPU 31 executes the firmware.

センサ30は、HHP20の位置を検出するセンサである。センサ30は、例えば、発光ダイオード(LED)やレーザ等の光源と、印刷媒体2を撮像する撮像センサ、又は、入反射光の干渉縞を撮像するセンサを有している。HHP20が印刷媒体2上を走査されると、印刷媒体2の微小なエッジが次々に検出され(撮像され)エッジ間の距離を解析することで移動量が得られる。センサ30は、HHP20の少なくとも2箇所に搭載されている。両者を区別する場合、センサ30a,30bという。なお、センサ30として、さらに多軸の加速度センサやジャイロセンサ等を用いてもよく、加速度センサやジャイロセンサのみでHHP20の位置を検出してもよい。   The sensor 30 is a sensor that detects the position of the HHP 20. The sensor 30 includes, for example, a light source such as a light emitting diode (LED) or a laser and an image sensor that images the print medium 2 or a sensor that images interference fringes of incident / reflected light. When the HHP 20 is scanned over the print medium 2, minute edges of the print medium 2 are detected one after another (imaged), and the amount of movement is obtained by analyzing the distance between the edges. The sensors 30 are mounted on at least two places of the HHP 20. When distinguishing both, it is called sensors 30a and 30b. In addition, as the sensor 30, a multi-axis acceleration sensor, a gyro sensor, or the like may be used, or the position of the HHP 20 may be detected only by the acceleration sensor or the gyro sensor.

OPU26は、HHP20の状態を表示するLED6、ユーザがHHP20に画像形成を指示するためのスイッチ(例えば、キャリブレーションボタン5)等を有している。ただし、これに限定するものではなく、液晶ディスプレイを有していてよく、さらにタッチパネルを有していてもよい。また、音声入力機能を有していてもよい。   The OPU 26 includes an LED 6 that displays the state of the HHP 20, a switch (for example, a calibration button 5) for the user to instruct the HHP 20 to form an image, and the like. However, the present invention is not limited to this, and may have a liquid crystal display and may further have a touch panel. Further, it may have a voice input function.

IJ記録ヘッド駆動回路23は上記の駆動波形データを用いて、IJ記録ヘッド24を駆動するための駆動波形を生成する。インクの液滴のサイズなどに応じた駆動波形を生成できる。   The IJ recording head driving circuit 23 generates a driving waveform for driving the IJ recording head 24 using the above-described driving waveform data. A drive waveform corresponding to the ink droplet size can be generated.

IJ記録ヘッド24は、インクを吐出するためのヘッドである。図ではCMYKの4色のインクを吐出可能になっているが、単色でもよく5色以上の吐出が可能でもよい。色ごとに一列(二列以上でもよい)に並んだ複数のインク吐出用のノズル(後述する)が配置されている。また、インクの吐出方式はピエゾ方式でもサーマル方式でもよく、この他の方式でもよい。   The IJ recording head 24 is a head for ejecting ink. In the figure, four colors of CMYK ink can be ejected, but it may be a single color or ejecting five or more colors. A plurality of nozzles for ink ejection (described later) arranged in one row (may be two or more rows) for each color are arranged. Further, the ink ejection method may be a piezo method or a thermal method, or any other method.

制御部25は、センサ30が検出する移動量を元に、IJ記録ヘッド24の各ノズルの位置、該位置に応じて形成する画像の決定、吐出ノズル可否判定(ノズルの位置が目標吐出位置から所定範囲内かどうかの判定)等を行う。制御部25について詳細は次述する。   Based on the amount of movement detected by the sensor 30, the control unit 25 determines the position of each nozzle of the IJ recording head 24, determines the image to be formed according to the position, determines whether or not the discharge nozzle is available (the position of the nozzle from the target discharge position). Etc.). Details of the control unit 25 will be described below.

図4は、制御部25の構成を説明する図の一例である。制御部25はSoC(System On a Chip)50とASIC(Application Specific Integrated Circuit)/FPGA(Field Programmable Gate Array)40を有している。SoC50とASIC/FPGA40はバス47,バス48を介して通信する。ASIC/FPGA40はどちらの実装技術で設計されてもよいことを意味し、ASIC/FPGA40以外の他の実装技術で構成されてよい。また、SoC50とASIC/FPGA40を別のチップにすることなく1つのチップや基盤で構成してもよい。あるいは、3つ以上のチップや基盤で実装してもよい。   FIG. 4 is an example of a diagram illustrating the configuration of the control unit 25. The control unit 25 includes a SoC (System On a Chip) 50 and an ASIC (Application Specific Integrated Circuit) / FPGA (Field Programmable Gate Array) 40. The SoC 50 and the ASIC / FPGA 40 communicate via a bus 47 and a bus 48. It means that the ASIC / FPGA 40 may be designed by any mounting technology, and may be configured by other mounting technology other than the ASIC / FPGA 40. Further, the SoC 50 and the ASIC / FPGA 40 may be configured as a single chip or substrate without using separate chips. Alternatively, it may be implemented with three or more chips or substrates.

SoC50は、バス48を介して接続されたCPU31、位置算出回路32、メモリCTL(コントローラ)35、及び、ROMCTL(コントローラ)36等の機能を有している。なお、SoC50が有する構成要素はこれらに限られない。   The SoC 50 has functions such as a CPU 31, a position calculation circuit 32, a memory CTL (controller) 35, and a ROMCTL (controller) 36 connected via a bus 48. In addition, the component which SoC50 has is not restricted to these.

また、ASIC/FPGA40は、バス47を介して接続されたImageRAM(Image Random Access Memory)37、DMAC(Direct Memory Access Controller)38、回転器39、割込みコントローラ41、センサI/F42、印字/センサタイミング生成部43、及び、IJ記録ヘッド制御部44を有している。なお、ASIC/FPGA40が有する構成要素はこれらに限られない。   The ASIC / FPGA 40 includes an image RAM (Image Random Access Memory) 37, a DMAC (Direct Memory Access Controller) 38, a rotator 39, an interrupt controller 41, a sensor I / F 42, and print / sensor timing connected via a bus 47. A generation unit 43 and an IJ recording head control unit 44 are provided. In addition, the component which ASIC / FPGA40 has is not restricted to these.

CPU31は、ROM28からDRAM29に展開されたファームウェア(プログラム)などを実行し、SoC50内の位置算出回路32、メモリCTL(Controller)35、及び、ROMCTL36の動作を制御する。また、ASIC/FPGA40内のImageRAM37、DMAC38、回転器39、割込みコントローラ41、センサI/F42、印字/センサタイミング生成部43、及び、IJ記録ヘッド制御部44の動作を制御する。   The CPU 31 executes firmware (program) or the like developed from the ROM 28 to the DRAM 29, and controls operations of the position calculation circuit 32, the memory CTL (Controller) 35, and the ROMCTL 36 in the SoC 50. Further, it controls the operations of the ImageRAM 37, DMAC 38, rotator 39, interrupt controller 41, sensor I / F 42, print / sensor timing generation unit 43, and IJ recording head control unit 44 in the ASIC / FPGA 40.

位置算出回路32は、センサ30が検出するサンプリング周期ごとの移動量に基づいてHHP20の位置(座標情報)を算出する。HHP20の位置とは、厳密にはノズルの位置であるが、センサ30のある位置が分かればノズルの位置を算出できる。なお、本実施形態では、センサ30aとセンサ30bのいずれか一方を指す場合、センサ30と表すことがある。また、位置算出回路32は目標吐出位置を算出する。   The position calculation circuit 32 calculates the position (coordinate information) of the HHP 20 based on the movement amount for each sampling period detected by the sensor 30. Strictly speaking, the position of the HHP 20 is the position of the nozzle, but if the position of the sensor 30 is known, the position of the nozzle can be calculated. In the present embodiment, when referring to either the sensor 30a or the sensor 30b, the sensor 30 may be indicated. The position calculation circuit 32 calculates a target discharge position.

センサ30の位置は、例えば所定の原点(例えば、印刷用紙又は画像データ7の左上コーナーなど)を基準に算出されている。また、位置算出回路32は、過去の位置と最も新しい位置の差に基づいて移動速度や移動方向を推定し、例えば次回の算出タイミングにおける位置を予測する。こうすることで、ユーザの走査に対する遅れを抑制してインクを吐出できる。   The position of the sensor 30 is calculated based on, for example, a predetermined origin (for example, printing paper or the upper left corner of the image data 7). Further, the position calculation circuit 32 estimates the moving speed and the moving direction based on the difference between the past position and the newest position, and predicts the position at the next calculation timing, for example. In this way, it is possible to discharge ink while suppressing a delay with respect to scanning by the user.

メモリCTL35は、DRAM29とのインタフェースであり、DRAM29に対しデータを要求し、取得したファームウェアをCPU31に送出したり、取得した画像データ7をASIC/FPGA40に送出したりする。   The memory CTL 35 is an interface with the DRAM 29, requests data from the DRAM 29, sends the acquired firmware to the CPU 31, and sends the acquired image data 7 to the ASIC / FPGA 40.

ROMCTL36は、ROM28とのインタフェースであり、ROM28に対しデータを要求し、取得したデータをCPU31やASIC/FPGA40に送出する。   The ROMCTL 36 is an interface with the ROM 28, requests data from the ROM 28, and sends the acquired data to the CPU 31 and the ASIC / FPGA 40.

DMAC38は、位置算出回路32が算出した位置情報を元に、メモリCTL35を介してIJ記録ヘッド24の各ノズル周辺の画像データ7を取得する。つまり、印刷媒体2に対しHHP20が存在する位置の周辺の画像データ7が取得される。   The DMAC 38 acquires the image data 7 around each nozzle of the IJ recording head 24 via the memory CTL 35 based on the position information calculated by the position calculation circuit 32. That is, the image data 7 around the position where the HHP 20 exists with respect to the print medium 2 is acquired.

回転器39は、DMAC38が取得した画像データを、インクを吐出するヘッド、及び、ヘッド内のノズル位置に応じて回転させる。DMAC38は回転後の画像データをIJ記録ヘッド制御部44へ出力する。回転器39は、例えば、位置算出回路32が位置を算出する際に算出した回転角θを取得し、その回転角θを用いて画像を回転させることができる。   The rotator 39 rotates the image data acquired by the DMAC 38 in accordance with the head that ejects ink and the nozzle position in the head. The DMAC 38 outputs the rotated image data to the IJ recording head control unit 44. For example, the rotator 39 can acquire the rotation angle θ calculated when the position calculation circuit 32 calculates the position, and can rotate the image using the rotation angle θ.

ImageRAM37はDMAC38が取得した画像データ7を一時的に格納する。すなわち、ある程度の画像データ7がバッファリングされ、HHP20の位置に応じて読み出される。   The ImageRAM 37 temporarily stores the image data 7 acquired by the DMAC 38. That is, a certain amount of image data 7 is buffered and read according to the position of the HHP 20.

IJ記録ヘッド制御部44は、画像データ7(ビットマップデータ)にディザ処理などを施して大きさと密度で画像を表す点の集合に画像データ7を変換する。これにより、画像データ7は吐出位置と点のサイズのデータとなる。IJ記録ヘッド制御部44は点のサイズに応じた制御信号をIJ記録ヘッド駆動回路23に出力する。IJ記録ヘッド駆動回路23は上記のように制御信号に対応した駆動波形データを用いて、駆動波形を生成する。   The IJ recording head control unit 44 performs dither processing on the image data 7 (bitmap data) to convert the image data 7 into a set of points representing an image with size and density. As a result, the image data 7 becomes data of the ejection position and the dot size. The IJ recording head control unit 44 outputs a control signal corresponding to the dot size to the IJ recording head drive circuit 23. The IJ recording head drive circuit 23 generates a drive waveform using the drive waveform data corresponding to the control signal as described above.

センサI/F42は、センサ30と通信し、センサ30からの情報として移動量ΔX及びΔYを受信し、その値を内部レジスタに格納する。ΔX及びΔYは、図2に示された表示デバイス10の画面11をXY平面とし、画面11に表示された画像のX軸方向及びY軸方向の移動量を示す。   The sensor I / F 42 communicates with the sensor 30, receives the movement amounts ΔX and ΔY as information from the sensor 30, and stores the values in an internal register. ΔX and ΔY indicate the amount of movement in the X-axis direction and the Y-axis direction of the image displayed on the screen 11 with the screen 11 of the display device 10 shown in FIG.

印字/センサタイミング生成部43は、センサI/F42にセンサ30の情報を読み取るタイミングを通知し、IJ記録ヘッド制御部44に駆動タイミングを通知する。IJ記録ヘッド制御部44は吐出ノズル可否判定を行い、インクを吐出すべき目標吐出位置があればインクを吐出し、目標吐出位置がなければ吐出しないと判定する。   The print / sensor timing generation unit 43 notifies the sensor I / F 42 of the timing for reading the information of the sensor 30, and notifies the IJ recording head control unit 44 of the drive timing. The IJ recording head control unit 44 determines whether or not the ejection nozzle is available, and determines that ink is ejected if there is a target ejection position where ink should be ejected, and that ejection is not performed if there is no target ejection position.

割込みコントローラ41は、センサI/F42がセンサ30との通信が完了したことを検知して、SoC50へそれを通知するための割り込み信号を出力する。CPU31はこの割り込みにより、センサI/F42が内部レジスタに記憶するΔX、ΔYを取得する。その他、エラー等のステータス通知機能も有する。   The interrupt controller 41 detects that the sensor I / F 42 has completed communication with the sensor 30, and outputs an interrupt signal for notifying the SoC 50 of the completion. The CPU 31 acquires ΔX and ΔY stored in the internal register by the sensor I / F 42 by this interruption. In addition, it has a status notification function for errors and the like.

図5は、センサ30のブロック図である。センサ30は、HostI/F55と、イメージプロセッサ51と、LED/LASERDrive52と、レンズ53aと、レンズ53bと、イメージアレイ54とを有する。   FIG. 5 is a block diagram of the sensor 30. The sensor 30 includes a Host I / F 55, an image processor 51, an LED / LASERDrive 52, a lens 53 a, a lens 53 b, and an image array 54.

LED/LASERDrive52は、LEDからのレーザ光の照射を制御する。LED/LASERDrive52は、レンズ53aによりLED/LASERDrive52から受けたレーザ光を平行光とし、平行光としたレーザ光を印刷媒体2の所定の範囲に照射する。イメージアレイ54は、レンズ53bを介して印刷媒体2からの反射光を受光し、画像データとしてイメージプロセッサ51に送信する。イメージプロセッサ51は、受信した画像データに基づいて移動量ΔX及びΔYを算出する。イメージプロセッサ51は、HostI/F55を介して外部の端末に移動量ΔX及びΔYに関するデータを送信する。   The LED / LASERDrive 52 controls the irradiation of the laser light from the LED. The LED / LASERDrive 52 converts the laser light received from the LED / LASERDrive 52 by the lens 53a into parallel light, and irradiates a predetermined range of the print medium 2 with the parallel laser light. The image array 54 receives the reflected light from the print medium 2 via the lens 53b and transmits it to the image processor 51 as image data. The image processor 51 calculates the movement amounts ΔX and ΔY based on the received image data. The image processor 51 transmits data relating to the movement amounts ΔX and ΔY to an external terminal via the Host I / F 55.

図6は、センサ30による直線方向の移動成分の検出を説明するための図である。図6(a)は、センサ30から印刷媒体2にLEDレーザを照射した場合を示す。LED/LASERDrive52は、レンズ53aによりLED/LASERDrive52からのレーザ光を平行光とし、レーザ光を印刷媒体2の所定の範囲に照射する。イメージアレイ54は、レンズ53bを介して印刷媒体2からの反射光を受光し、画像データとしてイメージプロセッサ51に送信する。   FIG. 6 is a diagram for explaining the detection of the moving component in the linear direction by the sensor 30. FIG. 6A shows a case where the print medium 2 is irradiated with an LED laser from the sensor 30. The LED / LASERDrive 52 converts the laser light from the LED / LASERDrive 52 into parallel light by the lens 53 a and irradiates the laser light to a predetermined range of the print medium 2. The image array 54 receives the reflected light from the print medium 2 via the lens 53b and transmits it to the image processor 51 as image data.

図6(b)は、イメージアレイ54により生成された画像データを示す。Samp1、Samp2及びSamp3は、イメージアレイ54により受光され、イメージプロセッサ51により既定の分解能でマトリクス化された画像データである。例えば、プリンタの場合、1200dpi程度の分解能でマトリクス化を行う。また、Samp1、Samp2及びSamp3は、HHP20をX軸方向に平行に所定速度で移動させた場合に、各時間に取得された画像データであり、Samp1からスタートしてSamp2、Samp3の順にイメージアレイで取得された画像データである。   FIG. 6B shows image data generated by the image array 54. Samp1, Samp2, and Samp3 are image data received by the image array 54 and matrixed by the image processor 51 with a predetermined resolution. For example, in the case of a printer, the matrix is formed with a resolution of about 1200 dpi. Samp1, Samp2, and Samp3 are image data acquired at each time when the HHP 20 is moved in parallel to the X-axis direction at a predetermined speed, and start from Samp1 in the order of Samp2, Samp3. It is the acquired image data.

Samp1と比較してSamp2は、画像が1マス分左に移動している。また、Samp1と比較してSamp3は、画像が2マス分左に移動している。したがって、Samp1からSamp2までのHHP20の移動量は、(ΔX,ΔY)=(1,0)であり、Samp1からSamp3までのHHP20の移動量は、(ΔX,ΔY)=(2,0)となる。なお、HHP20をY軸方向に移動させた場合、画像が上下方向に移動し、ΔYの値が変化する。   Compared to Samp1, Samp2 has the image moved to the left by one square. Compared to Samp1, Samp3 has the image moved to the left by 2 squares. Therefore, the movement amount of the HHP 20 from Samp1 to Samp2 is (ΔX, ΔY) = (1,0), and the movement amount of the HHP20 from Samp1 to Samp3 is (ΔX, ΔY) = (2,0). Become. When the HHP 20 is moved in the Y axis direction, the image moves in the vertical direction, and the value of ΔY changes.

また、イメージアレイ54でより高い分解能で画像データを取得すれば、より詳細な移動量を計測することが可能となる。   Further, if image data is acquired with a higher resolution by the image array 54, a more detailed movement amount can be measured.

図7は、センサ30による回転成分の検出を説明するための図である。図7(a)は、HHP20の底面を表す。図7(b)はIJ記録ヘッド24及びノズル24a〜24fを表す。   FIG. 7 is a diagram for explaining the detection of the rotation component by the sensor 30. FIG. 7A shows the bottom surface of the HHP 20. FIG. 7B shows the IJ recording head 24 and the nozzles 24a to 24f.

本実施形態のHHP20は、2つ以上のセンサ30を有している。HHP20は、センサ30を2つ以上有することで、センサ30が印刷媒体上で回転しても回転角θを検出できる。例えば、図7(a)ではノズル24a〜24fの配列方向に離間して2つのセンサ30a、センサ30bが配置されている。2つのセンサ30a、センサ30bの間の長さは距離Lである。回転角θは、センサ30a及びセンサ30bのX軸方向又はY軸方向の移動量の差分と距離Lとを用いて算出することができる。   The HHP 20 of this embodiment has two or more sensors 30. Since the HHP 20 includes two or more sensors 30, the rotation angle θ can be detected even if the sensors 30 rotate on the print medium. For example, in FIG. 7A, two sensors 30a and 30b are arranged apart from each other in the arrangement direction of the nozzles 24a to 24f. The length between the two sensors 30a and 30b is a distance L. The rotation angle θ can be calculated using the difference in the amount of movement of the sensors 30a and 30b in the X-axis direction or the Y-axis direction and the distance L.

また、距離Lが長いほど検出可能な最小の回転角θが小さくなり、HHP20の位置の誤差が少なくなるため、距離Lは長いほどよい。   Also, the longer the distance L, the smaller the minimum rotation angle θ that can be detected, and the smaller the position error of the HHP 20, so the longer the distance L, the better.

センサ30aからIJ記録ヘッド24までの距離はそれぞれ距離a、bである。距離aと、距離bは等しい。また、図7(b)に示すように、IJ記録ヘッド24の先端から最初のノズルまでの距離は距離d、隣接するノズル間の距離は距離eである。距離a〜eの値はROM28などに予め記憶されている。   The distances from the sensor 30a to the IJ recording head 24 are distances a and b, respectively. The distance a is equal to the distance b. As shown in FIG. 7B, the distance from the tip of the IJ recording head 24 to the first nozzle is a distance d, and the distance between adjacent nozzles is a distance e. The values of the distances a to e are stored in advance in the ROM 28 or the like.

位置算出回路32は、センサ30の位置を算出すれば、センサ30との位置関係から各ノズルの位置を算出できる。   The position calculation circuit 32 can calculate the position of each nozzle from the positional relationship with the sensor 30 by calculating the position of the sensor 30.

本実施形態では、印刷媒体2に水平な方向をX軸、垂直な方向をY軸に設定する。これに対し、センサ30は次のような座標軸(X'軸、Y'軸)で位置を出力する。すなわち、ノズル24a〜24fの配列方向(2つのセンサ30a、30bを通る線に平行な方向)をY'軸、Y'軸に直交する方向をX'軸とする。   In this embodiment, the horizontal direction to the print medium 2 is set as the X axis, and the vertical direction is set as the Y axis. On the other hand, the sensor 30 outputs a position on the following coordinate axes (X ′ axis, Y ′ axis). That is, the direction in which the nozzles 24a to 24f are arranged (the direction parallel to the line passing through the two sensors 30a and 30b) is the Y ′ axis, and the direction orthogonal to the Y ′ axis is the X ′ axis.

<キャリブレーションにより実行される3種類の計測>
図8は、キャリブレーションを実行する際に使用する装置を示す図である。図8(a)に示すようにHHP20を表示デバイス10に載置してキャリブレーションを実行してもよい。なお、HHP20を表示デバイス10に載置してキャリブレーションを実行する操作の方法については、図2を用いて説明した。
<Three types of measurements performed by calibration>
FIG. 8 is a diagram illustrating an apparatus used when executing calibration. As shown in FIG. 8A, the HHP 20 may be placed on the display device 10 and calibration may be executed. Note that the operation method for performing calibration by placing the HHP 20 on the display device 10 has been described with reference to FIG.

また、図8(b)に示すように、画像が印刷された用紙3にHHP20を密接させてキャリブレーションを実行してもよい。図8(b)の場合には、HHP20を同じ位置に固定した状態で、用紙3の方をX軸方向及びY軸方向に移動させる装置を用いてキャリブレーションを実行する。   Further, as shown in FIG. 8B, the calibration may be executed by bringing the HHP 20 into close contact with the paper 3 on which the image is printed. In the case of FIG. 8B, calibration is executed using an apparatus that moves the sheet 3 in the X-axis direction and the Y-axis direction with the HHP 20 fixed at the same position.

HHP20は、キャリブレーションを実行することによりセンサ30a及び30bの高さ方向のズレ及び傾き方向のズレを検出する。   The HHP 20 detects the displacement in the height direction and the displacement in the tilt direction of the sensors 30a and 30b by executing calibration.

例えば、表示デバイス10の画面11をXY平面とし、XY平面の鉛直方向にZ軸があるものとした場合、高さ方向のズレは、Z軸方向のズレを示す。また、傾き方向のズレは、2種類に分類され、一つは、XZ方向及びYZ方向のセンサ30の傾きであり、もう一つは、XY平面に対し、時計方向又は反時計方向にセンサ30を回転させた場合のXY方向の傾きである。   For example, when the screen 11 of the display device 10 is the XY plane and the Z axis is in the vertical direction of the XY plane, the deviation in the height direction indicates a deviation in the Z axis direction. Further, the displacement in the tilt direction is classified into two types, one is the tilt of the sensor 30 in the XZ direction and the YZ direction, and the other is the sensor 30 in the clockwise direction or the counterclockwise direction with respect to the XY plane. Is the inclination in the X and Y directions.

HHP20は、表示デバイス10の画面11に表示された画像を検出することによりキャリブレーションを実行し、高さ方向(Z軸方向)のズレ、XZ方向及びYZ方向の傾き、及びXY方向の傾きの3つをそれぞれ個別に計測する。   The HHP 20 performs calibration by detecting an image displayed on the screen 11 of the display device 10, and includes deviations in the height direction (Z-axis direction), inclinations in the XZ direction and the YZ direction, and inclinations in the XY direction. Three are measured individually.

以下、キャリブレーション実行時の高さ方向(Z軸方向)のズレ、XZ方向及びYZ方向の傾き、XY方向の傾きの3つの計測についてそれぞれ説明する。   Hereinafter, three measurements of the deviation in the height direction (Z-axis direction), the inclination in the XZ direction and the YZ direction, and the inclination in the XY direction at the time of performing calibration will be described.

<高さ方向(Z軸方向)のズレの計測>
HHP20は、例えば、以下の4つの方法で高さ方向のズレを計測する。
<Measurement of displacement in the height direction (Z-axis direction)>
For example, the HHP 20 measures the deviation in the height direction by the following four methods.

図9は、高さ方向のズレの計測を行う場合の説明図である。図9〜図13を用いて高さ方向のズレを計測する第1の例について説明する。(a)は、センサ30を通常の高さに配置した場合を示し、(b)は、センサ30が左側よりもZ軸方向の距離h分高く配置されている場合を示す。   FIG. 9 is an explanatory diagram in the case of measuring the deviation in the height direction. A first example of measuring the deviation in the height direction will be described with reference to FIGS. 9 to 13. (A) shows the case where the sensor 30 is arranged at a normal height, and (b) shows the case where the sensor 30 is arranged higher than the left side by a distance h in the Z-axis direction.

図9の(a)に示すように、LED/LASERDrive52は、レンズ53aによりLED/LASERDrive52からのレーザ光を平行光とし、平行光としたレーザ光を印刷媒体2の所定の範囲に照射する。イメージアレイ54は、レンズ53bを介して印刷媒体2からの反射光を取得し、画像データとしてイメージプロセッサ51に送信する。イメージプロセッサ51では、所定の分解能でマトリクス化した画像データを生成する。   As shown in FIG. 9A, the LED / LASERDrive 52 uses a lens 53a to convert the laser light from the LED / LASERDrive 52 into parallel light, and irradiates the laser beam with the parallel light onto a predetermined range of the print medium 2. The image array 54 acquires the reflected light from the print medium 2 via the lens 53b and transmits it to the image processor 51 as image data. The image processor 51 generates image data in a matrix form with a predetermined resolution.

図9の(a)の場合と(b)の場合を比較すると、Z軸方向の距離h分高く配置されたことにより、イメージアレイ54が反射光から取得する画像の解像度が(a)よりも(b)の方が低くなる。   Comparing the cases of (a) and (b) of FIG. 9, the resolution of the image acquired by the image array 54 from the reflected light is higher than that of (a) due to the fact that it is arranged higher by the distance h in the Z axis direction. (B) becomes lower.

図10は、センサ30の高さ方向のズレを計測する第1の例における元画像と取得された画像を示す図である。図10(a)は、印刷媒体2に表される元画像を示す。また、図10の(b)及び(c)は、それぞれ図9(a)及び(b)に対応するイメージアレイ54によって取得された画像を示す。図10(b)及び(c)の1セルが1000dpi×1000dpiに相当する。   FIG. 10 is a diagram illustrating the original image and the acquired image in the first example in which the displacement of the sensor 30 in the height direction is measured. FIG. 10A shows an original image represented on the print medium 2. 10B and 10C show images acquired by the image array 54 corresponding to FIGS. 9A and 9B, respectively. One cell in FIGS. 10B and 10C corresponds to 1000 dpi × 1000 dpi.

図10(b)は、図9(a)の場合にイメージアレイ54によって取得された画像を示しており、画像の大きさがX軸方向に2セル、Y軸方向に2セル分となっている。このため、図10(b)の正方形の画像の一辺は、50.8um(=25.4/1000×2)となる。   FIG. 10B shows an image acquired by the image array 54 in the case of FIG. 9A, and the size of the image is 2 cells in the X-axis direction and 2 cells in the Y-axis direction. Yes. Therefore, one side of the square image in FIG. 10B is 50.8 μm (= 25.4 / 1000 × 2).

図10(c)は、図9(b)の場合にイメージアレイ54によって取得された画像を示しており、画像の大きさがX軸方向に1セル、Y軸方向に1セル分となっている。このため、図10(c)の正方形の画像の一辺は、25.4um(=25.4/1000×1)となり、図10(b)の場合と比較して解像度が低い。   FIG. 10C shows an image acquired by the image array 54 in the case of FIG. 9B, and the size of the image is one cell in the X-axis direction and one cell in the Y-axis direction. Yes. Therefore, one side of the square image in FIG. 10C is 25.4 μm (= 25.4 / 1000 × 1), and the resolution is lower than that in the case of FIG.

このように、センサ30の高さにより画像データの大きさが変わる。センサ30の高さが低くなる程、画像の解像度が高くなり、センサ30の高さが高くなる程画像の解像度が低くなる。すなわち、センサ30の高さと画像の解像度とは関連しており、画像の解像度からセンサ30の高さを求めることが可能である。また、センサ30の高さから画像の解像度を求めることも可能である。   As described above, the size of the image data changes depending on the height of the sensor 30. The lower the height of the sensor 30, the higher the resolution of the image, and the higher the height of the sensor 30, the lower the resolution of the image. That is, the height of the sensor 30 and the resolution of the image are related, and the height of the sensor 30 can be obtained from the resolution of the image. It is also possible to obtain the image resolution from the height of the sensor 30.

したがって、高さ検出部45は、センサ30から取得された画像の解像度に基づいてセンサ30の高さを検出することができる。   Therefore, the height detection unit 45 can detect the height of the sensor 30 based on the resolution of the image acquired from the sensor 30.

図11は、キャプチャ画像のサイズと解像度との関係表の一例を示す図である。図11の関係表は、キャプチャ画像一辺あたりのセル数と、センサ30の高さ(mm)と、センサの解像度(dpi)との関係を示す。画面11に表示される図形12の一辺に相当するセル数をカウントし、図11の関係表と比較することにより、センサ30の現在の高さ(mm)に相当する解像度(dpi)を求めることができる。   FIG. 11 is a diagram illustrating an example of a relationship table between the size and resolution of a captured image. The relationship table of FIG. 11 shows the relationship between the number of cells per side of the captured image, the height (mm) of the sensor 30, and the resolution (dpi) of the sensor. The number of cells corresponding to one side of the graphic 12 displayed on the screen 11 is counted, and the resolution (dpi) corresponding to the current height (mm) of the sensor 30 is obtained by comparing with the relation table of FIG. Can do.

例えば、図11の関係表は、図形12の一辺の長さが254μm、センサ30の標準の高さを2.5mm、設定解像度を1000dpiとした場合のセル数とセンサの解像度との関係を示している。   For example, the relationship table of FIG. 11 shows the relationship between the number of cells and the sensor resolution when the length of one side of the figure 12 is 254 μm, the standard height of the sensor 30 is 2.5 mm, and the set resolution is 1000 dpi. ing.

例えば、図11に係る関係表をROM28に保持しておき、位置算出回路32は、センサ30の移動量ΔX及びΔYを補正する場合に用いてもよい。また、センサ30によって計測されたセル数と解像度との関係を示す数式で使用する係数を補正係数としてROM28に保持しておき、位置算出回路32は、センサ30の移動量ΔX及びΔYを補正する場合に用いてもよい。例えば、補正係数は、実際のHHP20の移動量(キャリブレーション時は図形12の移動量)を、センサ30が検出した移動量で除算した値であってもよい。   For example, the relationship table according to FIG. 11 may be held in the ROM 28, and the position calculation circuit 32 may be used when correcting the movement amounts ΔX and ΔY of the sensor 30. Further, a coefficient used in a mathematical expression indicating the relationship between the number of cells measured by the sensor 30 and the resolution is held in the ROM 28 as a correction coefficient, and the position calculation circuit 32 corrects the movement amounts ΔX and ΔY of the sensor 30. It may be used in some cases. For example, the correction coefficient may be a value obtained by dividing the actual movement amount of the HHP 20 (the movement amount of the graphic 12 at the time of calibration) by the movement amount detected by the sensor 30.

図12は、解像度とセンサ30の高さとの関係を示す図である。図12に示されるグラフの縦軸は、解像度(dpi)を示し、横軸は、高さ(mm)を示す。高さ2.0mm〜3.0mmの範囲でグラフはほぼ直線となっており、高さ及び解像度の間で、比例関係が成り立っていることがわかる。すなわち、センサ30の高さが高くなるほど解像度が低くなり、センサ30の高さが低くなるほど解像度が高くなる。   FIG. 12 is a diagram illustrating the relationship between the resolution and the height of the sensor 30. The vertical axis of the graph shown in FIG. 12 indicates resolution (dpi), and the horizontal axis indicates height (mm). The graph is almost a straight line in the height range of 2.0 mm to 3.0 mm, and it can be seen that a proportional relationship is established between the height and the resolution. That is, the higher the height of the sensor 30, the lower the resolution, and the lower the height of the sensor 30, the higher the resolution.

また、センサ30により安定してHHP20の移動量を計測できる高さの範囲がある。例えば、図12の例では、センサ30により安定してHHP20の移動量を計測できる高さが2.0mm〜3.0mmとなっている。   In addition, there is a height range in which the movement amount of the HHP 20 can be stably measured by the sensor 30. For example, in the example of FIG. 12, the height at which the movement amount of the HHP 20 can be stably measured by the sensor 30 is 2.0 mm to 3.0 mm.

高さ検出部45は、計測したセンサ30の解像度に基づいてセンサ30の高さを求める。例えば、高さ検出部45は、計測した解像度が800dpiである場合、センサ30の高さが2.0mmであると判定する。また、高さ検出部45は、計測した解像度が1000dpiである場合、センサ30の高さが2.5mmであると判定する。また、高さ検出部45は、計測した解像度が1200dpiである場合、センサ30の高さが3.0mmであると判定する。解像度(センサ30の高さ)とHHP20の移動量とは相関があり、解像度が低い程、センサ30の高さが高くなって、HHP20の移動量が実際のHHP20の移動量よりも大きく検出される。よって、解像度に基づきセンサ30の高さを検出することによりHHP20の移動量を補正することができる。   The height detection unit 45 obtains the height of the sensor 30 based on the measured resolution of the sensor 30. For example, the height detection unit 45 determines that the height of the sensor 30 is 2.0 mm when the measured resolution is 800 dpi. Moreover, the height detection part 45 determines with the height of the sensor 30 being 2.5 mm, when the measured resolution is 1000 dpi. Moreover, the height detection part 45 determines with the height of the sensor 30 being 3.0 mm, when the measured resolution is 1200 dpi. There is a correlation between the resolution (height of the sensor 30) and the amount of movement of the HHP 20. The lower the resolution, the higher the height of the sensor 30, and the amount of movement of the HHP 20 is detected to be larger than the actual amount of movement of the HHP 20. The Therefore, the movement amount of the HHP 20 can be corrected by detecting the height of the sensor 30 based on the resolution.

図13は、センサ30の高さ方向のズレを計測する第2の例における元画像と取得された画像を示す図である。第2の高さ方向のズレの計測方法について説明する。(A)は、印刷媒体2に印刷された異なる粒度の図形が複数表示された元画像を示す。(B)、(C)及び(D)は、イメージプロセッサ51によって取得された画像である。(B)がセンサ30の高さが最も低い場合に取得された画像であり、(C)、(D)の順にセンサ30の高さが高い場合に取得された画像である。(A)に示すように、元画像には粒度の異なる4つの図形が表示されている。センサ30の高さが最も低い(B)の場合、元画像に表示されている4つの図形全てが表示されている。次にセンサ30の高さが低い(C)の場合、元画像に表示されている4つの図形のうち、3つの図形が表示され、一番左の最も粒度の小さい図形が読み取れなくなっている。最もセンサ30の高さが高い(D)の場合、元画像に表示されている4つの図形のうち、2つの図形が表示され、左から一番目の図形と二番目の図形が読み取れなくなっている。また、(D)の場合、一番右側の図形の境界線が不鮮明となり、元画像が正方形であるのに対し、十字状の図形となっている。   FIG. 13 is a diagram illustrating the original image and the acquired image in the second example in which the displacement in the height direction of the sensor 30 is measured. A method for measuring the deviation in the second height direction will be described. (A) shows an original image on which a plurality of figures having different particle sizes printed on the print medium 2 are displayed. (B), (C), and (D) are images acquired by the image processor 51. (B) is an image acquired when the height of the sensor 30 is the lowest, and is an image acquired when the height of the sensor 30 is high in the order of (C) and (D). As shown in (A), four figures with different granularities are displayed in the original image. When the height of the sensor 30 is the lowest (B), all four figures displayed in the original image are displayed. Next, when the height of the sensor 30 is low (C), among the four figures displayed in the original image, three figures are displayed, and the leftmost figure with the smallest granularity cannot be read. When the height of the sensor 30 is the highest (D), two figures are displayed out of the four figures displayed in the original image, and the first figure and the second figure from the left cannot be read. . Further, in the case of (D), the boundary line of the rightmost graphic is unclear, and the original image is a square shape, whereas the original image is a square shape.

このように、センサ30の高さが比較的低い場合、解像度が高くなるため、粒度の小さい図形を検出することができ、センサ30の高さが比較的高い場合、解像度が低くなるため、粒度の大きい図形しか検出することができない。   Thus, since the resolution is high when the height of the sensor 30 is relatively low, a figure with a small particle size can be detected, and when the height of the sensor 30 is relatively high, the resolution is low, so the particle size is small. Only large figures can be detected.

したがって、高さ検出部45は、粒度の異なる図形の画像をセンサ30から取得し、検出された最も小さい粒度の図形に基づいて解像度を求めることができる。   Therefore, the height detection unit 45 can acquire an image of a graphic with a different granularity from the sensor 30 and obtain the resolution based on the detected graphic with the smallest granularity.

図14は、センサ30の高さ方向のズレを計測する第3の例における画面と取得された画像を示す図である。第3の高さ方向のズレの計測方法について説明する。図14の左側の図は、HHP20を載置した場合の表示デバイス10の画面11を示す。例えば、表示デバイス10は、画面11に棒状の図形12を表示する。画面11の面をXY平面としたとき、キャリブレーション開始時には、例えば、棒状の図形はY軸に平行に画面11の左側の位置に表示される。続いて、表示デバイス10は、棒状の図形12をX軸に平行に徐々に右側へ移動させる。   FIG. 14 is a diagram illustrating a screen and the acquired image in the third example of measuring the displacement in the height direction of the sensor 30. A method for measuring the deviation in the third height direction will be described. The diagram on the left side of FIG. 14 shows the screen 11 of the display device 10 when the HHP 20 is placed. For example, the display device 10 displays a bar-shaped figure 12 on the screen 11. When the plane of the screen 11 is the XY plane, at the start of calibration, for example, a bar-shaped figure is displayed at a position on the left side of the screen 11 parallel to the Y axis. Subsequently, the display device 10 gradually moves the bar-shaped figure 12 to the right in parallel with the X axis.

図14の(A)、(B)及び(C)は、センサ30の高さが標準よりも低い場合のイメージアレイ54によって取得された画像を示し、(a)、(b)及び(c)は、センサ30の高さが標準よりも高い場合のイメージアレイ54によって取得された画像を示す。センサ30の高さを標準よりも低くした場合、標準よりも解像度が高くなり、センサ30の高さを標準よりも高くした場合、標準よりも解像度が低くなる。   14A, 14B, and 14C show images acquired by the image array 54 when the height of the sensor 30 is lower than the standard, and FIGS. 14A, 14B, and 14C. These show images acquired by the image array 54 when the height of the sensor 30 is higher than the standard. When the height of the sensor 30 is lower than the standard, the resolution is higher than the standard, and when the height of the sensor 30 is higher than the standard, the resolution is lower than the standard.

(A)及び(a)は、画面11の初期位置に棒状の図形12が表示されている場合に、イメージアレイ54によって取得された画像を示す。(B)及び(b)は、画面11において棒状の図形12をX軸に平行に所定距離移動させた場合に、イメージアレイ54によって取得された画像を示す。(C)及び(c)は、画面11において棒状の図形12をX軸に平行に終了位置まで移動させた場合に、イメージアレイ54によって取得された画像を示す。   (A) and (a) show images acquired by the image array 54 when the bar-shaped figure 12 is displayed at the initial position of the screen 11. (B) and (b) show images acquired by the image array 54 when the bar-shaped figure 12 is moved a predetermined distance parallel to the X axis on the screen 11. (C) and (c) show images acquired by the image array 54 when the bar-shaped figure 12 is moved to the end position parallel to the X axis on the screen 11.

棒状の図形12が(A)の位置から(B)の位置まで移動した場合、高さ検出部45は、ΔX=5を検出し、(B)の位置から(C)の位置まで移動した場合、高さ検出部45は、ΔX=5を検出する。したがって、高さ検出部45は、棒状の図形12が初期位置から終了位置まで移動した場合にΔX=10を検出する。   When the bar-shaped figure 12 moves from the position (A) to the position (B), the height detection unit 45 detects ΔX = 5 and moves from the position (B) to the position (C). The height detector 45 detects ΔX = 5. Therefore, the height detection unit 45 detects ΔX = 10 when the bar-shaped figure 12 moves from the initial position to the end position.

一方、棒状の図形12が(a)の位置から(b)の位置まで移動した場合、高さ検出部45は、ΔX=2を検出し、(b)の位置から(c)の位置まで移動した場合、高さ検出部45は、ΔX=2を検出する。したがって、高さ検出部45は、棒状の図形12が初期位置から終了位置まで移動した場合にΔX=4を検出する。   On the other hand, when the bar-shaped figure 12 moves from the position (a) to the position (b), the height detector 45 detects ΔX = 2 and moves from the position (b) to the position (c). In this case, the height detection unit 45 detects ΔX = 2. Therefore, the height detection unit 45 detects ΔX = 4 when the bar-shaped figure 12 moves from the initial position to the end position.

このように、センサ30の高さが高い場合(解像度が低い場合)、センサ30によって検出される図形12の移動量が大きくなり、センサ30の高さが低い場合(解像度が高い場合)、センサ30によって検出される図形の移動量が小さくなる。すなわち、図形の移動量とセンサ30の高さ(解像度)とは関連しており、図形を一定距離移動させた場合に、センサ30によって検出される図形の移動量からセンサ30の高さを求めることができる。   Thus, when the height of the sensor 30 is high (when the resolution is low), the amount of movement of the graphic 12 detected by the sensor 30 is large, and when the height of the sensor 30 is low (when the resolution is high), The moving amount of the figure detected by 30 becomes small. That is, the amount of movement of the figure and the height (resolution) of the sensor 30 are related, and when the figure is moved a certain distance, the height of the sensor 30 is obtained from the amount of movement of the figure detected by the sensor 30. be able to.

したがって、高さ検出部45は、図形を一定距離移動させた場合に、センサ30によって検出された図形の移動量に基づいてセンサの高さ(解像度)を求める。   Therefore, the height detection unit 45 obtains the height (resolution) of the sensor based on the movement amount of the graphic detected by the sensor 30 when the graphic is moved by a certain distance.

図15は、センサ30の高さ方向のズレを計測する第4の例における元画像と取得された画像を示す図である。第4の高さ方向のズレの計測方法について説明する。(A)は、印刷媒体2に印刷された元画像を示す。(B)、(C)及び(D)は、イメージアレイ54によって取得された画像であり、(B)が最も露光時間を短くして取得された画像であり、(C)、(D)の順に露光時間を長くして取得された画像である。   FIG. 15 is a diagram illustrating the original image and the acquired image in the fourth example in which the displacement in the height direction of the sensor 30 is measured. A method for measuring a deviation in the fourth height direction will be described. (A) shows the original image printed on the print medium 2. (B), (C) and (D) are images acquired by the image array 54, (B) is an image acquired with the shortest exposure time, and (C) and (D) It is an image acquired by increasing the exposure time in order.

最も露光時間が短い(B)の場合、元画像に表示されている4つの画像のうち、2つの画像が表示され、左から一番目の画像と二番目の画像が読み取れなくなっている。さらに、一番右側の画像の境界線が不鮮明となり、元画像が正方形であるのに対し、十字状の画像となっている。次に露光時間が短い(C)の場合、元画像に表示されている4つの画像のうち、3つの画像が表示され、一番左の画像が読み取れなくなっている。露光時間が最も長い(D)の場合、元画像に表示されている4つの画像の全てが表示されている。   When the exposure time is the shortest (B), two images are displayed among the four images displayed in the original image, and the first image and the second image from the left cannot be read. Further, the border line of the rightmost image becomes unclear, and the original image is a square shape, whereas the original image is a square shape. Next, when the exposure time is short (C), three images among the four images displayed in the original image are displayed, and the leftmost image cannot be read. When the exposure time is the longest (D), all four images displayed in the original image are displayed.

そして、センサ30の高さが高く、解像度が低い場合、イメージアレイ54によって鮮明な画像が取得されるまでの露光時間が長くなり、センサ30の高さが低く、解像度が高い場合、イメージアレイ54によって鮮明な画像が取得されるまでの露光時間が短くなる。   When the height of the sensor 30 is high and the resolution is low, the exposure time until a clear image is acquired by the image array 54 becomes long. When the height of the sensor 30 is low and the resolution is high, the image array 54 This shortens the exposure time until a clear image is obtained.

すなわち、高さ検出部45は、イメージアレイ54によって鮮明な画像が取得されるまでの露光時間を計測することでセンサ30の高さを求めることができる。例えば、高さ検出部45は、露光時間とセンサ30の高さとの関係を示す数式、又はセンサ30の高さごとに露光時間を関連付けた表をROM28に保持しておき、計測した露光時間からセンサ30の高さを求める際に使用してもよい。   That is, the height detection unit 45 can obtain the height of the sensor 30 by measuring the exposure time until a clear image is acquired by the image array 54. For example, the height detection unit 45 holds in the ROM 28 a formula that shows the relationship between the exposure time and the height of the sensor 30, or a table that associates the exposure time for each height of the sensor 30, and from the measured exposure time. You may use when calculating | requiring the height of the sensor 30. FIG.

<XZ方向及びYZ方向の傾きの計測>
図16は、センサ30のXZ方向の傾きを計測する例を示す図である。XZ方向及びYZ方向の傾き計測する2つの方法について、以下に例示して説明する。
<Measurement of tilt in XZ direction and YZ direction>
FIG. 16 is a diagram illustrating an example of measuring the tilt of the sensor 30 in the XZ direction. Two methods for measuring the tilt in the XZ direction and the YZ direction will be described below by way of example.

(a)には、画面11の面をXY方向とし、画面11の面に対して鉛直な軸をZ軸とし、XZ方向に平行なHHP20の断面図を2つ示している。   2A shows two cross-sectional views of the HHP 20 parallel to the XZ direction, with the plane of the screen 11 taken as the XY direction, the axis perpendicular to the plane of the screen 11 taken as the Z axis.

(a)の左側の図では、HHP20の底面をXY平面に平行にした場合に、センサ30の面がXY平面に対して平行となっている。これに対して(a)の右側の図では、HHP20の底面をXY平面に平行にした場合に、センサ30の面がXY平面に対して傾きを持っている。   In the figure on the left side of (a), when the bottom surface of the HHP 20 is parallel to the XY plane, the surface of the sensor 30 is parallel to the XY plane. On the other hand, in the figure on the right side of (a), when the bottom surface of the HHP 20 is parallel to the XY plane, the surface of the sensor 30 is inclined with respect to the XY plane.

(b)は、センサ30から印刷媒体2にLEDレーザを照射した場合を示す。(b)の左側の図は、(a)の左側の図に対応しており、センサ30をXY平面に平行とした状態で印刷媒体2にLEDレーザを照射した場合を示す。また、(b)の右側の図は、(a)の右側の図に対応しており、センサ30がXY平面に対して傾いている状態で印刷媒体2にLEDレーザを照射した場合を示す。   (B) shows a case where the LED laser is irradiated from the sensor 30 to the print medium 2. The left diagram in (b) corresponds to the diagram in the left diagram in (a), and shows a case where the print medium 2 is irradiated with an LED laser in a state where the sensor 30 is parallel to the XY plane. Further, the right diagram of (b) corresponds to the diagram of the right diagram of (a), and shows a case where the print medium 2 is irradiated with the LED laser in a state where the sensor 30 is inclined with respect to the XY plane.

(c)は、LEDレーザが照射された印刷媒体2の一部を拡大した図である。縞状の線は、LEDレーザの照射方向を表す。(c)の左側の図は、(b)の左側の図に対応しており、やや左斜め上方向から印刷媒体2にLEDレーザが照射され、印刷媒体2上の突起の右部分に影が生じている。(c)の右側の図は、(b)の右側の図に対応しており、(c)の左側の図よりもより左側の方向から印刷媒体2にLEDレーザが照射されている。(c)の右側の図は、(c)の左側の図よりも左側からLEDレーザが照射されているため、突起の右方向に(X軸正方向)にやや長い影が生じる。   (C) is the figure which expanded a part of printing medium 2 with which the LED laser was irradiated. The striped line represents the irradiation direction of the LED laser. The left figure of (c) corresponds to the left figure of (b), and the LED laser is irradiated to the print medium 2 from a slightly upper left direction, and a shadow is shadowed on the right part of the protrusion on the print medium 2. Has occurred. The right side view of (c) corresponds to the right side view of (b), and the LED laser is irradiated to the print medium 2 from the left side direction than the left side view of (c). In the right side of (c), the LED laser is irradiated from the left side of the left side of (c), and therefore a slightly longer shadow is generated in the right direction of the protrusion (in the positive direction of the X axis).

(d)は、イメージアレイ54によって取得された画像を示す。(d)の左側の2つの図は、(c)の左側の図に対応しており、左側は図形12が初期位置にある場合の画像であり、右側は図形12が移動して終了位置にある場合の画像である。同様に、(d)の右側の2つの図は、(c)の右側の図に対応しており、左側は図形12が初期位置にある場合の画像であり、右側は図形12が移動して終了位置にある場合の画像である。   (D) shows an image acquired by the image array 54. The two diagrams on the left side of (d) correspond to the diagram on the left side of (c), the left side is an image when the figure 12 is in the initial position, and the right side is the end position when the figure 12 moves. It is an image in some cases. Similarly, the two diagrams on the right side of (d) correspond to the diagram on the right side of (c), the left side is an image when the figure 12 is in the initial position, and the right side is the figure 12 moved. It is an image when in the end position.

(d)の左側の図の初期位置にある図形12の縦の長さは3セル、横の長さは3セルとなっており、縦横比が1:1となっている。これに対して、(d)の右側の図の初期位置にある図形12の縦の長さは3セル、横の長さは4セルとなっており、縦横比が3:4となっている。すなわち、(d)の右側の図は、センサ30がXZ方向に傾いていることにより、図形12の形状がX軸方向に1セル分伸びている。このように、傾き検出部46は、センサ30をXY平面に平行とした状態のときの画像と比較した画像の形状(例えば、縦横比)によって、センサ30のXZ方向の傾きを検出できる。   The vertical length of the figure 12 at the initial position in the left side diagram of (d) is 3 cells, the horizontal length is 3 cells, and the aspect ratio is 1: 1. On the other hand, the vertical length of the figure 12 at the initial position in the right side diagram of (d) is 3 cells, the horizontal length is 4 cells, and the aspect ratio is 3: 4. . That is, in the figure on the right side of (d), the shape of the figure 12 is extended by one cell in the X-axis direction because the sensor 30 is inclined in the XZ direction. As described above, the inclination detection unit 46 can detect the inclination of the sensor 30 in the XZ direction based on the shape of the image (for example, the aspect ratio) compared to the image when the sensor 30 is parallel to the XY plane.

傾き検出部46は、X軸方向(横方向)の図形の長さ、及びY軸方向(縦方向)の図形の長さの比率に基づいて補正係数を算出する。   The inclination detector 46 calculates a correction coefficient based on the ratio of the length of the figure in the X-axis direction (horizontal direction) and the length of the figure in the Y-axis direction (vertical direction).

また、印刷媒体2を所定距離移動させた場合の画像の移動量によってもセンサ30のXZ方向の傾きを検出できる。   Further, the tilt of the sensor 30 in the XZ direction can also be detected by the amount of image movement when the print medium 2 is moved by a predetermined distance.

印刷媒体2をX軸方向に6セル分移動(ΔX=6)させた場合を例に説明する。センサ30をXY平面に平行とした状態でX軸方向に6セル分移動させた場合、傾き検出部46は、(d)の左側の図のように図形12の初期位置から終了位置まで6セル分の移動(dx=6)を検出する。これに対して、センサ30をXY平面に対して傾きがある状態でX軸方向に6セル分移動させた場合、傾き検出部46は、(d)の右側の図のように図形12の初期位置から終了位置まで8セル分の移動(dx=8)を検出する。このように、傾き検出部46は、X軸方向に一定距離図形を移動させたときの移動量に基づいてセンサ30のXZ方向の傾きを検出できる。   An example will be described in which the print medium 2 is moved by 6 cells (ΔX = 6) in the X-axis direction. When the sensor 30 is moved by 6 cells in the X-axis direction in a state of being parallel to the XY plane, the inclination detecting unit 46 detects 6 cells from the initial position to the end position of the figure 12 as shown on the left side of FIG. Minute movement (dx = 6) is detected. On the other hand, when the sensor 30 is moved by 6 cells in the X-axis direction in a state where there is an inclination with respect to the XY plane, the inclination detecting unit 46 detects the initial state of the figure 12 as shown in the right side of FIG. A movement of 8 cells from the position to the end position (dx = 8) is detected. As described above, the inclination detection unit 46 can detect the inclination of the sensor 30 in the XZ direction based on the movement amount when the figure is moved at a constant distance in the X-axis direction.

傾き検出部46は、計測したX軸方向の移動量及び計測したY軸方向の移動量の比率に基づいて補正係数を算出する。   The inclination detection unit 46 calculates a correction coefficient based on the ratio of the measured movement amount in the X-axis direction and the measured movement amount in the Y-axis direction.

このように、傾き検出部46は、センサ30をXY平面に平行とした状態のときの画像の縦横比又は移動量と比較することで、センサ30のXZ方向の傾きを検出できる。   As described above, the inclination detection unit 46 can detect the inclination of the sensor 30 in the XZ direction by comparing the aspect ratio or the movement amount of the image when the sensor 30 is parallel to the XY plane.

また、傾き検出部46は、上記と同様の方法によりYZ方向の傾きに係る補正係数を求める。   Further, the inclination detection unit 46 obtains a correction coefficient related to the inclination in the YZ direction by the same method as described above.

<XY方向の傾きの計測>
図17は、HHP20の底面の各部位の位置関係を示す図である。図17は、HHP20の底面である。HHP20の縦方向及び横方向の辺に平行な軸をX軸、Y軸とする。X軸はIJ記録ヘッド24のノズルの配列方向に垂直であり、Y軸はIJ記録ヘッド24のノズルの配列方向に平行である。また、センサ30a及びセンサ30bの形状は、例えば、長方形であり、短辺がX軸に平行であり、長辺がY軸に平行である。図17に示すような場合にセンサ30a及びセンサ30bは、XY方向に傾きなく取り付けられているものとする。なお、IJ記録ヘッド24の形状は、長方形に限定されない。
<Measurement of tilt in XY direction>
FIG. 17 is a diagram illustrating the positional relationship between the respective parts on the bottom surface of the HHP 20. FIG. 17 is the bottom surface of the HHP 20. An axis parallel to the vertical and horizontal sides of the HHP 20 is defined as an X axis and a Y axis. The X axis is perpendicular to the nozzle arrangement direction of the IJ recording head 24, and the Y axis is parallel to the nozzle arrangement direction of the IJ recording head 24. Moreover, the shape of the sensor 30a and the sensor 30b is, for example, a rectangle, the short side is parallel to the X axis, and the long side is parallel to the Y axis. In the case shown in FIG. 17, it is assumed that the sensor 30a and the sensor 30b are attached without inclination in the XY directions. The shape of the IJ recording head 24 is not limited to a rectangle.

図18は、センサ30のXY方向の傾きによる影響を示す図である。(a)は、HHP20の底面の各部位の位置関係を示す。IJ記録ヘッド24及びセンサ30aの位置関係は、図18と同様に各辺がX軸及びY軸に平行である。一方、センサ30bは、短辺がX軸に対して角度θ、反時計方向に傾いている。   FIG. 18 is a diagram illustrating the influence of the tilt of the sensor 30 in the XY direction. (A) shows the positional relationship of each site | part of the bottom face of HHP20. As for the positional relationship between the IJ recording head 24 and the sensor 30a, each side is parallel to the X axis and the Y axis, as in FIG. On the other hand, the short side of the sensor 30b is inclined counterclockwise by an angle θ with respect to the X axis.

(b)は、HHP20をX軸方向にΔX、Y軸方向にΔY移動させた場合の各センサが計測するX軸方向及びY軸方向の移動量を示す。(i)は、センサ30aが計測したΔX及びΔYであり、HHP20の実際の移動量と一致している。一方、(ii)は、センサ30bが計測したΔX及びΔYであり、HHP20の実際の移動量よりもΔXが長くなっており、ΔYが短くなっている。   (B) shows the amount of movement in the X-axis direction and Y-axis direction measured by each sensor when the HHP 20 is moved ΔX in the X-axis direction and ΔY in the Y-axis direction. (I) is ΔX and ΔY measured by the sensor 30a, which coincides with the actual movement amount of the HHP 20. On the other hand, (ii) is ΔX and ΔY measured by the sensor 30b. ΔX is longer than the actual movement amount of the HHP 20, and ΔY is shorter.

(c)は、センサ30a及びセンサ30bが計測した移動量を比較するための図である。(ii)のΔXの軸を(i)のΔXの軸にそろえた場合に、センサ30a及びセンサ30bの実際の移動量が同じであっても、計測される移動量ΔX及びΔYに誤差が生じることが分かる。   (C) is a figure for comparing the movement amount which the sensor 30a and the sensor 30b measured. When the axis of ΔX in (ii) is aligned with the axis of ΔX in (i), an error occurs in the measured movement amounts ΔX and ΔY even if the actual movement amounts of the sensor 30a and the sensor 30b are the same. I understand that.

傾き検出部46は、一方のセンサ30に対する他方のセンサ30のXY方向の傾きθを算出する。例えば、センサ30aの短辺に平行な軸をX軸、長辺に平行な軸をY軸としたとき、センサ30bのXY方向の傾きθは、以下の数式に基づいて算出することができる。すなわち、傾きθはセンサ30a及びセンサ30bのXY方向の角度差である。   The inclination detection unit 46 calculates the inclination θ in the XY direction of the other sensor 30 with respect to one sensor 30. For example, assuming that the axis parallel to the short side of the sensor 30a is the X axis and the axis parallel to the long side is the Y axis, the inclination θ in the XY direction of the sensor 30b can be calculated based on the following equation. That is, the inclination θ is an angle difference between the sensors 30a and 30b in the XY directions.

また、位置算出回路32は、数1の数式により算出したXY方向の傾きθに基づいて下記の数式により実際の移動量ΔX及びΔYを算出することができる。 Further, the position calculation circuit 32 can calculate the actual movement amounts ΔX and ΔY by the following formula based on the inclination θ in the XY direction calculated by the formula (1).

ΔX=dx×cosθ+dy×sinθ
ΔY=dx×sinθ−dy×cosθ・・・(1)
このように、センサ30a及びセンサ30b間で発生する移動量の誤差を補正することでセンサ30のXY方向の傾きによる誤差を軽減することができる。
ΔX = dx × cos θ + dy × sin θ
ΔY = dx × sin θ−dy × cos θ (1)
As described above, by correcting the error in the movement amount generated between the sensor 30a and the sensor 30b, the error due to the tilt of the sensor 30 in the XY direction can be reduced.

また、傾き検出部46は、sinθ及びcosθを補正係数としてメモリ29に記録しておき、実際の移動量ΔX及びΔYを算出する際に使用してもよい。   In addition, the inclination detection unit 46 may record sin θ and cos θ as correction coefficients in the memory 29 and use them when calculating the actual movement amounts ΔX and ΔY.

<キャリブレーションに使用される図形のパターン例>
図19は、キャリブレーションに使用される図形のパターン例を示す第1の図である。(a)は、正方形の図形を等間隔に複数並べた場合の画像である。(a)の図形をX軸方向及びY軸方向に動かし、移動量ΔX及びΔYを求めることにより、高さ方向のズレ、XZ方向及びYZ方向の傾き、XY方向の傾きを算出することができる。(b)は、Y軸方向に平行な線状の図形を複数並べた場合の画像である。(b)の図形は、Y軸方向に動かしてΔYを求める場合に用いられる。また、X軸方向に平行な線状の図形を用いることで、高さ検出部45及び傾き検出部46は、図形をX軸方向に動かしてΔXを求めることもできる。
<Examples of graphic patterns used for calibration>
FIG. 19 is a first diagram illustrating a pattern example of a figure used for calibration. (A) is an image when a plurality of square figures are arranged at equal intervals. By moving the figure (a) in the X-axis direction and the Y-axis direction and obtaining the movement amounts ΔX and ΔY, it is possible to calculate the deviation in the height direction, the inclination in the XZ direction and the YZ direction, and the inclination in the XY direction. . (B) is an image when a plurality of linear figures parallel to the Y-axis direction are arranged. The figure in (b) is used when ΔY is obtained by moving in the Y-axis direction. Further, by using a linear figure parallel to the X-axis direction, the height detection unit 45 and the inclination detection unit 46 can also obtain ΔX by moving the figure in the X-axis direction.

図20は、キャリブレーションに使用される図形のパターン例を示す第2の図である。図20の(a)及び(b)は、図19の(a)及び(b)と同じパターンの図形であるが、図19と比べてHHP20の載置位置が45°傾いているため、図19と比べて図形がXY方向に45°傾いている。   FIG. 20 is a second diagram illustrating a pattern example of a figure used for calibration. FIGS. 20A and 20B are figures having the same pattern as FIGS. 19A and 19B. However, the mounting position of the HHP 20 is inclined by 45 ° compared to FIG. Compared with 19, the figure is inclined 45 ° in the XY direction.

高さ検出部45及び傾き検出部46は、セル単位で図形の移動量を計測し、セル単位の図形の移動量の平均値に基づいて移動量ΔX及びΔYを求めてもよい。これにより、画面11上のHHP20が載置された位置にズレがあっても、キャリブレーションへの影響を少なくすることができる。   The height detection unit 45 and the inclination detection unit 46 may measure the movement amount of the graphic in units of cells and obtain the movement amounts ΔX and ΔY based on the average value of the movement amount of the graphic in units of cells. Thereby, even if the position where the HHP 20 is placed on the screen 11 is shifted, the influence on the calibration can be reduced.

<キャリブレーション処理のフロー>
図21は、キャリブレーション処理の全体のフローを示す図である。図21の左側はユーザの操作又は表示デバイス10の動作を示し、右側はHHP20の動作を示す。
<Calibration process flow>
FIG. 21 is a diagram showing an overall flow of the calibration process. The left side of FIG. 21 shows the operation of the user or the operation of the display device 10, and the right side shows the operation of the HHP 20.

ユーザによりHHP20の電源ボタンが押下されると(ステップS10)、HHP20の高さ方向(Z軸方向)のズレ、XZ方向及びYZ方向の傾き、XY方向の傾きの計測値が初期化される(ステップS20)。続いて、キャリブレーション処理が開始され(ステップS11)、ユーザにより表示デバイス10がHHP20の下に設置される。続いて、表示デバイス10は、固定パターン画像を表示する(ステップS13)。例えば、表示デバイス10は、図2(b)のような棒状の図形を固定パターン画像として表示する。続いて、ユーザによりHHP20のキャリブレーションボタン5が押下される(ステップS14)。HHP20は、キャリブレーションボタン5が押下されるとレディ状態に移行する。   When the user presses the power button of the HHP 20 (step S10), the measured values of the displacement of the HHP 20 in the height direction (Z-axis direction), the tilt in the XZ direction and the YZ direction, and the tilt in the XY direction are initialized ( Step S20). Subsequently, calibration processing is started (step S11), and the display device 10 is installed under the HHP 20 by the user. Subsequently, the display device 10 displays a fixed pattern image (step S13). For example, the display device 10 displays a bar-shaped figure as shown in FIG. 2B as a fixed pattern image. Subsequently, the user presses the calibration button 5 of the HHP 20 (step S14). The HHP 20 shifts to the ready state when the calibration button 5 is pressed.

HHP20は、レディ状態であるか否かを判定する(ステップS21)。HHP20は、レディ状態に移行していた場合(ステップS21Yes)、LED6を点灯させる(ステップS22)。一方、HHP20は、レディ状態に移行していない場合(ステップS21No)、所定時間経過後にステップS21を再度実行する。   The HHP 20 determines whether it is in a ready state (step S21). If the HHP 20 has shifted to the ready state (step S21 Yes), the HHP 20 turns on the LED 6 (step S22). On the other hand, if the HHP 20 has not transitioned to the ready state (No at Step S21), the HHP 20 executes Step S21 again after a predetermined time.

続いて、HHP20は、センサ30上のキャプチャ画像を取り込む(ステップS23)。続いて、HHP20は、キャプチャ画像一辺のセル数をカウントする(ステップS24)。   Subsequently, the HHP 20 captures a captured image on the sensor 30 (step S23). Subsequently, the HHP 20 counts the number of cells on one side of the captured image (step S24).

続いて、高さ検出部45は、キャプチャ画像一辺のセル数から現在の画面11からの高さ(Z軸方向の距離h)を求める(ステップS25)。例えば、高さ検出部45は、図11に示す関係表を用いてセンサ30の高さを求めてもよい。続いて、高さ検出部45は、高さに対応する解像度に応じた補正係数をメモリ29に格納する(ステップS26)。なお、高さ検出部45は、図11に示す関係表をメモリ29に格納し、補正係数の代わりに用いてもよい。   Subsequently, the height detection unit 45 obtains the height (distance h in the Z-axis direction) from the current screen 11 from the number of cells on one side of the captured image (step S25). For example, the height detection unit 45 may obtain the height of the sensor 30 using the relationship table shown in FIG. Subsequently, the height detection unit 45 stores a correction coefficient corresponding to the resolution corresponding to the height in the memory 29 (step S26). The height detector 45 may store the relationship table shown in FIG. 11 in the memory 29 and use it instead of the correction coefficient.

続いて、傾き検出部46は、キャプチャ画像一辺のセル数から現在のXZ方向の傾きを算出する(ステップS27)。   Subsequently, the inclination detection unit 46 calculates the current inclination in the XZ direction from the number of cells on one side of the captured image (step S27).

キャプチャ画像一辺のセル数から現在のXZ方向の傾きを算出する方法以外の方法を用いてXZ方向の傾きを算出してもよい。例えば、傾き検出部46は、例えば、図16(d)に示す例のように画面11に表示された図形12の移動量に基づいてXZ方向の傾きを算出してもよい。   The tilt in the XZ direction may be calculated using a method other than the method for calculating the current tilt in the XZ direction from the number of cells on one side of the captured image. For example, the inclination detection unit 46 may calculate the inclination in the XZ direction based on the amount of movement of the graphic 12 displayed on the screen 11 as in the example illustrated in FIG.

続いて、傾き検出部46は、XZ方向の傾きに応じた補正係数をメモリ29に格納する(ステップS28)。   Subsequently, the inclination detection unit 46 stores a correction coefficient corresponding to the inclination in the XZ direction in the memory 29 (step S28).

続いて、傾き検出部46は、キャプチャ画像一辺のセル数から現在のYZ方向の傾きを算出する(ステップS29)。続いて、傾き検出部46は、YZ方向の傾きに応じた補正係数をメモリ29に格納する(ステップS30)。   Subsequently, the inclination detection unit 46 calculates the current inclination in the YZ direction from the number of cells on one side of the captured image (step S29). Subsequently, the inclination detecting unit 46 stores a correction coefficient corresponding to the inclination in the YZ direction in the memory 29 (step S30).

続いて、表示デバイス10は、キャリブレーションボタン5が押下されてから一定時間経過した後に、固定パターン画像を移動させる(ステップS15)。   Subsequently, the display device 10 moves the fixed pattern image after a predetermined time has elapsed since the calibration button 5 was pressed (step S15).

続いて、傾き検出部46は、2つのセンサ30a及びセンサ30bによって計測された固定パターン画像の移動量ΔX及びΔYに基づいて現在のXY方向の傾きθを算出する(ステップS31)。例えば、傾き検出部46は、数1の数式に基づいてXY方向の傾きθを算出する。   Subsequently, the inclination detection unit 46 calculates the current inclination XY in the XY direction based on the movement amounts ΔX and ΔY of the fixed pattern image measured by the two sensors 30a and 30b (step S31). For example, the inclination detection unit 46 calculates the inclination θ in the XY directions based on the mathematical expression of Equation 1.

傾き検出部46は、算出したXY方向の傾きθに応じた補正係数をメモリ29に格納する(ステップS32)。例えば、傾き検出部46は(1)の数式に使用するsinθ及びcosθを補正係数としてメモリに格納してもよい。   The inclination detection unit 46 stores a correction coefficient corresponding to the calculated inclination θ in the XY direction in the memory 29 (step S32). For example, the inclination detection unit 46 may store sin θ and cos θ used in the mathematical expression (1) in the memory as correction coefficients.

続いて、HHP20は、LED6を消灯させる(ステップS33)。続いて、ユーザによってHHP20が印字媒体上に移動されると、メモリ29に格納された各補正係数を用いて位置算出回路32によって算出された正確な現在位置を参照しつつ、HHP20は、印字処理を開始する(ステップS16)。   Subsequently, the HHP 20 turns off the LED 6 (step S33). Subsequently, when the HHP 20 is moved onto the print medium by the user, the HHP 20 performs print processing while referring to the accurate current position calculated by the position calculation circuit 32 using each correction coefficient stored in the memory 29. Is started (step S16).

なお、ステップS25、S26の高さ(Z)方向のずれの補正、ステップS27〜S30の傾き(XZ,YZ)方向のずれの補正、ステップS31、32の平面上(XY方向)のずれの補正のうち、高さ(Z)方向のずれの補正のみが行われてもよい。また、ステップS27〜S30の傾き(XZ,YZ)方向のずれの補正のみが行われてもよい。ステップS31、32の平面上(XY方向)のずれの補正のみが行われてもよい。ただし、上記3つの補正がすべて実行されることが好ましい。また、上記3つの補正が行われる順番は、図21の順番に限らず、どのような順番であってもよい。   It should be noted that the height (Z) direction correction in steps S25 and S26, the tilt (XZ, YZ) direction correction in steps S27 to S30, and the plane (XY direction) correction in steps S31 and 32 are corrected. Among them, only correction of the deviation in the height (Z) direction may be performed. Further, only correction of the deviation in the inclination (XZ, YZ) direction in steps S27 to S30 may be performed. Only correction of displacement on the plane (XY direction) in steps S31 and S32 may be performed. However, it is preferable that all the three corrections are performed. Further, the order in which the above three corrections are performed is not limited to the order shown in FIG. 21 and may be any order.

<移動後のセンサの移動成分の算出>
図22は、センサの位置算出方法を説明するための図である。図22において左側に移動前のIJ記録ヘッド24が示され、右側に移動後のIJ記録ヘッド24が示される。IJ記録ヘッド24の両端にはセンサ30a及びセンサ30bが配置されている。IJ記録ヘッド24は、右上方向に移動しており、センサ30a及びセンサ30bを通る軸が正時計方向にdθ旋回している。
<Calculation of movement component of sensor after movement>
FIG. 22 is a diagram for explaining a sensor position calculation method. In FIG. 22, the IJ recording head 24 before movement is shown on the left side, and the IJ recording head 24 after movement is shown on the right side. Sensors 30 a and 30 b are arranged at both ends of the IJ recording head 24. The IJ recording head 24 moves in the upper right direction, and the axis passing through the sensor 30a and the sensor 30b rotates dθ in the clockwise direction.

センサ30aの初期位置を(X,Y)とし、センサ30bの初期位置を(X,Y)とし、センサ30aからセンサ30bまでの距離をLとする。また、移動前及び移動後のセンサ30a及びセンサ30bを通る軸の回転成分をdθとし、また、移動前及び移動後のセンサ30aのX軸方向の並行移動成分をΔX,Y軸方向の並行移動成分をΔYとする。また、移動前及び移動後のセンサ30aによって検出されたX軸方向の移動成分をdxS0、Y軸方向の移動成分をdyS0とする。なお、センサ30aによって検出された移動成分をdxS0及びdyS0には、センサ30a及びセンサ30bを通る軸の回転成分が含まれている。 The initial position of the sensor 30a is (X 0 , Y 0 ), the initial position of the sensor 30b is (X 1 , Y 1 ), and the distance from the sensor 30a to the sensor 30b is L. Further, the rotational component of the axis passing through the sensor 30a and the sensor 30b before and after the movement is dθ, and the parallel movement component in the X-axis direction of the sensor 30a before and after the movement is ΔX 0 , the parallel in the Y-axis direction. Let the moving component be ΔY 0 . Further, the movement component in the X-axis direction detected by the sensor 30a before and after movement is referred to as dx S0 , and the movement component in the Y-axis direction is defined as dy S0 . Note that the movement components detected by the sensor 30a include dx S0 and dy S0 that include rotational components of the axis passing through the sensors 30a and 30b.

位置算出回路32は、dxS0から回転成分と並行移動成分をそれぞれ算出する。位置算出回路32は、回転成分dθを以下の数式に基づいて算出する。 The position calculation circuit 32 calculates a rotation component and a parallel movement component from dx S0 . The position calculation circuit 32 calculates the rotation component dθ based on the following mathematical formula.

位置算出回路32は、並行移動成分dX及びdYを以下の数式に基づいて算出する。 The position calculation circuit 32 calculates the parallel movement components dX 0 and dY 0 based on the following mathematical formula.

dX=dxS0×cosθ+dyS0×sinθ
dY=−dxS0×sinθ+dyS0×cosθ・・・(2)
<移動後のセンサの位置の補正>
続いて、位置算出回路32は、センサ30aの解像度から算出された補正係数に基づいてdX及びdYを補正する。具体的には、高さ検出部45によってセンサ30の高さに対応する補正係数があらかじめ算出され、メモリ29に格納されている。位置算出回路32は、メモリ29に格納されている補正係数に基づいて並行移動成分dX及びdYを補正する。
dX 0 = dx S 0 × cos θ + dy S 0 × sin θ
dY 0 = −dx S 0 × sin θ + dy S 0 × cos θ (2)
<Correction of sensor position after movement>
Subsequently, the position calculation circuit 32 corrects dX 0 and dY 0 based on the correction coefficient calculated from the resolution of the sensor 30a. Specifically, a correction coefficient corresponding to the height of the sensor 30 is calculated in advance by the height detection unit 45 and stored in the memory 29. The position calculation circuit 32 corrects the parallel movement components dX 0 and dY 0 based on the correction coefficient stored in the memory 29.

例えば、補正係数Cは、実際のHHP20の移動量を、センサ30が検出した移動量で除算した値とする場合、以下の数式を用いて並行移動成分dX及びdYを補正する。なお、補正後のdX及びdYは、dX'及びdY'である。 For instance, the correction coefficient C T is the actual amount of movement of HHP20, if the sensor 30 is a value obtained by dividing the movement amount detected, it corrects the parallel movement component dX 0 and dY 0 using the following equation. The corrected dX 0 and dY 0 are dX 0 ′ and dY 0 ′.

dX'=C×dX
dY'=C×dY・・・(3)
続いて、位置算出回路32は、傾き検出部46によって算出されたXZ方向の傾きに係る補正係数及びYZ方向の傾きに係る補正係数に基づいて移動成分dX及びdYを補正する。例えば、X軸方向の移動量の係数をC、Y軸方向の移動量の係数をCとした場合、以下の数式を用いて並行移動成分dX及びdYを補正する。
dX 0 '= C T × dX 0
dY 0 ′ = C T × dY 0 (3)
Subsequently, the position calculation circuit 32 corrects the moving components dX 0 and dY 0 based on the correction coefficient related to the XZ direction inclination calculated by the inclination detection unit 46 and the correction coefficient related to the YZ direction inclination. For example, when the coefficient of the amount of movement in the X-axis direction C X, the coefficient of the amount of movement in the Y-axis direction and C Y, corrects the parallel movement component dX 0 and dY 0 using the following equation.

dX'=C×dX
dY'=C×dY・・・(4)
続いて、位置算出回路32は、XY方向の傾きに係る補正係数(例えば、センサ30a及びセンサ30bのsinθ,cosθ)を(2)の数式に用いることにより、移動成分dX及びdYを補正する。
dX 0 '= C X × dX 0
dY 0 ′ = C Y × dY 0 (4)
Subsequently, the position calculation circuit 32 corrects the moving components dX 0 and dY 0 by using correction coefficients (for example, sin θ and cos θ of the sensor 30a and the sensor 30b) related to the inclination in the XY direction in the equation (2). To do.

続いて、位置算出回路32は、センサ30aの初期位置(X,Y)に移動量dX及びdYを加算(X+dX,Y+dY)することで、センサ30aの移動後の位置(X',Y')を算出する。 Subsequently, the position calculation circuit 32 adds the movement amounts dX 0 and dY 0 to the initial position (X 0 , Y 0 ) of the sensor 30 a (X 0 + dX 0 , Y 0 + dY 0 ), thereby moving the sensor 30 a. The subsequent position (X 0 ′, Y 0 ′) is calculated.

続いて、位置算出回路32は、センサ30aの移動後の位置(X',Y')、及びセンサ30aとセンサ30bとを通る線とY軸との角度θを、以下の数式に代入し、センサ30bの移動後の位置(X',Y')を算出する。 Subsequently, the position calculation circuit 32 substitutes the position (X 0 ′, Y 0 ′) after the movement of the sensor 30a and the angle θ between the line passing through the sensor 30a and the sensor 30b and the Y axis into the following equation. Then, the position (X 1 ′, Y 1 ′) after the movement of the sensor 30b is calculated.

'=X'−L×sinθ
'=Y'−L×cosθ・・・(5)
なお、位置算出回路32は、センサ30aと同様にしてセンサ30bの移動後の位置を算出してもよい。
X 1 ′ = X 0 ′ −L × sin θ
Y 1 ′ = Y 0 ′ −L × cos θ (5)
Note that the position calculation circuit 32 may calculate the position after the movement of the sensor 30b in the same manner as the sensor 30a.

<各ノズルの位置の算出>
図23は、先頭のノズル位置の算出を説明するための第1の図である。センサ30a及びセンサ30bを結ぶ線分上にノズル24a〜24fが配置されている。位置算出回路32は、上記処理によって補正されたセンサ30a及びセンサ30bと各ノズルの位置関係から、各ノズルの正確な位置を算出する。
<Calculation of the position of each nozzle>
FIG. 23 is a first diagram for explaining the calculation of the leading nozzle position. Nozzles 24a to 24f are arranged on a line segment connecting the sensor 30a and the sensor 30b. The position calculation circuit 32 calculates the exact position of each nozzle from the positional relationship between the sensors 30a and 30b corrected by the above processing and each nozzle.

センサ30aからIJ記録ヘッド24までの距離をa、IJ記録ヘッド24のセンサ30a側の端部から先頭のノズル24aまでの距離をd、各ノズル間の距離をeとした場合、位置算出回路32は、配列の先頭のノズル24aの位置(NZL_X, NZL_Y)を以下の数式で求める。また、位置算出回路32は、後尾のノズル24fをノズル24aの場合と同様に求める。 When the distance from the sensor 30a to the IJ recording head 24 is a, the distance from the sensor 30a side end of the IJ recording head 24 to the head nozzle 24a is d, and the distance between the nozzles is e, the position calculation circuit 32 Finds the position (NZL 1 _X, NZL 1 _Y) of the first nozzle 24a in the array by the following equation. Further, the position calculation circuit 32 obtains the rear nozzle 24f in the same manner as the nozzle 24a.

NZL_X=X−(a+d)×sinθ
NZL_Y=Y−(a+d)×cosθ・・・(6)
図24は、先頭のノズル位置の算出を説明するための第2の図である。ノズル24A〜24Fは、センサ30a及びセンサ30bを結ぶ線分上に配置されていない。ノズル24a〜24fの配列をn列、ノズル24a〜24fの配列をc列とし、n列とc列との距離をfとしたとき、位置算出回路32は、配列cの先頭のノズル24Aの位置(NZL_X, NZL_Y)を以下の数式で求める。また、位置算出回路32は、配列cの後尾のノズル24Fをノズル24Aの場合と同様に求める。
NZL 1 _X = X 0 − (a + d) × sin θ
NZL 1 _Y = Y 0 − (a + d) × cos θ (6)
FIG. 24 is a second diagram for explaining the calculation of the leading nozzle position. The nozzles 24A to 24F are not arranged on the line segment that connects the sensor 30a and the sensor 30b. When the arrangement of the nozzles 24a to 24f is n, the arrangement of the nozzles 24a to 24f is c, and the distance between the n and c is f, the position calculation circuit 32 determines the position of the first nozzle 24A in the arrangement c. (NZL 1 _X, NZL 1 _Y) is obtained by the following formula. Further, the position calculation circuit 32 obtains the rear nozzle 24F of the array c in the same manner as the nozzle 24A.

NZLc−1_X=X−(a+d)×sinθ+f×cosθ
NZLc−1_Y=Y−(a+d)×cosθ+f×sinθ・・・(7)
図25は、先頭及び後尾ノズルの中間にあるノズルの位置の算出を説明するための第1の図である。位置算出回路32は、先頭及び後尾ノズルとの位置関係に基づいて、以下の数式で先頭及び後尾ノズルの中間にある先頭からN番目のノズル24N(24b〜f)の位置を求める。
NZL c-1 _X = X 0 − (a + d) × sin θ + f × cos θ
NZL c-1 — Y = Y 0 − (a + d) × cos θ + f × sin θ (7)
FIG. 25 is a first diagram for explaining the calculation of the position of a nozzle located between the head and tail nozzles. The position calculation circuit 32 obtains the position of the Nth nozzle 24N (24b to f) from the head that is between the head and tail nozzles based on the positional relationship with the head and tail nozzles using the following formula.

NZLN_X=XS+{(XE−XS)/(E−1)}×N
NZLN_X=YS+{(YE−YS)/(E−1)}×N・・・(8)
図26は、先頭及び後尾ノズルの中間にあるノズルの位置の算出を説明するための第2の図である。例えば、位置算出回路32は、ノズル配列の延長線上に存在する仮想のノズルの位置に基づいて、先頭のノズル以降のノズルの位置を求めることができる。位置算出回路32は、各ノズル間の距離eと、X軸方向とのノズル配列の傾きθに基づいて仮想のノズルの位置(NZL_XE,NZL_YE)をあらかじめ算出しておく。
NZL N_X = XS + {(XE-XS) / (E-1)} * N
NZL N — X = YS + {(YE−YS) / (E−1)} × N (8)
FIG. 26 is a second diagram for explaining the calculation of the position of the nozzle in the middle of the leading and trailing nozzles. For example, the position calculation circuit 32 can obtain the positions of the nozzles after the first nozzle based on the positions of the virtual nozzles existing on the extension line of the nozzle array. The position calculation circuit 32 previously calculates virtual nozzle positions (NZL_XE, NZL_YE) based on the distance e between the nozzles and the inclination θ of the nozzle arrangement with respect to the X-axis direction.

例えば、ノズル配列に192個のノズルが配置されており、257番目のノズルを仮想のノズルとし、1番目のノズル24_1の位置を(NZL_XS,NZL_YS)、仮想のノズル24_257の位置を(NZL_XE,NZL_YE)としたとき、以下の数式で先頭及び後尾ノズルの中間にある先頭からN番目のノズル24_Nの位置(NZLNX, NZLNY)を求める。 For example, 192 nozzles in the nozzle array has been arranged, the 257-th nozzle and the virtual nozzle, the position of the first nozzle 24_1 (NZL_ XS, NZL_ YS) , the position of the virtual nozzle 24_257 (NZL_ XE, when the NZL_ YE), the position of the N-th nozzle 24_N from the beginning in the middle of the head and tail nozzle by the following equation (NZL NX, seek NZL NY).

NZLNX={NZL_XS×(257−N)+NZL_XE×(N−1)}÷256
NZLNY={NZL_YS×(257−N)+NZL_YE×(N−1)}÷256・・・(9)
[実施形態2]
実施形態1では、ユーザが印字処理を開始する前にキャリブレーションを実行することを説明したが、これに限定されず、HHP20の製造工程においてキャリブレーションを実行してもよい。
NZL NX = {NZL_ XS × ( 257-N) + NZL_ XE × (N-1)} ÷ 256
NZL NY = {NZL_ YS × ( 257-N) + NZL_ YE × (N-1)} ÷ 256 ··· (9)
[Embodiment 2]
In the first embodiment, it has been described that the calibration is performed before the user starts the printing process. However, the present invention is not limited to this, and the calibration may be performed in the manufacturing process of the HHP 20.

HHP20の製造工程において実行されたキャリブレーションの結果は、例えば、ROM28に保持しておいてもよい。例えば、高さ検出部45によって計測されたセンサ30の高さに係る補正係数、傾き検出部46によって計測されたXZ方向及びYZ方向の傾きに係る補正係数、傾き検出部46によって計測されたXY方向の傾きに係る補正係数を算出し、ROM28に保持しておく。   The result of calibration executed in the manufacturing process of the HHP 20 may be held in the ROM 28, for example. For example, the correction coefficient related to the height of the sensor 30 measured by the height detection unit 45, the correction coefficient related to the inclination in the XZ direction and the YZ direction measured by the inclination detection unit 46, and the XY measured by the inclination detection unit 46 A correction coefficient related to the direction inclination is calculated and stored in the ROM 28.

これにより、HHP20を稼働させ始めた初期の段階で、ユーザによるキャリブレーション処理を省略又は簡略化することができ、ユーザの利便性を向上できる。   Thereby, the calibration process by the user can be omitted or simplified at the initial stage when the HHP 20 is started to operate, and the convenience for the user can be improved.

また、センサ30の高さを計測し、安定してHHP20の移動量を計測できない高さであった場合は、センサ30を取り付け直したり、センサ30を交換したりするようにしてもよい。すなわち、HHP20のテスト工程でキャリブレーション処理を実行してもよい。   Further, the height of the sensor 30 is measured, and when the height is such that the movement amount of the HHP 20 cannot be measured stably, the sensor 30 may be reattached or the sensor 30 may be replaced. That is, the calibration process may be executed in the test process of the HHP 20.

例えば、図12に示す例では、センサ30の高さが2.0mm〜3.0mmの範囲である場合に安定してHHP20の移動量を計測できるが、センサ30の高さが2.0mm〜3.0mmの範囲外である場合、センサ30を取り付け直したり、センサ30を交換したりするようにしてもよい。   For example, in the example illustrated in FIG. 12, the movement amount of the HHP 20 can be stably measured when the height of the sensor 30 is in the range of 2.0 mm to 3.0 mm. If it is out of the range of 3.0 mm, the sensor 30 may be reattached or the sensor 30 may be replaced.

なお、HHP20は、画像形成装置の一例である。センサ30は、検出手段の一例である。センサI/F42は、移動量算出部の一例である。高さ検出部45及び傾き検出部46は、取得手段の一例である。画面11は、表面情報の一例である。図6(b)のsamp1〜3は、基本表面情報の一例である。位置算出回路32は、補正手段の一例である。センサ30の高さに関する情報は、高さ情報の一例である。XZ方向及びYZ方向の傾き、XY方向の傾きに関する情報は、傾度情報の一例である。また、高さ情報(センサ30の高さに関する情報)及び傾度情報(XY方向の傾きに関する情報)は、補正情報の一例である。   The HHP 20 is an example of an image forming apparatus. The sensor 30 is an example of a detection unit. The sensor I / F 42 is an example of a movement amount calculation unit. The height detection unit 45 and the inclination detection unit 46 are an example of an acquisition unit. The screen 11 is an example of surface information. Samp1 to 3 in FIG. 6B are examples of basic surface information. The position calculation circuit 32 is an example of a correction unit. Information regarding the height of the sensor 30 is an example of height information. The information about the tilt in the XZ direction and the YZ direction and the tilt in the XY direction is an example of the tilt information. Further, the height information (information about the height of the sensor 30) and the inclination information (information about the inclination in the XY directions) are examples of correction information.

図形12は、所定のパターンの一例である。セルは、単位画像の一例である。XY方向の傾きは、組み付け角度の一例である。ROM28は、記憶領域の一例である。また、第1の方向とは、例えば、X軸方向であり、第2の方向とは、例えば、Y軸方向である。また、第1の方向の移動距離とは、センサ30により計測されたX軸方向の移動量ΔXの一例である。第2方向の移動距離とは、センサ30により計測されたY軸方向の移動量ΔYの一例である。   The figure 12 is an example of a predetermined pattern. A cell is an example of a unit image. The inclination in the XY direction is an example of an assembly angle. The ROM 28 is an example of a storage area. Further, the first direction is, for example, the X-axis direction, and the second direction is, for example, the Y-axis direction. The movement distance in the first direction is an example of the movement amount ΔX in the X-axis direction measured by the sensor 30. The movement distance in the second direction is an example of the movement amount ΔY in the Y-axis direction measured by the sensor 30.

10 表示デバイス
23 IJ記録ヘッド駆動回路
25 制御部
26 OPU
28 ROM
29 メモリ(DRAM)
30a,30b センサ
31 CPU
32 位置算出回路
35 メモリCTL
36 ROMCTL
37 ImageRAM
38 DMAC(CACHE)
39 回転器
40 ASIC/FPGA
41 割り込みコントローラ
42 センサI/F
43 印字/センサタイミング生成部
44 IJ記録ヘッド制御部
45 高さ検出部
46 傾き検出部
47,48 バス
DESCRIPTION OF SYMBOLS 10 Display device 23 IJ recording head drive circuit 25 Control part 26 OPU
28 ROM
29 Memory (DRAM)
30a, 30b Sensor 31 CPU
32 position calculation circuit 35 memory CTL
36 ROMCTL
37 ImageRAM
38 DMAC (CACHE)
39 Rotator 40 ASIC / FPGA
41 Interrupt controller 42 Sensor I / F
43 Print / Sensor Timing Generation Unit 44 IJ Recording Head Control Unit 45 Height Detection Unit 46 Inclination Detection Units 47 and 48 Bus

特表2010−535118号公報Special table 2010-535118 gazette

Claims (10)

媒体に画像を形成する画像形成装置であって、
媒体を読み取り表面情報を取得する検出手段と、
取得した前記表面情報に基づき前記画像形成装置の移動量を算出する移動量算出部と、
前記検出手段が、所定のパターンを読み取って取得した基本表面情報に基づき、前記移動量を補正する補正手段と、を有する画像形成装置。
An image forming apparatus for forming an image on a medium,
Detection means for reading the medium and acquiring surface information;
A movement amount calculation unit that calculates a movement amount of the image forming apparatus based on the acquired surface information;
An image forming apparatus comprising: a correcting unit that corrects the amount of movement based on basic surface information acquired by the detection unit reading a predetermined pattern.
前記基本表面情報に基づき、前記検出手段の高さ情報及び傾度情報の少なくとも一つを取得する取得手段をさらに備え、
前記補正手段は、取得した前記高さ情報及び傾度情報の少なくとも一つに基づき、前記移動量を補正することを特徴とする請求項1に記載の画像形成装置。
Further comprising an acquisition means for acquiring at least one of height information and inclination information of the detection means based on the basic surface information;
The image forming apparatus according to claim 1, wherein the correction unit corrects the movement amount based on at least one of the acquired height information and inclination information.
前記取得手段は、前記基本表面情報に表された前記所定のパターンの第1の方向の長さと第2の方向の長さとの比に基づいて前記検出手段の傾度情報を取得する請求項2に記載の画像形成装置。   The acquisition unit acquires the gradient information of the detection unit based on a ratio between a length in the first direction and a length in a second direction of the predetermined pattern represented in the basic surface information. The image forming apparatus described. 前記取得手段は、前記画像形成装置を表面で走査させた場合の前記基本表面情報に表された前記所定のパターンの第1の方向の移動距離と第2の方向の移動距離との比に基づいて前記検出手段の傾度情報を取得する請求項2又は3に記載の画像形成装置。   The acquisition unit is based on a ratio of a movement distance in the first direction and a movement distance in the second direction of the predetermined pattern represented in the basic surface information when the image forming apparatus is scanned on the surface. The image forming apparatus according to claim 2, wherein inclination information of the detection unit is acquired. 前記取得手段は、前記基本表面情報に表された前記所定のパターンの粒度情報又は前記検出手段によって検出された移動量に対する解像度に基づいて前記検出手段の高さ情報を取得する請求項2乃至4のいずれか1項に記載の画像形成装置。   The acquisition unit acquires the height information of the detection unit based on the granularity information of the predetermined pattern represented in the basic surface information or the resolution with respect to the movement amount detected by the detection unit. The image forming apparatus according to any one of the above. 前記取得手段は、前記検出手段によって検出された前記所定のパターンに対応する単位画像の数に基づいて前記検出手段の高さ情報を算出して取得する請求項5に記載の画像形成装置。   The image forming apparatus according to claim 5, wherein the acquisition unit calculates and acquires height information of the detection unit based on the number of unit images corresponding to the predetermined pattern detected by the detection unit. 前記取得手段は、前記所定のパターンにおける粒度の異なる複数のパターンのうち、前記検出手段によって検出されたパターンに基づいて前記検出手段の高さ情報を取得する請求項5又は6に記載の画像形成装置。   The image formation according to claim 5 or 6, wherein the acquisition unit acquires height information of the detection unit based on a pattern detected by the detection unit among a plurality of patterns having different granularities in the predetermined pattern. apparatus. 前記取得手段は、前記検出手段によって前記所定のパターンの検出を開始してから検出が完了するまでの時間に基づいて前記検出手段の高さ情報を取得する請求項2乃至7のいずれか1項に記載の画像形成装置。   The said acquisition means acquires the height information of the said detection means based on the time from the detection start of the said predetermined pattern by the said detection means until the detection is completed. The image forming apparatus described in 1. 媒体に画像を形成する画像形成装置に実行させるプログラムであって、
検出手段により媒体を読み取り表面情報を取得するステップと、
取得した前記表面情報に基づき前記画像形成装置の移動量を算出するステップと、
前記検出手段が、所定のパターンを読み取って取得した基本表面情報に基づき、前記移動量を補正するステップと、を画像形成装置に実行させるプログラム。
A program executed by an image forming apparatus that forms an image on a medium,
Reading the medium by the detection means to obtain surface information;
Calculating a movement amount of the image forming apparatus based on the acquired surface information;
A program that causes the image forming apparatus to execute the step of correcting the amount of movement based on basic surface information acquired by the detection unit reading a predetermined pattern.
媒体に画像を形成する画像形成装置を製造する方法であって、
検出手段が媒体上の所定のパターンを読み取って取得した基本表面情報に基づき、前記画像形成装置の移動量の補正に使用する補正情報を算出するステップと、
前記算出するステップで取得した前記補正情報を記憶領域に格納するステップと、を有する方法。
A method of manufacturing an image forming apparatus for forming an image on a medium,
Calculating correction information used for correcting the movement amount of the image forming apparatus based on basic surface information acquired by a detection unit reading a predetermined pattern on a medium; and
Storing the correction information acquired in the calculating step in a storage area.
JP2015212170A 2015-10-28 2015-10-28 Image forming apparatus, program, and method Active JP6582873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015212170A JP6582873B2 (en) 2015-10-28 2015-10-28 Image forming apparatus, program, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015212170A JP6582873B2 (en) 2015-10-28 2015-10-28 Image forming apparatus, program, and method

Publications (2)

Publication Number Publication Date
JP2017081012A JP2017081012A (en) 2017-05-18
JP6582873B2 true JP6582873B2 (en) 2019-10-02

Family

ID=58710302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015212170A Active JP6582873B2 (en) 2015-10-28 2015-10-28 Image forming apparatus, program, and method

Country Status (1)

Country Link
JP (1) JP6582873B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7155838B2 (en) * 2018-10-03 2022-10-19 ブラザー工業株式会社 image forming device
JP7172658B2 (en) * 2019-01-28 2022-11-16 株式会社リコー Position detection device, handheld device, position detection method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0226769A (en) * 1988-07-18 1990-01-29 Nec Home Electron Ltd Manual type printer
JPH1158844A (en) * 1997-08-08 1999-03-02 Hewlett Packard Co <Hp> Handy printer system
SE523273C2 (en) * 2001-07-13 2004-04-06 Print Dreams Europe Ab Device and method
JP4792528B2 (en) * 2007-03-02 2011-10-12 マーベル ワールド トレード リミテッド Handheld printer position correction
JP2009208291A (en) * 2008-03-03 2009-09-17 Sharp Corp Handy printer
EP2259928B1 (en) * 2008-03-18 2013-12-25 Marvell World Trade Ltd. Handheld mobile printing device capable of real-time in-line tagging of print surfaces

Also Published As

Publication number Publication date
JP2017081012A (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6409435B2 (en) Printing apparatus, printing system, and printing method
JP6384262B2 (en) Printing apparatus, method and program
JP6439582B2 (en) Handy mobile printer and its program
US9944089B2 (en) Image forming apparatus and image forming method
JP2018144338A (en) Liquid droplet discharge device, printing method, and program
USRE49057E1 (en) Position detection apparatus, droplet discharging apparatus, method for detecting position, and medium
JP2005111990A (en) Adjustment for ink arrangement
JP7120348B2 (en) image forming device
US20210070039A1 (en) Droplet discharge apparatus and droplet discharge method
JP2020040382A (en) Image forming device, control method and control program
JP6582873B2 (en) Image forming apparatus, program, and method
JP2017170634A (en) Position detector, droplet ejection device, and program
US9597896B2 (en) Handheld recording device, recording device position detection method, and recording medium
CN117268738B (en) Nozzle detection method, device, equipment and storage medium
JP6717042B2 (en) Position detection device, droplet discharge device
JP6844145B2 (en) Position detection device, droplet ejection device, program, position detection method
JP2016083820A (en) Printer, method and program
JP2017105122A (en) Liquid discharge device, liquid discharge method, program
JP2016129978A (en) Printing device, method and program
JP6776521B2 (en) Image forming equipment, programs and methods
JP7183838B2 (en) LIQUID EJECTING APPARATUS, LIQUID EJECTING METHOD, AND PROGRAM
JP2016068552A (en) Printing device and printing method
US20200247113A1 (en) Image recording apparatus, image recording method, and recording medium
US9701130B2 (en) Apparatus and method for inspecting inkjet print head
JP7127564B2 (en) POSITION INFORMATION ADJUSTMENT DEVICE, HANDY TYPE DROP EJECTING DEVICE INCLUDING THE POSITION INFORMATION ADJUSTMENT DEVICE, POSITION INFORMATION ADJUSTMENT METHOD IN A HANDY DEVICE, AND POSITION INFORMATION ADJUSTMENT PROGRAM IN A HANDY DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R151 Written notification of patent or utility model registration

Ref document number: 6582873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151