JP2018021844A - Position detector, droplet discharge device, program, and method for positional detection - Google Patents

Position detector, droplet discharge device, program, and method for positional detection Download PDF

Info

Publication number
JP2018021844A
JP2018021844A JP2016153799A JP2016153799A JP2018021844A JP 2018021844 A JP2018021844 A JP 2018021844A JP 2016153799 A JP2016153799 A JP 2016153799A JP 2016153799 A JP2016153799 A JP 2016153799A JP 2018021844 A JP2018021844 A JP 2018021844A
Authority
JP
Japan
Prior art keywords
movement amount
information
unit
distance
hmp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016153799A
Other languages
Japanese (ja)
Other versions
JP6844145B2 (en
Inventor
俊介 下岡
Shunsuke Shimooka
俊介 下岡
泰成 原田
Yasunari Harada
泰成 原田
順 渡辺
Jun Watanabe
順 渡辺
中田哲美
Tetsumi Nakada
哲美 中田
裕貴 田中
Hirotaka Tanaka
裕貴 田中
俊彰 細川
Toshiaki Hosokawa
俊彰 細川
榎並 崇史
Takashi Enami
崇史 榎並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016153799A priority Critical patent/JP6844145B2/en
Publication of JP2018021844A publication Critical patent/JP2018021844A/en
Application granted granted Critical
Publication of JP6844145B2 publication Critical patent/JP6844145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Printers Characterized By Their Purpose (AREA)
  • Ink Jet (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a position detector which can reduce errors of positions.SOLUTION: The position detector is for detecting the position in a moving surface based on an attitude and a moving amount, and includes: moving amount detection means for detecting the moving amount; attitude information acquisition means for acquiring information on the attitude of the position detector; and detection means position calculation means for calculating information on the position of the moving amount detection means, using the moving amount and the information on the attitude.SELECTED DRAWING: Figure 1

Description

本発明は、位置検出装置、液滴吐出装置、プログラム及び位置検出方法に関する。   The present invention relates to a position detection device, a droplet discharge device, a program, and a position detection method.

用紙を搬送させて用紙が画像の形成位置に到達したタイミングでインクなどを吐出して画像を形成するプリンタが知られている。これに対し、携帯が容易なスマートデバイスの普及などにより、プリンタに関してもユーザが出先などで手軽に印刷したいというニーズが高まっている。そこで、ユーザが紙面上を移動させてインクを吐出させるプリンタ(以下、HMP:ハンディモバイルプリンタという)が実用化されつつある。HMPには紙搬送システムが搭載されていないので小型化が可能である。   There is known a printer that forms an image by ejecting ink or the like at a timing when the sheet is conveyed and the sheet reaches an image forming position. On the other hand, with the spread of smart devices that are easy to carry, there is an increasing need for users to print easily when they are away from home. Therefore, printers (hereinafter referred to as HMP: Handy Mobile Printer) in which a user moves on the paper surface and ejects ink are being put into practical use. Since the HMP is not equipped with a paper transport system, it can be downsized.

HMPは紙面上における自分の位置を検出して位置に応じた画像を形成するためのインクを吐出する。この位置を検出するための機構として、従来、底面に2つのナビゲーションセンサが配置されているHMPが知られている(例えば、特許文献1参照。)。ナビゲーションセンサは光学的に紙面の微小なエッジを検出してサイクル時間ごとの移動量を検出するセンサである。   The HMP detects its own position on the paper surface and discharges ink for forming an image corresponding to the position. As a mechanism for detecting this position, an HMP in which two navigation sensors are arranged on the bottom surface is conventionally known (see, for example, Patent Document 1). The navigation sensor is a sensor that optically detects a minute edge of the paper surface and detects a movement amount for each cycle time.

しかしながら、2つのナビゲーションセンサを用いて位置を算出する方法では、ナビゲーションセンサの組み付け位置のずれによって位置に誤差が生じるという問題がある。すなわち、HMPは2つのナビゲーションセンサのそれぞれの移動量の違いから回転角度を算出しているが、理想的な組み付け位置(設計値)に対し実際の組み付け位置がずれていると、算出される回転角度も実際とは異なった値になり、HMPの位置に誤差が生じる。また、この誤差は累積され徐々に大きくなる。   However, in the method of calculating the position using two navigation sensors, there is a problem that an error occurs in the position due to a shift in the assembly position of the navigation sensor. In other words, the HMP calculates the rotation angle from the difference in the amount of movement of each of the two navigation sensors, but if the actual assembly position is deviated from the ideal assembly position (design value), the calculated rotation is calculated. The angle is also different from the actual value, and an error occurs in the position of the HMP. This error is accumulated and gradually increases.

紙面上の絶対位置を検出できればHMPの位置を補正できるが、絶対位置を検出するには精度の高い補正用のパターンが紙面に形成されており、かつ、HMPにもパターンを読み取る機能が搭載されている必要がある。   If the absolute position on the paper can be detected, the position of the HMP can be corrected. However, in order to detect the absolute position, a highly accurate correction pattern is formed on the paper, and the HMP has a function for reading the pattern. Need to be.

本発明は、上記課題に鑑み、位置の誤差を低減できる位置検出装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a position detection device that can reduce position errors.

本発明は、姿勢と移動量に基づいて移動面における位置を検出する位置検出装置であって、前記移動量を検出する移動量検出手段と、前記位置検出装置の姿勢に関する情報を取得する姿勢情報取得手段と、前記移動量と前記姿勢に関する情報を用いて前記移動量検出手段の位置に関する情報を算出する検出手段位置算出手段と、を有する。   The present invention is a position detection device that detects a position on a moving surface based on a posture and a movement amount, and a movement amount detection unit that detects the movement amount, and posture information that acquires information related to the posture of the position detection device. Acquisition means, and detection means position calculation means for calculating information relating to the position of the movement amount detection means using information relating to the movement amount and the posture.

位置の誤差を低減できる位置検出装置を提供することができる。   It is possible to provide a position detection device that can reduce position errors.

2つのナビゲーションセンサ間の距離の補正の概略を説明する図の一例である。It is an example of the figure explaining the outline of the correction | amendment of the distance between two navigation sensors. HMPによる画像形成を模式的に示す図の一例である。It is an example of the figure which shows the image formation by HMP typically. HMPのハードウェア構成図の一例である。It is an example of the hardware block diagram of HMP. 制御部の構成を説明する図の一例である。It is an example of the figure explaining the structure of a control part. 画像読取部の構成図の一例である。It is an example of the block diagram of an image reading part. ナビゲーションセンサのハードウェア構成の構成例を示す図である。It is a figure which shows the structural example of the hardware constitutions of a navigation sensor. ナビゲーションセンサによる移動量の検出方法を説明する図である。It is a figure explaining the detection method of the movement amount by a navigation sensor. IJ記録ヘッドにおけるノズル位置を説明する図の一例である。FIG. 3 is an example of a diagram illustrating nozzle positions in an IJ recording head. HMPの座標系と位置の算出方法を説明する図の一例である。It is an example of the figure explaining the coordinate system of HMP, and the calculation method of a position. 画像形成中に生じるHMPの回転角度の求め方を説明する図の一例である。FIG. 3 is an example of a diagram illustrating how to determine the rotation angle of HMP generated during image formation. ノズルの位置の算出を説明する図の一例である。It is an example of the figure explaining calculation of the position of a nozzle. HMPの機能ブロック図の一例である。It is an example of a functional block diagram of HMP. 画像データ出力器とHMPの動作手順を説明するフローチャート図の一例である。It is an example of the flowchart figure explaining the operation | movement procedure of an image data output device and HMP. 画像形成の開始前に行われる距離の補正処理の手順を説明するフローチャート図の一例である。FIG. 10 is an example of a flowchart illustrating a procedure of distance correction processing performed before the start of image formation. 画像形成の開始前に行われる距離の補正処理の手順を説明するフローチャート図の一例である。FIG. 10 is an example of a flowchart illustrating a procedure of distance correction processing performed before the start of image formation. 画像データ出力器とHMPの動作手順を説明するフローチャート図の一例である。It is an example of the flowchart figure explaining the operation | movement procedure of an image data output device and HMP. 補正システムの概略構成図の一例である。It is an example of the schematic block diagram of a correction | amendment system. 補正システムの機能ブロック図の一例である。It is an example of a functional block diagram of a correction system. 補正システムの動作手順を説明するシーケンス図の一例である。It is an example of the sequence diagram explaining the operation | movement procedure of a correction | amendment system.

以下、本発明を実施するための形態について図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<取り付け位置の補正の概略>
図1は、2つのナビゲーションセンサ間の距離Lの補正の概略を説明する図の一例である。HMP(ハンディモバイルプリンタ)20はHMP20の底面に距離Lをおいて配置された少なくとも2つのナビゲーションセンサS、Sを有している。また、本実施形態のHMP20はジャイロセンサ31を有している。このジャイロセンサ31は、2つのナビゲーションセンサS、Sが検出する移動量に基づいた回転角変化量dθnaviよりも精度よくHMP20の回転角変化量dθgyroを検出する。
<Outline of mounting position correction>
FIG. 1 is an example of a diagram illustrating an outline of correction of the distance L between two navigation sensors. The HMP (handy mobile printer) 20 has at least two navigation sensors S 0 and S 1 arranged at a distance L on the bottom surface of the HMP 20. Further, the HMP 20 of the present embodiment has a gyro sensor 31. The gyro sensor 31 detects the rotation angle change amount dθ gyro of the HMP 20 with higher accuracy than the rotation angle change amount dθ navi based on the movement amounts detected by the two navigation sensors S 0 and S 1 .

制御部25には2つのナビゲーションセンサS、Sから周期ごとの移動量ΔX´0、ΔX´1が出力される。また、制御部25にはジャイロセンサ31から周期ごとの回転角変化量dθgyroが出力される。従来から、制御部25は、移動量ΔX´0、ΔX´1と距離Lをパラメータとする式「f(ΔX´0、ΔX´1、L)」によりdθnaviを算出している。しかし、この距離LがナビゲーションセンサS、Sの取り付け誤差により正確にはLでない可能性がある。一方、ジャイロセンサ31が検出する回転角変化量dθgyroは一定以上の精度(ナビゲーションセンサ以上の精度)が保証されている。 Movement amounts ΔX ′ 0 and ΔX ′ 1 for each period are output from the two navigation sensors S 0 and S 1 to the control unit 25. Further, the control unit 25 the rotation angle change amount d [theta] Gyro per cycle from the gyro sensor 31 is outputted. Conventionally, the control unit 25 calculates dθ navi by an expression “f (ΔX ′ 0 , ΔX ′ 1 , L)” using the movement amounts ΔX ′ 0 , ΔX ′ 1 and the distance L as parameters. However, there is a possibility that the distance L is not exactly L due to an attachment error of the navigation sensors S 0 and S 1 . On the other hand, the rotation angle variation d [theta] Gyro gyro sensor 31 detects the certain level of accuracy (navigation sensors or precision) is guaranteed.

そこで、制御部25は、dθnaviを検出する上式fにdθgyroを代入し距離Lを算出する。すなわち、与えられた設計値としての距離Lではなく、移動量ΔX´0、ΔX´1とdθgyroから、ナビゲーションセンサSとSの実際の間隔を推定する。 Therefore, the control unit 25 calculates the distance L by substituting dθ gyro into the above equation f for detecting dθ navi . That is, the actual distance between the navigation sensors S 0 and S 1 is estimated from the movement amounts ΔX ′ 0 , ΔX ′ 1 and dθ gyro instead of the distance L as a given design value.

ナビゲーションセンサS、Sが取り付けられた後の距離Lは、画像形成中にはほとんど変化しないので、制御部25はこのようにして算出した距離Lを用いて、画像形成中のdθnaviを算出する。このように、より正確な距離Lを用いてdθnaviを算出するので、ナビゲーションセンサS,Sの位置の誤差が低減され精度が向上する。また、画質の低下も抑制できる。 Since the distance L after the navigation sensors S 0 and S 1 are attached hardly changes during image formation, the control unit 25 uses the distance L calculated in this way to calculate dθ navi during image formation. calculate. In this way, since dθ navi is calculated using a more accurate distance L, the position error of the navigation sensors S 0 and S 1 is reduced and the accuracy is improved. In addition, deterioration in image quality can be suppressed.

<用語について>
位置検出装置とは位置検出方法により自機の位置を検出する装置である。位置は任意の起点に対する相対的な位置でも、絶対的な位置でもよい。また、本実施形態では、HMP20のうち画像形成機能を除いた部分を位置検出装置という。また、位置検出装置は移動した距離を検出することができるため距離測定器と呼ばれていてもよい。
<Terminology>
The position detection device is a device that detects the position of the own device by a position detection method. The position may be a relative position with respect to an arbitrary starting point or an absolute position. In the present embodiment, the portion of the HMP 20 excluding the image forming function is referred to as a position detection device. Further, since the position detection device can detect the distance moved, it may be called a distance measuring device.

移動面は、HMP20が移動できる面であればよく、平面の他、曲面も含まれる。具体的には印刷媒体12が挙げられるがこれには限られない。   The moving surface only needs to be a surface on which the HMP 20 can move, and includes a curved surface as well as a flat surface. Specific examples include the print medium 12, but the present invention is not limited to this.

位置を算出するとは、何らかのデータに演算を施すことにより位置に関する情報を得ることであり、位置を検出するとは、プロセスを問わずに位置に関する情報を得ることをいう。ただし、両者は位置に関する情報が得られる点で同じであり本実施形態では位置の算出と位置の検出を厳密には区別しない。   The calculation of the position means obtaining information related to the position by performing an operation on some data, and the detection of the position means obtaining information related to the position regardless of the process. However, both are the same in that information about the position can be obtained, and in the present embodiment, position calculation and position detection are not strictly distinguished.

位置検出装置の姿勢に関する情報とは、剛体の自由度のうち回転に関する回転量や回転角変化量をいう。本実施形態では一例として移動面に垂直な軸に対する回転角変化量dθを例にして説明する。姿勢に関する情報は、位置検出装置の内側又は位置検出装置の外側のどちらから取得されてもよい。   The information related to the posture of the position detection device refers to a rotation amount and a rotation angle change amount related to rotation among degrees of freedom of the rigid body. In the present embodiment, the rotation angle change amount dθ with respect to an axis perpendicular to the moving surface will be described as an example. Information about the posture may be acquired from either the inside of the position detection device or the outside of the position detection device.

移動量検出手段の位置に関する情報は、2つの移動量検出手段の相対的な位置を特定する情報である。2つの移動量検出手段のうち一方の位置が固定であれば、他方の位置が定まる。より具体的には2つの移動量検出手段の距離である。   The information regarding the position of the movement amount detection unit is information for specifying the relative position of the two movement amount detection units. If one of the two movement amount detection means is fixed, the other position is determined. More specifically, it is the distance between the two movement amount detection means.

また、本実施形態において、画像形成、記録、印字、印写、印刷、造形等はいずれも同義語とする。   In the present embodiment, image formation, recording, printing, printing, printing, modeling, etc. are all synonymous.

<HMP20による画像形成>
図2は、HMP20による画像形成を模式的に示す図の一例である。HMP20には、例えばスマートフォンやPC(Personal Computer)等の画像データ出力器11から画像データが送信される。ユーザはHMP20を把持して、印刷媒体12(例えば定形用紙やノートなど)から浮き上がらないようにフリーハンドで走査させる。
<Image formation by HMP20>
FIG. 2 is an example of a diagram schematically showing image formation by the HMP 20. For example, image data is transmitted to the HMP 20 from an image data output device 11 such as a smartphone or a PC (Personal Computer). The user holds the HMP 20 and scans it freehand so as not to lift up from the print medium 12 (for example, a standard paper or a notebook).

HMP20は後述するようにナビゲーションセンサS、Sで位置を検出し、HMP20が目標吐出位置に移動すると、目標吐出位置で吐出すべき色のインクを吐出する。すでにインクを吐出した場所はマスクされるので(インクの吐出の対象とならないので)、ユーザは印刷媒体12上で任意の方向にHMP20を走査させることで画像を形成できる。 As will be described later, the HMP 20 detects the position with the navigation sensors S 0 and S 1 , and when the HMP 20 moves to the target discharge position, the ink of the color to be discharged is discharged at the target discharge position. Since the place where ink has already been ejected is masked (because it is not an ink ejection target), the user can form an image by scanning the HMP 20 on the print medium 12 in any direction.

印刷媒体12からHMP20が浮き上がらないことが好ましいのは、ナビゲーションセンサS、Sが印刷媒体12からの反射光を利用して移動量を検出するためである。印刷媒体12からHMP20が浮き上がると反射光を検出できなくなり移動量を検出できない。また、印刷媒体12からナビゲーションセンサS、Sがはみ出した場合も、印刷媒体12の厚みにより反射光を検出できなくなったり、検出できても位置がずれる場合がある。このため、2つのナビゲーションセンサS、Sが印刷媒体12上で走査されることが好ましい。 It is preferable that the HMP 20 does not float from the print medium 12 because the navigation sensors S 0 and S 1 detect the amount of movement using reflected light from the print medium 12. When the HMP 20 is lifted from the print medium 12, the reflected light cannot be detected and the amount of movement cannot be detected. Even when the navigation sensors S 0 and S 1 protrude from the print medium 12, the reflected light may not be detected due to the thickness of the print medium 12, or the position may be shifted even if it can be detected. For this reason, it is preferable that the two navigation sensors S 0 and S 1 are scanned on the print medium 12.

<構成例>
図3は、HMP20のハードウェア構成図の一例を示す。HMP20は、印刷媒体12に画像を形成する画像形成装置の一例である。あるいは、液滴吐出装置、プリンタ又は画像処理装置等と呼ばれてもよい。HMP20は、制御部25によって全体の動作が制御され、制御部25には通信IF27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、ジャイロセンサ31及び、2つのナビゲーションセンサS,S(符号は30)が電気的に接続されている。また、HMP20は電力により駆動されるため、電源22と電源回路21を有している。電源回路21が生成する電力は、点線22aで示す配線などにより、通信IF27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、IJ記録ヘッド24、制御部25、ジャイロセンサ31、及び、2つのナビゲーションセンサS,Sに供給されている。
<Configuration example>
FIG. 3 shows an example of a hardware configuration diagram of the HMP 20. The HMP 20 is an example of an image forming apparatus that forms an image on the print medium 12. Alternatively, it may be called a droplet discharge device, a printer, an image processing device, or the like. The entire operation of the HMP 20 is controlled by the control unit 25. The control unit 25 includes a communication IF 27, an IJ recording head drive circuit 23, an OPU 26, a ROM 28, a DRAM 29, a gyro sensor 31, and two navigation sensors S 0 and S 1 ( Reference numeral 30) is electrically connected. Further, since the HMP 20 is driven by electric power, it has a power source 22 and a power source circuit 21. The power generated by the power supply circuit 21 is communicated by the communication IF 27, the IJ recording head drive circuit 23, the OPU 26, the ROM 28, the DRAM 29, the IJ recording head 24, the control unit 25, the gyro sensor 31, and the two wirings indicated by the dotted line 22a It is supplied to the navigation sensors S 0 and S 1 .

位置検出装置は、このうちSoC50,ナビゲーションセンサI/F42及びジャイロセンサI/F45をいう。   Among these, the position detection device refers to the SoC 50, the navigation sensor I / F 42, and the gyro sensor I / F 45.

電源22は主に電池(バッテリー)が利用される。太陽電池や商用電源(交流電源)、燃料電池等が用いられてもよい。電源回路21は、電源22が供給する電力をHMP20の各部に分配する。また、電源22の電圧を各部に適した電圧に降圧や昇圧する。また、電源22が電池で充電可能である場合、電源回路21は交流電源の接続を検出して電池の充電回路に接続し、電源22の充電を可能にする。   The power source 22 is mainly a battery. A solar cell, a commercial power source (AC power source), a fuel cell, or the like may be used. The power supply circuit 21 distributes the power supplied from the power supply 22 to each part of the HMP 20. Further, the voltage of the power supply 22 is stepped down or boosted to a voltage suitable for each part. In addition, when the power source 22 can be charged by a battery, the power source circuit 21 detects the connection of the AC power source and connects it to the battery charging circuit so that the power source 22 can be charged.

通信IF27は、スマートフォンやPC(Personal Computer)等の画像データ出力器11から画像データの受信等を行う。通信IF27は例えば無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、赤外線、3G(携帯電話)、又は、LTE(Long Term Evolution)等の通信規格に対応した通信装置である。また、このような無線通信の他、有線LAN、USBケーブルなどを用いた有線通信に対応した通信装置であってもよい。   The communication IF 27 receives image data from the image data output device 11 such as a smartphone or a PC (Personal Computer). The communication IF 27 is a communication device corresponding to a communication standard such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), infrared, 3G (mobile phone), or LTE (Long Term Evolution). In addition to such wireless communication, a communication device that supports wired communication using a wired LAN, a USB cable, or the like may be used.

ROM28は、HMP20のハードウェア制御を行うファームウェアや、IJ記録ヘッド24の駆動波形データ(液滴を吐出するための電圧変化を規定するデータ)や、HMP20の初期設定データ等を格納している。   The ROM 28 stores firmware that performs hardware control of the HMP 20, drive waveform data of the IJ recording head 24 (data that defines voltage changes for ejecting droplets), initial setting data of the HMP 20, and the like.

DRAM29は通信IF27が受信した画像データを記憶したり、ROM28から展開されたファームウェアの格納のために使用される。したがって、CPU33がファームウェアを実行する際のワークメモリとして使用される。   The DRAM 29 is used for storing image data received by the communication IF 27 and storing firmware developed from the ROM 28. Therefore, it is used as a work memory when the CPU 33 executes the firmware.

ナビゲーションセンサS,Sは、所定のサイクル時間ごとにHMP20の移動量を検出するセンサである。なお、ナビゲーションセンサS,Sは2つでありそれぞれの機能は同じであるが、違いがあるとしても本実施形態の説明の上で支障がないものとする。ナビゲーションセンサS,Sは、例えば、発光ダイオード(LED)やレーザ等の光源と、印刷媒体12を撮像する撮像センサを有している。HMP20が印刷媒体12上を走査されると、印刷媒体12の微小なエッジが次々に検出され(撮像され)エッジ間の距離を解析することで移動量が得られる。本実施形態では、ナビゲーションセンサS,Sは、HMP20の底面に2つ搭載されている。なお、ナビゲーションセンサS,Sとして、さらに多軸の加速度センサを用いてもよく、HMP20は加速度センサのみでHMP20の位置を検出してもよい。 The navigation sensors S 0 and S 1 are sensors that detect the movement amount of the HMP 20 every predetermined cycle time. Note that although there are two navigation sensors S 0 and S 1 and their functions are the same, even if there are differences, there is no problem in the description of the present embodiment. The navigation sensors S 0 and S 1 include a light source such as a light emitting diode (LED) or a laser and an image sensor that images the print medium 12. When the HMP 20 is scanned on the print medium 12, minute edges of the print medium 12 are detected one after another (imaged), and the amount of movement is obtained by analyzing the distance between the edges. In the present embodiment, two navigation sensors S 0 and S 1 are mounted on the bottom surface of the HMP 20. Note that multi-axis acceleration sensors may be used as the navigation sensors S 0 and S 1 , and the HMP 20 may detect the position of the HMP 20 using only the acceleration sensor.

ジャイロセンサ31は、印刷媒体12に垂直な軸を中心にHMP20が回転した際の角速度(ヨー角の角速度)を検出するセンサである。ジャイロセンサ31は、3軸の角速度を検出できるものでもよい。これにより、HMP20の印刷媒体12からの浮きを検出しやすくなる。角速度を検出する周期(微小時間)を角速度に乗じるとこの周期の間の回転角変化量dθが得られる。   The gyro sensor 31 is a sensor that detects an angular velocity (an angular velocity of a yaw angle) when the HMP 20 rotates around an axis perpendicular to the print medium 12. The gyro sensor 31 may be capable of detecting a triaxial angular velocity. Thereby, it becomes easy to detect the floating of the HMP 20 from the print medium 12. When the angular velocity is multiplied by a cycle (minute time) for detecting the angular velocity, a rotation angle change amount dθ during this cycle is obtained.

OPU(Operation panel Unit)26は、HMP20の状態を表示するLED、ユーザがHMP20に画像形成を指示するためのスイッチ等を有している。ただし、これに限定するものではなく、液晶ディスプレイを有していてよく、さらにタッチパネルを有していてもよい。また、音声入力機能を有していてもよい。   An OPU (Operation panel Unit) 26 has an LED for displaying the state of the HMP 20, a switch for the user to instruct the HMP 20 to form an image, and the like. However, the present invention is not limited to this, and may have a liquid crystal display and may further have a touch panel. Further, it may have a voice input function.

IJ記録ヘッド駆動回路23は上記の駆動波形データを用いて、IJ記録ヘッド24を駆動するための駆動波形(電圧)を生成する。インクの液滴のサイズなどに応じた駆動波形を生成できる。   The IJ recording head driving circuit 23 generates a driving waveform (voltage) for driving the IJ recording head 24 using the above driving waveform data. A drive waveform corresponding to the ink droplet size can be generated.

IJ記録ヘッド24は、インクを吐出するためのヘッドである。図ではCMYKの4色のインクを吐出可能になっているが、単色でもよく5色以上の吐出が可能でもよい。各色ごとに一列(二列以上でもよい)に並んだ複数のインク吐出用のノズル61が配置されている。また、インクの吐出方式はピエゾ方式でもサーマル方式でもよく、静電方式などの他の方式でもよい。   The IJ recording head 24 is a head for ejecting ink. In the figure, four colors of CMYK ink can be ejected, but it may be a single color or ejecting five or more colors. A plurality of nozzles 61 for discharging ink arranged in a line (may be two or more lines) for each color are arranged. The ink ejection method may be a piezo method or a thermal method, or may be another method such as an electrostatic method.

IJ記録ヘッド24は、ノズル61から液体を吐出・噴射する機能部品である。吐出される液体は、IJ記録ヘッド24から吐出可能な粘度や表面張力を有するものであればよく、特に限定されないが、常温、常圧下において、又は加熱、冷却により粘度が30mPa・s以下となるものであることが好ましい。より具体的には、水や有機溶媒等の溶媒、染料や顔料等の着色剤、重合性化合物、樹脂、界面活性剤等の機能性付与材料、DNA、アミノ酸やたんぱく質、カルシウム等の生体適合材料、天然色素等の可食材料、などを含む溶液、懸濁液、エマルジョンなどであり、これらは例えば、インクジェット用インク、表面処理液、電子素子や発光素子の構成要素や電子回路レジストパターンの形成用液、3次元造形用材料液等の用途で用いることができる。   The IJ recording head 24 is a functional component that ejects and ejects liquid from the nozzle 61. The liquid to be ejected is not particularly limited as long as it has a viscosity and surface tension that can be ejected from the IJ recording head 24, but the viscosity becomes 30 mPa · s or less at room temperature, normal pressure, or by heating and cooling. It is preferable. More specifically, solvents such as water and organic solvents, colorants such as dyes and pigments, functional materials such as polymerizable compounds, resins, and surfactants, and biocompatible materials such as DNA, amino acids, proteins, and calcium. , Edible materials such as natural pigments, solutions, suspensions, emulsions, and the like. These include, for example, inkjet inks, surface treatment liquids, components of electronic devices and light emitting devices, and formation of electronic circuit resist patterns. It can be used in applications such as liquids for use, three-dimensional modeling material liquids, and the like.

制御部25はCPU33を有しHMP20の全体を制御する。制御部25は、ナビゲーションセンサS,Sにより検出される移動量及びとジャイロセンサ31により検出される角速度を元に、IJ記録ヘッド24の各ノズルの位置、該位置に応じて形成する画像の決定、後述する吐出ノズル可否判定等を行う。制御部25について詳細は次述する。 The control unit 25 has a CPU 33 and controls the entire HMP 20. Based on the amount of movement detected by the navigation sensors S 0 and S 1 and the angular velocity detected by the gyro sensor 31, the control unit 25 positions each nozzle of the IJ recording head 24 and an image formed according to the position. Determination of whether or not a discharge nozzle will be described later is performed. Details of the control unit 25 will be described below.

図4は、制御部25の構成を説明する図の一例である。制御部25はSoC50とASIC/FPGA40を有している。SoC50とASIC/FPGA40はバス46,47を介して通信する。ASIC/FPGA40はどちらの実装技術で設計されてもよいことを意味し、ASIC/FPGA40以外の他の実装技術で構成されてよい。また、SoC50とASIC/FPGA40を別のチップにすることなく1つのチップや基板で構成してもよい。あるいは、3つ以上のチップや基板で実装してもよい。   FIG. 4 is an example of a diagram illustrating the configuration of the control unit 25. The control unit 25 has a SoC 50 and an ASIC / FPGA 40. The SoC 50 and the ASIC / FPGA 40 communicate via buses 46 and 47. This means that the ASIC / FPGA 40 may be designed by any mounting technology, and may be configured by other mounting technology other than the ASIC / FPGA 40. Further, the SoC 50 and the ASIC / FPGA 40 may be configured as a single chip or substrate without using separate chips. Or you may mount with three or more chips | tips or a board | substrate.

SoC50は、バス47を介して接続されたCPU33、位置算出回路34、メモリCTL(コントローラ)35、及び、ROM CTL(コントローラ)36等の機能を有している。なお、SoC50が有する構成要素はこれらに限られない。   The SoC 50 has functions such as a CPU 33, a position calculation circuit 34, a memory CTL (controller) 35, and a ROM CTL (controller) 36 connected via a bus 47. In addition, the component which SoC50 has is not restricted to these.

また、ASIC/FPGA40は、バス46を介して接続された、画像読取部38、割込みコントローラ41、ナビゲーションセンサI/F42、印字/センサタイミング生成部43、ジャイロセンサI/F45、及び、IJ記録ヘッド制御部44を有している。なお、ASIC/FPGA40が有する構成要素はこれらに限られない。   The ASIC / FPGA 40 includes an image reading unit 38, an interrupt controller 41, a navigation sensor I / F 42, a print / sensor timing generation unit 43, a gyro sensor I / F 45, and an IJ recording head connected via a bus 46. A control unit 44 is provided. In addition, the component which ASIC / FPGA40 has is not restricted to these.

CPU33は、ROM28からDRAM29に展開されたファームウェア(プログラム)などを実行し、SoC50内の位置算出回路34、メモリCTL35、及び、ROM CTL36の動作を制御する。また、ASIC/FPGA40内の画像読取部38、割込みコントローラ41、ナビゲーションセンサI/F42、印字/センサタイミング生成部43、ジャイロセンサI/F45、及び、IJ記録ヘッド制御部44等の動作を制御する。   The CPU 33 executes firmware (program) or the like developed from the ROM 28 to the DRAM 29, and controls operations of the position calculation circuit 34, the memory CTL 35, and the ROM CTL 36 in the SoC 50. It also controls operations of the image reading unit 38, interrupt controller 41, navigation sensor I / F 42, print / sensor timing generation unit 43, gyro sensor I / F 45, IJ recording head control unit 44, etc. in the ASIC / FPGA 40. .

位置算出回路34は、HMP20の位置(座標情報)を算出する。具体的には、位置算出回路34は、2つのナビゲーションセンサS、Sのうち少なくとも1つの移動量を使用し、2つのナビゲーションセンサS、Sの移動量に基づく姿勢(回転角)に基づいてHMP20の位置を算出する。HMP20の位置とは、厳密にはノズル61の位置であるが、ナビゲーションセンサS,Sの位置が分かればHMP20はノズル61の位置を算出できる。また、位置算出回路34は目標吐出位置を算出する。位置算出回路34をCPU33がソフト的に実現してもよい。 The position calculation circuit 34 calculates the position (coordinate information) of the HMP 20. Specifically, the position calculating circuit 34, two using at least one moving amount of the navigation sensors S 0, S 1, two navigation sensors S 0, based on the moving amount of S 1 posture (rotation angle) Based on the above, the position of the HMP 20 is calculated. Strictly speaking, the position of the HMP 20 is the position of the nozzle 61, but if the positions of the navigation sensors S 0 and S 1 are known, the HMP 20 can calculate the position of the nozzle 61. Further, the position calculation circuit 34 calculates a target discharge position. The position calculation circuit 34 may be realized by the CPU 33 in software.

ナビゲーションセンサS,Sの位置は、後述するように例えば所定の原点(画像形成が開始される時のHMP20の初期位置)を基準に算出されている。また、位置算出回路34は、過去の位置と最も新しい位置の差に基づいて加速度や移動方向を推定し、例えば次回のインクの吐出タイミングにおける位置を予測する。こうすることで、ユーザの走査に対する遅れを抑制してインクを吐出できる。 As will be described later, the positions of the navigation sensors S 0 and S 1 are calculated based on, for example, a predetermined origin (the initial position of the HMP 20 when image formation is started). The position calculation circuit 34 estimates the acceleration and the moving direction based on the difference between the past position and the newest position, and predicts the position at the next ink ejection timing, for example. In this way, it is possible to discharge ink while suppressing a delay with respect to scanning by the user.

メモリCTL35は、DRAM29とのインタフェースであり、DRAM29に対しデータを要求し、取得したファームウェアをCPU33に送出したり、取得した画像データをASIC/FPGA40に送出する。   The memory CTL 35 is an interface with the DRAM 29, requests data from the DRAM 29, sends the acquired firmware to the CPU 33, and sends the acquired image data to the ASIC / FPGA 40.

ROM CTL36は、ROM28とのインタフェースであり、ROM28に対しデータを要求し、取得したデータをCPU33やASIC/FPGA40に送出する。   The ROM CTL 36 is an interface with the ROM 28, requests data from the ROM 28, and sends the acquired data to the CPU 33 and the ASIC / FPGA 40.

位置算出回路34が算出したナビゲーションセンサS,Sの位置をCPUが画像読取部38に入力する。画像読取部38は、ナビゲーションセンサS,Sとノズル61の相対位置に基づき各ノズルの位置を算出する。そして、ノズルの位置に応じた画像データをDRAMから読み出し、IJ記録ヘッド24が要求する並び順で画像データを並べて送信する。 The CPU inputs the positions of the navigation sensors S 0 and S 1 calculated by the position calculation circuit 34 to the image reading unit 38. The image reading unit 38 calculates the position of each nozzle based on the relative positions of the navigation sensors S 0 and S 1 and the nozzle 61. Then, image data corresponding to the position of the nozzle is read from the DRAM, and the image data is arranged and transmitted in the arrangement order requested by the IJ recording head 24.

印字/センサタイミング生成部43は、ナビゲーションセンサI/F42が情報を読み取るタイミングをナビゲーションセンサI/Fに通知し、IJ記録ヘッド制御部44に駆動タイミングを通知する。また、ジャイロセンサI/F45が情報を読み取るタイミングをジャイロセンサI/F45に通知する。なお、情報を読み取るタイミングの周期はインクの吐出タイミングの周期よりも長い。   The print / sensor timing generation unit 43 notifies the navigation sensor I / F when the navigation sensor I / F 42 reads information, and notifies the IJ recording head control unit 44 of the drive timing. In addition, the gyro sensor I / F 45 notifies the gyro sensor I / F 45 of timing for reading information. Note that the period of timing for reading information is longer than the period of ink ejection timing.

IJ記録ヘッド制御部44は、印字/センサタイミング生成部43が通知したタイミングで画像データに基づいてインクを吐出する。IJ記録ヘッド駆動回路23は上記のように制御信号に対応した駆動波形データを用いて、駆動波形(電圧)を生成する。なお、IJ記録ヘッド制御部44は吐出ノズル可否判定を行い、インクを吐出すべき目標吐出位置があればインクを吐出し、目標吐出位置がなければ吐出しないと判定する。   The IJ recording head control unit 44 ejects ink based on the image data at the timing notified by the printing / sensor timing generation unit 43. The IJ recording head drive circuit 23 generates a drive waveform (voltage) using the drive waveform data corresponding to the control signal as described above. The IJ recording head control unit 44 determines whether or not the ejection nozzle is available, and determines that ink is ejected if there is a target ejection position where ink should be ejected, and that ejection is not performed if there is no target ejection position.

ナビゲーションセンサI/F42は、ナビゲーションセンサS,Sと通信し、ナビゲーションセンサS,Sからの情報として移動量ΔX´、ΔY´(これらについては後述する)を受信し、その値をレジスタに格納する。ナビゲーションセンサS,Sからの情報は、その他、反射光の読み取りが良好かどうかなどを示すステータス通知機能(後述するセンサ信頼度情報が含まれる)も有する。 Navigation sensor I / F 42 communicates with the navigation sensors S 0, S 1, the moving amount ΔX' as information from the navigation sensors S 0, S 1, receives ΔY' the (these will be described later), the value Store in register. The information from the navigation sensors S 0 and S 1 also has a status notification function (including sensor reliability information to be described later) indicating whether or not the reflected light is read well.

ジャイロセンサI/F45は印字/センサタイミング生成部43により生成されたタイミングになるとジャイロセンサ31が検出する角速度を取得してその値をレジスタに格納する。   The gyro sensor I / F 45 acquires the angular velocity detected by the gyro sensor 31 at the timing generated by the print / sensor timing generation unit 43 and stores the value in the register.

割込みコントローラ41は、ナビゲーションセンサI/F42がナビゲーションセンサS,Sとの通信が完了したことを検知して、SoC50へそれを通知するための割込み信号を出力する。CPU33はこの割込みにより、ナビゲーションセンサI/F42がレジスタに記憶するΔX´、ΔY´を取得する。また、ジャイロセンサ31についても同様に、割込みコントローラ41は、ジャイロセンサI/F45がジャイロセンサ31との通信が完了したことを検知して、SoC50へそれを通知するための割込み信号を出力する。 The interrupt controller 41 detects that the navigation sensor I / F 42 has completed communication with the navigation sensors S 0 and S 1, and outputs an interrupt signal for notifying the SoC 50 of the completion. In response to this interruption, the CPU 33 acquires ΔX ′ and ΔY ′ stored in the register by the navigation sensor I / F 42. Similarly, for the gyro sensor 31, the interrupt controller 41 detects that the gyro sensor I / F 45 has completed communication with the gyro sensor 31 and outputs an interrupt signal for notifying the SoC 50 of the completion.

図5は、画像読取部38の構成図の一例を示す。画像読取部38は、CPU I/F381、ノズル位置生成部382、アドレス生成部383、出力I/F384、データ蓄積部385、及び、テーブル管理部386を有する。CPU I/F381はCPU33とのインタフェースとなる回路である。CPU I/F381はCPU33から幅方向の画像の解像度、縦方向の画像の解像度など各種設定を受け付ける。また、IJ記録ヘッド制御部44から吐出タイミングを取得して、吐出タイミングにおけるナビゲーションセンサS,Sの位置をCPU33から受け付ける。 FIG. 5 shows an example of a configuration diagram of the image reading unit 38. The image reading unit 38 includes a CPU I / F 381, a nozzle position generation unit 382, an address generation unit 383, an output I / F 384, a data storage unit 385, and a table management unit 386. The CPU I / F 381 is a circuit that serves as an interface with the CPU 33. The CPU I / F 381 accepts various settings such as the resolution of the image in the width direction and the resolution of the image in the vertical direction from the CPU 33. Also, the ejection timing is acquired from the IJ recording head control unit 44, and the positions of the navigation sensors S 0 and S 1 at the ejection timing are received from the CPU 33.

ノズル位置生成部382は、ナビゲーションセンサS,Sの位置から各ノズルの位置を生成する。ナビゲーションセンサS,Sの位置を1回受け取る毎に、ノズル数分の位置を生成して、アドレス生成部383に出力する。また、ノズル位置生成部382は、印刷モードや吐出ノズル数制限などに対応して、各ノズルの有効/無効フラグを出力する。 The nozzle position generation unit 382 generates the position of each nozzle from the positions of the navigation sensors S 0 and S 1 . Each time the positions of the navigation sensors S 0 and S 1 are received, positions corresponding to the number of nozzles are generated and output to the address generator 383. Further, the nozzle position generation unit 382 outputs a valid / invalid flag for each nozzle in accordance with the print mode, the number of ejection nozzles, and the like.

アドレス生成部383は、ノズル位置生成部382により得られた各ノズルの位置を元に、そのデータが格納されているメモリアドレスを生成する。データ蓄積部385はメモリCTL35から取得した画像データを蓄積する。また、DRAM29に書き込むデータを一時的に蓄積する。   The address generation unit 383 generates a memory address where the data is stored based on the position of each nozzle obtained by the nozzle position generation unit 382. The data storage unit 385 stores the image data acquired from the memory CTL 35. Further, data to be written to the DRAM 29 is temporarily accumulated.

テーブル管理部386は、アドレス生成部383により生成されたアドレスとデータ蓄積部385に蓄積されたデータとの対応付けを行う。テーブル管理部386は、アドレス生成部383により生成されたアドレスに対応付けられているデータをアドレス生成部383に出力する。   The table management unit 386 associates the address generated by the address generation unit 383 with the data stored in the data storage unit 385. The table management unit 386 outputs data associated with the address generated by the address generation unit 383 to the address generation unit 383.

出力I/F384は、テーブル管理部386から取得した画像データをIJ記録ヘッド制御部44の要求する形式に変換する。また、画像データをバッファリングし、要求に応じてIJ記録ヘッド制御部44に画像データを出力する。   The output I / F 384 converts the image data acquired from the table management unit 386 into a format requested by the IJ recording head control unit 44. Also, the image data is buffered, and the image data is output to the IJ recording head control unit 44 as required.

<ナビゲーションセンサについて>
図6は、ナビゲーションセンサのハードウェア構成の構成例を示す図である。ナビゲーションセンサS、Sは同じ構造である。ナビゲーションセンサS,Sは、ホストI/F301、イメージプロセッサ302、LEDドライバ303、2つのレンズ304、306及び、イメージアレイ305を有する。LEDドライバ303は、LEDと制御回路が一体となっておりイメージプロセッサ302からの命令によりLED光を照射する。イメージアレイ305は、印刷媒体12からのLED光の反射光をレンズ304を介して受光する。2つのレンズ304,306は、印刷媒体12の表面に対して光学的に焦点が合うように設置されている。
<About navigation sensors>
FIG. 6 is a diagram illustrating a configuration example of the hardware configuration of the navigation sensor. The navigation sensors S 0 and S 1 have the same structure. The navigation sensors S 0 and S 1 include a host I / F 301, an image processor 302, an LED driver 303, two lenses 304 and 306, and an image array 305. The LED driver 303 is an integrated LED and control circuit, and emits LED light according to a command from the image processor 302. The image array 305 receives the reflected light of the LED light from the print medium 12 through the lens 304. The two lenses 304 and 306 are installed so as to be optically focused on the surface of the print medium 12.

イメージアレイ305は、LED光の波長に感度を有するフォトダイオードなどを有し、受光したLED光からイメージデータを生成する。イメージプロセッサ302はイメージデータを取得して、イメージデータからナビゲーションセンサの移動距離(上記のΔX´、ΔY´)を算出する。イメージプロセッサ302は、算出した移動距離を、ホストI/F301を介して制御部25へ出力する。   The image array 305 includes a photodiode having sensitivity to the wavelength of the LED light, and generates image data from the received LED light. The image processor 302 obtains the image data, and calculates the movement distance (ΔX ′, ΔY ′) of the navigation sensor from the image data. The image processor 302 outputs the calculated moving distance to the control unit 25 via the host I / F 301.

光源として使用される発光ダイオード(LED)は、表面が粗い印刷媒体12、例えば紙を使用する場合に有用である。これは、表面が粗い場合、影が発生するため、その影を特徴部分として、X軸方向及びY軸方向の移動距離を正確に算出することが可能になるからである。一方、表面が滑らか、あるいは透明な印刷媒体12に対しては、光源としてレーザ光を発生させる半導体レーザ(LD)を使用することができる。半導体レーザで、印刷媒体12上に例えば縞模様等を形成することで特徴部分を作ることができ、それを基に正確に移動距離を算出することができるからである。   A light emitting diode (LED) used as a light source is useful when a printing medium 12 having a rough surface, such as paper, is used. This is because, when the surface is rough, a shadow is generated, so that the movement distance in the X-axis direction and the Y-axis direction can be accurately calculated using the shadow as a characteristic part. On the other hand, a semiconductor laser (LD) that generates laser light can be used as a light source for the printing medium 12 having a smooth surface or a transparent surface. This is because a feature portion can be created by forming a striped pattern or the like on the print medium 12 with a semiconductor laser, and the movement distance can be accurately calculated based on the feature portion.

次に、図7を用いて、ナビゲーションセンサS,Sの動作について説明する。図7はナビゲーションセンサS,Sによる移動量の検出方法を説明する図である。LEDドライバ303が照射した光は、レンズ306を介して印刷媒体12の表面に照射される。印刷媒体12の表面は、図7(a)に示すように様々な形状の微小な凹凸を有している。このため、様々な形の影が発生する。 Next, the operation of the navigation sensors S 0 and S 1 will be described with reference to FIG. FIG. 7 is a diagram for explaining a method of detecting the movement amount by the navigation sensors S 0 and S 1 . The light emitted from the LED driver 303 is applied to the surface of the print medium 12 through the lens 306. The surface of the print medium 12 has minute irregularities of various shapes as shown in FIG. For this reason, various shapes of shadows are generated.

イメージプロセッサ302は、予め決められたサンプリングタイミング毎に、レンズ304及びイメージアレイ305を介して反射光を受光し、イメージデータ310を取得する。図7(b)に示すように生成したイメージデータ310を、イメージプロセッサ302は規定の分解能単位でマトリクス化する。すなわち、イメージデータ310を複数の矩形領域に分割する。そして、イメージプロセッサ302は、前回のサンプリングタイミングで得られたイメージデータ310と、今回のサンプリングタイミングで得られたイメージデータ310とを比較してイメージデータ310が移動した矩形領域の数を検出し、それを移動距離として算出する。図7(b)で図示するΔX方向にHMP20が移動したとする。t=0とt=1のイメージデータ310を比較すると、右端にある形状が中央の形状と一致する。したがって、形状は−X方向に移動しているので、HMP20がX方向に一マス分移動したことが分かる。時刻t=1とt=2についても同様である。   The image processor 302 receives the reflected light through the lens 304 and the image array 305 at every predetermined sampling timing, and acquires the image data 310. The image processor 302 forms the image data 310 generated as shown in FIG. 7B in a matrix with a prescribed resolution unit. That is, the image data 310 is divided into a plurality of rectangular areas. Then, the image processor 302 compares the image data 310 obtained at the previous sampling timing with the image data 310 obtained at the current sampling timing to detect the number of rectangular regions to which the image data 310 has moved, It is calculated as the moving distance. Assume that the HMP 20 moves in the ΔX direction illustrated in FIG. When the image data 310 at t = 0 and t = 1 is compared, the shape at the right end matches the shape at the center. Therefore, since the shape has moved in the −X direction, it can be seen that the HMP 20 has moved by one square in the X direction. The same applies to times t = 1 and t = 2.

<IJ記録ヘッドにおけるノズル位置について>
次に、図8を用いて、IJ記録ヘッド24におけるノズル位置等について説明する。図8(a)は、HMP20の平面図の一例である。図8(b)はIJ記録ヘッド24のみを説明する図の一例である。図示されている面が印刷媒体12に対向する面である。
<Regarding the nozzle position in the IJ recording head>
Next, the nozzle position and the like in the IJ recording head 24 will be described with reference to FIG. FIG. 8A is an example of a plan view of the HMP 20. FIG. 8B is an example illustrating only the IJ recording head 24. The surface shown is the surface facing the print medium 12.

本実施形態のHMP20は、2つのナビゲーションセンサS,Sを有している。2つのナビゲーションセンサS,Sの間の長さは距離Lである。距離Lは長いほどよい。これは、距離Lが長いほど検出可能な最小の回転角変化量dθが小さくなり、HMP20の位置の誤差が少なくなるからである。 The HMP 20 of the present embodiment has two navigation sensors S 0 and S 1 . The length between the two navigation sensors S 0 and S 1 is a distance L. The longer the distance L, the better. This is because the minimum rotation angle change amount dθ that can be detected decreases as the distance L increases, and the position error of the HMP 20 decreases.

ナビゲーションセンサS,SからIJ記録ヘッド24までの距離はそれぞれ距離a、bである。距離aと、距離bは等しくてもよいし、ゼロでもよい(この場合は、ナビゲーションセンサS,SとIJ記録ヘッド24に接している)。したがって、図示するナビゲーションセンサS、Sの位置は一例である。例えば、IJ記録ヘッド24とナビゲーションセンサS、Sの距離又は距離Lが短いことでHMP20の底面のサイズを削減しやすくなる。 The distances from the navigation sensors S 0 , S 1 to the IJ recording head 24 are distances a and b, respectively. The distance a and the distance b may be equal to each other or may be zero (in this case, they are in contact with the navigation sensors S 0 and S 1 and the IJ recording head 24). Accordingly, the positions of the navigation sensors S 0 and S 1 shown in the figure are examples. For example, since the distance or distance L between the IJ recording head 24 and the navigation sensors S 0 and S 1 is short, the size of the bottom surface of the HMP 20 can be easily reduced.

図8(b)に示すように、IJ記録ヘッド24の端から最初のノズル61までの距離は距離d、隣接するノズル間の距離は距離eである。a〜eの値はROM28などに予め記憶されている。   As shown in FIG. 8B, the distance from the end of the IJ recording head 24 to the first nozzle 61 is a distance d, and the distance between adjacent nozzles is a distance e. The values a to e are stored in advance in the ROM 28 or the like.

位置算出回路34などがナビゲーションセンサSの位置を算出すれば、距離a(距離b)、距離d及び距離eを用いて、位置算出回路34はノズル61の位置を算出できる。 If the position calculation circuit 34 or the like calculates the position of the navigation sensor S 0 , the position calculation circuit 34 can calculate the position of the nozzle 61 using the distance a (distance b), the distance d, and the distance e.

<印刷媒体12におけるHMP20の位置について>
図9は、HMP20の座標系と位置の算出方法を説明する図の一例である。本実施形態では、印刷媒体12に水平な方向をX軸、垂直な方向をY軸に設定する。原点は画像形成が開始された際のナビゲーションセンサSの位置である。この座標を印刷媒体座標と称することにする。これに対し、ナビゲーションセンサSは図9の座標軸(X´軸、Y´軸)で移動量を出力する。すなわち、ノズル61の配列方向をY´軸、Y´軸に直交する方向をX´軸として移動量を出力する。
<About the position of the HMP 20 in the print medium 12>
FIG. 9 is an example of a diagram illustrating the coordinate system of the HMP 20 and a method for calculating the position. In this embodiment, the horizontal direction to the print medium 12 is set as the X axis, and the vertical direction is set as the Y axis. Origin is the position of the navigation sensors S 0 when the image forming is started. These coordinates will be referred to as print medium coordinates. In contrast, a navigation sensor S 0 is the coordinate axis (X'-axis, Y'-axis) in FIG. 9 and outputs the movement amount. That is, the movement amount is output with the arrangement direction of the nozzles 61 as the Y ′ axis and the direction orthogonal to the Y ′ axis as the X ′ axis.

図9(a)に示したように、印刷媒体12に対しHMP20が時計回りにθ回転している場合を例にして説明する。ユーザがHMP20を印刷媒体座標に対し全く傾けることなく走査させることは困難でゼロでないθが生じると考えられる。全く回転していなければ、X=X´、Y=Y´である。しかし、HMP20が印刷媒体12に対し回転角度θ、回転した場合、ナビゲーションセンサSの出力とHMP20の印刷媒体12における実際の位置が一致しなくなる。回転角度θは時計回りが正、X、X´は右方向が正、Y、Y´は上方向が正である。 As shown in FIG. 9A, the case where the HMP 20 is rotated clockwise θ with respect to the print medium 12 will be described as an example. It is difficult for the user to scan the HMP 20 without tilting the print medium coordinates at all, and it is considered that a non-zero θ is generated. If there is no rotation, X = X ′ and Y = Y ′. However, when the HMP 20 rotates with respect to the print medium 12 by the rotation angle θ, the output of the navigation sensor S 0 and the actual position of the HMP 20 on the print medium 12 do not match. The rotation angle θ is positive in the clockwise direction, X and X ′ are positive in the right direction, and Y and Y ′ are positive in the upward direction.

図9(a)はHMP20のX座標を説明する図の一例である。図9(a)では回転角度θのHMP20がX方向にのみ同じ回転角度θのまま移動した場合のナビゲーションセンサSが検出する移動量ΔX´、ΔY´とX,Yの対応を示している。なお、2つのナビゲーションセンサS、Sの相対位置は固定なので2つのナビゲーションセンサS、Sの出力(移動量)は同じである。ナビゲーションセンサSのX座標はX1+X2であり、X1+X2はΔX´、ΔY´及び回転角度θから求められる。 FIG. 9A is an example for explaining the X coordinate of the HMP 20. Figure 9 (a) the amount of movement navigation sensors S 0 when HMP20 rotation angle θ is moved while the same rotation angle θ only in the X direction is detected ΔX', ΔY' and X, which indicates the correspondence Y . Since the relative positions of the two navigation sensors S 0 and S 1 are fixed, the outputs (movement amounts) of the two navigation sensors S 0 and S 1 are the same. X coordinate of the navigation sensors S 0 is X1 + X2, X1 + X2 is DerutaX', determined from ΔY' and rotational angle theta.

図9(b)は回転角度θのHMP20がY方向にのみ同じ回転角度θのまま移動した場合のナビゲーションセンサSが検出する移動量ΔX´、ΔY´とX,Yの対応を示している。ナビゲーションセンサSのY座標はY1+Y2であり、Y1+Y2は−ΔX´、ΔY´及び回転角度θから求められる。 FIG. 9B shows the correspondence between the movement amounts ΔX ′, ΔY ′ and X, Y detected by the navigation sensor S 0 when the HMP 20 with the rotation angle θ moves in the Y direction with the same rotation angle θ. . Y coordinates of the navigation sensors S 0 is the Y1 + Y2, Y1 + Y2 is -DerutaX', determined from ΔY' and rotational angle theta.

したがって、HMP20がX方向及びY方向に回転角度θのまま移動した場合、ナビゲーションセンサSが出力するΔX´、ΔY´は印刷媒体座標のX,Yに以下のように変換できる。
X=ΔX´cosθ+ΔY´sinθ …(1)
Y=−ΔX´sinθ+ΔY´cosθ …(2)
<<回転角変化量dθの検出>>
図10を用いて、ナビゲーションセンサS,Sが出力する移動量を用いた回転角変化量dθの算出方法を説明する。図10は、画像形成中に生じるHMP20の回転角変化量(回転角の変化量)dθの求め方を説明する図の一例である。回転角変化量dθは2つのナビゲーションセンサS,Sが検出する移動量ΔX´を用いて算出される(ΔY´を用いてもよい)。印刷媒体12の上側のナビゲーションセンサSが検出する移動量ΔX´0、ナビゲーションセンサSが検出する移動量をΔX´1とする。なお、図10ではすでに得られている回転角をθとしている。
Therefore, when the HMP 20 moves in the X direction and the Y direction with the rotation angle θ, ΔX ′ and ΔY ′ output from the navigation sensor S 0 can be converted into X and Y of the print medium coordinates as follows.
X = ΔX′cos θ + ΔY′sin θ (1)
Y = −ΔX′sin θ + ΔY′cos θ (2)
<< Detection of rotation angle change amount dθ >>
A calculation method of the rotation angle change amount dθ using the movement amount output from the navigation sensors S 0 and S 1 will be described with reference to FIG. FIG. 10 is an example of a diagram illustrating how to obtain the rotation angle change amount (change amount of rotation angle) dθ of the HMP 20 that occurs during image formation. The rotation angle change amount dθ is calculated using the movement amount ΔX ′ detected by the two navigation sensors S 0 and S 1 (ΔY ′ may be used). The movement amount ΔX ′ 0 detected by the navigation sensor S 0 on the upper side of the print medium 12 and the movement amount detected by the navigation sensor S 1 are ΔX ′ 1 . In FIG. 10, the rotation angle already obtained is θ.

HMP20が平行移動しながらdθ回転した場合、移動量ΔX´0とΔX´1は一致しない。しかし、どちらの出力も2つのナビゲーションセンサS,Sを結ぶ直線に垂直な方向の移動量なので、移動量ΔX´0とΔX´1の差は「ΔX´0−ΔX´1」として求めることができる。この差はHMP20がdθ回転したことにより生じた値である。また、「ΔX´0−ΔX´1」、L、及び、dθに図10に示す関係があることから、dθは以下のように表すことができる。
dθ=arcsin{(ΔX´0−ΔX´1)/L} …(3)
位置算出回路34がこの回転角変化量dθを積算することで回転角度θを求めることができる。式(1)(2)に示すように、回転角度θを用いてHMP20は位置を検出できる。また、式(3)から分かるように、より小さいdθを検出するには距離Lを大きくすることが好ましい。また、このLとして設計値が与えられているが、製造時にナビゲーションセンサS,Sの取り付け誤差が生じ、ナビゲーションセンサSとSの実際の間隔が設計値(距離L)とならない場合がある。Lが設計値と異なると回転角変化量dθが異なってしまう。そこで、本実施形態では、ジャイロセンサ31を用いて式(3)の距離Lを補正する。
When the HMP 20 rotates dθ while moving in parallel, the movement amounts ΔX ′ 0 and ΔX ′ 1 do not match. However, since both outputs are movement amounts in the direction perpendicular to the straight line connecting the two navigation sensors S 0 and S 1 , the difference between the movement amounts ΔX ′ 0 and ΔX ′ 1 is obtained as “ΔX ′ 0 −ΔX ′ 1 ”. be able to. This difference is a value generated by the HMP 20 rotating dθ. Further, since “ΔX ′ 0 −ΔX ′ 1 ”, L, and dθ have the relationship shown in FIG. 10, dθ can be expressed as follows.
dθ = arcsin {(ΔX ′ 0 −ΔX ′ 1 ) / L} (3)
The position calculation circuit 34 can calculate the rotation angle θ by integrating the rotation angle change amount dθ. As shown in equations (1) and (2), the HMP 20 can detect the position using the rotation angle θ. As can be seen from the equation (3), it is preferable to increase the distance L in order to detect a smaller dθ. Although design values are given as the L, the mounting error of the navigation sensors S 0, S 1 is generated during production, if the actual spacing of the navigation sensors S 0 and S 1 is not a design value (distance L) There is. When L is different from the design value, the rotation angle change amount dθ is different. Therefore, in the present embodiment, the distance L in Expression (3) is corrected using the gyro sensor 31.

<ノズルの位置>
図11(a)はノズルの位置の算出を説明する図の一例である。ナビゲーションセンサの位置が1つでも分かり回転角度θが分かると、ノズル位置生成部382は各ノズル61の位置を算出できる。図11(a)のノズル61−1を例にして説明する。ナビゲーションセンサSとIJ記録ヘッド24の間隔がa、IJ記録ヘッド24の端からノズル61−1までの距離がdである。また、印刷媒体12に垂直な軸に対する回転角度がθである。これらから、ノズル61−1の座標(X,Y)を求めることができる。
<Nozzle position>
FIG. 11A is an example for explaining the calculation of the nozzle position. If the position of one navigation sensor is known and the rotation angle θ is known, the nozzle position generator 382 can calculate the position of each nozzle 61. A description will be given by taking the nozzle 61-1 in FIG. Distance navigation sensors S 0 and IJ recording head 24 a, the distance from the end of the IJ recording head 24 to the nozzle 61-1 is d. The rotation angle with respect to the axis perpendicular to the print medium 12 is θ. From these, the coordinates (X, Y) of the nozzle 61-1 can be obtained.

X=X0-(a+d)×sinθ
Y=Y0-(a+d)×cosθ
また、図11(b)は2つのナビゲーションセンサS,Sを結ぶ直線上にないノズル61の位置を説明する図である。IJ記録ヘッド24がカラー印刷のために多色のノズル61を有する場合、ノズル列Y,Cは2つのナビゲーションセンサS,Sを結ぶ直線上にない場合がある。
X = X0- (a + d) × sinθ
Y = Y0- (a + d) × cosθ
FIG. 11B is a diagram illustrating the position of the nozzle 61 that is not on the straight line connecting the two navigation sensors S 0 and S 1 . When the IJ recording head 24 has multi-color nozzles 61 for color printing, the nozzle rows Y and C may not be on the straight line connecting the two navigation sensors S 0 and S 1 .

ノズル列Yとノズル列Cの距離をfとすると、図11(b)のノズル列Cのノズル61−1cの座標は以下のように求めることができる。   If the distance between the nozzle row Y and the nozzle row C is f, the coordinates of the nozzle 61-1c of the nozzle row C in FIG. 11B can be obtained as follows.

X=X0-(a+d)×sinθ+ f×cosθ
Y=Y0-(a+d)×cosθ- f×sinθ
<HMP20の機能について>
図12は、HMP20の機能ブロック図の一例を示す。HMP20は補正処理部51、センサ値取得部52、及び距離算出部53、を有する。これらは、図4に示したCPU33がROM28に記憶されたファームウェア(プログラム)をDRAM29に展開して実行することで得られる機能又は手段である。
X = X0- (a + d) × sinθ + f × cosθ
Y = Y0- (a + d) × cosθ-f × sinθ
<About functions of HMP20>
FIG. 12 shows an example of a functional block diagram of the HMP 20. The HMP 20 includes a correction processing unit 51, a sensor value acquisition unit 52, and a distance calculation unit 53. These are functions or means obtained by the CPU 33 shown in FIG. 4 developing firmware (program) stored in the ROM 28 in the DRAM 29 and executing it.

補正処理部51は、ナビゲーションセンサS,Sの間の距離Lを補正する処理に関する制御を行う。すなわち、距離Lの補正を行うタイミングを検出したり、距離Lの補正を行うか否かを判定したりする。また、補正処理部51は、位置算出回路34が距離Lを読み取るレジスタ又は不揮発性メモリなどに距離Lnew55を設定する。これにより、位置算出回路34は距離Lnew55を式(3)に代入して回転角変化量dθnaviを算出できる。 The correction processing unit 51 performs control related to processing for correcting the distance L between the navigation sensors S 0 and S 1 . That is, the timing for correcting the distance L is detected, and it is determined whether or not the distance L is corrected. In addition, the correction processing unit 51 sets the distance Lnew55 in a register or a nonvolatile memory in which the position calculation circuit 34 reads the distance L. Thereby, the position calculation circuit 34 can calculate the rotation angle change amount dθ navi by substituting the distance Lnew55 into the equation (3).

センサ値取得部52は、補正に使用するジャイロセンサ31が検出する角速度とナビゲーションセンサS,Sが検出する移動量ΔX´0、ΔX´1を取得する。角速度と移動量をセンサ値と称する場合がある。 The sensor value acquisition unit 52 acquires the angular velocity detected by the gyro sensor 31 used for correction and the movement amounts ΔX ′ 0 and ΔX ′ 1 detected by the navigation sensors S 0 and S 1 . The angular velocity and the movement amount may be referred to as a sensor value.

距離算出部53は式(3)の左辺にジャイロセンサ31が検出する角速度から算出した回転角変化量dθgyroを代入し、右辺にナビゲーションセンサS,Sが検出する移動量ΔX´0、ΔX´1を代入して距離Lを算出する。算出された距離Lを設計値の距離Lと区別するため、距離Lnew55と称する。 Distance calculating unit 53 is moving amount DerutaX' 0 of the gyro sensor 31 is substituted into the rotation angle variation d [theta] Gyro calculated from the angular velocity detecting the left, navigation sensors S 0, S 1 is detected on the right-hand side of Equation (3), The distance L is calculated by substituting ΔX ′ 1 . In order to distinguish the calculated distance L from the design value distance L, it is referred to as a distance Lnew55.

<動作手順>
図13は、画像データ出力器11とHMP20の動作手順を説明するフローチャート図の一例である。まず、ユーザは画像データ出力器11の電源ボタンを押下する(U101)。画像データ出力器11はそれを受け付け、電池等から電源が供給されて起動する。
<Operation procedure>
FIG. 13 is an example of a flowchart for explaining the operation procedure of the image data output unit 11 and the HMP 20. First, the user presses the power button of the image data output device 11 (U101). The image data output unit 11 accepts it, and is activated when power is supplied from a battery or the like.

ユーザは、印字前にナビゲーションセンサS,Sの間の距離Lの補正を行うか行わないかを選択する(U102)。すなわち、OPU26に補正の有無を設定する。 The user selects whether or not to correct the distance L between the navigation sensors S 0 and S 1 before printing (U102). That is, whether or not correction is performed is set in the OPU 26.

補正を行うと選択した場合、ユーザは補正のためにHMP20を印刷媒体12上で走査させる(U103)。まだ、印刷開始されていないため、ナビゲーションセンサS,S(ノズル61)の初期位置は決定されていないため、HMP20が走査されてもノズル61の位置情報には影響はない。 When the user selects to perform correction, the user scans the HMP 20 on the print medium 12 for correction (U103). Since the printing has not started yet, the initial positions of the navigation sensors S 0 and S 1 (nozzles 61) have not been determined. Therefore, even if the HMP 20 is scanned, the position information of the nozzles 61 is not affected.

距離Lの補正が終わると、ユーザは画像データ出力器11で出力したい画像を選択する(U104)。画像データ出力器11は画像の選択を受け付ける。ワープロアプリケーションのようなソフトウェアの文書データが画像として選択されてもよいし、JPEGなどの画像データが選択されてもよい。必要であればプリンタドライバが画像データ以外のデータを画像に変更してよい。   When the correction of the distance L is completed, the user selects an image to be output by the image data output unit 11 (U104). The image data output unit 11 accepts image selection. Document data of software such as a word processor application may be selected as an image, or image data such as JPEG may be selected. If necessary, the printer driver may change data other than image data into an image.

ユーザは選択した画像をHMP20で印刷する操作を行う(U105)。HMP20は印刷ジョブの実行の要求を受け付ける。印刷ジョブの要求により画像データがHMP20へ送信される。   The user performs an operation of printing the selected image with the HMP 20 (U105). The HMP 20 accepts a print job execution request. Image data is transmitted to the HMP 20 in response to a print job request.

ユーザは、HMP20を持ち、印刷媒体12(例えばノート)の上で初期位置を決定する(U106)。   The user holds the HMP 20 and determines an initial position on the print medium 12 (for example, a notebook) (U106).

そして、ユーザはHMP20の印刷開始ボタンを押下する(U107)。HMP20は印刷開始ボタンの押下を受け付ける。   Then, the user presses the print start button of the HMP 20 (U107). The HMP 20 accepts pressing of the print start button.

ユーザはHMP20を印刷媒体12の上で滑らせるように自由に走査する(U108)。   The user freely scans the HMP 20 to slide on the print medium 12 (U108).

続いて、HMP20の動作を説明する。以下の動作はCPU33がファームウェアを実行することで行われる。   Subsequently, the operation of the HMP 20 will be described. The following operation is performed by the CPU 33 executing the firmware.

HMP20も電源のONにより起動する。HMP20のCPU33は、HMP20に内蔵されている図3,4のハードウェア要素を初期化する(S101)。例えば、ナビゲーションセンサI/F42のレジスタを初期化したり、印字/センサタイミング生成部43にタイミング値を設定したりする。また、HMP20と画像データ出力器11との間の通信を確立する。   The HMP 20 is also activated when the power is turned on. The CPU 33 of the HMP 20 initializes the hardware elements shown in FIGS. 3 and 4 built in the HMP 20 (S101). For example, a register of the navigation sensor I / F 42 is initialized, or a timing value is set in the print / sensor timing generation unit 43. Communication between the HMP 20 and the image data output unit 11 is established.

HMP20のCPU33は初期化が完了したかどうかを判定し、完了していない場合はこの判定を繰り返す(S102)。   The CPU 33 of the HMP 20 determines whether or not the initialization is completed, and if not completed, repeats this determination (S102).

初期化が完了すると(S102のYes)、HMP20のCPU33は、OPU26の例えばLED点灯によりユーザに印刷可能な状態であることを報知する(S103)。これにより、ユーザは印刷可能な状態であることを把握し、上記のように印刷ジョブの実行を要求する。   When the initialization is completed (Yes in S102), the CPU 33 of the HMP 20 notifies the user that printing is possible by, for example, LED lighting of the OPU 26 (S103). As a result, the user grasps the printable state and requests execution of the print job as described above.

次に、OPU26は距離Lを補正するか否かをユーザに選択させ選択結果を受け付けるためのユーザインタフェースを表示する。これに対し、ユーザはステップU102のように補正するかどうかを設定する。補正処理部51はユーザの選択が補正するか否かのどちらであるかを判定する(S104)。   Next, the OPU 26 causes the user to select whether or not to correct the distance L and displays a user interface for accepting the selection result. On the other hand, the user sets whether or not to correct as in step U102. The correction processing unit 51 determines whether the user's selection is to be corrected (S104).

ユーザが補正すると判定した場合(S04のYes)、上記の補正処理部51が補正処理を実行する(S105)。ステップS105の補正処理については図14にて説明する。 If the user determines that the corrected (Yes in S 1 04), the above-described correction processing unit 51 executes a correction process (S105). The correction process in step S105 will be described with reference to FIG.

補正処理が終了した後の処理を説明する。
印刷ジョブの実行の要求により、HMP20の通信IF27は画像データ出力器11から画像データの入力を受け付け、画像が入力された旨をOPU26のLEDを点滅させる等によりユーザに対し報知する(S106)。
A process after the correction process is completed will be described.
In response to a print job execution request, the communication IF 27 of the HMP 20 accepts input of image data from the image data output unit 11, and notifies the user that the image has been input by blinking the LED of the OPU 26 (S106).

ユーザが印刷媒体12上でHMP20の初期位置を決め印刷開始ボタンを押下すると、HMP20のOPU26はこの操作を受け付け、CPU33がナビゲーションセンサI/F42に位置を読み取らせる(S107)。これにより、ナビゲーションセンサI/F42はナビゲーションセンサS、Sと通信し、ナビゲーションセンサS、Sが検出した移動量を取得しレジスタなどに格納しておく(S1001)。CPU33はナビゲーションセンサI/F42から移動量を読み出す。 When the user determines the initial position of the HMP 20 on the print medium 12 and presses the print start button, the OPU 26 of the HMP 20 accepts this operation, and the CPU 33 causes the navigation sensor I / F 42 to read the position (S107). Thus, the navigation sensor I / F 42 is storing communicating with navigation sensors S 0, S 1, etc. navigation sensors S 0, obtains the movement amount S 1 is detected register (S1001). The CPU 33 reads the movement amount from the navigation sensor I / F 42.

ユーザが印刷開始ボタンを押下した直後に取得された移動量はゼロであるがゼロでないとしても、CPU33は例えば座標(0,0)の初期位置としてDRAM29やCPU33のレジスタなどに格納する(S108)。   Even if the movement amount acquired immediately after the user presses the print start button is zero but not zero, the CPU 33 stores the initial position of the coordinates (0, 0) in the DRAM 29 or the register of the CPU 33, for example (S108). .

また、初期位置を取得すると印字/センサタイミング生成部43がタイミングの生成を開始する(S109)。印字/センサタイミング生成部43は、初期化で設定されたナビゲーションセンサS、Sの移動量の取得タイミングに達するとナビゲーションセンサI/F42にタイミングを指示する。画像形成時にはジャイロセンサ31の角速度は不要であるがジャイロセンサ31の角速度を取得してもよい。 When the initial position is acquired, the print / sensor timing generation unit 43 starts generating the timing (S109). The print / sensor timing generation unit 43 instructs the navigation sensor I / F 42 to determine the timing when the movement amount acquisition timing of the navigation sensors S 0 and S 1 set in the initialization is reached. At the time of image formation, the angular velocity of the gyro sensor 31 is not necessary, but the angular velocity of the gyro sensor 31 may be acquired.

HMP20のCPU33は、移動量を取得するタイミングであるか否かを判定する(S110)。この判定は、割込みコントローラ41からの通知により行うが、印字/センサタイミング生成部43と同じタイミングをCPU33がカウントすることで判定してもよい。   The CPU 33 of the HMP 20 determines whether it is time to acquire the movement amount (S110). This determination is made by a notification from the interrupt controller 41, but may be determined by the CPU 33 counting the same timing as that of the print / sensor timing generation unit 43.

移動量を取得するタイミングになると、HMP20のCPU33はナビゲーションセンサI/F42から2つのナビゲーションセンサS、Sの移動量をそれぞれ取得する(S111)。 When it is time to acquire the movement amount, the CPU 33 of the HMP 20 acquires the movement amounts of the two navigation sensors S 0 and S 1 from the navigation sensor I / F 42 (S111).

次に、位置算出回路34は、前回のサンプリング周期で算出した位置(X,Y)と、今回のサンプリング周期で取得した移動量(ΔX´、ΔY´)から、現在の位置を算出し記憶部59に記憶させる(S112)。   Next, the position calculation circuit 34 calculates the current position from the position (X, Y) calculated in the previous sampling period and the movement amount (ΔX ′, ΔY ′) acquired in the current sampling period, and stores the current position. 59 (S112).

次に、位置算出回路34は、ステップS110で決定されたナビゲーションセンサの現在の位置を用いて各ノズル61の現在の位置を算出する(S113)。   Next, the position calculation circuit 34 calculates the current position of each nozzle 61 using the current position of the navigation sensor determined in step S110 (S113).

次に、CPU33は画像読取部38に画像を読み取らせる。画像読取部38は算出した各ノズル61の位置を基に、各ノズル61の周辺画像の画像データをDRAM29から読み取る(S114)。   Next, the CPU 33 causes the image reading unit 38 to read an image. Based on the calculated position of each nozzle 61, the image reading unit 38 reads the image data of the peripheral image of each nozzle 61 from the DRAM 29 (S114).

次に、IJ記録ヘッド制御部44は周辺画像を構成する各画像要素の位置座標と、各ノズル61の位置座標とを比較する(S115)。位置算出回路34は、ノズル61の過去の位置と現在の位置を用いてノズル61の加速度を算出している。これにより、位置算出回路34は、ナビゲーションセンサI/F42が移動量を取得する周期よりも短いIJ記録ヘッド24のインク吐出周期ごとにノズル61の位置を算出している。IJ記録ヘッド制御部44は、位置算出回路34が算出するノズル61の位置から所定範囲内に画像要素の位置座標が含まれるか否かを判定する(S116:吐出ノズル可否判定)。   Next, the IJ recording head control unit 44 compares the position coordinates of each image element constituting the peripheral image with the position coordinates of each nozzle 61 (S115). The position calculation circuit 34 calculates the acceleration of the nozzle 61 using the past position and the current position of the nozzle 61. Accordingly, the position calculation circuit 34 calculates the position of the nozzle 61 for each ink discharge period of the IJ recording head 24 that is shorter than the period in which the navigation sensor I / F 42 acquires the movement amount. The IJ recording head control unit 44 determines whether or not the position coordinates of the image element are included within a predetermined range from the position of the nozzle 61 calculated by the position calculation circuit 34 (S116: determination of ejection nozzle availability).

吐出条件を満たさない場合(S116のNo)、処理はステップS110に戻る。吐出条件を満たす場合、IJ記録ヘッド制御部44はノズル61ごとに画像要素のデータをIJ記録ヘッド駆動回路23に出力する(S117)。これにより、印刷媒体12にはインクが吐出される。   If the discharge condition is not satisfied (No in S116), the process returns to step S110. When the ejection condition is satisfied, the IJ recording head control unit 44 outputs image element data for each nozzle 61 to the IJ recording head drive circuit 23 (S117). As a result, ink is ejected onto the print medium 12.

次に、CPU33は全画像データを出力したかを判定する(S118)。出力していない場合、ステップS110からS118までの処理を繰り返す。   Next, the CPU 33 determines whether all image data has been output (S118). When not outputting, the process from step S110 to S118 is repeated.

全画像データを出力した場合、CPU33は、例えばOPU26のLEDを点灯させユーザに印刷が終了したことを報知する(S119)。   When all the image data has been output, the CPU 33 turns on the LED of the OPU 26, for example, and notifies the user that printing has ended (S119).

なお、全画像データを出力しなくても、ユーザが十分と判定した場合には、ユーザは印刷完了ボタンを押下し、OPU26がそれを受け付けて、印刷を終了してよい。印刷終了後、ユーザが電源をOFFにすることもできるし、印刷が終了した時点で、自動で電源がOFFにされるようになっていてもよい。   If the user determines that the image data is not required to be output even if it is not output, the user may press the print completion button, and the OPU 26 may accept it and end printing. The user can turn off the power after the printing is completed, or the power may be automatically turned off when the printing is finished.

<<距離Lの補正処理>>
図14は、画像形成の開始前に行われる距離Lの補正処理の手順を説明するフローチャート図の一例である。
<< Distance L Correction Process >>
FIG. 14 is an example of a flowchart for explaining the procedure of the correction process of the distance L performed before the start of image formation.

HMP20の補正処理部51は、補正開始のタイミングが否かを判定する(S10)。上記のように、OPU26へのユーザの入力(スイッチ操作、タッチパネル操作)だけでなく、電源投入後に必ず補正処理を行ってもよいし、ナビゲーションセンサS,Sからの移動量又はジャイロセンサ31から角速度が入力された場合に該タイミングであると判定してもよい。 The correction processing unit 51 of the HMP 20 determines whether or not the correction start timing is present (S10). As described above, not only the user input (switch operation, touch panel operation) to the OPU 26 but also the correction process may be performed after the power is turned on, the movement amount from the navigation sensors S 0 and S 1 , or the gyro sensor 31. When the angular velocity is input from the above, it may be determined that the timing is reached.

ステップS10の判定がYesの場合、HMP20の補正処理部51はHMP20の回転を検出するまで待機する(S20)。補正処理部51はナビゲーションセンサS,Sの移動量から検出した回転角変化量dθnavi、又は、ジャイロセンサ31の角速度から検出した回転角変化量dθgyroが閾値以上であるか否かを判定する。ある程度、HMP20が大きく回転しないと、補正後の距離Lnew55が誤差を含むおそれがあるためである。 When the determination in step S10 is Yes, the correction processing unit 51 of the HMP 20 waits until it detects the rotation of the HMP 20 (S20). The correction processing unit 51 determines whether or not the rotation angle change amount dθ navi detected from the movement amounts of the navigation sensors S 0 and S 1 or the rotation angle change amount dθ gyro detected from the angular velocity of the gyro sensor 31 is greater than or equal to a threshold value. judge. This is because the corrected distance Lnew55 may include an error unless the HMP 20 rotates significantly.

ステップS20の判定がYesの場合、センサ値取得部52が距離Lの補正に必要なセンサ値を取得する(S30)。例えば、HMP20の移動が停止した時の移動後のセンサ値(ナビゲーションセンサS,Sの移動量、及び、ジャイロセンサ31の角速度)を取得する。回転を伴う移動が停止した時に得られたセンサ値を用いてもよい。また、一定期間後に得られたセンサ値を用いてもよい。このように、センサ値の取得のタイミングが決まっているため、センサ値取得部52はセンサ値を取得できるまで待機する。 When determination of step S20 is Yes, the sensor value acquisition part 52 acquires a sensor value required for correction | amendment of the distance L (S30). For example, the sensor values after the movement when the movement of the HMP 20 is stopped (the movement amount of the navigation sensors S 0 and S 1 and the angular velocity of the gyro sensor 31) are acquired. You may use the sensor value obtained when the movement with rotation stops. Moreover, you may use the sensor value obtained after the fixed period. As described above, since the sensor value acquisition timing is determined, the sensor value acquisition unit 52 waits until the sensor value can be acquired.

センサ値を取得できると、距離算出部53はナビゲーションセンサS,Sの間の距離Lnewを算出する(S40)。まず、ジャイロセンサ31から得られた角速度を積分して回転角変化量dθgyroを算出し、式(3)の左辺にdθgyroを代入し、式(3)の右辺にナビゲーションセンサS又はSの移動量ΔX´0、ΔX´1を代入し、ナビゲーションセンサS,Sの間の距離Lの補正値である距離Lnew55を算出する。 If the sensor value can be acquired, the distance calculation unit 53 calculates the distance Lnew between the navigation sensors S 0 and S 1 (S40). First, the angular velocity obtained from the gyro sensor 31 is integrated to calculate the rotation angle change amount dθ gyro , dθ gyro is substituted into the left side of the equation (3), and the navigation sensor S 0 or S is inserted into the right side of the equation (3). A distance Lnew55, which is a correction value for the distance L between the navigation sensors S 0 and S 1 , is calculated by substituting the movement amounts ΔX ′ 0 and ΔX ′ 1 of 1 .

次に、補正処理部51は、位置算出回路34が使用する距離Lを、距離Lnew55に更新する(S50)。   Next, the correction processing unit 51 updates the distance L used by the position calculation circuit 34 to the distance Lnew55 (S50).

なお、補正処理部51は、ナビゲーションセンサS、Sの移動量ΔX´0、ΔX´1を式(3)に適用して回転角変化量dθnaviを算出して、dθgyroとdθnaviを比較し、ジャイロセンサ31の誤差レベルの相違しかなかった場合(閾値以下の相違しかない場合)、距離Lを更新しなくてもよい。これにより、距離Lを更新した方がよい場合にだけ距離Lを更新できる。 The correction processing unit 51 calculates the rotation angle change amount dθ navi by applying the movement amounts ΔX ′ 0 and ΔX ′ 1 of the navigation sensors S 0 and S 1 to Equation (3), and dθ gyro and dθ navi. If there is only a difference in the error level of the gyro sensor 31 (if there is only a difference below the threshold), the distance L need not be updated. Thereby, the distance L can be updated only when it is better to update the distance L.

このように、本実施例のHMP20はナビゲーションセンサS、Sよりも精度のよいジャイロセンサ31を用いることで、ナビゲーションセンサS,Sの取り付けにより生じる距離Lの誤差を補正できる。したがって、HMP20の位置の精度を向上でき、画質を向上できる。 Thus, HMP20 of this embodiment by using a navigation sensor S 0, the gyro sensor 31 good precision than S 1, can correct an error of the distance L caused by mounting of navigation sensors S 0, S 1. Therefore, the accuracy of the position of the HMP 20 can be improved and the image quality can be improved.

本実施例では、ジャイロセンサ31によって複数回、得られた角速度から複数のナビゲーションセンサ間の距離Lnew55を求め、距離Lnew55の精度が向上されたHMP20について説明する。なお、ハードウェア構成図や機能ブロック図は実施例1と同様でよい。   In the present embodiment, the distance Lnew55 between the plurality of navigation sensors is obtained from the angular velocity obtained a plurality of times by the gyro sensor 31, and the HMP 20 in which the accuracy of the distance Lnew55 is improved will be described. The hardware configuration diagram and functional block diagram may be the same as those in the first embodiment.

図15は、本実施例において画像形成の開始前に行われる距離Lの補正処理の手順を説明するフローチャート図の一例である。なお、図15では主に図14との相違を説明する。   FIG. 15 is an example of a flowchart for explaining the procedure of the distance L correction process performed before the start of image formation in this embodiment. Note that FIG. 15 mainly describes differences from FIG.

補正処理が始まるとステップS5において、補正処理部51は補正のためのセンサ値を取得する回数を決定する(S5)。例えば、ユーザがOPU26から設定する。あるいは、この回数として予め一定値が設定されていてもよいし、距離Lnew55がある範囲に収束するまで繰り返してもよい。   When the correction process starts, in step S5, the correction processing unit 51 determines the number of times to acquire a sensor value for correction (S5). For example, the user sets from the OPU 26. Alternatively, a fixed value may be set in advance as the number of times, or the distance Lnew 55 may be repeated until it converges to a certain range.

次のステップS10〜S40、S50の処理は図14と同様である。   The next steps S10 to S40 and S50 are the same as those in FIG.

距離Lnew55を算出すると、補正処理部51は、ステップS5で決定した回数だけ距離Lnew55を算出したか否かを判定する(S42)。   After calculating the distance Lnew55, the correction processing unit 51 determines whether or not the distance Lnew55 has been calculated by the number of times determined in step S5 (S42).

ステップS42の判定がYesの場合、補正処理部51は、得られた複数個の距離Lnew55から更新に使用する距離Lnew55を決定する(S44)。補正処理部51は、複数個の距離Lnew55に統計処理を施して更新に使用する距離Lnew55を決定する。複数個の距離Lnew55の平均値を算出してもよいし、中央値や最頻値でもよい。   When the determination in step S42 is Yes, the correction processing unit 51 determines a distance Lnew55 to be used for updating from the obtained plurality of distances Lnew55 (S44). The correction processing unit 51 performs statistical processing on the plurality of distances Lnew55 to determine the distance Lnew55 used for updating. An average value of a plurality of distances Lnew55 may be calculated, or a median value or a mode value may be used.

また、以前の補正処理で算出した距離Lnew55を新しい距離Lnew55の決定に使用してもよい。補正処理部は51は最後に算出した距離Lnew55を好ましくは不揮発性のメモリ(例えばROM28)に記憶しておく。例えば、以前の距離Lnew55から最も変化が少なくなる距離Lnew55に決定する。また、距離Lnew55との差が閾値以上の場合は距離Lnew55の更新を中止してもよい。距離Lは大きく変化しないので、以前の補正処理で算出した距離Lnew55と比較することで、算出された距離Lnew55が妥当かどうかを判定できる。   Further, the distance Lnew55 calculated in the previous correction process may be used to determine the new distance Lnew55. The correction processing unit 51 stores the distance Lnew 55 calculated last, preferably in a nonvolatile memory (for example, ROM 28). For example, the distance Lnew 55 is determined to have the least change from the previous distance Lnew55. Further, when the difference from the distance Lnew55 is equal to or greater than the threshold value, the update of the distance Lnew55 may be stopped. Since the distance L does not change significantly, it can be determined whether or not the calculated distance Lnew55 is valid by comparing with the distance Lnew55 calculated in the previous correction process.

したがって、本実施例によれば、複数回、距離Lnew55が算出されるので、距離Lnew55の精度を向上できる。   Therefore, according to this embodiment, since the distance Lnew55 is calculated a plurality of times, the accuracy of the distance Lnew55 can be improved.

本実施例では、画像形成の開始前でなく、画像形成の開始を補正処理のトリガとし、画像形成中に補正処理を実行するHMP20について説明する。   In the present embodiment, the HMP 20 that executes correction processing during image formation using the start of image formation as a trigger for correction processing instead of before the start of image formation will be described.

このような構成によれば、画像形成と補正処理を並行に実行できるので、補正処理に要する時間を画像形成に要する時間に隠蔽することができる。なお、ハードウェア構成図や機能ブロック図は実施例1と同様でよい。   According to such a configuration, since image formation and correction processing can be executed in parallel, the time required for correction processing can be concealed in the time required for image formation. The hardware configuration diagram and functional block diagram may be the same as those in the first embodiment.

図16は、画像データ出力器11とHMP20の動作手順を説明するフローチャート図の一例である。図16では主に図13との相違を説明する。   FIG. 16 is an example of a flowchart for explaining the operation procedure of the image data output unit 11 and the HMP 20. FIG. 16 mainly describes differences from FIG.

まず、図13のステップU103の補正処理のための走査が不要になる。また、補正処理はステップS105ではなく、ステップS111に続いて実行される。   First, scanning for the correction process in step U103 in FIG. 13 is not necessary. In addition, the correction process is executed not after step S105 but following step S111.

ステップS111−2で補正処理を行うか否かが判定される。この処理は図13のステップS104と同様である。   In step S111-2, it is determined whether or not correction processing is performed. This process is the same as step S104 in FIG.

ステップS111−3では、センサ値取得部52が補正処理用にジャイロセンサ31の角速度を取得する(S111−3)。   In step S111-3, the sensor value acquisition unit 52 acquires the angular velocity of the gyro sensor 31 for correction processing (S111-3).

次に、距離算出部53は、ナビゲーションセンサS,Sの移動量と、ジャイロセンサ31の角速度から、距離Lnew55を算出する(S111−4)。また、補正処理部51は、この距離Lnew55で位置算出回路34が参照する距離Lを更新する。このように、画像形成のためにユーザがHMP20を走査させて生じるナビゲーションセンサS,Sの移動量により距離Lnew55が算出される。 Then, the distance calculation unit 53, a moving amount of the navigation sensors S 0, S 1, from the angular velocity of the gyro sensor 31, and calculates the distance Lnew55 (S111-4). Further, the correction processing unit 51 updates the distance L referred to by the position calculation circuit 34 with the distance Lnew55. Thus, the distance Lnew55 is calculated by the moving amount of the navigation sensors S 0, S 1 the user generated by scanning the HMP20 for imaging.

したがって、位置算出回路34は、補正されたナビゲーションセンサS、Sの距離Lnew55でナビゲーションセンサS,Sの位置を算出できる(S112)。以降の処理は図13と同様でよい。 Therefore, the position calculation circuit 34 can calculate the positions of the navigation sensors S 0 and S 1 with the corrected distance Lnew55 between the navigation sensors S 0 and S 1 (S112). The subsequent processing may be the same as in FIG.

なお、図16では、ナビゲーションセンサS、Sの移動量を取得するタイミングになると補正処理が実行されているが、補正処理の実行は画像形成開始後に1回のみ行えばよい。 In FIG. 16, the correction process is executed when it is time to acquire the movement amounts of the navigation sensors S 0 and S 1 , but the correction process may be executed only once after the start of image formation.

このように、画像形成中に補正処理を実行するので、補正処理に要する時間をユーザに意識させにくくすることができる。   In this way, since the correction process is executed during image formation, it is possible to make it difficult for the user to be aware of the time required for the correction process.

一方、画像形成開始時にナビゲーションセンサS,Sの間の距離Lと実際の距離と間に大きなずれがあった場合、画像形成開始から補正処理が行われるまでに出力された画像は画質が低下するおそれがある。このため、画像形成開始直後に、余白や同一色のベタ画像(ナビゲーションセンサS,Sの位置の誤差が画質に影響しにくい)があるなどの画像を形成する際に本実施例が利用されることが望ましい。画像形成が開始される時のHMP20の初期位置の周囲にどのような画像データがあるかは画像データの画素値を解析して得られる輝度勾配などにより判断される。 On the other hand, if there is a large difference between the distance L between the navigation sensors S 0 and S 1 and the actual distance at the start of image formation, the image output from the start of image formation to the time when correction processing is performed has an image quality. May decrease. For this reason, the present embodiment is used when forming an image such as a blank image or a solid image of the same color (an error in the position of the navigation sensors S 0 and S 1 hardly affects the image quality) immediately after the start of image formation. It is desirable that What kind of image data is present around the initial position of the HMP 20 when image formation is started is determined by a luminance gradient obtained by analyzing pixel values of the image data.

本実施例では、HMP20ではなくHMP20と通信する補正装置が距離Lnew55を算出し、この距離Lnew55をHMP20に送信する補正システム100について説明する。   In the present embodiment, a correction system 100 in which a correction device that communicates with the HMP 20 instead of the HMP 20 calculates the distance Lnew55 and transmits the distance Lnew55 to the HMP20 will be described.

図17は、補正システム100の概略構成図の一例を示す。補正システム100は、補正装置70、回転部72、回転量センサ73、及び、通信IF74を有する。回転部72は、補正装置70の制御により補正装置70を中心に平面に水平に揺動する。回転部72はモータとカム機構を有しロッド71を一定範囲で繰り返し揺動させるアクチュエータである。すなわち、HMP20に回転成分を検出できる動きを与える。   FIG. 17 shows an example of a schematic configuration diagram of the correction system 100. The correction system 100 includes a correction device 70, a rotation unit 72, a rotation amount sensor 73, and a communication IF 74. The rotating unit 72 swings horizontally on a plane around the correction device 70 under the control of the correction device 70. The rotating part 72 is an actuator having a motor and a cam mechanism and repeatedly swinging the rod 71 within a certain range. That is, the HMP 20 is given a motion that can detect the rotation component.

回転量センサ73は、回転部72の回転角変化量を検出する。例えば、ジャイロセンサ31、ロータリーエンコーダなど、HMP20に生じる回転角変化量を検出できるセンサであればよい。   The rotation amount sensor 73 detects the rotation angle change amount of the rotation unit 72. For example, any sensor that can detect the amount of change in the rotation angle generated in the HMP 20 such as a gyro sensor 31 or a rotary encoder may be used.

通信IF74は、HMP20と通信し、補正処理の開始のトリガを送受信したり、回転部72の回転角変化量をHMP20に送信するために使用される。例えば、Bluetooth(登録商標)、無線LAN又はNFCなどの通信規格で通信する。   The communication IF 74 communicates with the HMP 20 and is used for transmitting and receiving a trigger for starting correction processing, and for transmitting the rotation angle change amount of the rotating unit 72 to the HMP 20. For example, communication is performed using a communication standard such as Bluetooth (registered trademark), wireless LAN, or NFC.

したがって、補正システム100によりHMP20がジャイロセンサ31を有していなくても、HMP20が補正装置70から回転角変化量を取得して、距離Lnew55を算出できる。   Therefore, even if the HMP 20 does not have the gyro sensor 31 by the correction system 100, the HMP 20 can acquire the rotation angle change amount from the correction device 70 and calculate the distance Lnew55.

なお、図17の構成は説明のための構成であって、HMP20とは別に用意されている記録ヘッドのメンテナンス装置(IJ記録ヘッド24の状態を正常に保つ)や充電スタンドなどと一体化させてもよい。また、補正システム100の形状は上記の機能を有していれば、どのような形状でもよい。例えば、ターンテーブル上でHMP20を回転させてもよい。   The configuration in FIG. 17 is a configuration for explanation, and is integrated with a recording head maintenance device (maintaining the state of the IJ recording head 24) prepared separately from the HMP 20, a charging stand, and the like. Also good. Further, the correction system 100 may have any shape as long as it has the above function. For example, the HMP 20 may be rotated on the turntable.

図18は、補正システム100の機能ブロック図の一例である。補正装置70はマイコンなど情報処理装置の構成を有している。例えば、CPU、RAM、ROM、各インタフェース、通信IF、ユーザとのインタフェースとなる入出力装置などの機能を有する。   FIG. 18 is an example of a functional block diagram of the correction system 100. The correction device 70 has the configuration of an information processing device such as a microcomputer. For example, it has functions such as a CPU, a RAM, a ROM, each interface, a communication IF, and an input / output device serving as an interface with a user.

補正装置70は、通信部81、回転制御部82、及び、回転角度検出部83を有する。通信部81は、CPUがプログラムを実行したり通信I/F74等により実現される。回転制御部82は、CPUがプログラムを実行したり回転部72を制御することで実現される。回転角度検出部83は、CPUがプログラムを実行したり回転量センサ73を制御することで実現される。   The correction device 70 includes a communication unit 81, a rotation control unit 82, and a rotation angle detection unit 83. The communication unit 81 is realized by the CPU executing a program or the communication I / F 74 or the like. The rotation control unit 82 is realized by the CPU executing a program or controlling the rotation unit 72. The rotation angle detection unit 83 is realized by the CPU executing a program or controlling the rotation amount sensor 73.

また、HMP20は図12の構成に加え通信部56を有している。この通信部56は、通信IF27等により実現される。通信部56は補正装置70の通信部81と通信する。   Further, the HMP 20 has a communication unit 56 in addition to the configuration of FIG. The communication unit 56 is realized by the communication IF 27 or the like. The communication unit 56 communicates with the communication unit 81 of the correction device 70.

図19は、補正システム100の動作手順を説明するシーケンス図の一例である。ユーザは回転部72にHMP20を装着し、補正処理を開始する操作を行う。
S1:一例として、HMP20の補正処理部51は補正処理を行うタイミングを検出すると通信部56を介して補正処理開始を補正装置70に送信する。
S2:補正装置70の通信部81は補正処理開始の通知を受信し、回転制御部82が回転部72を回転させる。
S3:これにより、HMP20のナビゲーションセンサS,Sが移動量を検出する。
S4:また、補正装置70の回転角度検出部83は回転部72の回転角変化量dθturnを検出する。
S5:補正装置70の通信部81は、回転角変化量dθturnをHMP20に送信する。
S6:HMP20の通信部56は回転角変化量dθturnを受信し、補正処理部51が距離算出部53に送出する。これにより、実施例1〜3と同様に、距離算出部53がナビゲーションセンサS,Sの移動量と回転角変化量dθturnを用いて距離Lnew55を算出できる。また、補正処理部51は距離Lを更新できる。
FIG. 19 is an example of a sequence diagram for explaining an operation procedure of the correction system 100. The user attaches the HMP 20 to the rotating unit 72 and performs an operation for starting the correction process.
S1: As an example, the correction processing unit 51 of the HMP 20 transmits a correction processing start to the correction device 70 via the communication unit 56 when detecting the timing for performing the correction processing.
S2: The communication unit 81 of the correction device 70 receives the notification of the correction process start, and the rotation control unit 82 rotates the rotation unit 72.
S3: Thereby, the navigation sensors S 0 and S 1 of the HMP 20 detect the movement amount.
S4: Further, the rotation angle detection unit 83 of the correction device 70 detects the rotation angle change amount dθturn of the rotation unit 72.
S5: The communication unit 81 of the correction device 70 transmits the rotation angle change amount dθturn to the HMP 20.
S6: The communication unit 56 of the HMP 20 receives the rotation angle change amount dθturn, and the correction processing unit 51 sends it to the distance calculation unit 53. Thus, in the same manner as in Example 1-3, the distance calculation unit 53 can calculate the distance Lnew55 using rotation angle variation dθturn a moving amount of the navigation sensors S 0, S 1. Further, the correction processing unit 51 can update the distance L.

したがって、本実施例によれば、HMP20がジャイロセンサ31を有していなくても距離Lを補正することができる。補正装置70がメンテナンス装置や充電スタンドなどと一体であれば、ユーザはHMP20を保管しておくことで距離Lを更新できる。   Therefore, according to the present embodiment, the distance L can be corrected even if the HMP 20 does not have the gyro sensor 31. If the correction device 70 is integrated with a maintenance device or a charging stand, the user can update the distance L by storing the HMP 20.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、本実施形態ではナビゲーションセンサが2つであると説明したが、ナビゲーションセンサが3つ以上の場合も、これらのナビゲーションセンサ間の距離でナビゲーションセンサの位置が算出される婆葉、同様に適用できる。   For example, in the present embodiment, it has been described that there are two navigation sensors. However, in the case where there are three or more navigation sensors, the leaflets whose navigation sensor positions are calculated based on the distance between these navigation sensors are similarly applied. it can.

また、本実施形態ではジャイロセンサで回転角変化量を検出したが、回転角変化量を検出できればどのようなセンサでもよい。   In this embodiment, the rotation angle change amount is detected by the gyro sensor. However, any sensor may be used as long as the rotation angle change amount can be detected.

また、上記したSoC50、ASIC/FPGA40の構成要素は、CPU性能やASIC/FPGA40の回路規模等により、どちらに含まれていてもよい。   The constituent elements of the SoC 50 and the ASIC / FPGA 40 described above may be included in any of them depending on the CPU performance, the circuit scale of the ASIC / FPGA 40, and the like.

また、本実施形態ではインクを吐出して画像を形成すると説明したが、可視光、紫外線、赤外線、レーザなどを照射して画像を形成してもよい。この場合、印刷媒体12として例えば熱や光に反応するものが用いられる。また、透明な液体を吐出してもよい。この場合、特定の波長域の光が照射されると可視情報が得られる。また、金属ペーストや樹脂などを吐出してもよい。   In the present embodiment, it has been described that an image is formed by ejecting ink. However, an image may be formed by irradiation with visible light, ultraviolet light, infrared light, laser, or the like. In this case, for example, a print medium 12 that reacts to heat or light is used. Further, a transparent liquid may be discharged. In this case, visible information is obtained when light in a specific wavelength region is irradiated. Further, metal paste, resin, or the like may be discharged.

なお、ナビゲーションセンサ30は移動量検出手段の一例であり、センサ値取得部52は姿勢情報取得手段の一例であり、距離算出部53は検出手段位置算出手段の一例であり、補正処理部51は補正手段の一例であり、位置算出回路34は位置算出手段の一例であり、IJ記録ヘッド制御部44は液滴吐出手段の一例である。   The navigation sensor 30 is an example of a movement amount detection unit, the sensor value acquisition unit 52 is an example of a posture information acquisition unit, the distance calculation unit 53 is an example of a detection unit position calculation unit, and the correction processing unit 51 is The position calculation circuit 34 is an example of a position calculation unit, and the IJ recording head controller 44 is an example of a droplet discharge unit.

11 画像データ出力器
30 ナビゲーションセンサ
31 ジャイロセンサ
51 補正処理部
52 センサ値取得部
53 距離算出部
70 補正装置
100 補正システム
DESCRIPTION OF SYMBOLS 11 Image data output device 30 Navigation sensor 31 Gyro sensor 51 Correction processing part 52 Sensor value acquisition part 53 Distance calculation part 70 Correction apparatus 100 Correction system

特許5033247号公報Japanese Patent No. 5033247

Claims (10)

移動量と姿勢とに基づいて移動面における位置を検出する位置検出装置であって、
前記移動量を検出する移動量検出手段と、
前記位置検出装置の姿勢に関する情報を取得する姿勢情報取得手段と、
前記移動量と前記姿勢に関する情報を用いて前記移動量検出手段の位置に関する情報を算出する検出手段位置算出手段と、
を有する位置検出装置。
A position detection device that detects a position on a moving surface based on a movement amount and a posture,
A movement amount detecting means for detecting the movement amount;
Attitude information acquisition means for acquiring information relating to the attitude of the position detection device;
Detecting means position calculating means for calculating information relating to the position of the moving amount detecting means using information relating to the movement amount and the posture;
A position detecting device.
少なくとも2つの移動量検出手段を有し、
前記2つの移動量検出手段がそれぞれ検出した前記移動量及び前記2つの移動量検出手段の間の距離を用いて前記位置検出装置の位置を算出する位置算出手段を有し、
前記検出手段位置算出手段は、前記位置に関する情報として前記距離を算出し、
前記2つの移動量検出手段の間の距離を、前記検出手段位置算出手段が算出した前記距離で補正する補正手段を有する請求項1に記載の位置検出装置。
Having at least two movement amount detection means;
Position calculating means for calculating the position of the position detection device using the movement amount detected by the two movement amount detection means and the distance between the two movement amount detection means;
The detection means position calculation means calculates the distance as information on the position,
The position detection apparatus according to claim 1, further comprising a correction unit that corrects a distance between the two movement amount detection units by the distance calculated by the detection unit position calculation unit.
前記位置検出装置の位置に応じて該位置の画像を形成するための液滴を吐出する液滴吐出手段を有し、
前記補正手段は、前記液滴吐出手段が画像を形成するための液滴の吐出を開始する前に前記移動量検出手段の位置を補正する請求項2に記載の位置検出装置。
According to the position of the position detection device, it has a droplet discharge means for discharging a droplet for forming an image at the position,
The position detection device according to claim 2, wherein the correction unit corrects the position of the movement amount detection unit before the droplet discharge unit starts to discharge a droplet for forming an image.
前記位置検出装置の位置に応じて該位置の画像を形成するための液滴を吐出する液滴吐出手段を有し、
前記検出手段位置算出手段は、前記液滴吐出手段が画像を形成するための液滴の吐出を開始してから、前記位置検出装置の位置の算出のために前記移動量検出手段が検出した前記移動量を用いて、前記位置に関する情報を算出し、
前記補正手段は、前記検出手段位置算出手段が算出した前記位置に関する情報で前記移動量検出手段の位置を補正する請求項2に記載の位置検出装置。
According to the position of the position detection device, it has a droplet discharge means for discharging a droplet for forming an image at the position,
The detecting means position calculating means detects the position detected by the movement amount detecting means for calculating the position of the position detecting device after the droplet discharging means starts discharging a droplet for forming an image. Using the amount of movement, calculate information about the position,
The position detection apparatus according to claim 2, wherein the correction unit corrects the position of the movement amount detection unit based on information about the position calculated by the detection unit position calculation unit.
前記移動量検出手段は複数の前記移動量を検出し、前記姿勢情報取得手段は複数の前記姿勢に関する情報を検出し、
前記検出手段位置算出手段は、前記移動量と前記姿勢に関する情報を用いて前記移動量検出手段の位置に関する情報を複数回、算出し、
前記補正手段は、複数の前記位置に関する情報に統計処理を施して得た前記位置に関する情報で前記移動量検出手段の位置を補正する請求項2〜4のいずれか1項に記載の位置検出装置。
The movement amount detection means detects a plurality of movement amounts, and the posture information acquisition means detects information about the plurality of postures,
The detection means position calculation means calculates information about the position of the movement amount detection means a plurality of times using information about the movement amount and the posture,
5. The position detection device according to claim 2, wherein the correction unit corrects the position of the movement amount detection unit with information about the position obtained by performing statistical processing on a plurality of pieces of information about the position. .
前記補正手段は、補正に用いた前記位置に関する情報を記憶しておき、
前記検出手段位置算出手段が算出した複数の前記位置に関する情報のうち、記憶している前記位置に関する情報との差が最も少なくなる前記位置に関する情報で、前記移動量検出手段の位置を補正する請求項5に記載の位置検出装置。
The correction means stores information on the position used for correction,
The position of the movement amount detection unit is corrected with information on the position that has the smallest difference from the stored information on the position among the plurality of pieces of information on the position calculated by the detection unit position calculation unit. Item 6. The position detection device according to Item 5.
前記補正手段は、2つの前記移動量検出手段がそれぞれ検出した前記移動量及び2つの前記移動量検出手段の間の距離を用いて、前記姿勢に関する情報を算出し、
前記姿勢情報取得手段が取得した前記姿勢に関する情報と算出された前記姿勢に関する情報との差が閾値以下の場合、前記補正手段は、前記移動量検出手段の位置を補正しないことを特徴とする請求項2〜6のいずれか1項に記載の位置検出装置。
The correction unit calculates information on the posture using the movement amount detected by the two movement amount detection units and the distance between the two movement amount detection units, respectively.
The correction unit does not correct the position of the movement amount detection unit when a difference between the posture information acquired by the posture information acquisition unit and the calculated information about the posture is equal to or smaller than a threshold value. Item 7. The position detection device according to any one of Items 2 to 6.
請求項1〜7のいずれか1項に記載の位置検出装置と、
前記位置検出装置の位置に応じて該位置の画像を形成するための液滴を吐出する液滴吐出手段と、
を有する液滴吐出装置。
The position detection device according to any one of claims 1 to 7,
Droplet discharge means for discharging droplets for forming an image at the position according to the position of the position detection device;
A droplet discharge device having
姿勢と移動量に基づいて移動面における位置を検出する情報処理装置を、
前記移動量を検出する移動量検出手段と、
前記情報処理装置の姿勢に関する情報を取得する姿勢情報取得手段と、
前記移動量と前記姿勢に関する情報を用いて前記移動量検出手段の位置に関する情報を算出する検出手段位置算出手段、
として機能させるためのプログラム。
An information processing device that detects a position on a moving surface based on a posture and a movement amount,
A movement amount detecting means for detecting the movement amount;
Attitude information acquisition means for acquiring information related to the attitude of the information processing apparatus;
Detecting means position calculating means for calculating information relating to the position of the moving amount detecting means using the information relating to the movement amount and the posture;
Program to function as.
姿勢と移動量に基づいて位置検出装置が移動面における位置を検出する位置検出方法であって、
移動量検出手段が、前記移動量を検出するステップと、
姿勢情報取得手段が、前記位置検出装置の姿勢に関する情報を取得するステップと、
検出手段位置算出手段が、前記移動量と前記姿勢に関する情報を用いて前記移動量検出手段の位置に関する情報を算出するステップと、
を有する位置検出方法。
A position detection method in which a position detection device detects a position on a moving surface based on an attitude and a movement amount,
A movement amount detecting means for detecting the movement amount;
Posture information acquisition means for acquiring information related to the posture of the position detection device;
A detecting unit position calculating unit calculating information on the position of the moving amount detecting unit using the information on the moving amount and the posture;
A position detection method comprising:
JP2016153799A 2016-08-04 2016-08-04 Position detection device, droplet ejection device, program, position detection method Active JP6844145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016153799A JP6844145B2 (en) 2016-08-04 2016-08-04 Position detection device, droplet ejection device, program, position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016153799A JP6844145B2 (en) 2016-08-04 2016-08-04 Position detection device, droplet ejection device, program, position detection method

Publications (2)

Publication Number Publication Date
JP2018021844A true JP2018021844A (en) 2018-02-08
JP6844145B2 JP6844145B2 (en) 2021-03-17

Family

ID=61165575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016153799A Active JP6844145B2 (en) 2016-08-04 2016-08-04 Position detection device, droplet ejection device, program, position detection method

Country Status (1)

Country Link
JP (1) JP6844145B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116932A (en) * 2019-01-28 2020-08-06 株式会社リコー Position detector, handheld device, position detection method, and program
US11461056B2 (en) 2020-02-03 2022-10-04 Seiko Epson Corporation Printing device for printing while being manually moved, and method for producing printed matter using printing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080211848A1 (en) * 2007-03-02 2008-09-04 Mealy James Handheld image translation device
JP2016078366A (en) * 2014-10-20 2016-05-16 株式会社リコー Printing device, method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080211848A1 (en) * 2007-03-02 2008-09-04 Mealy James Handheld image translation device
JP2016078366A (en) * 2014-10-20 2016-05-16 株式会社リコー Printing device, method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116932A (en) * 2019-01-28 2020-08-06 株式会社リコー Position detector, handheld device, position detection method, and program
JP7172658B2 (en) 2019-01-28 2022-11-16 株式会社リコー Position detection device, handheld device, position detection method, and program
US11461056B2 (en) 2020-02-03 2022-10-04 Seiko Epson Corporation Printing device for printing while being manually moved, and method for producing printed matter using printing device

Also Published As

Publication number Publication date
JP6844145B2 (en) 2021-03-17

Similar Documents

Publication Publication Date Title
JP6897167B2 (en) Droplet ejection device, droplet ejection method, program
JP6409435B2 (en) Printing apparatus, printing system, and printing method
JP6953815B2 (en) Program, information processing device, display method, droplet ejection device, droplet ejection system
JP6926535B2 (en) Droplet ejection device, droplet ejection method, program
USRE49057E1 (en) Position detection apparatus, droplet discharging apparatus, method for detecting position, and medium
JP7120348B2 (en) image forming device
JP2017170634A (en) Position detector, droplet ejection device, and program
JP2016215472A (en) Image forming apparatus, image forming method and program
JP6717042B2 (en) Position detection device, droplet discharge device
JP6844145B2 (en) Position detection device, droplet ejection device, program, position detection method
US10596813B2 (en) Liquid discharge apparatus and liquid discharge method
JP2019089240A (en) Droplet discharge device and droplet discharge method
JP2016137621A (en) Handheld recorder
JP2017105122A (en) Liquid discharge device, liquid discharge method, program
JP2019162860A (en) Droplet discharge device, droplet discharge method, and program
JP2020040384A (en) Image forming device, state control method and program
JP7183838B2 (en) LIQUID EJECTING APPARATUS, LIQUID EJECTING METHOD, AND PROGRAM
JP7172658B2 (en) Position detection device, handheld device, position detection method, and program
JP7206974B2 (en) LIQUID EJECTING APPARATUS, LIQUID EJECTING METHOD, AND PROGRAM
JP7127564B2 (en) POSITION INFORMATION ADJUSTMENT DEVICE, HANDY TYPE DROP EJECTING DEVICE INCLUDING THE POSITION INFORMATION ADJUSTMENT DEVICE, POSITION INFORMATION ADJUSTMENT METHOD IN A HANDY DEVICE, AND POSITION INFORMATION ADJUSTMENT PROGRAM IN A HANDY DEVICE
JP2019010778A (en) Printer and printing method
JP2020100151A (en) Printer, printing system, and printing method
JP2019022989A (en) Printer, printing system and printing method
JP2022056896A (en) Hand-held printer and print guide output program
JP2022171176A (en) Program, droplet discharge device, droplet discharge system, and information display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R151 Written notification of patent or utility model registration

Ref document number: 6844145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151