JP5708366B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP5708366B2
JP5708366B2 JP2011181417A JP2011181417A JP5708366B2 JP 5708366 B2 JP5708366 B2 JP 5708366B2 JP 2011181417 A JP2011181417 A JP 2011181417A JP 2011181417 A JP2011181417 A JP 2011181417A JP 5708366 B2 JP5708366 B2 JP 5708366B2
Authority
JP
Japan
Prior art keywords
screen
image
label image
label
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011181417A
Other languages
Japanese (ja)
Other versions
JP2013045220A (en
Inventor
鈴木 雄一郎
雄一郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2011181417A priority Critical patent/JP5708366B2/en
Publication of JP2013045220A publication Critical patent/JP2013045220A/en
Application granted granted Critical
Publication of JP5708366B2 publication Critical patent/JP5708366B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、ユーザに対話形式で入力操作を行わせるユーザインターフェース機能を備えて、ユーザがラベルに印刷される画像を編集するための画像処理装置、およびこれに用いられる画像処理プログラムに関する。   The present invention relates to an image processing apparatus having a user interface function that allows a user to perform an input operation in an interactive manner, and for the user to edit an image printed on a label, and an image processing program used therefor.

従来、ユーザが各種画像を対話形式で編集可能な装置が知られている(例えば、特許文献1参照)。特許文献1には、編集文書データ内に段落単位の登録文書データを挿入する場合に、挿入すべき個所の前後にある段落の区切りに登録文書データが挿入されるテープ印刷装置が開示されている。   2. Description of the Related Art Conventionally, an apparatus that allows a user to edit various images interactively is known (see, for example, Patent Document 1). Patent Document 1 discloses a tape printer in which registered document data is inserted at a paragraph break before and after a portion to be inserted when paragraph-unit registered document data is inserted into edited document data. .

特開平11−157135号公報JP-A-11-157135

従来の画像処理装置では、テープ印字装置で作成されるラベルに印刷される画像(以下、ラベル画像という。)も編集可能である。例えばユーザは画像処理装置を用いて、ラベル画像に配置されるオブジェクト(ひとかたまりの文字や図形等)を設定したり、オブジェクトをラベル画像上に配置したり、配置したオブジェクトのサイズ調整を行ったりすることがある。   In a conventional image processing apparatus, an image printed on a label created by a tape printer (hereinafter referred to as a label image) can also be edited. For example, the user uses an image processing apparatus to set an object (a group of characters, graphics, etc.) to be placed on the label image, place an object on the label image, or adjust the size of the placed object. Sometimes.

そして、共通の情報(例えば、同一の文字列や画像等)が含まれている複数の異なるラベル画像を作成したい場合、ユーザは編集画面上で各々のラベル画像に共通の情報を一々設定する必要があった。特に、このようなラベル編集を小型のディスプレイを備えたコンピュータ端末(例えば、スマートフォン、携帯電話、PDAなど)で行う場合、編集画面の表示領域(つまり、ラベル編集の作業領域)が狭いためにユーザの操作負担が大きかった。特許文献1に開示の技術では、表示領域の狭さに起因する上記の問題を解決できなかった。   If a user wants to create a plurality of different label images including common information (for example, the same character string or image), the user needs to set common information for each label image on the editing screen. was there. In particular, when such a label editing is performed on a computer terminal (for example, a smartphone, a mobile phone, a PDA, etc.) equipped with a small display, the display area of the editing screen (that is, the work area for label editing) is narrow, so that the user The operation burden of was heavy. The technique disclosed in Patent Document 1 cannot solve the above-mentioned problem due to the narrowness of the display area.

本発明の目的は、上記課題を解決するためになされたものであり、狭い表示領域でラベル編集を行うユーザの操作負担を小さくして、画像編集の作業効率を向上できる画像処理装置、およびこれに用いられる画像処理プログラムを提供することである。   An object of the present invention has been made to solve the above-described problem, and an image processing apparatus capable of reducing the operation burden on a user who performs label editing in a narrow display area and improving the work efficiency of image editing, and the image processing apparatus. It is to provide an image processing program used for the above.

本発明の第一態様に係る画像処理装置は、ユーザが対話形式でラベル画像を編集するための複数の画面を切替え表示可能であり、且つ、表示中の前記画面に対する操作を検出するタッチパネルと、少なくとも前記ラベル画像の編集開始が指示された場合、ユーザがキャラクタまたは装飾画像を入力するためのキー画像を含む第一画面を、前記タッチパネルに表示する第一画面制御手段と、前記キー画像から入力された所定単位の前記キャラクタまたは前記装飾画像ごとに、前記ラベル画像に配置可能なオブジェクトを生成するオブジェクト生成手段と、前記第一画面の終了が指示された場合、前記オブジェクト生成手段によって生成された前記オブジェクトから、ユーザが前記ラベル画像に配置する前記オブジェクトを選択可能な第二画面を、前記タッチパネルに表示する第二画面制御手段と、前記第二画面で選択された前記オブジェクトを、所定パターンに沿って前記ラベル画像上に配置するオブジェクト配置手段と、前記第二画面の終了が指示された場合、前記オブジェクト配置手段によって前記オブジェクトが配置された前記ラベル画像上で、ユーザが前記オブジェクトの位置およびサイズの少なくとも一方を変更可能な第三画面を、前記タッチパネルに表示する第三画面制御手段と、前記第三画面で前記オブジェクトの位置およびサイズの少なくとも一方が変更されるのに伴って、前記第三画面に含まれる前記ラベル画像を、変更後の前記オブジェクトに基づいて更新するラベル画像更新手段とを備える。   The image processing apparatus according to the first aspect of the present invention is capable of switching and displaying a plurality of screens for a user to edit a label image in an interactive manner, and detecting a manipulation on the displayed screen, At least when the start of editing the label image is instructed, a first screen including a key image for a user to input a character or a decoration image is input from the key image and first screen control means for displaying on the touch panel An object generation unit that generates an object that can be placed on the label image for each predetermined unit of the character or the decoration image, and when the end of the first screen is instructed, the object generation unit A second screen from which the user can select the object to be placed on the label image from the object. Second screen control means for displaying on the touch panel, object placement means for placing the object selected on the second screen on the label image along a predetermined pattern, and termination of the second screen are instructed. A third screen control means for displaying, on the touch panel, a third screen on which the user can change at least one of the position and the size of the object on the label image on which the object is placed by the object placement means And updating the label image included in the third screen based on the changed object as at least one of the position and size of the object is changed on the third screen. Means.

本発明の第二態様に係る画像処理プログラムは、ユーザが対話形式でラベル画像を編集するための複数の画面を切替え表示可能であり、且つ、表示中の前記画面に対する操作を検出するタッチパネルを備えたコンピュータに、少なくとも前記ラベル画像の編集開始が指示された場合、ユーザがキャラクタまたは装飾画像を入力するためのキー画像を含む第一画面を、前記タッチパネルに表示する第一画面制御ステップと、前記キー画像から入力された所定単位の前記キャラクタまたは前記装飾画像ごとに、前記ラベル画像に配置可能なオブジェクトを生成するオブジェクト生成ステップと、前記第一画面の終了が指示された場合、前記オブジェクト生成ステップによって生成された前記オブジェクトから、ユーザが前記ラベル画像に配置する前記オブジェクトを選択可能な第二画面を、前記タッチパネルに表示する第二画面制御ステップと、前記第二画面で選択された前記オブジェクトを、所定パターンに沿って前記ラベル画像上に配置するオブジェクト配置ステップと、前記第二画面の終了が指示された場合、前記オブジェクト配置ステップによって前記オブジェクトが配置された前記ラベル画像上で、ユーザが前記オブジェクトの位置およびサイズの少なくとも一方を変更可能な第三画面を、前記タッチパネルに表示する第三画面制御ステップと、前記第三画面で前記オブジェクトの位置およびサイズの少なくとも一方が変更されるのに伴って、前記第三画面に含まれる前記ラベル画像を、変更後の前記オブジェクトに基づいて更新するラベル画像更新ステップとを実行させる。   An image processing program according to the second aspect of the present invention includes a touch panel that enables a user to switch and display a plurality of screens for interactively editing a label image, and detects an operation on the displayed screen. When the computer is instructed to start editing at least the label image, a first screen control step for displaying on the touch panel a first screen including a key image for a user to input a character or a decoration image; An object generation step for generating an object that can be placed on the label image for each character or decoration image in a predetermined unit input from a key image, and when the end of the first screen is instructed, the object generation step From the object generated by the user, the user places it on the label image A second screen control step for displaying a second screen on which the object can be selected on the touch panel; and an object placement step for placing the object selected on the second screen on the label image along a predetermined pattern. And when the end of the second screen is instructed, a third screen on which the user can change at least one of the position and the size of the object on the label image on which the object is arranged in the object arranging step. A third screen control step for displaying on the touch panel; and at least one of the position and the size of the object on the third screen is changed, and the label image included in the third screen is changed. And a label image updating step for updating based on the object

本発明の第一、第二態様によれば、ユーザが第一画面でキー画像から所定単位のキャラクタまたは装飾画像を入力すると、オブジェクトが生成される。第一画面の終了後に表示される第二画面で、ユーザがラベル画像に配置するオブジェクトを選択すると、選択されたオブジェクトがラベル画像上に所定パターンで配置される。第二画面の終了後に表示される第三画面で、ユーザがラベル画像上でオブジェクトの位置およびサイズの少なくとも一方を変更すると、ラベル画像が変更後のオブジェクトに基づいて更新される。   According to the first and second aspects of the present invention, an object is generated when a user inputs a predetermined unit of character or decoration image from a key image on the first screen. When the user selects an object to be arranged on the label image on the second screen displayed after the end of the first screen, the selected object is arranged in a predetermined pattern on the label image. When the user changes at least one of the position and size of the object on the label image on the third screen displayed after the end of the second screen, the label image is updated based on the changed object.

このように、オブジェクトの入力、選択、変更という機能別に構成された第一〜第三画面が順次表示され、ユーザは各画面に必要な情報を入力するだけで、ラベル画像を自由に編集できる。機能別に構成された第一〜第三画面は、それぞれ狭い表示領域で構成できる。したがって、狭い表示領域でラベル編集を行うユーザの操作負担を小さくして、画像編集の作業効率を向上できる。   In this way, the first to third screens configured according to the function of inputting, selecting, and changing the objects are sequentially displayed, and the user can freely edit the label image simply by inputting necessary information on each screen. Each of the first to third screens configured by function can be configured with a narrow display area. Therefore, it is possible to reduce the operation burden on the user who performs label editing in a narrow display area and improve the work efficiency of image editing.

印刷システム1の概略構成図である。1 is a schematic configuration diagram of a printing system 1. FIG. 印刷システム1の電気的構成を示すブロック図である。1 is a block diagram showing an electrical configuration of a printing system 1. FIG. HDD24に記憶されているレイアウト情報40のデータ構成を示す図である。4 is a diagram showing a data configuration of layout information 40 stored in an HDD 24. FIG. HDD24に記憶されているオブジェクト50のデータ構成を示す図である。4 is a diagram showing a data configuration of an object 50 stored in an HDD 24. FIG. 画像編集処理のフローチャートである。It is a flowchart of an image editing process. オブジェクト生成処理のフローチャートである。It is a flowchart of an object generation process. 携帯端末20に表示されたコンテンツ入力画面60を示す図である。It is a figure which shows the content input screen 60 displayed on the portable terminal 20. FIG. オブジェクト選択処理のフローチャートである。It is a flowchart of an object selection process. 携帯端末20に表示されたオブジェクト選択画面70を示す図である。It is a figure which shows the object selection screen 70 displayed on the portable terminal 20. FIG. オブジェクト配置処理のフローチャートである。It is a flowchart of an object arrangement process. オブジェクト編集処理のフローチャートである。It is a flowchart of an object edit process. 携帯端末20に表示されたオブジェクト編集画面80を示す図である。It is a figure which shows the object edit screen 80 displayed on the portable terminal 20. FIG. 携帯端末20に表示されたオブジェクト編集画面80を示す他の図である。FIG. 10 is another diagram showing an object editing screen 80 displayed on the mobile terminal 20.

以下、本発明の一実施形態について、図面を参照して説明する。これらの図面は、本発明が採用しうる技術的特徴を説明するために用いられるものである。記載されている装置の構成、各種処理のフローチャート等は、それのみに限定する趣旨ではなく、単なる説明例である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. These drawings are used to explain technical features that can be adopted by the present invention. The configuration of the apparatus, the flowcharts of various processes, and the like that are described are not intended to be limited to only that, but are merely illustrative examples.

図1を参照して、印刷システム1の概要について説明する。印刷システム1は、有線または無線によって接続された印刷装置10および携帯端末20を備えている。本実施形態では、印刷装置10および携帯端末20がケーブル2によって接続されている。印刷装置10は、長尺状の印刷媒体であるテープにキャラクタ(文字、記号、図形など)を印刷して、貼り付け可能なラベルを作成する小型のラベルプリンタである。携帯端末20は、ユーザが印刷対象のラベルを編集するために用いる小型のコンピュータ端末(一例として、スマートフォン)である。   An overview of the printing system 1 will be described with reference to FIG. The printing system 1 includes a printing apparatus 10 and a mobile terminal 20 that are connected by wire or wireless. In the present embodiment, the printing apparatus 10 and the mobile terminal 20 are connected by the cable 2. The printing apparatus 10 is a small-sized label printer that prints characters (characters, symbols, graphics, etc.) on a tape, which is a long print medium, and creates a label that can be pasted. The portable terminal 20 is a small computer terminal (for example, a smartphone) used by a user to edit a label to be printed.

携帯端末20では、ユーザがラベルを編集すると、その編集内容を示す画像データが生成されて、ケーブル2を介して印刷装置10に対して送信される。印刷装置10では、携帯端末20から受信した画像データに基づいて、テープへの印刷処理が行われて、ラベルが作成される。従って、ユーザは携帯端末20を操作することで、印刷装置10でラベルを作成することができる。   In the mobile terminal 20, when the user edits the label, image data indicating the editing content is generated and transmitted to the printing apparatus 10 via the cable 2. The printing apparatus 10 performs a printing process on a tape based on the image data received from the mobile terminal 20 to create a label. Therefore, the user can create a label with the printing apparatus 10 by operating the mobile terminal 20.

図2を参照して、印刷システム1の電気的構成を説明する。印刷装置10は、印刷装置10の制御全体を司るCPU11を備えている。CPU11は、SRAM12、FLASH ROM13、EEPROM14、ローラ15、ヘッド16、操作キー17、ディスプレイ18、および外部機器インタフェース(外部機器I/F)19と電気的に接続している。   The electrical configuration of the printing system 1 will be described with reference to FIG. The printing apparatus 10 includes a CPU 11 that controls the entire control of the printing apparatus 10. The CPU 11 is electrically connected to the SRAM 12, FLASH ROM 13, EEPROM 14, roller 15, head 16, operation key 17, display 18, and external device interface (external device I / F) 19.

SRAM12には、タイマやカウンタ、一時的なデータが記憶される。FLASH ROM13には、CPU11の制御プログラムやBIOS、OS等が記憶される。EEPROM14には、パラメータや初期設定情報が記憶される。ローラ15は、印刷装置10に装着されているテープカセット(図示外)に収納されているテープを搬送する。ヘッド16は、ローラ15によって搬送されるテープに印刷を行う。外部機器I/F19は、ケーブル2を介して携帯端末20と通信を行うためのコントローラである。   The SRAM 12 stores a timer, a counter, and temporary data. The FLASH ROM 13 stores a control program for the CPU 11, BIOS, OS, and the like. The EEPROM 14 stores parameters and initial setting information. The roller 15 conveys a tape stored in a tape cassette (not shown) mounted on the printing apparatus 10. The head 16 performs printing on the tape conveyed by the roller 15. The external device I / F 19 is a controller for communicating with the mobile terminal 20 via the cable 2.

携帯端末20は、携帯端末20の制御全体を司るCPU21を備えている。CPU21は、ROM22、RAM23、HDD24、外部機器I/F25、通信部26、およびタッチパネル30と電気的に接続している。ROM22には、ブートプログラムやBIOS等が記憶される。RAM23には、タイマやカウンタ、一時的なデータが記憶される。HDD24には、各種のアプリケーションプログラムやOSが記憶される。後述する画像編集処理(図5参照)を実行するためのアプリケーションプログラム(以下、編集用アプリケーション)や、編集用アプリケーションによって使用される後述のテンプレートも、HDD24に記憶されている。外部機器I/F25は、ケーブル2を介して印刷装置10と通信を行うためのコントローラである。通信部26は、図示外の公衆回線網を介して他の電子機器と通信を行うためのコントローラである。   The mobile terminal 20 includes a CPU 21 that controls the entire control of the mobile terminal 20. The CPU 21 is electrically connected to the ROM 22, RAM 23, HDD 24, external device I / F 25, communication unit 26, and touch panel 30. The ROM 22 stores a boot program, BIOS, and the like. The RAM 23 stores a timer, a counter, and temporary data. The HDD 24 stores various application programs and OS. An application program (hereinafter referred to as an editing application) for executing an image editing process (see FIG. 5) described later and a template described later used by the editing application are also stored in the HDD 24. The external device I / F 25 is a controller for communicating with the printing apparatus 10 via the cable 2. The communication unit 26 is a controller for communicating with other electronic devices via a public line network (not shown).

携帯端末20は、正面視で縦長矩形状の本体部29(図1参照)を備える。本体部29の正面側には、外部物体の接触を検知可能な表示体であるタッチパネル30が設けられている。タッチパネル30は、本体部29の形状に対応して矩形状の表示領域を有する。タッチパネル30は、画像を表示する表示パネル31上に、外部物体の接触を検知する略透明な感圧シート32が積層されている。CPU21は、感圧シート32で特定された外部物体の接触位置に基づいて、ユーザの入力操作を判別可能である。   The portable terminal 20 includes a vertically long rectangular main body 29 (see FIG. 1) when viewed from the front. On the front side of the main body 29, a touch panel 30 which is a display body capable of detecting contact with an external object is provided. The touch panel 30 has a rectangular display area corresponding to the shape of the main body 29. In the touch panel 30, a substantially transparent pressure sensitive sheet 32 that detects contact of an external object is laminated on a display panel 31 that displays an image. The CPU 21 can determine the user's input operation based on the contact position of the external object specified by the pressure sensitive sheet 32.

本実施形態の携帯端末20は、ユーザに対話形式で入力操作を行わせるユーザインターフェース機能を備えている。携帯端末20で編集用アプリケーションが起動されると、ユーザがオブジェクトの入力、選択、変更等を対話形式で行って画像を編集するための対話形式画面が、タッチパネル30に表示される。オブジェクトは、テキスト(文字、図形、記号等のキャラクタ列)または装飾画像で構成された、ひとまとまりのデータである。ユーザはタッチパネル30の対話形式画面に対して各種操作を行って、例えば印刷装置10で長尺状の媒体(テープ)への印刷態様を示す画像(以下、ラベル画像という。)を編集する。   The mobile terminal 20 of this embodiment has a user interface function that allows the user to perform an input operation in an interactive manner. When the editing application is activated on the mobile terminal 20, an interactive screen for editing an image by the user performing input, selection, change, etc. of an object in an interactive format is displayed on the touch panel 30. An object is a set of data composed of text (character string such as characters, figures, symbols, etc.) or a decoration image. The user performs various operations on the interactive screen of the touch panel 30 and edits an image (hereinafter referred to as a label image) indicating a printing mode on a long medium (tape) with the printing apparatus 10, for example.

図3を参照して、HDD24に記憶されているレイアウト情報40について説明する。レイアウト情報40は、ラベル画像に配置されるオブジェクトの座標を定義したデータである。HDD24には、種類および属性が異なるオブジェクトごとにレイアウト情報が記憶されている。各レイアウト情報は、対応するオブジェクトの種類、属性、座標を定義する。   The layout information 40 stored in the HDD 24 will be described with reference to FIG. The layout information 40 is data that defines the coordinates of an object arranged in the label image. The HDD 24 stores layout information for each object having different types and attributes. Each layout information defines the type, attribute, and coordinates of the corresponding object.

「種類」は、対応するオブジェクトのデータ種別がテキスト(TEXT)および装飾画像(IMAGE)の何れであるかを示す。「属性」は、対応するオブジェクトに設定されている分類(例えば、名前、顔、住所、シンボルなど)を示す。「座標」は、対応するオブジェクトが前回配置されたラベル画像上の位置およびサイズを示す座標情報である。本実施形態のオブジェクトは矩形状である。よって、「座標」は、ラベル画像の左上隅部の座標を原点座標(0、0)として、対角上に位置する2つの頂点の座標情報(すなわち、左上頂点の座標(X1、Y1)と右下頂点の座標(X2、Y2)の2点)で、オブジェクトの位置およびサイズを示す。   “Type” indicates whether the data type of the corresponding object is text (TEXT) or decoration image (IMAGE). The “attribute” indicates a classification (for example, name, face, address, symbol, etc.) set for the corresponding object. “Coordinates” is coordinate information indicating the position and size on the label image in which the corresponding object was previously placed. The object of this embodiment is rectangular. Therefore, the “coordinate” is the coordinate information of the two vertices located diagonally (ie, the coordinates (X1, Y1) of the upper left vertex) with the coordinates of the upper left corner of the label image as the origin coordinates (0, 0). The position and size of the object are indicated by the coordinates (X2, Y2) of the lower right vertex.

具体的に、後述する図12、図13の例では、ラベル画像100、110の左上隅部が、各ラベル画像の原点座標(0、0)となる。座標X1、X2は、各ラベル画像100、110上の左右方向位置を示し、原点座標(0、0)よりも右側に離間するほど大きい値となる。座標Y1、Y2は、各ラベル画像100、110上の上下方向位置を示し、原点座標(0、0)よりも下側に離間するほど大きい値となる。   Specifically, in the examples of FIGS. 12 and 13 to be described later, the upper left corner of the label images 100 and 110 is the origin coordinates (0, 0) of each label image. The coordinates X1 and X2 indicate the horizontal position on the label images 100 and 110, and become larger as the distance from the origin coordinates (0, 0) increases to the right. The coordinates Y1 and Y2 indicate the vertical positions on the label images 100 and 110, and become larger as they are separated from the origin coordinates (0, 0).

図4を参照して、HDD24に記憶されているオブジェクトについて説明する。HDD24には、ユーザによって作成されたオブジェクトが記憶されている。各オブジェクトは、テキスト(TEXT)または装飾画像(IMAGE)であるコンテンツの他、レイアウト情報と同様に種類、属性、座標を示すデータを含む。なお、「座標」が未設定のオブジェクトは、ラベル画像上に配置された実績がないことを示す。   The objects stored in the HDD 24 will be described with reference to FIG. The HDD 24 stores objects created by the user. Each object includes data indicating the type, attribute, and coordinates in the same manner as the layout information, in addition to the content that is text (TEXT) or a decoration image (IMAGE). Note that an object for which “coordinates” is not set indicates that there is no record of placement on the label image.

図5〜図13を参照して、携帯端末20で実行される画像編集処理について説明する。画像編集処理(図5)は、携帯端末20で編集用アプリケーションが起動されると、CPU21によって実行される。   With reference to FIGS. 5 to 13, an image editing process executed by the mobile terminal 20 will be described. The image editing process (FIG. 5) is executed by the CPU 21 when an editing application is activated on the mobile terminal 20.

図5に示すように、画像編集処理では、まずオブジェクト入力指示ありか否かが判断される(S1)。例えばユーザがタッチパネル30で新規オブジェクトの入力開始を指示する操作を行うと、オブジェクト入力指示ありと判断される(S1:YES)。この場合、新規オブジェクトを生成するオブジェクト生成処理が実行される(S3)。   As shown in FIG. 5, in the image editing process, it is first determined whether or not there is an object input instruction (S1). For example, when the user performs an operation to instruct the start of input of a new object on the touch panel 30, it is determined that there is an object input instruction (S1: YES). In this case, an object generation process for generating a new object is executed (S3).

図6に示すように、オブジェクト生成処理(S3)では、まずユーザにコンテンツを入力させるためのコンテンツ入力画面が、タッチパネル30に表示される(S21)。タッチパネル30に表示されたコンテンツ入力画面において、ユーザに対話形式でコンテンツを入力させる(S23)。例えば、ユーザがコンテンツとしてテキスト(TEXT)を入力する場合には、図7に示すコンテンツ入力画面60が表示される。コンテンツ入力画面60は、ユーザがキャラクタを入力するためのキー画像62と、キー画像62での入力内容が表示される作業領域61とを含む。ユーザはキー画像62を操作して、作業領域61でテキストを作成できる。   As shown in FIG. 6, in the object generation process (S3), a content input screen for allowing the user to input content is first displayed on the touch panel 30 (S21). On the content input screen displayed on the touch panel 30, the user is allowed to input content in an interactive manner (S23). For example, when the user inputs text (TEXT) as content, a content input screen 60 shown in FIG. 7 is displayed. The content input screen 60 includes a key image 62 for the user to input a character, and a work area 61 in which the input content on the key image 62 is displayed. The user can create text in the work area 61 by operating the key image 62.

ステップS23でコンテンツが入力されたのち、ユーザに対話形式で属性を入力させる(S25)。例えば、ユーザがコンテンツ入力画面60でコンテンツを入力して確定キーを押下すると、複数の属性(名前、顔、住所、シンボルなど)が一覧表示される。ユーザは一覧表示された属性のいずれかを選択することで、新規オブジェクトに付与したい属性を入力できる。ステップS23で入力されたコンテンツおよびその種別と、ステップS25で入力された属性を含む新規のオブジェクトが生成される(S27)。   After the content is input in step S23, the user is allowed to input attributes in an interactive format (S25). For example, when the user inputs content on the content input screen 60 and presses the enter key, a plurality of attributes (name, face, address, symbol, etc.) are displayed in a list. The user can input an attribute to be added to the new object by selecting one of the listed attributes. A new object including the content input in step S23 and its type and the attribute input in step S25 is generated (S27).

ステップS27で生成された新規のオブジェクトは、HDD24に保存される(S29)。このとき、新規のオブジェクトはラベル画像上に未配置であるため、座標は未設定である。図7に示す例では、コンテンツ「Taro Kimura」、種類「TEXT」、属性「名前」、座標「未設定」のオブジェクトが生成および保存される。その後、オブジェクトの入力終了であるか否かが判断される(S31)。例えばユーザがコンテンツ入力画面60で終了キーを押下すると、オブジェクトの入力終了であると判断されて(S31:YES)、処理は画像編集処理(図5)に戻る。入力終了でない場合(S31:NO)、処理はステップS23に戻る。   The new object generated in step S27 is stored in the HDD 24 (S29). At this time, since the new object is not arranged on the label image, the coordinates are not set. In the example illustrated in FIG. 7, an object of content “Taro Kimura”, type “TEXT”, attribute “name”, and coordinates “unset” is generated and stored. Thereafter, it is determined whether or not the input of the object is completed (S31). For example, when the user presses the end key on the content input screen 60, it is determined that the input of the object is finished (S31: YES), and the process returns to the image editing process (FIG. 5). If the input has not ended (S31: NO), the process returns to step S23.

図5に戻る。ステップS3の実行後、処理はステップS1に戻る。オブジェクト入力指示がない場合(S1:NO)、ラベル画像上に配置するオブジェクトをユーザに選択させるオブジェクト選択処理(S5)、選択されたオブジェクトをラベル画像上に配置するオブジェクト配置処理(S7)、ラベル画像上に配置されたオブジェクトをユーザに編集させるオブジェクト編集処理(S9)が順に実行される。   Returning to FIG. After execution of step S3, the process returns to step S1. When there is no object input instruction (S1: NO), an object selection process (S5) for causing the user to select an object to be arranged on the label image, an object arrangement process (S7) for arranging the selected object on the label image, and a label An object editing process (S9) for causing the user to edit the object arranged on the image is sequentially executed.

図8に示すように、オブジェクト選択処理(S5)では、まずRAM23に記憶されている選択リストが初期化される(S41)。選択リストは、ラベル画像上に配置するオブジェクトを一時記憶するテーブルである。次いで、RAM23に記憶されている選択数Nが「0」にセットされる(S43)。HDD24に記憶されている全てのオブジェクト50(図4参照)が呼び出されて(S45)、オブジェクト選択画面がタッチパネル30に表示される(S47)。   As shown in FIG. 8, in the object selection process (S5), the selection list stored in the RAM 23 is first initialized (S41). The selection list is a table that temporarily stores objects to be arranged on the label image. Next, the selection number N stored in the RAM 23 is set to “0” (S43). All objects 50 (see FIG. 4) stored in the HDD 24 are called (S45), and an object selection screen is displayed on the touch panel 30 (S47).

オブジェクト選択画面は、ステップS45で呼び出されたオブジェクトのうちで、ラベル画像上に配置するオブジェクトをユーザに選択させるための画面である。図9に例示するオブジェクト選択画面70は、ステップS45で呼び出されたオブジェクト50(図4参照)が選択可能に表示される選択領域72と、選択領域72で選択されたオブジェクトが表示される作業領域71とを含む。   The object selection screen is a screen for allowing the user to select an object to be arranged on the label image among the objects called in step S45. The object selection screen 70 illustrated in FIG. 9 includes a selection area 72 in which the object 50 (see FIG. 4) called in step S45 is displayed so as to be selectable, and a work area in which the object selected in the selection area 72 is displayed. 71.

タッチパネル30に表示されたオブジェクト選択画面において、オブジェクトが選択されたか否かが判断される(S49)。オブジェクトが選択された場合(S49:YES)、選択されたオブジェクトが選択リストに追加され(S51)、選択数Nが「1」加算される(S53)。例えば、オブジェクト選択画面70において、ユーザが選択領域72でオブジェクト50(図4参照)を選択すると、選択されたオブジェクト50は作業領域71に表示されるとともに、RAM23の選択リストに追加される。   It is determined whether an object has been selected on the object selection screen displayed on the touch panel 30 (S49). When an object is selected (S49: YES), the selected object is added to the selection list (S51), and the selection number N is incremented by “1” (S53). For example, when the user selects the object 50 (see FIG. 4) in the selection area 72 on the object selection screen 70, the selected object 50 is displayed in the work area 71 and added to the selection list in the RAM 23.

図9に示す例では、計4つのオブジェクト50A〜50Dが選択リストに追加されたものとする。オブジェクト50Aは、コンテンツ「Taro Kimura」、種類「TEXT」、属性「名前」を有する。オブジェクト50Bは、コンテンツ「Nagoya−shi」、種類「TEXT」、属性「住所1」を有する。オブジェクト50Cは、コンテンツ「Mizuho−ku」、種類「TEXT」、属性「住所2」を有する。オブジェクト50Dは、コンテンツ「Taro Kimuraの画像データ」、種類「IMAGE」、属性「顔」を有する。   In the example shown in FIG. 9, it is assumed that a total of four objects 50A to 50D are added to the selection list. The object 50A has the content “Taro Kimura”, the type “TEXT”, and the attribute “name”. The object 50B has the content “Nagoya-shi”, the type “TEXT”, and the attribute “address 1”. The object 50C has content “Mizuho-ku”, type “TEXT”, and attribute “address 2”. The object 50D has a content “Image data of Taro Kimura”, a type “IMAGE”, and an attribute “face”.

オブジェクトの選択がない場合(S49:NO)、オブジェクトの選択終了であるか否かが判断される(S55)。例えばユーザがオブジェクト選択画面70で終了キーを押下すると、オブジェクトの選択終了であると判断されて(S55:YES)、処理は画像編集処理(図5)に戻る。選択終了でない場合(S55:NO)、またはステップS53の実行後、処理はステップS49に戻る。   When there is no selection of an object (S49: NO), it is judged whether it is the end of selection of an object (S55). For example, when the user presses the end key on the object selection screen 70, it is determined that the selection of the object is completed (S55: YES), and the process returns to the image editing process (FIG. 5). If the selection is not finished (S55: NO), or after execution of step S53, the process returns to step S49.

図10に示すように、オブジェクト配置処理(S7)では、まずRAM23に記憶されている変数Xに「1」が設定される(S61)。次いで、変数Xが選択数N以下であるか否かが判断される(S63)。変数Xが選択数N以下である場合(S63:YES)、選択リストに変数Xが示す順序で追加されたオブジェクト(以下、X番目オブジェクトという。)の座標ありか否かが判断される(S65)。具体的には、HDD24に記憶されているX番目オブジェクトに座標が設定されている場合、X番目オブジェクトの座標ありと判断されて(S65:YES)、X番目オブジェクトの座標(X1、Y1;X2、Y2)がRAM23上に取得される(S67)。   As shown in FIG. 10, in the object placement process (S7), first, “1” is set to the variable X stored in the RAM 23 (S61). Next, it is determined whether or not the variable X is equal to or less than the selection number N (S63). If the variable X is less than or equal to the selection number N (S63: YES), it is determined whether or not the coordinates of an object added to the selection list in the order indicated by the variable X (hereinafter referred to as the Xth object) are present (S65). ). Specifically, when coordinates are set for the Xth object stored in the HDD 24, it is determined that the coordinates of the Xth object are present (S65: YES), and the coordinates of the Xth object (X1, Y1; X2). , Y2) is acquired on the RAM 23 (S67).

X番目オブジェクトの座標がない場合(S65:NO)。X番目オブジェクトと同じ種類および属性を定義するレイアウト情報(以下、同属性レイアウトという。)の座標ありか否かが判断される(S69)。具体的には、HDD24に記憶されているレイアウト情報40(図3参照)のうちで、X番目オブジェクトに対応する同属性レイアウトが存在し、且つその同属性レイアウトに座標が設定されている場合、同属性レイアウトの座標ありと判断される(S69:YES)。この場合、同属性レイアウトの座標(X1、Y1;X2、Y2)がRAM23上に取得される(S71)。   When there is no coordinate of the Xth object (S65: NO). It is determined whether or not there is a coordinate of layout information (hereinafter referred to as the same attribute layout) that defines the same type and attribute as the Xth object (S69). Specifically, in the layout information 40 (see FIG. 3) stored in the HDD 24, when the same attribute layout corresponding to the Xth object exists and coordinates are set in the same attribute layout, It is determined that there is a coordinate with the same attribute layout (S69: YES). In this case, the coordinates (X1, Y1; X2, Y2) of the same attribute layout are acquired on the RAM 23 (S71).

一方、同属性レイアウトの座標がない場合(S69:NO)、所定の初期座標(X1、Y1;X2、Y2)がRAM23上に取得される(S73)。初期座標は、上記の処理で座標が取得されなかったX番目オブジェクトに自動付与される座標情報である。初期座標が示す左上頂点の座標(X1、Y1)は、ラベル画像上の原点座標(0、0)である。初期座標が示す右下頂点の座標(X2、Y2)は、ステップS27で生成されたサイズのX番目オブジェクトを、その左上頂点がラベル画像の左上隅部と一致するようにラベル画像上に配置した場合における、X番目オブジェクトの右下頂点の位置を示す座標である。   On the other hand, when there is no coordinate with the same attribute layout (S69: NO), predetermined initial coordinates (X1, Y1; X2, Y2) are acquired on the RAM 23 (S73). The initial coordinates are coordinate information that is automatically given to the Xth object whose coordinates have not been acquired by the above processing. The coordinates (X1, Y1) of the upper left vertex indicated by the initial coordinates are the origin coordinates (0, 0) on the label image. For the coordinates (X2, Y2) of the lower right vertex indicated by the initial coordinates, the Xth object having the size generated in step S27 is arranged on the label image so that the upper left vertex coincides with the upper left corner of the label image. In this case, the coordinates indicate the position of the lower right vertex of the Xth object.

例えば、X番目オブジェクトがオブジェクト50A(図9参照)である場合を想定する。HDD24のオブジェクト50Aに座標が設定されている場合、その座標(図4の例では、左上頂点の座標(100,80)および右下頂点の座標(250,120))が取得される(S67)。オブジェクト50Aに座標が設定されていない場合、HDD24の同属性レイアウト(すなわち、種類「TEXT」、属性「名前」のレイアウト情報40)に定義されている座標(図3の例では、左上頂点の座標(100,80)および右下頂点の座標(250,120))が取得される(S71)。同属性レイアウトの座標がない場合、仮に生成時のオブジェクト50Aが縦サイズ「40ピクセル」、横サイズ「150ピクセル」であれば、初期座標(すなわち、左上頂点の座標(0,0)および右下頂点の座標(150,40))が取得される(S73)。   For example, it is assumed that the Xth object is an object 50A (see FIG. 9). When coordinates are set in the object 50A of the HDD 24, the coordinates (in the example of FIG. 4, the coordinates of the upper left vertex (100, 80) and the coordinates of the lower right vertex (250, 120)) are acquired (S67). . If no coordinates are set for the object 50A, the coordinates defined in the same attribute layout of the HDD 24 (ie, the layout information 40 of the type “TEXT” and the attribute “name”) (in the example of FIG. 3, the coordinates of the upper left vertex) (100, 80) and coordinates of the lower right vertex (250, 120)) are acquired (S71). If there is no coordinate with the same attribute layout, if the object 50A at the time of generation is the vertical size “40 pixels” and the horizontal size “150 pixels”, the initial coordinates (that is, the coordinates (0, 0) of the upper left vertex and the lower right) Vertex coordinates (150, 40)) are acquired (S73).

ステップS67、S71、S73のいずれかの実行後、RAM23上に取得された座標に従って、X番目オブジェクトがラベル画像上に配置される(S75)。その後、変数Xが「1」加算されて(S77)、処理はステップS63に戻る。これにより、変数Xが選択数Nを超えるまでステップS65〜S77が繰り返し実行されて、選択リストに追加された全てのオブジェクトがラベル画像上に配置される。変数Xが選択数Nを超えた場合(S63:NO)、処理は画像編集処理(図5)に戻る。   After execution of any of steps S67, S71, and S73, the Xth object is placed on the label image according to the coordinates acquired on the RAM 23 (S75). Thereafter, the variable X is incremented by “1” (S77), and the process returns to step S63. Thereby, steps S65 to S77 are repeatedly executed until the variable X exceeds the selection number N, and all the objects added to the selection list are arranged on the label image. When the variable X exceeds the selection number N (S63: NO), the process returns to the image editing process (FIG. 5).

図11に示すように、オブジェクト編集処理(S9)では、まずオブジェクト編集画面がタッチパネル30に表示される(S81)。オブジェクト編集画面は、ラベル画像上に配置されたオブジェクトをユーザに編集(例えば、オブジェクトの位置やサイズの変更等)させるための画面である。図12に例示するオブジェクト編集画面80は、印刷装置10に印刷させるラベルを表したラベル画像100を含む。ラベル画像100上には、オブジェクト配置処理(S7)で配置されたオブジェクト(図9に例示するオブジェクト50A〜50D)が表示されている。   As shown in FIG. 11, in the object editing process (S9), an object editing screen is first displayed on the touch panel 30 (S81). The object editing screen is a screen for allowing the user to edit the object arranged on the label image (for example, change the position and size of the object). An object editing screen 80 illustrated in FIG. 12 includes a label image 100 representing a label to be printed by the printing apparatus 10. On the label image 100, the objects (objects 50A to 50D illustrated in FIG. 9) arranged in the object arrangement process (S7) are displayed.

本実施形態では、コンテンツ入力画面60(図7参照)は、オブジェクトの入力操作を容易にするために縦長矩形状の表示領域を有する。縦長矩形状の本体部29を傾けていない状態で、タッチパネル30の上下方向および左右方向がそれぞれ長手方向および短手方向となる。したがって、ユーザはオブジェクト入力時に本体部29を傾けずにタッチパネル30を操作する。同様に、オブジェクト選択画面70(図9参照)はオブジェクトの選択操作を容易にするために縦長矩形状の表示領域を有するため、ユーザはオブジェクト選択時に本体部29を傾けずにタッチパネル30を操作する。   In the present embodiment, the content input screen 60 (see FIG. 7) has a vertically long rectangular display area to facilitate an object input operation. In the state where the vertically long rectangular main body 29 is not inclined, the vertical direction and the horizontal direction of the touch panel 30 are the longitudinal direction and the short direction, respectively. Therefore, the user operates the touch panel 30 without tilting the main body 29 when inputting an object. Similarly, since the object selection screen 70 (see FIG. 9) has a vertically long rectangular display area for facilitating the object selection operation, the user operates the touch panel 30 without tilting the main body 29 when selecting an object. .

一方、印刷装置10に印刷させるラベルは、その印刷方向に長い横長形状であることが多いため、ラベル画像100も横長形状であることが視認性を高めるために好ましい。そこで、横長形状のラベル画像100に合わせて、オブジェクト編集画面80(図12参照)も横長矩形状の表示領域を有する。よって、ユーザはオブジェクト編集時に本体部29を略90度傾けてタッチパネル30を操作する。   On the other hand, since the label to be printed by the printing apparatus 10 is often in a horizontally long shape in the printing direction, the label image 100 is also preferably in a horizontally long shape in order to improve visibility. Therefore, the object editing screen 80 (see FIG. 12) also has a horizontally long rectangular display area in accordance with the horizontally long label image 100. Therefore, the user operates the touch panel 30 by tilting the main body 29 by approximately 90 degrees during object editing.

ステップS81の実行後、オブジェクトの編集終了であるか否かが判断される(S83)。例えばユーザがオブジェクト編集画面80で終了キーを押下すると、オブジェクトの編集終了であると判断されて(S83:YES)、処理は画像編集処理(図5)に戻る。一方、オブジェクトの編集終了でない場合(S83:NO)、オブジェクトの選択ありか否かが判断される(S85)。例えば、ユーザがオブジェクト編集画面80でラベル画像100上に配置されているオブジェクトのいずれかを選択すると、オブジェクトの選択ありと判断される(S85:YES)。この場合、選択されたオブジェクト(以下、選択オブジェクトという。)が処理対象として取得される(S87)。   After execution of step S81, it is determined whether or not the editing of the object is finished (S83). For example, when the user presses the end key on the object edit screen 80, it is determined that the object has been edited (S83: YES), and the process returns to the image edit process (FIG. 5). On the other hand, if the editing of the object is not finished (S83: NO), it is determined whether or not the object is selected (S85). For example, when the user selects any of the objects arranged on the label image 100 on the object editing screen 80, it is determined that the object is selected (S85: YES). In this case, the selected object (hereinafter referred to as a selected object) is acquired as a processing target (S87).

次いで、選択オブジェクトの編集操作ありか否かが判断される(S89)。例えば、ユーザがオブジェクト編集画面80で選択オブジェクトの位置又はサイズを変更する操作を行うと、選択オブジェクトの編集操作ありと判断される(S89:YES)。この場合、HDD24に記憶されている選択オブジェクトの座標が、選択オブジェクトの編集操作に応じて更新される(S91)。HDD24に記憶されている選択オブジェクトの同属性レイアウトの座標が、選択オブジェクトの編集操作に応じて更新される(S93)。選択オブジェクトの編集操作に応じて、選択オブジェクトがオブジェクト編集画面上で再配置されるように、ラベル画像の表示更新が行われる(S95)。   Next, it is determined whether or not there is an editing operation for the selected object (S89). For example, when the user performs an operation for changing the position or size of the selected object on the object editing screen 80, it is determined that there is an editing operation for the selected object (S89: YES). In this case, the coordinates of the selected object stored in the HDD 24 are updated according to the editing operation of the selected object (S91). The coordinates of the same attribute layout of the selected object stored in the HDD 24 are updated according to the editing operation of the selected object (S93). In accordance with the editing operation of the selected object, the display of the label image is updated so that the selected object is rearranged on the object editing screen (S95).

図12に例示するオブジェクト編集画面80において、選択オブジェクトがオブジェクト50Aである場合を想定する。ユーザは指を用いた公知のドラッグ操作で、ラベル画像100上に配置されているオブジェクト50Aの位置やサイズを自由に変更できる。この場合、HDD24のオブジェクト50Aに設定されている座標が、変更後のオブジェクト50Aの座標で更新される(S91)。HDD24の同属性レイアウト(すなわち、種類「TEXT」、属性「名前」のレイアウト情報40)に定義されている座標が、変更後のオブジェクト50Aの座標で更新される(S93)。ラベル画像100上で表示されるオブジェクト50Aの位置やサイズが、ユーザ操作に応じて変更される(S95)。   Assume that the selected object is an object 50A on the object editing screen 80 illustrated in FIG. The user can freely change the position and size of the object 50A arranged on the label image 100 by a known drag operation using a finger. In this case, the coordinates set in the object 50A of the HDD 24 are updated with the coordinates of the changed object 50A (S91). The coordinates defined in the same attribute layout of the HDD 24 (that is, the layout information 40 of the type “TEXT” and the attribute “name”) are updated with the coordinates of the changed object 50A (S93). The position and size of the object 50A displayed on the label image 100 are changed according to the user operation (S95).

ステップS95の実行後、処理はステップS83に戻る。オブジェクトの選択がない場合(S85:NO)、または選択オブジェクトの編集操作がない場合も(S89:NO)、処理はステップS83に戻る。これにより、オブジェクトの編集終了まで、ステップS85〜S95が繰り返し実行されて、ラベル画像100上に配置されたオブジェクトが編集される。   After execution of step S95, the process returns to step S83. If no object is selected (S85: NO), or if there is no editing operation for the selected object (S89: NO), the process returns to step S83. Thereby, steps S85 to S95 are repeatedly executed until the editing of the object is completed, and the object arranged on the label image 100 is edited.

図5に戻る。ステップS9でオブジェクトが編集された現在のラベル画像に基づいて、画像データが生成され、HDD24に保存される(S11)。次いで、印刷するか否かが判断される(S13)。例えばタッチパネル30から印刷実行が指示された場合、印刷すると判断されて(S13:YES)、ステップS11の画像データに基づいて生成された印刷コマンドが、ケーブル2を介して印刷装置10に送信される(S15)。印刷装置10では、図12に示すラベル画像100と同様のラベルが作成される。本実施形態では、編集用アプリケーションが公知のプリンタドライバ機能を有しており、上記の印刷コマンドは編集用アプリケーションによって生成される。印刷しない場合(S13:NO)、またはステップS15の実行後、画像編集処理(図5)が終了される。   Returning to FIG. Based on the current label image with the object edited in step S9, image data is generated and stored in the HDD 24 (S11). Next, it is determined whether or not to print (S13). For example, when printing execution is instructed from the touch panel 30, it is determined that printing is performed (S 13: YES), and a print command generated based on the image data in step S 11 is transmitted to the printing apparatus 10 via the cable 2. (S15). In the printing apparatus 10, a label similar to the label image 100 shown in FIG. 12 is created. In this embodiment, the editing application has a known printer driver function, and the print command is generated by the editing application. When not printing (S13: NO), or after executing step S15, the image editing process (FIG. 5) is terminated.

上記の印刷システム1において、図12に示すラベル画像100の作成後に、ラベル画像100と同一レイアウトで内容が異なるラベル画像110(図13参照)を作成する場合を説明する。例えば、オブジェクト生成処理(図6)で新規オブジェクト50E、50Fを作成し、オブジェクト選択処理(図8)で4つのオブジェクト50B、50C、50E、50Fを選択した場合を想定する。オブジェクト50Eは、コンテンツ「Hanako Yamada」、種類「TEXT」、属性「名前」を有する。オブジェクト50Fは、コンテンツ「Hanako Yamadaの画像データ」、種類「IMAGE」、属性「顔」を有する。   In the printing system 1 described above, a case will be described in which after the label image 100 shown in FIG. 12 is created, a label image 110 (see FIG. 13) having the same layout and different contents as the label image 100 is created. For example, it is assumed that new objects 50E and 50F are created by the object generation process (FIG. 6) and four objects 50B, 50C, 50E and 50F are selected by the object selection process (FIG. 8). The object 50E has content “Hanako Yamada”, type “TEXT”, and attribute “name”. The object 50F has a content “Hanako Yamada image data”, a type “IMAGE”, and an attribute “face”.

この場合、HDD24に記憶される新規オブジェクト50E、50Fには座標が設定されていないが、既存のオブジェクト50B、50Cには座標が設定されている。よって、オブジェクト配置処理(図9)では、新規オブジェクト50Eは、対応する同属性レイアウト(種類「TEXT」、属性「名前」のレイアウト情報40)の座標に配置される(S71、S75)。新規オブジェクト50Fは、対応する同属性レイアウト(種類「IMAGE」、属性「顔」のレイアウト情報40)の座標に配置される(S71、S75)。オブジェクト50B、50Cは、それぞれラベル画像100上で配置された座標に配置される(S67、S75)。   In this case, coordinates are not set for the new objects 50E and 50F stored in the HDD 24, but coordinates are set for the existing objects 50B and 50C. Therefore, in the object placement process (FIG. 9), the new object 50E is placed at the coordinates of the corresponding attribute layout (layout information 40 of the type “TEXT” and the attribute “name”) (S71, S75). The new object 50F is arranged at the coordinates of the corresponding attribute layout (type “IMAGE”, layout information 40 of the attribute “face”) (S71, S75). The objects 50B and 50C are arranged at the coordinates arranged on the label image 100, respectively (S67, S75).

その結果、オブジェクト編集処理(図11)では、図13に示すオブジェクト編集画面80が表示される。図13のオブジェクト編集画面80では、ラベル画像100と同一レイアウトでオブジェクト50B、50C、50E、50Fが配置されたラベル画像110が表示される。したがって、このラベル画像110を印刷することで、ユーザはラベル画像110に配置されたオブジェクトを編集することなく、ラベル画像100と同一レイアウトで内容が異なるラベルを作成することができる。   As a result, in the object editing process (FIG. 11), the object editing screen 80 shown in FIG. 13 is displayed. In the object editing screen 80 of FIG. 13, a label image 110 in which objects 50B, 50C, 50E, and 50F are arranged in the same layout as the label image 100 is displayed. Therefore, by printing the label image 110, the user can create a label having the same layout as the label image 100 but different contents without editing the object arranged in the label image 110.

以上説明したように、本実施形態によれば、ユーザがコンテンツ入力画面60(図7)でキー画像62から所定単位のキャラクタまたは装飾画像を入力すると、オブジェクトが生成される。コンテンツ入力画面60の終了後に表示されるオブジェクト選択画面70(図9)で、ユーザがラベル画像100に配置するオブジェクトを選択すると、選択されたオブジェクトがラベル画像100上に所定パターンで配置される。オブジェクト選択画面70(図9)の終了後に表示されるオブジェクト編集画面80で、ユーザがラベル画像100上でオブジェクトの位置およびサイズの少なくとも一方を変更すると、ラベル画像100が変更後のオブジェクトに基づいて更新される。   As described above, according to the present embodiment, when a user inputs a predetermined unit of character or decoration image from the key image 62 on the content input screen 60 (FIG. 7), an object is generated. When the user selects an object to be placed on the label image 100 on the object selection screen 70 (FIG. 9) displayed after the content input screen 60 ends, the selected object is placed on the label image 100 in a predetermined pattern. When the user changes at least one of the position and size of the object on the label image 100 on the object editing screen 80 displayed after the end of the object selection screen 70 (FIG. 9), the label image 100 is based on the changed object. Updated.

このように、オブジェクトの入力、選択、変更という機能別に構成されたコンテンツ入力画面60、オブジェクト選択画面70、オブジェクト編集画面80が順次表示され、ユーザは各画面に必要な情報を入力するだけで、ラベル画像100を自由に編集できる。機能別に構成され各画面は、それぞれ狭い表示領域で構成できる。したがって、狭い表示領域でラベル編集を行うユーザの操作負担を小さくして、画像編集の作業効率を向上できる。言い換えると、上記の画像編集は、狭い作業領域を用いた単純な操作で行えるため、高機能の操作部や大型の表示部は要しない。そのため、小型のディスプレイを備えたコンピュータ端末(例えば、スマートフォン、携帯電話、PDAなど)であっても、正確かつ容易に画像編集を行うことができ、ひいては画像編集時の操作負担を抑制することができる。   In this way, the content input screen 60, the object selection screen 70, and the object editing screen 80 configured according to the functions of input, selection, and change of objects are sequentially displayed, and the user simply inputs necessary information on each screen. The label image 100 can be freely edited. Each screen can be configured with a narrow display area. Therefore, it is possible to reduce the operation burden on the user who performs label editing in a narrow display area and improve the work efficiency of image editing. In other words, the image editing described above can be performed with a simple operation using a narrow work area, so that a highly functional operation unit and a large display unit are not required. Therefore, even a computer terminal (for example, a smart phone, a mobile phone, a PDA, etc.) equipped with a small display can perform image editing accurately and easily, thereby suppressing the operation burden during image editing. it can.

また、オブジェクト選択画面70は、HDD24に記憶されているオブジェクト(図4に示すオブジェクト50)を選択可能に表示する画面である。したがって、過去に作成したオブジェクトを利用して、効率的に画像編集を行うことができる。   The object selection screen 70 is a screen that displays an object (the object 50 shown in FIG. 4) stored in the HDD 24 so as to be selectable. Therefore, image editing can be efficiently performed using an object created in the past.

また、HDD24に記憶されている位置サイズ情報(図4に示すオブジェクト50、または図3に示すレイアウト情報40)に定義されている座標(つまり、位置およびサイズ)で、ラベル画像100上にオブジェクトが配置される。つまり、ラベル画像100に配置した実績のあるオブジェクトは、前回と同一の座標に配置される。また、ラベル画像100に配置した実績のあるオブジェクトと同一属性のオブジェクトは、同一属性のオブジェクトに共通の座標に配置される。したがって、過去に作成したオブジェクトを使用して画像編集するときに、オブジェクトを適正位置に配置する手間を減らすことができる。   Further, an object is displayed on the label image 100 at coordinates (that is, position and size) defined in the position size information (the object 50 shown in FIG. 4 or the layout information 40 shown in FIG. 3) stored in the HDD 24. Be placed. That is, the proven object placed in the label image 100 is placed at the same coordinates as the previous time. In addition, an object having the same attribute as a proven object arranged in the label image 100 is arranged at a common coordinate with an object having the same attribute. Accordingly, when editing an image using an object created in the past, it is possible to reduce the trouble of arranging the object at an appropriate position.

また、オブジェクト選択画面70で選択されたオブジェクトが、その属性に対応する位置サイズ情報(図3に示すレイアウト情報40)が定義する座標(つまり、位置およびサイズ)で配置される。この場合、同一属性のオブジェクトは同一の座標に配置されるため、同一レイアウトで異なる内容の画像を編集するときに、ユーザの操作負担を軽減することができる。   Further, the object selected on the object selection screen 70 is arranged at coordinates (that is, position and size) defined by position size information (layout information 40 shown in FIG. 3) corresponding to the attribute. In this case, since objects having the same attribute are arranged at the same coordinates, it is possible to reduce a user's operation burden when editing images having different contents in the same layout.

また、オブジェクト編集画面80で位置およびサイズの少なくとも一方が変更されたオブジェクトの属性に対応する位置サイズ情報(図3に示すレイアウト情報40)は、変更後のオブジェクトに基づいて更新される。これにより、変更後のオブジェクトと同一属性を有するオブジェクトを用いて画像編集するときに、オブジェクトを適正位置に配置する手間を減らすことができる。   Also, the position size information (layout information 40 shown in FIG. 3) corresponding to the attribute of the object whose position and / or size has been changed on the object editing screen 80 is updated based on the changed object. Thereby, when editing an image using an object having the same attribute as that of the changed object, it is possible to reduce the trouble of arranging the object at an appropriate position.

また、オブジェクト編集画面80は、タッチパネル30の矩形状の表示領域の長手方向および短手方向がそれぞれラベル画像100の長手方向および短手方向と一致する態様で、タッチパネル30にラベル画像を表示する画面である。したがって、ラベル画像100を効率的かつ正確に編集することができる。   Further, the object editing screen 80 is a screen for displaying a label image on the touch panel 30 such that the longitudinal direction and the short direction of the rectangular display area of the touch panel 30 match the longitudinal direction and the short direction of the label image 100, respectively. It is. Therefore, the label image 100 can be edited efficiently and accurately.

また、印刷実行が指示された場合、画像データを印刷させるコマンドが、印刷装置10に送信される。したがって、印刷装置10で印刷させる画像データを、携帯端末20で編集することができる。特に、小型のラベルプリンタである印刷装置10を携行する場合、ユーザは移動先で携帯端末20を印刷装置10に接続してラベルの編集及び作成を行うことができる。   When printing execution is instructed, a command for printing image data is transmitted to the printing apparatus 10. Therefore, the image data to be printed by the printing apparatus 10 can be edited by the portable terminal 20. In particular, when carrying the printing apparatus 10 which is a small label printer, the user can edit and create a label by connecting the portable terminal 20 to the printing apparatus 10 at a destination.

上記実施形態において、携帯端末20が、本発明の「画像処理装置」に相当する。ステップS21を実行するCPU21が、本発明の「第一画面制御手段」に相当する。ステップS27を実行するCPU21が、本発明の「オブジェクト生成手段」に相当する。ステップS5を実行するCPU21が、本発明の「第二画面制御手段」に相当する。ステップS7を実行するCPU21が、本発明の「オブジェクト配置手段」に相当する。ステップS81を実行するCPU21が、本発明の「第三画面制御手段」に相当する。ステップS95を実行するCPU21が、本発明の「ラベル画像更新手段」に相当する。HDD24が、本発明の「オブジェクト記憶手段」および「位置サイズ記憶手段」に相当する。ステップS93を実行するCPU21が、本発明の「位置サイズ更新手段」に相当する。ステップS15を実行するCPU21が、本発明の「コマンド送信手段」に相当する。   In the above embodiment, the mobile terminal 20 corresponds to the “image processing apparatus” of the present invention. The CPU 21 that executes step S21 corresponds to the “first screen control means” of the present invention. The CPU 21 that executes step S27 corresponds to the “object generation means” of the present invention. The CPU 21 that executes step S5 corresponds to the “second screen control means” of the present invention. The CPU 21 that executes step S7 corresponds to the “object placement means” of the present invention. The CPU 21 executing step S81 corresponds to the “third screen control means” of the present invention. The CPU 21 that executes step S95 corresponds to the “label image updating means” of the present invention. The HDD 24 corresponds to “object storage means” and “position size storage means” of the present invention. The CPU 21 that executes step S93 corresponds to the “position size update unit” of the present invention. The CPU 21 executing step S15 corresponds to the “command transmission unit” of the present invention.

編集用アプリケーションが、本発明の「画像処理プログラム」に相当する。ステップS21が、本発明の「第一画面制御ステップ」に相当する。ステップS27が、本発明の「オブジェクト生成ステップ」に相当する。ステップS5が、本発明の「第二画面制御ステップ」に相当する。ステップS7が、本発明の「オブジェクト配置ステップ」に相当する。ステップS81が、本発明の「第三画面制御ステップ」に相当する。ステップS95が、本発明の「ラベル画像更新ステップ」に相当する。   The editing application corresponds to the “image processing program” of the present invention. Step S21 corresponds to the “first screen control step” of the present invention. Step S27 corresponds to the “object generation step” of the present invention. Step S5 corresponds to the “second screen control step” of the present invention. Step S7 corresponds to the “object placement step” of the present invention. Step S81 corresponds to the “third screen control step” of the present invention. Step S95 corresponds to the “label image update step” of the present invention.

本発明は、上記実施形態に限定されるものではなく、種々の変更が可能である。上記実施形態では、携帯端末20が画像処理装置である場合を例示したが、画像処理装置は大型のタッチパネルを備えたコンピュータ機器(例えば、PCなど)であってもよい。また、上記実施形態では、オブジェクトやラベル画像が矩形状である場合を例示したが、オブジェクトやラベル画像は円形、多角形、星型などの各種形状を用いることができる。   The present invention is not limited to the above embodiment, and various modifications can be made. In the above embodiment, the case where the portable terminal 20 is an image processing apparatus has been illustrated, but the image processing apparatus may be a computer device (for example, a PC) including a large touch panel. Moreover, although the case where the object and the label image are rectangular has been illustrated in the above embodiment, various shapes such as a circle, a polygon, and a star can be used for the object and the label image.

また、上記実施形態では、画像編集の具体例として、印刷装置10で印刷されるラベル画像100を編集する場合を例示したが、本発明は印刷およびラベル以外の用途に使用される画像の編集にも適用できる。なお、画像編集処理(図5)は、携帯端末20が印刷装置10に接続されていない状態でも、携帯端末20が単独で実行可能であることは言うまでもない。   In the above embodiment, as a specific example of image editing, the case where the label image 100 printed by the printing apparatus 10 is edited has been illustrated. However, the present invention can be used for editing images used for purposes other than printing and labeling. Is also applicable. It goes without saying that the image editing process (FIG. 5) can be executed by the portable terminal 20 alone even when the portable terminal 20 is not connected to the printing apparatus 10.

1 印刷システム
10 印刷装置
20 携帯端末
40 レイアウト情報
50 オブジェクト
60 コンテンツ入力画面
62 キー画像
70 オブジェクト選択画面
80 オブジェクト編集画面
100 ラベル画像
110 ラベル画像
DESCRIPTION OF SYMBOLS 1 Printing system 10 Printing apparatus 20 Portable terminal 40 Layout information 50 Object 60 Content input screen 62 Key image 70 Object selection screen 80 Object edit screen 100 Label image 110 Label image

Claims (8)

ユーザが対話形式でラベル画像を編集するための複数の画面を切替え表示可能であり、且つ、表示中の前記画面に対する操作を検出するタッチパネルと、
少なくとも前記ラベル画像の編集開始が指示された場合、ユーザがキャラクタまたは装飾画像を入力するためのキー画像を含む第一画面を、前記タッチパネルに表示する第一画面制御手段と、
前記キー画像から入力された所定単位の前記キャラクタまたは前記装飾画像ごとに、前記ラベル画像に配置可能なオブジェクトを生成するオブジェクト生成手段と、
前記第一画面の終了が指示された場合、前記オブジェクト生成手段によって生成された前記オブジェクトから、ユーザが前記ラベル画像に配置する前記オブジェクトを選択可能な第二画面を、前記タッチパネルに表示する第二画面制御手段と、
前記第二画面で選択された前記オブジェクトを、所定パターンに沿って前記ラベル画像上に配置するオブジェクト配置手段と、
前記第二画面の終了が指示された場合、前記オブジェクト配置手段によって前記オブジェクトが配置された前記ラベル画像上で、ユーザが前記オブジェクトの位置およびサイズの少なくとも一方を変更可能な第三画面を、前記タッチパネルに表示する第三画面制御手段と、
前記第三画面で前記オブジェクトの位置およびサイズの少なくとも一方が変更されるのに伴って、前記第三画面に含まれる前記ラベル画像を、変更後の前記オブジェクトに基づいて更新するラベル画像更新手段と
を備えたことを特徴とする画像処理装置。
A touch panel that allows a user to switch and display a plurality of screens for editing a label image interactively, and detects an operation on the displayed screen;
A first screen control means for displaying on the touch panel a first screen including a key image for a user to input a character or a decoration image when an instruction to start editing at least the label image is given;
Object generating means for generating an object that can be placed on the label image for each of the character or the decorative image in a predetermined unit input from the key image;
When the end of the first screen is instructed, a second screen on which the user can select the object to be arranged on the label image from the object generated by the object generating means is displayed on the touch panel. Screen control means;
Object placement means for placing the object selected on the second screen on the label image along a predetermined pattern;
When the end of the second screen is instructed, a third screen on which the user can change at least one of the position and the size of the object on the label image on which the object is arranged by the object arranging unit, A third screen control means for displaying on the touch panel;
Label image update means for updating the label image included in the third screen based on the changed object as at least one of the position and size of the object is changed on the third screen. An image processing apparatus comprising:
前記オブジェクト生成手段によって生成された前記オブジェクトを記憶するオブジェクト記憶手段を備え、
前記第二画面は、前記オブジェクト記憶手段に記憶されている前記オブジェクトを選択可能に表示する画面であることを特徴とする請求項1に記載の画像処理装置。
Comprising object storage means for storing the object generated by the object generation means;
The image processing apparatus according to claim 1, wherein the second screen is a screen that displays the object stored in the object storage unit in a selectable manner.
前記ラベル画像に配置される前記オブジェクトの位置およびサイズを定義する位置サイズ情報を記憶する位置サイズ記憶手段と、
前記オブジェクト配置手段は、前記位置サイズ記憶手段に記憶されている前記位置サイズ情報に定義されている位置およびサイズで前記オブジェクトを配置することを特徴とする請求項1または2に記載の画像処理装置。
Position size storage means for storing position size information defining the position and size of the object arranged in the label image;
The image processing apparatus according to claim 1, wherein the object placement unit arranges the object at a position and a size defined in the position size information stored in the position size storage unit. .
前記位置サイズ情報は、前記オブジェクトの属性に対応付けて設けられており、
前記オブジェクト配置手段は、前記第二画面で選択された前記オブジェクトを、その前記属性に対応する前記位置サイズ情報が定義する位置およびサイズで配置することを特徴とする請求項3に記載の画像処理装置。
The position size information is provided in association with the attribute of the object,
The image processing according to claim 3, wherein the object arrangement unit arranges the object selected on the second screen at a position and a size defined by the position size information corresponding to the attribute. apparatus.
前記位置サイズ記憶手段に記憶されている前記位置サイズ情報のうちで、前記第三画面で位置およびサイズの少なくとも一方が変更された前記オブジェクトの属性に対応する前記位置サイズ情報を、変更後の前記オブジェクトに基づいて更新する位置サイズ更新手段を備えたことを特徴とする請求項4に記載の画像処理装置。   Among the position size information stored in the position size storage means, the position size information corresponding to the attribute of the object whose position and / or size has been changed on the third screen is changed to the changed position size information. The image processing apparatus according to claim 4, further comprising position size updating means for updating based on the object. 前記タッチパネルは、矩形状の表示領域を有し、
前記ラベル画像は、長尺状の媒体への印刷態様を示す画像であり、
前記第三画面は、前記矩形状の表示領域の長手方向および短手方向がそれぞれ前記ラベル画像の長手方向および短手方向と一致する態様で、前記タッチパネルに前記ラベル画像を表示する画面であることを特徴とする請求項1から5のいずれかに記載の画像処理装置。
The touch panel has a rectangular display area,
The label image is an image showing a printing mode on a long medium,
The third screen is a screen that displays the label image on the touch panel in such a manner that a longitudinal direction and a short direction of the rectangular display region coincide with a longitudinal direction and a short direction of the label image, respectively. The image processing apparatus according to claim 1, wherein:
前記画像処理装置は、印刷装置に接続される携帯端末であって、
前記第三画面の終了が指示された場合、前記第三画面に含まれる前記ラベル画像を印刷させるコマンドを、前記印刷装置に送信するコマンド送信手段を備えたことを特徴とする請求項1から6のいずれかに記載の画像処理装置。
The image processing apparatus is a portable terminal connected to a printing apparatus,
7. The apparatus according to claim 1, further comprising a command transmission unit configured to transmit a command for printing the label image included in the third screen to the printing apparatus when an instruction to end the third screen is given. An image processing apparatus according to any one of the above.
ユーザが対話形式でラベル画像を編集するための複数の画面を切替え表示可能であり、且つ、表示中の前記画面に対する操作を検出するタッチパネルを備えたコンピュータに、
少なくとも前記ラベル画像の編集開始が指示された場合、ユーザがキャラクタまたは装飾画像を入力するためのキー画像を含む第一画面を、前記タッチパネルに表示する第一画面制御ステップと、
前記キー画像から入力された所定単位の前記キャラクタまたは前記装飾画像ごとに、前記ラベル画像に配置可能なオブジェクトを生成するオブジェクト生成ステップと、
前記第一画面の終了が指示された場合、前記オブジェクト生成ステップによって生成された前記オブジェクトから、ユーザが前記ラベル画像に配置する前記オブジェクトを選択可能な第二画面を、前記タッチパネルに表示する第二画面制御ステップと、
前記第二画面で選択された前記オブジェクトを、所定パターンに沿って前記ラベル画像上に配置するオブジェクト配置ステップと、
前記第二画面の終了が指示された場合、前記オブジェクト配置ステップによって前記オブジェクトが配置された前記ラベル画像上で、ユーザが前記オブジェクトの位置およびサイズの少なくとも一方を変更可能な第三画面を、前記タッチパネルに表示する第三画面制御ステップと、
前記第三画面で前記オブジェクトの位置およびサイズの少なくとも一方が変更されるのに伴って、前記第三画面に含まれる前記ラベル画像を、変更後の前記オブジェクトに基づいて更新するラベル画像更新ステップと
を実行させることを特徴とする画像処理プログラム。
A computer that can switch and display a plurality of screens for a user to edit a label image in an interactive manner, and that includes a touch panel that detects an operation on the displayed screen,
A first screen control step of displaying, on the touch panel, a first screen including a key image for a user to input a character or a decoration image when an instruction to start editing at least the label image is given;
An object generation step of generating an object that can be placed on the label image for each of the character or the decoration image in a predetermined unit input from the key image;
When the end of the first screen is instructed, a second screen on which the user can select the object to be arranged on the label image from the objects generated by the object generation step is displayed on the touch panel. A screen control step;
An object placement step of placing the object selected on the second screen on the label image along a predetermined pattern;
When the end of the second screen is instructed, a third screen on which the user can change at least one of the position and the size of the object on the label image on which the object is arranged by the object placement step, A third screen control step for displaying on the touch panel;
A label image updating step of updating the label image included in the third screen based on the changed object as at least one of the position and size of the object is changed on the third screen; An image processing program for executing
JP2011181417A 2011-08-23 2011-08-23 Image processing apparatus and image processing program Active JP5708366B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011181417A JP5708366B2 (en) 2011-08-23 2011-08-23 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011181417A JP5708366B2 (en) 2011-08-23 2011-08-23 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2013045220A JP2013045220A (en) 2013-03-04
JP5708366B2 true JP5708366B2 (en) 2015-04-30

Family

ID=48009096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011181417A Active JP5708366B2 (en) 2011-08-23 2011-08-23 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5708366B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09240646A (en) * 1996-03-08 1997-09-16 Sato:Kk Character inputting method for label printer
JP3603539B2 (en) * 1997-04-30 2004-12-22 セイコーエプソン株式会社 Image display device
JPH11328167A (en) * 1998-05-15 1999-11-30 Fujitsu Ltd Data processor, data preparation method and storage medium
JP2000076231A (en) * 1998-08-31 2000-03-14 Brother Ind Ltd Record medium for production of output image data, output image data production device and printer
JP2004180246A (en) * 2002-11-29 2004-06-24 Toshiba It & Control Systems Corp Fixed wireless device and area information service system
US8681372B2 (en) * 2008-09-26 2014-03-25 Dymo Interactive display for label printer
JP2010224703A (en) * 2009-03-23 2010-10-07 Seiko Epson Corp Information processing apparatus, tape printer, and program

Also Published As

Publication number Publication date
JP2013045220A (en) 2013-03-04

Similar Documents

Publication Publication Date Title
JP5269851B2 (en) Image editing apparatus, image editing method and program thereof
JP6558640B2 (en) Image editing program and image editing apparatus
US8635523B2 (en) Layout editing device and computer program product
TW200807263A (en) Document editing systems and methods
US7017124B2 (en) Method for controlling electronic devices using digital recall tool
JP4697062B2 (en) Print data editing device
JP7097008B2 (en) Print processing program
JP5899694B2 (en) Layout editing apparatus and layout editing program
JP2012008884A (en) Editing device, and layout editing method and program in editing device
US9715643B2 (en) Label creation apparatus, label creation method, and label creation program
JP6536231B2 (en) Label producing apparatus, label producing method, and label producing program
JP5708366B2 (en) Image processing apparatus and image processing program
TW201303711A (en) Systems and methods for defining print settings using an input interface
JP5447398B2 (en) Printing device, control program, and editing program
JP7329957B2 (en) Virtual object display device and program
JP7163644B2 (en) PRINT IMAGE CREATION DEVICE, PRINT IMAGE CREATION METHOD, AND PROGRAM
JP6852680B2 (en) Editing equipment, editing programs, and storage media
JP2011156706A (en) Printing control program and print controller
JP6885243B2 (en) Computer program for terminal equipment
JP2001277651A (en) Method for displaying stamp figure and information input display
JP2009015717A (en) Form creation device, form creation method, program and storage medium
JP6011113B2 (en) Print control apparatus and print control program
JP2005286613A (en) Print data edit apparatus and print data edit program
JP2002354229A (en) Image forming method, image forming apparatus, and computer readable recording medium with image forming program stored thereon
JP2021082237A (en) Method for controlling display of application creation screen, program, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150216

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5708366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150