JP2020101459A - Information processing device, control method and control program - Google Patents

Information processing device, control method and control program Download PDF

Info

Publication number
JP2020101459A
JP2020101459A JP2018240144A JP2018240144A JP2020101459A JP 2020101459 A JP2020101459 A JP 2020101459A JP 2018240144 A JP2018240144 A JP 2018240144A JP 2018240144 A JP2018240144 A JP 2018240144A JP 2020101459 A JP2020101459 A JP 2020101459A
Authority
JP
Japan
Prior art keywords
information
combination information
unit
color
component value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018240144A
Other languages
Japanese (ja)
Inventor
孝介 小椋
Kosuke Ogura
孝介 小椋
暁子 平山
Akiko Hirayama
暁子 平山
華奈子 奥村
Kanako Okumura
華奈子 奥村
岩元 淳
Kiyoshi Iwamoto
淳 岩元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Pencil Co Ltd
Original Assignee
Mitsubishi Pencil Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Pencil Co Ltd filed Critical Mitsubishi Pencil Co Ltd
Priority to JP2018240144A priority Critical patent/JP2020101459A/en
Publication of JP2020101459A publication Critical patent/JP2020101459A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Spectrometry And Color Measurement (AREA)

Abstract

To provide an information processing device, control method, and control program that highly accurately identify a compounding ratio of an ink corresponding to a color of an object.SOLUTION: An information processing device according to the present invention comprises: an output unit; a first image acquisition unit that acquires a first image having a reference object and object photographed; a compounding information acquisition unit that acquires compounding information on an ink corresponding to a color of the reference object; a first identification unit that identifies a color component value of the reference object and a color component value of the object from the first image; a differential information calculation unit that calculates differential information indicative of a differential between the identified color component value of the reference object and the identified color component value of the object; a first compounding information identification unit that identifies the compounding information on the ink corresponding to the color of the object on the basis of the compounding information and differential information; and a first output control unit that outputs the identified compounding information on the object from the output unit.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、制御方法及び制御プログラムに関する。 The present invention relates to an information processing device, a control method, and a control program.

近年、ユーザの好みの色のインクを店頭において生成し、ユーザに販売するインク調色サービスが展開されている。このようなサービスにおいては、ユーザは、店頭に備えられた複数色のインクを任意の配合比率で配合することによってさまざまな色を調色する。そして、ユーザは、調色された色の中から好みの色を選択し、その色を調色した際のインクの配合比率で各色のインクを配合したインクを注文する。 In recent years, an ink color matching service has been developed in which ink of a user's favorite color is generated at a store and sold to the user. In such a service, the user mixes the inks of a plurality of colors provided in the store at an arbitrary mixing ratio to adjust various colors. Then, the user selects a desired color from the toned colors, and orders the ink in which the inks of the respective colors are blended at the blending ratio of the inks when the color is toned.

このようなサービスを利用するユーザの中には、あらかじめ所望の色を決定したうえで来店するユーザがいる。特に、ユーザの携行物に統一感を持たせるため、ユーザの携行物の色と同一の色のインクを購入したいという需要がある。このようなユーザは、所望の色のインクを購入するために、試行錯誤を重ねて携行物の色と同一の色のインクの配合比率を発見する必要がある。しかしながら、調色経験が豊富でないユーザにとって、インクを配合することによって所望の色を調色することは難しい。 Among users who use such services, there is a user who decides a desired color in advance and then comes to the store. In particular, there is a demand for purchasing ink of the same color as the color of the user's carry-on item in order to give the user's carry-on item a sense of unity. In order to purchase an ink of a desired color, such a user needs to repeat trial and error to find out the mixing ratio of the ink of the same color as the color of the carrying object. However, it is difficult for a user who is not very experienced in color matching to adjust a desired color by blending ink.

特許文献1には、基準色から色成分を異ならせた複数の色候補を示し、ユーザによって指定された色候補の色を実現する配合比率を提供することによって、ユーザが所望する色のインクの配合比率を提示する調色支援装置が開示されている。 Patent Document 1 shows a plurality of color candidates having different color components from the reference color, and provides a mixing ratio that realizes the color of the color candidate designated by the user, whereby the ink of the color desired by the user can be obtained. A toning support device that presents a blending ratio is disclosed.

特開2003−270044号公報JP, 2003-270044, A

しかしながら、特許文献1に記載の調色支援装置では、ユーザは、調色支援装置が示した色候補の中から所望の色に近い色を選択せざるを得ず、ユーザの携行物等の対象物の色と同一の色のインクの配合比率を提供することはできなかった。インク調色サービスでは、対象物の色により近い色のインクの配合比率等を表す配合情報を提供することが望まれている。 However, in the color matching support device described in Patent Document 1, the user is forced to select a color close to the desired color from the color candidates indicated by the color matching support device, and the target of the user's carry-on item or the like. It was not possible to provide an ink composition ratio of the same color as the product color. In the ink color matching service, it is desired to provide blending information indicating the blending ratio of ink of a color closer to the color of the target.

本発明は、このような課題を解決すべくなされたものであり、対象物の色に対応するインクの配合情報を高精度に特定することができる情報処理装置、制御方法及び制御プログラムを提供することを目的とする。 The present invention has been made to solve such a problem, and provides an information processing apparatus, a control method, and a control program that can specify the ink combination information corresponding to the color of an object with high accuracy. The purpose is to

本発明に係る情報処理装置は、出力部と、基準物と対象物とを撮像した第1画像を取得する第1画像取得部と、基準物の色に対応するインクの配合情報を取得する配合情報取得部と、第1画像から基準物の色成分値と対象物の色成分値とを特定する第1特定部と、特定された基準物の色成分値と対象物の色成分値との間の差分を示す差分情報を算出する差分情報算出部と、配合情報と差分情報とに基づいて、対象物の色に対応するインクの配合情報を特定する第1配合情報特定部と、特定された対象物の配合情報を出力部から出力する第1出力制御部と、を備える。 An information processing apparatus according to the present invention includes an output unit, a first image acquisition unit that acquires a first image of a reference object and an object, and a combination that acquires ink combination information corresponding to the color of the reference object. An information acquisition unit; a first specifying unit that specifies the color component value of the reference object and the color component value of the target object from the first image; and the color component value of the specified reference object and the color component value of the target object A difference information calculation unit that calculates difference information indicating a difference between the two, and a first combination information specifying unit that specifies combination information of the ink corresponding to the color of the object based on the combination information and the difference information. A first output control unit that outputs the combination information of the target object from the output unit.

また、本発明に係る情報処理装置は、少なくとも対象物を撮像した第2画像を取得する第2画像取得部と、第2画像から対象物の色成分値を特定する第2特定部と、第2画像から特定された対象物の色成分値に対応するインクの第2配合情報を特定する第2配合情報特定部と、第2配合情報特定部によって特定された第2配合情報を出力部から出力する第2出力制御部と、をさらに備え、第1画像取得部は、出力部から出力された第2配合情報に基づいて作成された基準物と対象物とを撮像した画像を第1画像として取得し、配合情報取得部は、出力部によって出力された第2配合情報を取得する、ことが好ましい。 Further, the information processing apparatus according to the present invention includes a second image acquisition unit that acquires at least a second image of an object, a second specification unit that specifies a color component value of the object from the second image, From the output unit, the second combination information specifying unit that specifies the second combination information of the ink corresponding to the color component value of the object specified from the two images and the second combination information specified by the second combination information specifying unit are output. And a second output control unit for outputting, wherein the first image acquisition unit is a first image obtained by capturing an image of the reference object and the target object created based on the second combination information output from the output unit. It is preferable that the combination information acquisition unit acquires the second combination information output by the output unit.

また、本発明に係る情報処理装置は、サンプル基準物の色に対応するインクの配合情報と、サンプル基準物の色成分値とサンプル対象物の色成分値との間の差分を示す差分情報とが入力された場合に、サンプル対象物の色に対応するインクの配合情報を出力するように事前学習された識別器をさらに備え、第1配合情報特定部は、基準物の配合情報と、基準物の色成分値及び対象物の色成分値とを識別器に入力したときに出力された配合情報を対象物の配合情報として取得することにより、前記対象物の配合情報を特定する、ことが好ましい。 Further, the information processing apparatus according to the present invention includes ink combination information corresponding to the color of the sample reference object, and difference information indicating a difference between the color component value of the sample reference object and the color component value of the sample target object. Further includes a discriminator pre-learned so as to output the ink composition information corresponding to the color of the sample target, and the first composition information identifying unit is configured to provide the reference composition information and the reference composition information. It is possible to specify the mixture information of the target object by acquiring the mixture information output when the color component value of the object and the color component value of the target object are input to the discriminator as the combination information of the target object. preferable.

また、本発明に係る制御方法は、情報処理装置の制御方法であって、基準物と対象物とを撮像した第1画像を取得し、基準物の色に対応するインクの配合情報を取得し、第1画像から基準物の色成分値と対象物の色成分値とを特定し、特定された基準物の色成分値と対象物の色成分値との間の差分を表す色差分情報を算出し、配合情報と色差分情報とに基づいて、対象物の色に対応するインクの配合情報を特定し、特定された配合情報を出力する、ことを含む。 A control method according to the present invention is a control method for an information processing apparatus, which acquires a first image of a reference object and an object, and acquires ink composition information corresponding to the color of the reference object. , The color component value of the reference object and the color component value of the target object are specified from the first image, and color difference information representing the difference between the color component value of the specified reference object and the color component value of the target object is obtained. And calculating the combination information of the ink corresponding to the color of the object based on the combination information and the color difference information, and outputting the specified combination information.

また、本発明に係る制御プログラムは、情報処理装置の制御プログラムであって、基準物と対象物とを撮像した第1画像を取得し、基準物の色に対応するインクの配合情報を取得し、第1画像から基準物の色成分値と対象物の色成分値とを特定し、特定された基準物の色成分値と対象物の色成分値との間の差分を表す色差分情報を算出し、配合情報と色差分情報とに基づいて、対象物の色に対応するインクの配合情報を特定し、特定された配合情報を出力する、ことを含むことを情報処理装置に実行させる。 Further, the control program according to the present invention is a control program for an information processing apparatus, and acquires a first image of a reference object and an object imaged, and acquires ink composition information corresponding to the color of the reference object. , The color component value of the reference object and the color component value of the target object are specified from the first image, and color difference information representing the difference between the color component value of the specified reference object and the color component value of the target object is obtained. The information processing apparatus is caused to perform the calculation, specify the ink combination information corresponding to the color of the object based on the combination information and the color difference information, and output the specified combination information.

本発明に係る情報処理装置、制御方法及び制御プログラムは、対象物の色に対応するインクの配合情報を高精度に特定することができる。 The information processing apparatus, the control method, and the control program according to the present invention can specify the ink combination information corresponding to the color of the object with high accuracy.

配合情報提示システムによる処理の概要を説明するための模式図である。It is a schematic diagram for explaining an outline of processing by the combination information presentation system. 配合情報提示システム1の概略構成の一例を示す図である。It is a figure which shows an example of a schematic structure of the combination information presentation system 1. 端末装置2の概略構成の一例を示す図である。It is a figure which shows an example of a schematic structure of the terminal device 2. サーバ装置3の概略構成の一例を示す図である。It is a figure which shows an example of a schematic structure of the server apparatus 3. (a)は、初期配合情報テーブル500のデータ構造の一例を示す図であり、(b)は、修正配合情報テーブル510のデータ構造の一例を示す図である。(A) is a figure which shows an example of a data structure of the initial combination information table 500, and (b) is a figure which shows an example of a data structure of a corrected combination information table 510. 配合情報提示システム1による処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of a process by the combination information presentation system 1. 配合情報提示システム1による処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of a process by the combination information presentation system 1. (a)は、第2位置特定画面800の一例を示す図であり、(b)は、第1位置特定画面810の一例を示す図である。(A) is a figure showing an example of the 2nd position specific screen 800, and (b) is a figure showing an example of the 1st position specific screen 810.

以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments, and extends to the inventions described in the claims and their equivalents.

(システムの概要)
図1は、本発明に係る配合情報提示システムによる処理の概要を説明するための模式図である。
(System overview)
FIG. 1 is a schematic diagram for explaining an outline of processing by the combination information presentation system according to the present invention.

まず、配合情報提示システムは、基準物と対象物とを撮像した第1画像を取得する。対象物は、ユーザがその対象物の色と同一の色のインクを所望している物であり、例えば、ユーザの携行物である。図1に示す例では、対象物は、ユーザが携行する鞄である。基準物は、所定の配合情報に基づいて複数の色のインクを配合して調色された色を含む物である。基準物は、例えば、パントン色見本帳である。 First, the composition information presentation system acquires a first image of a reference object and an object. The object is an object for which the user desires ink of the same color as that of the object, and is, for example, a user's carrying object. In the example shown in FIG. 1, the target object is a bag carried by the user. The reference product is a product including a color toned by mixing inks of a plurality of colors based on predetermined combination information. The reference item is, for example, a Pantone color sample book.

続いて、配合情報提示システムは、基準物の色に対応するインクの配合情報を取得する。基準物の色に対応するインクの配合情報は、例えば、その基準物の色を調色する際に用いられた複数の基準インクのそれぞれの体積又は配合比率を表す情報である。基準物の色に対応するインクの配合情報は、例えば、配合情報提示システムにあらかじめ記憶されている。基準インクは、あらかじめ定められた複数の異なる色のインクである。 Subsequently, the composition information presentation system acquires the composition information of the ink corresponding to the color of the reference material. The ink composition information corresponding to the color of the reference material is, for example, information indicating the volume or composition ratio of each of the plurality of reference inks used when the color of the reference material is toned. The ink composition information corresponding to the color of the reference material is stored in advance in, for example, the composition information presentation system. The reference ink is a plurality of inks of different predetermined colors.

続いて、配合情報提示システムは、第1画像から基準物の色成分値と対象物の色成分値とを特定する。配合情報提示システムは、例えば、第1画像における基準物の位置と対象物の位置とのユーザによる指定を受付け、第1画像内の指定された位置に対応する画素の色成分値を取得することで、基準物の色成分値と対象物の色成分値とを特定する。色成分値は、画素の色を一意に識別可能な情報であり、例えば、RGBの各色の階調値である。 Then, the combination information presentation system specifies the color component value of the reference object and the color component value of the target object from the first image. The combination information presentation system receives, for example, the user's designation of the position of the reference object and the position of the target object in the first image, and acquires the color component value of the pixel corresponding to the designated position in the first image. Then, the color component value of the reference object and the color component value of the object are specified. The color component value is information that can uniquely identify the color of the pixel, and is, for example, the gradation value of each color of RGB.

続いて、配合情報提示システムは、特定された基準物の色成分値と対象物の色成分値との間の差分を示す差分情報を算出する。配合情報提示システムは、例えば、RGBの各色について、対象物の色に対応する階調値から、基準物の色に対応する階調値を減算した減算値を差分情報として算出する。 Then, the combination information presentation system calculates difference information indicating a difference between the color component value of the specified reference object and the color component value of the target object. The combination information presentation system calculates a subtraction value obtained by subtracting the gradation value corresponding to the color of the reference object from the gradation value corresponding to the color of the target object as the difference information for each color of RGB.

続いて、配合情報提示システムは、取得された基準物の色に対応するインクの配合情報と算出された差分情報とに基づいて、対象物の色に対応するインクの配合情報を特定し、特定した配合情報を出力する。配合情報提示システムは、例えば、取得された基準物の色に対応するインクの配合情報から、算出された差分情報によって示される差分を考慮して対象物の色に対応するインクの配合情報を特定する。 Then, the composition information presentation system specifies the composition information of the ink corresponding to the color of the target object based on the acquired combination information of the ink corresponding to the color of the reference object and the calculated difference information, and specifies the combination information. The combined information is output. The composition information presentation system specifies the composition information of the ink corresponding to the color of the target object from the composition information of the ink corresponding to the color of the acquired reference object, in consideration of the difference indicated by the calculated difference information. To do.

なお、上述した図1の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。 The above description of FIG. 1 is merely for the purpose of deepening the understanding of the content of the present invention. The present invention is specifically implemented in each of the embodiments described below, and may be implemented by various modifications without substantially exceeding the principles of the present invention. All such modifications are within the scope of the invention and the disclosure herein.

(システムの構成)
図2は、配合情報提示システム1の概略構成の一例を示す図である。配合情報提示システム1は、端末装置2と、サーバ装置3を備える。
(System configuration)
FIG. 2 is a diagram showing an example of a schematic configuration of the combination information presentation system 1. The combination information presentation system 1 includes a terminal device 2 and a server device 3.

端末装置2は、例えば、ユーザによって所有され、カメラ等の撮像装置を有する多機能携帯電話(所謂「スマートフォン」)である。端末装置2は、カメラ等の撮像装置を有する携帯電話(所謂「フィーチャーフォン」)、携帯情報端末(Personal Digital Assistant,PDA)、タブレット端末、タブレットPC(Personal Computer)、携帯ゲーム機、携帯音楽プレイヤ又はノートPC等であってもよい。 The terminal device 2 is, for example, a multifunctional mobile phone (a so-called “smartphone”) owned by a user and having an imaging device such as a camera. The terminal device 2 is a mobile phone (so-called “feature phone”) having an imaging device such as a camera, a personal digital assistant (PDA), a tablet terminal, a tablet PC (Personal Computer), a portable game machine, a portable music player. Alternatively, it may be a notebook PC or the like.

サーバ装置3は、ワークステーション又はPC等の情報処理装置である。サーバ装置3は、所定の情報処理が可能な多機能携帯電話、タブレット端末等であってもよい。サーバ装置3は、ネットワーク4を介して、端末装置2と通信可能に接続される。ネットワーク4は、例えばインターネットである。ネットワーク4は、イントラネット、LAN(Local Area Network)等の他のネットワークを含んでもよい。なお、サーバ装置3は、情報処理装置の一例である。 The server device 3 is an information processing device such as a workstation or a PC. The server device 3 may be a multifunctional mobile phone, a tablet terminal or the like that can perform predetermined information processing. The server device 3 is communicatively connected to the terminal device 2 via the network 4. The network 4 is, for example, the Internet. The network 4 may include other networks such as an intranet and a LAN (Local Area Network). The server device 3 is an example of an information processing device.

(端末装置の構成)
図3は、端末装置2の概略構成の一例を示す図である。端末装置2は、端末通信部21と、端末記憶部22と、操作部23と、表示部24と、撮像部25と、端末処理部26とを備える。
(Configuration of terminal device)
FIG. 3 is a diagram showing an example of a schematic configuration of the terminal device 2. The terminal device 2 includes a terminal communication unit 21, a terminal storage unit 22, an operation unit 23, a display unit 24, an imaging unit 25, and a terminal processing unit 26.

端末通信部21は、ネットワーク4を介して端末装置2をサーバ装置3と通信可能にする通信インタフェース回路を備える。端末通信部21が備える通信インタフェース回路は、LTE(Long Term Evolution)又は無線LANの通信インタフェース回路等である。端末通信部21は、端末処理部26から供給されたデータをサーバ装置3に送信するとともに、サーバ装置3から送信されたデータを受信し、端末処理部26に供給する。 The terminal communication unit 21 includes a communication interface circuit that enables the terminal device 2 to communicate with the server device 3 via the network 4. The communication interface circuit included in the terminal communication unit 21 is an LTE (Long Term Evolution) or wireless LAN communication interface circuit or the like. The terminal communication unit 21 transmits the data supplied from the terminal processing unit 26 to the server device 3, receives the data transmitted from the server device 3, and supplies the data to the terminal processing unit 26.

端末記憶部22は、プログラムまたはデータを記憶するためのデバイスであり、例えば、半導体メモリ装置を備える。端末記憶部22は、端末処理部26による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、例えば、CD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記憶媒体から、公知のセットアッププログラム等を用いて端末記憶部22にインストールされる。 The terminal storage unit 22 is a device for storing programs or data, and includes, for example, a semiconductor memory device. The terminal storage unit 22 stores an operating system program, a driver program, an application program, data and the like used for the processing by the terminal processing unit 26. The program is installed in the terminal storage unit 22 from a computer-readable portable storage medium such as a CD-ROM or a DVD-ROM using a known setup program or the like.

操作部23は、ユーザによる端末装置2の操作を受付けるためのデバイスであり、例えば、キーパッド等である。操作部23は、後述する表示部24と一体化されたタッチパネルであってもよい。操作部23は、ユーザによる文字、数字、記号等の入力操作を受付ける。操作部23は、ユーザによる操作を受付けた場合、その操作に対応する信号を生成し、端末処理部26に供給する。 The operation unit 23 is a device for accepting an operation of the terminal device 2 by a user, and is, for example, a keypad or the like. The operation unit 23 may be a touch panel integrated with a display unit 24 described below. The operation unit 23 receives an input operation of characters, numbers, symbols and the like by the user. When the operation unit 23 receives an operation by the user, the operation unit 23 generates a signal corresponding to the operation and supplies the signal to the terminal processing unit 26.

表示部24は、端末装置2のユーザに対して画像等を表示するデバイスであり、例えば、液晶ディスプレイや有機ELディスプレイである。表示部24は、端末処理部26から供給されるデータに応じた画像等を表示する。 The display unit 24 is a device that displays an image or the like to the user of the terminal device 2, and is, for example, a liquid crystal display or an organic EL display. The display unit 24 displays an image or the like according to the data supplied from the terminal processing unit 26.

撮像部25は、結像光学系、撮像素子及び画像処理部等を備える。結像光学系は、例えば光学レンズであり、被写体からの光束を撮像素子の撮像面上に結像させる。撮像素子は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像信号を出力する。画像処理部は、撮像素子によって生成された画像信号から所定のファイル形式の画像データを生成して出力する。 The image pickup unit 25 includes an image forming optical system, an image pickup element, an image processing unit, and the like. The image forming optical system is, for example, an optical lens, and forms an image of the light flux from the subject on the image pickup surface of the image pickup element. The image pickup device is, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and outputs an image signal of a subject image formed on the image pickup surface. The image processing unit generates image data in a predetermined file format from the image signal generated by the image sensor and outputs the image data.

端末処理部26は、一又は複数個のプロセッサ及びその周辺回路を備える。端末処理部26は、例えばCPU(Central Processing Unit)であり、端末装置2の動作を統括的に制御する。なお、端末処理部26は、DSP(Digital Signal Processor)、LSI(Large-Scaled IC)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等であってもよい。端末処理部26は、端末記憶部22に記憶されているプログラムや操作部23の操作に基づいて端末装置2の各種処理が適切な手順で実行されるように、表示部24や端末通信部21の動作を制御する。端末処理部26は、端末記憶部22に記憶されているプログラムに基づいて処理を実行する。また、端末処理部26は、複数のプログラムを並列に実行することができる。 The terminal processing unit 26 includes one or more processors and their peripheral circuits. The terminal processing unit 26 is, for example, a CPU (Central Processing Unit), and comprehensively controls the operation of the terminal device 2. The terminal processing unit 26 may be a DSP (Digital Signal Processor), an LSI (Large-Scaled IC), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like. The terminal processing unit 26 causes the display unit 24 and the terminal communication unit 21 to execute various processes of the terminal device 2 in an appropriate procedure based on a program stored in the terminal storage unit 22 and an operation of the operation unit 23. Control the behavior of. The terminal processing unit 26 executes processing based on the program stored in the terminal storage unit 22. Moreover, the terminal processing unit 26 can execute a plurality of programs in parallel.

端末処理部26は、撮像処理部261と、位置特定部262と、表示制御部263とを機能ブロックとして備える。撮像処理部261と、位置特定部262と、表示制御部263とは、端末処理部26が実行するプログラムによって実現される機能モジュールである。また、撮像処理部261と、位置特定部262と、表示制御部263とは、ファームウェアとして端末装置2に実装されてもよい。 The terminal processing unit 26 includes an imaging processing unit 261, a position specifying unit 262, and a display control unit 263 as functional blocks. The imaging processing unit 261, the position specifying unit 262, and the display control unit 263 are functional modules realized by the program executed by the terminal processing unit 26. Further, the image pickup processing unit 261, the position specifying unit 262, and the display control unit 263 may be implemented in the terminal device 2 as firmware.

(サーバ装置の構成)
図4は、サーバ装置3の概略構成の一例を示す図である。サーバ装置3は、サーバ通信部31と、サーバ記憶部32と、サーバ処理部33とを備える。
(Configuration of server device)
FIG. 4 is a diagram showing an example of a schematic configuration of the server device 3. The server device 3 includes a server communication unit 31, a server storage unit 32, and a server processing unit 33.

サーバ通信部31は、ネットワーク4を介してサーバ装置3を端末装置2と通信可能にする通信インタフェース回路を備える。サーバ通信部31が備える通信インタフェース回路は、有線LANの通信インタフェース回路等である。サーバ通信部31は、サーバ処理部33から供給されたデータを端末装置2に送信するとともに、端末装置2から送信されたデータを受信し、サーバ処理部33に供給する。なお、サーバ通信部31は、出力部の一例である。 The server communication unit 31 includes a communication interface circuit that enables the server device 3 to communicate with the terminal device 2 via the network 4. The communication interface circuit included in the server communication unit 31 is a wired LAN communication interface circuit or the like. The server communication unit 31 transmits the data supplied from the server processing unit 33 to the terminal device 2, receives the data transmitted from the terminal device 2, and supplies the data to the server processing unit 33. The server communication unit 31 is an example of an output unit.

サーバ記憶部32は、プログラムまたはデータを記憶するためのデバイスであり、例えば、半導体メモリ装置を備える。サーバ記憶部32は、サーバ処理部33による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、例えば、CD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記憶媒体から、公知のセットアッププログラム等を用いてサーバ記憶部32にインストールされる。 The server storage unit 32 is a device for storing programs or data, and includes, for example, a semiconductor memory device. The server storage unit 32 stores an operating system program, a driver program, an application program, data and the like used for the processing by the server processing unit 33. The program is installed in the server storage unit 32 from a computer-readable portable storage medium such as a CD-ROM or a DVD-ROM using a known setup program or the like.

サーバ処理部33は、一又は複数個のプロセッサ及びその周辺回路を備える。サーバ処理部33は、例えばCPUであり、サーバ装置3の動作を統括的に制御する。なお、サーバ処理部33は、DSP、LSI、ASIC、FPGA等であってもよい。サーバ処理部33は、サーバ記憶部32に記憶されているプログラムに基づいてサーバ装置3の各種処理が適切な手順で実行されるように、サーバ通信部31の動作を制御する。サーバ処理部33は、サーバ記憶部32に記憶されているプログラムに基づいて処理を実行する。また、サーバ処理部33は、複数のプログラムを並列に実行することができる。 The server processing unit 33 includes one or more processors and their peripheral circuits. The server processing unit 33 is, for example, a CPU, and integrally controls the operation of the server device 3. The server processing unit 33 may be a DSP, LSI, ASIC, FPGA, or the like. The server processing unit 33 controls the operation of the server communication unit 31 so that various processes of the server device 3 are executed in an appropriate procedure based on the program stored in the server storage unit 32. The server processing unit 33 executes processing based on the program stored in the server storage unit 32. Further, the server processing unit 33 can execute a plurality of programs in parallel.

サーバ処理部33は、第2画像取得部331と、第2特定部332と、第2配合情報特定部333と、第2出力制御部334と、を機能ブロックとして備える。また、サーバ処理部33は、第1画像取得部335と、配合情報取得部336と、第1特定部337と、差分情報算出部338と、第1配合情報特定部339と、第1出力制御部340と、を機能ブロックとして備える。これらの各部は、サーバ処理部33が実行するプログラムによって実現される機能モジュールである。また、これらの各部は、ファームウェアとしてサーバ装置3に実装されてもよい。 The server processing unit 33 includes a second image acquisition unit 331, a second identification unit 332, a second combination information identification unit 333, and a second output control unit 334 as functional blocks. The server processing unit 33 also includes a first image acquisition unit 335, a combination information acquisition unit 336, a first specification unit 337, a difference information calculation unit 338, a first combination information specification unit 339, and a first output control. And a unit 340 as a functional block. Each of these units is a functional module realized by a program executed by the server processing unit 33. Also, each of these units may be implemented in the server device 3 as firmware.

(データ構造)
図5(a)は、サーバ装置3のサーバ記憶部32に記憶される初期配合情報テーブル500のデータ構造の一例を示す図である。初期配合情報テーブル500は、色成分値501と初期配合情報502とを関連付けて記憶している。
(data structure)
FIG. 5A is a diagram showing an example of the data structure of the initial combination information table 500 stored in the server storage unit 32 of the server device 3. The initial combination information table 500 stores the color component value 501 and the initial combination information 502 in association with each other.

色成分値501は、画像内の画素の色を一意に識別可能な情報である。図5(a)に示す例では、色成分値501は、RGBの各色の階調値である。色成分値501は、CMY、Yuv、L*a*b*等の、画素の色を一意に識別可能な、他の色空間における階調値であってもよい。 The color component value 501 is information that can uniquely identify the color of a pixel in an image. In the example shown in FIG. 5A, the color component value 501 is a gradation value of each color of RGB. The color component value 501 may be a gradation value in another color space such as CMY, Yuv, L*a*b*, or the like that can uniquely identify the pixel color.

初期配合情報502は、関連付けられた色成分値で識別される色のインクを配合するための、あらかじめ定められた、それぞれ異なる複数の色の基準インクの配合情報である。図5(a)に示す例では、初期配合情報502は、インク1、インク2、インク3のそれぞれの基準インクの体積である。すなわち、ユーザは、それぞれの基準インクを、初期配合情報502によって示される体積だけ混合することにより、関連付けられた色成分値501によって識別されるインクの色を調色することができる。初期配合情報502は、複数の色の基準インクのそれぞれの体積ではなく、混合比率又は重量等の他の指標であってもよい。基準インクは、4つ以上の異なる色のインクであってもよい。なお、初期配合情報502は、第2配合情報の一例である。 The initial combination information 502 is predetermined combination information of reference inks of a plurality of different colors for mixing inks of the colors identified by the associated color component values. In the example shown in FIG. 5A, the initial combination information 502 is the volume of each reference ink of ink 1, ink 2, and ink 3. That is, the user can adjust the color of the ink identified by the associated color component value 501 by mixing the respective reference inks by the volume indicated by the initial formulation information 502. The initial combination information 502 may be not the respective volumes of the reference inks of a plurality of colors but other indexes such as a mixing ratio or a weight. The reference ink may be four or more different color inks. The initial combination information 502 is an example of second combination information.

なお、初期配合情報502は、配合情報提示システム1の管理者によって、各色成分値501についてあらかじめ適切に定められた情報である。 The initial combination information 502 is information that is appropriately determined in advance for each color component value 501 by the administrator of the combination information presentation system 1.

図5(b)は、サーバ装置3のサーバ記憶部32に記憶される修正配合情報テーブル510のデータ構造の一例を示す図である。修正配合情報テーブル510は、初期配合情報511と、差分情報512と、修正配合情報513とを関連付けて記憶している。 FIG. 5B is a diagram showing an example of the data structure of the modified combination information table 510 stored in the server storage unit 32 of the server device 3. The corrected combination information table 510 stores the initial combination information 511, the difference information 512, and the corrected combination information 513 in association with each other.

初期配合情報511は、初期配合情報テーブル500の初期配合情報502に対応する情報である。差分情報512は、基準物の色成分値と対象物の色成分値との間の差分を示す情報である。図5(b)に示す例では、差分情報512は、RGBの各色について、対象物の色成分値である階調値から、基準物の色成分値である階調値を減算した値である。修正配合情報513は、初期配合情報511と差分情報512とによって定められる色のインクを配合するための、基準インクの配合情報である。なお、修正配合情報513は、第1配合情報の一例である。 The initial combination information 511 is information corresponding to the initial combination information 502 in the initial combination information table 500. The difference information 512 is information indicating the difference between the color component value of the reference object and the color component value of the target object. In the example shown in FIG. 5B, the difference information 512 is a value obtained by subtracting the gradation value, which is the color component value of the reference object, from the gradation value, which is the color component value of the target object, for each of the RGB colors. .. The modified combination information 513 is reference ink combination information for mixing ink of a color defined by the initial combination information 511 and the difference information 512. The corrected combination information 513 is an example of the first combination information.

なお、修正配合情報513は、配合情報提示システム1の管理者によって、各初期配合情報511と各差分情報512についてあらかじめ適切に定められた情報である。修正配合情報513は、例えば、差分情報512によって示される基準物の色成分値と対象物の色成分値の差分を埋めるように、初期配合情報511を修正した情報である。 The corrected combination information 513 is information that has been appropriately determined in advance by the administrator of the combination information presentation system 1 for each initial combination information 511 and each difference information 512. The corrected combination information 513 is, for example, information obtained by correcting the initial combination information 511 so as to fill the difference between the color component value of the reference object and the color component value of the target object indicated by the difference information 512.

(処理の流れ)
図6及び図7は、配合情報提示システム1による処理の流れの一例を示すシーケンス図である。まず、図6を用いて配合情報提示システム1による処理の流れを説明する。
(Process flow)
6 and 7 are sequence diagrams showing an example of the flow of processing by the combination information presentation system 1. First, the flow of processing by the combination information presentation system 1 will be described with reference to FIG.

まず、端末装置2の撮像処理部261は、撮像部25を制御して、少なくとも対象物を撮像した第2画像を生成する(S601)。撮像処理部261は、例えば、ユーザの操作部23に対する操作に従って、対象物を撮像することによって第2画像を生成する。対象物は、ユーザがその対象物の色と同一の色のインクを所望している物であり、例えば、ユーザの携行物である。 First, the image pickup processing unit 261 of the terminal device 2 controls the image pickup unit 25 to generate at least a second image obtained by picking up an object (S601). The image capturing processing unit 261 generates the second image by capturing an image of the target object, for example, in accordance with the user's operation on the operation unit 23. The object is an object for which the user desires ink of the same color as that of the object, and is, for example, a user's carrying object.

続いて、位置特定部262は、第2画像において対象物の位置を特定する(S602)。位置特定部262は、例えば、第2画像を含む第2位置特定画面を表示部24に表示し、ユーザによる、第2画像内の特定の位置の指定を受付けることによって、対象物の位置を特定する。 Subsequently, the position specifying unit 262 specifies the position of the target object in the second image (S602). The position specifying unit 262 specifies the position of the target object, for example, by displaying a second position specifying screen including the second image on the display unit 24 and accepting the designation of the specific position in the second image by the user. To do.

図8(a)は、位置特定部262によって表示部24に表示される第2位置特定画面800の一例を示す図である。第2位置特定画面800は、第2画像801と、位置指定オブジェクト802と、テキスト表示領域803と、位置決定ボタン804とを含む。位置指定オブジェクト802は、第2画像801において、対象物の位置としてユーザによって指定された位置を示すオブジェクトである。テキスト表示領域803は、ユーザに位置の指定を促すテキストが表示される領域である。位置決定ボタン804は、対象物の位置を位置指定オブジェクト802によって示される位置に決定するためのボタンである。 FIG. 8A is a diagram showing an example of the second position specifying screen 800 displayed on the display unit 24 by the position specifying unit 262. The second position specifying screen 800 includes a second image 801, a position designation object 802, a text display area 803, and a position determination button 804. The position designation object 802 is an object that indicates the position designated by the user as the position of the target object in the second image 801. The text display area 803 is an area in which a text prompting the user to specify a position is displayed. The position determination button 804 is a button for determining the position of the target object at the position indicated by the position designation object 802.

位置特定部262は、第2位置特定画面800を表示部24に表示しているときに、ユーザによる、第2画像801における対象物の位置の指定を受付ける。例えば、操作部23が表示部24と一体化したタッチパネルである場合、ユーザは、表示部24に表示されている第2画像801内の対象物の位置にタッチすることにより、対象物の位置を指定することができる。位置特定部262は、対象物の位置の指定を受付けたことに応じて、指定された位置に位置指定オブジェクト802を表示する。続いて、ユーザは、位置指定オブジェクト802が表示された位置が対象物の位置であることを確認し、位置決定ボタン804にタッチする。ユーザが位置決定ボタン804にタッチした場合、位置特定部262は、指定された位置を対象物の位置として特定する。なお、位置特定部262は、第2画像内の一点でない領域を、対象物が含まれる領域として特定してもよい。 The position specifying unit 262 accepts the designation of the position of the target object in the second image 801 by the user while the second position specifying screen 800 is displayed on the display unit 24. For example, when the operation unit 23 is a touch panel integrated with the display unit 24, the user touches the position of the target object in the second image 801 displayed on the display unit 24 to determine the position of the target object. Can be specified. The position specifying unit 262 displays the position designation object 802 at the designated position in response to the designation of the position of the target object being received. Then, the user confirms that the position where the position designation object 802 is displayed is the position of the target object, and touches the position determination button 804. When the user touches the position determination button 804, the position specifying unit 262 specifies the designated position as the position of the target object. Note that the position identifying unit 262 may identify a region that is not a point in the second image as a region that includes the object.

図6に戻り、端末装置2は、端末通信部21を介して、生成した第2画像と、特定された対象物の位置を示す対象物位置情報とをサーバ装置3に送信する。 Returning to FIG. 6, the terminal device 2 transmits the generated second image and the target object position information indicating the position of the specified target object to the server device 3 via the terminal communication unit 21.

続いて、サーバ装置3の第2画像取得部331は、第2画像と対象物位置情報とを取得する(S603)。第2画像取得部331は、サーバ通信部31を介して、第2画像と対象物位置情報とを受信することにより、第2画像と対象物位置情報とを取得する。 Subsequently, the second image acquisition unit 331 of the server device 3 acquires the second image and the object position information (S603). The second image acquisition unit 331 acquires the second image and the target object position information by receiving the second image and the target object position information via the server communication unit 31.

続いて、第2特定部332は、第2画像から対象物の色成分値を特定する(S604)。第2特定部332は、例えば、第2画像内の画素のうち、対象物位置情報によって特定される位置の画素の色成分値を取得することにより、対象物の色成分値を特定する。なお、対象物位置情報によって所定の領域が特定される場合、第2特定部332は、特定された領域に含まれる複数の画素の色成分値の中央値又は平均値を対象物の色成分値としてよい。 Subsequently, the second specifying unit 332 specifies the color component value of the target object from the second image (S604). The second specifying unit 332 specifies the color component value of the target object, for example, by acquiring the color component value of the pixel at the position specified by the target position information among the pixels in the second image. When the predetermined area is specified by the object position information, the second specifying unit 332 determines the median value or the average value of the color component values of the plurality of pixels included in the specified area as the color component value of the object. Good as

続いて、第2配合情報特定部333は、第2画像から特定された対象物の色成分値に対応するインクの配合情報である初期配合情報を特定する(S605)。第2配合情報特定部333は、サーバ記憶部32の初期配合情報テーブル500を参照し、対象物の色成分値と一致する色成分値501に関連付けられた初期配合情報502を特定する。このとき、第2配合情報特定部333は、特定された初期配合情報をサーバ記憶部32に記憶してもよい。 Subsequently, the second combination information specifying unit 333 specifies initial combination information which is the combination information of the ink corresponding to the color component value of the target specified from the second image (S605). The second combination information identification unit 333 refers to the initial combination information table 500 of the server storage unit 32, and specifies the initial combination information 502 associated with the color component value 501 that matches the color component value of the object. At this time, the second combination information identification unit 333 may store the identified initial combination information in the server storage unit 32.

続いて、第2出力制御部334は、サーバ通信部31を介して、特定された初期配合情報を送信することにより出力する(S606)。 Then, the 2nd output control part 334 outputs by transmitting the specified initial combination information via the server communication part 31 (S606).

続いて、端末装置2の表示制御部263は、初期配合情報を表示部24に表示する(S607)。表示制御部263は、端末通信部21を介して、サーバ装置3から初期配合情報を受信する。続いて、表示制御部263は、受信した初期配合情報に含まれるインクの種別と、それぞれのインクの体積の情報を表示部24に表示する。 Subsequently, the display control unit 263 of the terminal device 2 displays the initial combination information on the display unit 24 (S607). The display control unit 263 receives the initial combination information from the server device 3 via the terminal communication unit 21. Subsequently, the display control unit 263 causes the display unit 24 to display the type of ink included in the received initial combination information and the information about the volume of each ink.

続いて、図7に進み、端末装置2の撮像処理部261は、撮像部25を制御して、基準物と対象物とを撮像した第1画像を生成する(S701)。撮像処理部261は、例えば、ユーザの操作部23に対する操作に従って、基準物と対象物とを撮像することによって第1画像を生成する。基準物は、初期配合情報によって調色される色に対応する物である。基準物は、例えば、パントン色見本帳のうち、初期配合情報によって調色された色としてユーザによって選択された色である。 Subsequently, proceeding to FIG. 7, the image capturing processing unit 261 of the terminal device 2 controls the image capturing unit 25 to generate a first image obtained by capturing the reference object and the target object (S701). The image capturing processing unit 261 generates the first image by capturing an image of the reference object and the target object, for example, according to the operation of the operation unit 23 by the user. The reference object is an object corresponding to the color toned by the initial combination information. The reference item is, for example, a color selected by the user as a color toned by the initial combination information in the Pantone color sample book.

続いて、位置特定部262は、第1画像において基準物と対象物との位置をそれぞれ特定する(S702)。位置特定部262は、例えば、第1画像を含む第1位置特定画面を表示部24に表示し、ユーザによる、第1画像内の特定の位置の指定を受付けることによって、基準物と対象物との位置を特定する。 Subsequently, the position specifying unit 262 specifies the positions of the reference object and the target object in the first image (S702). The position specifying unit 262 displays, for example, a first position specifying screen including the first image on the display unit 24, and accepts designation of a specific position in the first image by the user, whereby the reference object and the object are identified. Specify the position of.

図8(b)は、位置特定部262によって表示部24に表示される第1位置特定画面810の一例を示す図である。第1位置特定画面810は、第1画像811と、基準物位置指定オブジェクト812と、対象物位置指定オブジェクト813と、テキスト表示領域814と、位置決定ボタン815とを含む。基準物位置指定オブジェクト812は、第1画像811において、基準物の位置又は領域としてユーザによって指定された位置又は領域を示すオブジェクトである。対象物位置指定オブジェクト813は、第1画像811において、対象物の位置又は領域としてユーザによって指定された位置又は領域を示すオブジェクトである。テキスト表示領域814と位置決定ボタン815とは、第2位置特定画面800と同様である。 FIG. 8B is a diagram showing an example of the first position specifying screen 810 displayed on the display unit 24 by the position specifying unit 262. The first position specification screen 810 includes a first image 811, a reference object position designation object 812, an object position designation object 813, a text display area 814, and a position determination button 815. The reference object position designation object 812 is an object that indicates the position or area designated by the user as the position or area of the reference object in the first image 811. The object position designation object 813 is an object that indicates the position or area designated by the user as the position or area of the object in the first image 811. The text display area 814 and the position determination button 815 are the same as those in the second position specifying screen 800.

位置特定部262は、第1位置特定画面810を表示部24に表示しているときに、ユーザによる、第1画像における基準物と対象物との位置の指定を受付ける。例えば、操作部23が表示部24と一体化したタッチパネルである場合、ユーザは、表示部24に表示されている第1画像811内の基準物と対象物との位置にそれぞれタッチすることにより、基準物と対象物との位置を指定することができる。位置特定部262は、基準物の位置の指定を受付けたことに応じて、指定された位置に基準物位置指定オブジェクト812を表示する。また、位置特定部262は、対象物の位置の指定を受付けたことに応じて、指定された位置に対象物位置指定オブジェクト813を表示する。続いて、ユーザは、基準物位置指定オブジェクト812が表示された位置が基準物の位置であり、対象物位置指定オブジェクト813が表示された位置が対象物の位置であることを確認し、位置決定ボタン815の表示領域にタッチする。位置特定部262は、ユーザが位置決定ボタン815の表示領域にタッチしたことに応じて、指定された位置をそれぞれ基準物と対象物との位置として特定する。 The position specifying unit 262 receives the designation of the positions of the reference object and the target object in the first image by the user when the first position specifying screen 810 is displayed on the display unit 24. For example, when the operation unit 23 is a touch panel integrated with the display unit 24, the user touches the positions of the reference object and the target object in the first image 811 displayed on the display unit 24, respectively, It is possible to specify the positions of the reference object and the object. The position identifying unit 262 displays the reference object position designation object 812 at the designated position in response to the designation of the position of the reference object being received. Further, the position identifying unit 262 displays the target object position designation object 813 at the designated position in response to the designation of the position of the target object being received. Subsequently, the user confirms that the position at which the reference object position designation object 812 is displayed is the position of the reference object and the position at which the target object position designation object 813 is displayed is the position of the target object, and determines the position. Touch the display area of the button 815. The position specifying unit 262 specifies the specified positions as the positions of the reference object and the target object in response to the user touching the display area of the position determination button 815.

図7に戻り、端末装置2は、端末通信部21を介して、生成した第1画像と、特定された基準物の位置を示す基準物位置情報と、対象物の位置を示す対象物位置情報とをサーバ装置3に送信する。 Returning to FIG. 7, the terminal device 2 via the terminal communication unit 21 generates the first image, reference object position information indicating the position of the specified reference object, and object position information indicating the position of the object. And are transmitted to the server device 3.

続いて、サーバ装置3の第1画像取得部335は、第1画像と基準物位置情報と対象物位置情報とを取得する(S703)。第1画像取得部335は、サーバ通信部31を介して、第1画像と基準物位置情報と対象物位置情報とを受信することにより、第1画像と対象物位置情報とを取得する。 Subsequently, the first image acquisition unit 335 of the server device 3 acquires the first image, the reference object position information, and the target object position information (S703). The first image acquisition unit 335 acquires the first image and the target object position information by receiving the first image, the reference object position information, and the target object position information via the server communication unit 31.

続いて、配合情報取得部336は、基準物の初期配合情報を取得する(S704)。配合情報取得部336は、例えば、第2配合情報特定部333がサーバ記憶部32に記憶した初期配合情報を取得してよい。また、配合情報取得部336は、端末装置2から初期配合情報を取得してもよい。この場合、端末装置2は、操作部23を介して、ユーザによる初期配合情報の入力を受付け、端末通信部21を介して、入力された初期配合情報をサーバ装置3に送信する。 Subsequently, the combination information acquisition unit 336 acquires the initial combination information of the reference item (S704). The combination information acquisition unit 336 may acquire the initial combination information stored in the server storage unit 32 by the second combination information identification unit 333, for example. The combination information acquisition unit 336 may also acquire the initial combination information from the terminal device 2. In this case, the terminal device 2 accepts the input of the initial combination information by the user via the operation unit 23, and transmits the input initial combination information to the server device 3 via the terminal communication unit 21.

続いて、第1特定部337は、第1画像から基準物の色成分値と対象物の色成分値とを特定する(S705)。第1特定部337は、例えば、第1画像内の画素のうち、基準物位置情報によって特定される位置の画素の色成分値を取得することにより、基準物の色成分値を特定する。また、第1特定部337は、第1画像内の画素のうち、対象物位置情報によって特定される位置の画素の色成分値を取得することにより、対象物の色成分値を特定する。なお、基準物位置情報によって所定の領域が特定される場合、第1特定部337は、特定された領域に含まれる複数の画素の色成分値の中央値又は平均値を対象物の色成分値としてよい。 Subsequently, the first specifying unit 337 specifies the color component value of the reference object and the color component value of the target object from the first image (S705). For example, the first specifying unit 337 specifies the color component value of the reference object by acquiring the color component value of the pixel at the position specified by the reference object position information among the pixels in the first image. Further, the first specifying unit 337 specifies the color component value of the object by acquiring the color component value of the pixel at the position specified by the object position information among the pixels in the first image. When the predetermined area is specified by the reference object position information, the first specifying unit 337 determines the median value or the average value of the color component values of the plurality of pixels included in the specified area as the color component value of the object. Good as

続いて、差分情報算出部338は、特定された基準物の色成分値と対象物の色成分値との間の差分を示す差分情報を算出する(S706)。色成分値がRGBの階調値である場合、差分情報算出部338は、RGBの各色について、対象物の階調値から、基準物の階調値をそれぞれ減算した減算値を差分情報として算出する。 Subsequently, the difference information calculation unit 338 calculates difference information indicating a difference between the color component value of the identified reference object and the color component value of the target object (S706). When the color component value is a gradation value of RGB, the difference information calculation unit 338 calculates subtraction values obtained by subtracting the gradation value of the reference object from the gradation value of the object for each color of RGB as difference information. To do.

続いて、第1配合情報特定部339は、初期配合情報と差分情報とに基づいて、対象物の色に対応するインクの配合情報である修正配合情報を特定する(S707)。第1配合情報特定部339は、サーバ記憶部32に記憶された修正配合情報テーブル510を参照し、初期配合情報と差分情報との組み合わせに関連付けられた修正配合情報513を特定する。 Subsequently, the first combination information identifying unit 339 identifies the corrected combination information, which is the composition information of the ink corresponding to the color of the target object, based on the initial combination information and the difference information (S707). The first combination information identification unit 339 refers to the corrected combination information table 510 stored in the server storage unit 32 and specifies the corrected combination information 513 associated with the combination of the initial combination information and the difference information.

続いて、第1出力制御部340は、サーバ通信部31を介して、特定された修正配合情報を端末装置2に送信することにより出力する(S708)。 Then, the 1st output control part 340 outputs by transmitting the pinpointed correction combination information to the terminal device 2 via the server communication part 31 (S708).

続いて、端末装置2の表示制御部263は、修正配合情報を表示部24に表示する(S709)。表示制御部263は、端末通信部21を介して、サーバ装置3から修正配合情報を受信する。続いて、表示制御部263は、受信した修正配合情報に含まれるインクの種別と、それぞれのインクの体積の情報を表示部24に表示する。 Subsequently, the display control unit 263 of the terminal device 2 displays the modified combination information on the display unit 24 (S709). The display control unit 263 receives the modified combination information from the server device 3 via the terminal communication unit 21. Subsequently, the display control unit 263 displays on the display unit 24 the type of ink included in the received correction combination information and the information about the volume of each ink.

これにより、配合情報提示システム1は一連の処理を終了する。 As a result, the combination information presentation system 1 ends the series of processes.

なお、配合情報提示システム1において、S601からS607は、省略されてもよい。この場合、S704において、配合情報取得部336は、端末装置2から初期配合情報を取得する。このようにすることで、配合情報提示システム1は、より簡易に対象物の色に対応するインクの配合情報を出力することができる。 In addition, in the combination information presentation system 1, S601 to S607 may be omitted. In this case, in S704, the combination information acquisition unit 336 acquires the initial combination information from the terminal device 2. By doing so, the composition information presentation system 1 can more easily output the composition information of the ink corresponding to the color of the target object.

また、S701からS709は、繰り返し実行されてもよい。この場合、S704において、配合情報取得部336は、第1配合情報特定部339が特定した修正配合情報を初期配合情報として取得する。このようにすることで、配合情報提示システム1は、修正配合情報と差分情報とに基づいて新たに修正配合情報を特定するため、より対象物の色に近い修正配合情報を提示することが可能となる。 Moreover, S701 to S709 may be repeatedly executed. In this case, in S704, the combination information acquisition unit 336 acquires the corrected combination information specified by the first combination information specifying unit 339 as the initial combination information. By doing so, the combination information presentation system 1 newly identifies the corrected combination information based on the corrected combination information and the difference information, so that it is possible to present the corrected combination information closer to the color of the object. Becomes

以上説明したように、本発明に係るサーバ装置3は、初期配合情報と、基準物と対象物とを撮像した第1画像における基準物の色成分値と対象物の色成分値の差分情報に基づいて修正配合情報を特定し、出力する。これにより、サーバ装置3は、対象物の色に対応するインクの配合情報を高精度に特定することができる。 As described above, the server device 3 according to the present invention provides the initial combination information and the difference information between the color component value of the reference object and the color component value of the target object in the first image obtained by capturing the reference object and the target object. Based on this, the modified combination information is specified and output. As a result, the server device 3 can specify the ink combination information corresponding to the color of the target object with high accuracy.

すなわち、端末装置2の撮像部25の仕様及び端末装置2が対象物を撮像した時の外部環境は、配合情報提示システム1の管理者によって初期配合情報が定められた時に使用された撮像装置の仕様及びその際にサンプルの基準物を撮像した時の外部環境とは異なる。したがって、仮に、サーバ装置3が、対象物のみが撮像された画像に基づいて配合情報を特定しようとすると、撮像部25の仕様や撮像時の外部環境の影響により、対象物の色に対応するインクの配合情報を高精度に特定することができない。本発明に係るサーバ装置3は、基準物と対象物との両方が撮像された第1画像から差分情報を算出する。このようにすることで、サーバ装置3は、撮像部25の仕様や撮像時の外部環境の影響を受けることなく、基準物の色と対象物の色との差分を算出することができ、対象物の色により近い色を表す配合情報を特定することができる。 That is, the specifications of the imaging unit 25 of the terminal device 2 and the external environment when the terminal device 2 images the object are determined by the administrator of the composition information presentation system 1 of the imaging device used when the initial combination information was determined. It is different from the specifications and the external environment when the sample reference material is imaged. Therefore, if the server device 3 tries to specify the combination information based on the image in which only the object is imaged, the server device 3 corresponds to the color of the object due to the specifications of the imaging unit 25 and the influence of the external environment at the time of imaging. Ink composition information cannot be specified with high accuracy. The server device 3 according to the present invention calculates the difference information from the first image in which both the reference object and the target object are captured. By doing so, the server device 3 can calculate the difference between the color of the reference object and the color of the object without being affected by the specifications of the imaging unit 25 or the external environment at the time of imaging. It is possible to specify formulation information that represents a color closer to the color of the object.

また、本発明に係るサーバ装置3は、対象物を撮像した第2画像に基づいて初期配合情報を特定する。これにより、本発明に係るサーバ装置3は、対象物の色に近い色の基準物を生成するための初期配合情報を簡易にユーザに提示することができる。 Further, the server device 3 according to the present invention identifies the initial combination information based on the second image obtained by capturing the object. Thereby, the server device 3 according to the present invention can easily present the user with the initial combination information for generating the reference object having a color close to the color of the object.

(変形例1)
上述の説明では、第1配合情報特定部339は、サーバ記憶部32に記憶された修正配合情報テーブル510を参照して修正配合情報を特定するものとしたが、これに限られない。例えば、第1配合情報特定部339は、事前学習された識別器を用いて修正配合情報を特定してよい。
(Modification 1)
In the above description, the first combination information specifying unit 339 specifies the correction combination information by referring to the correction combination information table 510 stored in the server storage unit 32, but is not limited to this. For example, the first combination information specifying unit 339 may specify the corrected combination information using a pre-learned discriminator.

この場合、サーバ記憶部32は、第1学習用入力情報が入力された場合に第1学習用配合情報を出力するように事前学習されたニューラルネットワークである第1識別器をさらに記憶する。 In this case, the server storage unit 32 further stores a first discriminator that is a neural network that has been pre-learned so as to output the first learning combination information when the first learning input information is input.

第1識別器の事前学習は、例えば、ディープラーニング等の公知の機械学習技術を用いて、第1学習用入力情報と第1学習用配合情報との関係を学習することにより行われる。第1学習用入力情報は、複数のサンプル基準物と複数のサンプル対象物について、各サンプル基準物の色に対応するインクの配合情報と、各サンプル基準物の色成分値と各サンプル対象物の色成分値との差分を示すサンプル差分情報である。また、第1学習用配合情報は、各サンプル対象物の色に対応するインクの配合情報である。 The pre-learning of the first discriminator is performed by learning the relationship between the first learning input information and the first learning combination information using a known machine learning technique such as deep learning. The first learning input information is, for a plurality of sample reference objects and a plurality of sample objects, ink combination information corresponding to the color of each sample reference object, the color component value of each sample reference object, and each sample object. It is sample difference information indicating a difference from the color component value. Further, the first learning combination information is ink combination information corresponding to the color of each sample object.

ニューラルネットワークである第1識別器は、入力層、中間層及び出力層から構成される多層構造を有する。入力層の各ノードには、例えば、サンプル基準物の色に対応するインクの配合情報と、サンプル差分情報とがそれぞれ入力される。中間層の各ノードには、入力層の各ノードから出力された値の、所定の重みに基づく重み付け和が入力される。出力層の各ノードには、中間層の各ノードから出力された値の、所定の重みに基づく重み付け和が入力される。出力層は、例えば、入力された値をそのまま出力する。 The first classifier, which is a neural network, has a multi-layer structure including an input layer, an intermediate layer, and an output layer. To each node of the input layer, for example, ink combination information corresponding to the color of the sample reference material and sample difference information are input, respectively. A weighted sum based on a predetermined weight of the values output from each node of the input layer is input to each node of the intermediate layer. A weighted sum based on a predetermined weight of the values output from each node of the intermediate layer is input to each node of the output layer. The output layer outputs the input value as it is, for example.

第1識別器において、各重みは、出力層によって出力された値と学習用配合情報との差分が小さくなるように設定される。重みの設定は、例えば、誤差逆伝搬法などの公知の手法によることができる。 In the first discriminator, each weight is set so that the difference between the value output by the output layer and the learning combination information is small. The weight can be set by a known method such as an error back propagation method.

図7のS707において、第1配合情報特定部339は、サーバ記憶部32から第1識別器を取得する。そして、第1配合情報特定部339は、基準物の配合情報と、基準物の色成分値と対象物の色成分値との差分情報を第1識別器に入力したときに出力された配合情報を対象物の配合情報として取得することにより、修正配合情報を特定する。 In S707 of FIG. 7, the first combination information identifying unit 339 acquires the first discriminator from the server storage unit 32. Then, the first combination information identifying unit 339 outputs the combination information of the reference product and the difference information between the color component value of the reference product and the color component value of the target object when input to the first discriminator. The corrected combination information is specified by acquiring the item as the combination information of the object.

このようにすることで、サーバ記憶部32が、修正配合情報テーブル510を記憶する必要がなくなるため、配合情報提示システム1は、本発明の実施に必要となるサーバ記憶部32の記憶容量を低減することができる。また、あらかじめ修正配合情報テーブル510を作成する必要がなくなるため、配合情報提示システム1の管理者の作業負荷が軽減される。 By doing so, the server storage unit 32 does not need to store the modified combination information table 510, and thus the combination information presentation system 1 reduces the storage capacity of the server storage unit 32 necessary for implementing the present invention. can do. Further, since it is not necessary to create the modified combination information table 510 in advance, the workload of the administrator of the combination information presentation system 1 is reduced.

なお、同様に、第2配合情報特定部333が、事前学習された識別器を用いて初期配合情報を算出するように構成してもよい。この場合、サーバ記憶部32は、第2学習用入力情報が入力された場合に第2学習用配合情報を出力するように事前学習されたニューラルネットワークである第2識別器をさらに記憶する。 In addition, similarly, the second combination information specifying unit 333 may be configured to calculate the initial combination information using a discriminator learned in advance. In this case, the server storage unit 32 further stores a second discriminator, which is a neural network pre-learned so as to output the second learning combination information when the second learning input information is input.

第2識別器の事前学習は、上述したような公知の機械学習技術を用いて、第2学習用入力情報と第2学習用配合情報との関係を学習することにより行われる。第2学習用入力情報は、複数のサンプル対象物の色成分値である。また、第2学習用配合情報は、各サンプル対象物の色に対応するインクの配合情報である。 The pre-learning of the second discriminator is performed by learning the relationship between the second learning input information and the second learning combination information using the known machine learning technique as described above. The second learning input information is color component values of a plurality of sample objects. The second learning mixture information is ink mixture information corresponding to the color of each sample object.

この場合、図6のS605において、第2配合情報特定部333は、サーバ記憶部32から第2識別器を取得する。そして、第2配合情報特定部333は、対象物の色成分値を第2識別器に入力したときに出力された配合情報を初期配合情報として取得することにより、初期配合情報を特定する。 In this case, in S605 of FIG. 6, the second combination information identification unit 333 acquires the second discriminator from the server storage unit 32. Then, the second combination information specifying unit 333 specifies the initial combination information by acquiring the combination information output when the color component value of the object is input to the second discriminator as the initial combination information.

(変形例2)
本発明に係るサーバ装置3における処理は、端末装置2において実行されてもよい。この場合、サーバ記憶部32に記憶されていたプログラム及びデータは、端末記憶部22に記憶される。また、サーバ処理部33に備えられていた各機能ブロックは、端末処理部26に備えられる。このようにすることで、端末通信部21を有しない端末装置2であっても、本発明を実施することができる。
(Modification 2)
The process in the server device 3 according to the present invention may be executed in the terminal device 2. In this case, the programs and data stored in the server storage unit 32 are stored in the terminal storage unit 22. In addition, each functional block included in the server processing unit 33 is included in the terminal processing unit 26. By doing so, the present invention can be implemented even in the terminal device 2 that does not have the terminal communication unit 21.

当業者は、本発明の精神および範囲から外れることなく、様々 な変更、置換及び修正をこれに加えることが可能であることを理解されたい。例えば、上述した各部の処理は、本発明の範囲において、適宜に異なる順序で実行されてもよい。また、上述した実施形態及び変形例は、本発明の範囲において、適宜に組み合わせて実施されてもよい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the invention. For example, the processing of each unit described above may be appropriately executed in a different order within the scope of the present invention. Further, the above-described embodiments and modified examples may be implemented in an appropriate combination within the scope of the present invention.

1 配合情報提示システム
3 サーバ装置
31 サーバ通信部
32 サーバ記憶部
331 第2画像取得部
332 第2特定部
333 第2配合情報特定部
334 第2出力制御部
335 第1画像取得部
336 配合情報取得部
337 第1特定部
338 差分情報算出部
339 第1配合情報特定部
340 第1出力制御部
1 Combination Information Presentation System 3 Server Device 31 Server Communication Unit 32 Server Storage Unit 331 Second Image Acquisition Unit 332 Second Identification Unit 333 Second Combination Information Identification Unit 334 Second Output Control Unit 335 First Image Acquisition Unit 336 Acquisition of Combination Information Part 337 First specifying part 338 Difference information calculating part 339 First combination information specifying part 340 First output control part

Claims (5)

出力部と、
基準物と対象物とを撮像した第1画像を取得する第1画像取得部と、
前記基準物の色に対応するインクの配合情報を取得する配合情報取得部と、
前記第1画像から前記基準物の色成分値と前記対象物の色成分値とを特定する第1特定部と、
特定された前記基準物の色成分値と前記対象物の色成分値との間の差分を示す差分情報を算出する差分情報算出部と、
前記配合情報と前記差分情報とに基づいて、前記対象物の色に対応するインクの配合情報を特定する第1配合情報特定部と、
特定された前記対象物の前記配合情報を前記出力部から出力する第1出力制御部と、
を備える、情報処理装置。
Output part,
A first image acquisition unit that acquires a first image of a reference object and an object,
A combination information acquisition unit for acquiring ink combination information corresponding to the color of the reference material,
A first specifying unit that specifies a color component value of the reference object and a color component value of the object from the first image;
A difference information calculation unit that calculates difference information indicating a difference between the identified color component value of the reference object and the color component value of the target object;
A first combination information specifying unit that specifies the combination information of the ink corresponding to the color of the target object based on the combination information and the difference information;
A first output control unit that outputs the combination information of the specified target from the output unit;
An information processing device comprising:
少なくとも前記対象物を撮像した第2画像を取得する第2画像取得部と、
前記第2画像から前記対象物の色成分値を特定する第2特定部と、
前記第2画像から特定された前記対象物の色成分値に対応するインクの第2配合情報を特定する第2配合情報特定部と、
前記第2配合情報特定部によって特定された前記第2配合情報を前記出力部から出力する第2出力制御部と、
をさらに備え、
前記第1画像取得部は、前記出力部から出力された前記第2配合情報に基づいて作成された基準物と前記対象物とを撮像した画像を前記第1画像として取得し、
前記配合情報取得部は、前記出力部によって出力された前記第2配合情報を取得する、
請求項1に記載の情報処理装置。
A second image acquisition unit that acquires at least a second image of the object,
A second specifying unit that specifies a color component value of the object from the second image;
A second combination information specifying unit that specifies second combination information of the ink corresponding to the color component value of the object specified from the second image;
A second output control unit for outputting the second combination information specified by the second combination information specifying unit from the output unit;
Further equipped with,
The first image acquisition unit acquires, as the first image, an image obtained by capturing an image of the reference object and the target object created based on the second combination information output from the output unit,
The combination information acquisition unit acquires the second combination information output by the output unit,
The information processing apparatus according to claim 1.
サンプル基準物の色に対応するインクの配合情報と、前記サンプル基準物の色成分値とサンプル対象物の色成分値との間の差分を示す差分情報とが入力された場合に、前記サンプル対象物の色に対応するインクの配合情報を出力するように事前学習された識別器をさらに備え、
前記第1配合情報特定部は、前記基準物の配合情報と、前記基準物の色成分値と前記対象物の色成分値との差分情報を前記識別器に入力したときに出力された配合情報を前記対象物の配合情報として取得することにより、前記対象物の配合情報を特定する、
請求項1又は2に記載の情報処理装置。
When the combination information of the ink corresponding to the color of the sample reference object and the difference information indicating the difference between the color component value of the sample reference object and the color component value of the sample object are input, the sample object Further comprising a discriminator pre-learned to output ink formulation information corresponding to the color of the object,
The first combination information identification unit outputs the combination information output when the combination information of the reference product and the difference information between the color component value of the reference product and the color component value of the target object is input to the discriminator. By specifying as the combination information of the target object, specify the combination information of the target object,
The information processing apparatus according to claim 1.
出力部を備える情報処理装置の制御方法であって、
基準物と対象物とを撮像した第1画像を取得し、
前記基準物の色に対応するインクの配合情報を取得し、
前記第1画像から前記基準物の色成分値と前記対象物の色成分値とを特定し、
特定された前記基準物の色成分値と前記対象物の色成分値との間の差分を示す差分情報を算出し、
前記配合情報と前記差分情報とに基づいて、前記対象物の色に対応するインクの配合情報を特定し、
特定された前記配合情報を前記出力部から出力する、
ことを含む、制御方法。
A method for controlling an information processing apparatus including an output unit, comprising:
Obtaining a first image of the reference object and the object,
Obtaining ink formulation information corresponding to the color of the reference material,
Specifying a color component value of the reference object and a color component value of the object from the first image,
Calculating difference information indicating a difference between the color component value of the specified reference object and the color component value of the object,
Based on the combination information and the difference information, specify the combination information of the ink corresponding to the color of the object,
Outputting the specified combination information from the output unit,
A control method including:
出力部を備える情報処理装置の制御プログラムであって、
基準物と対象物とを撮像した第1画像を取得し、
前記基準物の色に対応するインクの配合情報を取得し、
前記第1画像から前記基準物の色成分値と前記対象物の色成分値とを特定し、
特定された前記基準物の色成分値と前記対象物の色成分値との間の差分を示す差分情報を算出し、
前記配合情報と前記差分情報とに基づいて、前記対象物の色に対応するインクの配合情報を特定し、
特定された前記配合情報を前記出力部から出力する、
ことを含むことを前記情報処理装置に実行させる、制御プログラム。
A control program for an information processing apparatus having an output unit,
Obtaining a first image of the reference object and the object,
Obtaining ink formulation information corresponding to the color of the reference material,
Specifying a color component value of the reference object and a color component value of the object from the first image,
Calculating difference information indicating a difference between the color component value of the specified reference object and the color component value of the object,
Based on the combination information and the difference information, specify the combination information of the ink corresponding to the color of the object,
Outputting the specified combination information from the output unit,
A control program that causes the information processing device to execute the following.
JP2018240144A 2018-12-21 2018-12-21 Information processing device, control method and control program Pending JP2020101459A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018240144A JP2020101459A (en) 2018-12-21 2018-12-21 Information processing device, control method and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018240144A JP2020101459A (en) 2018-12-21 2018-12-21 Information processing device, control method and control program

Publications (1)

Publication Number Publication Date
JP2020101459A true JP2020101459A (en) 2020-07-02

Family

ID=71140209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018240144A Pending JP2020101459A (en) 2018-12-21 2018-12-21 Information processing device, control method and control program

Country Status (1)

Country Link
JP (1) JP2020101459A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07276612A (en) * 1994-04-12 1995-10-24 Datsuku Eng Kk Quality inspecting method
CN104678966A (en) * 2015-02-10 2015-06-03 福建豪迪涂料科技股份有限公司 Paint/ink preparing and toning method controlled in remote/field manner
JP2016007736A (en) * 2014-06-23 2016-01-18 株式会社ミマキエンジニアリング Ink jet ink color matching device and use of the same
JP2018101254A (en) * 2016-12-20 2018-06-28 Necプラットフォームズ株式会社 Color matching information providing device, color matching information providing method, and color matching information providing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07276612A (en) * 1994-04-12 1995-10-24 Datsuku Eng Kk Quality inspecting method
JP2016007736A (en) * 2014-06-23 2016-01-18 株式会社ミマキエンジニアリング Ink jet ink color matching device and use of the same
CN104678966A (en) * 2015-02-10 2015-06-03 福建豪迪涂料科技股份有限公司 Paint/ink preparing and toning method controlled in remote/field manner
JP2018101254A (en) * 2016-12-20 2018-06-28 Necプラットフォームズ株式会社 Color matching information providing device, color matching information providing method, and color matching information providing program

Similar Documents

Publication Publication Date Title
JP5995520B2 (en) Image processing support system, information processing apparatus, and image processing shadow support method
CN101248409B (en) A displacement and tilt detection method for a portable autonomous device having an integrated image sensor and a device therefor
US20160005152A1 (en) Multi-Feature Image Haze Removal
WO2016107268A1 (en) Method and device for color adjustment
US10586308B2 (en) Digital media environment for removal of obstructions in a digital image scene
US9953220B2 (en) Cutout object merge
US9826208B2 (en) Method and system for generating weights for use in white balancing an image
WO2018045592A1 (en) Image shooting method and device, and terminal
US20160086513A1 (en) Server apparatus, data integration method and electronic device
JP2015018013A (en) Display controller, program, and recording medium
WO2022042754A1 (en) Image processing method and apparatus, and device
US9443134B2 (en) Propagating object selection across multiple images
JP2016048408A (en) Image composition device and image composition method, and image composition program and recording medium having image composition program stored therein
JP6172998B2 (en) Image processing apparatus and image processing method
KR20200135998A (en) Position posture detection method and device, electronic device and storage medium
JP2020101459A (en) Information processing device, control method and control program
JP5664811B1 (en) Image adjustment apparatus, image forming apparatus, management apparatus, image adjustment system, and program
JP2013207745A (en) Image pickup device, image processing method, and program
JP6777507B2 (en) Image processing device and image processing method
JP2020107262A (en) Information processing apparatus, method, and control program
CN111521127B (en) Measuring method, measuring apparatus, and recording medium
JP2015125541A (en) Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program
CN113284199A (en) Image gray area determination method, electronic device and server
JP2020030594A (en) Image forming apparatus, system, control method for image forming apparatus, and program
JP2019133352A (en) Image processing device, image processing method and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307