JP2020101459A - Information processing device, control method and control program - Google Patents
Information processing device, control method and control program Download PDFInfo
- Publication number
- JP2020101459A JP2020101459A JP2018240144A JP2018240144A JP2020101459A JP 2020101459 A JP2020101459 A JP 2020101459A JP 2018240144 A JP2018240144 A JP 2018240144A JP 2018240144 A JP2018240144 A JP 2018240144A JP 2020101459 A JP2020101459 A JP 2020101459A
- Authority
- JP
- Japan
- Prior art keywords
- information
- combination information
- unit
- color
- component value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Spectrometry And Color Measurement (AREA)
Abstract
Description
本発明は、情報処理装置、制御方法及び制御プログラムに関する。 The present invention relates to an information processing device, a control method, and a control program.
近年、ユーザの好みの色のインクを店頭において生成し、ユーザに販売するインク調色サービスが展開されている。このようなサービスにおいては、ユーザは、店頭に備えられた複数色のインクを任意の配合比率で配合することによってさまざまな色を調色する。そして、ユーザは、調色された色の中から好みの色を選択し、その色を調色した際のインクの配合比率で各色のインクを配合したインクを注文する。 In recent years, an ink color matching service has been developed in which ink of a user's favorite color is generated at a store and sold to the user. In such a service, the user mixes the inks of a plurality of colors provided in the store at an arbitrary mixing ratio to adjust various colors. Then, the user selects a desired color from the toned colors, and orders the ink in which the inks of the respective colors are blended at the blending ratio of the inks when the color is toned.
このようなサービスを利用するユーザの中には、あらかじめ所望の色を決定したうえで来店するユーザがいる。特に、ユーザの携行物に統一感を持たせるため、ユーザの携行物の色と同一の色のインクを購入したいという需要がある。このようなユーザは、所望の色のインクを購入するために、試行錯誤を重ねて携行物の色と同一の色のインクの配合比率を発見する必要がある。しかしながら、調色経験が豊富でないユーザにとって、インクを配合することによって所望の色を調色することは難しい。 Among users who use such services, there is a user who decides a desired color in advance and then comes to the store. In particular, there is a demand for purchasing ink of the same color as the color of the user's carry-on item in order to give the user's carry-on item a sense of unity. In order to purchase an ink of a desired color, such a user needs to repeat trial and error to find out the mixing ratio of the ink of the same color as the color of the carrying object. However, it is difficult for a user who is not very experienced in color matching to adjust a desired color by blending ink.
特許文献1には、基準色から色成分を異ならせた複数の色候補を示し、ユーザによって指定された色候補の色を実現する配合比率を提供することによって、ユーザが所望する色のインクの配合比率を提示する調色支援装置が開示されている。
しかしながら、特許文献1に記載の調色支援装置では、ユーザは、調色支援装置が示した色候補の中から所望の色に近い色を選択せざるを得ず、ユーザの携行物等の対象物の色と同一の色のインクの配合比率を提供することはできなかった。インク調色サービスでは、対象物の色により近い色のインクの配合比率等を表す配合情報を提供することが望まれている。
However, in the color matching support device described in
本発明は、このような課題を解決すべくなされたものであり、対象物の色に対応するインクの配合情報を高精度に特定することができる情報処理装置、制御方法及び制御プログラムを提供することを目的とする。 The present invention has been made to solve such a problem, and provides an information processing apparatus, a control method, and a control program that can specify the ink combination information corresponding to the color of an object with high accuracy. The purpose is to
本発明に係る情報処理装置は、出力部と、基準物と対象物とを撮像した第1画像を取得する第1画像取得部と、基準物の色に対応するインクの配合情報を取得する配合情報取得部と、第1画像から基準物の色成分値と対象物の色成分値とを特定する第1特定部と、特定された基準物の色成分値と対象物の色成分値との間の差分を示す差分情報を算出する差分情報算出部と、配合情報と差分情報とに基づいて、対象物の色に対応するインクの配合情報を特定する第1配合情報特定部と、特定された対象物の配合情報を出力部から出力する第1出力制御部と、を備える。 An information processing apparatus according to the present invention includes an output unit, a first image acquisition unit that acquires a first image of a reference object and an object, and a combination that acquires ink combination information corresponding to the color of the reference object. An information acquisition unit; a first specifying unit that specifies the color component value of the reference object and the color component value of the target object from the first image; and the color component value of the specified reference object and the color component value of the target object A difference information calculation unit that calculates difference information indicating a difference between the two, and a first combination information specifying unit that specifies combination information of the ink corresponding to the color of the object based on the combination information and the difference information. A first output control unit that outputs the combination information of the target object from the output unit.
また、本発明に係る情報処理装置は、少なくとも対象物を撮像した第2画像を取得する第2画像取得部と、第2画像から対象物の色成分値を特定する第2特定部と、第2画像から特定された対象物の色成分値に対応するインクの第2配合情報を特定する第2配合情報特定部と、第2配合情報特定部によって特定された第2配合情報を出力部から出力する第2出力制御部と、をさらに備え、第1画像取得部は、出力部から出力された第2配合情報に基づいて作成された基準物と対象物とを撮像した画像を第1画像として取得し、配合情報取得部は、出力部によって出力された第2配合情報を取得する、ことが好ましい。 Further, the information processing apparatus according to the present invention includes a second image acquisition unit that acquires at least a second image of an object, a second specification unit that specifies a color component value of the object from the second image, From the output unit, the second combination information specifying unit that specifies the second combination information of the ink corresponding to the color component value of the object specified from the two images and the second combination information specified by the second combination information specifying unit are output. And a second output control unit for outputting, wherein the first image acquisition unit is a first image obtained by capturing an image of the reference object and the target object created based on the second combination information output from the output unit. It is preferable that the combination information acquisition unit acquires the second combination information output by the output unit.
また、本発明に係る情報処理装置は、サンプル基準物の色に対応するインクの配合情報と、サンプル基準物の色成分値とサンプル対象物の色成分値との間の差分を示す差分情報とが入力された場合に、サンプル対象物の色に対応するインクの配合情報を出力するように事前学習された識別器をさらに備え、第1配合情報特定部は、基準物の配合情報と、基準物の色成分値及び対象物の色成分値とを識別器に入力したときに出力された配合情報を対象物の配合情報として取得することにより、前記対象物の配合情報を特定する、ことが好ましい。 Further, the information processing apparatus according to the present invention includes ink combination information corresponding to the color of the sample reference object, and difference information indicating a difference between the color component value of the sample reference object and the color component value of the sample target object. Further includes a discriminator pre-learned so as to output the ink composition information corresponding to the color of the sample target, and the first composition information identifying unit is configured to provide the reference composition information and the reference composition information. It is possible to specify the mixture information of the target object by acquiring the mixture information output when the color component value of the object and the color component value of the target object are input to the discriminator as the combination information of the target object. preferable.
また、本発明に係る制御方法は、情報処理装置の制御方法であって、基準物と対象物とを撮像した第1画像を取得し、基準物の色に対応するインクの配合情報を取得し、第1画像から基準物の色成分値と対象物の色成分値とを特定し、特定された基準物の色成分値と対象物の色成分値との間の差分を表す色差分情報を算出し、配合情報と色差分情報とに基づいて、対象物の色に対応するインクの配合情報を特定し、特定された配合情報を出力する、ことを含む。 A control method according to the present invention is a control method for an information processing apparatus, which acquires a first image of a reference object and an object, and acquires ink composition information corresponding to the color of the reference object. , The color component value of the reference object and the color component value of the target object are specified from the first image, and color difference information representing the difference between the color component value of the specified reference object and the color component value of the target object is obtained. And calculating the combination information of the ink corresponding to the color of the object based on the combination information and the color difference information, and outputting the specified combination information.
また、本発明に係る制御プログラムは、情報処理装置の制御プログラムであって、基準物と対象物とを撮像した第1画像を取得し、基準物の色に対応するインクの配合情報を取得し、第1画像から基準物の色成分値と対象物の色成分値とを特定し、特定された基準物の色成分値と対象物の色成分値との間の差分を表す色差分情報を算出し、配合情報と色差分情報とに基づいて、対象物の色に対応するインクの配合情報を特定し、特定された配合情報を出力する、ことを含むことを情報処理装置に実行させる。 Further, the control program according to the present invention is a control program for an information processing apparatus, and acquires a first image of a reference object and an object imaged, and acquires ink composition information corresponding to the color of the reference object. , The color component value of the reference object and the color component value of the target object are specified from the first image, and color difference information representing the difference between the color component value of the specified reference object and the color component value of the target object is obtained. The information processing apparatus is caused to perform the calculation, specify the ink combination information corresponding to the color of the object based on the combination information and the color difference information, and output the specified combination information.
本発明に係る情報処理装置、制御方法及び制御プログラムは、対象物の色に対応するインクの配合情報を高精度に特定することができる。 The information processing apparatus, the control method, and the control program according to the present invention can specify the ink combination information corresponding to the color of the object with high accuracy.
以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments, and extends to the inventions described in the claims and their equivalents.
(システムの概要)
図1は、本発明に係る配合情報提示システムによる処理の概要を説明するための模式図である。
(System overview)
FIG. 1 is a schematic diagram for explaining an outline of processing by the combination information presentation system according to the present invention.
まず、配合情報提示システムは、基準物と対象物とを撮像した第1画像を取得する。対象物は、ユーザがその対象物の色と同一の色のインクを所望している物であり、例えば、ユーザの携行物である。図1に示す例では、対象物は、ユーザが携行する鞄である。基準物は、所定の配合情報に基づいて複数の色のインクを配合して調色された色を含む物である。基準物は、例えば、パントン色見本帳である。 First, the composition information presentation system acquires a first image of a reference object and an object. The object is an object for which the user desires ink of the same color as that of the object, and is, for example, a user's carrying object. In the example shown in FIG. 1, the target object is a bag carried by the user. The reference product is a product including a color toned by mixing inks of a plurality of colors based on predetermined combination information. The reference item is, for example, a Pantone color sample book.
続いて、配合情報提示システムは、基準物の色に対応するインクの配合情報を取得する。基準物の色に対応するインクの配合情報は、例えば、その基準物の色を調色する際に用いられた複数の基準インクのそれぞれの体積又は配合比率を表す情報である。基準物の色に対応するインクの配合情報は、例えば、配合情報提示システムにあらかじめ記憶されている。基準インクは、あらかじめ定められた複数の異なる色のインクである。 Subsequently, the composition information presentation system acquires the composition information of the ink corresponding to the color of the reference material. The ink composition information corresponding to the color of the reference material is, for example, information indicating the volume or composition ratio of each of the plurality of reference inks used when the color of the reference material is toned. The ink composition information corresponding to the color of the reference material is stored in advance in, for example, the composition information presentation system. The reference ink is a plurality of inks of different predetermined colors.
続いて、配合情報提示システムは、第1画像から基準物の色成分値と対象物の色成分値とを特定する。配合情報提示システムは、例えば、第1画像における基準物の位置と対象物の位置とのユーザによる指定を受付け、第1画像内の指定された位置に対応する画素の色成分値を取得することで、基準物の色成分値と対象物の色成分値とを特定する。色成分値は、画素の色を一意に識別可能な情報であり、例えば、RGBの各色の階調値である。 Then, the combination information presentation system specifies the color component value of the reference object and the color component value of the target object from the first image. The combination information presentation system receives, for example, the user's designation of the position of the reference object and the position of the target object in the first image, and acquires the color component value of the pixel corresponding to the designated position in the first image. Then, the color component value of the reference object and the color component value of the object are specified. The color component value is information that can uniquely identify the color of the pixel, and is, for example, the gradation value of each color of RGB.
続いて、配合情報提示システムは、特定された基準物の色成分値と対象物の色成分値との間の差分を示す差分情報を算出する。配合情報提示システムは、例えば、RGBの各色について、対象物の色に対応する階調値から、基準物の色に対応する階調値を減算した減算値を差分情報として算出する。 Then, the combination information presentation system calculates difference information indicating a difference between the color component value of the specified reference object and the color component value of the target object. The combination information presentation system calculates a subtraction value obtained by subtracting the gradation value corresponding to the color of the reference object from the gradation value corresponding to the color of the target object as the difference information for each color of RGB.
続いて、配合情報提示システムは、取得された基準物の色に対応するインクの配合情報と算出された差分情報とに基づいて、対象物の色に対応するインクの配合情報を特定し、特定した配合情報を出力する。配合情報提示システムは、例えば、取得された基準物の色に対応するインクの配合情報から、算出された差分情報によって示される差分を考慮して対象物の色に対応するインクの配合情報を特定する。 Then, the composition information presentation system specifies the composition information of the ink corresponding to the color of the target object based on the acquired combination information of the ink corresponding to the color of the reference object and the calculated difference information, and specifies the combination information. The combined information is output. The composition information presentation system specifies the composition information of the ink corresponding to the color of the target object from the composition information of the ink corresponding to the color of the acquired reference object, in consideration of the difference indicated by the calculated difference information. To do.
なお、上述した図1の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。 The above description of FIG. 1 is merely for the purpose of deepening the understanding of the content of the present invention. The present invention is specifically implemented in each of the embodiments described below, and may be implemented by various modifications without substantially exceeding the principles of the present invention. All such modifications are within the scope of the invention and the disclosure herein.
(システムの構成)
図2は、配合情報提示システム1の概略構成の一例を示す図である。配合情報提示システム1は、端末装置2と、サーバ装置3を備える。
(System configuration)
FIG. 2 is a diagram showing an example of a schematic configuration of the combination
端末装置2は、例えば、ユーザによって所有され、カメラ等の撮像装置を有する多機能携帯電話(所謂「スマートフォン」)である。端末装置2は、カメラ等の撮像装置を有する携帯電話(所謂「フィーチャーフォン」)、携帯情報端末(Personal Digital Assistant,PDA)、タブレット端末、タブレットPC(Personal Computer)、携帯ゲーム機、携帯音楽プレイヤ又はノートPC等であってもよい。
The
サーバ装置3は、ワークステーション又はPC等の情報処理装置である。サーバ装置3は、所定の情報処理が可能な多機能携帯電話、タブレット端末等であってもよい。サーバ装置3は、ネットワーク4を介して、端末装置2と通信可能に接続される。ネットワーク4は、例えばインターネットである。ネットワーク4は、イントラネット、LAN(Local Area Network)等の他のネットワークを含んでもよい。なお、サーバ装置3は、情報処理装置の一例である。
The
(端末装置の構成)
図3は、端末装置2の概略構成の一例を示す図である。端末装置2は、端末通信部21と、端末記憶部22と、操作部23と、表示部24と、撮像部25と、端末処理部26とを備える。
(Configuration of terminal device)
FIG. 3 is a diagram showing an example of a schematic configuration of the
端末通信部21は、ネットワーク4を介して端末装置2をサーバ装置3と通信可能にする通信インタフェース回路を備える。端末通信部21が備える通信インタフェース回路は、LTE(Long Term Evolution)又は無線LANの通信インタフェース回路等である。端末通信部21は、端末処理部26から供給されたデータをサーバ装置3に送信するとともに、サーバ装置3から送信されたデータを受信し、端末処理部26に供給する。
The
端末記憶部22は、プログラムまたはデータを記憶するためのデバイスであり、例えば、半導体メモリ装置を備える。端末記憶部22は、端末処理部26による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、例えば、CD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記憶媒体から、公知のセットアッププログラム等を用いて端末記憶部22にインストールされる。
The
操作部23は、ユーザによる端末装置2の操作を受付けるためのデバイスであり、例えば、キーパッド等である。操作部23は、後述する表示部24と一体化されたタッチパネルであってもよい。操作部23は、ユーザによる文字、数字、記号等の入力操作を受付ける。操作部23は、ユーザによる操作を受付けた場合、その操作に対応する信号を生成し、端末処理部26に供給する。
The
表示部24は、端末装置2のユーザに対して画像等を表示するデバイスであり、例えば、液晶ディスプレイや有機ELディスプレイである。表示部24は、端末処理部26から供給されるデータに応じた画像等を表示する。
The
撮像部25は、結像光学系、撮像素子及び画像処理部等を備える。結像光学系は、例えば光学レンズであり、被写体からの光束を撮像素子の撮像面上に結像させる。撮像素子は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像信号を出力する。画像処理部は、撮像素子によって生成された画像信号から所定のファイル形式の画像データを生成して出力する。
The
端末処理部26は、一又は複数個のプロセッサ及びその周辺回路を備える。端末処理部26は、例えばCPU(Central Processing Unit)であり、端末装置2の動作を統括的に制御する。なお、端末処理部26は、DSP(Digital Signal Processor)、LSI(Large-Scaled IC)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等であってもよい。端末処理部26は、端末記憶部22に記憶されているプログラムや操作部23の操作に基づいて端末装置2の各種処理が適切な手順で実行されるように、表示部24や端末通信部21の動作を制御する。端末処理部26は、端末記憶部22に記憶されているプログラムに基づいて処理を実行する。また、端末処理部26は、複数のプログラムを並列に実行することができる。
The
端末処理部26は、撮像処理部261と、位置特定部262と、表示制御部263とを機能ブロックとして備える。撮像処理部261と、位置特定部262と、表示制御部263とは、端末処理部26が実行するプログラムによって実現される機能モジュールである。また、撮像処理部261と、位置特定部262と、表示制御部263とは、ファームウェアとして端末装置2に実装されてもよい。
The
(サーバ装置の構成)
図4は、サーバ装置3の概略構成の一例を示す図である。サーバ装置3は、サーバ通信部31と、サーバ記憶部32と、サーバ処理部33とを備える。
(Configuration of server device)
FIG. 4 is a diagram showing an example of a schematic configuration of the
サーバ通信部31は、ネットワーク4を介してサーバ装置3を端末装置2と通信可能にする通信インタフェース回路を備える。サーバ通信部31が備える通信インタフェース回路は、有線LANの通信インタフェース回路等である。サーバ通信部31は、サーバ処理部33から供給されたデータを端末装置2に送信するとともに、端末装置2から送信されたデータを受信し、サーバ処理部33に供給する。なお、サーバ通信部31は、出力部の一例である。
The server communication unit 31 includes a communication interface circuit that enables the
サーバ記憶部32は、プログラムまたはデータを記憶するためのデバイスであり、例えば、半導体メモリ装置を備える。サーバ記憶部32は、サーバ処理部33による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、例えば、CD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記憶媒体から、公知のセットアッププログラム等を用いてサーバ記憶部32にインストールされる。
The server storage unit 32 is a device for storing programs or data, and includes, for example, a semiconductor memory device. The server storage unit 32 stores an operating system program, a driver program, an application program, data and the like used for the processing by the
サーバ処理部33は、一又は複数個のプロセッサ及びその周辺回路を備える。サーバ処理部33は、例えばCPUであり、サーバ装置3の動作を統括的に制御する。なお、サーバ処理部33は、DSP、LSI、ASIC、FPGA等であってもよい。サーバ処理部33は、サーバ記憶部32に記憶されているプログラムに基づいてサーバ装置3の各種処理が適切な手順で実行されるように、サーバ通信部31の動作を制御する。サーバ処理部33は、サーバ記憶部32に記憶されているプログラムに基づいて処理を実行する。また、サーバ処理部33は、複数のプログラムを並列に実行することができる。
The
サーバ処理部33は、第2画像取得部331と、第2特定部332と、第2配合情報特定部333と、第2出力制御部334と、を機能ブロックとして備える。また、サーバ処理部33は、第1画像取得部335と、配合情報取得部336と、第1特定部337と、差分情報算出部338と、第1配合情報特定部339と、第1出力制御部340と、を機能ブロックとして備える。これらの各部は、サーバ処理部33が実行するプログラムによって実現される機能モジュールである。また、これらの各部は、ファームウェアとしてサーバ装置3に実装されてもよい。
The
(データ構造)
図5(a)は、サーバ装置3のサーバ記憶部32に記憶される初期配合情報テーブル500のデータ構造の一例を示す図である。初期配合情報テーブル500は、色成分値501と初期配合情報502とを関連付けて記憶している。
(data structure)
FIG. 5A is a diagram showing an example of the data structure of the initial combination information table 500 stored in the server storage unit 32 of the
色成分値501は、画像内の画素の色を一意に識別可能な情報である。図5(a)に示す例では、色成分値501は、RGBの各色の階調値である。色成分値501は、CMY、Yuv、L*a*b*等の、画素の色を一意に識別可能な、他の色空間における階調値であってもよい。
The
初期配合情報502は、関連付けられた色成分値で識別される色のインクを配合するための、あらかじめ定められた、それぞれ異なる複数の色の基準インクの配合情報である。図5(a)に示す例では、初期配合情報502は、インク1、インク2、インク3のそれぞれの基準インクの体積である。すなわち、ユーザは、それぞれの基準インクを、初期配合情報502によって示される体積だけ混合することにより、関連付けられた色成分値501によって識別されるインクの色を調色することができる。初期配合情報502は、複数の色の基準インクのそれぞれの体積ではなく、混合比率又は重量等の他の指標であってもよい。基準インクは、4つ以上の異なる色のインクであってもよい。なお、初期配合情報502は、第2配合情報の一例である。
The
なお、初期配合情報502は、配合情報提示システム1の管理者によって、各色成分値501についてあらかじめ適切に定められた情報である。
The
図5(b)は、サーバ装置3のサーバ記憶部32に記憶される修正配合情報テーブル510のデータ構造の一例を示す図である。修正配合情報テーブル510は、初期配合情報511と、差分情報512と、修正配合情報513とを関連付けて記憶している。
FIG. 5B is a diagram showing an example of the data structure of the modified combination information table 510 stored in the server storage unit 32 of the
初期配合情報511は、初期配合情報テーブル500の初期配合情報502に対応する情報である。差分情報512は、基準物の色成分値と対象物の色成分値との間の差分を示す情報である。図5(b)に示す例では、差分情報512は、RGBの各色について、対象物の色成分値である階調値から、基準物の色成分値である階調値を減算した値である。修正配合情報513は、初期配合情報511と差分情報512とによって定められる色のインクを配合するための、基準インクの配合情報である。なお、修正配合情報513は、第1配合情報の一例である。
The
なお、修正配合情報513は、配合情報提示システム1の管理者によって、各初期配合情報511と各差分情報512についてあらかじめ適切に定められた情報である。修正配合情報513は、例えば、差分情報512によって示される基準物の色成分値と対象物の色成分値の差分を埋めるように、初期配合情報511を修正した情報である。
The corrected
(処理の流れ)
図6及び図7は、配合情報提示システム1による処理の流れの一例を示すシーケンス図である。まず、図6を用いて配合情報提示システム1による処理の流れを説明する。
(Process flow)
6 and 7 are sequence diagrams showing an example of the flow of processing by the combination
まず、端末装置2の撮像処理部261は、撮像部25を制御して、少なくとも対象物を撮像した第2画像を生成する(S601)。撮像処理部261は、例えば、ユーザの操作部23に対する操作に従って、対象物を撮像することによって第2画像を生成する。対象物は、ユーザがその対象物の色と同一の色のインクを所望している物であり、例えば、ユーザの携行物である。
First, the image
続いて、位置特定部262は、第2画像において対象物の位置を特定する(S602)。位置特定部262は、例えば、第2画像を含む第2位置特定画面を表示部24に表示し、ユーザによる、第2画像内の特定の位置の指定を受付けることによって、対象物の位置を特定する。
Subsequently, the
図8(a)は、位置特定部262によって表示部24に表示される第2位置特定画面800の一例を示す図である。第2位置特定画面800は、第2画像801と、位置指定オブジェクト802と、テキスト表示領域803と、位置決定ボタン804とを含む。位置指定オブジェクト802は、第2画像801において、対象物の位置としてユーザによって指定された位置を示すオブジェクトである。テキスト表示領域803は、ユーザに位置の指定を促すテキストが表示される領域である。位置決定ボタン804は、対象物の位置を位置指定オブジェクト802によって示される位置に決定するためのボタンである。
FIG. 8A is a diagram showing an example of the second
位置特定部262は、第2位置特定画面800を表示部24に表示しているときに、ユーザによる、第2画像801における対象物の位置の指定を受付ける。例えば、操作部23が表示部24と一体化したタッチパネルである場合、ユーザは、表示部24に表示されている第2画像801内の対象物の位置にタッチすることにより、対象物の位置を指定することができる。位置特定部262は、対象物の位置の指定を受付けたことに応じて、指定された位置に位置指定オブジェクト802を表示する。続いて、ユーザは、位置指定オブジェクト802が表示された位置が対象物の位置であることを確認し、位置決定ボタン804にタッチする。ユーザが位置決定ボタン804にタッチした場合、位置特定部262は、指定された位置を対象物の位置として特定する。なお、位置特定部262は、第2画像内の一点でない領域を、対象物が含まれる領域として特定してもよい。
The
図6に戻り、端末装置2は、端末通信部21を介して、生成した第2画像と、特定された対象物の位置を示す対象物位置情報とをサーバ装置3に送信する。
Returning to FIG. 6, the
続いて、サーバ装置3の第2画像取得部331は、第2画像と対象物位置情報とを取得する(S603)。第2画像取得部331は、サーバ通信部31を介して、第2画像と対象物位置情報とを受信することにより、第2画像と対象物位置情報とを取得する。
Subsequently, the second
続いて、第2特定部332は、第2画像から対象物の色成分値を特定する(S604)。第2特定部332は、例えば、第2画像内の画素のうち、対象物位置情報によって特定される位置の画素の色成分値を取得することにより、対象物の色成分値を特定する。なお、対象物位置情報によって所定の領域が特定される場合、第2特定部332は、特定された領域に含まれる複数の画素の色成分値の中央値又は平均値を対象物の色成分値としてよい。
Subsequently, the second specifying
続いて、第2配合情報特定部333は、第2画像から特定された対象物の色成分値に対応するインクの配合情報である初期配合情報を特定する(S605)。第2配合情報特定部333は、サーバ記憶部32の初期配合情報テーブル500を参照し、対象物の色成分値と一致する色成分値501に関連付けられた初期配合情報502を特定する。このとき、第2配合情報特定部333は、特定された初期配合情報をサーバ記憶部32に記憶してもよい。
Subsequently, the second combination
続いて、第2出力制御部334は、サーバ通信部31を介して、特定された初期配合情報を送信することにより出力する(S606)。
Then, the 2nd
続いて、端末装置2の表示制御部263は、初期配合情報を表示部24に表示する(S607)。表示制御部263は、端末通信部21を介して、サーバ装置3から初期配合情報を受信する。続いて、表示制御部263は、受信した初期配合情報に含まれるインクの種別と、それぞれのインクの体積の情報を表示部24に表示する。
Subsequently, the
続いて、図7に進み、端末装置2の撮像処理部261は、撮像部25を制御して、基準物と対象物とを撮像した第1画像を生成する(S701)。撮像処理部261は、例えば、ユーザの操作部23に対する操作に従って、基準物と対象物とを撮像することによって第1画像を生成する。基準物は、初期配合情報によって調色される色に対応する物である。基準物は、例えば、パントン色見本帳のうち、初期配合情報によって調色された色としてユーザによって選択された色である。
Subsequently, proceeding to FIG. 7, the image capturing
続いて、位置特定部262は、第1画像において基準物と対象物との位置をそれぞれ特定する(S702)。位置特定部262は、例えば、第1画像を含む第1位置特定画面を表示部24に表示し、ユーザによる、第1画像内の特定の位置の指定を受付けることによって、基準物と対象物との位置を特定する。
Subsequently, the
図8(b)は、位置特定部262によって表示部24に表示される第1位置特定画面810の一例を示す図である。第1位置特定画面810は、第1画像811と、基準物位置指定オブジェクト812と、対象物位置指定オブジェクト813と、テキスト表示領域814と、位置決定ボタン815とを含む。基準物位置指定オブジェクト812は、第1画像811において、基準物の位置又は領域としてユーザによって指定された位置又は領域を示すオブジェクトである。対象物位置指定オブジェクト813は、第1画像811において、対象物の位置又は領域としてユーザによって指定された位置又は領域を示すオブジェクトである。テキスト表示領域814と位置決定ボタン815とは、第2位置特定画面800と同様である。
FIG. 8B is a diagram showing an example of the first
位置特定部262は、第1位置特定画面810を表示部24に表示しているときに、ユーザによる、第1画像における基準物と対象物との位置の指定を受付ける。例えば、操作部23が表示部24と一体化したタッチパネルである場合、ユーザは、表示部24に表示されている第1画像811内の基準物と対象物との位置にそれぞれタッチすることにより、基準物と対象物との位置を指定することができる。位置特定部262は、基準物の位置の指定を受付けたことに応じて、指定された位置に基準物位置指定オブジェクト812を表示する。また、位置特定部262は、対象物の位置の指定を受付けたことに応じて、指定された位置に対象物位置指定オブジェクト813を表示する。続いて、ユーザは、基準物位置指定オブジェクト812が表示された位置が基準物の位置であり、対象物位置指定オブジェクト813が表示された位置が対象物の位置であることを確認し、位置決定ボタン815の表示領域にタッチする。位置特定部262は、ユーザが位置決定ボタン815の表示領域にタッチしたことに応じて、指定された位置をそれぞれ基準物と対象物との位置として特定する。
The
図7に戻り、端末装置2は、端末通信部21を介して、生成した第1画像と、特定された基準物の位置を示す基準物位置情報と、対象物の位置を示す対象物位置情報とをサーバ装置3に送信する。
Returning to FIG. 7, the
続いて、サーバ装置3の第1画像取得部335は、第1画像と基準物位置情報と対象物位置情報とを取得する(S703)。第1画像取得部335は、サーバ通信部31を介して、第1画像と基準物位置情報と対象物位置情報とを受信することにより、第1画像と対象物位置情報とを取得する。
Subsequently, the first
続いて、配合情報取得部336は、基準物の初期配合情報を取得する(S704)。配合情報取得部336は、例えば、第2配合情報特定部333がサーバ記憶部32に記憶した初期配合情報を取得してよい。また、配合情報取得部336は、端末装置2から初期配合情報を取得してもよい。この場合、端末装置2は、操作部23を介して、ユーザによる初期配合情報の入力を受付け、端末通信部21を介して、入力された初期配合情報をサーバ装置3に送信する。
Subsequently, the combination
続いて、第1特定部337は、第1画像から基準物の色成分値と対象物の色成分値とを特定する(S705)。第1特定部337は、例えば、第1画像内の画素のうち、基準物位置情報によって特定される位置の画素の色成分値を取得することにより、基準物の色成分値を特定する。また、第1特定部337は、第1画像内の画素のうち、対象物位置情報によって特定される位置の画素の色成分値を取得することにより、対象物の色成分値を特定する。なお、基準物位置情報によって所定の領域が特定される場合、第1特定部337は、特定された領域に含まれる複数の画素の色成分値の中央値又は平均値を対象物の色成分値としてよい。
Subsequently, the first specifying
続いて、差分情報算出部338は、特定された基準物の色成分値と対象物の色成分値との間の差分を示す差分情報を算出する(S706)。色成分値がRGBの階調値である場合、差分情報算出部338は、RGBの各色について、対象物の階調値から、基準物の階調値をそれぞれ減算した減算値を差分情報として算出する。
Subsequently, the difference
続いて、第1配合情報特定部339は、初期配合情報と差分情報とに基づいて、対象物の色に対応するインクの配合情報である修正配合情報を特定する(S707)。第1配合情報特定部339は、サーバ記憶部32に記憶された修正配合情報テーブル510を参照し、初期配合情報と差分情報との組み合わせに関連付けられた修正配合情報513を特定する。
Subsequently, the first combination
続いて、第1出力制御部340は、サーバ通信部31を介して、特定された修正配合情報を端末装置2に送信することにより出力する(S708)。
Then, the 1st
続いて、端末装置2の表示制御部263は、修正配合情報を表示部24に表示する(S709)。表示制御部263は、端末通信部21を介して、サーバ装置3から修正配合情報を受信する。続いて、表示制御部263は、受信した修正配合情報に含まれるインクの種別と、それぞれのインクの体積の情報を表示部24に表示する。
Subsequently, the
これにより、配合情報提示システム1は一連の処理を終了する。
As a result, the combination
なお、配合情報提示システム1において、S601からS607は、省略されてもよい。この場合、S704において、配合情報取得部336は、端末装置2から初期配合情報を取得する。このようにすることで、配合情報提示システム1は、より簡易に対象物の色に対応するインクの配合情報を出力することができる。
In addition, in the combination
また、S701からS709は、繰り返し実行されてもよい。この場合、S704において、配合情報取得部336は、第1配合情報特定部339が特定した修正配合情報を初期配合情報として取得する。このようにすることで、配合情報提示システム1は、修正配合情報と差分情報とに基づいて新たに修正配合情報を特定するため、より対象物の色に近い修正配合情報を提示することが可能となる。
Moreover, S701 to S709 may be repeatedly executed. In this case, in S704, the combination
以上説明したように、本発明に係るサーバ装置3は、初期配合情報と、基準物と対象物とを撮像した第1画像における基準物の色成分値と対象物の色成分値の差分情報に基づいて修正配合情報を特定し、出力する。これにより、サーバ装置3は、対象物の色に対応するインクの配合情報を高精度に特定することができる。
As described above, the
すなわち、端末装置2の撮像部25の仕様及び端末装置2が対象物を撮像した時の外部環境は、配合情報提示システム1の管理者によって初期配合情報が定められた時に使用された撮像装置の仕様及びその際にサンプルの基準物を撮像した時の外部環境とは異なる。したがって、仮に、サーバ装置3が、対象物のみが撮像された画像に基づいて配合情報を特定しようとすると、撮像部25の仕様や撮像時の外部環境の影響により、対象物の色に対応するインクの配合情報を高精度に特定することができない。本発明に係るサーバ装置3は、基準物と対象物との両方が撮像された第1画像から差分情報を算出する。このようにすることで、サーバ装置3は、撮像部25の仕様や撮像時の外部環境の影響を受けることなく、基準物の色と対象物の色との差分を算出することができ、対象物の色により近い色を表す配合情報を特定することができる。
That is, the specifications of the
また、本発明に係るサーバ装置3は、対象物を撮像した第2画像に基づいて初期配合情報を特定する。これにより、本発明に係るサーバ装置3は、対象物の色に近い色の基準物を生成するための初期配合情報を簡易にユーザに提示することができる。
Further, the
(変形例1)
上述の説明では、第1配合情報特定部339は、サーバ記憶部32に記憶された修正配合情報テーブル510を参照して修正配合情報を特定するものとしたが、これに限られない。例えば、第1配合情報特定部339は、事前学習された識別器を用いて修正配合情報を特定してよい。
(Modification 1)
In the above description, the first combination
この場合、サーバ記憶部32は、第1学習用入力情報が入力された場合に第1学習用配合情報を出力するように事前学習されたニューラルネットワークである第1識別器をさらに記憶する。 In this case, the server storage unit 32 further stores a first discriminator that is a neural network that has been pre-learned so as to output the first learning combination information when the first learning input information is input.
第1識別器の事前学習は、例えば、ディープラーニング等の公知の機械学習技術を用いて、第1学習用入力情報と第1学習用配合情報との関係を学習することにより行われる。第1学習用入力情報は、複数のサンプル基準物と複数のサンプル対象物について、各サンプル基準物の色に対応するインクの配合情報と、各サンプル基準物の色成分値と各サンプル対象物の色成分値との差分を示すサンプル差分情報である。また、第1学習用配合情報は、各サンプル対象物の色に対応するインクの配合情報である。 The pre-learning of the first discriminator is performed by learning the relationship between the first learning input information and the first learning combination information using a known machine learning technique such as deep learning. The first learning input information is, for a plurality of sample reference objects and a plurality of sample objects, ink combination information corresponding to the color of each sample reference object, the color component value of each sample reference object, and each sample object. It is sample difference information indicating a difference from the color component value. Further, the first learning combination information is ink combination information corresponding to the color of each sample object.
ニューラルネットワークである第1識別器は、入力層、中間層及び出力層から構成される多層構造を有する。入力層の各ノードには、例えば、サンプル基準物の色に対応するインクの配合情報と、サンプル差分情報とがそれぞれ入力される。中間層の各ノードには、入力層の各ノードから出力された値の、所定の重みに基づく重み付け和が入力される。出力層の各ノードには、中間層の各ノードから出力された値の、所定の重みに基づく重み付け和が入力される。出力層は、例えば、入力された値をそのまま出力する。 The first classifier, which is a neural network, has a multi-layer structure including an input layer, an intermediate layer, and an output layer. To each node of the input layer, for example, ink combination information corresponding to the color of the sample reference material and sample difference information are input, respectively. A weighted sum based on a predetermined weight of the values output from each node of the input layer is input to each node of the intermediate layer. A weighted sum based on a predetermined weight of the values output from each node of the intermediate layer is input to each node of the output layer. The output layer outputs the input value as it is, for example.
第1識別器において、各重みは、出力層によって出力された値と学習用配合情報との差分が小さくなるように設定される。重みの設定は、例えば、誤差逆伝搬法などの公知の手法によることができる。 In the first discriminator, each weight is set so that the difference between the value output by the output layer and the learning combination information is small. The weight can be set by a known method such as an error back propagation method.
図7のS707において、第1配合情報特定部339は、サーバ記憶部32から第1識別器を取得する。そして、第1配合情報特定部339は、基準物の配合情報と、基準物の色成分値と対象物の色成分値との差分情報を第1識別器に入力したときに出力された配合情報を対象物の配合情報として取得することにより、修正配合情報を特定する。
In S707 of FIG. 7, the first combination
このようにすることで、サーバ記憶部32が、修正配合情報テーブル510を記憶する必要がなくなるため、配合情報提示システム1は、本発明の実施に必要となるサーバ記憶部32の記憶容量を低減することができる。また、あらかじめ修正配合情報テーブル510を作成する必要がなくなるため、配合情報提示システム1の管理者の作業負荷が軽減される。
By doing so, the server storage unit 32 does not need to store the modified combination information table 510, and thus the combination
なお、同様に、第2配合情報特定部333が、事前学習された識別器を用いて初期配合情報を算出するように構成してもよい。この場合、サーバ記憶部32は、第2学習用入力情報が入力された場合に第2学習用配合情報を出力するように事前学習されたニューラルネットワークである第2識別器をさらに記憶する。
In addition, similarly, the second combination
第2識別器の事前学習は、上述したような公知の機械学習技術を用いて、第2学習用入力情報と第2学習用配合情報との関係を学習することにより行われる。第2学習用入力情報は、複数のサンプル対象物の色成分値である。また、第2学習用配合情報は、各サンプル対象物の色に対応するインクの配合情報である。 The pre-learning of the second discriminator is performed by learning the relationship between the second learning input information and the second learning combination information using the known machine learning technique as described above. The second learning input information is color component values of a plurality of sample objects. The second learning mixture information is ink mixture information corresponding to the color of each sample object.
この場合、図6のS605において、第2配合情報特定部333は、サーバ記憶部32から第2識別器を取得する。そして、第2配合情報特定部333は、対象物の色成分値を第2識別器に入力したときに出力された配合情報を初期配合情報として取得することにより、初期配合情報を特定する。
In this case, in S605 of FIG. 6, the second combination
(変形例2)
本発明に係るサーバ装置3における処理は、端末装置2において実行されてもよい。この場合、サーバ記憶部32に記憶されていたプログラム及びデータは、端末記憶部22に記憶される。また、サーバ処理部33に備えられていた各機能ブロックは、端末処理部26に備えられる。このようにすることで、端末通信部21を有しない端末装置2であっても、本発明を実施することができる。
(Modification 2)
The process in the
当業者は、本発明の精神および範囲から外れることなく、様々 な変更、置換及び修正をこれに加えることが可能であることを理解されたい。例えば、上述した各部の処理は、本発明の範囲において、適宜に異なる順序で実行されてもよい。また、上述した実施形態及び変形例は、本発明の範囲において、適宜に組み合わせて実施されてもよい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the invention. For example, the processing of each unit described above may be appropriately executed in a different order within the scope of the present invention. Further, the above-described embodiments and modified examples may be implemented in an appropriate combination within the scope of the present invention.
1 配合情報提示システム
3 サーバ装置
31 サーバ通信部
32 サーバ記憶部
331 第2画像取得部
332 第2特定部
333 第2配合情報特定部
334 第2出力制御部
335 第1画像取得部
336 配合情報取得部
337 第1特定部
338 差分情報算出部
339 第1配合情報特定部
340 第1出力制御部
1 Combination
Claims (5)
基準物と対象物とを撮像した第1画像を取得する第1画像取得部と、
前記基準物の色に対応するインクの配合情報を取得する配合情報取得部と、
前記第1画像から前記基準物の色成分値と前記対象物の色成分値とを特定する第1特定部と、
特定された前記基準物の色成分値と前記対象物の色成分値との間の差分を示す差分情報を算出する差分情報算出部と、
前記配合情報と前記差分情報とに基づいて、前記対象物の色に対応するインクの配合情報を特定する第1配合情報特定部と、
特定された前記対象物の前記配合情報を前記出力部から出力する第1出力制御部と、
を備える、情報処理装置。 Output part,
A first image acquisition unit that acquires a first image of a reference object and an object,
A combination information acquisition unit for acquiring ink combination information corresponding to the color of the reference material,
A first specifying unit that specifies a color component value of the reference object and a color component value of the object from the first image;
A difference information calculation unit that calculates difference information indicating a difference between the identified color component value of the reference object and the color component value of the target object;
A first combination information specifying unit that specifies the combination information of the ink corresponding to the color of the target object based on the combination information and the difference information;
A first output control unit that outputs the combination information of the specified target from the output unit;
An information processing device comprising:
前記第2画像から前記対象物の色成分値を特定する第2特定部と、
前記第2画像から特定された前記対象物の色成分値に対応するインクの第2配合情報を特定する第2配合情報特定部と、
前記第2配合情報特定部によって特定された前記第2配合情報を前記出力部から出力する第2出力制御部と、
をさらに備え、
前記第1画像取得部は、前記出力部から出力された前記第2配合情報に基づいて作成された基準物と前記対象物とを撮像した画像を前記第1画像として取得し、
前記配合情報取得部は、前記出力部によって出力された前記第2配合情報を取得する、
請求項1に記載の情報処理装置。 A second image acquisition unit that acquires at least a second image of the object,
A second specifying unit that specifies a color component value of the object from the second image;
A second combination information specifying unit that specifies second combination information of the ink corresponding to the color component value of the object specified from the second image;
A second output control unit for outputting the second combination information specified by the second combination information specifying unit from the output unit;
Further equipped with,
The first image acquisition unit acquires, as the first image, an image obtained by capturing an image of the reference object and the target object created based on the second combination information output from the output unit,
The combination information acquisition unit acquires the second combination information output by the output unit,
The information processing apparatus according to claim 1.
前記第1配合情報特定部は、前記基準物の配合情報と、前記基準物の色成分値と前記対象物の色成分値との差分情報を前記識別器に入力したときに出力された配合情報を前記対象物の配合情報として取得することにより、前記対象物の配合情報を特定する、
請求項1又は2に記載の情報処理装置。 When the combination information of the ink corresponding to the color of the sample reference object and the difference information indicating the difference between the color component value of the sample reference object and the color component value of the sample object are input, the sample object Further comprising a discriminator pre-learned to output ink formulation information corresponding to the color of the object,
The first combination information identification unit outputs the combination information output when the combination information of the reference product and the difference information between the color component value of the reference product and the color component value of the target object is input to the discriminator. By specifying as the combination information of the target object, specify the combination information of the target object,
The information processing apparatus according to claim 1.
基準物と対象物とを撮像した第1画像を取得し、
前記基準物の色に対応するインクの配合情報を取得し、
前記第1画像から前記基準物の色成分値と前記対象物の色成分値とを特定し、
特定された前記基準物の色成分値と前記対象物の色成分値との間の差分を示す差分情報を算出し、
前記配合情報と前記差分情報とに基づいて、前記対象物の色に対応するインクの配合情報を特定し、
特定された前記配合情報を前記出力部から出力する、
ことを含む、制御方法。 A method for controlling an information processing apparatus including an output unit, comprising:
Obtaining a first image of the reference object and the object,
Obtaining ink formulation information corresponding to the color of the reference material,
Specifying a color component value of the reference object and a color component value of the object from the first image,
Calculating difference information indicating a difference between the color component value of the specified reference object and the color component value of the object,
Based on the combination information and the difference information, specify the combination information of the ink corresponding to the color of the object,
Outputting the specified combination information from the output unit,
A control method including:
基準物と対象物とを撮像した第1画像を取得し、
前記基準物の色に対応するインクの配合情報を取得し、
前記第1画像から前記基準物の色成分値と前記対象物の色成分値とを特定し、
特定された前記基準物の色成分値と前記対象物の色成分値との間の差分を示す差分情報を算出し、
前記配合情報と前記差分情報とに基づいて、前記対象物の色に対応するインクの配合情報を特定し、
特定された前記配合情報を前記出力部から出力する、
ことを含むことを前記情報処理装置に実行させる、制御プログラム。 A control program for an information processing apparatus having an output unit,
Obtaining a first image of the reference object and the object,
Obtaining ink formulation information corresponding to the color of the reference material,
Specifying a color component value of the reference object and a color component value of the object from the first image,
Calculating difference information indicating a difference between the color component value of the specified reference object and the color component value of the object,
Based on the combination information and the difference information, specify the combination information of the ink corresponding to the color of the object,
Outputting the specified combination information from the output unit,
A control program that causes the information processing device to execute the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018240144A JP2020101459A (en) | 2018-12-21 | 2018-12-21 | Information processing device, control method and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018240144A JP2020101459A (en) | 2018-12-21 | 2018-12-21 | Information processing device, control method and control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020101459A true JP2020101459A (en) | 2020-07-02 |
Family
ID=71140209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018240144A Pending JP2020101459A (en) | 2018-12-21 | 2018-12-21 | Information processing device, control method and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020101459A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07276612A (en) * | 1994-04-12 | 1995-10-24 | Datsuku Eng Kk | Quality inspecting method |
CN104678966A (en) * | 2015-02-10 | 2015-06-03 | 福建豪迪涂料科技股份有限公司 | Paint/ink preparing and toning method controlled in remote/field manner |
JP2016007736A (en) * | 2014-06-23 | 2016-01-18 | 株式会社ミマキエンジニアリング | Ink jet ink color matching device and use of the same |
JP2018101254A (en) * | 2016-12-20 | 2018-06-28 | Necプラットフォームズ株式会社 | Color matching information providing device, color matching information providing method, and color matching information providing program |
-
2018
- 2018-12-21 JP JP2018240144A patent/JP2020101459A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07276612A (en) * | 1994-04-12 | 1995-10-24 | Datsuku Eng Kk | Quality inspecting method |
JP2016007736A (en) * | 2014-06-23 | 2016-01-18 | 株式会社ミマキエンジニアリング | Ink jet ink color matching device and use of the same |
CN104678966A (en) * | 2015-02-10 | 2015-06-03 | 福建豪迪涂料科技股份有限公司 | Paint/ink preparing and toning method controlled in remote/field manner |
JP2018101254A (en) * | 2016-12-20 | 2018-06-28 | Necプラットフォームズ株式会社 | Color matching information providing device, color matching information providing method, and color matching information providing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5995520B2 (en) | Image processing support system, information processing apparatus, and image processing shadow support method | |
CN101248409B (en) | A displacement and tilt detection method for a portable autonomous device having an integrated image sensor and a device therefor | |
US20160005152A1 (en) | Multi-Feature Image Haze Removal | |
WO2016107268A1 (en) | Method and device for color adjustment | |
US10586308B2 (en) | Digital media environment for removal of obstructions in a digital image scene | |
US9953220B2 (en) | Cutout object merge | |
US9826208B2 (en) | Method and system for generating weights for use in white balancing an image | |
WO2018045592A1 (en) | Image shooting method and device, and terminal | |
US20160086513A1 (en) | Server apparatus, data integration method and electronic device | |
JP2015018013A (en) | Display controller, program, and recording medium | |
WO2022042754A1 (en) | Image processing method and apparatus, and device | |
US9443134B2 (en) | Propagating object selection across multiple images | |
JP2016048408A (en) | Image composition device and image composition method, and image composition program and recording medium having image composition program stored therein | |
JP6172998B2 (en) | Image processing apparatus and image processing method | |
KR20200135998A (en) | Position posture detection method and device, electronic device and storage medium | |
JP2020101459A (en) | Information processing device, control method and control program | |
JP5664811B1 (en) | Image adjustment apparatus, image forming apparatus, management apparatus, image adjustment system, and program | |
JP2013207745A (en) | Image pickup device, image processing method, and program | |
JP6777507B2 (en) | Image processing device and image processing method | |
JP2020107262A (en) | Information processing apparatus, method, and control program | |
CN111521127B (en) | Measuring method, measuring apparatus, and recording medium | |
JP2015125541A (en) | Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program | |
CN113284199A (en) | Image gray area determination method, electronic device and server | |
JP2020030594A (en) | Image forming apparatus, system, control method for image forming apparatus, and program | |
JP2019133352A (en) | Image processing device, image processing method and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230307 |