JP7151753B2 - Nail contour detection device, printing device, nail contour detection method and program - Google Patents
Nail contour detection device, printing device, nail contour detection method and program Download PDFInfo
- Publication number
- JP7151753B2 JP7151753B2 JP2020170515A JP2020170515A JP7151753B2 JP 7151753 B2 JP7151753 B2 JP 7151753B2 JP 2020170515 A JP2020170515 A JP 2020170515A JP 2020170515 A JP2020170515 A JP 2020170515A JP 7151753 B2 JP7151753 B2 JP 7151753B2
- Authority
- JP
- Japan
- Prior art keywords
- nail
- learning model
- detection
- contour
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、爪輪郭検出装置、印刷装置、爪輪郭検出方法及びプログラムに関するものである。 The present invention relates to a nail contour detection device, a printing device, a nail contour detection method, and a program.
従来、指の爪等にネイルデザインの印刷を行う印刷装置(ネイルプリント装置)が知られている。
爪にネイルデザインを印刷する場合、例えば爪を含む指の画像から爪の輪郭を検出し、この爪輪郭の内側領域を印刷対象領域として印刷を行う。
2. Description of the Related Art Conventionally, a printing device (nail printing device) that prints a nail design on a fingernail or the like is known.
When printing a nail design on a nail, for example, the contour of the nail is detected from an image of the finger including the nail, and the area inside the contour of the nail is printed as the print target area.
このため、はみ出しや塗残しのない高品位なネイルプリントを施すためには、爪の領域を周りの指(皮膚)部分と区別して、正しく爪輪郭を検出することが重要となる。
この点、ターゲットを撮影した静止画像についてマルコフ確率場(MRF;MarkovRandom Field)モデルを用いて領域分割を行い、その後のオブジェクト抽出等の画像処理を行うための前処理を行う技術が知られている(例えば、特許文献1参照)。
このような技術を、爪とそれ以外(指等の皮膚部分)とを区別して爪の領域だけを検出する場合に適用することも考えられる。
For this reason, it is important to distinguish the nail region from surrounding finger (skin) portions and accurately detect the contour of the nail in order to obtain a high-quality nail print that does not run out or remain unpainted.
In this regard, a technique is known in which a static image of a target is segmented using a Markov Random Field (MRF) model, and preprocessing is performed for subsequent image processing such as object extraction. (See
It is conceivable to apply such a technique to the case where only the nail region is detected by distinguishing between the nail and the rest (skin portion such as a finger).
しかしながら、爪に印刷を行う場合、インクの発色をよくする等のため、予め爪の領域に下地を塗布する場合がある。この場合、下地の色は常に同じとは限らない。
爪に塗布されている下地の色が予め学習されている色と異なる場合、特許文献1に記載の手法のようにMRFモデル等の計算モデルを用いた領域分割がうまく機能せず、正しく爪輪郭を検出できないという問題がある。
例えば白色の部分を検出するように学習した学習モデルでは、薄いピンクや薄い水色などの白色以外の下地が爪に塗布されている場合に爪の輪郭を正しく検出することができない。
However, in the case of printing on the nails, in order to improve the color development of the ink, etc., there are cases in which a base is applied to the nail region in advance. In this case, the background color is not always the same.
When the color of the base applied to the nail is different from the color learned in advance, the area segmentation using a computational model such as the MRF model as in the method described in
For example, a learning model trained to detect a white portion cannot correctly detect the contour of the nail when the nail is coated with a base other than white, such as light pink or light blue.
この点、下地の色ごとに学習し、各色に対応する学習モデルを作成し直すことも考えられるが、複数の学習モデルを一から作り直すことは、手間も時間もかかり煩雑である。
また、学習し直さずに対応する手法として、撮影した画像の下地の色が学習モデルにおいて学習済みの色(例えば白色)となるように、撮影画像に対して色の補正(ホワイトバランス)を行うことも考えられる。
しかし、この場合には、下地が塗布されている領域だけでなく、皮膚等、爪以外の領域の色まで補正されてしまうため、検出精度が低下してしまう。
In this respect, it is conceivable to learn for each base color and recreate a learning model corresponding to each color, but recreating a plurality of learning models from scratch is troublesome and time consuming.
In addition, as a method to cope without re-learning, color correction (white balance) is performed on the captured image so that the background color of the captured image becomes the color that has been learned in the learning model (for example, white). It is also possible.
However, in this case, not only the color of the area where the base is applied but also the color of the area other than the nail, such as the skin, is corrected, resulting in a decrease in detection accuracy.
本発明は以上のような事情に鑑みてなされたものであり、下地として爪に塗られている色に関わりなく適切に爪輪郭を検出することのできる爪輪郭検出装置、印刷装置、爪輪郭検出方法及びプログラムを提供することを利点とするものである。 SUMMARY OF THE INVENTION The present invention has been made in view of the circumstances as described above, and provides a nail contour detecting device, a printing device, and a nail contour detecting device capable of appropriately detecting the nail contour regardless of the color of the base applied to the nail. It is an advantage to provide a method and program.
前記課題を解決するために、本発明の爪輪郭検出装置は、
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得手段と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成手段と、
前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出手段と、
を備えることを特徴とする。
In order to solve the above problems, the nail contour detection device of the present invention includes:
a pixel information obtaining means for obtaining values relating to pixels in a detection area detected from an image including a nail to which a foundation is applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. learning model generation means for generating a second learning model for detection;
detection means for detecting, when the learning model generating means generates the second learning model, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
characterized by comprising
本発明によれば、下地として爪に塗られている色に関わりなく適切に爪輪郭を検出することが可能となるとの効果を奏する。 According to the present invention, it is possible to appropriately detect the contour of the nail regardless of the color of the base applied to the nail.
図1から図4を参照しつつ、本発明に係る爪輪郭検出装置、印刷装置、爪輪郭検出方法及びプログラムの一実施形態について説明する。
なお、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、本発明の範囲を以下の実施形態及び図示例に限定するものではない。
また、以下の実施形態では、印刷装置が手の指の爪を印刷対象としてこれに印刷するネイルプリント装置を例に説明するが、本発明における印刷装置の印刷対象は手の指の爪に限るものではなく、例えば足の指の爪等を印刷対象としてもよい。
An embodiment of a nail contour detection device, a printing device, a nail contour detection method, and a program according to the present invention will be described with reference to FIGS. 1 to 4. FIG.
Although various technically desirable limitations are attached to the embodiments described below for carrying out the present invention, the scope of the present invention is not limited to the following embodiments and illustrated examples.
Further, in the following embodiments, a nail printing apparatus in which the printing apparatus prints on fingernails as an object to be printed will be described as an example, but the printing object of the printing apparatus in the present invention is limited to fingernails. Instead of objects, for example, toe nails or the like may be printed.
図1は、本実施形態における印刷装置(ネイルプリント装置)の外観を示す斜視図である。また本実施形態では、印刷装置が端末装置と連携して爪に印刷を行う場合を例示する。図2は、印刷装置及びこれと連携する端末装置の要部制御構成を示すブロック図である。
なお、以下の実施形態において、上下、左右及び前後は、図1に示した向きをいうものとする。また、X方向、Y方向は、図1に示した方向をいうものとする。
FIG. 1 is a perspective view showing the appearance of a printing device (nail printing device) according to this embodiment. Further, in this embodiment, a case in which a printing device prints on a nail in cooperation with a terminal device will be exemplified. FIG. 2 is a block diagram showing a main control configuration of a printing device and a terminal device cooperating therewith.
In the following embodiments, up and down, left and right, and front and back refer to directions shown in FIG. Also, the X direction and the Y direction refer to the directions shown in FIG.
本実施形態において、印刷装置1は、図1に示すように、ほぼ箱形に形成された筐体11を有している。
筐体11の上面(天板)には操作部12が設置されている。
操作部12は、ユーザが各種入力を行う操作部である。
操作部12は、例えば、印刷装置1の電源をONする電源スイッチ釦、動作を停止させる停止スイッチ釦、印刷開始を指示する印刷開始釦等、各種の入力を行うための操作釦で構成されている。
操作部12が操作されると操作に応じた操作信号が制御装置30に出力され、制御装置30が操作信号に従った制御を行い、印刷装置1の各部を動作させる。
なお、操作部12に代えて、後述する端末装置7の操作部71から入力された操作信号に従って印刷装置1の各部が動作するようにしてもよい。
In this embodiment, as shown in FIG. 1, the
An
The
The
When the
Instead of the
また、印刷装置1は通信部14(図2参照)を備えている。通信部14は、端末装置7との間で情報の送受信が可能に構成されたものである。
印刷装置1と端末装置7との間での通信は、例えば無線LAN等により行われる。なお、印刷装置1と端末装置7との間での通信はこれに限定されず、いかなる方式によるものでもよい。通信部14は端末装置7の通信方式に対応するアンテナチップ等を備えている。
通信部14は、後述する制御装置30の通信制御部311(図2参照)に接続され、該通信制御部311によって制御される。
The
Communication between the
The
印刷装置1の筐体11の前面側(図1においてY方向の手前側)であって装置の左右方向(図1及び図3におけるX方向)のほぼ中央部には、印刷装置1による印刷時に指Uを挿入する開口部である指挿入口15が形成されている。
筐体11の内部は、仕切り板16によって上下に仕切られており、仕切り板16の上側であって指挿入口15に対応する位置には、印刷時に挿入された指Uを載置・保持する指保持部2が設けられている。
On the front side of the
The interior of the
指保持部2は、爪Tの表面が露出した状態で指Uを保持するようになっており、指保持部2の下側、すなわち、仕切り板16の上には、保持された指Uの腹を受ける指支持部材21が設けられている。また、指保持部2における指挿入方向の奥側(図1において印刷装置1の後方)には、爪先を載せる爪載置部25(図4参照)が設けられている。
本実施形態では、指保持部2に指Uを保持させ、爪載置部25に爪先を載せることで、当該指Uの爪Tが所定の位置に位置決めされる。
The
In this embodiment, the finger U is held by the
また、筐体11の内部には、指Uの爪T(爪Tの表面)に印刷を施す印刷部40と、爪Tを含む指Uの画像を取得する撮影部50等が設けられている。
Further, inside the
印刷部40は、後述する爪輪郭検出装置としての制御装置30によって検出された爪輪郭TLの内側領域を印刷対象領域として印刷を行う印刷手段である。
印刷部40は、印刷ヘッド41と、印刷ヘッド41をX方向(図1等におけるX方向、印刷装置1の左右方向)、Y方向(図1等におけるY方向、印刷装置1の前後方向)に移動させるためのヘッド移動機構49(図2参照)等を備えている。
印刷ヘッド41は、印刷ヘッド41をX方向に移動させるためのX方向移動ステージ、印刷ヘッド41をY方向に移動させるためのY方向移動ステージ(いずれも図示せず)に支持されており、ヘッド移動機構49は、印刷ヘッド41をX方向及びY方向に適宜移動させるための駆動部としてのX方向移動モータ46とY方向移動モータ48等を備えて構成されている。
The
The
The
本実施形態の印刷ヘッド41は、例えば爪表面に対向する面がインクを吐出させる複数のノズル口(図示せず)を備えたインク吐出面410となっており、インクを微滴化し、インク吐出面から印刷対象(爪T)の被印刷面である爪表面に対して直接にインクを吹き付けて印刷を行うインクジェット方式のインクジェットヘッドである。
印刷ヘッド41は、例えばシアン(C;CYAN)、マゼンタ(M;MAGENTA)、イエロー(Y;YELLOW)等の各色のインクを吐出可能となっている。なお、印刷ヘッド41が吐出可能な色インクの種類はこれに限定されず、この他の色のインクを吐出可能となっていてもよい。例えばデザインの下地となり得る白色等のインクを吐出可能となっていてもよい。
The
The
印刷部40における印刷ヘッド41、印刷ヘッド41を駆動させる駆動部としてのX方向移動モータ46及びY方向移動モータ48は、後述する制御装置30の印刷制御部315(図2参照)に接続され、該印刷制御部315によって制御される。
The
図2に示すように、撮影部50は、撮影装置51と、照明装置52とを備えている。
撮影装置51は、例えば200万画素程度以上の画素を有する固体撮影素子とレンズ等を備えて構成された小型カメラである。また、照明装置52は、例えば白色LED等の照明灯である。
撮影部50は、指保持部2に保持された指Uの爪Tを照明装置52によって照明する。そして、撮影装置51によってその指Uを撮影して、指Uの爪Tの画像である爪画像(爪画像を含む指の画像、図4参照)を得る。
撮影部50は、後述する制御装置30の撮影制御部312(図2参照)に接続され、該撮影制御部312によって制御されるようになっている。
なお、撮影部50によって撮影された画像の画像データは、後述する記憶部32に記憶されてもよい。また、撮影部50によって取得された爪画像は、通信部14を介して端末装置7に送られてもよい。
As shown in FIG. 2, the
The
The photographing
The photographing
Note that the image data of the image captured by the
撮影部50は、指保持部2に保持された指U及びその爪Tを撮影可能な位置に設けられていればよく、具体的な配置は特に限定されない。本実施形態では、撮影装置51及び照明装置52は、筐体11の天面内側であって指保持部2に保持された指Uの爪T(爪Tの表面)と対向可能な位置に固定配置されている。
なお、撮影部50は、印刷ヘッド41を移動させるヘッド移動機構49によってXY方向に移動可能に構成されていてもよい。
The photographing
Note that the
印刷装置1に搭載される制御装置30は、図示しないCPU(Central Processing Unit)等のプロセッサにより構成される制御部31(図2参照)と、ROM(Read Only Memory)及びRAM(Random Access Memory)等(いずれも図示せず)で構成される記憶部32(図2参照)とを備えるコンピュータである。
本実施形態では、制御装置30は、後述するように、サンプリング手段、画素情報取得手段、学習モデル生成手段、及び検出手段として機能する制御部31を有し、爪画像から爪輪郭TLを検出する爪輪郭検出装置として機能する。
The
In this embodiment, the
記憶部32には、印刷装置1を動作させるための各種プログラムや各種データ等が格納されている。
具体的には、記憶部32には、爪輪郭の検出処理を行うための爪輪郭検出プログラムや、印刷処理を行うための印刷プログラム等の各種プログラムが格納されたプログラム記憶領域321、爪Tの輪郭情報(以下「爪輪郭」という。)を検出するための学習モデルを格納する学習モデル記憶領域322、爪Tに関する各種情報が格納させる爪情報記憶領域323等が設けられている。
プログラム記憶領域321に記憶されているプログラムが制御部31によって実行されることによって、印刷装置1の各部が統括制御されるようになっている。
The
Specifically, the
The programs stored in the
学習モデル記憶領域322には、爪輪郭検出用の学習モデルが記憶されている。
学習モデル記憶領域322に格納されている学習モデル(既存の学習モデル、第1の学習モデル)は、例えば印刷装置1の出荷時等に既に生成され記憶されるもの(初期状態の学習モデル)でる。
第1の学習モデル(初期状態の学習モデル)は、事前に色の分布の学習を行うことで生成される。具体的には、下地が塗布された爪Tの画像を複数枚用意し、これらの画像から、下地が塗布された爪Tの領域(前景)とそれ以外の領域(指U等の皮膚部分、背景)の画素に関する値(後述するように本実施形態では画素値)をサンプリングする。そして、サンプリングした画素から、下地が塗布された爪Tの領域(前景)、それ以外の領域(皮膚等、背景)のそれぞれについて色の分布をモデル化する。
A learning model for nail contour detection is stored in the learning
The learning model (existing learning model, first learning model) stored in the learning
A first learning model (learning model in an initial state) is generated by previously learning a color distribution. Specifically, a plurality of images of the nail T to which the base is applied are prepared, and from these images, the region (foreground) of the nail T to which the base is applied and the other regions (skin portion such as the finger U, etc.) (background) pixel values (pixel values in this embodiment, as will be described later) are sampled. Then, from the sampled pixels, the color distribution is modeled for each of the region of the nail T to which the foundation is applied (foreground) and other regions (skin, etc., background).
本実施形態において第1の学習モデル(初期状態の学習モデル)は、下地として白色が塗布されている場合について学習した学習済みモデルである。
本実施形態では、爪輪郭検出用の学習モデルとして混合正規分布(混合ガウス分布)モデル(GMM;Gaussian Mixture Model)を採用する場合を例として説明する。なお、学習モデルは混合正規分布モデルに限定されず、領域の区分(クラスタリング)に適した各種のモデルを適宜採用することができる。
本実施形態では、後述するように新しい学習モデルが生成された場合でも、この初期状態の学習モデルが上書きされずに保存され、検出領域Ar(図4参照)をサンプリングする際には、この第1の学習モデル(初期状態の学習モデル)がデフォルトとして適用される。
In the present embodiment, the first learning model (learning model in the initial state) is a learned model that has learned about the case where white is applied as the base.
In the present embodiment, a case in which a mixed normal distribution (gaussian mixture distribution) model (GMM: Gaussian Mixture Model) is adopted as a learning model for nail contour detection will be described as an example. Note that the learning model is not limited to the mixed normal distribution model, and various models suitable for segmentation (clustering) of regions can be appropriately adopted.
In this embodiment, even when a new learning model is generated as described later, the learning model in the initial state is saved without being overwritten. A learning model of 1 (initial state learning model) is applied as a default.
制御部31は、機能的に見た場合、通信制御部311、撮影制御部312、爪情報検出部313、印刷データ生成部314、印刷制御部315等を備えている。これら通信制御部311、撮影制御部312、爪情報検出部313、印刷データ生成部314、印刷制御部315等としての機能は、制御部31のCPUと記憶部32のプログラム記憶領域321に記憶されたプログラムとの協働によって実現される。
The
通信制御部311は、通信部14の動作を制御するものである。本実施形態では、端末装置7との間での通信を制御し、端末装置7からネイルデザインのデータ等が送信された場合にこれを受信する。
また、撮影部50によって爪画像が取得されたときは、爪画像データを端末装置7に送信してもよい。
The
Moreover, when the nail image is acquired by the photographing
撮影制御部312は、撮影部50の撮影装置51及び照明装置52を制御して撮影装置51により、指保持部2に保持された指Uの爪Tの画像を含む指の画像(以下「爪画像」という。図4参照)を撮影させるものである。
撮影部50により取得された爪画像の画像データは、記憶部32に記憶されてもよいし、通信部14を介して端末装置7に送信されてもよい。
The photographing
The image data of the nail image acquired by the
爪情報検出部313は、撮影装置51によって撮影された指保持部2に保持された指Uの爪Tの画像に基づいて、指Uの爪Tについての爪情報を検出するものである。
ここで、爪情報とは、例えば、爪Tの輪郭(爪Tの水平位置のXY座標等で表される爪輪郭TL(図4等参照))、爪Tの長手方向の長さ、爪Tの幅方向の長さ、爪Tの表面の、XY平面に対する傾斜角度(爪Tの傾斜角度、爪曲率)等である。なお、撮影装置51によって撮影された画像等から爪Tの高さ(爪Tの垂直方向の位置)を取得できる場合には、爪Tの高さも爪情報に含まれる。
The nail
Here, the nail information includes, for example, the contour of the nail T (the nail contour TL represented by the XY coordinates of the horizontal position of the nail T (see FIG. 4, etc.)), the length of the nail T in the longitudinal direction, the length of the nail T , the inclination angle of the surface of the claw T with respect to the XY plane (inclination angle of the claw T, claw curvature), and the like. Note that if the height of the nail T (vertical position of the nail T) can be acquired from an image or the like captured by the
特に、本実施形態において爪情報検出部313は、爪輪郭TLを検出する検出手段として機能する他、サンプリング手段、画素情報取得手段、及び学習モデル生成手段として機能する。
検出手段としての爪情報検出部313は、爪輪郭検出用の学習モデルを適用して爪Tの画像から下地が塗布された領域の輪郭を爪輪郭TL(図4参照)として検出する。なお、下地は、ユーザ等が手塗りで爪Tに施すことが想定されるが、下地を塗布する手法はこれに限定されない。
後述するように、爪情報検出部313が学習モデル生成手段として第2の学習モデルを生成したときは、検出手段としての爪情報検出部313は、当該第2の学習モデルを適用して爪輪郭TLの検出を行う。
In particular, in this embodiment, the nail
A nail
As will be described later, when the nail
サンプリング手段としての爪情報検出部313は、下地が塗布された爪Tを含む画像から爪Tに該当する領域を検出領域Arとして検出(サンプリング)する。
ここで「爪Tに該当する領域」とは、爪画像中、爪Tである可能性が高いと判断される領域である。爪Tの領域を認識する場合に、爪Tと指U(皮膚等)との境界部分を厳密に検出することは難しい。特に本実施形態では、検出領域Arをサンプリングする際には、下地が白色である場合について学習した第1の学習モデル(記憶部32の学習モデル記憶領域322に記憶されている初期状態の学習モデル)を用いる。このため、爪Tに塗布されている下地の色が白色以外(例えば薄いピンク等)である場合には、下地が塗布されている領域を隅々まで正しく検出することが難しい。
そこで本実施形態では、爪情報検出部313が第1の学習モデルを適用することにより爪Tらしい領域として検出した領域(図4に示す「仮の爪輪郭TLe」の内側領域)の中央部分の所定領域を「爪Tに該当する領域」とする。これにより、サンプリング手段としての爪情報検出部313が厳密に爪Tの境界部分まで検出できず、図4に示すように、仮の爪輪郭TLeが実際の爪輪郭TLとずれている場合でも、爪Tである可能性が高いといえる領域を検出領域Arとすることができる。
A nail
Here, the “region corresponding to the nail T” is a region in the nail image that is determined to be the nail T with a high possibility. When recognizing the area of the nail T, it is difficult to strictly detect the boundary between the nail T and the finger U (skin or the like). In particular, in this embodiment, when sampling the detection area Ar, the first learning model (the learning model in the initial state stored in the learning
Therefore, in the present embodiment, by applying the first learning model, the nail
画素情報取得手段としての爪情報検出部313は、サンプリング手段として検出した検出領域Arの画素に関する値を取得する。
ここで「画素に関する値」とは、例えばRGB、YUV等で表される画素値や、輝度値等である。なお、検出領域Arの画素に関する値は、下地が塗布された領域の検出に用いられるものであり、色情報を有する方が正確な検出を行うことができる。このため、輝度値よりもRGB等の画素値であることが好ましい。なお、「画素に関する値」として、画素値と併せて輝度値を考慮してもよい。本実施形態では、以下「画素に関する値」が画素値である場合を例に説明する。
The nail
Here, the "value regarding a pixel" is, for example, a pixel value represented by RGB, YUV, etc., a luminance value, or the like. Note that the values relating to the pixels in the detection area Ar are used for detecting the area where the base is applied, and more accurate detection can be performed if color information is included. Therefore, pixel values such as RGB are preferable to luminance values. Note that the luminance value may be considered together with the pixel value as the “value regarding the pixel”. In the present embodiment, a case where the "value regarding a pixel" is a pixel value will be described below as an example.
学習モデル生成手段としての爪情報検出部313は、爪輪郭検出用として記憶部32の学習モデル記憶領域322に記憶されている第1の学習モデルにおける下地塗布領域の画素に関する値(画素値)と検出領域Arの画素に関する値(画素値)との差分に基づいて第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する。生成された第2の学習モデルは、学習モデル記憶領域322に記憶される。
A nail
なお本実施形態では、新たに第2の学習モデルが生成されても、学習モデル記憶領域322に既に記憶されている学習モデル(既存の学習モデル、第1の学習モデル)を上書きせずに残すようになっている。例えば印刷装置1の出荷時に当初から格納されている爪輪郭検出用の学習モデル(初期状態の学習モデル)は、白色の部分を指U等の皮膚の色と区別して下地の塗布された領域として検出するように学習されている。このような初期状態の学習モデルをデフォルトとして保存しておくことで、新たな爪画像が取得された際に、白色から検出を始めて、爪Tに下地として実際に塗布されている色との差分を見ていくことができる。
なお、第1の学習モデル(既存の学習モデル)は、第2の学習モデルが生成されるとこれによって上書き、更新されるようにしてもよい。この場合には、制御部31は学習モデル生成手段によって第2の学習モデルが生成されたときに、この第2の学習モデルを、第1の学習モデルとして記憶部32(学習モデル記憶領域322)に記憶させる記憶制御手段として機能する。また、白色で学習された初期状態の学習モデルのみデフォルトとして残し、その後に生成された第2の学習モデルについては、新しい学習モデルが生成される度に適宜破棄、更新されるようにしてもよい。
Note that in this embodiment, even if a second learning model is newly generated, the learning model already stored in the learning model storage area 322 (existing learning model, first learning model) is left without being overwritten. It's like For example, a learning model for nail contour detection (initial state learning model) stored at the time of shipment of the
Note that the first learning model (existing learning model) may be overwritten and updated by the second learning model when it is generated. In this case, when the second learning model is generated by the learning model generating means, the
本実施形態において学習モデル生成手段としての爪情報検出部313は、検出領域Arの画素に関する値(画素値)について平均値を取得し、当該平均値と爪輪郭検出用の第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値の平均値との差分を算出して、これを第1の学習モデルを補正する補正値とする。
なお、第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値やその平均値は、検出領域Arの画素値の平均値を算出するときに算出してもよいが、予め算出しておき、当該第1の学習モデルと対応付けて記憶部32に記憶させておいてもよい。
また、第1の学習モデルにおける下地塗布領域の混合正規分布の平均値を算出するにあたっては、混合正規分布を構成する各正規分布のレベル(寄与率)に応じて重み付けをした上で平均値を算出してもよい。
なお、爪情報検出部313が第2の学習モデルを生成し、爪輪郭TLを検出する具体的な処理については後に詳述する。
In the present embodiment, the nail
Note that the expected value and the average value of each normal distribution that constitutes the mixed normal distribution of the base coating area in the first learning model may be calculated when calculating the average value of the pixel values of the detection area Ar. , may be calculated in advance and stored in the
In addition, in calculating the average value of the mixed normal distribution of the base coating region in the first learning model, the average value is calculated after weighting according to the level (contribution rate) of each normal distribution that constitutes the mixed normal distribution. can be calculated.
A specific process for the nail
印刷データ生成部314は、爪情報検出部313による検出結果から印刷部40による印刷対象領域を設定し、印刷用データを生成するものである。
前述のように本実施形態では、撮影部50の撮影装置51において印刷対象である爪Tが撮影され、当該爪画像について爪情報検出部313によって爪輪郭TL等の爪情報が検出される。印刷データ生成部314は、この検出結果に基づいて爪輪郭TLの内側の領域に印刷部40により印刷を行う領域(印刷対象領域)を設定し、印刷用データを生成する。
具体的には、印刷データ生成部314は、爪輪郭TLに合わせて印刷対象であるユーザによって選択されたネイルデザインの画像データを切り抜き、適宜拡大縮小等を行い、印刷用データを生成する。
なお、爪情報検出部313において爪Tの曲率等が検出された場合には、印刷データ生成部314は、この爪Tの曲率等に基づいて、印刷用データに曲面補正を行ってもよい。曲面補正を行った場合には、より爪Tの形状に合った印刷用データを生成することができる。
なお、爪Tに印刷するデザインとして選択されたものが、爪領域全体に印刷されるものではなく、例えば爪先部分のみに印刷するフレンチネイル等である場合には、印刷データ生成部314は、爪情報検出部313によって検出された爪輪郭TLにデザインを合わせ込んで、ユーザの爪Tの形状にあった形状・範囲の部分デザインの印刷用データを生成する。
The print
As described above, in the present embodiment, the photographing
Specifically, the print
When the curvature of the nail T is detected by the nail
Note that when the design selected as the design to be printed on the nail T is not printed on the entire nail region, but is, for example, a French nail that is printed only on the tip of the nail, the print
印刷制御部315は、印刷ヘッド41を制御する制御手段である。具体的には、印刷制御部315は、印刷データ生成部314において生成された印刷用データに基づいて印刷部40に制御信号を出力し、爪Tに対してこの印刷用データにしたがった印刷を施すように印刷部40のX方向移動モータ46、Y方向移動モータ48、印刷ヘッド41等を制御する。
The
前述のように、本実施形態では印刷装置1が端末装置7と連携して動作するようになっている。
端末装置7は、例えばスマートフォン等の携帯端末装置である。なお、端末装置7はスマートフォンに限定されない。例えばタブレット型のパーソナルコンピュータ(以下において「PC」とする。)やノート型のPC、据置型のPC、ゲーム用の端末装置等であってもよい。
図2に示すように、端末装置7は、操作部71、表示部72、通信部73及び制御装置80等を備えている。
As described above, in this embodiment, the
The
As shown in FIG. 2, the
操作部71は、ユーザの操作に応じて各種の入力・設定等を行うことができるようになっており、例えば表示部72の表面に一体的に設けられたタッチパネルである。操作部71が操作されると、当該操作に対応する入力信号が制御部81に送信される。
表示部72に構成されるタッチパネルには、後述する表示制御部812の制御にしたがって各種の操作画面が表示され、ユーザはタッチパネルへのタッチ操作によって各種の入力・設定等の操作を行うことができる。
なお、各種の入力・設定等の操作を行う操作部71はタッチパネルである場合に限定されず、例えば各種の操作ボタンやキーボード等が操作部71として設けられていてもよい。
The
Various operation screens are displayed on the touch panel configured in the
Note that the
本実施形態では、ユーザが操作部71を操作することで、端末装置7から印刷装置1に対して印刷開始等の各種指示が出力されるようになっており、端末装置7は印刷装置1の操作部としても機能する。
また、ユーザが操作部71を操作することで、爪Tに印刷するネイルデザイン(デザイン)を選択すること等ができるようになっている。
In this embodiment, the user operates the
Also, the user can select a nail design to be printed on the nail T by operating the
表示部72は、例えば液晶ディスプレイ(LCD)、有機ELディスプレイ、その他のフラットディスプレイ等で構成されている。
なお、前述のように、表示部72の表面に各種の入力を行うためのタッチパネルが一体的に構成されていてもよい。この場合には、タッチパネルが操作部71として機能する。
本実施形態では、ユーザが操作部71から入力・選択したネイルデザインや、各種の案内画面、警告表示画面等が表示部72に表示可能となっている。
The
Note that, as described above, a touch panel for performing various inputs may be integrally formed on the surface of the
In this embodiment, the nail design input/selected by the user through the
通信部73は、印刷装置1の通信部14との間で通信可能に構成されたものである。
印刷装置1と端末装置7との間での通信は、前述のように、無線接続方式、有線接続方式のどちらでもよく、具体的な方式は限定されない。通信部73は印刷装置1との間で通信を行うことのできるものであればよく、印刷装置1の通信部14の通信規格と合致するものが適用される。
通信部14は、後述する制御装置80の通信制御部811(図2参照)に接続され、該通信制御部811によって制御される。
The
The communication between the
The
図2に示すように、本実施形態の端末装置7の制御装置80は、図示しないCPU(Central Processing Unit)等のプロセッサにより構成される制御部81と、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)等で構成される記憶部82とを備えるコンピュータである。
As shown in FIG. 2, the
記憶部82には、端末装置7の各部を動作させるための各種プログラムや各種データ等が格納されている。
具体的には、本実施形態のROM等には、端末装置7の各部を統括制御するための動作プログラム821aの他、印刷装置1を用いたネイルプリントを行うためのネイルプリントアプリケーションプログラム821b(以下「ネイルプリントAP」とする。)等の各種プログラムが格納されており、制御部81がこれらのプログラムを例えばRAMの作業領域に展開して、プログラムが制御部81において実行されることによって、端末装置7の各部が統括制御されるようになっている。
The
Specifically, in the ROM or the like of the present embodiment, in addition to an
また、本実施形態の記憶部82には、ネイルデザイン(単にデザインともいう。)のデータを格納するデザイン記憶領域822等が設けられている。
なお、デザイン記憶領域822に格納されるネイルデザイン(デザイン)は、予め用意された既存のデザインであってもよいし、ユーザが自ら作成したデザインであってもよい。また、端末装置7が各種ネットワークに接続可能である場合には、ネットワーク接続可能な図示しないサーバ装置等に記憶されているネイルデザインを取り込むことが可能となっていてもよい。
Further, the
Note that the nail design (design) stored in the
端末装置7の制御部81は、機能的に見た場合、通信制御部811、表示制御部812等を備えている。これら通信制御部811、表示制御部812等としての機能は、制御部81のCPUと記憶部82のROMに記憶されたプログラムとの協働によって実現される。なお、端末装置7の制御部81が備える機能はこれに限定されず、その他各種の機能部を備えていてもよい。
通信制御部811は、通信部73の動作を制御するものである。本実施形態では、印刷装置1との間での通信を制御し、印刷装置1に対してネイルデザインのデータ等を送信する。
また、表示制御部812は、表示部72を制御して表示部72に各種の表示画面を表示させる。
The
The
The
次に、図3を参照しつつ、本実施形態における爪輪郭検出装置である制御装置30及びこれを含む印刷装置1による爪輪郭検出方法について説明する。
本実施形態の印刷装置1を用いてネイルプリントを行う場合には、ユーザは、印刷装置1の操作部12等を操作して電源を入れ起動させる。
また、端末装置7についても電源を入れて端末装置7の操作部71からネイルプリント処理の実行を選択する。これによりネイルプリントAP821bが起動する。
ネイルプリントAP821bが起動すると、端末装置7の表示制御部812は表示部72に、下地を塗布された爪Tを含む指Uを印刷装置1の指保持部2に載置するよう指示する指示画面を表示させる。
Next, with reference to FIG. 3, a nail contour detection method by the
When performing nail printing using the
Also, the power of the
When the
指保持部2に指Uが載置されると、図3に示すように、指Uが撮影部50によって撮影され、例えば図4に示すような爪画像(爪Tを含む指Uの画像)が取得される(ステップS1)。そして、サンプリング手段としての爪情報検出部313が撮影部50によって取得された爪画像から爪Tに該当する領域を検出領域Arとして検出(サンプリング)する(ステップS2)。
具体的には、爪情報検出部313は、記憶部32から第1の学習モデルを読み出して爪画像に適用し、爪Tに該当する領域の検出を行う。前述のように、このとき、爪情報検出部313は白色の部分を下地の領域として認識する第1の学習モデル(初期状態の学習モデル)を用いて検出を行う。このため、爪Tに塗布されている下地が白色以外の色である場合、爪情報検出部313によって検出される仮の爪輪郭TLeは、実際の爪輪郭TLほど正確ではなく、図4に示すように、ずれている場合がある。
When the finger U is placed on the
Specifically, the nail
すなわち、実際に爪Tに塗布されている下地の色が白色ではなく、薄いピンクや薄い緑色等であった場合には、白色の部分を下地の領域として認識するように学習された第1の学習モデルでは爪Tと指U(皮膚)との境界部分まで正確に区別することが難しい。このため、図4に示すように、仮の爪輪郭TLeは、実際の爪輪郭TLよりも内側に入り込んでいたり、実際の爪輪郭TLよりも外側の、実際には指Uである部分にまではみ出していたりする場合も想定される。 That is, when the base color actually applied to the nail T is not white, but is light pink, light green, or the like, the white portion is recognized as the base region. It is difficult for the learning model to accurately distinguish between the nail T and the finger U (skin). Therefore, as shown in FIG. 4, the provisional nail contour TLe extends inside the actual nail contour TL, or extends outside the actual nail contour TL, which is actually the finger U. It is assumed that it may protrude.
サンプリング手段としての爪情報検出部313が検出する検出領域Arは、現状爪Tに塗布されている下地の色に合わせて学習モデルを補正するためのサンプルであり、爪T以外の指U(皮膚)等の部分が含まれると、正しい補正値を得ることができない。このため検出領域Arは、検出精度が比較的高い領域に設定されることが好ましい。
そこで本実施形態では、図4に示すように、サンプリング手段としての爪情報検出部313が検出した仮の爪輪郭TLeの内側領域のうち、境界部分付近を含まない中央部分の所定領域を「爪Tに該当する領域」であるとして、検出領域Arとして検出(サンプリング)する。
The detection area Ar detected by the nail
Therefore, in the present embodiment, as shown in FIG. 4, of the inner region of the provisional nail contour TLe detected by the nail
検出領域Arが検出されると、爪情報検出部313は、画素情報取得手段として検出領域Arの画素値を取得する(ステップS3)。そして、爪情報検出部313は学習モデル生成手段として、検出領域Arの画素値の平均値を下記の式(1)により算出する(ステップS4)。
When the detection area Ar is detected, the nail
式(1)において、「F」はステップS2で検出した検出領域Arを示し、「N」は検出領域Arの画素数を示し、「x」は画素値を示している。
式(1)により、検出領域Arの画素値の平均値「mx」が算出される。
画素値がRGBで表されるものである場合、爪情報検出部313は、このような画素値の平均値の算出を、RGBそれぞれについて算出する。
In equation (1), "F" indicates the detection area Ar detected in step S2, "N" indicates the number of pixels in the detection area Ar, and "x" indicates the pixel value.
The average value “m x ” of the pixel values in the detection area Ar is calculated by Equation (1).
When the pixel values are represented by RGB, the nail
また爪情報検出部313は、爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値を取得する(ステップS5)。
第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値は、下記の式(2)により算出される。
下記式(2)では、期待値の平均値を算出するにあたり、混合正規分布を構成している正規分布の寄与率を考慮する場合を例示している。各正規分布の寄与率を考慮することは必須ではないが、寄与率を考慮した場合には、混合正規分布の傾向をより適切に反映した平均値を得ることができる。
なお、前述のように、この平均値の算出は予め行って第1の学習モデルに対応付けて記憶させておいてもよい。
Further, the nail
The average value of the expected values of the pixel values of the base coating region in the first learning model is calculated by the following formula (2).
The following formula (2) illustrates a case where the contribution rate of the normal distributions forming the mixed normal distribution is taken into consideration when calculating the average value of the expected values. It is not essential to consider the contribution rate of each normal distribution, but if the contribution rate is taken into consideration, it is possible to obtain an average value that more appropriately reflects the tendency of the mixed normal distribution.
As described above, the average value may be calculated in advance and stored in association with the first learning model.
式(2)において、「M」は下地塗布領域の混合正規分布を構成する正規分布の数を示し、「w」は各正規分布の寄与率を示し、「ex」は各正規分布の期待値を示している。
式(2)により、各正規分布の寄与率が考慮された期待値の平均値「mtx」が算出される。
In equation (2), “M” indicates the number of normal distributions that make up the mixed normal distribution of the base coating area, “w” indicates the contribution of each normal distribution, and “e x ” indicates the expected value of each normal distribution. value.
The average value “mt x ” of the expected values in which the contribution rate of each normal distribution is taken into account is calculated by Equation (2).
さらに、学習モデル生成手段としての爪情報検出部313は、検出領域Arの画素値の平均値「mx」と、第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値「mtx」との差分を、下記式(3)により算出する(ステップS6)。
Further, the nail
式(3)により、検出領域Arの画素値の平均値「mx」と、第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値「mtx」との差分「dx」が算出される。
According to Equation (3), the difference "d x " between the average value "m x " of the pixel values of the detection area Ar and the average value "mt x " of the expected pixel values of the base coating area in the first learning model. is calculated.
なお、検出領域Arの画素値の平均値「mx」と、第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値「mtx」との差分「dx」がわずかである場合には、爪Tに塗布されている下地の色が、第1の学習モデル(初期状態の学習モデル)において学習されている色(白色等)に近い場合であり、当該第1の学習モデルをそのまま爪輪郭TLの検出に用いても検出精度に支障がない。
このため本実施形態では、差分「dx」について所定の閾値を設定し、爪情報検出部313は、差分「dx」が閾値を超えているか否かを判断する(ステップS7)。この場合の閾値をどの程度とするかは適宜設定される事項である。
そして、差分「dx」が閾値を超えている場合(ステップS7;YES)には、この平均値「mx」と「mtx」との差分「dx」を補正値として、第1の学習モデルにおける下地塗布領域の画素値の期待値を下記の式(4)により補正する(ステップS8)。
Note that the difference “d x ” between the average value “m x ” of the pixel values of the detection area Ar and the average value “mt x ” of the expected pixel values of the base coating area in the first learning model is small. , the color of the base applied to the nail T is close to the color (white, etc.) learned in the first learning model (learning model in the initial state), and the first learning model can be used as it is for detection of the nail contour TL, there is no problem with detection accuracy.
Therefore, in the present embodiment, a predetermined threshold value is set for the difference "d x ", and the nail
Then, if the difference " dx " exceeds the threshold (step S7; YES), the difference " dx " between the average values " mx " and " mtx " is used as a correction value for the first The expected value of the pixel value of the base coating area in the learning model is corrected by the following formula (4) (step S8).
式(4)により、第1の学習モデルにおける下地塗布領域の画素値の期待値「exi」が期待値「ecxi」に補正された新たな学習モデル(第2の学習モデル)が生成される。
そして、爪情報検出部313は、検出手段として補正後の学習モデル(第2の学習モデル)を適用して爪画像から下地が塗布された領域の輪郭を爪輪郭TLとして検出する(ステップS9)。
A new learning model (second learning model) in which the expected value “e xi ” of the pixel value of the base coating region in the first learning model is corrected to the expected value “ec xi ” is generated by Equation (4). be.
Then, the nail
他方、差分「dx」が閾値を超えていない場合(ステップS7;NO)には、爪情報検出部313は、第1の学習モデルを補正せずに適用して、爪画像から下地が塗布された領域の輪郭を爪輪郭TLとして検出する(ステップS10)。
On the other hand, if the difference “d x ” does not exceed the threshold value (step S7; NO), the nail
このような処理を行うことで、白色の下地が塗布された領域を抽出するように学習されている第1の学習モデルを有する場合に、実際に爪Tに塗布された下地の色が白色以外であった場合にも、新たな学習モデルを一から生成することなく、その期待値を補正するだけで比較的簡易に対応することができる。 By performing such processing, when the first learning model is trained to extract a region where a white base is applied, the color of the base actually applied to the nail T is not white. , it can be handled relatively easily by correcting the expected value without generating a new learning model from scratch.
以上のように、本実施形態によれば、爪輪郭検出装置である制御装置30が、下地が塗布された爪Tを含む画像から爪Tに該当する領域を検出し、検出された検出領域Arの画素に関する値として画素値を取得して、爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素値と検出領域Arの画素値との差分に基づいて第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する。そして、第2の学習モデルが生成されたときは、この第2の学習モデルを適用して画像から爪輪郭TLの検出を行う。また、第2の学習モデルが生成されなかった場合には、爪輪郭検出用の第1の学習モデルを適用して画像から爪輪郭TLを検出する。
これにより、第1の学習データが学習した色(例えば白色)と異なる色(例えばピンク色)の下地が爪Tに塗布されている場合にも、一から学習モデルを作り直したり、画像に色補正を行うことで対応したりする等の必要がなく、時間や手間をかけずに、高い検出精度で爪輪郭TLを検出することが可能となる。
すなわち、既存の学習済みの学習モデル(第1の学習モデル)は、単なる白色部分の認識にとどまらず、例えば爪Tの端部では少し色が暗めに出る等、爪Tの認識に関して蓄積された各種の情報を含んでいる。この点、一から学習モデルを作り直すと、そうした広い範囲での学習結果を獲得するまでにかなりの時間と手間を要する。
本実施形態のように、第1の学習モデルが学習した色(例えば白色)と異なる色(例えばピンク色)の下地が爪Tに塗布されている場合に、第1の学習モデルを補正して対応することで、こうした学習結果を新しい学習モデルに引き継ぐことができ、全体の精度は低下させずに、爪輪郭TLの検出精度・認識精度を向上させることができる。
As described above, according to the present embodiment, the
As a result, even when the nail T is coated with a base color (eg, pink) different from the color (eg, white) learned by the first learning data, the learning model can be recreated from scratch, or the image can be subjected to color correction. , it is possible to detect the nail contour TL with high detection accuracy without taking time and effort.
That is, the existing learned learning model (first learning model) is not limited to simply recognizing the white portion, and has accumulated information regarding the recognition of the nail T, such as the color appearing slightly darker at the end of the nail T, for example. Contains various types of information. In this regard, if a learning model is recreated from scratch, it takes a considerable amount of time and effort to obtain learning results in such a wide range.
As in the present embodiment, when the base of the nail T is applied with a different color (eg, pink) from the color (eg, white) learned by the first learning model, the first learning model is corrected. By doing so, it is possible to take over such learning results to a new learning model, and improve the detection accuracy and recognition accuracy of the nail contour TL without lowering the overall accuracy.
また本実施形態では、サンプリング手段としての制御部31(爪情報検出部313)は、爪輪郭検出用の第1の学習モデルを用いて爪Tに該当する領域を検出領域Arとして検出する。
第1の学習データが学習した色(例えば白色)と異なる色の下地が爪Tに塗布されている場合であっても、その色が爪Tよりも指U(皮膚)の色に近いような場合でない限りは、爪Tのおよその位置を特定することができる。そのため、仮の爪輪郭TLeを検出して、爪輪郭TLeの内側領域の中央部分等を検出領域Arとすることにより、容易に爪T以外の領域を含まない適切な領域をサンプリングすることができる。
Further, in the present embodiment, the control unit 31 (nail information detection unit 313) as sampling means detects the area corresponding to the nail T as the detection area Ar using the first learning model for nail contour detection.
Even if the nail T is coated with a base color different from the color (e.g., white) learned by the first learning data, the color is closer to the color of the finger U (skin) than the nail T. Unless otherwise the approximate position of the claw T can be identified. Therefore, by detecting the temporary nail contour TLe and setting the central portion of the inner region of the nail contour TLe as the detection region Ar, it is possible to easily sample an appropriate region that does not include regions other than the nail T. .
また本実施形態において、学習モデル生成手段としての制御部31(爪情報検出部313)は、検出領域Arの画素値について平均値を取得し、当該平均値と爪輪郭検出用の第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値の平均値との差分を算出して、これを第1の学習モデルを補正する補正値とする。
このように、本実施形態では、学習データの補正は、各正規分布の期待値のみを補正し、分散は補正しない。
期待値のみでなく分散をも補正する場合には、爪Tの領域全体を見て補正することが望ましいが、第1の学習モデルが学習した色(例えば白色)と異なる色の下地が爪Tに塗布されている場合に、爪Tの領域全体を正確に切り出すことは難しい。
この点、本実施形態の手法では、分散を考慮せずに期待値のみをずらす補正を行う。このため、確実に爪Tであると思われる領域を検出領域Arとして切り出す(サンプリングする)だけで学習モデルを補正することが可能となり、効率よく、高精度の学習モデル(補正後の第2の学習モデル)を生成することができる。
Further, in the present embodiment, the control unit 31 (nail information detection unit 313) as learning model generation means acquires an average value of pixel values in the detection area Ar, and uses the average value and the first learning for nail contour detection. A difference from the average value of the expected values of each normal distribution constituting the mixed normal distribution of the undercoating region in the model is calculated and used as a correction value for correcting the first learning model.
Thus, in this embodiment, correction of learning data corrects only the expected value of each normal distribution, and does not correct variance.
When correcting not only the expected value but also the variance, it is desirable to correct the entire region of the nail T. It is difficult to accurately cut out the entire area of the nail T when it is applied to the .
In this regard, in the method of the present embodiment, correction is performed by shifting only the expected value without considering the variance. For this reason, it is possible to correct the learning model simply by cutting out (sampling) the area that is surely considered to be the nail T as the detection area Ar, and the learning model can be efficiently and accurately obtained (the second correction after correction). learning model) can be generated.
また、学習モデル生成手段として制御部31が第2の学習モデルを生成したときは、制御部31は記憶制御手段として、この第2の学習モデルを、第1の学習モデルとして記憶部32に記憶させてもよい。
このように、第2の学習モデルが生成されたときには第1の学習モデルを第2の学習モデルで置き換える場合には、記憶部32に記憶される学習モデルの数が増加しないため、少ないメモリ容量で対応することができる。
Further, when the
In this way, when the first learning model is replaced with the second learning model when the second learning model is generated, the number of learning models stored in the
また、本実施形態では、検出手段としての制御部31は、第1の学習モデルにおける下地塗布領域の画素に関する値と検出領域Arの画素に関する値との差分が予め定められた閾値を超えている場合、第2の学習モデルを適用して画像から下地が塗布された領域の輪郭を爪輪郭として検出し、第1の学習モデルにおける下地塗布領域の画素に関する値と検出領域Arの画素に関する値との差分が予め定められた閾値を超えていない場合、第1の学習モデルを適用して画像から下地が塗布された領域の輪郭を爪輪郭TLとして検出する。
第1の学習モデルにおける下地塗布領域の画素に関する値と検出領域Arの画素に関する値との差分がわずかである場合には、爪Tに塗布されている下地の色が、第1の学習モデル(初期状態の学習モデル)において学習されている色(白色等)に近い場合であり、当該第1の学習モデルをそのまま爪輪郭TLの検出に用いても検出精度に支障がない。この場合には第1の学習モデルを補正せずにそのまま適用することで、処理を簡略化し、迅速に爪輪郭検出処理を行うことができる。
In addition, in the present embodiment, the
When the difference between the value of the pixel in the base application region and the value of the pixel in the detection region Ar in the first learning model is small, the color of the base applied to the nail T is different from that of the first learning model ( This is a case where the color is close to the color (white, etc.) learned in the learning model in the initial state), and even if the first learning model is used as it is for detecting the nail contour TL, there is no problem with detection accuracy. In this case, by applying the first learning model as it is without correction, the processing can be simplified and the nail contour detection processing can be performed quickly.
また、本実施形態のような爪輪郭検出装置を印刷装置1に適用した場合には、印刷手段としての印刷部40が、爪輪郭検出装置である制御装置30によって検出された爪輪郭TLの内側領域を印刷対象領域として印刷を行う。
これにより、新たに一から学習モデルを構築する場合のように、時間や手間をかけることなく、高い精度で検出された爪輪郭TLの内側領域に印刷を行うことができる。
このため、爪Tにどのような色の下地が塗布されている場合でも、塗残しやはみ出しのない、高品位のネイルプリントを爪Tに施すことができる。
Further, when the nail contour detection device as in the present embodiment is applied to the
As a result, printing can be performed on the inner region of the nail contour TL that has been detected with high accuracy without taking time and effort, unlike the case of constructing a new learning model from scratch.
Therefore, regardless of the color of the base applied to the nail T, a high-quality nail print can be applied to the nail T without any undercoating or protrusion.
なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。 Although the embodiments of the present invention have been described above, the present invention is not limited to such embodiments, and it goes without saying that various modifications are possible without departing from the scope of the invention.
例えば、本実施形態では、サンプリング手段としての爪情報検出部313が検出領域Arをサンプリング(検出)する際には、下地が白色である場合について学習した第1の学習モデルがデフォルトとして適用される例を示したが、検出領域Arをサンプリング(検出)する際に適用される学習モデルはこれに限定されない。
例えば、ピンク系の下地が塗布された、ブルー系の下地が塗布された等が事前に分かっている場合であれば、これらに対応して新しく生成された学習モデルを検出領域Arのサンプリングに用いてもよい。なお、どのような色味の下地を爪Tに塗布したかの情報は、ユーザが操作部12等から入力してもよい。
For example, in the present embodiment, when the nail
For example, if it is known in advance that a pink undercoat or a blue undercoat has been applied, a learning model newly generated corresponding to these is used for sampling the detection area Ar. may The user may input information about the color of the base applied to the nail T from the
また本実施形態では、サンプリング手段としての爪情報検出部313が、第1の学習モデルを用いて仮の爪輪郭TLeを検出し、この爪輪郭TLeの内側領域から爪Tに該当する領域を検出領域Arとして検出(サンプリング)する場合を例示したが、検出領域Arの検出(サンプリング)の仕方はこれに限定されない。サンプリング手段としての爪情報検出部313は、爪Tを含む画像中の所定の領域を爪Tに該当する領域として検出してもよい。
例えば、爪Tが配置されているおよその位置が分かる場合には、爪画像中、爪Tが配置されている可能性が高い領域の中に検出領域Arを設定してもよい。
具体的には指保持部2に指Uを保持させ、爪先が爪載置部25に載るように爪Tが配置される場合に、図5に示すように、指Uの第一関節から上辺りの爪Tを含む指Uが収まるように爪画像を撮影する。そしてこの爪画像に、爪Tの幅方向の中心を通る縦方向の中心線Dc及び爪画像を上下に分ける横方向の中心線Hcを設定し、中心線Hcよりも上(すなわち指先方向)であって中心線Dcを通る所定の領域を検出領域Arとして検出(サンプリング)する。
この場合には、第1の学習モデル(初期状態の学習モデル)等を用いた処理を行うことなく、画像のみから検出領域Arを切り出すことができる。
このため、例えば爪Tに塗布されている下地が第1の学習モデル(初期状態の学習モデル)では対応できないような色である場合(例えば第1の学習モデルが白色で学習している場合に青色の下地が塗布されているような場合)にも当該下地が塗布された爪Tが位置する領域を適切に検出領域Arとして検出(サンプリング)して、本実施形態の爪輪郭検出処理を行うことができる。
Further, in the present embodiment, the nail
For example, if the approximate position of the nail T is known, the detection area Ar may be set in a region of the nail image where the nail T is likely to be placed.
Specifically, when the finger U is held by the
In this case, the detection area Ar can be cut out only from the image without performing processing using the first learning model (learning model in the initial state) or the like.
For this reason, for example, when the base applied to the nail T is a color that cannot be handled by the first learning model (learning model in the initial state) (for example, when the first learning model is learning in white, Even when a blue undercoat is applied, the area in which the nail T coated with the undercoat is positioned is appropriately detected (sampled) as the detection area Ar, and the nail contour detection processing of the present embodiment is performed. be able to.
また本実施形態では、ユーザ等が下地を手塗で爪Tに施す場合を例示したが、下地は手塗で施される場合に限定されない。
例えば、ネイルデザインを印刷する印刷装置1とは別の下地印刷用の印刷装置によって自動的に下地が塗布されてもよい。
また、印刷装置1が、印刷ヘッド41として、ネイルデザインを印刷するためのカラー印刷用ヘッドと、下地を印刷するための下地印刷用のヘッドとを備えていてもよい。
印刷装置1が下地印刷用のヘッドを備えている場合、下地印刷用の液剤の種類や色の情報を印刷装置1の側で把握できる場合には、当該情報に基づいて下地の色に近いデータで学習した学習モデルを用いて仮の爪輪郭TLeを検出し、この爪輪郭TLeの内側領域から爪Tに該当する領域を検出領域Arとして検出(サンプリング)してもよい。
Further, in the present embodiment, the case where the user or the like applies the base to the nail T by hand is illustrated, but the base is not limited to the case where the base is applied by hand.
For example, the base may be automatically applied by a printing device for base printing that is separate from the
Further, the
If the
また、本実施形態では、爪輪郭検出用の学習モデルとして混合正規分布モデルを用い、混合正規分布の期待値を爪Tに塗布されている下地の色に応じて移動させることで学習モデルを補正する場合について説明したが、爪輪郭検出用の学習モデルは混合正規分布モデルに限定されない。
例えば爪輪郭検出用の学習モデルとしてヒストグラムを用いてもよい。この場合には、ヒストグラムの最頻値を基準に爪Tに塗布されている下地の色に応じて移動させる等の補正手法を用いることができる。
Further, in this embodiment, a mixed normal distribution model is used as a learning model for nail contour detection, and the learning model is corrected by moving the expected value of the mixed normal distribution according to the color of the base applied to the nail T. However, the learning model for nail contour detection is not limited to the mixed normal distribution model.
For example, a histogram may be used as a learning model for nail contour detection. In this case, a correction method such as moving according to the color of the base applied to the nail T based on the mode value of the histogram can be used.
また、本実施形態では、印刷装置1の制御装置30が爪輪郭検出装置として機能し、爪画像から爪輪郭TL等の爪情報の取得や学習モデルの補正を行う爪情報検出部313を備え、全ての処理が印刷装置1において完結する場合を例示したが、爪輪郭検出装置は、印刷装置1の制御装置30に限定されない。
例えば、端末装置7の制御装置80が爪輪郭検出装置として機能し、爪画像から爪輪郭TL等の爪情報の取得や学習モデルの補正を行う爪情報検出部を有してもよい。この場合には、爪輪郭の検出を行うための爪輪郭検出プログラムが端末装置7の制御装置80の記憶部82(記憶部82のプログラム記憶領域821)に格納される。
さらに、端末装置7の制御装置80が印刷データ生成部等の機能部を有してもよい。
この場合には、印刷装置1の撮影部50で取得された爪画像が端末装置7に送られ、端末装置7の制御装置80において、学習モデルの補正や爪情報の検出、印刷用データの生成等が行われる。
印刷用データが端末装置7側で生成される場合には、生成された印刷用データが印刷装置1に送信されて、印刷装置1の印刷部40がこれに基づいて印刷を行う。
このように、印刷や撮影以外の制御動作を端末装置7側で行うことで、印刷装置1を簡易な構成とすることができる。
Further, in the present embodiment, the
For example, the
Furthermore, the
In this case, the nail image acquired by the
When the print data is generated on the
By performing control operations other than printing and photographing on the
以上本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得手段と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成手段と、
前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出手段と、
を備えることを特徴とする爪輪郭検出装置。
<請求項2>
前記画像から前記爪に該当する領域を前記検出領域として検出するサンプリング手段を備えることを特徴とする請求項1に記載の爪輪郭検出装置。
<請求項3>
前記サンプリング手段は、爪輪郭検出用の前記第1の学習モデルを用いて前記爪に該当する領域を検出することを特徴とする請求項2に記載の爪輪郭検出装置。
<請求項4>
前記サンプリング手段は、前記爪を含む画像中の予め定められた領域を前記爪に該当する領域として検出することを特徴とする請求項2に記載の爪輪郭検出装置。
<請求項5>
前記学習モデル生成手段は、前記検出領域の前記画素に関する値について平均値を取得し、当該平均値と爪輪郭検出用の前記第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値の平均値との差分を算出して、これを前記第1の学習モデルを補正する補正値とすることを特徴とする請求項1から請求項4のいずれか一項に記載の爪輪郭検出装置。
<請求項6>
前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを、前記第1の学習モデルとして前記記憶部に記憶させる記憶制御手段を備えることを特徴とする請求項1から請求項5のいずれか一項に記載の爪輪郭検出装置。
<請求項7>
前記検出手段は、
前記第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分が予め定められた閾値を超えている場合、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出し、
前記第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分が予め定められた閾値を超えていない場合、前記第1の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出することを特徴とする請求項1から請求項6のいずれか一項に記載の爪輪郭検出装置。
<請求項8>
請求項1から請求項7のいずれか一項に記載の爪輪郭検出装置と、
前記爪輪郭検出装置によって検出された前記爪輪郭の内側領域を印刷対象領域として印刷を行う印刷手段と、
を備えることを特徴とする印刷装置。
<請求項9>
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得工程と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成工程と、
前記学習モデル生成工程において前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出工程と、
を含むことを特徴とする爪輪郭検出方法。
<請求項10>
コンピュータに、
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得機能と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成機能と、
前記学習モデル生成機能によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出機能と、
を実現させることを特徴とするプログラム。
Although several embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments, and includes the scope of the invention described in the claims and equivalent ranges thereof. .
The invention described in the scope of claims originally attached to the application form of this application is additionally described below. The claim numbers in the appendix are as in the claims originally attached to the filing of this application.
[Appendix]
<Claim 1>
a pixel information obtaining means for obtaining values relating to pixels in a detection area detected from an image including a nail to which a foundation is applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. learning model generation means for generating a second learning model for detection;
detection means for detecting, when the learning model generating means generates the second learning model, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
A nail contour detection device comprising:
<Claim 2>
2. A nail contour detection apparatus according to
<Claim 3>
3. The nail contour detecting device according to
<Claim 4>
3. The nail contour detection apparatus according to
<Claim 5>
The learning model generating means obtains an average value of the values of the pixels in the detection area, and obtains the average value and each normal that constitutes a mixed normal distribution of the base application area in the first learning model for nail contour detection. 5. The method according to any one of
<Claim 6>
A memory control means for storing the second learning model in the storage unit as the first learning model when the second learning model is generated by the learning model generating means. The nail contour detection device according to any one of
<Claim 7>
The detection means is
When the difference between the value of the pixel in the base coating region and the value of the pixel in the detection region in the first learning model exceeds a predetermined threshold value, the second learning model is applied to the image from the The contour of the area where the base is applied is detected as the nail contour,
When the difference between the value of the pixel in the base coating region and the value of the pixel in the detection region in the first learning model does not exceed a predetermined threshold value, the first learning model is applied to the image from the 7. The nail contour detecting device according to any one of
<Claim 8>
a nail contour detection device according to any one of
printing means for printing an area inside the nail contour detected by the nail contour detecting device as a print target area;
A printing device comprising:
<Claim 9>
a pixel information acquisition step of acquiring values relating to pixels in the detection area detected from the image including the nail with the base applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. a learning model generation step of generating a second learning model for detection;
a detection step of applying the second learning model to detect, as a nail contour, a contour of an area where the foundation is applied from the image when the second learning model is generated in the learning model generating step;
A nail contour detection method, comprising:
<Claim 10>
to the computer,
a pixel information acquisition function for acquiring values related to pixels in a detection area detected from an image including a nail with a base applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. a learning model generation function that generates a second learning model for detection;
a detecting function for detecting, when the second learning model is generated by the learning model generating function, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
A program characterized by realizing
1 印刷装置
7 端末装置
31 制御部
32 記憶部
40 印刷部
313 爪情報検出部
314 印刷データ生成部
315 印刷制御部
322 学習モデル記憶領域
323 爪情報記憶領域
Ar 検出領域
TL 爪輪郭
TLe 仮の爪輪郭
T 爪
U 指
1
Claims (10)
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成手段と、
前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出手段と、
を備えることを特徴とする爪輪郭検出装置。 a pixel information obtaining means for obtaining values relating to pixels in a detection area detected from an image including a nail to which a foundation is applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. learning model generation means for generating a second learning model for detection;
detection means for detecting, when the learning model generating means generates the second learning model, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
A nail contour detection device comprising:
前記第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分が予め定められた閾値を超えている場合、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出し、
前記第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分が予め定められた閾値を超えていない場合、前記第1の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出することを特徴とする請求項1から請求項6のいずれか一項に記載の爪輪郭検出装置。 The detection means is
When the difference between the value of the pixel in the base coating region and the value of the pixel in the detection region in the first learning model exceeds a predetermined threshold value, the second learning model is applied to the image from the The contour of the area where the base is applied is detected as the nail contour,
When the difference between the value of the pixel in the base coating region and the value of the pixel in the detection region in the first learning model does not exceed a predetermined threshold value, the first learning model is applied to the image from the 7. The nail contour detecting device according to any one of claims 1 to 6, wherein the contour of the area where the foundation is applied is detected as the nail contour.
前記爪輪郭検出装置によって検出された前記爪輪郭の内側領域を印刷対象領域として印刷を行う印刷手段と、
を備えることを特徴とする印刷装置。 a nail contour detection device according to any one of claims 1 to 7;
printing means for printing an area inside the nail contour detected by the nail contour detecting device as a print target area;
A printing device comprising:
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成工程と、
前記学習モデル生成工程において前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出工程と、
を含むことを特徴とする爪輪郭検出方法。 a pixel information acquisition step of acquiring values relating to pixels in the detection area detected from the image including the nail with the base applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. a learning model generation step of generating a second learning model for detection;
a detection step of applying the second learning model to detect, as a nail contour, a contour of an area where the foundation is applied from the image when the second learning model is generated in the learning model generating step;
A nail contour detection method, comprising:
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得機能と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成機能と、
前記学習モデル生成機能によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出機能と、
を実現させることを特徴とするプログラム。 to the computer,
a pixel information acquisition function for acquiring values related to pixels in a detection area detected from an image including a nail with a base applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. a learning model generation function that generates a second learning model for detection;
a detecting function for detecting, when the second learning model is generated by the learning model generating function, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
A program characterized by realizing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020170515A JP7151753B2 (en) | 2020-10-08 | 2020-10-08 | Nail contour detection device, printing device, nail contour detection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020170515A JP7151753B2 (en) | 2020-10-08 | 2020-10-08 | Nail contour detection device, printing device, nail contour detection method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022062482A JP2022062482A (en) | 2022-04-20 |
JP7151753B2 true JP7151753B2 (en) | 2022-10-12 |
Family
ID=81211002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020170515A Active JP7151753B2 (en) | 2020-10-08 | 2020-10-08 | Nail contour detection device, printing device, nail contour detection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7151753B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012055467A (en) | 2010-09-08 | 2012-03-22 | Casio Computer Co Ltd | Nail printing device and printing control method |
JP2018055364A (en) | 2016-09-28 | 2018-04-05 | カシオ計算機株式会社 | Server device, nail region detecting system and drawing device |
JP2019113972A (en) | 2017-12-22 | 2019-07-11 | カシオ計算機株式会社 | Contour detection device, drawing device, contour detection method and contour detection program |
-
2020
- 2020-10-08 JP JP2020170515A patent/JP7151753B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012055467A (en) | 2010-09-08 | 2012-03-22 | Casio Computer Co Ltd | Nail printing device and printing control method |
JP2018055364A (en) | 2016-09-28 | 2018-04-05 | カシオ計算機株式会社 | Server device, nail region detecting system and drawing device |
JP2019113972A (en) | 2017-12-22 | 2019-07-11 | カシオ計算機株式会社 | Contour detection device, drawing device, contour detection method and contour detection program |
Also Published As
Publication number | Publication date |
---|---|
JP2022062482A (en) | 2022-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109123989B (en) | Drawing system, terminal device, and recording medium | |
US9603431B2 (en) | Nail design device, nail printing apparatus, nail design method, and computer-readable recording medium storing nail design program | |
JP2022169545A (en) | Drawing device, drawing method, and program | |
JP7151753B2 (en) | Nail contour detection device, printing device, nail contour detection method and program | |
US11559995B2 (en) | Printer and printing method | |
JP7310198B2 (en) | NAIL PRINTING DEVICE, DRAWING SYSTEM, TERMINAL DEVICE, DRAWING METHOD AND DRAWING PROGRAM | |
JP6958336B2 (en) | Drawing system, drawing device and terminal device | |
JP7124477B2 (en) | Drawing device, drawing method and program | |
US11738576B2 (en) | Printing device and nail posture confirmation method | |
CN113370667B (en) | Printing apparatus, printing method, and recording medium having program recorded thereon | |
US20220379638A1 (en) | Printing device, printing method, and storage medium | |
JP7226412B2 (en) | DISPLAY DEVICE, PRINTING DEVICE, PRINTING SYSTEM, DISPLAY METHOD AND PROGRAM | |
CN113665252B (en) | Printing apparatus, control method of printing apparatus, and recording medium | |
JP7173256B2 (en) | Drawing system and drawing control method | |
JP7439807B2 (en) | Electronic devices, determination methods and programs | |
US20220363052A1 (en) | Printing device, terminal device, printing system, printing method, and storage medium | |
JP7201011B2 (en) | PRINTING DEVICE, PRINTING METHOD AND PROGRAM | |
JP7087593B2 (en) | Nail printing device, finger type determination method, and program | |
JP7120269B2 (en) | PRINTING DEVICE, PRINTING SYSTEM, PRINT CONTROL METHOD AND PROGRAM | |
JP7334826B2 (en) | nail printing device | |
JP2021145892A (en) | Printer, printing control method, and program | |
JP2024071809A (en) | Electronic device, control method, and program | |
JP2022189245A (en) | Electronic equipment | |
JP2023040826A (en) | Determination device, printing device, determination method, and program | |
JP2019180561A (en) | Nail progress prediction system and nail progress prediction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220912 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7151753 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |